O que é a CLI do Databricks?

Observação

Essas informações se aplicam ao site Databricks CLI versões 0.205 e superiores. A CLI da Databricks está em visualização pública.

Databricks CLI O uso está sujeito à LicençaDatabricks e ao Aviso de PrivacidadeDatabricks , incluindo qualquer provisionamento de Dados de Uso.

A interface de linha de comando do Databricks (também conhecida como CLI do Databricks) disponibiliza uma ferramenta para automatizar a plataforma Databricks pelo seu terminal, prompt de comando ou scripts de automação. Você pode também executar comandos da CLI do Databricks em um espaço de trabalho do Databricks usando o terminal da web. Consulte Executar comandos shell no terminal web do Databricks.

Para instalar e configurar a autenticação para a CLI da Databricks, consulte Instalar ou atualizar a CLI da Databricks e Autenticação para a CLI da Databricks.

Informações para usuários da CLI antiga do Databricks

  • O Databricks não tem planos de oferecer suporte ou realizar novos trabalhos em recursos para a CLI antiga do Databricks.

  • Para mais informações sobre a CLI antiga do Databricks, consulte CLI do Databricks (antiga).

  • Para migrar da CLI do Databricks versão 0.18 ou inferior para a CLI do Databricks versão 0.205 ou superior, consulte Migração da CLI do Databricks.

Como funciona a CLI do Databricks?

A CLI encapsula a API REST do Databricks, que fornece endpoints para modificar ou solicitar informações sobre a conta do Databricks e objetos de workspaces. Consulte a referência da API REST do Databricks.

Por exemplo, para imprimir informações sobre um cluster individual em um workspace, execute a CLI da seguinte maneira:

databricks clusters get 1234-567890-a12bcde3

Com curl, a operação equivalente é a seguinte:

curl --request GET "https://${DATABRICKS_HOST}/api/2.0/clusters/get" \
     --header "Authorization: Bearer ${DATABRICKS_TOKEN}" \
     --data '{ "cluster_id": "1234-567890-a12bcde3" }'

Exemplo: criar um job do Databricks

O exemplo a seguir utiliza a CLI para criar um job do Databricks. Esse job contém uma única tarefa de job. Esta tarefa executa o notebook do Databricks especificado. Esse notebook tem uma dependência com uma versão específica do pacote PyPI chamada wheel. Para executar essa tarefa, o job cria temporariamente um cluster de jobs que exporta uma variável de ambiente chamada PYSPARK_PYTHON. Após a execução do job, o cluster é encerrado.

databricks jobs create --json '{
  "name": "My hello notebook job",
  "tasks": [
    {
      "task_key": "my_hello_notebook_task",
      "notebook_task": {
        "notebook_path": "/Workspace/Users/someone@example.com/hello",
        "source": "WORKSPACE"
      },
      "libraries": [
        {
          "pypi": {
            "package": "wheel==0.41.2"
          }
        }
      ],
      "new_cluster": {
        "spark_version": "13.3.x-scala2.12",
        "node_type_id": "n2-highmem-4",
        "num_workers": 1,
        "spark_env_vars": {
          "PYSPARK_PYTHON": "/databricks/python3/bin/python3"
        }
      }
    }
  ]
}'

Próximas etapas