executar um arquivo em um cluster ou um arquivo ou Notebook como um Job em Databricks usando a extensão Databricks para o Visual Studio Code

A extensão Databricks para o Visual Studio Code permite que o senhor execute seu código Python em um cluster ou seu código Python, R, Scala, ou SQL ou Notebook como um Job em Databricks.

Esta informação pressupõe que o senhor já tenha instalado e configurado a extensão Databricks para o Visual Studio Code. Consulte Instalar a extensão Databricks para o Visual Studio Code.

executar um arquivo Python em um cluster

Para executar um arquivo Python em um Databricks cluster usando a extensão Databricks para o Visual Studio Code, com a extensão e o projeto abertos:

  1. Abra o arquivo Python que o senhor deseja executar no site cluster.

  2. Siga um destes procedimentos:

    • Na barra de título do editor de arquivos, clique no ícone Databrickse, em seguida, clique em upload e execute File.

      upload e execução do arquivo a partir do ícone
    • No Explorer view (Exibir > Explorer), clique com o botão direito do mouse no arquivo e selecione execução em Databricks > upload e execução de arquivo no menu de contexto.

      upload e execução de arquivos a partir do menu de contexto

O arquivo execução no site cluster, e a saída está disponível no Console de depuração(view > Debug Console).

executar a Python file as a Job

Para executar um arquivo Python como um trabalho Databricks usando a extensão Databricks para o Visual Studio Code, com a extensão e o projeto abertos:

  1. Abra o arquivo Python que o senhor deseja executar como um trabalho.

  2. Siga um destes procedimentos:

    • Na barra de título do editor de arquivos, clique no ícone executar em Databricks e, em seguida, clique em executar File as fluxo de trabalho.

      execução file as fluxo de trabalho from icon
    • No Explorer view (Exibir > Explorer), clique com o botão direito do mouse no arquivo e selecione executar em Databricks > executar arquivo como fluxo de trabalho no menu de contexto.

      arquivo de execução como fluxo de trabalho a partir do menu de contexto

Um novo editor tab aparece, com o título Databricks Job execução. O arquivo é executado como um trabalho no site workspace e qualquer saída é impressa na tabárea de saída do novo editor .

Para obter view informações sobre a execução do trabalho, clique no link ID da execução da tarefa no novo editor de execuçãoDatabricks Job tab. O site workspace é aberto e os detalhes da execução do trabalho são exibidos em workspace.

executar um Python, R, Scala, ou SQL Notebook como um trabalho

Para executar um Notebook como um Databricks Job usando a extensão Databricks para o Visual Studio Code, com a extensão e o projeto abertos:

  1. Abra o Notebook que o senhor deseja executar como um Job.

    Dica

    Para transformar um arquivo Python, R, Scala ou SQL em um Databricks Notebook, adicione o comentário # Databricks notebook source ao início do arquivo e adicione o comentário # COMMAND ---------- antes de cada célula. Para obter mais informações, consulte Importar um arquivo e convertê-lo em um Notebook.

    Um arquivo de código Python formatado como um notebook Databricks 1
  2. Siga um destes procedimentos:

    • Na barra de título do editor de arquivos do Notebook, clique no ícone executar em Databricks e, em seguida, clique em executar File as fluxo de trabalho.

    Observação

    Se a execução em Databricks as fluxo de trabalho não estiver disponível, consulte Criar uma configuração de execução personalizada.

    • No Explorer view (Exibir > Explorer), clique com o botão direito do mouse no arquivo do Notebook e selecione executar em Databricks > executar arquivo como fluxo de trabalho no menu de contexto.

Um novo editor tab aparece, com o título Databricks Job execução. A execução do Notebook como um trabalho no site workspace. O Notebook e sua saída são exibidos no novo editor tab's Output area.

Para obter view informações sobre a execução da tarefa, clique no link ID da execução da tarefa no editor de execuçãoDatabricks Job tab. O site workspace é aberto e os detalhes da execução do trabalho são exibidos em workspace.

Criar uma configuração de execução personalizada

Uma configuração de execução personalizada para a extensão Databricks do Visual Studio Code permite que o senhor passe argumentos personalizados para um Job ou um Notebook, ou crie configurações de execução diferentes para arquivos diferentes.

Para criar uma configuração de execução personalizada, clique em execução > Add Configuration no menu principal do Visual Studio Code. Em seguida, selecione Databricks para uma configuração de execução baseada em clusterou Databricks: fluxo de trabalho para uma configuração de execução baseada em Job.

Por exemplo, a configuração de execução personalizada a seguir modifica o arquivo de execução como fluxo de trabalho launch comando para passar o argumento --prod para o Job:

{
  "version": "0.2.0",
  "configurations": [
    {
      "type": "databricks-workflow",
      "request": "launch",
      "name": "Run on Databricks as Workflow",
      "program": "${file}",
      "parameters": {},
      "args": ["--prod"]
    }
  ]
}

Dica

Adicione "databricks": true à sua configuração "type": "python" se quiser usar a configuração Python, mas aproveitar a autenticação do Databricks Connect que faz parte da configuração da extensão.

Usando configurações de execução personalizadas, o senhor também pode passar argumentos de linha de comando e executar seu código apenas pressionando F5. Para obter mais informações, consulte Configurações de inicialização na documentação do Visual Studio Code.