Habilite a configuração de acesso aos dados

Este artigo descreve as configurações de acesso a dados realizadas pelos administradores do Databricks para todos os SQL warehouse usando a interface do usuário.

Observação

Caso o seu workspace esteja habilitado para o Unity Catalog, você não precisa executar os passos deste artigo. Unity Catalog oferece suporte SQL warehouse por padrão.

A Databricks recomenda o uso de volumes do Unity Catalog ou locais externos para se conectar ao armazenamento de objetos em nuvens em vez do perfil da instância. O Unity Catalog simplifica a segurança e a governança de seus dados, fornecendo um local central para administrar e auditar o acesso aos dados em vários espaços de trabalho em seu account. Consulte O que é o Unity Catalog? e Recomendações para o uso de locais externos.

Para configurar todo o armazém SQL usando a API REST, consulte API do armazém SQL.

Importante

A alteração dessas configurações reinicia todos os SQL warehouse em execução.

Para obter uma visão geral de como habilitar o acesso aos dados, consulte Listas de controle de acesso.

Requisitos

  • Você deve ser um administrador do workspace Databricks para definir configurações para todos os SQL warehouses.

Você também pode editar diretamente as entradas da caixa de texto da configuração de acesso de dados.

Configurar uma conta de serviço do Google Clouds

Para configurar todos os depósitos para usar um serviço de nuvens do Google account ao acessar o Google Cloud Storage (GCS):

  1. No Google Clouds Platform, crie um serviço account que tenha permissões nos serviços subjacentes do Google Clouds Platform necessários para acessar seu Google Cloud Storage ativo.

  2. Navegue até a página de configurações do administrador.

  3. Clique no botão compute tab.

  4. Clique em gerenciar ao lado de SQL warehouse.

  5. No campo Google serviço account, digite o endereço email do serviço account cuja identidade será usada para iniciar todos os depósitos SQL.

    Todas as consultas executadas nesses depósitos terão acesso aos serviços subjacentes do Google Clouds Platform com escopo para as permissões concedidas a esse serviço account no Google Clouds Platform.

  6. Clique em Salvar.

Configurar propriedades de acesso a dados para SQL warehouse

  1. Clique no seu nome de usuário na barra superior do site workspace e selecione Admin Settings no menu suspenso.

  2. Clique no botão compute tab.

  3. Clique em gerenciar ao lado de SQL warehouse.

  4. Na caixa de texto Data Access Configuration (Configuração de acesso a dados ), especifique um valor-chave par que contenha propriedades de metastore.

    Importante

    Para definir uma propriedade de configuração do Spark como o valor de um segredo sem expor o valor do segredo ao Spark, defina o valor como {{secrets/<secret-scope>/<secret-name>}}. Substitua <secret-scope> pelo endereço Secret Scope e <secret-name> pelo nome secreto. O valor deve começar com {{secrets/ e terminar com }}. Para obter mais informações sobre essa sintaxe, consulte Sintaxe para fazer referência a segredos em uma propriedade de configuração ou variável de ambiente do Spark.

  5. Clique em Salvar.

O senhor também pode configurar as propriedades de acesso aos dados usando o provedor Databricks Terraform e databricks_sql_global_config.

Propriedades compatíveis

  • Para uma entrada que termina com *, todas as propriedades dentro deste prefixo são compatíveis.

    Por exemplo, spark.sql.hive.metastore.* indica que tanto spark.sql.hive.metastore.jars quanto spark.sql.hive.metastore.version são compatíveis e quaisquer outras propriedades que comecem com spark.sql.hive.metastore.

  • Para propriedades cujos valores contêm informações confidenciais, você pode armazenar essas informações em um segredo e definir o valor da propriedade como o nome do segredo usando a seguinte sintaxe: secrets/<secret-scope>/<secret-name>.

As propriedades a seguir são compatíveis com o SQL warehouse:

  • spark.databricks.hive.metastore.glueCatalog.enabled

  • spark.sql.hive.metastore.*

  • spark.sql.warehouse.dir

  • spark.hadoop.datanucleus.*

  • spark.hadoop.fs.*

  • spark.hadoop.hive.*

  • spark.hadoop.javax.jdo.option.*

  • spark.hive.*

Para obter mais informações sobre como definir essas propriedades, consulte Hive metastoreexterno.