execução de consultas federadas em outro espaço de trabalho do Databricks
Este artigo descreve como configurar o Lakehouse Federation para executar consultas federadas em dados Databricks em outro Databricks workspace. Para saber mais sobre a lakehouse Federation, consulte O que é a lakehouse Federation?
Importante
Databricks-to-Databricks lakehouse Federation é uma boa ferramenta para executar query em dados gerenciados por outro metastore Hive ou AWS Glue do workspaceDatabricks. Para a maioria dos outros cenários, outros fluxos de trabalho do Databricks são mais eficientes:
Se workspace do Databricks compartilhar o mesmo metastore Unity Catalog , você poderá gerenciarquery entre workspace usando query padrão Unity Catalog e as ferramentas de governança de dados.
Se você deseja acesso somente leitura aos dados em um workspace Databricks anexado a um metastore Unity Catalog diferente, seja em sua account Databricks ou não, o compartilhamento Delta é uma escolha melhor.
Não há necessidade de configurar a federação lakehouse em nenhum desses cenários.
Para se conectar a um catálogo do Databricks em outro workspace usando a federação lakehouse , você deve criar o seguinte em seu metastore do Databricks Unity Catalog:
Um clusters ou SQL warehouse em um workspace do Databricks.
Uma conexão com os clusters ou SQL warehouse.
Um catálogo externo em seu metastore Unity Catalog que espelha o outro catálogo do Databricks acessível a partir dos clusters ou SQL warehouse para que você possa usar a sintaxe query Unity Catalog e as ferramentas de governança de dados para gerenciar o acesso do usuário do Databricks aos dados.
Antes de começar
Requisitos workspace :
workspace ativado para Unity Catalog.
requisitos compute :
Conectividade de rede do seu recurso compute para os sistemas de banco de dados de destino. Veja as recomendações do Networking para a Lakehouse Federation.
Databricks compute deve usar Databricks Runtime 13.3 LTS ou acima e modo de acesso de usuário compartilhado ou único.
Os SQL warehouse devem ser Pro ou Serverless e devem utilizar a versão 2023.40 ou superior.
Permissões necessárias:
Para criar uma conexão, você deve ser um administrador do metastore ou um usuário com o privilégio
CREATE CONNECTION
no metastore do Unity Catalog anexado ao workspace.Para criar um catálogo externo, você deve ter a permissão
CREATE CATALOG
no metastore e ser o proprietário da conexão ou ter o privilégioCREATE FOREIGN CATALOG
na conexão.
Requisitos de permissão adicionais são especificados em cada seção baseada em tarefa a seguir.
Você também deve ter clusters ativos ou SQL warehouse no workspace Databricks que está usando para configurar a conexão.
Criar uma conexão
Uma conexão especifica um caminho e credenciais para acessar um sistema de banco de dados externo. Para criar uma conexão, você pode usar o Catalog Explorer ou o comando SQL CREATE CONNECTION
em um Notebook do Databricks ou no editor query Databricks SQL .
Observação
O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar uma conexão. Veja POST /api/2.1/unity-catalog/connections e Unity Catalog comando.
Permissões necessárias: administrador ou usuário do metastore com o privilégio CREATE CONNECTION
.
No seu workspace do Databricks, clique em Catálogo.
Na parte superior do painel Catálogo, clique no ícone Add e selecione Add a connection (Adicionar uma conexão ) no menu.
Como alternativa, na página Quick access (Acesso rápido ), clique no botão External data (Dados externos) >, acesse Connections (Conexões ) tab e clique em Create connection (Criar conexão).
Digite um nome de conexão amigável.
Selecione um tipo de conexão de Databricks.
Insira as seguintes propriedades de conexão para a outra instância do Databricks.
Host: nome da instância workspace . Para saber como obter o nome da instância do espaço de trabalho, consulte Obter identificadores para objetos do espaço de trabalho.
Caminho HTTP: O caminho HTTP para seu SQL warehouse. Para obter o caminho, vá para SQL > SQL Warehouses na barra lateral, selecione o SQL warehouse, vá para a tab Connection details e copie o valor para HTTP path.
access tokenspessoal: access tokens pessoal do Databricks que permitem o acesso ao workspace de destino. Para saber como obter tokens, consulte Autenticação access tokens pessoal do Databricks. Para conexões, a Databricks recomenda o uso de um access token pessoal para uma entidade de serviço.
(Opcional) Clique em Testar conexão para confirmar se funciona.
(Opcional) Adicione um comentário.
Clique em Criar.
execução do seguinte comando em um Notebook ou no editor query Databricks SQL , substituindo o seguinte:
<connection-name>
: nome amigável para a conexão que você está criando.<workspace-instance>
: a instância workspace de destino. Para saber como obter o nome da instância do espaço de trabalho, consulte Obter identificadores para objetos do espaço de trabalho.<sql-warehouse-path>
: O caminho HTTP para seu SQL warehouse. Para obter o caminho, vá para SQL > SQL Warehouses na barra lateral, selecione o SQL warehouse, vá para a tab Connection details e copie o valor para HTTP path.<personal-access-token>
: um access token pessoal do Databricks que permite o acesso ao workspace de destino. Para saber como obter tokens, consulte Autenticação tokens de acesso pessoal do Databricks. Para conexões, a Databricks recomenda que você use um access token pessoal de uma entidade de serviço.
CREATE CONNECTION <connection-name> TYPE databricks
OPTIONS (
host '<workspace-instance>',
httpPath '<sql-warehouse-path>',
personalAccessToken '<personal-access-token>'
);
Recomendamos que você use segredos do Databricks em vez de strings de texto sem formatação para valores confidenciais, como credenciais. Por exemplo:
CREATE CONNECTION <connection-name> TYPE databricks
OPTIONS (
host '<workspace-instance>',
httpPath '<sql-warehouse-path>',
personalAccessToken secret ('<secret-scope>','<secret-key-password>')
)
Para obter informações sobre como configurar segredos, consulte Gerenciamento de segredos.
Criar um catálogo estrangeiro
Um catálogo externo espelha um catálogo no workspace externo do Databricks para que você possa query e gerenciar o acesso aos dados nesse catálogo externo do Databricks como se fosse um catálogo em seu próprio espaço de trabalho. Para criar um catálogo externo, você usa uma conexão com o workspace Databricks externo que já foi definido.
Para criar um catálogo externo, você pode usar o Catalog Explorer ou o comando SQL CREATE FOREIGN CATALOG
em um Notebook do Databricks ou no editor query Databricks SQL .
Observação
O senhor também pode usar a API REST da Databricks ou a CLI da Databricks para criar um catálogo. Veja POST /api/2.1/unity-catalog/catalogs e Unity Catalog comando.
Permissões necessárias: permissão CREATE CATALOG
no metastore e propriedade da conexão ou o privilégio CREATE FOREIGN CATALOG
na conexão.
Em seu site Databricks workspace, clique em Catalog para abrir o Catalog Explorer.
Na parte superior do painel Catalog (Catálogo ), clique no ícone Add (Adicionar ) e selecione Add a catalog (Adicionar um catálogo ) no menu.
Como alternativa, na página de acesso rápido, clique no botão Catalogs (Catálogos ) e, em seguida, clique no botão Create catalog (Criar catálogo ).
Siga as instruções para criar catálogos estrangeiros em Criar catálogos.
execução do seguinte comando SQL em um editor SQL Notebook ou Databricks SQL . Os itens entre colchetes são opcionais. Substitua os valores de espaço reservado:
<catalog-name>
: Nome do catálogo externo que você está criando.<connection-name>
: O objeto de conexão que especifica a fonte de dados, o caminho e as credenciais de acesso.<external-catalog-name>
: nome do catálogo no workspace externo do Databricks que você está espelhando.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (catalog '<external-catalog-name>');
Flexões com apoio
Os seguintes pushdowns são suportados em todos os sites compute:
Filtros
Projeções
Limite
Funções: somente expressões de filtro são suportadas (funções de cadeias de caracteres, funções matemáticas, funções de dados, tempo e registro de data e hora e outras funções diversas, como Alias, Cast, SortOrder).
Os seguintes pushdowns são compatíveis com o Databricks Runtime 13.3 LTS e com o acima e o SQL warehouse compute:
Agregados
Os seguintes operadores Boolean: =, <, <=, >, >=, <=>
As seguintes funções matemáticas (não suportadas se o ANSI estiver desativado): +, -, *, %, /
Os seguintes operadores diversos: ^, |, ~
A classificação, quando usada com o limite
Os seguintes pushdowns não são suportados:
unir-se
Funções do Windows