Google BigQuery でフェデレーション クエリを実行する

プレビュー

この機能はパブリックプレビュー段階です。

この記事では、Databricks によって管理されていない BigQuery データに対してフェデレーション クエリを実行するためにレイクハウスフェデレーションを設定する方法について説明します。 レイクハウスフェデレーションの詳細については、 「レイクハウスフェデレーションとは」を参照してください。

レイクハウスフェデレーションを使用して BigQuery データベースに接続するには、Databricks Unity Catalog メタストアに以下を作成する必要があります。

  • BigQuery データベース への接続

  • Unity Catalog のクエリー構文ツールとデータガバナンス ツールを使用してデータベースへの Databricks ユーザー アクセスを管理できるように、Unity Catalog で BigQuery データベースをミラーリングする 外部カタログ

始める前に

ワークスペースの要件:

  • Unity Catalog に対して有効なワークスペース。

コンピュートの要件:

  • Databricks Runtime クラスターまたは SQLウェアハウスからターゲット データベース システムへのネットワーク接続。 「レイクハウスフェデレーションのネットワークに関する推奨事項」を参照してください。

  • Databricks クラスターでは、Databricks Runtime 13.3 LTS 以降と、共有またはシングル ユーザー アクセス モードを使用する必要があります。

  • SQLウェアハウスは Pro または サーバレス である必要があります。

必要な権限:

  • 接続を作成するには、メタストア管理者であるか、ワークスペースにアタッチされている Unity Catalog メタストアに対する CREATE CONNECTION 特権を持つユーザーである必要があります。

  • 外部カタログを作成するには、メタストアに対する CREATE CATALOG 権限を持ち、接続の所有者であるか、接続に対する CREATE FOREIGN CATALOG 権限を持っている必要があります。

追加のアクセス許可要件は、以下の各タスクベースのセクションで指定されています。

接続を作成する

接続は、外部データベース・システムにアクセスするためのパスと資格情報を指定します。 接続を作成するには、カタログエクスプローラを使用するか、Databricks ノートブックの CREATE CONNECTION SQL コマンド、または Databricks SQL クエリーエディタを使用します。

必要な権限: メタストア管理者または CREATE CONNECTION 権限を持つユーザー。

  1. Databricks ワークスペースで、カタログ アイコン [カタログ] をクリックします 。

  2. 左側のウィンドウで、[ 外部データ ] メニューを展開し、[ 接続] を選択します。

  3. [ 接続の作成] をクリックします。

  4. わかりやすい 接続名を入力します。

  5. [接続タイプ] で [BigQuery] を選択します。

  6. BigQuery インスタンスの次の接続プロパティを入力します。

    GoogleServiceAccountKeyJson: BigQuery プロジェクトの指定と認証の提供に使用される未加工の JSON オブジェクト。 このJSONオブジェクトを生成し、Googleクラウドのサービスアカウント詳細ページの「KEYS」からダウンロードできます。 サービス アカウントには、BigQuery で適切な権限(BigQuery ユーザーや BigQuery データビューアなど)が付与されている必要があります。 次に例を示します。

    {
      "type": "service_account",
      "project_id": "PROJECT_ID",
      "private_key_id": "KEY_ID",
      "private_key": "-----BEGIN PRIVATE KEY-----\nPRIVATE_KEY\n-----END PRIVATE KEY-----\n",
      "client_email": "SERVICE_ACCOUNT_EMAIL",
      "client_id": "CLIENT_ID",
      "auth_uri": "https://accounts.google.com/o/oauth2/auth",
      "token_uri": "https://accounts.google.com/o/oauth2/token",
      "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
      "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/SERVICE_ACCOUNT_EMAIL",
      "universe_domain": "googleapis.com"
    }
    
  7. (オプション)[ 接続のテスト ] をクリックして、ネットワーク接続を確認します。 このアクションでは、認証はテストされません。

  8. (オプション)コメントを追加します。

  9. 作成」をクリックします。

ノートブックまたは Databricks SQL クエリーエディターで次のコマンドを実行します。 <GoogleServiceAccountKeyJson> を、BigQuery プロジェクトを指定し、認証を提供する未加工の JSON オブジェクトに置き換えます。このJSONオブジェクトを生成し、Googleクラウドのサービスアカウント詳細ページの「KEYS」からダウンロードできます。 サービス アカウントには、BigQuery ユーザーや BigQuery データビューアなど、BigQuery で適切な権限が付与されている必要があります。 JSON オブジェクトの例については、このページの「 カタログエクスプローラ」(Catalog Explorer ) タブを参照してください。

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson '<GoogleServiceAccountKeyJson>'
);

資格情報などの機密性の高い値には、プレーンテキスト文字列ではなく Databricks シークレット を使用することをお勧めします。 例えば:

CREATE CONNECTION <connection-name> TYPE bigquery
OPTIONS (
  GoogleServiceAccountKeyJson secret ('<secret-scope>','<secret-key-user>')
)

シークレットの設定については、「 シークレット管理」を参照してください。

外部カタログの作成

外部カタログは、Databricks と Unity Catalog を使用して、そのデータベース内のデータへのアクセスをクエリーおよび管理できるように、外部データ システム内のデータベースをミラーリングします。 外部カタログを作成するには、すでに定義されているデータソースへの接続を使用します。

外部カタログを作成するには、カタログエクスプローラを使用するか、DatabricksノートブックまたはDatabricks SQLクエリーエディタで CREATE FOREIGN CATALOG を使用できます。

必要なアクセス許可: メタストアに対する CREATE CATALOG アクセス許可と、接続の所有権または接続に対する CREATE FOREIGN CATALOG 権限のいずれか。

  1. Databricks ワークスペースで、カタログ アイコン [カタログ] をクリックします 。

  2. カタログの作成 」ボタンをクリックします。

  3. 新規カタログの作成 」ダイアログで、カタログの名前を入力し、「 タイプ 」で 「外部」を選択します。

  4. Unity Catalog カタログとしてミラー化するデータベースへのアクセスを提供する [接続 ] を選択します。

  5. [作成]をクリックします。

ノートブックまたは Databricks SQL エディターで次の SQL コマンドを実行します。 括弧内の項目はオプションです。 プレースホルダー値を置き換えます。

  • <catalog-name>: Databricks のカタログの名前。

  • <connection-name>: データソース、パス、およびアクセス資格情報を指定する 接続オブジェクト

CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>;

サポートされているプッシュダウン

次のプッシュダウンがサポートされています。

  • フィルター

  • 予測

  • 制限

  • 関数: 部分的、フィルター式のみ。 (文字列関数、数学関数、データ関数、時刻関数、タイムスタンプ関数、およびその他の関数 (Alias、Cast、SortOrder など)

  • 集計

  • 並べ替え (制限付きで使用した場合)

次のプッシュダウンはサポートされていません。

  • テーブル結合(join)

  • Windows の機能

データ型のマッピング

次の表に、BigQuery と Spark のデータ型のマッピングを示します。

BigQuery タイプ

Spark タイプ

bignumeric, numeric

DecimalType (10 進数型)

int64

LongType

float64

DoubleType

array, geography, interval, json, string, struct

VarcharType (可変文字型)

bytes

BinaryType

bool

BooleanType

date

DateType

datetime, time, timestamp

TimestampType/TimestampNTZType

BigQuery から読み取る場合、BigQuery Timestamp は Spark TimestampType にマッピングされます ( preferTimestampNTZ = false デフォルト)。 BigQuery TimestampTimestampNTZType にマッピングされます ( preferTimestampNTZ = trueの場合)。