Delta Live Tables API ガイド
重要
この記事の内容は廃止されており、更新されない可能性があります。 Databricks REST API リファレンスの 「Delta Live Tables 」を参照してください。
Delta Live Tables API を使用すると、パイプラインに関する詳細を作成、編集、削除、開始、および表示できます。
重要
Databricks REST APIsにアクセスするには、 認証する必要があります。
パイプラインを作成する
エンドポイント |
HTTP メソッド |
---|---|
|
|
新しい Delta Live Tables パイプラインを作成します。
例
この例では、新しいトリガーされたパイプラインを作成します。
依頼
curl --netrc -X POST \
https://<databricks-instance>/api/2.0/pipelines \
--data @pipeline-settings.json
pipeline-settings.json
:
{
"name": "Wikipedia pipeline (SQL)",
"storage": "/Users/username/data",
"clusters": [
{
"label": "default",
"autoscale": {
"min_workers": 1,
"max_workers": 5,
"mode": "ENHANCED"
}
}
],
"libraries": [
{
"notebook": {
"path": "/Users/username/DLT Notebooks/Delta Live Tables quickstart (SQL)"
}
}
],
"continuous": false
}
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
要求構造
「パイプライン設定」を参照してください。
パイプラインを編集する
エンドポイント |
HTTP メソッド |
---|---|
|
|
既存のパイプラインの設定を更新します。
例
この例では、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインに target
パラメーターを追加します。
依頼
curl --netrc -X PUT \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5 \
--data @pipeline-settings.json
pipeline-settings.json
{
"id": "a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5",
"name": "Wikipedia pipeline (SQL)",
"storage": "/Users/username/data",
"clusters": [
{
"label": "default",
"autoscale": {
"min_workers": 1,
"max_workers": 5,
"mode": "ENHANCED"
}
}
],
"libraries": [
{
"notebook": {
"path": "/Users/username/DLT Notebooks/Delta Live Tables quickstart (SQL)"
}
}
],
"target": "wikipedia_quickstart_data",
"continuous": false
}
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
要求構造
「パイプライン設定」を参照してください。
パイプラインを削除する
エンドポイント |
HTTP メソッド |
---|---|
|
|
Delta Live Tables システムからパイプラインを削除します。
例
この例では、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインを削除します。
依頼
curl --netrc -X DELETE \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
パイプラインの更新を開始する
エンドポイント |
HTTP メソッド |
---|---|
|
|
パイプラインの更新を開始します。 パイプライン グラフ全体の更新、または特定のテーブルの選択的な更新を開始できます。
例
完全更新を開始する
この例では、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインの完全更新で更新を開始します。
依頼
curl --netrc -X POST \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5/updates \
--data '{ "full_refresh": "true" }'
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
選択したテーブルの更新を開始する
この例では、パイプライン内の sales_orders_cleaned
テーブルと sales_order_in_chicago
テーブルを ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
で更新する更新を開始します。
依頼
curl --netrc -X POST \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5/updates \
--data '{ "refresh_selection": ["sales_orders_cleaned", "sales_order_in_chicago"] }'
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
選択したテーブルの完全な更新を開始する
この例では、 sales_orders_cleaned
テーブルと sales_order_in_chicago
テーブルの更新と、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプライン内の customers
テーブルと sales_orders_raw
テーブルの完全更新を含む更新を開始します。
依頼
curl --netrc -X POST \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5/updates \
--data '{ "refresh_selection": ["sales_orders_cleaned", "sales_order_in_chicago"], "full_refresh_selection": ["customers", "sales_orders_raw"] }'
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
要求構造
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
すべてのデータを再処理するかどうか。 このフィールドはオプションです。 デフォルト値は
|
|
の配列 |
更新するテーブルのリスト。 このフィールドはオプションです。 次の場合、エラーが返されます。
|
|
の配列 |
完全更新で更新するテーブルの一覧。 このフィールドはオプションです。 次の場合、エラーが返されます。
|
パイプライン更新要求の状態を取得する
エンドポイント |
HTTP メソッド |
---|---|
|
|
request_id
に関連付けられているパイプライン更新の状態と情報を取得します。ここで、 request_id
はパイプライン更新を開始する要求の一意の識別子です。更新が再試行または再開されると、新しい更新はrequest_idを継承します。
例
ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインの場合、この例では、要求 ID a83d9f7c-d798-4fd5-aa39-301b6e6f4429
に関連付けられている更新の状態と情報が返されます。
依頼
curl --netrc -X GET \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5/requests/a83d9f7c-d798-4fd5-aa39-301b6e6f4429
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
応答
{
"status": "TERMINATED",
"latest_update":{
"pipeline_id": "a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5",
"update_id": "90da8183-89de-4715-b5a9-c243e67f0093",
"config":{
"id": "aae89b88-e97e-40c4-8e1a-1b7ac76657e8",
"name": "Retail sales (SQL)",
"storage": "/Users/username/data",
"configuration":{
"pipelines.numStreamRetryAttempts": "5"
},
"clusters":[
{
"label": "default",
"autoscale":{
"min_workers": 1,
"max_workers": 5,
"mode": "ENHANCED"
}
}
],
"libraries":[
{
"notebook":{
"path": "/Users/username/DLT Notebooks/Delta Live Tables quickstart (SQL)"
}
}
],
"continuous": false,
"development": true,
"photon": true,
"edition": "advanced",
"channel": "CURRENT"
},
"cause": "API_CALL",
"state": "COMPLETED",
"cluster_id": "1234-567891-abcde123",
"creation_time": 1664304117145,
"full_refresh": false,
"request_id": "a83d9f7c-d798-4fd5-aa39-301b6e6f4429"
}
}
応答構造
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
パイプライン更新要求の状態。 のいずれか 1 つ
|
|
|
パイプラインの一意の識別子。 |
|
|
更新プログラムの一意の識別子。 |
|
パイプライン設定。 |
|
|
|
更新のトリガー。 |
|
|
更新プログラムの状態。 |
|
|
更新を実行しているクラスターの識別子。 |
|
|
更新プログラムが作成されたときのタイムスタンプ。 |
|
|
この更新プログラムが実行前にすべてのテーブルをリセットするかどうか |
|
の配列 |
完全更新なしで更新するテーブルのリスト。 |
|
の配列 |
完全更新で更新するテーブルの一覧。 |
|
|
更新を開始した要求の一意の識別子。 これは、 更新 要求によって返される値です。 更新が再試行または再開されると、新しい更新はrequest_idを継承します。 ただし、 |
アクティブなパイプラインの更新を停止する
エンドポイント |
HTTP メソッド |
---|---|
|
|
アクティブなパイプラインの更新を停止します。 更新が実行されていない場合、この要求は実行されません。
連続パイプラインの場合、パイプラインの実行は停止するです。 現在処理中のテーブルは更新を完了しますが、ダウンストリーム テーブルは更新されません。 次のパイプライン更新時に、Delta Live Tables は、処理が完了しなかったテーブルの選択された更新を実行し、残りのパイプライン DAG の処理を再開します。
トリガーされたパイプラインの場合、パイプラインの実行は停止されます。 現在処理中のテーブルは更新を完了しますが、ダウンストリーム テーブルは更新されません。 次のパイプライン更新時に、 Delta Live Tables はすべてのテーブルを更新します。
例
この例では、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインの更新を停止します。
依頼
curl --netrc -X POST \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5/stop
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
パイプライン イベントの一覧表示
エンドポイント |
HTTP メソッド |
---|---|
|
|
パイプラインのイベントを取得します。
例
この例では、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインの最大 5 つのイベントを取得します。
依頼
curl --netrc -X GET \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5/events?max_results=5
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
要求構造
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
前の呼び出しによって返されたページ トークン。 このフィールドは、max_results を除くこの要求のすべてのフィールドと相互に排他的です。 このフィールドの設定時に max_results 以外のフィールドが設定されている場合は、エラーが返されます。 このフィールドはオプションです。 |
|
|
1 ページに返されるエントリの最大数。 システムは、使用可能なイベントがさらに多い場合でも、応答で返されるイベントが このフィールドはオプションです。 デフォルト値は 25 です。 最大値は 100 です。 |
|
|
結果のタイムスタンプによる並べ替え順序を示す文字列 ( 並べ替え順序は、昇順または降順にすることができます。 デフォルトでは、イベントはタイムスタンプの降順で返されます。 このフィールドはオプションです。 |
|
|
結果のサブセットを選択するための基準で、SQL に似た構文を使用して表されます。 サポートされているフィルターは次のとおりです。
次のような複合式がサポートされています。
このフィールドはオプションです。 |
パイプラインの詳細を取得する
エンドポイント |
HTTP メソッド |
---|---|
|
|
パイプライン設定や最近の更新など、パイプラインに関する詳細を取得します。
例
この例では、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインの詳細を取得します。
依頼
curl --netrc -X GET \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
応答
{
"pipeline_id": "a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5",
"spec": {
"id": "a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5",
"name": "Wikipedia pipeline (SQL)",
"storage": "/Users/username/data",
"clusters": [
{
"label": "default",
"autoscale": {
"min_workers": 1,
"max_workers": 5,
"mode": "ENHANCED"
}
}
],
"libraries": [
{
"notebook": {
"path": "/Users/username/DLT Notebooks/Delta Live Tables quickstart (SQL)"
}
}
],
"target": "wikipedia_quickstart_data",
"continuous": false
},
"state": "IDLE",
"cluster_id": "1234-567891-abcde123",
"name": "Wikipedia pipeline (SQL)",
"creator_user_name": "username",
"latest_updates": [
{
"update_id": "8a0b6d02-fbd0-11eb-9a03-0242ac130003",
"state": "COMPLETED",
"creation_time": "2021-08-13T00:37:30.279Z"
},
{
"update_id": "a72c08ba-fbd0-11eb-9a03-0242ac130003",
"state": "CANCELED",
"creation_time": "2021-08-13T00:35:51.902Z"
},
{
"update_id": "ac37d924-fbd0-11eb-9a03-0242ac130003",
"state": "FAILED",
"creation_time": "2021-08-13T00:33:38.565Z"
}
],
"run_as_user_name": "username"
}
応答構造
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
パイプラインの一意の識別子。 |
|
パイプライン設定。 |
|
|
|
パイプラインの状態。 state = |
|
|
パイプラインを実行しているクラスターの識別子。 |
|
|
このパイプラインのわかりやすい名前。 |
|
|
パイプライン作成者のユーザー名。 |
|
パイプラインの最新の更新の状態 (最新の更新プログラムから順に並べられます)。 |
|
|
|
パイプラインを実行するユーザー名。 |
更新プログラムの詳細を取得する
エンドポイント |
HTTP メソッド |
---|---|
|
|
パイプラインの更新の詳細を取得します。
例
この例では、ID a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5
のパイプラインの更新 9a84f906-fc51-11eb-9a03-0242ac130003
の詳細を取得します。
依頼
curl --netrc -X GET \
https://<databricks-instance>/api/2.0/pipelines/a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5/updates/9a84f906-fc51-11eb-9a03-0242ac130003
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
応答
{
"update": {
"pipeline_id": "a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5",
"update_id": "9a84f906-fc51-11eb-9a03-0242ac130003",
"config": {
"id": "a12cd3e4-0ab1-1abc-1a2b-1a2bcd3e4fg5",
"name": "Wikipedia pipeline (SQL)",
"storage": "/Users/username/data",
"configuration": {
"pipelines.numStreamRetryAttempts": "5"
},
"clusters": [
{
"label": "default",
"autoscale": {
"min_workers": 1,
"max_workers": 5,
"mode": "ENHANCED"
}
}
],
"libraries": [
{
"notebook": {
"path": "/Users/username/DLT Notebooks/Delta Live Tables quickstart (SQL)"
}
}
],
"target": "wikipedia_quickstart_data",
"continuous": false,
"development": false
},
"cause": "API_CALL",
"state": "COMPLETED",
"creation_time": 1628815050279,
"full_refresh": true,
"request_id": "a83d9f7c-d798-4fd5-aa39-301b6e6f4429"
}
}
応答構造
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
パイプラインの一意の識別子。 |
|
|
この更新プログラムの一意の識別子。 |
|
パイプライン設定。 |
|
|
|
更新のトリガー。 |
|
|
更新プログラムの状態。 |
|
|
パイプラインを実行しているクラスターの識別子。 |
|
|
更新プログラムが作成されたときのタイムスタンプ。 |
|
|
これが完全な更新だったかどうか。 true の場合、更新を実行する前にすべてのパイプライン テーブルがリセットされました。 |
パイプラインの一覧表示
エンドポイント |
HTTP メソッド |
---|---|
|
|
Delta Live Tables システムで定義されているパイプラインを一覧表示します。
例
この例では、名前に quickstart
が含まれているパイプラインの詳細を取得します。
依頼
curl --netrc -X GET \
https://<databricks-instance>/api/2.0/pipelines?filter=name%20LIKE%20%27%25quickstart%25%27
取り替える:
<databricks-instance>
を Databricks ワークスペースのインスタンス名に置き換えます (例:1234567890123456.7.gcp.databricks.com
)。
この例では 、.netrc を使用します。 ファイル。
応答
{
"statuses": [
{
"pipeline_id": "e0f01758-fc61-11eb-9a03-0242ac130003",
"state": "IDLE",
"name": "DLT quickstart (Python)",
"latest_updates": [
{
"update_id": "ee9ae73e-fc61-11eb-9a03-0242ac130003",
"state": "COMPLETED",
"creation_time": "2021-08-13T00:34:21.871Z"
}
],
"creator_user_name": "username"
},
{
"pipeline_id": "f4c82f5e-fc61-11eb-9a03-0242ac130003",
"state": "IDLE",
"name": "My DLT quickstart example",
"creator_user_name": "username"
}
],
"next_page_token": "eyJ...==",
"prev_page_token": "eyJ..x9"
}
要求構造
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
前の呼び出しによって返されたページ トークン。 このフィールドはオプションです。 |
|
|
1 ページに返されるエントリの最大数。 システムは、使用可能なイベントがさらに多い場合でも、応答で返されるイベントが このフィールドはオプションです。 デフォルト値は 25 です。 最大値は 100 です。 |
|
の配列 |
結果の順序を指定する文字列のリスト ( このフィールドはオプションです。 |
|
|
指定した条件に基づいて結果のサブセットを選択します。 サポートされているフィルターは次のとおりです。
複合フィルターはサポートされていません。 このフィールドはオプションです。 |
データ構造
このセクションの内容:
クラスタログコンフィグ
クラスター ログへのパス。
フィールド名 |
タイプ |
説明 |
---|---|---|
クラスター ログの DBFS の場所。 目的地を指定する必要があります。 例えば
|
Google クラウドの属性
Google クラウドに関するクラスター作成時に設定される属性です。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
プリエンプティブル エグゼキューターを使用します。 |
|
|
Google サービス アカウント クラスターが Google Identity での認証に使用する電子メール アドレス。 このフィールドは、 GCS と BigQuery のデータソースでの認証に使用されます。 |
|
|
各インスタンスに割り当てられたディスクのサイズ (GB 単位)。 この値は 100 から 4096 の間でなければなりません。 |
GCSSストレージ情報
Google Cloud Storage(GCS)のストレージ情報。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
ファイルの宛先。 例: |
InitScriptInfo (英語)
initスクリプトへのパス。
フィールド名 |
タイプ |
説明 |
---|---|---|
又は
|
DbfsStorageInfo (非推奨) |
initスクリプトのワークスペースの場所。 目的地を指定する必要があります。 例えば
(非推奨)initスクリプトの DBFS の場所。 目的地を指定する必要があります。 例えば
Google Cloud Storage (GCS) の init スクリプトの場所。 宛先を指定する必要があります。 例えば |
パイプラインAutoScale
オートスケール クラスターを定義する属性。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
使用率が低い場合にクラスターをスケールダウンできるワーカーの最小数。 また、作成後にクラスターが持つワーカーの初期数でもあります。 |
|
|
過負荷時にクラスターがスケールアップできるワーカーの最大数。 max_workers厳密にmin_workersより大きい必要があります。 |
|
|
クラスターのオートスケール モード:
|
パイプラインライブラリ
パイプラインの依存関係の仕様。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
Delta Live Tables データセットを定義するノートブックへのパス。パスは Databricks ワークスペース内にある必要があります (例: |
パイプライン新しいクラスター
パイプライン クラスターの仕様。
Delta Live Tables システムでは、次の属性が設定されます。これらの属性は、ユーザーが構成することはできません。
spark_version
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
デフォルトのクラスターを構成するための このフィールドはオプションです。 デフォルト値は |
|
オプションのユーザー指定の Spark 構成キーと値のペアのセットを含むオブジェクト。 また、追加のJVMオプションの文字列を、それぞれ 例 Spark confs: |
|
|
Google クラウド上で動作するクラスターに関する属性です。 クラスターの作成時に指定しない場合は、一連のデフォルト値が使用されます。 |
|
|
|
このフィールドは、1 つの値を使用して、このクラスター内の各 Spark ノードで使用可能なリソースをエンコードします。 たとえば、Spark ノードは、メモリまたはコンピュートを集中的に使用するワークロード用にプロビジョニングおよび最適化できます 使用可能なノードの種類の一覧は、 クラスター API 呼び出しを使用して取得できます。 |
|
|
Spark ドライバーのノードの種類。 このフィールドはオプションです。設定されていない場合、ドライバー ノードの種類は、上記で定義した |
|
の配列 |
このクラスター内の各 Spark ノードに追加される SSH 公開キーの内容。 対応する秘密キーを使用して、ポート |
|
クラスターリソースのタグのセットを含むオブジェクト。 Databricks は、既定のタグに加えて、すべてのクラスター リソースにこれらのタグをタグ付けします。 メモ:
|
|
|
Spark ログを長期保存先に配信するための構成。 1 つのクラスターに指定できる宛先は 1 つだけです。 この設定が指定されている場合、ログは |
|
|
オプションのユーザー指定の環境変数のキーと値のペアのセットを含むオブジェクト。 形式 (X,Y) のキーと値のペアは、ドライバーとワーカーの起動時にそのまま (つまり、 追加の Spark 環境変数の例: |
|
|
initスクリプトを格納するための構成。 宛先はいくつでも指定できます。 スクリプトは、指定された順序で順番に実行されます。 |
|
|
|
クラスターが属するインスタンス プールの ID (オプション)。 「プール構成リファレンス」を参照してください。 |
|
|
ドライバ・ノードに使用するインスタンス・プールのオプションID。 また、 |
|
|
クラスターポリシー ID。 |
|
|
num_workersの場合、このクラスターに必要なワーカー ノードの数。 クラスターには、1 つの Spark ドライバーとワーカー エグゼキューターがあり、合計でワーカー + 1 つの Spark ノードがあります。 クラスターのプロパティを読み取る場合、このフィールドには実際のワーカー数ではなく、必要なワーカー数が反映されます。 たとえば、クラスターのサイズが 5 ワーカーから 10 ワーカーに変更された場合、このフィールドは 10 ワーカーのターゲットサイズを反映するように更新されますが、エグゼキューターにリストされているワーカーは、新しいノードがプロビジョニングされるにつれて 5 から 10 に徐々に増加します。 オートスケールの場合、負荷に基づいてクラスターを自動的にスケールアップおよびスケールダウンするために必要なパラメーター。 このフィールドはオプションです。 |
|
|
欠落しているクラスター属性に ポリシー のデフォルト値を使用するかどうか。 |
パイプライン設定
パイプライン デプロイの設定。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
このパイプラインの一意の識別子。 識別子は Delta Live Tables システムによって作成されるため、パイプラインの作成時に指定することはできません。 |
|
|
このパイプラインのわかりやすい名前。 このフィールドはオプションです。 デフォルトでは、パイプライン名は一意である必要があります。 重複する名前を使用するには、パイプライン設定で |
|
|
パイプラインによって作成されたチェックポイントとテーブルを格納するための DBFS ディレクトリへのパス。 このフィールドはオプションです。 このフィールドが空の場合、システムはデフォルトの場所を使用します。 |
|
の地図 |
パイプラインを実行するクラスターの Spark 構成に追加するキーと値のペアのリスト。 このフィールドはオプションです。 要素は、キーと値のペアとして書式設定する必要があります。 |
|
クラスターがパイプラインを実行するための仕様の配列。 このフィールドはオプションです。 これが指定されていない場合、システムはパイプラインの既定のクラスター構成を選択します。 |
|
|
パイプライン コードと、パイプラインの実行に必要な依存関係を含むノートブック。 |
|
|
|
パイプライン出力データを永続化するためのデータベース名。 詳細については、 Delta Live TablesからHive metastoreにデータを公開する」を参照してください。 |
|
|
これが継続的なパイプラインであるかどうか。 このフィールドはオプションです。 デフォルト値は |
|
|
パイプラインを開発モードで実行するかどうか。 このフィールドはオプションです。 デフォルト値は |
|
|
このパイプライン Photon アクセラレーションが有効になっているかどうか。 このフィールドはオプションです。 デフォルト値は |
|
|
Delta Live Tables リリースチャンネルでは、このパイプラインに使用するランタイムバージョンが指定されています。 サポートされている値は次のとおりです。
このフィールドはオプションです。 デフォルト値は |
|
|
パイプラインを実行する Delta Live Tables 製品エディション:
このフィールドはオプションです。 デフォルト値は |
PipelineStateInfo (パイプライン状態情報)
パイプラインの状態、最新の更新の状態、および関連付けられているリソースに関する情報。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
パイプラインの状態。 |
|
|
パイプラインの一意の識別子。 |
|
|
パイプラインを実行しているクラスターの一意の識別子。 |
|
|
パイプラインのわかりやすい名前。 |
|
パイプラインの最新の更新の状態 (最新の更新プログラムから順に並べられます)。 |
|
|
|
パイプライン作成者のユーザー名。 |
|
|
パイプラインを実行するユーザー名。 これは、パイプライン所有者から派生した読み取り専用の値です。 |
UpdateStateInfo (更新状態情報)
パイプライン更新の現在の状態。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
この更新プログラムの一意の識別子。 |
|
|
更新プログラムの状態。 |
|
|
この更新プログラムが作成されたときのタイムスタンプ。 |
ワークスペースストレージ情報
ワークスペースのストレージ情報。
フィールド名 |
タイプ |
説明 |
---|---|---|
|
|
ファイルの宛先。 例: |