TIBCO Spotfire Analyst に接続する
この記事では、 Databricks クラスターまたは Databricks SQLウェアハウスで TIBCO Spotfire Analyst を使用する方法について説明します。
要件
-
注
セキュリティのベスト プラクティスとして、自動化されたツール、システム、スクリプト、アプリを使用して認証する場合、 Databricksでは、ワークスペース ユーザーではなく、サービス プリンシパルに属する個人のアクセス トークンを使用することをお勧めします。 サービスプリンシパルのトークンを作成するには、 「サービスプリンシパルのトークンの管理」を参照してください。
クラスターの接続の詳細、特に [サーバーのホスト名]、[ ポート]、および [HTTP パス ] の値。 「Databricks コンピュート リソースの接続の詳細を取得する」を参照してください。
接続 するステップ
TIBCO Spotfire Analyst のナビゲーション バーで、プラス (ファイルとデータ) アイコンをクリックし、[ 接続先] をクリックします。
[ Databricks ] を選択し、[ 新しい接続] をクリックします。
[Apache Spark SQL] ダイアログの [全般] タブの [サーバー] に、ステップ 1 の [サーバーのホスト名] フィールドと [ポート] フィールドの値をコロンで区切って入力します。
[ 認証方法] で [ ユーザー名とパスワード] を選択します。
[ユーザー名] に「
token
」と入力します。[パスワード] には、ステップ 1 から個人用アクセストークンを入力します。
[ 詳細設定 ] タブの [Thrift] トランスポート モードで、[ HTTP] を選択します。
[HTTP パス ] に、ステップ 1 の HTTP パス フィールド値を入力します。
[ 全般 ] タブで、[ 接続] をクリックします。
接続に成功したら、[ データベース ] ボックスの一覧で使用するデータベースを選択し、[ OK] をクリックします。
分析 する Databricks データを選択する
[ 接続のビュー] ダイアログでデータを選択します。
Databricks で使用可能なテーブルを参照します。
TIBCO Spotfire で分析するデータ テーブルとなるビューとして必要なテーブルを追加します。
ビューごとに、含める列を決定できます。 非常に具体的で柔軟なデータ選択を作成する場合は、このダイアログで次のようなさまざまな強力なツールにアクセスできます。
カスタム クエリー。 カスタム クエリーでは、カスタム SQL クエリーを入力して、分析するデータを選択できます。
プロンプト。 データの選択は、分析ファイルのユーザーに任せます。 プロンプトは、選択した列に基づいて構成します。 その後、分析を開いたエンド ユーザーは、関連する値のみのデータを制限および表示することを選択できます。 たとえば、ユーザーは、特定の期間内または特定の地理的地域のデータを選択できます。
OK をクリックします。
クエリを Databricks にプッシュダウンするか、データ をインポートする
分析するデータを選択したら、最後の手順として、Databricks からデータを取得する方法を選択します。 分析に追加するデータ テーブルの概要が表示され、各テーブルをクリックしてデータの読み込み方法を変更できます。
Databricks のデフォルト・オプションは 「外部」です。つまり、データ テーブルは Databricks のデータベース内に保持され、TIBCO Spotfire は、分析でのアクションに基づいて、関連するデータ スライスの異なるクエリーをデータベースにプッシュします。
[インポート済み] を選択すると、TIBCO Spotfire によってデータ テーブル全体が事前に抽出され、ローカルのインメモリ分析が可能になります。データ テーブルをインポートするときは、TIBCO Spotfire の埋め込みメモリ内データ エンジンの分析関数も使用します。
3 番目のオプションは On-demand (動的 WHERE
句に対応) で、分析でのユーザー アクションに基づいてデータのスライスが抽出されます。 データのマーキングやフィルター処理、ドキュメント プロパティの変更などのアクションなどの条件を定義できます。 オンデマンド データ ロードは、 外部 データ テーブルと組み合わせることもできます。