Azure Databricks 接続を設定する

この記事では、Microsoft Fabric でパイプラインと Dataflow Gen2 用の Azure Databricks 接続を作成する手順について説明します。

サポートされている認証の種類

Azure Databricks コネクタでは、コピーとデータフロー Gen2 に対してそれぞれ次の認証の種類がサポートされています。

認証の種類 コピーする データフロー Gen2
ユーザー名/パスワード n/a
個人用アクセス トークン
Microsoft Entra ID n/a

Dataflow Gen2 の接続を設定する

Power Query コネクタを使用して、Microsoft Fabric の Azure Databricks に Dataflow Gen2 を接続できます。 接続を作成するには、次の手順に従います。

  1. 機能、制限事項、および考慮事項を確認して、シナリオがサポートされていることを確認します。
  2. Fabric でデータを取得します
  3. Databricks データに接続します

能力

  • Import
  • DirectQuery (Power BI セマンティック モデル)

データを取得する

Data Factory でデータを取得するには:

  1. Data Factory の左側で [ワークスペース]を選択します。

  2. データファクトリーのワークスペースで 新しい>データフローGen2 を選択して、新しいデータフローを作成します。

    新しいデータフローを作成することを選択したワークスペースを示すスクリーンショット。

  3. Power Query では、リボンの [データ の取得] を選択するか、現在のビューで別のソース からデータを取得 を選択します。

    [データの取得] オプションが強調された Power Query ワークスペースを示すスクリーンショット。

  4. [ データ ソースの選択 ] ページで、[ 検索 ] を使用してコネクタの名前を検索するか、コネクタの一覧の右側にある [さらに表示 ] を選択して、Data Factory で使用可能なすべてのコネクタを表示します。

    検索ボックスとビューの選択が強調された [Data Factory のデータ ソースの選択] ページのスクリーンショット。

  5. その他のコネクタを表示する場合でも、検索 を使用してコネクタの名前を検索することも、カテゴリを選択してそのカテゴリに関連付けられているコネクタの一覧を表示することもできます。

    コネクタの一覧と共に、[さらに表示] を選択した後に表示される [Data Factory のデータ ソースの選択] ページのスクリーンショット。

Databricks データに接続する

Power Query Online から Databricks に接続するには、次の手順を実行します。

  1. データの取得エクスペリエンスで Azure Databricks オプションを選択します。 アプリによって、Power Query Online のデータ取得エクスペリエンスにアクセスする方法が異なります。 Power Query Online でアプリからデータを取得する方法の詳細については、「 データを取得する場所」を参照してください。

    検索ボックスを使用して、使用可能な Databricks コネクタの一覧を表示します。 Databricks 担当者から指示がない限り、すべての Databricks SQL Warehouse データに対して Azure Databricks コネクタを使用します。

    Power Query の Databricks コネクタ オプションのスクリーンショット。

  2. Databricks SQL Warehouse の Server ホスト名HTTP パス を入力します。 「サーバー ホスト名」と「HTTP パス」を検索する手順については、「Databricks ODBC ドライバーと JDBC ドライバー を構成する」を参照してください。 必要に応じて、既定のカタログやデータベースを 詳細オプションで指定できます。

    Azure Databricks の接続設定と資格情報のスクリーンショット

  3. Databricks SQL Warehouse で認証するための資格情報を指定します。 資格情報には、次の 3 つのオプションがあります。

    • ユーザー名/パスワード (AWS または GCP で使用できます)。 組織/アカウントで 2FA/MFA を使用している場合、このオプションは使用できません。
    • アカウント キー (AWS、Azure、または GCP に使用できます)。 個人用アクセス トークン (PAT) の生成手順については、個人用アクセス トークン を参照してください。
    • Azure Active Directory (Azure でのみ使用できます)。 ブラウザー ポップアップを使用して組織アカウントにサインインします。
  4. 正常に接続されると、ナビゲーター が表示され、サーバーで使用可能なデータが表示されます。 ナビゲーターでデータを選択します。 次に、[次へ] を選択して Power Query のデータを変換します。

    Databricks Cloud のデータをオンラインアプリケーションに読み込む Power Query ナビゲーターのスクリーンショット

制限事項と考慮事項

  • Azure Databricks コネクタは、Web プロキシをサポートしています。 ただし、.pac ファイルで定義されている自動プロキシ設定はサポートされていません。
  • Azure Databricks コネクタでは、 Databricks.Query データ ソースは、Power BI セマンティック モデルの DirectQuery モードと組み合わせてサポートされていません。

パイプラインの接続を設定する

次の表に、パイプライン接続に必要なプロパティの概要を示します。

名前 Description 必須 プロパティ コピーする
サーバーホスト名 Azure Databricks インスタンスのホスト名。 例: example.azuredatabricks.net イエス
HTTP パス データの http パス。 例: /sql/1.0/warehouses/abcdef1234567890 イエス
接続名 接続の名前。 イエス
データ ゲートウェイ Azure Databricks インスタンスがパブリックにアクセスできない場合には、既存のデータゲートウェイが必要です。 いいえ
認証の種類 個人用アクセス トークン。 イエス 個人用アクセス トークン。
個人用アクセス トークン を使用する Azure Databricks の個人用アクセス トークン イエス
プライバシー レベル 適用するプライバシー レベル。 使用できる値は、[組織][プライバシー][パブリック] です。 イエス
この接続は、オンプレミスのデータ ゲートウェイと VNet データ ゲートウェイで使用できます この設定は、Azure Databricks インスタンスにアクセスするためにゲートウェイが必要な場合に必要です。 いいえ*

パイプラインで接続を設定する具体的な手順については、次の手順に従います。

  1. データ ファクトリ パイプラインの [新しい接続] ページ を参照して接続の詳細を構成し、接続を作成します。

    新しい接続ページを示すスクリーンショット。

    このページを参照するには、次の 2 つの方法があります。

    • コピー アシスタントでコネクタを選択した後、このページを参照してください。
    • パイプラインで、[接続] セクションで [+ 新規] を選択し、コネクタを選択した後、このページを参照します。
  2. [ 新しい接続 ] ウィンドウで、次のフィールドを指定します。

    • サーバーホスト名 : Azure Databricks インスタンスのホスト名。 例: example.azuredatabricks.net
    • HTTP パス : データの http パス。 例: /sql/1.0/warehouses/abcdef1234567890
    • 接続: [新しい接続を作成する] を選択します。
    • [接続名]: 接続の名前を指定します。
  3. Azure Databricks インスタンスにパブリックにアクセスできない場合は、[データ ゲートウェイ] で既存のデータ ゲートウェイを選択します。

  4. 認証の種類の場合、個人用アクセス トークンはコピー アクティビティで使用できる認証の種類です。 関連する構成で個人用アクセス トークンを指定します。 詳細については、「 個人用アクセス トークン認証」を参照してください。

  5. 必要に応じて、適用するプライバシー レベルを設定します。 使用できる値は、[組織][プライバシー][パブリック] です。 詳細については、 Power Query ドキュメントのプライバシー レベルを参照してください

  6. [作成] を選択して接続を作成します。 すべての資格情報に誤りがない場合は、作成内容が正常にテストされ、保存されます。 正しくない場合、作成処理はエラーを発し終了します。