Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
In diesem Lernprogramm verwenden Sie Databricks-Secrets, um Anmeldedaten für die Verbindung mit einem Azure Data Lake Storage-Konto einzurichten.
Voraussetzungen
Bevor Sie beginnen, müssen Sie die Databricks CLI mit Authentifizierung für Ihren Arbeitsbereich installieren und konfigurieren. Sie können sich mithilfe eines Konfigurationsprofils oder einer Umgebungsvariablen authentifizieren. Anweisungen zum Einrichten finden Sie unter "Authentication for the Databricks CLI ".
Schritt 1: Erstellen eines geheimen Bereichs
Erstellen Sie einen Geheimnisbereich mit dem Namen jdbc.
databricks secrets create-scope jdbc
Um einen geheimen Bereich, der durch den Azure Key Vault gesichert ist, zu erstellen, befolgen Sie die Anweisungen unter Geheime Bereiche verwalten.
Schritt 2: Hinzufügen von Secrets zum geheimen Speicherbereich
Fügen Sie die Geheimnisse username und password hinzu. Führen Sie die folgenden Befehle aus, und geben Sie die Geheimniswerte im geöffneten Editor ein.
databricks secrets put-secret jdbc username
databricks secrets put-secret jdbc password
Schritt 3: Verwenden der geheimen Schlüssel in einem Notizbuch
Verwenden Sie das dbutils.secrets Hilfsprogramm, um auf geheime Schlüssel in Notizbüchern zuzugreifen.
Im folgenden Beispiel werden die Secrets gelesen, die im Secret Scope jdbc gespeichert sind, um eine JDBC-Leseoperation zu konfigurieren.
Python
username = dbutils.secrets.get(scope = "jdbc", key = "username")
password = dbutils.secrets.get(scope = "jdbc", key = "password")
df = (spark.read
.format("jdbc")
.option("url", "<jdbc-url>")
.option("dbtable", "<table-name>")
.option("user", username)
.option("password", password)
.load()
)
Scala
val username = dbutils.secrets.get(scope = "jdbc", key = "username")
val password = dbutils.secrets.get(scope = "jdbc", key = "password")
val df = spark.read
.format("jdbc")
.option("url", "<jdbc-url>")
.option("dbtable", "<table-name>")
.option("user", username)
.option("password", password)
.load()
Die aus dem Bereich abgerufenen Werte werden aus der Notizbuchausgabe redagiert. Siehe "Geheime Redaction".
Schritt 4: Erteilen einer Gruppenberechtigung für den geheimen Bereich
Hinweis
Für diesen Schritt ist der Premium-Plan erforderlich.
Nachdem Sie überprüft haben, ob die Anmeldeinformationen ordnungsgemäß konfiguriert wurden, können Sie anderen Benutzern und Gruppen in Ihrem Arbeitsbereich Berechtigungen für den geheimen Bereich erteilen.
Erteilen Sie der datascience Gruppe die LESE-Berechtigung für den geheimen Bereich:
databricks secrets put-acl jdbc datascience READ
Weitere Informationen zur Kontrolle des geheimen Zugriffs finden Sie unter Geheimnis-ACLs.