Lernprogramm: Verwenden von SSIS-Paketen zum Schreiben von Dateien in OneLake über Azure Data Lake Storage Gen2

In diesem Lernprogramm wird gezeigt, wie Sie ein vorhandenes SSIS-Paket ausführen, das Dateien in Azure Data Lake Storage (ADLS) Gen2 schreibt, und diese Dateien dann mithilfe einer Verknüpfung in OneLake anzeigen. Durch die Kombination der Aufruf-SSIS-Paketaktivität in Data Factory für Microsoft Fabric mit OneLake-Verknüpfungen können Sie alle Ihre Daten in OneLake zentralisieren – sogar daten, die von älteren SSIS-Workloads erstellt wurden.

Anwendungsfall

Viele Organisationen verfügen über SSIS-Pakete, die Daten extrahieren und transformieren, und schreiben die Ergebnisse dann als Flat Files (CSV, Parkett, XML und andere) in Azure Data Lake Storage Gen2. Diese Dateien werden von nachgelagerten Analyse- und Berichtssystemen genutzt.

Mit Microsoft Fabric können Sie diese Dateien in OneLake übertragen, ohne Ihre SSIS-Paketlogik zu ändern:

  • Vorhandene SSIS-Investitionen bewahren – Verwenden Sie weiterhin bewährte Pakete, die Dateien über den Azure Storage-Verbindungs-Manager in ADLS Gen2 schreiben. Es ist keine Paketneuschreibung erforderlich.
  • Zentralisieren Sie Daten in OneLake – Erstellen Sie eine ADLS Gen2-Verknüpfung in einem Fabric Lakehouse, sodass dateien, die von SSIS geschrieben wurden, automatisch in OneLake angezeigt werden, die von Spark, SQL, Power BI und anderen Fabric-Workloads verwendet werden können.
  • Orchestrieren in Fabric – Verwenden Sie die Invoke SSIS-Paket-Aktivität in einer Fabric-Pipeline, um die Paketausführung zusammen mit anderen Fabric-nativen Aktivitäten zu planen und zu überwachen.

Voraussetzungen

Bevor Sie beginnen, stellen Sie sicher, dass Sie folgendes haben:

  • Ein Microsoft Fabric-Arbeitsbereich mit einer Fabric-Kapazität oder Testversion.
  • Ein Seehaus im Arbeitsbereich.
  • Ein Azure Data Lake Storage Gen2-Speicherkonto mit aktiviertem hierarchischen Namespace.
  • Ein SSIS-Paket (DTSX), das einen Azure Storage-Verbindungs-Manager zum Schreiben von Dateien in ADLS Gen2 verwendet.
  • Anmeldeinformationen für das ADLS Gen2-Konto – z. B. einen Kontoschlüssel, eine freigegebene Zugriffssignatur (SAS), einen Dienstprinzipal oder ein Organisationskonto – mit mindestens der Rolle Storage Blob Data Contributor.

Übersicht

Der End-to-End-Workflow umfasst vier Schritte:

Schritt Was Sie tun Ergebnis
1 Konfigurieren des SSIS-Pakets zum Schreiben von Dateien in ADLS Gen2 Das Paket erzeugt Ausgabedateien in Ihrem Speicherkonto.
2 Erstellen einer ADLS Gen2-Verknüpfung in einem Fabric Lakehouse In ADLS Gen2 geschriebene Dateien werden automatisch in OneLake angezeigt
3 Hochladen des SSIS-Pakets auf OneLake Das Paket wird in OneLake gespeichert und kann aufgerufen werden.
4 Führen Sie das Paket aus einer Fabric-Pipeline aus. Die Pipeline orchestriert die Ausführung und schreibt die Ergebnisse in OneLake.

Schritt 1: Konfigurieren des SSIS-Pakets zum Schreiben von Dateien in ADLS Gen2

In diesem Schritt stellen Sie sicher, dass Ihr SSIS-Paket einen Azure Storage-Verbindungs-Manager verwendet, um Dateien in Ihr ADLS Gen2-Konto zu schreiben.

  1. Öffnen Sie Ihr SSIS-Projekt in Visual Studio mit der Erweiterung SQL Server Integration Services Projects.

  2. Installieren Sie das Azure Feature Pack für IntegrationSdienste (SSIS). Das Feature Pack stellt den Azure Storage-Verbindungs-Manager, Azure Blob Source, Azure Blob Destination und andere Azure-bezogene Aufgaben und Komponenten bereit, die zum Herstellen einer Verbindung mit ADLS Gen2 über ein SSIS-Paket erforderlich sind.

  3. Fügen Sie im Bereich Verbindungs-Manager einen Azure Storage-Verbindungsmanager hinzu (oder überprüfen Sie ihn). Legen Sie die folgenden Eigenschaften fest:

    Eigentum Wert
    Dienstleistung ADLS Gen2
    Authentifizierung Wählen Sie eins aus: AccessKey, ServicePrincipal oder SharedAccessSignature
    Kontoname Ihr ADLS Gen2-Speicherkontoname

    Screenshot des Konfigurationsdialogfelds des Azure Storage-Verbindungs-Managers.

  4. Konfigurieren Sie den Datenfluss oder die Dateisystemaufgabe so, dass dieser Verbindungs-Manager verwendet wird, und schreiben Sie Ausgabedateien in einen Container- und Ordnerpfad im Speicherkonto, zum Beispiel mycontainer\myfolder.

    Screenshot der Datenflusskonfiguration mit dem Container- und Ordnerpfad für das Speicherkonto.

  5. Testen Sie die Verbindung, und überprüfen Sie, ob das Paket auf Ihrem lokalen Computer ordnungsgemäß ausgeführt wird.

Ausführliche Informationen zum Azure Storage-Verbindungs-Manager finden Sie im Azure Storage-Verbindungs-Manager.

Tipp

Wenn Ihr Paket die Schutzebene "DontSaveSensitive " verwendet, werden die Anmeldeinformationen nicht in der Paketdatei gespeichert. Sie geben sie zur Laufzeit über die Registerkarte "Verbindungsmanager " der Aktivität "SSIS-Paket aufrufen" an. Alternativ können Sie die Paketschutzebene auf EncryptSensitiveWithPassword festlegen, wodurch Anmeldeinformationen innerhalb des Pakets verschlüsselt werden. Anschließend geben Sie das Paketkennwort in der Aktivität zum Ausführen von SSIS-Paketen während der Laufzeit an, anstatt Anmeldeinformationen für jeden Verbindungs-Manager einzeln bereitzustellen (Schritt 4).

Schritt 2: Erstellen einer ADLS Gen2-Verknüpfung in einem Fabric Lakehouse

Eine Verknüpfung macht die vom SSIS-Paket geschriebenen Dateien in OneLake sichtbar, ohne dass Daten kopiert werden müssen. Jede Fabric-Workload – Spark, SQL-Analyseendpunkt, Power BI – kann die Dateien über die Verknüpfung lesen.

  1. Öffnen Sie Ihr Seehaus im Fabric-Portal.

  2. Klicken Sie im Explorer-Bereich mit der rechten Maustaste auf den Ordner "Dateien " (oder einen Unterordner), und wählen Sie "Neue Verknüpfung" aus.

  3. Wählen Sie unter Externe Quellen die Option Azure Data Lake Storage Gen2 aus.

  4. Geben Sie die Verbindungs-URL ein – den DFS-Endpunkt für Ihr Speicherkonto:

    https://<STORAGE_ACCOUNT_NAME>.dfs.core.windows.net
    
  5. Wählen Sie eine vorhandene Verbindung aus, oder erstellen Sie eine neue. Wählen Sie eine Authentifizierungsart aus, die mindestens über die Rolle " Storage Blob Data Reader " für das Speicherkonto verfügt.

  6. Wählen Sie "Weiter" aus, und navigieren Sie dann zum Container und Ordner, in dem Ihr SSIS-Paket Dateien schreibt (z. B mycontainer. ).

  7. Wählen Sie den Zielordner und dann "Weiter " → "Erstellen" aus.

    Screenshot des Dialogfelds

Die Verknüpfung wird nun in Ihrem Lakehouse angezeigt. Auf jede Datei, die das SSIS-Paket in den ADLS Gen2-Zielordner schreibt, kann über diese Verknüpfung automatisch in OneLake zugegriffen werden.

Ausführliche Anweisungen finden Sie unter Erstellen einer Azure Data Lake Storage Gen2-Verknüpfung. Weitere Informationen zu Tastenkombinationen finden Sie unter OneLake-Tastenkombinationen.

Schritt 3 : Hochladen des SSIS-Pakets auf OneLake

Das Aufrufen der Aktivität "SSIS-Paket ausführen" liest Pakete aus OneLake. Laden Sie Ihre DTSX-Datei (und optionale DTSConfig-Datei ) in ein Lakehouse hoch.

  1. Öffnen Sie im Fabric-Portal das Seehaus, in dem Sie das Paket speichern möchten.

  2. Erstellen Sie im Abschnitt „Dateien“ einen Ordner, z. B. ssis-packages.

  3. Laden Sie das Paket mithilfe einer der folgenden Methoden hoch:

    Methode Wie?
    Fabric-Portal Wählen Sie "Hochladen " → "Dateien hochladen " und dann Ihre DTSX-Datei aus.
    OneLake-Datei-Explorer Ziehen Sie die Datei über den OneLake-Datei-Explorer auf dem Desktop, und legen Sie sie in den packages Ordner ab.

Weitere Informationen zum Hochladen von Dateien in OneLake finden Sie in der Dokumentation zur Invoke SSIS Package Aktivität.

Schritt 4: Ausführen des Pakets in einer Fabric-Pipeline

  1. Erstellen Sie in Ihrem Fabric-Arbeitsbereich eine neue Datenpipeline , oder öffnen Sie eine vorhandene.

  2. Fügen Sie im Bereich "Aktivitäten " die Aktivität " SSIS-Paket aufrufen " zum Pipeline-Zeichenbereich hinzu.

  3. Konfigurieren Sie auf der Registerkarte "Einstellungen " die Aktivität:

    Setting Wert
    Paketpfad Navigieren Sie zu der DTSX-Datei , die Sie in Schritt 3 hochgeladen haben.
    Konfigurationspfad(optional) Navigieren Sie ggf. zur DTSConfig-Datei .
    Verschlüsselungskennwort(optional) Wenn die Paketschutzebene "EncryptSensitiveWithPassword " oder "EncryptAllWithPassword" lautet, geben Sie das Kennwort an, das zum Verschlüsseln des Pakets verwendet wird.
    Aktivieren der Protokollierung Wählen Sie diese Option aus, um Ausführungsprotokolle in OneLake zu schreiben.

    Screenshot der Registerkarte

  4. Wählen Sie "Speichern" und dann " Ausführen" aus, um die Pipeline sofort auszuführen, oder wählen Sie "Zeitplan" aus, um die wiederkehrende Ausführung einzurichten.

  5. Überwachen Sie den Fortschritt auf der Registerkarte Ausgabe der Pipeline oder im Monitor-Hub des Arbeitsbereichs. Wenn die Protokollierung aktiviert ist, enthält die Aktivitätsausgabe den Protokollierungspfad in OneLake.

Vollständige Konfigurationsdetails finden Sie unter Verwenden der SSIS-Paketaktivität zum Ausführen eines SSIS-Pakets.

Überprüfen der Ergebnisse

Nachdem die Pipeline erfolgreich ausgeführt wurde:

  1. Öffnen Sie das Lakehouse und navigieren Sie zu der Verknüpfung, die Sie in Schritt 2 erstellt haben.
  2. Vergewissern Sie sich, dass die vom SSIS-Paket geschriebenen Ausgabedateien im Verknüpfungsordner angezeigt werden.

Zusammenfassung

Durch die Kombination einiger Fabric-Funktionen können Sie die dateibasierte SSIS-Ausgabe in OneLake übertragen, ohne ihre vorhandenen Pakete zu ändern:

  1. Der Azure Storage-Verbindungs-Manager schreibt Dateien aus Ihrem SSIS-Paket in ADLS Gen2.
  2. OneLake-Verknüpfung zeigt diese Dateien in einem Fabric Lakehouse an – keine Datenkopie erforderlich.
  3. Der Paketupload in OneLake stellt die DTSX-Datei für die Fabric-Pipelineausführung zur Verfügung.
  4. Die SSIS-Paketaktivität initiieren, orchestriert und überwacht die Ausführung von Paketen in einer Fabric-Pipeline.

Mit diesem Muster können Sie alle Ihre Daten in OneLake verwalten und gleichzeitig Ihre vorhandenen SSIS-Investitionen beibehalten.