Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für:SQL Server
SSIS Integration Runtime in Azure Data Factory
Dieser Artikel konzentriert sich auf die bewährten Methoden, um vorhandene SSIS-Pakete für die Arbeit mit Data Warehouse in Fabric-Plattform zu verwenden.
Einführung
Microsoft Fabric ist eine umfassende Analyseplattform, die jeden Aspekt des Datenbestands einer Organisation abdeckt. Einer der Hauptbestandteile ist Fabric Data Warehouse, das als vereinfachte SaaS-Lösung für ein vollständig transaktionales Warehouse dient. Es speichert Daten in OneLake mit einem offenen Format namens Delta Parquet. Damit wird sichergestellt, dass Daten von anderen Oberflächen in Fabric und von anderen Clientanwendungen, die sich über SQL-Treiber verbinden, abgerufen werden können.
Als Analyseplattform unterstützt Microsoft Fabric ausschließlich die Authentifizierung über die Microsoft Entra-ID für Benutzer und Dienstprinzipale (SPNs). Diese bewusste Wahl sorgt für eine zentrale und identitätsbasierte Sicherheit, die an modernen Sicherheitspraktiken ausgerichtet ist. Daher werden die SQL-Authentifizierung und andere Authentifizierungsmethoden in Fabric Data Warehouse im Rahmen des Fabric-Ökosystems nicht unterstützt.
Integration in Fabric Data Warehouse
Microsoft SQL Server Integration Services (SSIS) ist eine Komponente der Microsoft SQL Server-Datenbank, die eine ETL-Lösung ist. Viele Unternehmenskunden verwenden SSIS häufig, um lokale ETL durchzuführen.
Um nahtlos mit Fabric Data Warehouse zu arbeiten, müssen Sie zwei wichtige Änderungen an Ihrem SSIS-Paket vornehmen.
Authentifizierung
Wenn Sie SQL-Authentifizierung oder Windows-Authentifizierung verwenden, konfigurieren Sie sie neu, um microsoft Entra ID-Benutzer oder Dienstprinzipalnamen (Service Principal Name, SPN) zu verwenden. Wenn Sie ein Benutzerkonto verwenden, deaktivieren Sie die mehrstufige Authentifizierung (Multifactor Authentication, MFA), da SSIS Popupaufforderungen nicht unterstützt. Sie benötigen auch die entsprechenden Treiber, wie in den folgenden Abschnitten erwähnt:
So verwenden Sie OLEDB-Verbindungs-Manager:
Installieren Sie die Microsoft Entra ID-Version , die Microsoft Entra ID unterstützt.
Festlegen der Authentifizierung auf
ActiveDirectoryServicePrincipaloderActiveDirectoryPassword.OLEDB funktioniert nur für SQL-Aufgabe ausführen, nicht für OLE DB-Ziel.
So verwenden Sie ADO.NET Verbindungs-Manager:
Verwenden Sie den Microsoft OLE DB-Anbieter für SQL Server für den .NET Framework-Datenanbieter für OLE DB.
Festlegen der Authentifizierung auf
ActiveDirectoryServicePrincipaloderActiveDirectoryPassword.
Dateierfassung
Sie sollten den systemeigenen COPY INTO T-SQL-Befehl zum effizienten Einfügen von Daten in Ihr Lager in Microsoft Fabric verwenden. Ersetzen Sie alle DFT-Vorgänge, die derzeit auf dem Fast Insert Mode oder BCP IN Skripts basieren, durch die COPY INTO Anweisung mithilfe von Execute SQL Task.
SSIS schreiben Daten in Data Warehouse in Fabric
In gängigen ETL-Szenarien lesen Sie Daten aus verschiedenen Quellen wie Transaktionsdatenbanken, Netzwerkdateifreigaben, lokalen oder Netzwerkspeicherorten. Sie können Transformationsschritte ausführen und die Daten zurück in ein bestimmtes Data Warehouse wie einen SQL-Server, einen dedizierten Synapse-Pool oder einen anderen SQL-kompatiblen Datenspeicher schreiben (wie im folgenden Diagramm dargestellt).
Um dasselbe SSIS-Paket in das Fabric Data Warehouse schreiben zu lassen, aktualisieren Sie zunächst die Authentifizierung auf Microsoft Entra ID, wenn diese noch nicht verwendet wird. Stellen Sie zweitens die Daten vorübergehend in einem ADLS Gen2 bereit. Übergeben Sie dann den Pfad zum Befehl COPY INTO in "SQL-Aufgabe ausführen".
Eine Komponente vom Typ Flexibles Dateiziel ermöglicht es einem SSIS-Paket, Daten in Azure Data Lake Storage Gen2 (ADLS Gen2) zu schreiben. Fügen Sie im Datenflusstask nach dem Laden und der Transformation ein flexibles Dateiziel hinzu. Dort können Sie den Namen und den Speicherort der Zieldatei in ADLS Gen2 definieren.
Sie können Daten, die in Azure Data Lake Storage (ADLS) Gen2 gespeichert sind, mit der COPY-Anweisung direkt über Execute SQL Task in das Warehouse importieren.
Beispiel: (Ersetzen <storage_account><storage_account_key> und account_key durch gültige Werte):
COPY INTO table_name FROM 'https://<storage_account>.dfs.core.windows.net/<folder>/'
WITH (FILE_TYPE = 'CSV',
CREDENTIAL = (IDENTITY = '<storage_account_key>',
SECRET = '<account_key>'),
FIELDQUOTE = '"',
FIELDTERMINATOR = ',',
ROWTERMINATOR = '0x0A',
ENCODING = 'UTF8'
);
Ausführlichere Anleitungen finden Sie unter Ingestieren von Daten in Ihr Warehouse mit der COPY-Anweisung.
Einschränkungen
Fabric Data Warehouse unterstützt eine Teilmenge von T-SQL-Datentypen und nicht alle T-SQL-Befehle werden derzeit unterstützt. Ihre Pakete können aufgrund nicht unterstützter Features fehlschlagen. Weitere Informationen finden Sie unter "Datentypen" in "Warehouse" und "T-SQL"-Oberflächenbereich in Fabric Data Warehouse.