Übersicht über die Einschränkungen von Data Factory

Es gibt bestimmte Einschränkungen für die aktuelle Data Factory in Microsoft Fabric Features. Überprüfen Sie vor dem Senden einer Supportanfrage die Listen in diesem Abschnitt, um festzustellen, ob eine bekannte Einschränkung auftritt.

Überprüfen Sie Microsoft Fabric Support für Dienstebenenausfälle oder Beeinträchtigungsbenachrichtigungen.

Pipelinebeschränkungen in Microsoft Fabric

In der folgenden Liste werden die aktuellen Einschränkungen von Pipelines in Data Factory in Microsoft Fabric beschrieben.

  • Die meisten Kopier- und Orchestrierungsmuster von Azure Data Factory sind auf Fabric-Pipelines anwendbar, jedoch ist das tumbling window derzeit noch nicht verfügbar.
  • Connectors unterstützen OAuth und Azure Key Vault (AKV) nicht.
  • Verwaltete Systemidentität (MSI) ist nur für Azure Blob Storage verfügbar. Unterstützung für andere Quellen wird in Kürze verfügbar gemacht.
  • Die GetMetaData-Aktivität kann keine Quelle aus Fabric-KQL-Datenbanken nutzen.
  • Die Script-Aktivität kann keine Quelle aus Fabric-KQL-Datenbanken nutzen.
  • Validierungsaktivität, Zuordnungs-Datenflussaktivität und die SSIS-Integrationslaufzeit sind nicht verfügbar.
  • Die Webaktivität unterstützt keine auf Dienstprinzipalen basierende Authentifizierung.
  • Die Hintergrundsynchronisierung der Authentifizierung erfolgt nicht für Pipelines. Es empfiehlt sich, kleinere Beschreibungen wie Updates für Pipelines auszuführen und zu speichern. Auf diese Weise wird ein neues Token abgerufen und zwischengespeichert, damit die Pipeline erneut mit dem aktualisierten Kennwort der Entra-ID ausgeführt werden kann.

Grenzwerte für Pipelineressourcen

In der folgenden Tabelle werden die Ressourcenbeschränkungen für Pipelines in Data Factory in Microsoft Fabric beschrieben.

Pipelineressource Standardlimit Maximales Limit
Gesamtanzahl der Pipelines innerhalb eines Arbeitsbereichs 5.000 5.000
Gleichzeitige Pipeline-Ausführungen pro Arbeitsbereich, der für alle Pipelines in Arbeitsbereich gemeinsam genutzt wird. 10.000 10.000
Gleichzeitige externe Aktivitäten wie gespeicherte Prozeduren, Webaktivitäten, Web Hooks und andere pro Arbeitsbereich 100 100
Gleichzeitige Ausführung von Pipeline-Aktivitäten wie 'Nachschlagen', 'GetMetadata' und 'Löschen' für jeden Arbeitsbereich 100 100
Gleichzeitige Erstellungsvorgänge, einschließlich Testverbindung, Durchsuchen der Ordnerliste und Tabellenliste, Vorschaudaten usw. pro Arbeitsbereich 50 50
Maximale Aktivitäten pro Pipeline, einschließlich interner Aktivitäten für Container 120 120
Maximale Parameter pro Pipeline 50 50
Maximale Zeitpläne pro Pipeline 20 20
ForEach-Elemente 100.000 100.000
ForEach-Parallelität 20 50
Anzahl der Elemente für die Lookup-Aktivität 5.000 5.000
Maximale Anzahl von Ausführungen in Warteschlange pro Pipeline 100 100
Zeichen pro Ausdruck 8.192 8.192
Maximales Zeitlimit für Ausführungen von Pipelineaktivitäten 24 Stunden 24 Stunden
Bytes pro Objekt für Pipelineobjekte 200 KB 200 KB
Bytes pro Payload für jede Aktivitätsausführung 896 KB 896 KB
Intelligente Durchsatzoptimierung pro Copy-Aktivitätsausführung Auto 256
Intelligente gleichzeitige Optimierung des Durchsatzes pro Arbeitsbereich (der Durchsatz wird für den Kopierauftrag freigegeben) 400 400
Größenbeschränkung für Metadatenentitäten in einer Factory 2 GB 2 GB

Ressourcenbeschränkungen für Kopieraufträge

In der folgenden Tabelle werden die Einschränkungen für den Kopierauftrag in Data Factory in Microsoft Fabric beschrieben.

Auftragsressource kopieren Standardlimit Maximales Limit
Intelligente Durchsatzoptimierung pro Tabelle/Objekt Auto 256
Gleichzeitige Optimierung des intelligenten Durchsatzes pro Arbeitsbereich (der Durchsatz wird mit der Pipeline geteilt) 400 400

Einschränkungen von Data Factory Dataflow Gen2

In der folgenden Liste werden die Einschränkungen für Dataflow Gen2 in Data Factory in Microsoft Fabric beschrieben.

  • Abfragegrenzwert für Staging und Ziele: Ein einzelner Dataflow Gen2 unterstützt bis zu 50 Abfragen , die entweder:

    • Haben Sie den Staging-Modus aktiviert, oder
    • Sie haben ein Datenziel konfiguriert (z. B. Warehouse, Lakehouse oder andere Fabric-Ziele).

    Abfragen, die keine Daten schreiben , z. B. Funktionen, Hilfsabfragen oder Zwischentransformationsabfragen , die nicht mehr bereitgestellt werden und kein Datenziel besitzen, zählen nicht zu diesem Grenzwert.

  • Datenziel für Lakehouse:
    • Leerzeichen oder Sonderzeichen in Spalten- oder Tabellennamen nicht unterstützt.
    • Dauer- und Binärspalten werden bei der Erstellung von Dataflow Gen2-Dataflows nicht unterstützt.
  • Sie benötigen ein installiertes, derzeit unterstütztes Gateway für die Verwendung mit Dataflow Gen2. Dataflow Gen2 unterstützt mindestens die letzten sechs veröffentlichten Gatewayversionen.
  • Wenn Sie OAuth2-Anmeldedaten verwenden, unterstützt das Gateway aktuell keine Aktualisierungen für länger als eine Stunde. Diese Aktualisierungen schlagen dann fehl, weil das Gateway das Aktualisieren von Tokens nicht automatisch unterstützen kann, wenn Zugriffstokens ablaufen, was eine Stunde nach dem Start der Aktualisierung der Fall ist. Wenn beim Zugriff auf Clouddatenquellen mit OAuth2-Anmeldeinformationen der Fehler „InvalidConnectionCredentials“ oder „AccessUnauthorized“ angezeigt wird, obwohl die Anmeldeinformationen kürzlich aktualisiert wurden, ist möglicherweise dieser Fehler die Ursache. Diese Einschränkung für zeitintensive Aktualisierungen gilt sowohl für VNet-Gateways als auch für lokale Datengateways.
  • Die Delta Lake-Spezifikation unterstützt keine Spaltennamen mit Berücksichtigung der Groß-/Kleinschreibung, sodass für MyColumn und mycolumn die Fehlermeldung „Doppelte Spalten“ angezeigt wird, obwohl diese beim Mashup unterstützt werden.
  • Derzeit ist die NULL-Zulässigkeit in Spalten standardmäßig aktiviert, sodass NULL-Werte in allen Spalten im Ziel zulässig sind.
  • Nach dem Speichern/Veröffentlichen Ihrer Dataflow gen2 ist es erforderlich, dass der Überprüfungs-/Veröffentlichungsprozess innerhalb von 10 Minuten pro Abfrage abgeschlossen sein muss. Wenn Sie diesen Grenzwert von 10 Minuten überschreiten, versuchen Sie, Ihre Abfragen zu vereinfachen oder Ihre Abfragen in dataflow gen2 aufzuteilen.
  • Sie können keine Verbindung mit einem öffentlichen Endpunkt eines Azure Storage Kontos herstellen, indem Sie Power Query Online- oder Dataflow Gen2 (kein Gateway) verwenden, wenn das Azure Storage Konto bereits einen oder mehrere private Endpunkte erstellt hat. Verbindungen zu solchen Speicherkonten müssen Sie mit einem VNet-Datengateway oder einem lokalen Datengateway herstellen, das eine Verbindung über private Endpunkte herstellen kann.
  • Dataflow Gen2 unterstützt keine Gastbenutzer im Mandanten, um eine Verbindung mit den Datenquellen und -zielen im Mandanten herzustellen, in dem der Benutzer Gast ist. Verwenden Sie einen nativen Benutzer im Mandanten, um eine Verbindung mit den Datenquellen und Zielsystemen herzustellen.
  • Um Daten aus einem Gen2-Dataflow mit dem Dataflow-Connector zu verarbeiten, werden Administrator-, Mitglieds- oder Mitwirkendenberechtigungen benötigt. Die Viewerberechtigung reicht nicht aus und wird nicht für die Verwendung von Daten aus dem Datenfluss unterstützt.
  • Wenn Sie mehr als 90 Tage lang nicht auf Stagingelemente zugreifen, müssen Sie sich erneut authentifizieren, um sicherzustellen, dass Ihr Datenfluss auf die Stagingelemente zugreifen kann. Dazu können Sie einen neuen Dataflow gen2 innerhalb desselben Arbeitsbereichs erstellen.
  • Wenn nachgeschaltete Elemente wie semantische Modelle oder andere Datenflüsse Daten aus einem Dataflow Gen2 mithilfe des Dataflows-Connectors nutzen, werden die Daten über eine interne API abgerufen. Diese API kann zeitweilige Timeouts aufweisen, was zu Aktualisierungsfehlern für die nutzenden Elemente führen kann. Die in diesen Fällen angezeigte Fehlermeldung kann irreführend sein, z. B.: "Der Schlüssel hat keine Zeilen in der Tabelle gefunden." Dieser Fehler weist nicht auf ein Problem mit Ihren Daten hin. dies bedeutet, dass der Back-End-Dienst die Datenflussergebnisse vorübergehend nicht zurückgeben konnte. Um dieses Problem zu beheben, konfigurieren Sie ein Datenziel (z. B. Lakehouse oder Warehouse) für jeden Quelldatenfluss, und aktualisieren Sie nachgeschaltete Elemente so, dass sie von diesem Ziel mithilfe des Lakehouse- oder Warehouse-Connectors anstelle des Dataflows-Connectors gelesen werden. Bei diesem Ansatz wird die interne API vollständig umgangen und in der Regel die Gesamtaktualisierungssicherheit und -leistung verbessert.
  • Unterstütztes Gateway erforderlich: Dataflow Gen2 erfordert ein aktuell unterstütztes Datengateway. Mindestens die letzten sechs veröffentlichten Gatewayversionen werden unterstützt.

  • Groß-/Kleinschreibungsbeschränkung für Delta Lake: Delta Lake unterstützt keine Groß-/Kleinschreibung bei Spaltennamen. Spalten wie MyColumn und mycolumn verursachen doppelte Spaltenfehler, obwohl sie in Mashup zulässig sind.

  • Standardverhalten der Spaltennullfähigkeit: Alle Zielspalten lassen standardmäßig Nullwerte zu.

  • Veröffentlichungs- und Validierungszeitlimit: Jede Abfrage muss die Überprüfung abschließen und innerhalb von 10 Minuten veröffentlichen. Abfragen, die diesen Grenzwert überschreiten, sollten vereinfacht oder auf mehrere Datenflüsse aufgeteilt werden.

  • Gastbenutzerzugriff wird nicht unterstützt: Gastbenutzer können keine Verbindung mit Datenquellen oder Zielen im besuchten Mandanten herstellen. Verwenden Sie stattdessen ein internes Benutzerkonto in der Mandantenumgebung.

  • Erforderliche Berechtigungen für die Nutzung von Datenflüssen: Das Verwenden von Daten aus einem Dataflow Gen2 erfordert Administrator-, Mitglieds- oder Mitwirkendenberechtigungen. Die Viewerberechtigung wird nicht unterstützt.

  • Ablauf der Stagingauthentifizierung: Wenn für mehr als 90 Tage nicht auf Stagingelemente zugegriffen wird, ist eine erneute Authentifizierung erforderlich. Dies kann durch Erstellen eines neuen Dataflow Gen2 im selben Arbeitsbereich erfolgen.