Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Det finnes visse begrensninger for dagens Data Factory i Microsoft Fabric-funksjoner. Før du sender inn en støtteforespørsel, kan du se gjennom listene i denne delen for å finne ut om du opplever en kjent begrensning.
For strømbrudd eller forringelsesvarsler, sjekk Microsoft Fabric support.
Pipeline-begrensninger i Microsoft Fabric
Følgende liste beskriver de nåværende begrensningene ved pipelines i Data Factory i Microsoft Fabric.
- De fleste av de Azure Data Factory kopierings- og orkestreringsmønstrene er relevante for Fabric-pipelines, men tumbling window er ennå ikke tilgjengelig.
- Connectors støtter ikke OAuth og Azure key vault (AKV).
- Managed System Identity (MSI) er kun tilgjengelig for Azure Blob Storage. Støtte for andre kilder kommer snart.
- GetMetaData-aktivitet kan ikke ha en kilde fra Fabric KQL-databaser.
- Skriptaktivitet kan ikke ha en kilde fra Fabric KQL-databaser.
- Valideringsaktivitet, Mapping Dataflyt-aktivitet og SSIS-integrasjonskjøring er ikke tilgjengelige.
- Nettaktivitet støtter ikke tjenestekontohaverbasert godkjenning.
- Bakgrunnssynkronisering av godkjenning skjer ikke for datasamlebånd. Anbefaling er å gjøre mindre beskrivelser som oppdateringer av datasamlebånd og lagre dem. På den måten innhentes og bufres nytt token slik at datasamlebåndet kan kjøres på nytt med oppdatert passord for entra-ID.
Ressursgrenser for datasamlebånd
Følgende tabell beskriver ressursbegrensningene for pipelines i Data Factory i Microsoft Fabric.
| Datasamlebåndressurs | Standardgrense | Maksimumsgrense |
|---|---|---|
| Totalt antall pipelines innenfor et arbeidsområde | 5 000 | 5 000 |
| Samtidige pipeline-kjøringer per arbeidsområde som deles mellom alle pipelines i arbeidsområdet | 10,000 | 10,000 |
| Samtidige eksterne aktiviteter som lagret prosedyre, Web, Web Hook og andre per arbeidsområde | 100 | 100 |
| Samtidig pipeline-aktiviteter kjøres for Lookup, GetMetadata og Delete per arbeidsområde | 100 | 100 |
| Samtidige forfatteroperasjoner, inkludert testtilkobling, bla gjennom mappeliste og tabellliste, forhåndsvisningsdata og så videre per arbeidsområde | 50 | 50 |
| Maksimumsaktiviteter per datasamlebånd, som inkluderer indre aktiviteter for beholdere | 120 | 120 |
| Maksimalt antall parametere per datasamlebånd | 50 | 50 |
| Maksimalt antall tidsplaner per rørledning | 20 | 20 |
| Foreach-elementer | 100,000 | 100,000 |
| Foreach-parallellisme | 20 | 50 |
| Antall oppslagsaktivitetselementer | 5000 | 5000 |
| Maksimalt antall køkjøringer per datasamlebånd | 100 | 100 |
| Tegn per uttrykk | 8,192 | 8,192 |
| Maksimal tidsavbrudd for kjøring av datasamlebåndaktivitet | 24 timer | 24 timer |
| Byte per objekt for datasamlebåndobjekter | 200 kB | 200 kB |
| Byte per nyttelast for hver aktivitetskjøring | 896 kB | 896 kB |
| Intelligent gjennomstrømmingsoptimalisering per kjøring av kopieringsaktivitet | automatisk | 256 |
| Samtidig intelligent gjennomstrømningsoptimalisering per arbeidsområde (gjennomstrømningen deles med kopijobben) | 400 | 400 |
| Størrelsesgrense for metadataenhet i en fabrikk | 2 NORSK | 2 NORSK |
Kopier jobbressursgrenser
Tabellen nedenfor beskriver begrensningene for Copy job i Data Factory i Microsoft Fabric.
| Kopijobbressurs | Standardgrense | Maksimumsgrense |
|---|---|---|
| Intelligent gjennomstrømningsoptimalisering per tabell/objekt | automatisk | 256 |
| Samtidig intelligent gjennomstrømningsoptimalisering per arbeidsområde (gjennomstrømningen deles med pipeline) | 400 | 400 |
Data Factory Dataflow Gen2-begrensninger
Følgende liste beskriver begrensningene for Dataflow Gen2 i Data Factory i Microsoft Fabric.
Spørringsgrense for staging og destinasjoner: En enkelt Dataflow Gen2 støtter opptil 50 spørringer som enten:
- Ha staging aktivert, eller
- Ha en datadestinasjon konfigurert (for eksempel Warehouse, Lakehouse eller andre Fabric-destinasjoner).
Spørringer som ikke skriver data – som funksjoner, hjelpeforespørsler eller mellomliggende transformasjonsforespørsler som ikke er trinnvis og ikke har en datadestinasjon – teller ikke mot denne grensen.
- Datadestinasjon til Lakehouse:
- Mellomrom eller spesialtegn støttes ikke i kolonne- eller tabellnavn.
- Varighet og binære kolonner støttes ikke under redigering av Dataflyt gen2-dataflyter.
- Du må ha en gateway som støttes for øyeblikket installert for å kunne brukes med Dataflyt gen2. Dataflyt gen2 støtter de siste seks utgitte gatewayversjonene.
- Når du bruker OAuth2-legitimasjon, støtter ikke gatewayen oppdateringer lenger enn en time. Disse oppdateringene mislykkes fordi gatewayen ikke kan støtte oppdateringstokener automatisk når tilgangstokener utløper, noe som skjer én time etter at oppdateringen startet. Hvis du får feilene "InvalidConnectionCredentials" eller "AccessUnauthorized" når du får tilgang til skydatakilder ved hjelp av OAuth2-legitimasjon, selv om legitimasjonen har blitt oppdatert nylig, kan det hende du treffer denne feilen. Denne begrensningen for langvarige oppdateringer finnes for både VNET-gatewayer og lokale datagatewayer.
- Delta Lake-spesifikasjonen støtter ikke kolonnenavn som skiller mellom store og små bokstaver, og
MyColumnmycolumnresulterer i en feilmelding om dupliserte kolonner når de støttes i Mashup. - Kolonne nullabilitet er for øyeblikket standard for å tillate nullverdier i alle kolonner i målet.
- Når du har lagret/publisert dataflyten gen2, krever vi at validerings-/publiseringsprosessen er ferdig innen 10 minutter per spørring. Hvis du overskrider denne 10-minuttersgrensen, prøv å forenkle spørringene dine eller dele opp spørringene i dataflow gen2.
- Du kan ikke koble til et offentlig endepunkt på en Azure Storage-konto ved hjelp av Power Query Online eller Dataflow Gen2 (uten gateway) hvis Azure Storage-kontoen allerede har opprettet ett eller flere Private Endpoints. Du må koble til slike lagringskontoer ved hjelp av en VNet-datagateway eller en lokal datagateway som kan koble til ved hjelp av private endepunkter.
- Dataflyt gen2 støtter ikke gjestebrukere i leieren for å koble til datakilder og destinasjoner i leieren brukeren er gjest. Bruk en opprinnelig bruker i leieren til å koble til datakilder og mål.
- Bruk av data fra en dataflyt gen2 med dataflytkoblingen krever administrator-, medlems- eller bidragsytertillatelser. Visningstillatelsen er ikke tilstrekkelig og støttes ikke for bruk av data fra dataflyten.
- Når du ikke får tilgang til staging-elementer med dataflowen din på mer enn 90 dager, må du autouthendicate på nytt for å sikre at dataflowen kan få tilgang til staging-elementene. Du kan gjøre dette ved å opprette en ny dataflyt gen2 i samme arbeidsområde.
- Når nedstrøms elementer som semantiske modeller eller andre datastrømmer konsumerer data fra en Dataflow Gen2 ved hjelp av Dataflow-koblingen, hentes dataene gjennom et internt API. Dette API-et kan oppleve periodiske tidsavbrudd, noe som kan føre til oppdateringsfeil for de forbrukende elementene. Feilmeldingen som vises i disse tilfellene kan være misvisende, for eksempel: «Nøkkelen matchet ingen rader i tabellen.» Denne feilen indikerer ikke et problem med dataene dine; Det betyr at backend-tjenesten midlertidig ikke klarte å returnere dataflytresultatene. For å redusere dette problemet, konfigurer du en datadestinasjon (som Lakehouse eller Warehouse) for hver kildedataflyt, og oppdater nedstrøms elementer for å lese fra den destinasjonen ved å bruke Lakehouse- eller Warehouse-koblingen i stedet for Dataflow-koblingen. Denne tilnærmingen omgår det interne API-et fullstendig og forbedrer vanligvis den totale oppdateringspåliteligheten og ytelsen.
Støttet gateway kreves: Dataflow Gen2 krever en datagateway som for øyeblikket støttes. Minst støttes de seks siste utgitte gateway-versjonene.
Begrensning på kasussensitivitet i Delta Lake: Delta Lake støtter ikke små og mellombokstavssensitive kolonnenavn. Kolonner som
MyColumnogmycolumnresulterer i duplikatkolonnefeil, selv om de er tillatt i mashup.Standardoppførsel for nullabilitet i kolonner: Alle destinasjonskolonner tillater nullverdier som standard.
Tidsbegrensning for publisering og validering: Hver spørring må fullføre valideringen og publisere innen 10 minutter. Spørringer som overstiger denne grensen bør forenkles eller deles opp på flere dataflyter.
Gjestebrukertilgang støttes ikke: Gjestebrukere kan ikke koble til datakilder eller destinasjoner i leietakeren de besøker. Bruk en innebygd brukerkonto i leietakeren i stedet.
Nødvendige tillatelser for å konsumere dataflyter: Å konsumere data fra en Dataflow Gen2 krever administrator-, medlems- eller bidragsytertillatelser. Seertillatelse støttes ikke.
Utløp for staging-autentisering: Hvis staging-elementer ikke er aksessert i mer enn 90 dager, kreves ny autentisering. Dette kan gjøres ved å opprette en ny Dataflow Gen2 i samme arbeidsområde.