Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
Der er visse begrænsninger for de nuværende Data Factory i Microsoft Fabric-funktioner. Før du indsender en supportanmodning, skal du gennemse listerne i dette afsnit for at finde ud af, om du oplever en kendt begrænsning.
For serviceniveau-nedbrud eller forringelsesmeddelelser, tjek Microsoft Fabric support.
Pipelinebegrænsninger i Microsoft Fabric
Følgende liste beskriver de nuværende begrænsninger for pipelines i Data Factory i Microsoft Fabric.
- De fleste af de Azure Data Factory kopierings- og orkestreringsmønstre er anvendelige til Fabric-pipelines, men tumbling window er endnu ikke tilgængeligt.
- Connectors understøtter ikke OAuth og Azure key vault (AKV).
- Managed System Identity (MSI) er kun tilgængelig for Azure Blob Storage. Understøttelse af andre kilder kommer snart.
- GetMetaData-aktivitet kan ikke have en kilde fra Fabric KQL-databaser.
- Scriptaktivitet kan ikke have en kilde fra Fabric KQL-databaser.
- Valideringsaktivitet, Mapping dataflow-aktivitet og SSIS-integrationskørsel er ikke tilgængelige.
- Webaktivitet understøtter ikke godkendelse baseret på tjenesteprincipal.
- Baggrundssynkronisering af godkendelse sker ikke for pipelines. Anbefalingen er at udføre mindre beskrivelse som opdateringer af pipelines og gemme dem. På den måde hentes og cachelagres nyt token, så pipelinen kan køre igen med entra-id'ets opdaterede adgangskode.
Ressourcegrænser for pipeline
Følgende tabel beskriver ressourcebegrænsningerne for pipelines i Data Factory i Microsoft Fabric.
| Pipelineressource | Standardgrænse | Maksimumgrænse |
|---|---|---|
| Samlet antal pipelines inden for et arbejdsområde | 5.000 | 5.000 |
| Samtidig pipeline kører pr. workspace , som deles mellem alle pipelines i workspace | 10.000 | 10.000 |
| Samtidige eksterne aktiviteter som stored procedure, Web, Web Hook og andre pr. arbejdsområde | 100 | 100 |
| Samtidig udførelse af pipelineaktiviteter for opslag, hentmetadata og sletning pr. arbejdsområde | 100 | 100 |
| Samtidige forfatteroperationer, herunder testforbindelse, gennemse mappeliste og tabelliste, forhåndsvisningsdata og så videre pr. arbejdsområde | 50 | 50 |
| Maksimalt antal aktiviteter pr. pipeline, som omfatter indre aktiviteter for objektbeholdere | 120 | 120 |
| Maksimalt antal parametre pr. pipeline | 50 | 50 |
| Maksimale tidsplaner pr. pipeline | 20 | 20 |
| ForHver elementer | 100,000 | 100,000 |
| ForHver parallelitet | 20 | 50 |
| Antal opslagsaktivitetselement | 5000 | 5000 |
| Maksimalt antal kølagte kørsler pr. pipeline | 100 | 100 |
| Tegn pr. udtryk | 8.192 | 8.192 |
| Maksimal timeout for kørsler af pipelineaktivitet | 24 timer | 24 timer |
| Byte pr. objekt for pipelineobjekter | 200 KB | 200 KB |
| Byte pr. nyttedata for hver aktivitetskørsel | 896 KB | 896 KB |
| Intelligent optimering af dataoverførselshastighed pr. kørsel af kopiaktivitet | Automatisk | 256 |
| Samtidig intelligent gennemstrømningsoptimering pr. arbejdsområde (gennemstrømningen deles med kopieringsjobbet) | 400 | 400 |
| Grænse for størrelse på metadataenhed på en fabrik | 2 GB | 2 GB |
Kopieringsjobressourcebegrænsninger
Følgende tabel beskriver begrænsningerne for Copy job i Data Factory i Microsoft Fabric.
| Kopijobressource | Standardgrænse | Maksimumgrænse |
|---|---|---|
| Intelligent gennemstrømningsoptimering pr. tabel/objekt | Automatisk | 256 |
| Samtidig intelligent gennemstrømningsoptimering pr. arbejdsområde (gennemstrømningen deles med pipelinen) | 400 | 400 |
Begrænsninger for Data Factory Dataflow Gen2
Følgende liste beskriver begrænsningerne for Dataflow Gen2 i Data Factory i Microsoft Fabric.
Forespørgselsgrænse for staging og destinationer: En enkelt Dataflow Gen2 understøtter op til 50 forespørgsler , der enten:
- Har staging aktiveret, eller
- Hav en datadestination konfigureret (for eksempel Warehouse, Lakehouse eller andre Fabric-destinationer).
Forespørgsler, der ikke skriver data – såsom funktioner, hjælperforespørgsler eller mellemliggende transformationsforespørgsler , der ikke er stadierede og ikke har en datadestination – tæller ikke med i denne grænse.
- Datadestination til Lakehouse:
- Mellemrum eller specialtegn understøttes ikke i kolonne- eller tabelnavne.
- Varighed og binære kolonner understøttes ikke under oprettelse af Dataflow Gen2-dataflow.
- Du skal have installeret en gateway, der understøttes i øjeblikket, for at kunne bruges sammen med Dataflow Gen2. Som minimum understøtter Dataflow Gen2 de seneste seks udgivne gatewayversioner.
- Når du bruger OAuth2-legitimationsoplysninger, understøtter gatewayen i øjeblikket ikke opdateringer længere end en time. Disse opdateringer mislykkes, fordi gatewayen ikke kan understøtte automatisk opdatering af tokens, når adgangstokens udløber, hvilket sker en time efter, at opdateringen startede. Hvis du får vist fejlene "InvalidConnectionCredentials" eller "AccessUnauthorized", når du får adgang til clouddatakilder ved hjælp af OAuth2-legitimationsoplysninger, selvom legitimationsoplysningerne er blevet opdateret for nylig, kan du ramme denne fejl. Denne begrænsning for langvarige opdateringer findes for både VNET-gateways og datagateways i det lokale miljø.
- Delta Lake-specifikationen understøtter ikke store og små bogstaver i kolonnenavne, så
MyColumnogmycolumn, selvom det understøttes i Mashup, resulterer det i en fejl i "dubletkolonner". - I øjeblikket tillader kolonne nullbarheden som standard null-værdier i alle kolonner i destinationen.
- Når du har gemt/publiceret dit dataflow gen2, kræver vi, at validerings-/publiceringsprocessen afsluttes inden for 10 minutter pr. forespørgsel. Hvis du overskrider denne 10-minutters grænse, så prøv at forenkle dine forespørgsler eller opdel dem i dataflow gen2.
- Du kan ikke oprette forbindelse til et offentligt endpoint for en Azure Storage-konto via Power Query Online eller Dataflow Gen2 (uden gateway), hvis Azure Storage-kontoen allerede har oprettet en eller flere Private Endpoints. Du skal oprette forbindelse til sådanne lagerkonti ved hjælp af en VNet-datagateway eller en datagateway i det lokale miljø, der kan oprette forbindelse ved hjælp af private slutpunkter.
- Dataflow Gen2 understøtter ikke gæstebrugere i lejeren til at oprette forbindelse til datakilderne og destinationerne i den lejer, som brugeren er gæst i. Brug en oprindelig bruger i lejeren til at oprette forbindelse til datakilderne og destinationerne.
- Brug af data fra et dataflow gen2 med dataflowconnectoren kræver tilladelser som administrator, medlem eller bidragyder. Fremvisertilladelse er ikke tilstrækkelig og understøttes ikke til brug af data fra dataflowet.
- Når du ikke får adgang til staging-elementer med din dataflow i mere end 90 dage, skal du gen-autodithendicate for at sikre, at dataflowet kan få adgang til staging-elementerne. Det kan du gøre ved at oprette et nyt dataflow gen2 i det samme arbejdsområde.
- Når downstream-elementer som semantiske modeller eller andre dataflows forbruger data fra en Dataflow Gen2 ved hjælp af Dataflows-connectoren, hentes dataene via en intern API. Dette API kan opleve intermitterende timeouts, hvilket kan resultere i opdateringsfejl for de forbrugende elementer. Fejlmeddelelsen, der vises i disse tilfælde, kan være misvisende, for eksempel: "Nøglen matchede ikke nogen rækker i tabellen." Denne fejl indikerer ikke et problem med dine data; Det betyder, at backend-tjenesten midlertidigt ikke kunne returnere dataflow-resultaterne. For at afbøde dette problem skal du konfigurere en datadestination (såsom Lakehouse eller Warehouse) for hver kildedataflow, og opdatere downstream-elementer til at læse fra den destination ved hjælp af Lakehouse- eller Warehouse-connectoren i stedet for Dataflows-connectoren. Denne tilgang omgår helt det interne API og forbedrer typisk den samlede opdateringspålidelighed og ydeevne.
Understøttet gateway påkrævet: Dataflow Gen2 kræver en aktuelt understøttet datagateway. Som minimum understøttes de sidste seks udgivne gateway-versioner.
Begrænsning af kasusfølsomhed i Delta Lake: Delta Lake understøtter ikke søjlenavne med små og små bogstaver. Kolonner som
MyColumnogmycolumnresulterer i duplikerede kolonnefejl, selvom de er tilladt i Mashup.Standardadfærd for kolonne-nullabilitet: Alle destinationskolonner tillader som standard nullværdier.
Tidsbegrænsning for publicering og validering: Hver forespørgsel skal fuldføre valideringen og publicere inden for 10 minutter. Forespørgsler, der overstiger denne grænse, bør forenkles eller fordeles på flere dataflows.
Adgang til gæstebrugere understøttes ikke: Gæstebrugere kan ikke oprette forbindelse til datakilder eller destinationer i den lejer, de besøger. Brug i stedet en native brugerkonto i lejeren.
Påkrævede tilladelser for at forbruge dataflows: Forbrug af data fra et Dataflow Gen2 kræver administrator-, medlems- eller bidragyderrettigheder. Visningstilladelse understøttes ikke.
Staging-autentificeringsudløb: Hvis staging-elementer ikke tilgås i mere end 90 dage, kræves genautentificering. Dette kan gøres ved at oprette en ny Dataflow Gen2 i det samme arbejdsområde.