Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
For at forbedre ydeevnen og pålideligheden bruger Dataflow Gen2 midlertidige elementer til at gemme mellemliggende data under datatransformation. Denne artikel indeholder oplysninger om, hvad midlertidige elementer er, og hvordan du håndterer data i dem.
Hvad er iscenesættelseselementer?
Midlertidige elementer er mellemliggende datalagerplaceringer, der bruges af Dataflow Gen2 til at gemme data under datatransformation. Disse elementer går under navnene "DataflowsStagingLakehouse" og "DataflowsStagingWarehouse". De midlertidige elementer bruges til at gemme mellemliggende data under datatransformation for at forbedre ydeevnen. Disse elementer oprettes automatisk, når du opretter dit første dataflow, og de administreres af Dataflow Gen2. Disse elementer er skjult for brugeren i arbejdsområdet, men kan være synlige i andre oplevelser som Hent data eller Lakehouse-stifinderen. Vi anbefaler kraftigt ikke at tilgå eller ændre dataene i staging-elementerne direkte, da det kan føre til uventet adfærd. Lagring af data selv i de midlertidige elementer understøttes heller ikke, og det kan medføre tab af data.
Data i midlertidige elementer
Midlertidige elementer er ikke designet til direkte adgang for brugere. Dataflow Gen2 administrerer dataene i de midlertidige elementer og sikrer, at dataene er i en ensartet tilstand. Direkte adgang til data i midlertidige elementer understøttes ikke, da det ikke kan garanteres, at dataene er i en ensartet tilstand. Hvis du har brug for adgang til data i staging-elementer, kan du bruge dataflow-connectoren i Power BI, Excel eller andre dataflows.
Vigtigt!
Det interne API, der leverer trinvise data til downstream-forbrugere (såsom semantiske modeller eller andre datastrømme ved brug af Dataflows-connectoren), kan opleve intermitterende timeouts. Disse timeouts kan forårsage opdateringsfejl i forbruget af elementer, ofte med fejlen "Nøglen matchede ikke nogen rækker i tabellen." Denne fejl indikerer ikke et dataproblem. Det betyder, at backenden ikke kunne hente de trinvise resultater i tide.
Anbefalet løsning: Konfigurer en datadestination (Lakehouse eller Warehouse) til dit dataflow, og opdater downstream-elementer til at læse direkte fra den destination ved hjælp af Lakehouse- eller Warehouse-connectoren. Dette omgår det interne staging-API og forbedrer opdateringspålideligheden.
For mere information, se Data Factorys begrænsninger.
Fjernelse af data fra de midlertidige elementer kan gennemtvinges ved hjælp af en af følgende handlinger:
- Deaktiver midlertidig lagring i dataflowet, og opdater (efter 30 dage indsamler vi dataene).
- Slet dataflowet (fjerner dataene direkte).
- Slet arbejdsområdet (sletter StagingLakehouse og StagingWarehouse direkte).
Omkostningsmæssige konsekvenser ved iscenesættelse
Staging Lakehouse og staging Warehouse gemmer mellemliggende data som en del af din dataflow-behandling. Den lagerplads, som disse staging-elementer bruger, faktureres som en del af din OneLake-lagring. Det betyder, at dataene, der er gemt i staging-elementerne, tæller med i dit samlede OneLake-lagerforbrug og tilknyttede omkostninger.
For effektivt at håndtere lageromkostninger:
- Overvåg brugen af staging-lagring: Vær opmærksom på, at staging-data akkumuleres ved hver dataflow-opdatering, indtil det bliver garbage collect eller eksplicit fjernet.
- Deaktiver staging, når det ikke er nødvendigt: Hvis dine transformationer folder til kildesystemet, behøver du måske ikke at aktivere staging aktiveret. At deaktivere staging reducerer lagerforbruget.
- Ryd op i ubrugte dataflows: Sletning af dataflows, der ikke længere er nødvendige, fjerner straks deres tilknyttede staging-data.
- Overvej opdateringsfrekvens: Hyppige opdateringer med staging aktiveret kan føre til højere lagerforbrug. Afvej ydelsesfordele mod lageromkostninger.
For mere information om OneLake-lagringspriser, se Microsoft Fabric-prissætning.