Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Dataflows er et skybasert verktøy som hjelper deg å forberede og transformere data uten å skrive kode. De gir et grensesnitt med lav kode for å innta data fra hundrevis av datakilder, transformere dataene ved hjelp av 300 + datatransformasjoner og laste inn de resulterende dataene i flere mål. Tenk på dem som din personlige dataassistent som kan koble til hundrevis av forskjellige datakilder, rydde opp i rotete data og levere dem akkurat der du trenger det. Enten du er borger eller profesjonell utvikler, gir dataflows deg en moderne dataintegrasjonsopplevelse til å ta inn, forberede og transformere data fra et rikt sett av datakilder, inkludert databaser, data warehouse, Lakehouse, sanntidsdata og mer.
Dataflow Gen2 er den nyere, kraftigere versjonen som fungerer parallelt med den originale Power BI Dataflow (nå kalt Gen1). Bygget med den kjente Power Query-opplevelsen som er tilgjengelig på flere Microsoft produkter og tjenester som Excel, Power BI, Power Platform og Dynamics 365, tilbyr Dataflow Gen2 forbedrede funksjoner, bedre ytelse og raske kopieringsmuligheter for rask inntasting og Transformer data. Hvis du starter på nytt, anbefaler vi Dataflyt Gen2 for de forbedrede funksjonene og bedre ytelse.
Viktig!
Per april 2026 er ikke lenger muligheten til å opprette nye Dataflow Gen2-elementer uten støtte for CI/CD og Git-integrasjon (tidligere kjent som Dataflow Gen2 Classic) tilgjengelig. Alle nye Dataflow Gen2-elementer opprettes nå med støtte for CI/CD og Git-integrasjon som standard. Eksisterende Dataflow Gen2-elementer uten CI/CD-støtte fungerer fortsatt som forventet. For å konvertere en eksisterende klassisk dataflyt, bruk funksjonen Lagre som.
Hva kan du gjøre med dataflyter?
Med dataflyter kan du:
- Koble til dataene: Hente informasjon fra databaser, filer, nettjenester med mer. Du kan også koble deg til nylig brukte kilder.
- Transformer dataene: Rengjør, filtrer, kombiner og omform dataene ved hjelp av et visuelt grensesnitt.
- Last data hvor som helst: Send dine transformerte data til databaser, datavarehus eller skybaserte storage.
- Automatiser prosessen: Konfigurer tidsplaner slik at dataene forblir friske og up-to-dato.
Funksjoner for dataflyt
Her er funksjonene som er tilgjengelige mellom Dataflyt gen2 og Gen1:
| Feature | Dataflyt gen2 | Gen1 for dataflyt |
|---|---|---|
| Lag dataflyter med Power Query | ✓ | ✓ |
| Enklere opprettingsprosess | ✓ | |
| Automatisk lagring og bakgrunnspublisering | ✓ | |
| Flere utdatamål | ✓ | |
| Bedre sporing av overvåking og oppdatering | ✓ | |
| Fungerer med pipelines | ✓ | |
| Databehandling med høy ytelse | ✓ | |
| Koble til via dataflytkoblingen | ✓ | ✓ |
| Direkte spørring via dataflytkoblingen | ✓ | |
| Oppdater bare endrede data | ✓ | ✓ |
| AI-drevet innsikt | ✓ | ✓ |
| Nylige datasnarveier til tidligere brukte kilder | ✓ |
Oppgraderinger til dataflyt gen2
I de neste delene finner du noen av de viktigste forbedringene i Dataflyt gen2 sammenlignet med Gen1 for å gjøre oppgavene for klargjøring av data enklere og mer effektive.
Gen2 er enklere å opprette og bruke
Dataflow Gen2 føles kjent hvis du har brukt Power Query før. Vi har strømlinjeformet prosessen for å få deg i gang raskere. Du blir veiledet trinnvis når du henter data inn i dataflyten, og vi har redusert antall trinn som trengs for å opprette dataflytene.
Automatisk lagring holder arbeidet trygt
Dataflyt gen2 lagrer automatisk endringene mens du arbeider. Du kan gå bort fra datamaskinen, lukke nettleseren eller miste Internett-tilkobling uten å bekymre deg for å miste fremdriften. Når du kommer tilbake, er alt akkurat der du forlot det.
Når du er ferdig med å bygge dataflyten, kan du publisere endringene. Publisering lagrer arbeidet ditt og kjører bakgrunnsvalidering, slik at du ikke trenger å vente på at alt skal sjekkes ut før du går videre til neste oppgave.
Hvis du vil lære mer om hvordan lagring fungerer, kan du se Lagre en kladd av dataflyten.
Send data der du trenger dem
Mens Dataflow Gen1 lagrer transformerte data i sin egen interne storage (som du kan access via Dataflow-koblingen), gir Dataflow Gen2 deg fleksibilitet til å bruke den storage eller sende dataene dine til forskjellige destinasjoner.
Denne fleksibiliteten åpner opp for nye muligheter. Du kan for eksempel:
- Bruk en dataflyt til å laste inn data i et lakehouse, og analyser dem deretter med en notatblokk
- Last data inn i en Azure SQL-database, og bruk deretter en pipeline for å flytte det til et datavarehus
Dataflyt gen2 støtter for øyeblikket disse målene:
- Azure SQL databaser
- Azure Data Explorer (Kusto)
- Azure Datalake Gen2
- Fabric Lakehouse-bord
- Fabric Lakehouse-filer
- Fabric Warehouse
- Fabric KQL-database
- Fabric SQL-database
- SharePoint-filer
- Snowflake-database
Hvis du vil ha mer informasjon om tilgjengelige datamål, kan du se Dataflyt Gen2-datamål og administrerte innstillinger.
Bedre sporing av overvåking og oppdatering
Dataflyt gen2 gir deg et klarere bilde av hva som skjer med dataoppdateringer. Vi har integrert med Monitoring Hub og forbedret oppdateringsloggopplevelsen , slik at du kan spore statusen og ytelsen til dataflytene dine.
Fungerer sømløst med pipelines
Pipelines lar deg gruppere aktiviteter sammen for å fullføre større oppgaver. Tenk på dem som arbeidsflyter som kan kopiere data, kjøre SQL-spørringer, utføre lagrede prosedyrer eller kjøre Python-notatbøker.
Du kan koble sammen flere aktiviteter i et datasamlebånd og angi at det skal kjøres etter en tidsplan. For eksempel kan du hver mandag bruke en pipeline for å hente data fra en Azure-blob og rydde opp, og deretter utløse en Dataflow Gen2 for å analysere loggdataene. Eller på slutten av måneden kan du kopiere data fra en Azure-blob til en Azure SQL-database, og deretter kjøre en lagret prosedyre på den databasen.
For å lære mer om hvordan du kobler dataflyter med pipelines, se dataflowaktiviteter.
Databehandling med høy ytelse
Dataflow Gen2 bruker avanserte compute Fabric SQL Compute-motorer for å håndtere store datamengder effektivt. For å få dette til å fungere, oppretter Dataflow Gen2 både Lakehouse- og Warehouse-elementer i arbeidsområdet ditt og bruker dem til å lagre og access data, noe som forbedrer ytelsen for alle dataflytene dine.
Finn og gjenbruk nyere datakilder
Dataflow Gen2 inkluderer en modul for nylig data som registrerer elementer du tidligere har brukt—som tabeller, filer, mapper, databaser og ark—og lar deg laste dem direkte inn i Dataflow Gen2-redigeringslerretet. Du kan få tilgang til Nylige data fra Power Query-båndet eller fra Modern Get Data-opplevelsen, slik at du raskt kan komme tilbake til dataene du trenger uten å måtte omkonfigurere tilkoblingene dine.
Fra hvilken som helst nylig dataregistrering kan du også velge Bla gjennom lokasjon for å utforske og velge flere relaterte elementer i samme mappe eller database, noe som gjør det enkelt å jobbe med flere ressurser på samme sted.
Copilot for Dataflow Gen2
Dataflow Gen2 integreres med Microsoft Copilot i Fabric for å gi AI-drevet assistanse til å lage dataintegrasjonsløsninger ved bruk av naturlige språkprompts. Copilot hjelper deg med å effektivisere utviklingsprosessen for dataflyt ved å la deg bruke samtalespråk for å utføre datatransformasjoner og operasjoner.
- Hent data fra kilder: Bruk startledeteksten Hent data fra for å koble til ulike datakilder som OData, databaser og filer
-
Transformer data med naturlig språk: Bruk transformasjoner ved hjelp av samtalemeldinger, for eksempel:
- "Behold bare europeiske kunder"
- "Tell totalt antall ansatte etter by"
- "Bare behold ordrer som har antall over medianverdien"
- Lag eksempeldata: Bruk Azure OpenAI for å generere prøvedata for testing og utvikling
- Angre operasjoner: Skriv inn eller velg "Angre" for å fjerne det sist brukte trinnet
- Valider og gjennomgå: Hver Copilot handling vises som et svarkort med tilsvarende steg i listen over anvendte steg
For mer informasjon, se Copilot for Dataflow Gen2.
Hva trenger du for å bruke dataflyter?
Dataflow Gen2 krever en Fabric-kapasitet, en Fabric-testkapasitet eller en Power BI Premium-kapasitet. For å forstå hvordan lisensiering fungerer for dataflyter, sjekk ut Microsoft Fabric concepts and licenses.
Flytte fra Dataflyt gen1 til Gen2
Hvis du allerede har dataflyter bygd med Gen1, trenger du ikke bekymre deg – du kan enkelt overføre dem til Gen2. Vi har flere alternativer for å hjelpe deg med å bytte:
Eksportere og importere spørringer
Du kan eksportere Dataflyt gen1-spørringer og lagre dem i en PQT-fil, og deretter importere dem til Dataflyt gen2. Hvis du vil ha trinnvise instruksjoner, kan du se Bruke eksportmalfunksjonen.
Kopier og lim inn i Power Query
Hvis du har en dataflow i Power BI eller Power Apps, kan du kopiere spørringene dine og lime dem inn i Dataflow Gen2-editoren. Med denne fremgangsmåten kan du overføre uten å måtte gjenoppbygge spørringene fra grunnen av. Finn ut mer: Kopier og lim inn eksisterende Dataflyt gen1-spørringer.
Bruke Lagre som-funksjonen
Hvis du allerede har noen form for dataflyt (Gen1 eller Gen2), inkluderer Data Factory en Lagre som-funksjon. Dette lar deg lagre enhver eksisterende dataflyt som et nytt Dataflow Gen2-element med støtte for CI/CD og Git-integrasjon i bare én handling. Flere detaljer: Migrer til Dataflow Gen2 ved å bruke Lagre som.
Staging av elementer i arbeidsområdet ditt
I noen erfaringer kan du se systemgenererte elementer som DataflowsStagingLakehouse eller DataflowsStagingWarehouse i arbeidsområdet ditt. Dette er interne staging-elementer brukt av Dataflow Gen2 og er ikke ment for direkte interaksjon. Du kan trygt se bort fra dem.
Beslektet innhold
Er du klar til å lære mer? Sjekk ut disse nyttige ressursene:
- Overvåk dataflytene – Spor oppdateringslogg og ytelse
- Lagre kladder mens du arbeider – Finn ut mer om funksjonen for automatisk lagring
- Overføre fra Gen1 til Gen2 – trinnvis overføringsveiledning