Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Microsoft Fabric erbjuder flera sätt att föra in data i plattformen. Den här guiden ger dig en tydlig rekommendation för de vanligaste scenarierna och ger sedan detaljerade funktionsjämförelser när du behöver gå djupare.
Snabbrekommendering: Vilket alternativ för dataflytt ska jag använda?
Använd medaljongarkitekturen som guide:
Gulddata (rapportering och analys av bearbetade data) – Använd spegling. Om du redan har ETL-bearbetning någon annanstans och främst behöver föra in förädlad data i Fabric för rapportering är Spegling det enklaste och mest kostnadseffektiva valet. Det är kostnadsfritt, kräver minimal konfiguration och replikerar kontinuerligt dina data till OneLake.
Bronsdata (rådatainmatning) – Börja med kopieringsjobbet. När du matar in rådata behöver du snabbt transformeringar, schemamappning, schemaläggningskontroll och inkrementell inläsning. Kopieringsjobbet ger dig dessa funktioner internt utan komplexiteten i att skapa pipelines.
Strömmande realtidsdata – Använd Eventstreams. För låg latens, händelsedriven inmatning och bearbetning tillhandahåller Eventstreams realtidspipelines utan kodtransformeringar och routning till flera mål.
Komplex orkestrering – Pipelines ger dig den dirigeringsflexibilitet du behöver, och kopieringsaktiviteter i pipelines erbjuder dataobjektparameterisering och metadatadriven datainmatning. Annars är kopierings- och kopieringsjobbsaktiviteten likvärdiga i en pipeline.
En fullständig uppdelning av funktioner och funktioner som stöds finns i den detaljerade funktionsjämförelsen.
Viktiga begrepp
Spegling ger dig ett enkelt och kostnadsfritt sätt att spegla driftdata i Fabric för analys. Den är optimerad för att vara lättanvänd med minimal konfiguration och skrivs till en enda skrivskyddad destination i OneLake.
Kopieringsaktiviteter i Pipelines skapas för användare som behöver orkestrerade, pipelinebaserade arbetsflöden för datainmatning. Du kan anpassa den mycket och lägga till transformeringslogik, men du måste definiera och hantera pipelinekomponenter själv, inklusive att spåra tillståndet för den senaste körningen för inkrementell kopiering.
Kopieringsjobb gör datainmatning enklare med inbyggt stöd för flera leveransformat, inklusive masskopiering, inkrementell kopiering och CDC-replikering (Change Data Capture), och du behöver inte skapa pipelines, samtidigt som du får tillgång till många avancerade alternativ. Den stöder många källor och mål och fungerar bra när du vill ha mer kontroll än spegling men mindre komplexitet än att hantera pipelines med kopieringsaktivitet.
Eventstreams: Utformad för inmatning i realtid, transformering och bearbetning av strömmande data. Stöder pipelines med låg latens, schemahantering och routning till mål som Eventhouse, Lakehouse, Activator och anpassade slutpunkter (AMQP, Kafka och HTTP-slutpunkter).
Detaljerad funktionsjämförelse
I följande tabeller jämförs de fullständiga funktionerna för varje alternativ för dataflytt. Använd det här avsnittet när du behöver utvärdera specifika funktioner för ditt scenario.
| Spegling | Kopieringsjobb | Kopieringsaktivitet (Pipeline) | Eventstreams | |
|---|---|---|---|---|
| Källor | Databaser + tredjepartsintegrering i Öppen spegling | Alla datakällor och format som stöds | Alla datakällor och format som stöds | Över 25 källor och alla format |
| Resmål | Tabellformat i Fabric OneLake (skrivskyddat) | Alla mål och format som stöds | Alla mål och format som stöds | Över 4 destinationer |
| Flexibilitet | Enkel installation med fast beteende | Lätt att använda + Avancerade alternativ | Avancerade och helt anpassningsbara alternativ | Enkla och anpassningsbara alternativ |
| Förmåga | Spegling | Kopieringsjobb | Kopieringsaktivitet (pipeline) | Eventstreams |
|---|---|---|---|---|
| Anpassad schemaläggning | Yes | Yes | Kontinuerlig | |
| Hantering av tabeller och kolumner | Yes | Yes | Ja (schema, händelse- och fälthantering) | |
| Kopieringsbeteende: Tillägg, Upsert, Skriv över | Yes | Yes | Append | |
| Avancerad observerbarhet + granskning | Yes | Yes | ||
| Kopieringslägen | ||||
| CDC-baserad kontinuerlig replikering | Yes | Yes | Yes | |
| Batch- eller masskopiering | Yes | Yes | Ja (CDC:s inledande replikering av ögonblicksbilder) | |
| Internt stöd för inkrementell kopiering (vattenstämpelbaserad) | Yes | |||
| Kopiera med användardefinierad fråga | Yes | Yes | ||
| Användningsfall | ||||
| Kontinuerlig replikering för analys och rapportering | Yes | Yes | Yes | |
| Metadatadriven ELT/ETL för datalagerhantering | Yes | Yes | ||
| Datakonsolidering | Yes | Yes | Yes | |
| Datamigrering/Datasäkerhetskopiering/Datadelning | Yes | Yes | Yes | |
| Kostnadsfritt | Yes | |||
| Förutsägbar prestanda | Yes | Yes | Yes |
Scenarier
Granska de här scenarierna så att du kan välja vilken dataförflyttningsstrategi som passar bäst för dina behov.
Scenario 1:
James är ekonomichef på ett försäkringsbolag. Hans team använder Azure SQL Database för att spåra principdata, anspråk och kundinformation i flera affärsenheter. Ledningsgruppen vill skapa instrumentpaneler i realtid för övervakning av affärsprestanda, men James kan inte tillåta att analysfrågor saktar ned de driftsystem som bearbetar tusentals dagliga transaktioner.
James har redan ETL-bearbetning på plats, och hans team behöver de bearbetade guldnivådata som är tillgängliga i Fabric för verkställande rapportering. Han vill inte hantera schemaläggning, konfigurera inkrementella belastningar eller oroa sig för tabellval – han behöver allt speglat automatiskt. Eftersom detta endast är till för rapportering fungerar det perfekt att ha data i ett skrivskyddat format i OneLake. Lösningen måste också vara kostnadseffektiv eftersom den kommer ut ur hans avdelningsbudget.
James väljer Spegling. Spegling ger den CDC-baserade kontinuerliga replikering han behöver och hanterar automatiskt alla tabeller utan någon konfiguration. Den enkla installationen innebär att han inte behöver teknisk expertis, och den kostnadsfria kostnaden passar hans budget. Det skrivskyddade tabellformatet i OneLake ger sitt team den analysåtkomst de behöver utan att påverka driftprestandan.
Scenario 2
Lisa är affärsanalytiker på ett logistikföretag. Hon måste mata in rådata från flera Snowflake-databaser i Fabric Lakehouse-tabeller för analys av leveranskedjan. Data inkluderar både historiska data för initialbelastningen och nya sändningar som anländer under dagen. Lisa vill köra den här processen enligt ett anpassat schema – var 4:e timme under kontorstid.
Eftersom Lisa tar in rådata på bronsnivå vet hon att hon snabbt behöver transformeringar, schemamappning och schemaläggningskontroll. Hon måste välja specifika tabeller från varje Snowflake-instans, mappa kolumner till standardiserade namn och använda upsert-beteende för att hantera uppdateringar av befintliga leveransposter. Hon vill också ha avancerad övervakning för att spåra datakvalitet och bearbetningsprestanda.
Lisa väljer Kopiera jobb. Kopieringsarbetet ger den anpassade schemaläggningen som hon behöver, stöder alla datakällor, däribland Snowflake, och erbjuder funktioner för tabell- och kolumnhantering för hennes flerregionkonfiguration. Det inbyggda stödet för inkrementell kopiering med vattenstämpelbaserad identifiering och upsert-beteende gör att hon kan hantera dessa krav utan att skapa pipelines.
Scenario 3
David är senior datatekniker på ett telekommunikationsföretag. Han skapar ett komplext arbetsflöde för datainmatning som behöver extrahera kundanvändningsdata från Oracle med hjälp av anpassade SQL-frågor, tillämpa affärstransformeringar och läsa in dem i flera mål, inklusive både Fabric Warehouse och externa system. Arbetsflödet måste också samordnas med andra pipelineaktiviteter som dataverifiering och meddelandesteg.
David behöver fullständig kontroll över kopieringsprocessen, inklusive möjligheten att använda användardefinierade frågor för att koppla tabeller och filtrera data vid källan. Han behöver avancerade och helt anpassningsbara konfigurationsalternativ, förutsägbar prestanda för stora datavolymer och möjligheten att integrera kopieringsprocessen i bredare arbetsflöden för pipelineorkestrering med beroenden och felhantering.
David granskar de tillgängliga alternativen och väljer Kopiera aktiviteter i Pipelines. Den här metoden ger honom den avancerade och helt anpassningsbara konfiguration han behöver, stöder användardefinierade frågor för komplex dataextrahering och tillhandahåller den pipelinebaserade orkestrering som krävs för arbetsflödet. De avancerade övervaknings- och granskningsfunktionerna hjälper honom att spåra den komplexa processen, medan pipelineramverket låter honom samordna kopieringsaktiviteter med andra databearbetningssteg.
Scenario 4
Ash är produktchef på ett telekomföretag. Hennes team måste övervaka kundsupportmått som samtalsvolymer, väntetider och agentprestanda i realtid för att säkerställa serviceavtalsefterlevnad och förbättra kundnöjdheten. Data kommer från flera driftsystem, inklusive CRM-plattformar, call center-loggar och agenttilldelningsdatabaser, och anländer med hög frekvens under hela dagen.
Ash använder Fabric Eventstreams för att mata in och transformera dessa data i rörelse. Hon konfigurerar anslutningsappar för direktuppspelning för att hämta data från olika källor, tillämpar transformeringar med hjälp av no-code-upplevelsen och dirigerar de bearbetade händelserna till Eventhouse för realtidsanalys. Hon integrerar Data Activator för att utlösa aviseringar och automatiserade arbetsflöden när tröskelvärden för serviceavtal överskrids så att hon kan skicka meddelanden till övervakare eller justera bemanningsnivåer dynamiskt.
Resultatet är en instrumentpanel i realtid som uppdateras inom några sekunder, vilket ger Ashs team insyn i liveprestandamått och möjliggör snabba, datadrivna beslut. Den här strömningsarkitekturen eliminerar svarstiden för batchpipelines och ger företaget möjlighet att svara direkt på kundernas behov.
Get started
Nu när du har en uppfattning om vilken strategi för dataflytt som ska användas kan du komma igång med dessa resurser: