Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Organisasjoner er vanligvis avhengige av flere frakoblede tjenester for å ta inn, lagre, transformere, analysere og visualisere data. Denne fragmenteringen skaper datasiloer, øker integrasjonskostnadene og senker tiden til innsikt. Microsoft Fabric løser disse utfordringene ved å samle alle stadier i datalivssyklusen til én plattform bygget på et felles fundament.
Kjernen i denne arkitekturen er OneLake, en enkelt organisatorisk datalake som lagrer all data i åpen Delta Parquet-format. OneLake er automatisk satt opp med alle Fabric-leietakere. Fordi hver Fabric-arbeidsbelastning leser fra og skriver til OneLake, beveger ikke data seg mellom motorene. Et datasett som importeres gjennom en pipeline, raffineres i en notatbok og visualiseres i en Power BI-rapport, forblir på ett sted gjennom hele reisen.
Datalivssyklusen består av seks trinn, og Fabric tilbyr spesialbygde verktøy for hver:
Hent data: Hent data inn i OneLake fra hundrevis av kilder i sanntid, på en tidsplan, gjennom kontinuerlig databasereplikering, eller ved å referere til ekstern lagring på stedet.
Lagre data: Behold data i lagringsformater optimalisert for din arbeidsmengde, enten det er fleksibel big data-analyse, strukturerte SQL-spørringer, sanntids hendelsesanalyse, transaksjonsprosessering eller styrt forretningsrapportering.
Forbered og transformér: Rens, omform og berik data ved hjelp av lavkode-visuelle transformasjoner eller kode-først-notatbøker og gjenbrukbare funksjoner, uten å flytte data ut av OneLake.
Analyser og tren: Bygg og operasjonaliser maskinlæringsmodeller, kjør avansert analyse, spør data programmatisk, og utforsk innsikt gjennom AI-agenter på naturlig språk.
Spor og visualiser: Fremhev innsikter gjennom interaktive rapporter, overvåk sanntidsdatastrømmer på sanntidsdashbord, og utløs automatiserte handlinger når betingelsene er oppfylt.
Ekstern integrasjon: Koble sikkert til eksterne tjenester for automatisering, samarbeid, styring, utviklerverktøy og CI/CD.
Følgende diagram viser hvordan disse stadiene kobles sammen og hvilke Fabric-elementer som deltar i hvert stadium. Hvert trinn dekkes grundig i en dedikert artikkel. Bruk lenkene i hver seksjon for å utforske hvilke muligheter og verktøy som er tilgjengelige på det stadiet.
Hent data
Ulike typer datasett kommer fra et bredt spekter av datakilder på tvers av ulike datascenarier, inkludert datareplikering, eksterne lagringsreferanser, batchdatasett og sanntidsdatastrømmer. Du importerer og transformerer disse datasettene gjennom Fabrics integrasjonsverktøy. Dataene havner i OneLake, den sentraliserte datalagringen for hele Fabric. Viktige inntaksmetoder inkluderer:
- Hendelsesstrømmer for sanntids hendelsesinntak og ruting.
- Datapipelines for batch- og planlagt dataflyt med mer enn 200 koblinger.
- Speiling for kontinuerlig replikering fra operative databaser uten å bygge ETL-pipelines.
- Snarveier for virtualisering av data uten kopiering fra ekstern lagring som Azure Data Lake, Amazon S3 eller Google Cloud Storage. Snarveier kan også referere til data delt fra andre Fabric-arbeidsområder eller leietakere.
- OneLake datadeling for kryss-leietakertilgang til levende, styrte datasett uten å kopiere data på tvers av organisasjonsgrenser.
For mer informasjon, se Få data inn i Microsoft Fabric.
Lagre data
Når dataene er innhentet, lander de i OneLake i åpen Delta Parquet-format. OneLake tilbyr en enkelt datalake for hele organisasjonen din uten behov for separat provisjonering. Fordi OneLake opprettholder én kopi av dataene, kan du dele regulerte datasett på tvers av leietakere ved å bruke OneLake datadeling uten å duplisere lagring. Fabric tilbyr flere lagringselementer optimalisert for ulike arbeidsmengder:
- Lakehouse for fleksibel big data-lagring som kombinerer filer og administrerte Delta-tabeller med et automatisk SQL-endepunkt.
- Warehouse for strukturert, relasjonsanalyse med full T-SQL-støtte, lagrede prosedyrer og ACID-transaksjoner.
- Eventhouse for sanntidsanalyse av strømming og telemetridata ved bruk av Kusto Query Language (KQL).
- SQL Database for transaksjonelle arbeidsbelastninger og operasjonell analyse.
- Semantiske modeller for kuratert forretningslogikk, målinger og hierarkier som driver rapporter og AI.
For mer informasjon, se Store data i Microsoft Fabric.
Klargjøre og transformere data
Når du er inne i OneLake, kan du videre transformere dataene ved å bruke enten kode-først-motorer eller low-code-verktøy, alt innenfor Fabric uten dataflyt mellom motorene:
- Dataflow Gen2 tilbyr et lavkode-grensesnitt for datarensing, transformasjon og berikelse.
- Notatbøker tilbyr et Jupyter-lignende miljø for Python-, T-SQL- og Scala-basert datautvikling.
- User Data Functions lar deg legge inn gjenbrukbar tilpasset Python-logikk som kan kalles fra pipelines, notatbøker og Activator-regler.
For mer informasjon, se Prepare and transform data.
Analysere data og trene modeller
Bruk de forberedte dataene til å trene ML-modeller og utføre avansert analyse. Fabrics Data Science-arbeidsbelastning gir et miljø for å bygge, trene og operasjonalisere ML-modeller:
- MLflow-eksperimenter sporer modelltreningskjøringer med automatisk logging av hyperparametere, metrikker og elementer.
- ML-modeller registreres i et MLflow-drevet register for versjonering, metadatasporing og reproduserbarhet.
- Dataagenter og operasjonsagenter lar deg samhandle med data ved å bruke naturlig språk og handle på betingelser og mønstre som finnes.
- GraphQL-API-er gir et fleksibelt datatilgang for utviklere til å spørre flere Fabric-datakilder gjennom ett enkelt endepunkt.
- Copilot for Power BI bruker generativ AI for ad hoc-analyse, DAX-generering og utforskning av naturlige språkdata.
For mer informasjon, se Analyser og tren data i Microsoft Fabric.
Spor og visualiser data
Bruk de forberedte og modellerte dataene til å lage rapporter, dashbord og sanntidsvarsler:
- Power BI-rapporter tilbyr interaktiv datavisualisering basert på semantiske modeller, med distribusjon over Microsoft 365-apper som Teams, SharePoint, PowerPoint og Excel.
- Translytiske oppgaveflyter gjør det mulig for brukere å handle direkte fra Power BI-rapporter ved å kalle brukerdatafunksjoner.
- Real-Time Intelligence-dashbord overvåker strømmedata med latens under et sekund ved bruk av KQL-spørringer og visuell authoring.
- Activator oppdager tilstander i strømmende data og utløser automatiserte handlinger som Teams-varsler, e-poster eller Power Automate-flyter.
- Fabric IQ kartlegger bedriftsdata til en delt forretningsontologi og gjør det mulig for AI-agenter å resonnere over dataene dine med full forretningskontekst.
For mer informasjon, se Spor og visualiser data.
Ekstern integrasjon
Fabric integreres med eksterne systemer både for datainntak og innsiktslevering:
- Power Automate og Data Activator muliggjør sanntids arbeidsflytautomatisering basert på dataforhold.
- Microsoft 365-integrasjon gir innsikt i Teams, SharePoint, PowerPoint og Excel.
- REST-API-er og klientbiblioteker gir programmatisk tilgang til Fabric-ressurser.
- Microsoft Entra ID håndterer autentisering, betinget tilgang og støtte for tjenesteprinsipper.
- Git-integrasjon med Azure DevOps og GitHub muliggjør versjonskontroll og CI/CD for Fabric-elementer.
- Microsoft Purview tilbyr enhetlig datastyring, katalogisering og etterlevelse på tvers av Fabric-dataområdet, inkludert data delt mellom leietakere gjennom OneLake-datadeling.
For mer informasjon, se Ekstern integrasjon og plattformtilkobling.
Støtte for naturlig språk og KI
Naturlig språkstøtte kommer i form av Power BI Copilot, Data Agents og Operations Agents, som kan resonnere over bedriftsdata i OneLake og produsere svar basert på dataelementene brukerne har tilgang til. Du kan integrere Data Agents i Microsoft 365 Copilot, Microsoft Foundry og Copilot Studio, slik at brukere kan få innsikt fra OneLake innenfor sine eksisterende arbeidsflyter på tvers av ulike applikasjoner.