Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
Et lakehouse i Microsoft Fabric kombinerer skalerbarheden fra en data lake med forespørgselsmulighederne i et datawarehouse. Du gemmer strukturerede og ustrukturerede data ét sted, administrerer dem med Delta Lake og analyserer dem med både Apache Spark og SQL — alt sammen uden at flytte data mellem systemer.
Et søhus giver dig:
- Én kopi af data til både data engineering og analysearbejdsbelastninger
- Delta Lake-format til ACID-transaktioner, skemahåndhævelse og tidsrejser
- Spark og SQL-adgang , så dataingeniører bruger notesbøger, mens analytikere bruger T-SQL
- Indbygget integration med Power BI, pipelines, dataflows og andre Fabric-elementer
Lakehouse vs. datalager
De vigtigste forskelle mellem et lakehouse og et datawarehouse i Microsoft Fabric handler om dine foretrukne udviklingsværktøjer, datatyper og arbejdsbelastningsmønstre. Begge deler den samme SQL-motor og gemmer data i Delta-format på OneLake, men de er designet til forskellige scenarier:
| Lakehouse | Datalager | |
|---|---|---|
| Primært udviklingsværktøj | Apache Spark (Python, Scala, SQL, R) | T-SQL |
| Datatyper | Struktureret og ustruktureret | Struktureret |
| Multi-table transaktioner | Nej | Ja |
| Dataindtagelse | Notesbøger, pipelines, dataflows, genveje | T-SQL (COPY INTO, INSERT, ), CTASpipelines |
| Bedst til | Data engineering, data science, medallionarkitekturer | BI-rapportering, dimensionel modellering, SQL-first teams |
Du kan bruge begge dele i samme arbejdsområde — for eksempel lande og transformere data i et lakehouse med Spark, og derefter eksponere kuraterede datasæt til et lager til SQL-baseret rapportering. For detaljeret vejledning, se Vælg mellem Lager og Lakehouse.
Arbejd med lakehouse-data
Du kan indlæse, transformere og forespørge data i et lakehouse via flere Fabric-værktøjer:
Lakehouse Explorer — Gennemse tabeller og filer, indlæs data og administrer metadata direkte i browseren. Du kan skifte mellem tabelvisning og filvisning og tilføje flere lakehouses til udforskeren. Se Naviger i Fabric Lakehouse explorer.
Notebooks — Skriv Spark-kode (Python, Scala, SQL, R) til at læse, transformere og skrive data til lakehouse-tabeller og mapper. Se Udforsk data med en notesbog og Indlæs data med en notesbog.
Pipelines — Brug copy activity og andre dataintegrationsværktøjer til at hente data fra eksterne kilder ind i lakehouset. Se Kopier data ved hjælp af kopiaktivitet.
Spark-jobdefinitioner — Kør kompilerede Spark-applikationer i Java, Scala eller Python til produktionskvalitet ETL. Se Hvad er definitionen af et Apache Spark-job?
Dataflows Gen 2 — Indsaml og forbered data med en lavkode, visuel grænseflade. Se Opret dit første dataflow.
For en fuld sammenligning af indtagelsesmuligheder, se Muligheder for at få data ind i Fabric Lakehouse.
Sql Analytics-slutpunkt for Lakehouse
Når du opretter et lakehouse, genererer Fabric automatisk et SQL-analyse-endpoint. Dette endpoint giver dig mulighed for:
- Forespørg Delta-tabeller med T-SQL — Brug velkendt SQL-syntaks uden at oprette et separat lager.
- Forbind Power BI direkte — En standard semantisk model er inkluderet, så du kan bygge rapporter uden ekstra konfiguration.
- Del skrivebeskyttet adgang — Analytikere og rapportbyggere kan forespørge dataene uden at påvirke Spark-arbejdsbelastninger.
SQL analytics-endpointet er skrivebeskyttet og understøtter ikke hele T-SQL-overfladen i et datawarehouse. Brug det til udforskning, rapportering og ad hoc-forespørgsler.
Note
Kun Delta-tabeller vises i SQL-analyse-endpointet. Parquet, CSV og andre formater kan ikke forespørges gennem dette endpoint. Hvis du ikke kan se din tabel, konverter den til Delta-format.
Automatisk registrering og registrering af tabeller
Et lakehouse organiserer data i to topniveau-mapper: Tabeller til administrerede Delta-tabeller og Filer til ustrukturerede eller ikke-Delta-data. Når du placerer en fil i Tables-mappen , Fabric'er du automatisk:
- Validerer filen mod understøttede formater (i øjeblikket kun Delta-tabeller).
- Udtrækker metadata — kolonnenavne, datatyper, komprimering og partitionering.
- Registrerer tabellen i metastore, så du kan forespørge den med det samme med Spark SQL eller T-SQL.
Denne managed file-to-table-oplevelse betyder, at du ikke behøver at skrive CREATE TABLE statements manuelt for data, du lander i det administrerede område.
Multitasking med lakehouse
Lakehouse bruger et browser-fane-design, der lader dig åbne og skifte mellem flere genstande uden at miste stedet:
Bevar kørende operationer: Dataindlæsning og upload fortsætter med at køre, når du skifter til en anden fane.
Behold din kontekst: Udvalgte tabeller, filer og objekter forbliver åbne, når du navigerer mellem fanerne.
Ikke-blokerende listegenladning: Fil- og tabelllisten opdateres i baggrunden uden at blokere dit arbejde.
Scoped notifikationer: Toast-notifikationer identificerer, hvilket søhus de kom fra, så du kan følge opdateringer på tværs af faner.
Handicapvenligt lakehouse-design
Lakehouse understøtter hjælpemidler og tilgængelighedsmønstre:
- Skærmlæserkompatibilitet: Fungerer med populære skærmlæsere til navigation og interaktion.
- Alternativ tekst til billeder: Alle billeder indeholder beskrivende alternativ tekst.
- Mærkede formularfelter: Alle formularfelter har tilhørende etiketter for skærmlæser- og tastaturbrugere.
- Tekst-genopfyldning: Responsivt layout, der tilpasser sig forskellige skærmstørrelser og orienteringer.
- Tastaturnavigation: Fuld tastaturunderstøttelse til at navigere i søhuset uden mus.