Konfigurer indstillinger for skalering
Modellen er designet. Konfigurer nu indstillingerne, der styrer, hvordan den håndterer store datasæt, samtidige forespørgsler og ekstern værktøjsadgang. Disse indstillinger afgør, om modellen kan følge med, efterhånden som datamængderne vokser, og flere brugere og værktøjer forbruger den.
Lagerformat for store semantiske modeller
Det store semantiske modellagringsformat ændrer, hvordan modellen lagrer og komprimerer data. Som standard begrænser Power BI modellens uploads til 10 GB. Med denne indstilling aktiveret kan modellerne vokse ud over denne grænse ved opdatering. Den maksimale størrelse svarer til Fabric-kapacitetsstørrelsen eller grænsen fastsat af kapacitetsadministratoren.
Direct Lake-modeller aktiverer automatisk denne indstilling, så du behøver ikke konfigurere den manuelt for de modeller. For importmodeller skal du aktivere det eksplicit.
Denne indstilling er også en forudsætning for både XMLA-endpoints læse-/skriveadgang og forespørgselsskalering. Du skal aktivere det først, når du bruger Import- eller DirectQuery-lagringstilstande.
Aktiver stort semantisk model-lagringsformat, når:
- Dine datamængder kræver modeller, der vokser ud over 10 GB uploadgrænsen.
- Du har brug for XMLA-endpoint-adgang til eksterne værktøjer.
- Du planlægger at bruge forespørgselsskalering for høj samtidighed.
- Du planlægger at bruge inkrementel opdatering med partitionerede tabeller.
XMLA-endpoint læse-/skriveadgang
XMLA-endpointet lader eksterne værktøjer forbinde til din semantiske model. Værktøjer som Tabular Editor, DAX Studio og ALM Toolkit bruger dette endpoint til udvikling, fejlfinding og implementering, som ikke er tilgængelige i Fabric-servicegrænsefladen.
XMLA-endpoint læse-/skriveadgang kræver det store semantiske modellagringsformat som en forudsætning. Når begge er aktiveret, kan du:
- Brug Tabular Editor til modeludvikling og integration af versionskontrol.
- Brug DAX Studio til forespørgselsanalyse og performance-tuning.
- Udrul modeller gennem CI/CD-pipelines ved hjælp af Analysis Services-klientbibliotekerne.
I stor skala bliver disse eksterne værktøjer essentielle. Manuelle redigeringer gennem servicegrænsefladen understøtter ikke det niveau af modeludvikling, som store, teamvedligeholdte modeller kræver.
Tip!
Lær mere om XMLA-endpoint-forbindelse.
Forespørgselsskalering
Forespørgselsskalering fordeler læseforespørgsler på tværs af skrivebeskyttede replikaer af din semantiske model. Når hundreder af brugere tilgår den samme model samtidig, kan en enkelt instans blive en flaskehals. Query scaleout tilføjer replikager, der deler forespørgselsbelastningen.
Når du aktiverer forespørgselsskalering, bruger læsereplikaerne en separat kopi af modellen. Denne kopi synkroniseres efter hver opdatering. Der kan være en kort forsinkelse mellem den primære model, der afslutter en opdatering, og replikaerne afspejler de opdaterede data.
Forespørgselsskalering kræver et stort semantisk modellagringsformat som en forudsætning.
Aktiver forespørgselsskalering når:
- Modellen betjener hundredvis af samtidige brugere.
- Forespørgselsydelsen forringes under spidsbelastningsperioder.
- Modellen understøttes af en Fabric-kapacitet, der understøtter replikaer.
Tip!
Lær mere om forespørgselsskalering for semantiske modeller.
Direct Lake fallback-konfiguration
Direct Lake læser Delta-tabeller direkte fra OneLake ind i hukommelsen. Nogle forespørgsler kan få modellen til at falde tilbage til DirectQuery-tilstand, som ændrer ydeevneegenskaberne. Fallback-indstillingen styrer, hvordan modellen håndterer disse situationer:
- Tillad fallback (standard): Forespørgsler, der ikke kan køre i Direct Lake-tilstand, falder automatisk tilbage til DirectQuery. Brugerne får resultater, men ydeevnen kan falde.
- Ikke tilladt fallback: Forespørgsler, der ikke kan køre i Direct Lake-tilstand, giver en fejl. Dette sikrer ensartet ydeevne, men kræver, at alle forespørgsler forbliver inden for Direct Lake-kapaciteter.
For modeller i skala, start med tilladt fallback. Overvåg hvilke forespørgsler, der udløser det, og optimer derefter disse forespørgsler eller datastrukturer for at reducere fallback-frekvensen. Tillad kun fallback, når alle forespørgselsmønstre holder sig inden for Direct Lake-grænserne, og du har brug for garanteret ydeevnekonsistens.
OneLake-integration
OneLake-integration gør dine semantiske modeldata tilgængelige som Delta-tabeller i OneLake. Når det er aktiveret, kan downstream Fabric-elementer som notebooks, pipelines og andre tjenester læse data direkte fra den semantiske model uden at genopbygge det fra kilden.
Dette udvider modellens rækkevidde ud over rapporter. En semantisk model med velstruktureret stjerneskema og beregningslogik bliver en kurateret datakilde for den bredere analyseplatform.
Aktiver OneLake-integration, når:
- Dataingeniører eller datavidenskabsfolk skal kunne forbruge semantiske modeldata i notesbøger eller andre Fabric-elementer.
- Du vil bruge den semantiske model som en delt datakilde på tværs af Fabric.
- Downstream-forbrugere har brug for adgang til kuraterede, forretningslogik-berigede data uden at skulle genopbygge dem fra rå kilder.
Note
OneLake-integrationen eksporterer i øjeblikket kun Import-tilstandstabeller. Direct Lake-tabeller, DirectQuery-tabeller, målinger og beregningsgruppetabeller kan ikke eksporteres. Hvis din model udelukkende bruger Direct Lake, er de underliggende Delta-tabeller i OneLake allerede tilgængelige direkte for andre Fabric-elementer.
Sætter beslutningsrammeværket
Følgende tabel opsummerer de vigtigste indstillinger for skalering:
| Indstilling | Standard | Aktiver når |
|---|---|---|
| Stort semantisk modellagringsformat | Fra | Datavolumen overstiger 10 GB, eller også har du brug for XMLA-endpoint-adgang eller forespørgselsskalering |
| XMLA-endepunkt læse/skrive | Skrivebeskyttet | Eksterne værktøjer skal modificere modellen til udvikling eller implementering |
| Forespørgselsskalering | Fra | Høj samtidighed forringer forespørgselsydelsen (kræver stort semantisk modellagerformat) |
| Direct Lake-tilbagefald | Tilladt | Skift til kun at være tilladt, når alle forespørgsler forbliver inden for Direct Lake-grænserne |
| OneLake-integration | Fra | Downstream Fabric-elementer skal kunne forbruge semantiske modeldata |
Tip!
Disse indstillinger handler om skala og forbrug. Andre indstillinger som godkendelse, godkendelse af Copilot og dataforberedelse til AI-forbrug dækkes i separate moduler. For en komplet reference, se semantiske modelindstillinger i Fabric-tjenesten.