Konfigurera inställningar för skalning
Modellen är designad. Konfigurera nu de inställningar som styr hur de hanterar stora datamängder, samtidiga frågor och åtkomst till externa verktyg. De här inställningarna avgör om modellen kan hålla jämna steg när datavolymerna växer och fler användare och verktyg använder den.
Stort lagringsformat för semantisk modell
Det stora semantiska modelllagringsformatet ändrar hur modellen lagrar och komprimerar data. Som standard begränsar Power BI modelluppladdningar till 10 GB. Med den här inställningen aktiverad kan modeller växa över den gränsen vid uppdatering. Den maximala storleken är lika med Fabric kapacitetsstorlek eller den gräns som angetts av kapacitetsadministratören.
Direct Lake-modeller aktiverar automatiskt den här inställningen, så du behöver inte konfigurera den manuellt för dessa modeller. För importlägesmodeller måste du aktivera det explicit.
Den här inställningen är också en förutsättning för både LÄS-/skrivåtkomst för XMLA-slutpunkt och frågeskalning. Du måste aktivera det först när du använder lagringslägena Import eller DirectQuery.
Aktivera stort semantiskt modelllagringsformat när:
- Dina datavolymer kräver modeller som växer över uppladdningsgränsen på 10 GB.
- Du behöver XMLA-slutpunktsåtkomst för externa verktyg.
- Du planerar att använda frågeskalning för hög samtidighet.
- Du planerar att använda inkrementell uppdatering med partitionerade tabeller.
XMLA-slutpunktsåtkomst för läsning/skrivning
MED XMLA-slutpunkten kan externa verktyg ansluta till din semantiska modell. Verktyg som Tabular Editor, DAX Studio och ALM Toolkit använder den här slutpunkten för utveckling, felsökning och distributionsåtgärder som inte är tillgängliga i Fabric-tjänstgränssnittet.
XMLA-slutpunktens läs-/skrivåtkomst kräver det stora lagringsformatet för semantisk modell som en förutsättning. När båda är aktiverade kan du:
- Använd Tabellredigeraren för modellutveckling och källkontrollintegrering.
- Använd DAX Studio för frågeanalys och prestandajustering.
- Distribuera modeller via CI/CD-pipelines med hjälp av Analysis Services-klientbiblioteken.
I stor skala blir dessa externa verktyg viktiga. Manuella redigeringar via tjänstgränssnittet stöder inte den modellutvecklingsnivå som stora teamunderhållna modeller kräver.
Tips/Råd
Läs mer om XMLA-slutpunktsanslutning.
Frågeutspridning
Skalning av förfrågningar distribuerar läsförfrågningar mellan skrivskyddade repliker av din semantiska modell. När hundratals användare får åtkomst till samma modell samtidigt kan en enda instans bli en flaskhals. Frågeskalning lägger till repliker som delar frågebelastningen.
När du aktiverar frågeskalning använder läskopior en separat kopia av modellen. Den här kopian synkroniseras efter varje uppdatering. Det kan uppstå en kort fördröjning mellan att den primära modellen slutför en uppdatering och replikerna som återspeglar uppdaterade data.
Frågeskalning kräver ett stort semantiskt modelllagringsformat som en förutsättning.
Aktivera frågeskalning när:
- Modellen betjänar hundratals samtidiga användare.
- Frågeprestanda försämras under perioder med hög användning.
- Modellen backas upp av en Fabric-kapacitet som stöder repliker.
Tips/Råd
Läs mer om frågeskalning för semantiska modeller.
Direct Lake-återgångskonfiguration
Direct Lake läser Delta-tabeller direkt från OneLake till minnet. Vissa frågor kan leda till att modellen återgår till DirectQuery-läge, vilket ändrar prestandaegenskaperna. Återställningsinställningen styr hur modellen hanterar dessa situationer:
- Tillåt återställning (standard): Frågor som inte kan köras i Direct Lake-läge återgår automatiskt till DirectQuery. Användarna får resultat, men prestandan kan minska.
- Tillåt inte återgång: Förfrågningar som inte kan köras i Direct Lake-läge returnerar ett fel. Detta framtvingar konsekventa prestanda men kräver att alla frågor håller sig inom Direct Lake-funktionerna.
För modeller i stor skala börjar du med att återställning tillåts. Övervaka vilka frågor som utlöser den och optimera sedan dessa frågor eller datastrukturer för att minska återställningsfrekvensen. Tillåt endast återställning när alla frågemönster ligger inom Direct Lake-gränserna och du behöver garanterad prestandakonsekvens.
OneLake-integrering
OneLake-integrering gör dina semantiska modelldata tillgängliga som Delta-tabeller i OneLake. När det är aktiverat kan underordnade Fabric objekt som notebook-filer, pipelines och andra tjänster läsa data direkt från den semantiska modellen utan att återskapa dem från källan.
Detta utökar modellens räckvidd bortom rapporter. En semantisk modell med välstrukturerat star-schema och beräkningslogik blir en kuraterad datakälla för den bredare analysplattformen.
Aktivera OneLake-integrering när:
- Datatekniker eller dataexperter behöver använda semantiska modelldata i notebook-filer eller andra Fabric objekt.
- Du vill använda den semantiska modellen som en delad datakälla i Fabric.
- Nedströmskonsumenter behöver åtkomst till kurerade, affärslogikberikade data utan att återskapa dem från rådatakällor.
Anmärkning
OneLake-integrering exporterar för närvarande endast tabeller i importläge. Direct Lake-tabeller, DirectQuery-tabeller, mått och beräkningsgruppstabeller kan inte exporteras. Om din modell endast använder Direct Lake är de underliggande Delta-tabellerna i OneLake redan tillgängliga för andra Fabric objekt direkt.
Beslutsramverk för inställningar
I följande tabell sammanfattas viktiga beslut om skalningsinställningar:
| Inställning | Standardvärde | Aktivera när |
|---|---|---|
| Stort lagringsformat för semantisk modell | Av | Datavolymer överskrider 10 GB, eller så behöver du XMLA-slutpunktsåtkomst eller frågeskalning |
| LÄSNING/skrivning av XMLA-slutpunkt | Skrivskydd | Externa verktyg måste ändra modellen för utveckling eller distribution |
| Frågeskalning på flera noder | Av | Hög samtidighet försämrar frågeprestanda (kräver stort lagringsformat för semantisk modell) |
| Direkt Lake fallback | Tillåts | Ändra till otillåten endast när alla frågor håller sig inom Direct Lake-gränser |
| OneLake-integrering | Av | Underordnade Fabric objekt måste använda semantiska modelldata |
Tips/Råd
De här inställningarna hanterar skalning och förbrukning. Andra inställningar som intygande, Copilot-godkännande och databeredning för AI-användning beskrivs i separata moduler. En fullständig referens finns i semantiska modellinställningar i Fabric-tjänsten.