Skapa anpassade Spark-pooler i Microsoft Fabric

Använd anpassade Spark-pooler för att skräddarsy beräkningar för dina arbetsbelastningar i Fabric. Du kan välja nodstorlek, konfigurera autoskalningsbeteende och aktivera dynamisk körallokering.

Med anpassade pooler kan du balansera prestanda och kostnader genom att ange skalningsgränser som matchar arbetsbelastningens efterfrågan.

Anmärkning

Anpassade Spark-pooler kan uppnå cirka 5 sekunders sessionstart när de konfigureras som en anpassad livepool med en miljö som använder Fullt läge för bibliotekspublicering. Det tar ungefär tre minuter att starta anpassade Spark-pooler utan konfiguration av livepooler.

Om du redan använder startpooler är anpassade pooler ett kompletterande alternativ när du behöver mer kontroll över storleks- och skalningsbeteendet för specifika arbetsbelastningar. Använd startpooler för snabb start och standardinställningar och flytta till anpassade pooler när du behöver arbetsbelastningsspecifik beräkningsjustering. Mer information om startpooler finns i Konfigurera startpooler i Fabric.

Förutsättningar

Så här skapar du en anpassad Spark-pool:

  • Du behöver administratörsrollen på arbetsytan.
  • En kapacitetsadministratör måste aktivera anpassade arbetsytepooler i Spark Compute-inställningar för kapaciteten.

Mer information finns i Konfigurera och hantera datateknik och datavetenskapsinställningar för Fabric-kapaciteter.

Skapa anpassade Spark-pooler

Så här skapar eller hanterar du Spark-poolen som är associerad med din arbetsyta:

  1. Gå till din arbetsyta och välj Inställningar för arbetsyta.

    Skärmbild som visar var du väljer Dataingenjör på menyn Inställningar för arbetsyta.

  2. Välj alternativet Data Engineering/Science för att expandera menyn och välj sedan Spark-inställningar.

    Skärmbild som visar detaljvyn För Spark-inställningar.

  3. Välj Ny pool från listrutan Standardpool för arbetsyta för att skapa en ny anpassad Spark-pool. Du kan skapa flera anpassade pooler och välja någon av dem som standardpool för din arbetsyta.

  4. På sidan Skapa ny pool anger du ett poolnamn. Välj en Nod-familj (till exempel Minnesoptimerad) och Nodstorlek baserat på arbetsbelastningskrav. Mer information om nodstorlekar finns i avsnittet Alternativ för nodstorlek nedan.

    Tips/Råd

    Nodstorleken bestäms av kapacitetsenheter (CU) som representerar den beräkningskapacitet som tilldelats varje nod.

    Skärmbild som visar alternativ för att skapa anpassade pooler.

  5. I redigeringsvyn konfigurerar du Autoskalning och Allokerar köre dynamiskt.

    Skärmbild som visar alternativ för att skapa anpassade pooler för automatisk skalning och dynamisk allokering.

    Använd skjutreglagen för att öka eller minska varje inställning baserat på dina arbetsbelastningsbehov.

    • Om autoskalning är aktiverat skalar poolen mellan de konfigurerade lägsta och högsta nodvärdena baserat på aktivitet.

    • Om Dynamiskt allokera utförare är aktiverat justerar Fabric utförarallokeringen baserat på arbetsbelastning inom de konfigurerade gränserna.

  6. Välj Skapa.

Tips/Råd

När du har skapat en anpassad Spark-pool beror tidpunkten för biblioteksdistribution på publiceringsläget i den anslutna miljön. Snabbläget publiceras på cirka 5 sekunder och installerar bibliotek vid sessionsstart. Fullt läge tar 3 till 6 minuter att publicera och distribuerar bibliotek som en del av sessionens start (1 till 3 minuter). För den snabbaste upplevelsen konfigurerar du poolen som en anpassad livepool med fullständigt läge för att uppnå cirka 5 sekunders sessionsstarter.

Anpassade pooler har en standardtid för autopaus på 2 minuter efter inaktivitet. När autopaus uppnås avslutas sessionen och klustret avallokeras. Faktureringen gäller endast när beräkning används aktivt. Anpassade Spark-pooler i Microsoft Fabric stöder för närvarande en maximal nodgräns på 200, så se till att dina lägsta och högsta autoskalningsvärden förblir inom den här gränsen.

Alternativ för nodstorlek

När du konfigurerar en anpassad Spark-pool väljer du mellan följande nodstorlekar:

Nodstorlek vCores Minne (Gigabyte) Beskrivning
Liten 4 32 För lätta utvecklings- och testjobb.
Medel 8 64 För allmänna arbetsbelastningar och typiska operationer.
Stort 16 128 För minnesintensiva uppgifter eller stora databearbetningsjobb.
X-Large 32 256 För de mest krävande Spark-arbetsbelastningarna som behöver betydande resurser.
XX-Large 64 512 För de största Spark-arbetsbelastningarna som kräver högsta beräkning och minne per nod.