Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Denne artikkelen er fase 4 av 4 i Azure Synapse Spark to Microsoft Fabric migreringsbeste praksis-serien.
Bruk denne artikkelen i siste fase av migreringen for å validere arbeidsbelastninger, tilpasse sikkerhets- og styringskontroller, og planlegge produksjonskuttet. Denne artikkelen gir veiledning om sikkerhetskartlegging og en sjekklistebasert tilnærming til validering, optimalisering og cutover-beredskap.
I denne artikkelen lærer du hvordan du:
- Kartlegg Synapse RBAC og nettverksmønstre til Fabric workspace, OneLake og administrerte nettverkskontroller.
- Koble sammen styringsarbeidsflyter, inkludert integrasjon og merking av Microsoft Purview.
- Bruk sjekklisten for fase-for-fase migrasjon for å validere, optimalisere og utføre cutover.
- Planlegger avvikling av gamle Synapse Spark-ressurser etter vellykket overgang.
Tilgangskontroll
Synapse RBAC-roller (Synapse Administrator, Synapse SQL Administrator, Synapse Spark Administrator og andre) kartlegges til Fabric workspace-roller (Admin, Member, Contributor, Viewer). Fabric sin modell er enklere med fire roller.
Synapse-tilknyttede tjenester erstattes av Fabric Connections. Lag tilkoblinger via arbeidsplassinnstillinger>Administrer tilkoblinger og gatewayer. For notatbokkode, bytt ut lenkede tjenestereferanser med Key Vault-basert autentisering eller direkte endepunktskonfigurasjon.
OneLake RBAC gir finkornet datatilgang på mappe- og tabellnivå i Lakehouse.
Nettverkssikkerhet
Synapse Managed VNet og Private Endpoints kartlegges til Fabric Managed VNet + Managed Private Endpoints. Merk at Fabric Spark krever Custom Pools (ikke Starter Pools) for støtte for administrert privat endepunkt.
Selvhostede Integration Runtimes (SHIR) i Synapse erstattes av On-premises Data Gateways (OPDG) i Fabric. VNet IR-er erstattes av VNet Data Gateways.
Forvaltning
Hvis du bruker Azure Purview med Synapse, tilbyr Fabric innebygd integrasjon med Microsoft Purview for datakatalog, opprinnelse, følsomhetsetiketter og tilgangspolicyer. Koble til Purview-kontoen din igjen for å skanne Fabric-arbeidsområder.
Sjekkliste for overføring
Bruk denne sjekklisten for å følge fremdriften gjennom Spark-migreringen din. Hver fase bygger videre på den forrige. Fullfør alle oppgaver i en fase før du går videre til neste.
Fase 1: Vurder og planlegg
For planleggingsveiledning, migrasjonsmønstre og sammenligning av funksjoner, se Fase 1: Migrasjonsstrategi og planlegging.
- 1.1 Fullstendig Spark-ressursinventar: Spark-pooler, notatbøker, Spark-jobbdefinisjoner, lake-databaser, Hive Metastore (HMS)-databaser og tilknyttede tjenester brukt i notatbøker.
- 1.2 Gjennomgå forskjeller i Synapse vs. Fabric funksjoner. Flaggblokkere: GPU-arbeidsbelastninger, ikke-støttede katalog-API-er, lenkede tjenesteavhengigheter.
-
1.3 Kjør pre-refaktoreringsrevisjonen: søk i alle notatbøker etter Synapse-spesifikke mønstre (
spark.synapse.linkedService,getSecretWithLS,TokenLibrary, ).synapsesqlTelle påvirkede notatbøker. -
1.4 Sjekk bibliotekkompatibilitet: kjør
pip freezepå Synapse-pooler, sammenlign med Fabric innebygde Runtime 1.3-biblioteker. List opp biblioteker som må forhåndsinstalleres. - 1.5 Opprett Fabric arbeidsområder, tilrettelegg kapasitet, og opprett målrettede Lakehouse-elementer.
- 1.6 Eksporter Spark-poolkonfigurasjoner, egendefinerte biblioteker og Spark-egenskaper fra Synapse Studio.
Fase 2: Etabler tilkoblinger og legitimasjoner
For veiledning om utskifting og autentisering av tilknyttede tjenester, se fase 2: Spark arbeidsbelastningsmigrering og fase 4: Sikkerhets- og styringsmigrering.
- 2.1 Inventar alle Synapse-tilknyttede tjenester brukt av notatbøker, Spark-jobbdefinisjoner og Lakehouse-datatilgang.
- 2.2 Opprett Fabric tilkoblinger for eksterne datakilder (ADLS Gen2, Cosmos DB, Azure SQL og andre) via Workspace Settings>Administrer tilkoblinger og gatewayer.
- 2.3 Sett opp Azure Key Vault med hemmeligheter for datakilder som krever nøkkelbasert autentisering (Cosmos DB-nøkler, lagringskontonøkler, Kusto-tokens). Konfigurer tilgangspolicyer for din Fabric-arbeidsområdeidentitet.
- 2.4 Konfigurer tjenesteprinsipp-legitimasjoner for ADLS Gen2 OAuth-tilgang: registrer appen i Entra ID, gi Storage Blob Data Contributor-rollen, noter klient-ID/hemmelig/leietaker.
- 2.5 Verifiser tilkobling: test Key Vault hemmelig henting og lagringskonto fra en Fabric notatbok før du fortsetter.
Fase 3: Migrer data og Hive Metastore
For veiledning om migrering av innsjømetadata og data-tilgang, se fase 3: Hive Metastore og datamigrering og Migrer data og pipelines.
- 3.1 Lag OneLake-snarveier til eksisterende ADLS Gen2-stier (null-kopi, foretrukket tilnærming). Bruk Fabric Connections som er satt opp i fase 2 for datagateway-basert tilgang.
- 3.2 For ikke-Delta-filer (CSV, JSON, Parquet), lag snarveier i Filer-seksjonen. Hvis datakopiering er nødvendig, bruk AzCopy eller Data Factory Copy Activity.
- 3.3 Migrer Hive Metastore-objekter. Velg én tilnærming: Alternativ A: Kjør HMS-eksport/import av notatbøker for all metadata. Alternativ B: Bruk Migration Assistant for Delta lake DB-tabeller + HMS eksport/import kun for ikke-Delta.
- 3.4 Valider automatisk registrering av Delta-tabellen i Lakehouse Explorer.
- 3.5 Sjekk at alle importerte tabeller og snarveier er synlige i Lakehouse Explorer og tilgjengelige fra notatbøker.
Fase 4: Migrer Spark-arbeidsbelastninger
For elementmigrering, koderefaktorering og retningslinjer for miljøoppsett, se fase 2: Spark-arbeidsbelastningsmigrering.
- 4.1 Kjør Spark Migration Assistant for notatbøker, Spark-jobbdefinisjoner, Spark-pooler og lake-databaser. Gå gjennom migreringsrapporten for feil og advarsler.
- 4.2 Lag Fabric miljøer med målrettet Spark-kjøretid, poolkonfigurasjon og tilpassede biblioteker. Forinstaller manglende biblioteker identifisert i fase 1.
-
4.3 Refactor notebook og SJD-kode: erstatte
mssparkutilsmednotebookutils, oppdater filstier til OneLakeabfss://stier, erstatte lenkede tjenestereferanser med Key Vault eller Fabric Connections, og erstatte ikke-støttedespark.catalogmetoder med Spark SQL-ekvivalenter. -
4.4 Refaktor-kontakter: Kusto/ADX — erstatter koblet tjeneste med
accessTokenviagetToken(). Cosmos DB — erstattgetSecretWithLSmedgetSecret(akvName, secret). -
4.5 Bytt ut Synapse-tokenleverandører (
LinkedServiceBasedTokenProvider,TokenLibrary) med standard OAuthClientCredsTokenProviderviaspark.conf.set(). - 4.6 Test refaktorerte notatbøker og SJD-er fra ende til ende mot data (Fase 3) og tilkoblinger (Fase 2).
Fase 5: Sikkerhet, styring og nettverk
For veiledning om sikkerhet, styring og nettverkskartlegging, se Fase 4: Sikkerhets- og styringsmigrasjon.
- 5.1 Kartlegg Synapse RBAC-roller til Fabric arbeidsplassroller (Administrator, Medlem, Bidragsyter, Viser).
- 5.2 Konfigurer OneLake RBAC for finkornet datatilgang på mappe- og tabellnivå.
- 5.3 Konfigurer administrerte VNet og administrerte private endepunkter for Spark-arbeidsbelastninger som får tilgang til private datakilder (krever tilpassede pooler).
- 5.4 Erstatt SHIR med On-premises Data Gateway (OPDG), og erstatt VNet IR med VNet Data Gateway.
- 5.5 Reconnect Microsoft Purview for styrings-, linje- og sensitivitetsetiketter.
- 5.6 Gjennomgå og påføre sensitivitetsetiketter på migrerte Lakehouse-elementer etter behov.
Fase 6: Optimaliser og valider
For validering etter migrasjon og veiledning om produksjonsberedskap, se Fase 4: Sikkerhets- og styringsmigrasjon.
- 6.1 Aktiver Native Execution Engine (NEE) for Spark-ytelsesforbedring på Parquet- og Delta-arbeidsbelastninger.
-
6.2 Kjør
OPTIMIZE VORDERpå tabeller som brukes av Power BI Direct Lake eller SQL-analyseendepunktet. - 6.3 Kjør parallelle arbeidsbelastninger og sammenlign Spark-jobbresultater og ytelse mellom Synapse og Fabric.
- 6.4 Omdiriger nedstrøms forbrukere, inkludert Power BI rapporter, API-er og applikasjoner, til Fabric endepunkter.
- 6.5 Overvåk Fabric arbeidsbelastninger ved å bruke Monitoring Hub og Diagnostic Emitter i minst én til to uker.
Fase 7: Cutover
For endelig validering, nedstrøms omdirigering og veiledning om cutover, se Fase 4: Sikkerhets- og styringsmigrasjon.
- 7.1 Bekreft at alle migrerte notatbøker, SJD-er og Spark-jobber kjører vellykket i Fabric.
- 7.2 Verifiser dataintegritet gjennom radtelling, skjemavalidering og sammenligning av spørringsresultater.
- 7.3 Kommuniser cutover til interessenter og oppdater dokumentasjonen.
- 7.4 Avvikle Synapse Spark-pooler, notatbøker og relaterte ressurser.
Note
Etter migrering, vurder å sette opp Fabric Git-integrasjon for dine migrerte notatbøker og Spark-jobbdefinisjoner. Fabric støtter Azure DevOps Git-integrasjon for kildekontroll, forgreining og distribusjonspipelines. I motsetning til Synapse (som bruker ARM-maler for CI/CD), bruker Fabric en arbeidsområdebasert modell hvor du kobler et arbeidsområde til en Git-gren og synkroniserer elementer direkte. Notatbøker, miljøer og SJD-er støtter alle Git-integrasjon. Sett opp distribusjonspipelines (Dev → Test → Prod) for å håndtere promotering på tvers av miljøer.
Relatert innhold
- Fase 1: Migrasjonsstrategi og planlegging
- Fase 2: Spark-arbeidsbelastningsmigrering
- Fase 3: Hive Metastore og datamigrering
- Fase 4: Sikkerhets- og styringsmigrasjon
- Migrer fra Azure Synapse Spark til Fabric (oversikt)
- Spark Synapse to Fabric Spark Migration Assistant
- Sammenlign Fabric og Azure Synapse Spark: Viktige forskjeller
- Migrer Spark Pools fra Azure Synapse til Fabric
- Migrer Spark-biblioteker fra Azure Synapse til Fabric
- Overføre metadata for Hive-metalager
- Synapse Spark Runtime — bibliotekmanifestasjoner
- Fabric Vurderingsverktøy