Muistiinpano
Tämän sivun käyttö edellyttää valtuutusta. Voit yrittää kirjautua sisään tai vaihtaa hakemistoa.
Tämän sivun käyttö edellyttää valtuutusta. Voit yrittää vaihtaa hakemistoa.
Tässä artikkelissa kuvataan Azure Log Analytics -kohde Fabric Apache Spark Diagnostic Emitterille Log Ingestion API:n avulla.
Fabric Apache Spark Diagnostic Emitter tarjoaa yhteisen konfiguraatiomallin Spark-diagnostiikkaan eri kohteissa. Azure Log Analytics -ohjelmassa Log Ingestion API on suositeltu vastaanottomalli.
Tässä artikkelissa näytetään, miten emitteriominaisuudet konfiguroidaan, reititetään Apache Spark -lokit, tapahtumalokit ja mittarit Log Analytics -palveluun sekä haetaan vastaanotettua dataa seurantaa ja vianetsintää varten.
Arkkitehtuurista ja kohteen valinnasta Fabric Apache Spark Diagnostic Emitterissä katso Fabric Apache Spark Diagnostic Emitter Overview.
Migraatio Data Collector API:sta
Jos käytät tällä hetkellä HTTP Data Collector API:a, siirry Log Ingestion API:lle vastaamaan nykyisiä Azure Monitor -vastaanottomalleja.
Keskeiset muutokset uudessa mallissa:
- Skeeman määritelmät ovat eksplisiittisiä Data Collection Rules (DCR) -sääntöjen kautta, jotka antavat ennustettavan skeeman validoinnin ja johdonmukaisemmat kyselytulokset kuin vanhempi vapaamuotoinen hyötykuormamenetelmä.
- Vastaanotto reititetään Data Collection Endpoints (DCE) -päätepisteiden (DCE) ja DCR-kartoitusten kautta, jotka tarjoavat hallitumman syöttöpolun kuin suoraan Data Collector API:n päätepisteelle lähettäminen.
- Tunnistautuminen tukee sekä palvelun pääasiallisen asiakassalaisuuden että varmennepohjaisia vaihtoehtoja.
- Emitterityyppi muuttuu arvosta
AzureLogAnalyticsarvoonAzureLogIngestion.
Migraatio sisältää tyypillisesti DCR- ja DCE-resurssien luomisen, Fabric-ympäristön Spark-ominaisuuksien päivittämisen sekä datan vastaanoton validoinnin mukautettuihin Log Analytics -tauluihin.
Log Ingestion API:n yleiskatsaus
Apache Spark -diagnostiikassa Microsoft Fabric -ohjelmassa Log Ingestion API tarjoaa rakenteellisen vastaanottomallin todennukseen, skeeman määrittelyyn, reititykseen ja taulujen toimitukseen Azure Log Analytics.
Keskeiset osat
| Komponentti | Tarkoitus |
|---|---|
| Sovelluksen rekisteröintitunnukset | Tarjoaa Microsoft Entra -sovelluksen identiteetin, jota käytetään Log Ingestion API -pyyntöjen tunnistamiseen joko asiakassalaisuudella tai varmenteella. |
| Log Analytics -taulukko | Tarjoaa kohde-mukautetun taulukon, johon tallennetaan syötetyt Spark-diagnostiikat kyselyjä ja seurantaa varten. |
| Tietojen keruusääntö (DCR) | Määrittelee syötevirrat, skeemakuvauksen ja valinnaiset muunnokset vastaanottoa varten. |
| Tietojen keruupäätepiste (DCE) | Tarjoaa vastaanottopäätepisteen URI:n (dceUri), jota asiakkaat käyttävät datan lähettämiseen DCR-pohjaisen reitityksen kautta. |
Ohjelmalliseen vastaanottoon voidaan käyttää vain käyttäjien luomia DCR-tiedostoja, jotka on konfiguroitu Log Ingestion API:lle.
Vaiheittainen määritys
Vaihe 1. Prepare Log Analytics workspace
Log Analytics -työtila vaaditaan vastaanottamaan Spark-diagnostiikkaa. Se on perustallennus- ja kyselyyksikkö Azure Monitor Logs:lle.
Jos sinulla ei ole sellaista, luo Log Analytics-työtila Azure-portaaliin.
Tärkeää
Kun suoritat seuraavat vaiheet, luo Data Collection Endpoint (DCE) ja Data Collection Rule (DCR) -resurssit samalle alueelle kuin Log Analytics workspace.
Vaihe 2. Luo tiedonkeruun päätepiste (DCE)
Luo Data Collection Endpoint (DCE) Azure-portaalissa. DCE tarjoaa päätepisteen URI:n, jonka konfiguroit Spark-ominaisuuksissa Log Ingestion API:lle. DCE:n alueen on oltava sama kuin Log Analytics -työtilan alue.
Azure-portaalissa siirry vasemman navigointipaneelin Monitor sivuun.
Asetuksista valitse Datan keräyspäätepisteet ja sitten Luo.
Luo päätepiste ja merkitse DCE-nimi (esim.
DCEdemo).
Vaihe 3. Valmistele näyte JSON-skeemaa
Kun luot omia lokitauluja, sinun täytyy konfiguroida Data Collection Rule (DCR). DCR:ssä määriteltyjen tietovirran määritelmien perusteella järjestelmä generoi automaattisesti vastaavan taulukkoskeeman Log Analytics -työtilassasi.
Seuraava ennalta määritelty JSON-skeema näyttelee jokaisen kuvauksen tiettyyn tietotyyppiin. Lataa esimerkki, joka sopii skenaarioosi, ja lataa se, kun luot siihen liittyvän mukautetun taulukon ja DCR:n.
- Spark-tapahtumalokit – Tapahtumataulun JSON-skeemanäyte
- Spark-ajurin ja suorittajan lokit – Lokitaulukko JSON-skeemanäyte
- Kipinämittarit – Metriikkataulukko JSON-skeemanäyte
- Alustan metatiedot - Alustan metatietotaulukko JSON-skeemanäyte
Tässä on esimerkki lokitaulun JSON-skeemasta Spark-ajuri- ja suorituslokeille Azure Log Analytics -ohjelmassa. Käytä tätä skeemaa viitteenä luodessasi omia taulukoita ja DCR:iä lokien vastaanottoa varten.
[
{
"applicationId_s": "<APPLICATION_ID>",
"applicationName_s": "<NOTEBOOK_NAME>",
"artifactId_g": "<ARTIFACT_GUID>",
"artifactType_s": "SynapseNotebook",
"capacityId_g": "<CAPACITY_GUID>",
"Category": "Log",
"executorId_s": "driver",
"executorMax_s": 9,
"executorMin_s": 1,
"ExtraFields": {
"Category": "Log",
"JobId": "1"
},
"fabricEnvId_g": "<FABRIC_ENV_GUID>",
"fabricLivyId_g": "<FABRIC_LIVY_GUID>",
"fabricTenantId_g": "<FABRIC_TENANT_GUID>",
"fabricWorkspaceId_g": "<FABRIC_WORKSPACE_GUID>",
"isHighConcurrencyEnabled_s": false,
"Level": "INFO",
"logger_name_s": "org.apache.spark.scheduler.dynalloc.ExecutorMonitor",
"Message": "Executor 1 is removed.",
"thread_name_s": "spark-listener-group-executorManagement",
"TimeGenerated": "<TIME_GENERATED>",
"userId_g": "<USER_ID>"
}
]
Vaihe 4. Luo oma taulukko (Direct Ingest)
Luo oma taulukko Log Analytics -työtilaasi Log Ingestion API -vaihtoehdolla ja lataa JSON-skeemanäyte liitännäiseen DCR:ään. Tämä vaihe vaaditaan Spark-diagnostiikan kohteen määrittämiseksi ja varmistaakseen, että vastaanotettu data noudattaa odotettua kaaviota. Log Analytics -työtilan, DCE:n ja DCR:n, alueen on oltava sama, jotta vastaanotto onnistuu.
Azure-portaalissa avaa Log Analytics työtilasi (esimerkiksi loganalyticsworkspacedemo).
Valitse taulukot>Luo>uusi mukautettu loki (Direct Ingest).
Taulukon asetukset tulevat:
- Taulukon nimi: Esimerkiksi SparkLogTest (pääte "_CL" lisätään automaattisesti).
- Pöytäsuunnitelma: Analytiikka
- Tietojen keruusääntö: Luo uusi DCR (esimerkiksi SparkLogTestrule).
- Data Collection Endpoint: Valitse DCE Create a Data Collection Endpoint (DCE) -vaiheesta (esim. DCEdemo).
Valitse Seuraava.
Skeemassa ja muunnoksessa lataa JSON-skeemanäyte. DCR-muunnosta ei tarvitse konfiguroida, koska skeema on täysin vakautunut asiakaspuolella.
Vaihe 5. Valmistele palveluperiaate todennukseen
Rekisteröi sovellus Microsoft Entra ID.
Tallenna TenantId, ClientID ja ClientSecret (jos käytät asiakassalaisuutta). Näitä arvoja käytetään Spark-konfiguraatiossa vaiheessa 6.
Myönnä sovellukselle Monitoring Metrics Publisher rooli jokaisen pöydän DCR-resurssissa. Roolien jakovaiheista katso Assign Azure roles using the Azure portal.
Vaihe 6. Säädä Spark-ominaisuudet
Sparkin konfigurointia varten luo ympäristö Fabric-ohjelmaan ja valitse jokin seuraavista todennusvaihtoehdoista. Käytä vain yhtä vaihtoehtoa tietylle emitterille.
Fabric-ympäristö tallentaa Spark-asetukset ja kirjastot, joita muistikirjat ja Spark-tehtävämäärittelyt käyttävät ajonaikaisesti. Luomisvaiheet ovat kohdalla Luo, konfiguroi ja käytä ympäristöä Fabric.
- Valitse vaihtoehto 1 , jos haluat yksinkertaisemman asetelman käyttämällä asiakassalaisuutta.
- Valitse Vaihtoehto 2 jos organisaatiosi vaatii varmennepohjaista todennusta ja keskitettyä varmentinhallintaa Azure Key Vault.
Molemmissa vaihtoehdoissa voit valita Lisää ympäristöstä .yml tuodaksesi konfiguraatiotiedoston .yml .
Vaihtoehto 1: Määritä palvelupäähenkilön ja asiakassalaisuuden mukaan
Käytä tätä vaihtoehtoa nopeaan käyttöönottoon palvelupäähenkilön tunnuksilla ja asiakassalaisuudella.
Luo ympäristö Fabric:iin.
Lisää seuraavat Spark-ominaisuudet sopivilla arvoilla ympäristöön tai valitse Lisää nauhasta .yml tuodaksesi konfiguraatiotiedoston
.yml.spark.synapse.diagnostic.emitters: <EMITTER_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.type: AzureLogIngestion spark.synapse.diagnostic.emitter.<EMITTER_NAME>.categories: DriverLog,ExecutorLog,EventLog,Metrics spark.synapse.diagnostic.emitter.<EMITTER_NAME>.dceUri: https://<DCE_NAME>.<REGION>.ingest.monitor.azure.com spark.synapse.diagnostic.emitter.<EMITTER_NAME>.logDcr: <LOG_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.logStream: <LOG_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.eventDcr: <EVENT_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.eventStream: <EVENT_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metricDcr: <METRIC_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metricStream: <METRIC_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metaDcr: <META_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metaStream: <META_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.secret: <SP_CLIENT_SECRET> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.tenantId: <SP_TENANT_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.clientId: <SP_CLIENT_ID> spark.fabric.pools.skipStarterPools: 'true'Tallenna ja julkaise muutokset.
Vaihtoehto 2: Konfiguroi palvelupään varmenteen todennus
Käytä tätä vaihtoehtoa, kun organisaatiosi vaatii sertifikaattipohjaista tunnistautumista.
Ennen kuin aloitat, varmista, että palvelupäällikkösi on luotu todistuksen kanssa. Lisätietoja löytyy kohdasta Luo palvelupäähenkilö, joka sisältää varmenteen käyttäen Azure CLI.
Luo ympäristö Fabric:iin.
Lisää seuraavat Spark-ominaisuudet sopivilla arvoilla ympäristöön tai valitse Lisää nauhasta .yml tuodaksesi konfiguraatiotiedoston
.yml.spark.synapse.diagnostic.emitters: <EMITTER_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.type: AzureLogIngestion spark.synapse.diagnostic.emitter.<EMITTER_NAME>.categories: DriverLog,ExecutorLog,EventLog,Metrics spark.synapse.diagnostic.emitter.<EMITTER_NAME>.dceUri: https://<DCE_NAME>.<REGION>.ingest.monitor.azure.com spark.synapse.diagnostic.emitter.<EMITTER_NAME>.logDcr: <LOG_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.logStream: <LOG_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.eventDcr: <EVENT_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.eventStream: <EVENT_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metricDcr: <METRIC_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metricStream: <METRIC_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metaDcr: <META_DCR_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metaStream: <META_STREAM_NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.certificate.keyVault.certificateName: <SP_CERT-NAME> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.certificate.keyVault: https://<KEYVAULT_NAME>.vault.azure.net/ spark.synapse.diagnostic.emitter.<EMITTER_NAME>.tenantId: <SP_TENANT_ID> spark.synapse.diagnostic.emitter.<EMITTER_NAME>.clientId: <SP_CLIENT_ID> spark.fabric.pools.skipStarterPools: 'true'Tallenna ja julkaise muutoksia.
Vaihe 7. Liitä ympäristö muistikirjoihin tai Spark-työn määrittelyihin, tai aseta se työtilan oletusarvoksi
Käytä jotakin seuraavista lähestymistavoista oman laajuutesi mukaan:
- Liitä ympäristö tiettyihin muistikirjoihin tai Spark-tehtävämäärittelyihin, kun haluat kohdennettua käyttöönottoa, testausta tai yksittäistä ohjausta.
- Aseta ympäristö työtilan oletuksena, kun haluat yhtenäiset Spark-diagnostiikka-asetukset koko työtilalle.
Ympäristön liittämiseksi muistikirjoihin tai Spark-työmääritelmiin:
- Siirry muistikirjaasi tai Spark-työtehtävämäärittelyyn Fabric-ohjelmassa.
- Valitse Ympäristö-valikko Aloitus-välilehdestä ja valitse määritetty ympäristö.
- Määritystä käytetään Spark-istunnon aloittamisen jälkeen.
Ympäristön asettamiseksi työtilan oletusarvoksi:
- Siirry Fabric-työkalun Workspace-asetuksiin.
- Etsi Spark-asetukset työtilan asetuksista (Workspace settings>Data Engineering/Science>Spark settings).
- Valitse Ympäristö-välilehti , valitse ympäristö, jossa on määritetty diagnostiikan spark-ominaisuudet, ja valitse Tallenna.
Vaihe 8. Aja Spark-työkuormat ja varmista lokit ja mittarit
Käytä edellisessä osiossa luomaasi ja liittämääsi ympäristöä, aja sitten Spark-työkuormat ja varmista vastaanotto Log Analytics:ssa.
- Suorita Spark-työkuormat käyttämällä edellisessä osiossa määritettyä ympäristöä. Voit käyttää jotakin seuraavista tavoista:
- Aja muistikirja Fabric-ohjelmassa.
- Lähetä Spark-erätyö Spark-työn määritelmän kautta.
- Johda Spark-aktiviteetteja putkessa.
- Avaa kohde-Log Analytics -työtila ja varmista, että lokit ja mittarit otetaan käyttöön käynnissä olevalle työkuormalle.
- Vastaanoton validointiin ja tietueiden tarkastukseen käytä Kuston esimerkkejä Kyselydatasta Kustolla.
Mukautettujen sovelluslokien kirjoittaminen
Käytä räätälöityjä sovelluslokeja, kun haluat liiketoimintatason tai sovelluskohtaisia tapahtumia alustadiagnostiikan lisäksi. Nämä lokit lähetetään saman diagnostiikkaputken kautta ja ne näkyvät Log Analytics -ohjelmassa yhdessä Spark-lokit, tapahtumalokien ja mittareiden kanssa.
Käytä Apache Log4j Spark-koodissasi lähettääksesi omia lokiviestejä. Seuraavat esimerkit osoittavat minimikuvion Scalalle ja PySparkille.
Scala-esimerkki:
%%spark
val logger = org.apache.log4j.LogManager.getLogger("com.contoso.LoggerExample")
logger.info("info message")
logger.warn("warn message")
logger.error("error message")
//log exception
try {
1/0
} catch {
case e:Exception =>logger.warn("Exception", e)
}
// run job for task level metrics
val data = sc.parallelize(Seq(1,2,3,4)).toDF().count()
PySpark-esimerkki:
%%pyspark
logger = sc._jvm.org.apache.log4j.LogManager.getLogger("com.contoso.PythonLoggerExample")
logger.info("info message")
logger.warn("warn message")
logger.error("error message")
Tietojen kyseleminen Kustolla
Käytä Kusto-kyselyjä varmistamaan, että vastaanotto toimii, ja tutkiaksesi Sparkin suorituskäyttäytymistä. Korvaa paikkamerkkiarvot, kuten {FabricWorkspaceId}, {ArtifactId}, ja {LivyId} omalla suorituksellasi.
Aloita tapahtuma- ja lokikyselyillä datan saapumisen varmistamiseksi, ja käytä sitten metriikkakyselyitä suorituskyvyn analysointiin.
Kyselyn tekeminen Apache Spark -tapahtumista:
SparkEventTest_CL
| where fabricWorkspaceId_g == "{FabricWorkspaceId}" and artifactId_g == "{ArtifactId}" and fabricLivyId_g == "{LivyId}"
| order by TimeGenerated desc
| limit 100
Kyselyn tekeminen Spark-sovellusohjaimen ja -suoritustiedoston lokeista:
SparkLogTest_CL
| where fabricWorkspaceId_g == "{FabricWorkspaceId}" and artifactId_g == "{ArtifactId}" and fabricLivyId_g == "{LivyId}"
| order by TimeGenerated desc
| limit 100
Kyselyn tekeminen Apache Spark -mittareista:
SparkMetricsTest_CL
| where fabricWorkspaceId_g == "{FabricWorkspaceId}" and artifactId_g == "{ArtifactId}" and fabricLivyId_g == "{LivyId}"
| where name_s endswith "jvm.total.used"
| summarize max(value_d) by bin(TimeGenerated, 30s), executorId_s
| order by TimeGenerated asc
Alustan metatietojen kyselyyn:
SparkMetadataTest_CL
| where fabricWorkspaceId_g == "{FabricWorkspaceId}" and artifactId_g == "{ArtifactId}" and fabricLivyId_g == "{LivyId}"
| order by TimeGenerated desc
| limit 100
Fabric-työtilat, joissa on hallittu virtuaaliverkko
Fabric-tuki mahdollistaa datan poiston suojauksen työtiloissa. Exfiltraatiosuojan ansiosta lokit ja mittarit eivät voi lähettää suoraan kohdepäätepisteisiin. Tässä tilanteessa voit luoda vastaavia hallittuja yksityisiä päätepisteitä eri kohdepäätepisteille.
Käytettävissä olevat Apache Spark -määritykset
Seuraava taulukko listaa Spark-konfiguraatiot lokien ja metriikoiden lähettämiseen Azure Log Analytics -sovellukseen Log Ingestion API:n avulla.
Tärkeää
Azure Log Analytics:lle aseta spark.synapse.diagnostic.emitter.<EMITTER_NAME>.typeAzureLogIngestion.
AzureLogAnalytics on perinteinen HTTP Data Collector API -tyyppi. Perintöohjeita varten katso Monitor Apache Spark applications with Azure Log Analytics.
| Konfigurointi | Description |
|---|---|
spark.synapse.diagnostic.emitters |
Diagnostiikan päästöjen pilkuin erotellut kohdenimet. Esimerkiksi MyDest1,MyDest2. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.type |
Sisäinen kohdetyyppi. Jos haluat ottaa Azure Log Analytics käyttöön Log Ingestion API:n kautta, aseta arvoksi AzureLogIngestion. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.categories |
Pilkuin erotellut valitut lokiluokat. Käytettävissä olevat arvot ovat DriverLog, ExecutorLog, EventLog, Metrics. Jos sitä ei ole asetettu, oletusarvo on kaikki kategoriat. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.dceUri |
Data Collection Endpoint (DCE) URI:tä käytettiin tiedon vastaanottoon reitityksessä Data Collection Rules (DCR) -sääntöjen (Data Collection Rules) kautta. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.logDcr |
Data Collection Rule (DCR) -resurssi-ID, jota käytetään Spark-lokien reitittämiseen kohteeseen. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.logStream |
Virran nimi, joka on määritelty kipinälokien tiedonkeruusäännössä (DCR). |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.eventDcr |
Data Collection Rule (DCR) -resurssi-ID, jota käytetään Spark-tapahtumalokien reitittämiseen. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.eventStream |
Virran nimi, joka on määritelty Spark-tapahtumalokien Data Collection Rule (DCR) -säännössä. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metricDcr |
Data Collection Rule (DCR) -resurssi-ID, jota käytetään Spark-mittareiden reitittämiseen. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metricStream |
Virran nimi, joka on määritelty Data Collection Rule (DCR) -säännössä Spark-mittareille. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metaDcr |
Data Collection Rule (DCR) -resurssi-ID, jota käytetään Spark-metatietojen reitittämiseen. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.metaStream |
Virran nimi, joka on määritelty Data Collection Rule (DCR) -säännössä Spark-metatiedoille. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.certificate.keyVault.certificateName |
Sertifikaatin nimi, joka on tallennettu Azure Key Vault -ohjelmaan ja jota käytetään tunnistautumiseen. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.certificate.keyVault |
Azure Key Vault URI, joka tallentaa todennustodistuksen. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.tenantId |
Microsoft Entra -vuokralaisen ID, jota käytetään tunnistautumiseen. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.clientId |
Asiakas (sovellus) ID on rekisteröity Microsoft Entra ID:hen. |
spark.fabric.pools.skipStarterPools |
Tätä Spark-ominaisuutta käytetään pyydettäessä suoritettavan Spark-istunnon pakottamiseen. Aseta arvo arvoon true , kun käytät oletuspoolia, jotta kirjastot voivat lähettää lokitietoja ja mittareita. |
spark.synapse.diagnostic.emitter.<EMITTER_NAME>.secret |
Asiakassalaisuus, joka liittyy Microsoft Entra ID (Azure AD) -sovellukseen, jota käytetään yhdessä tenant ID:n ja asiakas-ID:n kanssa lähettimen todentamiseen diagnostiikkatietojen lähetyksessä. Tämä asetus on toisensa poissulkeva varmennepohjaisessa tunnistautumisessa – konfiguroi joko asiakassalaisuus tai varmenne, mutta ei molempia. |
Liittyvä sisältö
- Apache Spark -työn määrityksen luominen
Luo, konfiguroi ja käytä ympäristöä Microsoft Fabric - Kehitä, suorita ja hallinnoi Microsoft Fabric muistikirjoja
- Spark-sovellusten valvonta
Kerää Apache Spark -diagnostiikka Azure Event Hubs - Kerää Apache Spark -diagnostiikkaa käyttämällä Azure Storage Accountia