Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Copilot i Fabric Real-Time Intelligence-arbeidsbelastningen er en AI-assistent som hjelper deg med å spørre, analysere og utforske sanntidsdataene dine. Copilot oversetter naturlig språk til Kusto Query Language (KQL)-spørringer og muliggjør interaktiv datautforskning uten behov for KQL-ekspertise.
Copilot i KQL-spørringssett
Copilot i KQL-spørringssett omdanner naturlige språkspørsmål til KQL-spørringer. Beskriv dine behov for dataanalyse i klart språk, og Copilot genererer den tilsvarende spørringen. Copilot støtter samtalebaserte interaksjoner, slik at du kan finjustere forespørsler og stille oppfølgingsspørsmål uten å starte på nytt.
For detaljer om hvordan du bruker Copilot i KQL-spørringssett, se Copilot for å skrive KQL-spørringer.
Copilot i Real-Time Dashboards
Copilot i Real-Time Dashboards forenkler redigering av dashbordfliser og datautforskning:
- Rediger flis-spørringer: Bruk Copilot til å lage eller endre KQL-spørringen bak en dashbordflis direkte i redigeringspanelet, ved å bruke naturlig språk i stedet for å skrive KQL manuelt. For detaljer, se Bruk Copilot for å legge til/redigere en flis
- Utforsk data interaktivt: I visningsmodus bruker du Copilot til å stille spørsmål om dashborddataene dine, filtrere resultater og lagre innsikt som nye fliser. For detaljer, se Copilot-assistert sanntids datautforskning.
Copilot for data i Azure Data Explorer
Copilot støtter også Azure Data Explorer (ADX)-klynger. Når den er koblet til en ADX-klynge, genererer Copilot KQL-spørringer og utforsker data på samme måte som for et Eventhouse. En Fabric-aktivert kapasitet er nødvendig.
For mer informasjon om tilkobling til ADX fra Fabric, se Consume ADX-data i Fabric.
Beste praksis for Copilot KQL-spørringer
Følgende tips gjelder for Copilot både i KQL-spørringssett og Real-Time Dashboards:
Start med enkle naturlige språkoppgaver for å lære nåværende muligheter og begrensninger. Gå gradvis videre til mer komplekse oppgaver.
Formuler oppgaven presist og unngå tvetydighet. Tenk deg å dele oppgaven med en KQL-ekspert uten å legge til muntlige instruksjoner. Ville de generere riktig spørring?
Gi relevant informasjon for å hjelpe modellen. Spesifiser tabeller, operatorer eller funksjoner som er kritiske for spørringen når det er mulig.
Forbered databasen din:
- Legg til docstring-egenskaper for å beskrive vanlige tabeller og kolonner. Dette steget er avgjørende for tabeller eller kolonner med ikke-meningsfulle navn.
- Du trenger ikke legge til docstrings i tabeller eller kolonner som sjelden brukes.
- For mer informasjon, se kommandoen alter table column-docstrings.
For å forbedre Copilot resultater, velg ikonet like eller dislike for å sende tilbakemelding.
Notat
Skjemaet Send tilbakemelding sender inn navnet på databasen, URL-en, KQL-spørringen generert av Copilot, og eventuelt fritekstsvar du legger ved. Resultatene av den utførte KQL-spørringen sendes ikke.
Notat
AI driver Copilot, så overraskelser og feil er mulig.
Forbedre Copilot-nøyaktigheten med Private Shots
Copilot forbedrer promptene ved å bruke de mest relevante eksemplene (kalt naturlig språk og KQL-par, eller "shots") fra en Public Shots-database. Denne databasen er kuratert av Real-Time Intelligence-teamet, hentet fra KQL-dokumentasjon, og tilgjengelig for alle Copilot brukere. Public Shots-databasen gir et solid grunnlag, men er generisk og mangler domenespesifikk kunnskap om KQL-databasen din.
For å forbedre Copilot sin evne til å generere nøyaktige og komplekse KQL-spørringer for dine spesifikke scenarioer, opprett en Private Shots-database.
Denne tilnærmingen lar deg inkludere avanserte KQL-spørringer som adresserer teamets unike behov. For eksempel spørringer som bruker: - grafsemantikk, - tidsserieanalyse, - avviksdeteksjon, - eller lagrede funksjoner definert i KQL-databasen din.
Private Shots publiseres automatisk fra både KQL-spørringssettene og Real-Time Dashboards. Når du lagrer disse artefaktene, publiseres KQL-spørringene de inneholder til Private Shots-databasen, noe som forbedrer Copilot sin evne til å generere spørringer som samsvarer med dine data og bruksområder.
Notat
- Etter at du har lagret Private Shots-artefaktene, kan det ta noen minutter før de er publisert og tilgjengelige for Copilot å bruke.
- Bare KQL er obligatorisk. LLM-en genererer beskrivelsen av det naturlige språket. Du kan legge til en kort beskrivelse ved å inkludere en forhåndskommentar vedlagt KQL.
- KQL-spørringer sjekkes for gyldig syntaks. Kun gyldige spørringer legges til i Private Shots-databasen.
- Copilot bruker kun Private Shots som er tilgjengelige for brukeren. Hvis du mangler tillatelse til å se et spesifikt dashbord eller spørringssett, bruker ikke Copilot bilder fra disse artefaktene.
- KQL-spørringer generert av Copilot og satt inn i spørringssettet med knappen Kopier til Editor inkluderer en kommentarlinje:
// This KQL query was generated by AI:. Disse søkene publiseres ikke i Private Shots-databasen. For å inkludere dem, fjern denne kommentaren samtidig som du beholder den påfølgende kommentaren som inneholder brukerens prompt.
Limitations
Følgende begrensninger gjelder for Copilot på tvers av Real-Time Intelligence:
- Copilot kan ikke endre eksisterende KQL-spørringer i spørringseditoren. Hvis du ber Copilot-chatpanelet om å redigere en spesifikk del av en eksisterende forespørsel, fungerer det ikke. Men Copilot forstår tidligere input i chatpanelet, så du kan iterere på spørringer som Copilot genererte før innsetting.
- Copilot kan gi unøyaktige resultater når hensikten er å evaluere data. Copilot har kun tilgang til databaseskjemaet og har ikke tilgang til selve dataene.
- Copilot-svar kan inneholde unøyaktig eller lavkvalitetsinnhold. Gå gjennom resultatene før du bruker dem i arbeidet ditt.
- Personer som kan evaluere innholdets nøyaktighet og hensiktsmessighet på en meningsfull måte, bør se gjennom utdataene.
- Copilot-chatpanelet i KQL-databaser er ikke tilgjengelig når Private Link er aktivert og Public Access er deaktivert i leietakerinnstillingen.
Ansvarlig kunstig intelligens
For å se Microsoft retningslinjer for ansvarlig AI i Real-Time Intelligence, se Personvern, sikkerhet og ansvarlig bruk av Copilot for Real-Time Intelligence.
Microsoft er forpliktet til å sikre at AI-prinsipper og Responsible AI Standard styrer AI-systemene. Disse prinsippene inkluderer å gi kundene mulighet til å bruke disse systemene effektivt og i tråd med deres tiltenkte bruksområder.