Ofte stillede spørgsmål til Copilot om ansvarlig AI i Customer Service

Gælder for: Dynamics 365 Contact Center – integreret, Dynamics 365 Contact Center – enkelstående og Dynamics 365 Customer Service

Denne artikel med ofte stillede spørgsmål hjælper med at besvare spørgsmål om ansvarlig brug af kunstig intelligens i Copilot funktioner i Kundeservice.

Hvad er Copilot i Dynamics 365 Customer Service?

Copilot er et AI-drevet værktøj, der transformerer kundeservicemedarbejder (servicemedarbejder eller medarbejder) oplevelsen i Dynamics 365 Customer Service. Den leverer ai-drevet hjælp i realtid, der hjælper repræsentanter med at løse problemer hurtigere, administrere sager mere effektivt og automatisere rutineopgaver, så de kan fokusere på at levere kundeservice af høj kvalitet.

Hvad er systemets egenskaber?

Copilot indeholder følgende hovedfunktioner:

  • Sk et spørgsmål: Den første fane, som repræsentanter for tjenesten kan se, når de aktiverer ruden Copilot Hjælp. Det er en samtalegrænseflade med Copilot, som hjælper med at give kontekstuelle svar på repræsentanternes spørgsmål. Copilots svar er baseret på både interne og eksterne videnskilder, der kommer fra din organisation under installationen.

  • Skriv en mail: Den anden fane i hjælpruden Copilot hjælper repræsentanter med hurtigt at oprette mailsvar baseret på sagens kontekst, hvilket reducerer den tid, brugerne skal bruge på at oprette mails.

  • Analysér synspunkt via mail: Registrerer, om en kundemail udtrykker et positivt, negativt eller neutralt synspunkt. Denne indsigt hjælper repræsentanter med at forstå tone og reagere mere effektivt. Denne funktion gælder kun for indgående kundemails og udleder ikke specifikke følelser. Den evaluerer ikke repræsentativ ydeevne og bør ikke bruges som det eneste input til administration af ydeevnen for repræsentanter for kundeservice. Enhver brug af tillidsdata til evaluering skal omfatte menneskeligt tilsyn.

  • Skriv en kladde til et svar: Gør det muligt for medarbejdere at oprette et svar med et enkelt klik på den igangværende digitale beskedsamtale fra videnskilder, der er konfigureret af din organisation.

  • Opsummer en sag: Copilot giver medarbejdere en oversigt over en sag direkte i sagsformularen, så de hurtigt kan indhente de vigtige detaljer i en sag.

  • Opsummer en samtale: Copilot giver medarbejdere en oversigt over en samtale på vigtige punkter i hele kundekampagneforløbet f.eks. afleveringer fra virtuel medarbejder, overførsler og efter behov.

  • Generér vidensudkast fra sag (prøveversion): Copilot genererer et udkast til en videnartikel som et forslag baseret på oplysninger fra sagen. Repræsentanter kan gennemse og finjustere kladden ved at give revisionsinstruktioner til Copilot og derefter gemme den.

  • Summariser en brugerdefineret post: Copilot indeholder en oversigt over en post ved hjælp af felter, som en administrator konfigurerer for den brugerdefinerede tabel. Denne oversigt bistår repræsentanter med hurtigt at forstå vigtige oplysninger om et supportdokument.

  • Opret løsningsnoter: Copilot giver medarbejdere en oversigt over sagsoplysninger, mails og noter, der er knyttet til sagen, under fanen Stil et spørgsmål, så de hurtigere kan lukke sagen eller hændelsen.

  • Prognose ved hjælp af ai-drevet optimal metodevalg (prøveversion): Forbedrer prognosescenarier ved intelligent at anbefale og anvende den mest passende metode baseret på scenarieinput. Administratorer kan tilmelde sig under konfigurationen og vælge mellem den traditionelle tilgang og den AI-baserede indstilling. Tilsynsførende kan også køre prognoser efter behov i stedet for at vente på planlagte kørsler, hvilket giver teams fleksibilitet og hurtigere indsigt.

Hvad er systemets tiltænkte brug?

Copilot i Customer Service har til formål at hjælpe kundeservicemedarbejdere med at arbejde mere effektivt. Kundeservicemedarbejdere kan bruge Copilots videnbaserede svar for at spare tid fra søgning i vidensartikler og udarbejdelse af svar. Copilot resuméer er designet til at hjælpe repræsentanter med hurtigt at komme op i fart med sager og samtaler. Indhold, der genereres af Copilot i Customer Service, er ikke beregnet til brug uden en personlig gennemgang eller tilsyn.

Hvordan evalueres Copilot i Customer Service? Hvilke metrikværdier bruges til at måle ydeevnen?

Copilot i Customer Service evalueres i forhold til virkelige kundescenarier i hele design-, udviklings- og udgivelsesfaserne. Ved hjælp af en kombination af undersøgelser af forretningsmæssige konsekvenser evaluerer vi kvantitative og kvalitative målepunkter for Copilot, herunder nøjagtighed, anvendelighed og repræsentativ tillid. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Hvad er begrænsningerne ved Copilot i Customer Service? Hvordan kan brugere minimere påvirkningen af Copilot-begrænsninger?

Copilots videnbaserede funktioner, f.eks. stille et spørgsmål, skrive en mail og udarbejde et chatsvar, er afhængige af videnartikler af høj kvalitet og up-to-date til jordforbindelse. Uden disse vidensartikler er det mere sandsynligt, at brugerne støder på Copilot-svar, der ikke er faktuelle.

For at reducere risikoen for ikke-faktuelle svar bruger Microsoft stærke praksisser for administration af viden. Disse fremgangsmåder er med til at sikre, at den forretningsviden, der er forbundet med Copilot, forbliver nøjagtig og opdateret.

Hvilke driftsmæssige faktorer og indstillinger gør det muligt at bruge systemet på en effektiv og ansvarlig måde?

Gennemgå altid resultaterne fra Copilot

Copilot er opbygget på en stor sprogmodelteknologi, som arbejder med sandsynlighed. Når modellen præsenteres for en inputtekst, beregnes sandsynligheden for hvert ord i teksten på grund af de ord, der kom før det. I modellen vælges derefter det ord, der med størst sandsynlighed følger efter. Da modellen er baseret på sandsynligheder, kan den dog ikke med fuldstændig overbevisning sige, hvad det næste ord er. I stedet giver den sit bedste gæt baseret på sandsynlighedsmønstre, der er lært af oplæringsdataene.

Copilot bruger en fremgangsmåde, der kaldes "grounding", eller grundlæggende indføring, som omfatter tilføjelse af yderligere oplysninger i inputtet for at kontekstualisere outputtet i din organisation. Den bruger semantisk søgning til at forstå inputtet og hente relevante interne dokumenter og pålidelige offentlige webresultater. Den guider derefter modellen til at generere et svar, der er baseret på det pågældende indhold. Selvom denne fremgangsmåde hjælper med at sikre, at Copilot svar stemmer overens med organisationsdata, bør du altid gennemse resultaterne, før du bruger dem.

Få mest muligt ud af Copilot

Når du kommunikerer med Copilot, er det vigtigt at huske på, at strukturen af spørgsmål i høj grad kan påvirke det svar, Copilot giver. Hvis du vil arbejde med Copilot, er det vigtigt at stille klare og specifikke spørgsmål, give kontekst, så AI bedre forstår din hensigt, stille ét spørgsmål ad gangen og undgå tekniske begreber for at skabe klarhed og tilgængelighed.

Stil klare og specifikke spørgsmål

Det er vigtigt at have et klart formål, når du skal stille spørgsmål, da det direkte påvirker kvaliteten af svaret. Hvis du f.eks. stiller et bredt spørgsmål som "Hvorfor starter kundens kaffemaskine ikke?" er det mindre sandsynligt, at det giver et nyttigt svar sammenlignet med et mere specifikt spørgsmål, f.eks. "Hvilke trin kan jeg tage for at afgøre, hvorfor kundens kaffemaskine ikke starter?"

Men at stille et endnu mere detaljeret spørgsmål som "Hvilke trin kan jeg tage for at finde ud af, hvorfor en Contoso 900-kaffemaskine med en trykklassificering på 5 bar ikke starter op?" indsnævrer problemets omfang og giver mere kontekst, hvilket fører til mere nøjagtige og målrettede svar.

Tilføj kontekst

Hvis du tilføjer kontekst, kan AI-systemet i samtalen bedre forstå brugerens hensigt og levere mere nøjagtige og relevante svar. Uden kontekst kan systemet misforstå brugerens spørgsmål eller give generiske eller irrelevante svar.

"Hvorfor starter kaffemaskinen ikke?" resulterer f.eks. i et generisk svar sammenlignet med et spørgsmål med mere kontekst, f.eks. "For nylig startede kunden deskaleringstilstanden på deres kaffemaskine og fuldførte afkalkningen med succes. De modtog endda tre glimt fra strømindikatoren i slutningen for at bekræfte, at afkalkningen var gennemført. Hvorfor kan de ikke starte kaffemaskinen længere?"

Det er vigtigt at tilføje kontekst på denne måde, da Copilot så bedre kan forstå brugerens hensigt og levere mere nøjagtige og relevante svar.

Undgå tekniske udtryk, hvis det er muligt

Vi anbefaler, at du undgår at bruge meget tekniske begreber og ressourcenavne, når du interagerer med Copilot, fordi systemet muligvis ikke altid forstår det præcist eller korrekt. Brugen af et mere enkelt og naturligt sprog er med til at sikre, at systemet kan forstå brugerens hensigt korrekt og give klare og brugbare svar.

Du kan f.eks. omformulere "Kunden kan ikke SSH til den virtuelle maskine, når firewallkonfigurationen er ændret" til Kunden har ændret firewallreglerne på den virtuelle maskine. De kan ikke længere oprette forbindelse ved hjælp af Secure Shell (SSH)." Kan du hjælpe?"

Ved at følge forslagene kan repræsentanter forbedre deres interaktion med Copilot og øge sandsynligheden for at modtage nøjagtige og sikre svar fra den.

Opsummere eller udvide et svar

Undertiden kan svaret fra Copilot være længere end forventet. Dette scenarie kan opstå, når repræsentanten er i en livechatsamtale med en kunde og har brug for at sende præcise svar sammenlignet med at sende et svar via mail. I sådanne tilfælde resulterer det i et præcist svar på spørgsmålet at bede Copilot om at "opsummere svaret". Hvis der på samme måde er behov for flere detaljer, resulterer det i et mere detaljeret svar på dit spørgsmål, hvis du beder Copilot om at "Angiv flere detaljer". Hvis svaret afkortes, vises den resterende del af svaret, når du skriver "fortsæt".

Hvordan kan jeg påvirke de svar, der genereres af Copilot? Kan jeg finjustere den underliggende LLM?

Det er ikke muligt at tilpasse den store sprogmodel (LLM) direkte. Copilot-svar kan ændres ved opdatering af kildedokumentationen. Feedbackindholdet fra Copilot svar gemmes. Der kan oprettes rapporter ved hjælp af disse data for at fastslå, hvilke datakilder der skal opdateres. Vi anbefaler, at du har processer på plads for jævnligt at gennemse feedbackdataene og sikre, at videnartikler giver de bedste, mest up-to-date-oplysninger til Copilot.

Hvad er datasikkerhedsmodellen for Copilot?

Copilot gennemtvinger de rollebaserede adgangskontrolelementer (RBAC), der er defineret, og overholder alle eksisterende sikkerhedskonstruktioner. Derfor kan repræsentanter ikke se data, som de ikke har adgang til. Det er også kun datakilder, som repræsentanten har adgang til, der bruges til Copilot generering af svar.

Hvordan afgør Copilot, om indhold er stødende eller skadeligt?

Copilot bestemmer, om indhold er skadeligt gennem et alvorsvurderingssystem baseret på forskellige kategorier af stødende indhold. Få mere at vide i Skadeskategorier i Azure AI Content Safety.

Hvor sker databehandling og hentning for at generere Copilot svar?

Copilot bruger ikke den offentlige OpenAI-tjeneste, der driver ChatGPT. Copilot i Kundeservice bruger Microsoft Azure OpenAI Service, der hostes i et Microsoft-administreret miljø. Al databehandling og hentning sker i Microsoft-administrerede miljøer. Kundedata deles ikke med offentlige modeller eller bruges til at oplære dem.

Hvad er sprogbegrænsningerne for oversigter, som Copilot genererer ud fra sager og samtaler?

Mange sprog understøttes i Copilot-genererede oversigter fra sager og samtaler. Kvaliteten af disse resuméer forventes at være den højeste på engelsk, mens kvaliteten på de øvrige sprog forventes at blive bedre med tiden. Få mere at vide om understøttede sprog i Sprogunderstøttelse af Copilot-funktioner

Bliver modellen testet og overvåget løbende? Hvis ja, hvor ofte? Hvilken test udføres?

Modellen testes og overvåges løbende. Modellen evalueres for kvalitet og skadeligt indhold, hver gang modelversionen eller dens interaktioner ændres. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Hvor ofte overvåges modellen for at registrere forringelse af ydeevnen?

Azure OpenAI hoster og administrerer den generative AI GPT-model. Kontroller af ansvarlig AI-praksis og Udrulningssikkerhedsnævn styrer, hvordan modellen bruges i scenarier med kundeservice. Alle ændringer af modelversioner eller underliggende prompter valideres for kvalitet og skadeligt indhold. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Anvender produktet eller tjenesten mere end én model eller et system af indbyrdes afhængige modeller?

Forskellige funktioner i systemet kan bruge forskellige versioner af Azure OpenAI Service-modeller. Få mere at vide i Azure OpenAI Service-modeller.

Bruger Copilot et produkt eller service, der ikke er en Microsoft-model, og findes der dokumentation til denne model?

Copilot er bygget ved hjælp af Azure OpenAI, en fuldt administreret AI-tjeneste, der integrerer OpenAI med Microsoft-udviklede modeller til indholdsfiltrering og registrering af misbrug. Få mere at vide i Gennemsigtighedsnoten til Azure OpenAI.

Er der en indstillet proces til at kommunikere eventuelle ændringer i modeller, upstream-modeller eller output, der bruges fra andre AI/ML- eller modelløsninger?

Eventuelle planlagte ændringer af Copilot-funktionerne kommunikeres via offentlig dokumentation. Interne ansvarlige AI-processer styrer dog ændringer af modelversioner og -prompter. Disse ændringer kommunikeres ikke, da de er trinvise og løbende funktionsforbedringer.

Er brugerens fuldstændige feedback tilgængelig for Microsoft for at forbedre produktet?

Nr.

Har Microsoft politikker og procedurer, der definerer og differentierer de forskellige menneskelige roller og ansvar, når de interagerer med eller overvåger AI-systemer?

Ja. I den ansvarlige AI-proces tages der hensyn til alle involverede interessenter og brugere, og deres brug eller utilsigtede brug af systemet diskuteres. Baseret på de identificerede scenarier indføres påkrævede afhjælpninger i produktet eller via dokumentationen. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Identificerer og dokumenterer Microsoft måder at indsamle input fra slutbrugere og interessenter på for at overvåge potentielle virkninger og risici?

Ja. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Dokumenterer, praktiserer og måler Microsoft hændelsesberedskabsplaner for AI-systemhændelser, herunder måling af respons- og nedetider?

Ja. Den ansvarlige AI-proces kræver, at teamet har en plan for svar på hændelser for AI-problemer på samme måde som processen for funktionelle problemer. Funktionsteamene overvåger aktivt systemets ydeevne og pålidelighed. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Etablerer Microsoft procedurer for deling af oplysninger om fejlforekomster og negative virkninger med relevante interessenter, operatører, praktikere, brugere og berørte parter?

Ja. I tilfælde af problemer med høj alvorsgrad skal funktionsteams kommunikere afbrydelsen med de berørte kunder.

Måler og overvåger Microsoft systemets ydeevne i realtid for at muliggøre hurtig reaktion, når der registreres en AI-systemhændelse?

Ja. Funktionsteamene overvåger løbende systemets ydeevne og pålidelighed.

Tester Microsoft kvaliteten af systemforklaringer sammen med slutbrugere og andre interessenter?

Ja. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Har Microsoft politikker og procedurer til at overvåge og håndtere modellens ydeevne, troværdighed, bias og sikkerhed på tværs af modellens livscyklus?

Ja. Få mere at vide i Gennemsigtighedsrapporten for ansvarlig kunstig intelligens.

Udfører Microsoft retfærdighedsvurderinger for at styre beregningsmæssige og statistiske former for bias?

Ja. Få mere at vide i Få mere at vide i Rapporten om ansvarlig AI-gennemsigtighed.

Overvåger Microsoft systemoutput for problemer med ydeevne eller bias?

Ja. Modereringsfiltre anvendes i flere lag, herunder på output, for at sikre, at der ikke er noget skadeligt indhold i svaret. Få mere at vide i Få mere at vide i Rapporten om ansvarlig AI-gennemsigtighed.

Hvad er robusthedsniveauet i modellens drift? Findes der f.eks. en plan for it-katastrofeberedskab i de tilfælde, hvor modellen ikke er tilgængelig?

I lighed med alle Azure-tjenester understøttes sikkerhedskopiering og gendannelse via flere datacentre for høj tilgængelighed.

Er modellen afhængig af, integreret i ikke-Microsoft værktøjer eller løsninger, der gør det svært at migrere modellen til et andet miljø (herunder variabler som hostingudbyder, hardware, softwaresystemer), der ville forhindre modellens forklaring?

Nr.

Findes der en etableret forvaltningsmodel?

Ja. Azure OpenAI understøtter en etableret styringspolitik. Få mere at vide i Få mere at vide i Rapporten om ansvarlig AI-gennemsigtighed.

Er der etablerede og dokumenterede protokoller (godkendelse, varighed, type) og adgangskontrol for trænings- eller produktionsdatasæt, der indeholder PII, i overensstemmelse med politikker for beskyttelse af personlige oplysninger og datastyring?

I øjeblikket er der ingen modeltræning, og derfor intet krav omkring datasættet. Men når en kundeservicerepræsentant interagerer med Copilot, bruges kontekstdata (sag eller chat) til at generere et svar, afhængigt af funktionen.

Overvåges videregivelser af personhenførbare oplysninger og følgeslutning af følsomme eller juridisk beskyttede attributter?

Ja. Gennemgang af beskyttelse af personlige oplysninger udføres for hver funktion.

Ja. Der foretages juridisk gennemgang for alle funktioner for at hjælpe med lovmæssige krav og andre juridiske spørgsmål.

Bruge Copilot-funktioner
Bruge Copilot til at oprette videnkladder ud fra sager
Områdetilgængelighed af Copilot
Ofte stillede spørgsmål om Copilot-datasikkerhed og -beskyttelse af personlige oplysninger i Microsoft Power Platform