Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Gäller för: Dynamics 365 Contact Center – inbäddat, Dynamics 365 Contact Center – fristående och Dynamics 365 Customer Service
Den här artikeln med vanliga frågor och svar hjälper dig att besvara frågor om ansvarsfull användning av AI i Copilot funktioner i kundtjänst.
Nyheter i Copilot i Dynamics 365 Customer Service?
Copilot är ett AI-drivet verktyg som förnyar upplevelsen för kundtjänstrepresentanter (servicehandläggare eller representanter) i Dynamics 365 Customer Service. Det ger ai-baserad hjälp i realtid som hjälper representanter att lösa problem snabbare, hantera ärenden mer effektivt och automatisera rutinuppgifter så att de kan fokusera på att leverera högkvalitativ kundservice.
Vilka funktioner har systemet?
Copilot innehåller följande huvudfunktioner:
Ask en fråga: Den första fliken som tjänstrepresentanter ser när de aktiverar hjälpfönstret Copilot. Det är ett konversationsgränssnitt med Copilot, som hjälper till att ge sammanhangsbaserade svar på representanternas frågor. Copilot-svar bygger på både interna och externa kunskapskällor som organisationen uppger under installationen.
Write an email: Den andra fliken i hjälpfönstret Copilot hjälper representanter att snabbt skapa e-postsvar baserat på ärendets kontext, vilket minskar den tid som användarna behöver ägna åt att skapa e-postmeddelanden.
Analysera e-postkänsla: Identifierar om ett kundens e-postmeddelande uttrycker positiv, negativ eller neutral känsla. Den här insikten hjälper representanter att förstå tonen och svara mer effektivt. Den här funktionen gäller endast inkommande kundmeddelanden och härleder inte specifika känslor. Den utvärderar inte representativa prestanda och bör inte användas som enda indata för prestandahantering av kundtjänstrepresentanter. All användning av sentimentdata för utvärdering måste omfatta mänsklig tillsyn.
Skapa ett chattsvar: Gör det möjligt för representanter att skapa ett svar med en enda klickning till den pågående konversationen i digital kommunikation från kunskapskällor som konfigurerats av organisationen.
Sammanfatta ett ärende: Copilot förser representanter med en sammanfattning av ett ärende direkt i ärendeformuläret, så att de snabbt kan komma i gång med de viktiga detaljerna i ett ärende.
Sammanfatta en konversation: Copilot ger representanter en sammanfattning av en konversation med viktiga punkter i kundresan, till exempel överlämningar till virtuella representanter, överföringar och på begäran.
Generera kunskapsutkast från ärende (förhandsversion): Copilot genererar ett kunskapsartikelutkast som ett förslag baserat på information från ärendet. Representanter kan granska och finjustera utkastet genom att ge revideringsinstruktioner till Copilot och sedan spara det.
Summarisera en anpassad post: Copilot innehåller en sammanfattning av en post med hjälp av fält som en administratör konfigurerar för den anpassade tabellen. Den här sammanfattningen hjälper representanter att snabbt förstå viktiga detaljer om ett supportärende.
Generera lösningsanteckningar: Copilot ger representanter en sammanfattning av ärendeinformation, e-postmeddelanden och anteckningar som är länkade till ärendet på fliken Ställ en fråga, detta så att de kan stänga ärendet eller incidenten snabbare.
Prognos med ai-driven optimal metodval (förhandsversion): Förbättrar prognosscenarier genom att rekommendera och tillämpa den lämpligaste metoden baserat på scenarioindata. Administratörer kan välja att delta under installationen och då antingen välja den traditionella metoden eller det AI-baserade alternativet. Övervakare kan också köra prognoser på begäran i stället för att vänta på schemalagda körningar, vilket ger teamen flexibilitet och snabbare insikter.
Vad är systemets avsedda användning?
Copilot i Customer Service är avsedd att hjälpa kundtjänstrepresentanter att arbeta mer effektivt. Kundtjänstrepresentanter kan använda Copilot kunskapsbaserade svar för att spara tid från att söka i kunskapsartiklar och skriva svar. Copilot-sammanfattningar är utformade för att hjälpa representanter att snabbt komma i gång med ärenden och konversationer. Innehåll som genereras av Copilot i Customer Service är inte avsett att användas utan att granskas eller ses över av någon person.
Hur utvärderas Copilot i Customer Service? Vilka mått används för att mäta prestanda?
Copilot i kundtjänst utvärderas mot verkliga kundscenarier i design-, utvecklings- och lanseringsfaserna. Med hjälp av en kombination av forsknings- och verksamhetskonsekvensstudier utvärderar vi kvantitativa och kvalitativa mått för Copilot, inklusive noggrannhet, användbarhet och representativt förtroende. Läs mer i Transparensrapport för ansvarsfull AI.
Vilka begränsningar har Copilot i Customer Service? Hur kan användare minimera påverkan på begränsningar med Copilot?
Copilots kunskapsbaserade funktioner som att ställa en fråga, skriva ett e-postmeddelande och skriva ett chattsvar är beroende av högkvalitativa och up-to-date kunskapsartiklar för grundläggning. Utan dessa kunskapsartiklar är det troligare att användarna får svar från Copilot som inte fungerar som de ska.
För att minska risken för icke-faktiska svar använder Microsoft starka metoder för kunskapshantering. Dessa metoder hjälper till att säkerställa att affärskunskaper som är kopplade till Copilot förblir korrekta och uppdaterade.
Vilka driftfaktorer och inställningar gör det möjligt att på ett effektivt och ansvarigt sätt använda systemet?
Granska alltid resultat från Copilot
Copilot är uppbyggt av teknik för stora språkmodeller, vilket är en miljö av den här typen. När den presenteras med en bit inmatad text, beräknar modellen sannolikheten för varje ord i den texten givet de ord som kom före det. Sedan väljer modellen det ord som troligast kommer att följa. Men eftersom modellen bygger på rätt ord kan man inte med absolut säkerhet säga vad nästa ord ska vara. I stället ger den sin bästa gissning baserat på sannolikhetsmönster som lärts från träningsdata.
Copilot använder en metod som kallas för övergripande åtgärder, vilket innebär att lägga till ytterligare information i indata för att kontextualisera utdata till organisationen. Den använder semantisk sökning för att förstå indata och hämta relevanta interna dokument och betrodda offentliga webbresultat. Den vägleder sedan modellen för att generera ett svar baserat på innehållet. Den här metoden hjälper till att säkerställa att Copilot svar överensstämmer med organisationsdata, men du bör alltid granska resultaten innan du använder dem.
Få ut det mesta av Copilot
När du interagerar med Copilot är det viktigt att komma ihåg att frågornas struktur kan påverka svaret som Copilot ger. För att interagera med Copilot effektivt är det avgörande att ställa tydliga och specifika frågor, tillhandahålla sammanhang för att hjälpa AI:n att bättre förstå din avsikt, ställa en fråga i taget och undvika tekniska termer för tydlighet och tillgänglighet.
Ställ tydliga och specifika frågor
Det är viktigt att du har en tydlig avsikt när du ställer frågor eftersom det direkt påverkar kvaliteten på svaret. Till exempel är det mindre troligt att ställa en bred fråga som "Varför startar inte kundens kaffebryggare?" ett användbart svar jämfört med en mer specifik fråga, till exempel "Vilka åtgärder kan jag vidta för att avgöra varför kundens kaffebryggare inte startar?"
Men att ställa en ännu mer detaljerad fråga som "Vilka åtgärder kan jag vidta för att avgöra varför en Contoso 900-kaffebryggare med en 5-bartrycksklassificering inte startar?" begränsar problemets omfattning och ger mer sammanhang, vilket leder till mer exakta och riktade svar.
Lägg till kontext
Att lägga till sammanhang hjälper det konversationsbaserade AI-systemet att bättre förstå användarens avsikt och ge mer exakta och relevanta svar. Utan sammanhang kan systemet missförstå användarens fråga eller ge generiska eller irrelevanta svar.
"Varför startar kaffebryggaren inte?" resulterar till exempel i ett allmänt svar jämfört med en fråga med mer kontext som "Nyligen initierade kunden avskalningsläget på kaffebryggaren och slutförde avskalningen. De fick till och med tre blinkningar från strömlampan i slutet för att bekräfta att avkalkningen var klar. Varför kan de inte starta kaffeautomaten?"
Att lägga till sammanhang på detta sätt är viktigt eftersom det hjälper Copilot för att bättre förstå användarens avsikt och ge mer exakta och relevanta svar.
Undvik tekniska termer om det är möjligt
Vi rekommenderar att du undviker att använda mycket tekniska termer och resursnamn när du interagerar med Copilot eftersom systemet kanske inte alltid förstår det korrekt eller korrekt. Genom att använda enklare, naturligt språk kan systemet förstå användarens avsikt på ett korrekt sätt och ge tydliga och användbara svar.
Du kan till exempel omformulera "Kunden kan inte SSH till den virtuella datorn efter att ha ändrat brandväggskonfigurationen" till Kunden har ändrat brandväggsreglerna på sin virtuella dator. De kan inte längre ansluta med Secure Shell (SSH)." Kan du hjälpa till?"
Genom att följa förslagen kan representanter förbättra sin interaktion med Copilot och öka sannolikheten för att få korrekta och säkra svar från den.
Sammanfatta eller skapa ett svar
Ibland kan svaret från Copilot vara längre än förväntat. Det här scenariot kan inträffa när representanten är i en chattkonversation med en kund och behöver skicka kortfattade svar jämfört med att skicka ett svar via e-post. I sådana fall resulterar att be Copilot att "sammanfatta svaret" i ett kortfattat svar på frågan. På samma sätt, om det finns ett behov av mer information, resulterar det i ett mer detaljerat svar på din fråga att be Copilot att "ge mer information". Om svaret trunkeras visas den återstående delen av svaret när du skriver ”fortsätt”.
Hur kan jag påverka svaren som genereras av Copilot? Kan jag finjustera underliggande LLM?
Det går inte att anpassa den stora språkmodellen (LLM) direkt. Copilot-svar kan påverkas genom att uppdatera källdokumentationen. Feedbackinnehållet från Copilot svar lagras. Rapporter kan skapas med hjälp av dessa data för att avgöra vilka datakällor som behöver uppdateras. Vi rekommenderar att du har processer på plats för att regelbundet granska feedbackdata och se till att kunskapsartiklar ger den bästa, mest uppdaterade informationen till Copilot.
Vad är datasäkerhetsmodellen för Copilot?
Copilot framtvingar de rollbaserade åtkomstkontrollerna (RBAC) som har definierats och följer alla befintliga säkerhetsstrukturer. Därför kan representanter inte visa data som de inte har åtkomst till. Dessutom används endast datakällor som representanten har åtkomst till för Copilot generering av svar.
Hur avgör Copilot om innehållet är stötande eller skadligt?
Copilot avgör om innehåll är skadligt genom ett klassificeringssystem för allvarlighetsgrad baserat på olika kategorier av stötande innehåll. Läs mer i Skadekategorier i Azure AI Innehållsäkerhet.
Var sker databearbetning och hämtning för att generera Copilot svar?
Copilot använder inte den offentliga OpenAI-tjänsten som driver ChatGPT. Copilot i kundtjänst använder Microsoft Azure OpenAI Service som finns i en Microsoft hanterad miljö. All databehandling och hämtning sker i Microsoft hanterade miljöer. Kunddata delas inte med offentliga modeller eller används för att träna dem.
Vilka är språkbegränsningarna för sammanfattningar som Copilot genererar från ärenden och konversationer?
Många språk stöds i Copilot-genererade sammanfattningar från ärenden och konversationer. Kvaliteten på dessa sammanfattningar förväntas vara högst på engelska, medan kvaliteten på de övriga språken förväntas förbättras med tiden. Läs mer om vilka språk som stöds i Språkstöd för Copilot-funktioner
Testas och följs modellen upp löpande? Om så är fallet, hur ofta? Vilka tester utförs?
Modellen testas och övervakas kontinuerligt. Modellen utvärderas för kvalitet och skadligt innehåll varje gång det sker en ändring av modellversionen eller dess interaktioner. Läs mer i Transparensrapport för ansvarsfull AI.
Hur ofta övervakas modellen för att identifiera prestandaförsämring?
Azure OpenAI är värd för och hanterar generativ AI GPT-modell. Ansvarsfulla AI-metoder och kontroll av distributionssäkerhetsnämnden styr hur modellen används i kundtjänstscenarier. Eventuella ändringar i modellversioner eller underliggande prompter verifieras för kvalitet och skadligt innehåll. Läs mer i Transparensrapport för ansvarsfull AI.
Använder produkten eller tjänsten mer än en modell eller ett system av modeller som är beroende av varandra?
Olika funktioner i systemet kan använda olika versioner av Azure OpenAI Service-modeller. Läs mer i Azure OpenAI Service-modeller.
Använder Copilot en modellprodukt eller -tjänst som inte kommer från Microsoft, och finns det dokumentation för den här modellen?
Copilot har skapats med Azure OpenAI, en fullständigt hanterad AI-tjänst som integrerar OpenAI med Microsoft-utvecklade modeller för innehållsfiltrering och identifiering av missbruk. Läs mer i Transparensanteckning för Azure OpenAI.
Finns det en uppsättningsprocess för att kommunicera eventuella ändringar i modeller, överordnade modeller eller utdata som används från andra AI/ML- eller modelllösningar?
Alla planerade ändringar av Copilot-funktionerna kommuniceras via offentlig dokumentation. Interna ansvarsfulla AI-processer styr dock ändringar i modellversioner och uppmaningar. Dessa ändringar kommuniceras inte eftersom de är inkrementella och pågående funktionella förbättringar.
Är användarens ordagranna feedback tillgänglig för Microsoft för att förbättra produkten?
Nej
Har Microsoft policyer och procedurer som definierar och särskiljer de olika mänskliga rollerna och ansvarsområdena när de interagerar med eller övervakar AI-system?
Ja. I processen för ansvarsfull AI beaktas alla berörda parter och användare, och deras användning eller oavsiktliga användning av systemet diskuteras. Baserat på de identifierade scenarierna införs nödvändiga åtgärder i produkten eller via dokumentation. Läs mer i Transparensrapport för ansvarsfull AI.
Identifierar Microsoft och dokumenterar sätt att samla in indata från slutanvändare och intressenter för att övervaka potentiella effekter och risker?
Ja. Läs mer i Transparensrapport för ansvarsfull AI.
Dokumenterar, övar och mäter Microsoft incidenthanteringsplaner för AI-systemincidenter, inklusive mätning av svarstider och stilleståndstider?
Ja. Den ansvarsfulla AI-processen kräver att teamet har en plan för incidenthantering för AI-problem, liknande processen för funktionsproblem. Funktionsteamen övervakar aktivt systemets prestanda och tillförlitlighet. Läs mer i Transparensrapport för ansvarsfull AI.
Fastställer Microsoft förfaranden för att dela information om felförekomster och negativa effekter med relevanta intressenter, operatörer, yrkesutövare, användare och berörda parter?
Ja. För problem med hög allvarlighetsgrad måste funktionsteamen kommunicera avbrottet med de berörda kunderna.
Mäter och övervakar Microsoft systemets prestanda i realtid för att möjliggöra snabb respons när en AI-systemincident upptäcks?
Ja. Funktionsteamen övervakar kontinuerligt systemets prestanda och tillförlitlighet.
Testar Microsoft kvaliteten på systemförklaringar med slutanvändare och andra intressenter?
Ja. Läs mer i Transparensrapport för ansvarsfull AI.
Har Microsoft principer och procedurer för att övervaka och hantera modellprestanda, pålitlighet, bias och säkerhet i hela modelllivscykeln?
Ja. Läs mer i Transparensrapport för ansvarsfull AI.
Genomför Microsoft rättvisebedömningar för att hantera beräkningsmässiga och statistiska former av bias?
Ja. Läs mer i Läs mer i Rapporten om ansvarsfull AI-transparens.
Övervakar Microsofts systemutdata för prestanda- eller skevhetsproblem?
Ja. Modereringsfilter tillämpas i flera lager, inklusive på utdata för att se till att det inte finns något skadligt innehåll i svaret. Läs mer i Läs mer i Rapporten om ansvarsfull AI-transparens.
Vilken är resiliensen i modellens åtgärd? Finns det till exempel en haveriberedskaps- och beredskapsplan för instanser när modellen inte är tillgänglig?
I likhet med alla Azure-tjänster stöds säkerhetskopiering och återställning via flera datacenter för hög tillgänglighet.
Är modellen beroende av, inbäddad i icke-Microsoft verktyg eller lösningar som gör det svårt att migrera modellen till en annan miljö (inklusive variabler som värdleverantör, maskinvara, programvarusystem) som skulle hindra modellens förklaring?
Nej
Finns det en etablerad modell för styrningspolicy?
Ja. Azure OpenAI stöder en etablerad styrningsprincip. Läs mer i Läs mer i Rapporten om ansvarsfull AI-transparens.
Finns det etablerade och dokumenterade protokoll (auktorisering, varaktighet, typ) och åtkomstkontroller för tränings- eller produktionsdatauppsättningar som innehåller PII i enlighet med sekretess- och datastyrningsprinciper?
För närvarande finns det ingen modellträning, och därför finns det inga krav kring datauppsättningen. Men när en kundtjänstrepresentant interagerar med Copilot används kontextdata (ärende eller chatt) beroende på funktionen för att generera ett svar.
Övervakas PII-avslöjanden och slutsatsdragning av känsliga eller juridiskt skyddade attribut?
Ja. Sekretessgranskning utförs för varje funktion.
Har Microsoft en process för att ta hänsyn till juridiska och regulatoriska frågor och krav som är specifika för dess bransch, affärssyfte och applikationsmiljön för de distribuerade AI-systemen?
Ja. Juridisk granskning utförs för varje funktion för att hjälpa till med regelkrav och andra juridiska frågor.
Relaterad information
Använda copilot-funktioner
Använda Copilot för att skapa kunskapsutkast från ärenden
Tillgänglighet efter region i Copilot
Vanliga frågor och svar för datasäkerhet och sekretess i Microsoft Power Platform