Veelgestelde vragen over verantwoorde AI voor Copilot in Customer Service

Van toepassing op: Dynamics 365 Contact Center (ingesloten), Dynamics 365 Contact Center (zelfstandig) en Dynamics 365 Customer Service

Dit artikel met veelgestelde vragen helpt bij het beantwoorden van de vragen over het verantwoorde gebruik van AI in Copilot functies in klantenservice.

Wat is Copilot in Dynamics 365 Customer Service?

Copilot is een AI-tool die de ervaring van de klantenservicemedewerker (servicemedewerker of medewerker) transformeert in Dynamics 365 Customer Service. Het biedt realtime hulp op basis van AI waarmee vertegenwoordigers problemen sneller kunnen oplossen, zaken efficiënter kunnen beheren en routinetaken kunnen automatiseren, zodat ze zich kunnen concentreren op het leveren van klantenservice van hoge kwaliteit.

Wat zijn de mogelijkheden van het systeem?

Copilot biedt de volgende belangrijkste functies:

  • Vraag: het eerste tabblad dat servicemedewerkers zien wanneer ze het helpvenster van Copilot activeren. Het is een gespreksinterface met Copilot, waarmee contextuele antwoorden op de vragen van de medewerkers kunnen worden gegeven. De antwoorden van Copilot zijn gebaseerd op zowel interne als externe kennisbronnen die door uw organisatie zijn verstrekt tijdens de installatie.

  • Een e-mail schrijven: Het tweede tabblad in het helpvenster van Copilot helpt vertegenwoordigers snel e-mailantwoorden te maken op basis van de context van de zaak, waardoor gebruikers minder tijd hoeven te besteden aan het maken van e-mailberichten.

  • E-mailentiment analyseren: detecteert of een e-mail van een klant een positief, negatief of neutraal gevoel uitdrukt. Dit inzicht helpt vertegenwoordigers de toon te begrijpen en effectiever te reageren. Deze functie is alleen van toepassing op binnenkomende e-mailberichten van klanten en kan geen specifieke emoties afleiden. Het evalueert geen representatieve prestaties en mag niet worden gebruikt als enige invoer voor prestatiebeheer van vertegenwoordigers van de klantenservice. Elk gebruik van sentimentgegevens voor evaluatie moet menselijk toezicht omvatten.

  • Een chatreactie opstellen: stelt medewerkers in staat om met één klik een reactie te creëren op het lopende digitale gesprek vanuit kennisbronnen die door uw organisatie zijn geconfigureerd.

  • Een case samenvatten: Copilot biedt medewerkers rechtstreeks op het caseformulier een samenvatting van een case, zodat ze snel de belangrijke details van een case kunnen inzien.

  • Een gesprek samenvatten: Copilot biedt medewerkers een samenvatting van een gesprek op belangrijke punten in de klantreis, zoals overdracht door virtuele medewerkers, overdrachten en overdrachten op verzoek.

  • Kennisconcept genereren uit zaak (preview): Copilot genereert een concept van een kennisartikel als voorstel op basis van informatie uit de zaak. Vertegenwoordigers kunnen het concept beoordelen en verfijnen, door revisie-instructies te geven aan Copilot en het vervolgens op te slaan.

  • Samenvatting van een aangepaste record: Copilot bevat een samenvatting van een record met behulp van velden die een beheerder configureert voor de aangepaste tabel. Deze samenvatting helpt vertegenwoordigers snel inzicht te krijgen in de belangrijkste details van een ondersteuningsrecord.

  • Oplossingsnotities genereren: Copilot biedt medewerkers een samenvatting van de casedetails, e-mails en notities die aan de case zijn gekoppeld op het tabblad Een vraag stellen, zodat ze de case of het incident sneller kunnen afsluiten.

  • Prognose met behulp van door AI gestuurde optimale methodeselectie (preview): verbetert prognosescenario's door op intelligente wijze de meest geschikte methode aan te bevelen en toe te passen op basis van scenario-invoer. Beheerders kunnen zich tijdens de installatie aanmelden en kiezen tussen de traditionele benadering en de op AI gebaseerde optie. Supervisors kunnen ook prognoses op aanvraag uitvoeren in plaats van te wachten op geplande uitvoeringen, waardoor teams flexibiliteit en snellere inzichten krijgen.

Wat is het beoogde gebruik van het systeem?

Copilot in Customer Service is bedoeld om medewerkers van de klantenservice te helpen efficiënter en effectiever te werken. Medewerkers van de klantenservice kunnen de op kennis gebaseerde antwoorden van Copilot gebruiken om tijd te besparen bij het zoeken naar kennisartikelen en het opstellen van antwoorden. Copilot-samenvattingen zijn bedoeld om medewerkers te helpen snel aan de slag te gaan met zaken en gesprekken. Inhoud die is gegenereerd door Copilot in Customer Service is niet bedoeld om te worden gebruikt zonder menselijke beoordeling of supervisie.

Hoe wordt Copilot in de Customer Service beoordeeld? Welke statistieken worden gebruikt om de prestaties te meten?

Copilot in customer service wordt geëvalueerd op basis van echte klantscenario's tijdens de ontwerp-, ontwikkelings- en releasefasen. Met behulp van een combinatie van onderzoeken en bedrijfsimpactstudies evalueren we kwantitatieve en kwalitatieve metrische gegevens voor Copilot, waaronder nauwkeurigheid, bruikbaarheid en representatieve vertrouwensrelatie. Meer informatie vindt u in Transparantierapport over verantwoorde AI.

Wat zijn de beperkingen van Copilot in Customer Service? Hoe kunnen gebruikers de impact van Copilot-beperkingen minimaliseren?

De kennisgebaseerde mogelijkheden van Copilot, zoals het stellen van een vraag, het schrijven van een e-mail en het opstellen van een chatantwoord, zijn afhankelijk van hoogwaardige en actuele kennisartikelen ter onderbouwing. Zonder deze kennisartikelen is de kans groter dat gebruikers reacties van Copilot tegenkomen die niet feitelijk zijn.

Om het risico van niet-onfactuele reacties te verminderen, gebruikt Microsoft sterke procedures voor kennisbeheer. Deze procedures helpen ervoor te zorgen dat de bedrijfskennis die is verbonden met Copilot nauwkeurig en up-to-date blijft.

Welke operationele factoren en instellingen maken een effectief en verantwoordelijk gebruik van het systeem mogelijk?

De resultaten van Copilot altijd reviewen

Copilot is gebouwd op technologie voor grote taalmodellen, die probabilistisch van aard is. Wanneer het model een stuk invoertekst krijgt aangeboden, berekent het model de waarschijnlijkheid van elk woord in die tekst, op basis van de woorden die eraan voorafgingen. Het model kiest vervolgens het woord dat het meest waarschijnlijk zal volgen. Omdat het model echter is gebaseerd op waarschijnlijkheden, kan het niet met absolute zekerheid zeggen wat het juiste volgende woord is. In plaats daarvan geeft het de beste schatting op basis van waarschijnlijkheidspatronen die zijn geleerd op basis van de trainingsgegevens.

Copilot maakt gebruik van een aanpak die onderbouwing (grounding) wordt genoemd, waarbij aanvullende informatie aan de invoer wordt toegevoegd om de uitvoer naar uw organisatie te contextualiseren. Het maakt gebruik van semantische zoekopdrachten om inzicht te verkrijgen in de invoer en relevante interne documenten en vertrouwde openbare webresultaten op te halen. Vervolgens wordt het model begeleid om een antwoord te genereren op basis van die inhoud. Hoewel deze aanpak ervoor zorgt dat Copilot antwoorden zijn afgestemd op organisatiegegevens, moet u altijd de resultaten bekijken voordat u ze gebruikt.

De beste resultaten met Copilot

Wanneer u met Copilot communiceert, is het belangrijk om in gedachten te houden dat de structuur van de vragen grote invloed kan hebben op het antwoord dat Copilot geeft. Voor een effectieve interactie met Copilot is het van cruciaal belang om duidelijke en specifieke vragen te stellen, context te bieden om de AI uw intentie beter te laten begrijpen, één vraag per keer te stellen en technische termen te vermijden voor duidelijkheid en toegankelijkheid.

Duidelijke en gerichte vragen stellen

Een duidelijke intentie is essentieel bij het stellen van vragen, omdat dit rechtstreeks van invloed is op de kwaliteit van het antwoord. Stel bijvoorbeeld een brede vraag als 'Waarom start de koffiemachine van de klant niet?', is minder waarschijnlijk een nuttig antwoord in vergelijking met een specifiekere vraag, zoals 'Welke stappen kan ik nemen om te bepalen waarom de koffiemachine van de klant niet wordt opgestart?'

Het stellen van een nog gedetailleerdere vraag, zoals "Welke stappen kan ik nemen om te bepalen waarom een Contoso 900-koffiemachine met een drukclassificatie van 5 bar niet opstart?", beperkt het probleem en biedt meer context, wat leidt tot nauwkeurigere en gerichte antwoorden.

Context toevoegen

Door context toe te voegen, kan het conversationele AI-systeem de intentie van de gebruiker beter begrijpen en nauwkeurigere en relevantere antwoorden geven. Zonder context kan het systeem de vraag van de gebruiker verkeerd begrijpen of generieke of irrelevante antwoorden geven.

Bijvoorbeeld: 'Waarom wordt de koffiemachine niet gestart?' resulteert in een algemeen antwoord in vergelijking met een vraag met meer context, zoals 'Onlangs heeft de klant de schaalaanpassingsmodus gestart op hun koffiemachine en de schaalaanpassing voltooid. Ze kregen aan het einde zelfs drie flitsen van het aan/uit-lampje om te bevestigen dat het ontkalken was voltooid. Waarom kunnen ze de koffiemachine niet meer starten?′

Het is belangrijk om op deze manier context toe te voegen, omdat het Copilot helpt de intentie van de gebruiker beter te begrijpen en nauwkeurigere en relevantere antwoorden te geven.

Vermijd indien mogelijk technische termen

We raden u aan het gebruik van zeer technische termen en resourcenamen te vermijden wanneer u met Copilot werkt, omdat het systeem het mogelijk niet altijd nauwkeurig of juist begrijpt. Het gebruik van eenvoudigere, natuurlijke taal helpt ervoor te zorgen dat het systeem de bedoeling van de gebruiker correct kan begrijpen en duidelijke, bruikbare antwoorden kan geven.

U kunt bijvoorbeeld 'De klant kan geen SSH-verbinding maken met de virtuele machine nadat de firewallconfiguratie is gewijzigd' in De klant heeft de firewallregels op hun virtuele machine gewijzigd. Ze kunnen geen verbinding meer maken via Secure Shell (SSH).' Kunt u helpen?"

Door de suggesties op te volgen, kunnen medewerkers hun interacties met Copilot verbeteren en de kans vergroten dat ze nauwkeurige en betrouwbare reacties ontvangen.

Een reactie samenvatten of uitbreiden

Soms kan de reactie van Copilot langer duren dan verwacht. Dit scenario kan zich voordoen wanneer de vertegenwoordiger zich in een livechatgesprek met een klant bevindt en beknopte antwoorden moet verzenden in vergelijking met het verzenden van een antwoord via e-mail. In dergelijke gevallen leidt het verzoek aan Copilot om "het antwoord samen te vatten" tot een beknopt antwoord op de vraag. En als u meer details nodig hebt, vraagt u Copilot om meer details te geven, resulteert dit in een gedetailleerder antwoord op uw vraag. Als het antwoord is afgekapt, wordt het resterende deel van het antwoord weergegeven als u Doorgaan typt.

Hoe kan ik de reacties beïnvloeden die door Copilot worden gegenereerd? Kan ik de onderliggende LLM verfijnen?

Het is niet mogelijk om het grote taalmodel (LLM) rechtstreeks aan te passen. De reacties van Copilot kunnen worden beïnvloed door de brondocumentatie bij te werken. De feedbackinhoud van Copilot antwoorden wordt opgeslagen. Met deze gegevens kunnen rapporten worden gemaakt om te bepalen welke gegevensbronnen moeten worden bijgewerkt. Het is raadzaam dat u processen hebt om regelmatig de feedbackgegevens te controleren en ervoor te zorgen dat kennisartikelen de beste, meest up-to-datuminformatie bieden aan Copilot.

Wat is het gegevensbeveiligingsmodel voor Copilot?

Copilot dwingt de op rollen gebaseerde toegangscontroles (RBAC) af die zijn gedefinieerd en houdt zich aan alle bestaande beveiligingsconstructies. Medewerkers kunnen daarom geen gegevens bekijken waartoe zij geen toegang hebben. Bovendien worden alleen gegevensbronnen waartoe de vertegenwoordiger toegang heeft, gebruikt voor het genereren van Copilot antwoord.

Hoe bepaalt Copilot of inhoud aanstootgevend of schadelijk is?

Copilot bepaalt of inhoud schadelijk is via een systeem voor ernstbeoordeling op basis van verschillende categorieën van aanstootgevende inhoud. Meer informatie over de categorieën van schade in Azure AI Content Veiligheid.

Waar vindt gegevensverwerking en ophalen plaats om Copilot antwoorden te genereren?

Copilot maakt geen gebruik van de openbare OpenAI-service waarmee ChatGPT wordt gebruikt. Copilot in customer service maakt gebruik van de Microsoft Azure OpenAI Service, gehost in een Microsoft beheerde omgeving. Alle gegevensverwerking en het ophalen vindt plaats in Microsoft beheerde omgevingen. Klantgegevens worden niet gedeeld met openbare modellen of worden gebruikt om ze te trainen.

Wat zijn de taalbeperkingen voor samenvattingen die Copilot genereert op basis van cases en gesprekken?

In door Copilot gegenereerde samenvattingen van cases en gesprekken worden veel talen ondersteund. De kwaliteit van deze samenvattingen zal naar verwachting het hoogst zijn in het Engels. In de andere talen zal de kwaliteit naar verwachting in de loop van de tijd verbeteren. Meer informatie over ondersteunde talen in Taalondersteuning voor Copilot-functies

Wordt het model voortdurend getest en gemonitord? Zo ja, hoe vaak? Welke testen worden er uitgevoerd?

Het model wordt continu getest en bewaakt. Het model wordt geëvalueerd op kwaliteit en schadelijke inhoud telkens wanneer er een wijziging is in de modelversie of de bijbehorende interacties. Meer informatie vindt u in Transparantierapport over verantwoorde AI.

Hoe vaak wordt het model gecontroleerd om prestatieverslechtering te detecteren?

Azure OpenAI host en beheert het generatieve AI GPT-model. Verantwoorde AI-procedures en de Implementatieveiligheidsraad controleren hoe het model wordt gebruikt in klantenservicescenario's. Wijzigingen in modelversies of onderliggende prompts worden gevalideerd op kwaliteit en schadelijke inhoud. Meer informatie is te vinden in het Transparantierapport over verantwoorde AI.

Maakt het product of de dienst gebruik van meer dan één model of van een systeem van onderling afhankelijke modellen?

Verschillende functies in het systeem kunnen verschillende versies van Azure OpenAI Service-modellen gebruiken. Meer informatie is te vinden in Azure OpenAI Service-modellen.

Gebruikt Copilot een modelproduct of -service die niet van Microsoft is en is er documentatie voor dit model beschikbaar?

Copilot is gebouwd met behulp van Azure OpenAI, een volledig beheerde AI-service die OpenAI integreert met door Microsoft ontwikkelde modellen voor inhoudsfiltering en misbruikdetectie. Meer informatie vindt u in de Opmerking over transparantie in de Azure OpenAI.

Is er een set proces voor het communiceren van wijzigingen in modellen, upstream-modellen of uitvoer die worden gebruikt vanuit andere AI/ML- of modeloplossingen?

Eventuele geplande wijzigingen aan de Copilot-functies worden gecommuniceerd via openbare documentatie. Interne verantwoordelijke AI-processen bepalen echter wijzigingen in modelversies en -prompts. Deze wijzigingen worden niet gecommuniceerd, omdat het om incrementele en voortdurende functionele verbeteringen gaat.

Is de letterlijke feedback van gebruikers beschikbaar voor Microsoft om het product te verbeteren?

Nee

Heeft Microsoft beleid en procedures die de verschillende menselijke rollen en verantwoordelijkheden definiëren en onderscheiden wanneer zij interacteren met AI-systemen of deze monitoren?

Ja. In het verantwoorde AI-proces worden alle betrokken belanghebbenden en gebruikers in overweging genomen en wordt hun gebruik of onbedoeld gebruik van het systeem besproken. Op basis van de geïdentificeerde scenario's worden de benodigde maatregelen in het product of via documentatie opgenomen. Meer informatie vindt u in Transparantierapport over verantwoorde AI.

Identificeert en documenteert Microsoft manieren om input van eindgebruikers en belanghebbenden te verzamelen om mogelijke gevolgen en risico's te controleren?

Ja. Meer informatie vindt u in Transparantierapport over verantwoorde AI.

Documenteert, oefent en meet Microsoft incidentresponsplannen voor incidenten in AI-systemen, inclusief het meten van respons- en uitvaltijden?

Ja. Het verantwoorde AI-proces vereist dat het team een plan voor reactie op incidenten heeft voor AI-problemen, vergelijkbaar met het proces voor functionele problemen. De functieteams controleren actief de prestaties en betrouwbaarheid van het systeem. Meer informatie vindt u in Transparantierapport over verantwoorde AI.

Heeft Microsoft procedures opgesteld om informatie over foutincidenten en negatieve gevolgen te delen met relevante belanghebbenden, exploitanten, professionals, gebruikers en betrokken partijen?

Ja. Bij problemen met een hoge ernst moeten de featureteams de storing communiceren met de getroffen klanten.

Meet en bewaakt Microsoft de systeemprestaties in realtime om snel te kunnen reageren wanneer een incident met een AI-systeem wordt gedetecteerd?

Ja. De featureteams controleren voortdurend de prestaties en betrouwbaarheid van het systeem.

Test Microsoft de kwaliteit van systeemuitleg met eindgebruikers en andere belanghebbenden?

Ja. Meer informatie vindt u in Transparantierapport over verantwoorde AI.

Heeft Microsoft beleidsregels en procedures voor het bewaken en aanpakken van modelprestaties, betrouwbaarheid, vooroordelen en beveiliging gedurende de levenscyclus van het model?

Ja. Meer informatie vindt u in Transparantierapport over verantwoorde AI.

Voert Microsoft eerlijkheidsbeoordelingen uit om computationele en statistische vormen van vertekening te beheersen?

Ja. Meer informatie vindt u in Het rapport Verantwoorde AI-transparantie.

Controleert Microsoft de systeemuitvoer op prestatie- of biasproblemen?

Ja. Moderatiefilters worden op meerdere lagen toegepast, ook op de uitvoer, om ervoor te zorgen dat het antwoord geen schadelijke inhoud bevat. Meer informatie vindt u in Het rapport Verantwoorde AI-transparantie.

Wat is het niveau van veerkracht in de werking van het model? Is er bijvoorbeeld een noodherstel- en noodplan voor gevallen waarin het model niet beschikbaar is?

Net als bij alle Azure-services worden back-up en herstel ondersteund via meerdere datacenters voor hoge beschikbaarheid.

Is het model afhankelijk van, ingesloten in niet-Microsoft hulpprogramma's of oplossingen die het moeilijk maken om het model te migreren naar een andere omgeving (inclusief variabelen zoals hostingprovider, hardware, softwaresystemen) die de uitleg van het model zouden belemmeren?

Nee

Is er een vastgesteld modelbestuursbeleid?

Ja. Azure OpenAI ondersteunt een bestaand governancebeleid. Meer informatie vindt u in Het rapport Verantwoorde AI-transparantie.

Zijn er vastgestelde en gedocumenteerde protocollen (autorisatie, duur, type) en toegangscontroles voor trainings- of productiedatasets die PII bevatten, in overeenstemming met het privacy- en data governance-beleid?

Momenteel is er geen sprake van modeltraining en zijn er dus ook geen vereisten met betrekking tot de dataset. Wanneer een vertegenwoordiger van de klantenservice echter contact opneemt met Copilot, worden contextgegevens (case of chat) gebruikt om een antwoord te genereren.

Wordt er toezicht gehouden op de openbaarmaking van PII en het afleiden van gevoelige of wettelijk beschermde kenmerken?

Ja. Privacybeoordeling wordt uitgevoerd voor elke functie.

Ja. Juridische controle wordt uitgevoerd voor elke functie om te helpen bij wettelijke vereisten en andere juridische zaken.

Copilot-functies gebruiken
Copilot gebruiken om kennisconcepten te genereren van aanvragen
Beschikbaarheid van Copilot per regio
Veelgestelde vragen over de beveiliging en privacy van Copilot-gegevens in Microsoft Power Platform