Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica a: Dynamics 365 Commerce - integrata, Dynamics 365 Commerce - autonoma e Dynamics 365 Customer Insights - Journeys
Questo articolo di domande frequenti consente di rispondere alle domande sull'uso responsabile dell'intelligenza artificiale nelle funzionalità di Copilot nel servizio clienti.
Cos'è Copilot in Dynamics 365 Customer Insights - Journeys?
Copilot è uno strumento basato sull'intelligenza artificiale che trasforma l'esperienza del rappresentante del servizio clienti (rappresentante del servizio o rappresentante) in Dynamics 365 Customer Insights - Journeys. Offre assistenza basata sull'intelligenza artificiale in tempo reale che consente ai rappresentanti di risolvere i problemi più velocemente, gestire i casi in modo più efficiente e automatizzare le attività di routine in modo che possano concentrarsi sulla fornitura di un servizio clienti di alta qualità.
Quali sono le capacità dei sistemi?
Copilot fornisce le seguenti funzionalità principali:
Poni una domanda: Scheda "Chiedi una domanda" visualizzata per prima dai rappresentanti del servizio quando attivano il riquadro della guida di Copilot. È un'interfaccia conversazionale con Copilot, che aiuta a fornire risposte contestuali alle domande dei rappresentanti. Le risposte di Copilot si basano su fonti di conoscenza interne ed esterne fornite dalla tua organizzazione durante la configurazione.
Scrivere un messaggio di posta elettronica: la seconda scheda del riquadro della Guida Copilot consente ai rappresentanti di creare rapidamente risposte tramite posta elettronica in base al contesto del caso, riducendo il tempo necessario per gli utenti per la creazione di messaggi di posta elettronica.
Analizzare il sentiment di posta elettronica: rileva se un messaggio di posta elettronica del cliente esprime sentiment positivo, negativo o neutro. Queste informazioni dettagliate aiutano i rappresentanti a comprendere il tono e a rispondere in modo più efficace. Questa funzionalità si applica solo ai messaggi di posta elettronica dei clienti in arrivo e non deduce emozioni specifiche. Non valuta le prestazioni rappresentative e non deve essere usato come unico input per la gestione delle prestazioni dei rappresentanti del servizio clienti. Qualsiasi uso dei dati del sentiment per la valutazione deve includere la supervisione umana.
Bozza di una risposta chat: consente ai rappresentanti di creare una risposta con un solo clic alla conversazione di messaggistica digitale in corso dalle fonti di conoscenza configurate dalla tua organizzazione.
Riepiloga un caso: Copilot fornisce ai rappresentanti un riepilogo di un caso direttamente nel modulo del caso, in modo che possano recuperare rapidamente i dettagli importanti di un caso.
Riepiloga una conversazione: Copilot fornisce ai rappresentanti un riepilogo di una conversazione nei punti chiave del percorso del cliente, come passaggi di rappresentanti virtuali, trasferimenti e richieste.
Generate knowledge draft from case (preview): Copilot genera una bozza di articolo di conoscenza come proposta basata sulle informazioni del caso. I rappresentanti possono rivedere e perfezionare la bozza fornendo istruzioni di revisione a Copilot e quindi salvarla.
Summarize a custom record: Copilot fornisce un riepilogo di un record usando i campi configurati da un amministratore per la tabella personalizzata. Questo riepilogo consente ai rappresentanti di comprendere rapidamente i dettagli chiave di un record di supporto.
Genera note di risoluzione: Copilot fornisce ai rappresentanti un riepilogo dei dettagli del caso, dei messaggi e-mail e delle note collegati al caso nella scheda Fai una domanda, in modo che possano chiudere rapidamente il caso o l'incidente.
Previsione con selezione ottimale del metodo guidata dall'intelligenza artificiale (anteprima): migliora gli scenari di previsione consigliando e applicando in modo intelligente il metodo più adatto in base agli input dello scenario. Gli amministratori possono acconsentire esplicitamente durante la configurazione e scegliere tra l'approccio tradizionale e l'opzione basata su intelligenza artificiale. I supervisori possono anche eseguire previsioni su richiesta invece di attendere le esecuzioni pianificate, offrendo ai team flessibilità e informazioni più rapide.
Qual è la destinazione d'uso del sistema?
Copilot in Customer Service ha lo scopo di aiutare i rappresentanti del servizio clienti a lavorare in modo più efficiente ed efficace. I rappresentanti del servizio clienti possono utilizzare le risposte basate sulla conoscenza di Copilot per risparmiare tempo nella ricerca di articoli della conoscenza e nella redazione di risposte. I riepiloghi di Copilot sono progettati per aiutare i rappresentanti dell'assistenza clienti a mettersi velocemente al passo con i casi e le conversazioni. I contenuti generati da Copilot in Customer Service non sono destinati a essere utilizzati senza revisione o supervisione umana.
Come viene valutato Copilot in Customer Service? Quali metriche vengono utilizzate per misurare le prestazioni?
Copilot in Customer Service viene valutato rispetto agli scenari dei clienti reali durante le fasi di progettazione, sviluppo e rilascio. Usando una combinazione di studi di ricerca e impatto aziendale, valutiamo metriche quantitative e qualitativhe per Copilot, tra cui accuratezza, utilità e fiducia rappresentativa. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Quali sono i limiti di Copilot in Customer Service? In che modo gli utenti possono ridurre al minimo l'impatto delle limitazioni di Copilot?
Le funzionalità basate sulla conoscenza di Copilot, come fare una domanda, scrivere un'e-mail e redigere una risposta alla chat, dipendono da articoli della Knowledge Base aggiornati e di alta qualità. Senza questi articoli della Knowledge Base, è più probabile che gli utenti ricevano risposte di Copilot non concrete.
Per ridurre il rischio di risposte nonfactuali, Microsoft usa procedure avanzate di gestione delle conoscenze. Queste procedure consentono di garantire che le informazioni aziendali connesse a Copilot rimangano accurate e aggiornate.
Quali fattori operativi e impostazioni consentono un uso efficace e responsabile del sistema?
Controlla sempre i risultati di Copilot
Copilot si basa sulla tecnologia dei modelli di linguaggio di grandi dimensioni, che è di natura probabilistica. Il modello, alla presentazione di una parte di input di testo, calcola la probabilità di ogni parola in quel testo date le parole che l'hanno preceduta. Il modello sceglie quindi la parola che segue con più probabilità. Tuttavia, poiché il modello si basa sulle probabilità, non può dire con assoluta certezza quale sia la parola successiva corretta. Offre invece la migliore ipotesi in base ai modelli di probabilità appresi dai dati di addestramento.
Copilot utilizza un approccio chiamato grounding, che prevede l'aggiunta di ulteriori informazioni all'input per contestualizzare l'output alla tua organizzazione. Usa la ricerca semantica per comprendere l'input e recuperare i documenti interni pertinenti e i risultati Web pubblici attendibili. Guida quindi il modello per generare una risposta in base a tale contenuto. Anche se questo approccio garantisce che Copilot risposte siano allineate ai dati dell'organizzazione, è consigliabile esaminare sempre i risultati prima di usarli.
Sfruttare al meglio Copilot
Quando si interagisce con Copilot, è importante tenere presente che la struttura delle domande può influenzare notevolmente la risposta fornita da Copilot. Per interagire in modo efficace con Copilot, è fondamentale porre domande chiare e specifiche, fornire un contesto per aiutare l'IA a comprendere meglio le tue intenzioni, porre una domanda alla volta ed evitare termini tecnici per chiarezza e accessibilità.
Fai domande chiare e specifiche
L'intento chiaro è essenziale quando si fanno domande, poiché influisce direttamente sulla qualità della risposta. Ad esempio, porre una domanda generale come "Perché la macchina per il caffè del cliente non si avvia?" è meno probabile che restituisca una risposta utile rispetto a una domanda più specifica, ad esempio "Quali passaggi posso eseguire per determinare perché la macchina per il caffè del cliente non si avvia?"
Tuttavia, porre una domanda ancora più dettagliata, ad esempio "Quali passaggi è possibile eseguire per determinare perché una macchina per il caffè Contoso 900 con una classificazione di pressione a 5 barre non si avvia?" restringe l'ambito del problema e fornisce più contesto, portando a risposte più accurate e mirate.
Aggiungere contesto
L'aggiunta di contesto aiuta il sistema di intelligenza artificiale conversazionale a comprendere meglio l'intenzione dell'utente e a fornire risposte più accurate e pertinenti. Senza contesto, il sistema potrebbe fraintendere la domanda dell'utente o fornire risposte generiche o irrilevanti.
Ad esempio, "Perché la macchina da caffè non si avvia?" restituisce una risposta generica rispetto a una domanda con più contesto, come "Di recente il cliente ha attivato la modalità di decalcificazione sulla loro macchina da caffè e ha completato con successo il processo di decalcificazione. La spia di alimentazione ha lampeggiato tre volte alla fine per confermare che il processo di decalcificazione era stato completato. Perché non riesce più ad avviare la macchina del caffè?"
Aggiungere contesto in questo modo è importante perché aiuta Copilot a comprendere meglio l'intenzione dell'utente e a fornire risposte più accurate e pertinenti.
Evita termini tecnici se possibile
È consigliabile evitare di usare termini e nomi di risorse altamente tecnici quando si interagisce con Copilot perché il sistema potrebbe non comprenderlo sempre in modo accurato o appropriato. L'uso di un linguaggio più semplice e naturale aiuta a garantire che il sistema possa comprendere correttamente l'intento dell'utente e fornire risposte chiare e utili.
Ad esempio, è possibile riformulare "Il cliente non può accedere a SSH nella macchina virtuale dopo aver modificato la configurazione del firewall" in Il cliente ha modificato le regole del firewall nella macchina virtuale. Non possono più connettersi usando Secure Shell (SSH)." Puoi aiutarti?
Seguendo i suggerimenti, i rappresentanti possono migliorare le loro interazioni con Copilot e aumentare la probabilità di ricevere risposte accurate e sicure da esso.
Riassumere o espandere una risposta
A volte la risposta di Copilot può essere più lunga del previsto. Questo scenario può verificarsi quando il rappresentante si trova in una conversazione live chat con un cliente e deve inviare risposte concise rispetto all'invio di una risposta tramite posta elettronica. In questi casi, chiedere a Copilot di "riepilogare la risposta" restituisce una risposta concisa alla domanda. Analogamente, se è necessario un maggior dettaglio, chiedere Copilot a "Fornire altri dettagli" restituisce una risposta più dettagliata alla domanda. Se la risposta viene troncata, digitando "continua" viene visualizzata la parte rimanente della risposta.
Come posso influenzare le risposte generate da Copilot? È possibile ottimizzare l'LLM sottostante?
Non è possibile personalizzare direttamente il modello LLM (Large Language Model). Le risposte di Copilot possono essere influenzate aggiornando la documentazione di origine. Il contenuto dei feedback delle risposte di Copilot viene archiviato. È possibile creare report utilizzando questi dati per determinare le origini dati che devono essere aggiornate. È consigliabile disporre di processi per esaminare periodicamente i dati dei commenti e suggerimenti e assicurarsi che gli articoli della Knowledge Base forniscano le informazioni più up-to-date per Copilot.
Qual è il modello di sicurezza dei dati per Copilot?
Copilot applica i controlli di accesso basato sui ruoli (RBAC) definiti e aderisce a tutti i costrutti di sicurezza esistenti. Pertanto, i rappresentanti non possono visualizzare dati a cui non hanno accesso. Inoltre, sono utilizzate solo le fonti di dati a cui il rappresentante ha accesso per la generazione delle risposte di Copilot.
In che modo Copilot determina se il contenuto è offensivo o dannoso?
Copilot determina se il contenuto è dannoso attraverso un sistema di classificazione della gravità basato su categorie distinte di contenuti discutibili. Per altre informazioni, vedere Categorie di danni in Sicurezza dei contenuti per intelligenza artificiale di Azure.
Dove si verifica l'elaborazione e il recupero dei dati per generare risposte Copilot?
Copilot non usa il servizio OpenAI pubblico che supporta ChatGPT. Copilot in Customer Service usa il Microsoft Servizio Azure OpenAI ospitato in un ambiente gestito da Microsoft. Tutte le operazioni di elaborazione e recupero dei dati vengono eseguite all'interno di ambienti gestiti Microsoft. I dati dei clienti non vengono condivisi con modelli pubblici o usati per eseguirne il training.
Quali sono le limitazioni linguistiche per i riepiloghi generati da Copilot da casi e conversazioni?
Molte lingue sono supportate nei riepiloghi generati da Copilot da casi e conversazioni. La qualità di questi riassunti dovrebbe essere la più alta in inglese, mentre nelle altre lingue la qualità dovrebbe migliorare nel tempo. Per informazioni sulle lingue supportate, vedi Supporto linguistico per le funzionalità Copilot
Il modello viene testato e monitorato su base continuativa? Se sì, con quale frequenza? Quali test vengono eseguiti?
Il modello viene testato e monitorato continuamente. Il modello viene valutato per la qualità e il contenuto dannoso ogni volta che viene apportata una modifica alla versione del modello o alle relative interazioni. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Con quale frequenza viene monitorato il modello per rilevare la riduzione delle prestazioni?
Azure OpenAI ospita e gestisce il modello di intelligenza artificiale generativa GPT. Le procedure di IA responsabili e il Comitato di sicurezza della distribuzione controllano il modo in cui il modello viene usato negli scenari del servizio clienti. Eventuali modifiche apportate alle versioni del modello o alle richieste sottostanti vengono convalidate per verificarne la qualità e il contenuto dannoso. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Il prodotto o il servizio impiega più di un modello o un sistema di modelli interdipendenti?
Funzionalità diverse del sistema potrebbero utilizzare versioni diverse dei modelli di Servizio OpenAI di Azure. Altre informazioni in Modelli di Servizio OpenAI di Azure.
Copilot utilizza un modello di prodotto o servizio non Microsoft ed è disponibile la documentazione per questo modello?
Copilot viene creato tramite OpenAI di Azure, un servizio di IA completamente gestito che integra OpenAI con i modelli di filtro dei contenuti e di rilevamento degli abusi sviluppati da Microsoft. Per altre informazioni, vedi Nota sulla trasparenza di OpenAI di Azure.
Esiste un processo impostato per comunicare le modifiche apportate a modelli, modelli upstream o output usati da altre soluzioni di intelligenza artificiale/Machine Learning o modello?
Eventuali modifiche pianificate alle funzionalità di Copilot vengono comunicate tramite documentazione pubblica. Tuttavia, i processi interni di intelligenza artificiale responsabile regolano le modifiche alle versioni del modello e alle richieste. Queste modifiche non vengono comunicate, in quanto si tratta di miglioramenti funzionali incrementali e continui.
Il feedback degli utenti è disponibile per Microsoft per migliorare il prodotto?
Nr.
Microsoft ha criteri e procedure che definiscono e differenziano i vari ruoli e responsabilità umani quando interagiscono o monitorano i sistemi di intelligenza artificiale?
Sì. Nel processo di IA responsabile, vengono prese in considerazione tutte le parti interessate e gli utenti coinvolti e viene discusso il loro uso o non previsto del sistema. In base agli scenari identificati, le mitigazioni necessarie vengono introdotte all'interno del prodotto o tramite la documentazione. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft identifica e documenta i modi per raccogliere input da utenti finali e stakeholder per monitorare potenziali impatti e rischi?
Sì. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft documenta, pratica e misura i piani di risposta agli incidenti dei sistemi di intelligenza artificiale, inclusa la misurazione della risposta e dei tempi di inattività?
Sì. Il processo di IA responsabile richiede che il team disponga di un piano di risposta agli eventi imprevisti per i problemi di intelligenza artificiale, simile al processo per i problemi funzionali. I team delle funzionalità monitorano attivamente le prestazioni e l'affidabilità del sistema. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft stabilisce procedure per condividere le informazioni sull'incidenza degli errori e sugli impatti negativi con le parti interessate, gli operatori, i professionisti, gli utenti e le parti colpite?
Sì. Per i problemi di gravità elevata, i team delle funzionalità devono comunicare l'interruzione ai clienti interessati.
Microsoft misura e monitora le prestazioni del sistema in tempo reale per consentire una risposta rapida quando viene rilevato un incidente del sistema di intelligenza artificiale?
Sì. I team delle funzionalità monitorano costantemente le prestazioni e l'affidabilità del sistema.
Microsoft testa la qualità delle spiegazioni dei sistemi con gli utenti finali e le altre parti interessate?
Sì. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft dispone di criteri e procedure per monitorare e gestire le prestazioni del modello, la attendibilità, la distorsione e la sicurezza nel ciclo di vita del modello?
Sì. Altre informazioni in Report sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft conduce valutazioni di equità per gestire le forme computazionali e statistiche di bias?
Sì. Altre informazioni sono disponibili in Altre informazioni nel report sulla trasparenza dell'intelligenza artificiale responsabile.
Microsoft monitora gli output del sistema per verificare la presenza di problemi di prestazioni o di distorsione?
Sì. I filtri di moderazione vengono applicati a più livelli, anche sull'output, per assicurarsi che non vi siano contenuti dannosi nella risposta. Altre informazioni sono disponibili in Altre informazioni nel report sulla trasparenza dell'intelligenza artificiale responsabile.
Qual è il livello di resilienza nel funzionamento del modello? Ad esempio, esiste un piano di ripristino di emergenza e un piano di contingenza per le istanze in cui il modello non è disponibile?
Come tutti i servizi Azure, il backup e il ripristino sono supportati tramite più data center per garantire l'alta disponibilità.
Il modello dipende da, incorporato all'interno di strumenti o soluzioni non Microsoft che rendono difficile eseguire la migrazione del modello a un ambiente diverso (incluse variabili come provider di hosting, hardware, sistemi software) che potrebbero impedire la spiegazione del modello?
Nr.
Esistono criteri di governance del modello consolidati?
Sì. Azure OpenAI supporta un criterio di governance stabilito. Altre informazioni sono disponibili in Altre informazioni nel report sulla trasparenza dell'intelligenza artificiale responsabile.
Esistono protocolli stabiliti e documentati (autorizzazione, durata, tipo) e controlli di accesso per i set di dati di training o di produzione contenenti informazioni personali in conformità ai criteri di privacy e governance dei dati?
Attualmente, non esiste alcun training del modello, quindi nessun requisito relativo al set di dati. Tuttavia, quando un rappresentante del servizio clienti interagisce con Copilot, a seconda della funzionalità, i dati di contesto (caso o chat) vengono usati per generare una risposta.
Le divulgazioni di informazioni personali e l'inferenza di attributi sensibili o protetti dalla legge vengono monitorate?
Sì. La verifica della privacy viene eseguita per ogni funzionalità.
Microsoft ha un processo per prendere in considerazione le questioni legali e normative e i requisiti specifici per il suo settore, lo scopo aziendale e l'ambiente applicativo dei sistemi di intelligenza artificiale distribuiti?
Sì. La revisione legale viene condotta per ogni funzionalità per aiutare con i requisiti normativi e altre questioni legali.
Informazioni correlate
Utilizzare le funzionalità del copilota
Usare Copilot per generare bozze di file di caratteristiche dai casi
Regione di disponibilità di Copilot
Domande frequenti sulla sicurezza e sulla privacy dei dati utilizzati da Copilot in Microsoft Power Platform