Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Aplica-se ao: Dynamics 365 Contact Center – integrado, Dynamics 365 Contact Center – independente e Dynamics 365 Customer Service
Este artigo de perguntas frequentes aborda questões sobre o uso responsável da IA nos recursos do Copilot no Atendimento ao Cliente.
O que é Copilot no Dynamics 365 Customer Service?
O Copilot é uma ferramenta alimentada por IA que transforma a experiência do representante do serviço de atendimento ao consumidor (representante do serviço ou representante) no Dynamics 365 Customer Service. Ele fornece assistência em tempo real, alimentada por IA, que ajuda os representantes a resolver problemas com mais rapidez, gerenciar casos com mais eficiência e automatizar tarefas rotineiras para que possam se concentrar em fornecer atendimento ao cliente de alta qualidade.
Quais são as características do sistema?
O Copilot oferece os seguintes recursos principais:
Faça uma pergunta: a primeira guia que os representantes de atendimento veem quando ativam o painel de ajuda do Copilot. É uma interface de conversa com o Copilot, que ajuda a fornecer respostas contextuais às perguntas dos representantes. As respostas do Copilot se baseiam em ambas as fontes de conhecimento internas e externas fornecidas pela organização durante a configuração.
Escreva um email: a segunda guia no painel de ajuda Copilot ajuda os representantes a criar rapidamente respostas de email com base no contexto do caso, reduzindo o tempo que os usuários precisam para gastar criando emails.
Analisar o sentimento de email: detecta se um email do cliente expressa sentimento positivo, negativo ou neutro. Esse insight ajuda os representantes a entender o tom e responder com mais eficiência. Esse recurso se aplica apenas a emails de clientes de entrada e não infere emoções específicas. Ele não avalia o desempenho representativo e não deve ser usado como a única entrada para o gerenciamento de desempenho de representantes de atendimento ao cliente. Qualquer uso de dados de sentimento para avaliação deve incluir a supervisão humana.
Esboçar uma resposta de chat: permite aos representantes criarem uma resposta em um clique simples para a conversa de mensagens digitais em andamento com base em fontes de conhecimento configuradas pela organização.
Resumir um caso: o Copilot fornece aos representantes um resumo de um caso diretamente no formulário do caso, de maneira que eles possam acompanhar rapidamente os detalhes importantes de um caso.
Resumir uma conversa: o Copilot fornece aos representantes um resumo de uma conversa em pontos principais ao longo da jornada do cliente, como entregas de representante virtual, transferências e sob demanda.
Gerar rascunho de conhecimento do caso (versão prévia): Copilot gera um rascunho de artigo de conhecimento como uma proposta com base nas informações do caso. Os representantes podem revisar e refinar o rascunho dando instruções de revisão para o Copilot e, em seguida, salvá-lo.
Summarize um registro personalizado: Copilot fornece um resumo de um registro usando campos configurados por um administrador para a tabela personalizada. Este resumo ajuda os representantes a entender rapidamente os principais detalhes de um registro de suporte.
Gerar notas de resolução: o Copilot fornece aos representantes um resumo dos detalhes do caso, emails e observações vinculadas ao caso na guia Fazer uma pergunta para que eles possam fechar rapidamente o caso ou incidente.
Previsão usando a seleção de método ideal orientada por IA (versão prévia): aprimora os cenários de previsão recomendando e aplicando de forma inteligente o método mais adequado com base em entradas de cenário. Os administradores podem optar por participar durante a configuração e escolher entre a abordagem tradicional e a opção com base em IA. Os supervisores também podem executar previsões sob demanda em vez de esperar por execuções agendadas, dando às equipes flexibilidade e insights mais rápidos.
Qual é o uso pretendido do sistema?
O Copilot no Customer Service se destina a ajudar os representante do serviço de atendimento ao consumidor a trabalharem de maneira mais eficiente e eficaz. Os representante do serviço de atendimento ao consumidor podem usar as respostas baseadas em conhecimento do Copilot para economizar tempo na pesquisa dos artigos de conhecimento e no esboço das respostas. Os resumos do Copilot foram projetados para apoiar os representantes a se atualizar rapidamente sobre casos e conversas. O conteúdo gerado pelo Copilot no Customer Service não deve ser usado sem revisão ou supervisão humana.
Como o Copilot no Customer Service é avaliado? Quais métricas são usadas para medir o desempenho?
Copilot no Atendimento ao Cliente é avaliado em relação a cenários reais de clientes em suas fases de design, desenvolvimento e versão. Usando uma combinação de estudos de pesquisa e impacto nos negócios, avaliamos métricas quantitativas e qualitativas para Copilot, incluindo precisão, utilidade e confiança representativa. Saiba mais em Relatório de transparência de IA responsável.
Quais são as limitações do Copilot no Customer Service? Como os usuários podem minimizar o impacto das limitações do Copilot?
Os recursos baseados em conhecimento do Copilot, como fazer uma pergunta, escrever um email e elaborar uma resposta de chat, dependem de artigos de conhecimento de alta qualidade e atualizados para fundamentação. Sem esses artigos de conhecimento, é mais provável que os usuários encontrem respostas do Copilot não factuais.
Para reduzir o risco de respostas nãofactuais, Microsoft usa práticas fortes de gerenciamento de conhecimento. Essas práticas ajudam a garantir que o conhecimento empresarial conectado ao Copilot permaneça preciso e atualizado.
Quais fatores e configurações operacionais permitem o uso eficaz e responsável do sistema?
Revisar sempre resultados do Copilot
O Copilot aproveita tecnologia de modelo de linguagem grande, de natureza probabilística. Quando apresentado a um texto de entrada, o modelo calcula a probabilidade de cada palavra nesse texto, dadas as palavras que vieram antes dela. O modelo acaba escolhendo a palavra com mais probabilidade de seguir. No entanto, como se baseia em probabilidades, o modelo não consegue dizer com certeza absoluta qual é a próxima palavra correta. Em vez disso, ele dá seu melhor palpite com base nos padrões de probabilidade aprendidos com seus dados de treinamento.
O Copilot usa uma abordagem chamada aterramento, que envolve a adição de informações à entrada para contextualizar a saída para a organização. Ele usa a pesquisa semântica para entender a entrada e recuperar documentos internos relevantes e resultados da Web públicos confiáveis. Em seguida, ele orienta o modelo a gerar uma resposta com base nesse conteúdo. Embora essa abordagem ajude a garantir que as respostas Copilot se alinhem aos dados organizacionais, você sempre deve examinar os resultados antes de usá-los.
Obter o melhor do Copilot
Ao interagir com o Copilot, é importante ter em mente que a estrutura das perguntas pode afetar muito a resposta dada pelo Copilot. Para interagir com o Copilot de maneira eficaz, é crucial fazer perguntas claras e específicas, contextualizar para ajudar a IA a entender melhor a intenção, fazer uma pergunta por vez e evitar termos técnicos para fins de clareza e acessibilidade.
Fazer perguntas claras e específicas
A intenção clara é essencial ao fazer perguntas, pois afeta diretamente a qualidade da resposta. Por exemplo, fazer uma pergunta ampla como "Por que a máquina de café do cliente não está começando?" é menos provável que gere uma resposta útil em comparação com uma pergunta mais específica, como "Quais etapas posso tomar para determinar por que a máquina de café do cliente não está começando?"
No entanto, fazer uma pergunta ainda mais detalhada como "Quais etapas posso tomar para determinar por que uma máquina de café Contoso 900 com uma pressão de 5 bar não está ligando?" restringe o escopo do problema e fornece mais contexto, levando a respostas mais precisas e direcionadas.
Adicionar contexto
A contextualização ajuda o sistema de IA de conversa a entender melhor a intenção do usuário e dar respostas mais precisas e relevantes. Sem contexto, o sistema pode interpretar mal a pergunta do usuário ou dar respostas genéricas ou irrelevantes.
Por exemplo, "Por que a máquina de café não está iniciando?" resulta em uma resposta genérica quando comparada a uma pergunta com mais contexto como: "Recentemente, o cliente iniciou o modo de descalcagem em sua cafeteira e concluiu o descalque com êxito. Eles até mesmo receberam três piscadas da luz de energia ao final para confirmar que a descalcificação foi concluída. Por que eles não conseguem mais ligar a máquina de café?"
A contextualização dessa maneira é importante porque ajuda o Copilot a entender melhor a intenção do usuário e dar respostas mais precisas e relevantes.
Evitar termos técnicos, se possível
Recomendamos que você evite usar termos e nomes de recursos altamente técnicos ao interagir com o Copilot, pois o sistema pode nem sempre entendê-lo com precisão ou apropriado. O uso de uma linguagem mais simples e natural ajuda a garantir que o sistema possa compreender corretamente a intenção do usuário e dar respostas claras e úteis.
Por exemplo, você poderia reformular "O cliente não consegue acessar a VM via SSH após alterar a configuração do firewall" para "O cliente alterou as regras de firewall em sua máquina virtual." Eles não podem mais se conectar usando o Secure Shell (SSH)." Você pode ajudar?"
Ao seguir as sugestões, os representantes podem melhorar suas interações com o Copilot e aumentar a probabilidade de receber respostas precisas e confiáveis dele.
Resumo ou expansão de uma resposta
Às vezes, a resposta do Copilot pode ser mais longa do que o esperado. Esse cenário pode ocorrer quando o representante estiver em uma conversa de chat ao vivo com um cliente e precisar enviar respostas concisas em comparação ao envio de uma resposta por email. Nesses casos, pedir a Copilot para "resumir a resposta" resulta em uma resposta concisa à pergunta. Da mesma forma, se houver a necessidade de mais detalhes, pedir Copilot para "Fornecer mais detalhes" resultará em uma resposta mais detalhada à sua pergunta. Se a resposta for truncada, digitar "continuar" exibirá a parte restante da resposta.
Como posso influenciar as respostas geradas pelo Copilot? Posso ajustar o LLM subjacente?
Não é possível personalizar diretamente o LLM (modelo de linguagem grande). As respostas do Copilot podem ser influenciadas pela atualização da documentação de fonte. O conteúdo de feedback das respostas do Copilot é armazenado. Os relatórios podem ser criados usando esses dados para determinar as fontes de dados que precisam ser atualizadas. Recomendamos que você tenha processos em vigor para revisar periodicamente os dados de feedback e garantir que os artigos de conhecimento forneçam as melhores e mais atualizadas informações para o Copilot.
Qual é o modelo de segurança de dados do Copilot?
O Copilot impõe os controles RBAC (acesso baseado em função) definidos e respeita todos os constructos de segurança existentes. Portanto, os representantes não podem visualizar dados aos quais não têm acesso. Além disso, somente as fontes de dados às quais o representante tem acesso são usadas para a geração de respostas do Copilot.
Como o Copilot determina se o conteúdo é ofensivo ou prejudicial?
Copilot determina se o conteúdo é prejudicial por meio de um sistema de classificação de gravidade baseado em categorias distintas de conteúdo censurável. Saiba mais em categorias de Danos no Segurança de Conteúdo de IA do Azure.
Onde ocorre o processamento e a recuperação de dados para gerar respostas Copilot?
Copilot não usa o serviço OpenAI público que alimenta o ChatGPT. Copilot no Atendimento ao Cliente usa o Microsoft Serviço OpenAI do Azure, hospedado em um ambiente gerenciado por Microsoft. Todo o processamento e recuperação de dados ocorre em ambientes gerenciados por Microsoft. Os dados do cliente não são compartilhados com modelos públicos ou usados para treiná-los.
Quais são as limitações de linguagem para resumos que o Copilot gera a partir de casos e conversas?
Há suporte para muitos idiomas em resumos gerados pelo Copilot a partir de casos e conversas. Espera-se que a qualidade desses resumos seja a mais alta em inglês, enquanto nos outros idiomas, espera-se que a qualidade melhore com o tempo. Saiba mais sobre os idiomas compatíveis em Suporte a idiomas para recursos do Copilot
O modelo é testado e monitorado continuamente? Em caso afirmativo, com que frequência? Quais testes são realizados?
O modelo é testado e monitorado continuamente. O modelo é avaliado quanto à qualidade e conteúdo prejudicial sempre que houver uma alteração na versão do modelo ou em suas interações. Saiba mais em Relatório de transparência de IA responsável.
Com que frequência o modelo é monitorado para detectar degradação de desempenho?
O Azure OpenAI hospeda e gerencia o modelo gerador de IA do GPT. As práticas de IA responsável e as verificações do Conselho de Segurança de Implantação regem como o modelo é usado em cenários de atendimento ao cliente. Quaisquer alterações nas versões do modelo ou nos prompts subjacentes são validadas quanto à qualidade e ao conteúdo prejudicial. Saiba mais no Relatório de transparência de IA responsável.
O produto ou serviço emprega mais de um modelo ou um sistema de modelos interdependentes?
Diferentes recursos no sistema podem estar usando versões diferentes dos modelos de Serviço OpenAI do Azure. Saiba mais em Modelos de Serviço OpenAI do Azure.
O Copilot usa um produto ou um serviço modelo que não seja da Microsoft, e a documentação desse modelo está disponível?
O Copilot foi compilado usando o Azure OpenAI, um serviço de IA totalmente gerenciado que integra o OpenAI aos modelos de detecção de abuso e filtragem de conteúdo desenvolvidos pela Microsoft. Saiba mais em Nota de transparência para OpenAI do Azure.
Há um processo definido para comunicar quaisquer alterações em modelos, modelos upstream ou saídas usadas de outras soluções de IA/ML ou modelo?
Quaisquer alterações planejadas nos recursos do Copilot são comunicadas por meio de documentação pública. No entanto, os processos internos de IA responsável regem as alterações nas versões do modelo e nos comandos. Essas mudanças não são comunicadas, pois são melhorias funcionais incrementais e contínuas.
O feedback integral do usuário está disponível para Microsoft para melhorar o produto?
Não.
O Microsoft tem políticas e procedimentos que definem e diferenciam os vários papéis e responsabilidades humanas quando interagem ou monitoram sistemas de IA?
Sim. No processo de IA responsável, todas as partes interessadas e usuários envolvidos são considerados, e seu uso ou uso não intencional do sistema é discutido. Com base nos cenários identificados, as mitigações necessárias são trazidas dentro do produto ou por meio de documentação. Saiba mais em Relatório de transparência de IA responsável.
A Microsoft identifica e documenta maneiras de coletar feedback de usuários finais e partes interessadas para monitorar potenciais impactos e riscos.
Sim. Saiba mais em Relatório de transparência de IA responsável.
O Microsoft documenta, pratica e mede planos de resposta a incidentes para incidentes do sistema de IA, incluindo a medição de tempos de resposta e de inatividade?
Sim. O processo de IA responsável exige que a equipe tenha um plano de resposta a incidentes para problemas de IA, semelhante ao processo para problemas funcionais. As equipes de funcionalidades monitoram ativamente o desempenho e a confiabilidade do sistema. Saiba mais em Relatório de transparência de IA responsável.
O Microsoft estabelece procedimentos para compartilhar informações sobre incidências de erros e impactos negativos com partes interessadas relevantes, operadores, profissionais, usuários e partes afetadas?
Sim. Para problemas de alta gravidade, as equipes de recurso devem informar a interrupção com os clientes afetados.
O Microsoft mede e monitora o desempenho do sistema em tempo real para permitir uma resposta rápida quando um incidente no sistema de IA é detectado?
Sim. As equipes de recurso monitoram continuamente o desempenho e a confiabilidade do sistema.
O Microsoft testa a qualidade das explicações dos sistemas com os usuários finais e outras partes interessadas?
Sim. Saiba mais em Relatório de transparência de IA responsável.
O Microsoft tem políticas e procedimentos para monitorar e abordar o desempenho do modelo, a confiabilidade, o viés e a segurança em todo o ciclo de vida do modelo?
Sim. Saiba mais em Relatório de transparência de IA responsável.
O Microsoft realiza avaliações de equidade para gerenciar formas computacionais e estatísticas de viés?
Sim. Saiba mais no Relatório de Transparência de IA Responsável.
O Microsoft monitora as saídas do sistema em busca de problemas de desempenho ou viés?
Sim. Os filtros de moderação são aplicados em várias camadas, inclusive na saída, para garantir que não haja conteúdo nocivo na resposta. Saiba mais no Relatório de Transparência de IA Responsável.
Qual o nível de resiliência na operação do modelo? Por exemplo, há um plano de contingência e recuperação de desastres para instâncias em que o modelo não está disponível?
Semelhante a todos os serviços Azure, o backup e a recuperação são suportados por meio de vários data centers para alta disponibilidade.
O modelo depende de ou está inserido em ferramentas ou soluções não Microsoft que dificultariam a migração do modelo para um ambiente diferente (incluindo variáveis como provedor de hospedagem, hardware, e sistemas de software) que poderiam impedir a explicabilidade do modelo?
Não.
Existe um modelo estabelecido de política de governança?
Sim. O Azure OpenAI dá suporte a uma política de governança estabelecida. Saiba mais no Relatório de Transparência de IA Responsável.
Existem protocolos estabelecidos e documentados (autorização, duração, tipo) e controles de acesso para conjuntos de dados de treinamento ou produção contendo PII de acordo com políticas de privacidade e governança de dados?
Atualmente, não há treinamento de modelo, portanto, nenhum requisito em torno do conjunto de dados. No entanto, quando um representante de atendimento ao cliente se envolve com o Copilot, dependendo do recurso, os dados de contexto (caso ou chat) são usados para gerar uma resposta.
As divulgações de PII e a inferência de atributos sensíveis ou legalmente protegidos são monitoradas?
Sim. A revisão de privacidade é realizada para cada recurso.
A Microsoft tem um processo para considerar questões legais e regulatórias e requisitos específicos de seu setor, propósito de negócios e ambiente de aplicativos dos sistemas de IA implantados?
Sim. Uma revisão legal é realizada para cada funcionalidade para auxiliar nos requisitos regulatórios e em outros assuntos legais.
Informações relacionadas
Usar os recursos do copiloto
Usar o Copilot para gerar rascunhos de conhecimento com base em casos
Disponibilidade da região do Copilot
Perguntas frequentes sobre a segurança e a privacidade dos dados do Copilot no Microsoft Power Platform