Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Se aplica a: Dynamics 365 Contact Center - insertado, Dynamics 365 Contact Center -independiente y Dynamics 365 Customer Service
Este artículo de preguntas frecuentes ayuda a responder a las preguntas en cuanto al uso responsable de la inteligencia artificial en las características de Copilot en el servicio al cliente.
¿Qué es Copilot en Dynamics 365 Customer Service?
Copilot es una herramienta con tecnología de IA que transforma la experiencia de representante del servicio al cliente (representante de servicio o representante) en Dynamics 365 Customer Service. Proporciona asistencia basada en inteligencia artificial en tiempo real que ayuda a los representantes a resolver problemas más rápidos, administrar casos de forma más eficaz y automatizar tareas rutinarias para que puedan centrarse en ofrecer un servicio al cliente de alta calidad.
¿Cuáles son las capacidades del sistema?
Copilot ofrece las siguientes características principales:
Hacer una pregunta: La primera pestaña que ven los representantes del servicio cuando activan el panel de ayuda de Copilot. Es una interfaz conversacional con Copilot, que ayuda a proporcionar respuestas contextuales a las preguntas de los representantes. Las respuestas de Copilot se basan en orígenes de conocimiento tanto internos como externos proporcionados por su organización durante la configuración.
Scribir un correo electrónico: la segunda pestaña del panel de ayuda de Copilot ayuda a los representantes a crear rápidamente respuestas de correo electrónico en función del contexto del caso, lo que reduce el tiempo que los usuarios necesitan dedicar a crear correos electrónicos.
Analizar opiniones de correo electrónico: detecta si un correo electrónico del cliente expresa opiniones positivas, negativas o neutras. Esta información ayuda a los representantes a comprender el tono y responder de forma más eficaz. Esta característica solo se aplica a los correos electrónicos entrantes del cliente y no deduce emociones específicas. No evalúa el rendimiento representativo y no debe usarse como única entrada para la administración del rendimiento de los representantes de servicio al cliente. Cualquier uso de los datos de opinión para la evaluación debe incluir la supervisión humana.
Redactar una respuesta de chat: habilita a los representantes para crear una respuesta en un solo clic a la conversación de mensajería digital en curso a partir de los orígenes de conocimiento configurados por su organización.
Resumir un caso: Copilot proporciona a los representantes un resumen de un caso directamente en el formulario del mismo, para que puedan ponerse al día rápidamente sobre los detalles importantes de un caso.
Resumir una conversación: Copilot proporciona a los representantes un resumen de una conversación en puntos clave a lo largo del recorrido del cliente, como traspasos de representantes virtuales, transferencias y bajo demanda.
Generar el borrador de conocimiento del caso (versión preliminar): Copilot genera un proyecto de artículo de conocimiento como propuesta basada en información del caso. Los representantes pueden revisar y refinar el borrador dando instrucciones de revisión a Copilot y luego guardarlo.
Summarize un registro personalizado: Copilot proporciona un resumen de un registro mediante campos que un administrador configura para la tabla personalizada. Este resumen ayuda a los representantes a comprender rápidamente los detalles clave de un registro de soporte técnico.
Generar notas de resolución: Copilot proporciona a los representantes un resumen de los detalles del caso, correos electrónicos y notas vinculadas al caso en la pestaña Hacer una pregunta, para que puedan cerrar rápidamente el caso o incidente.
Previsión controlada por IA mediante la selección óptima de métodos (versión preliminar): mejora los escenarios de previsión mediante la recomendación inteligente y la aplicación del método más adecuado en función de las posibilidades del escenario. Los administradores pueden participar durante la instalación y elegir entre el enfoque tradicional y la opción basada en IA. Los supervisores también pueden ejecutar previsiones a petición en lugar de esperar ejecuciones programadas, lo que proporciona flexibilidad a los equipos y conclusiones más rápidas.
¿Cuál es el uso previsto del sistema?
Copilot en Customer Service está diseñado para ayudar a los representantes de servicio al cliente a trabajar de forma más eficiente y eficaz. Los representantes del servicio al cliente pueden usar las respuestas basadas en el conocimiento de Copilot para ahorrar tiempo de búsqueda de artículos de conocimiento y redacción de respuestas. Los resúmenes de Copilot están diseñados para ayudar a los representantes a acelerar rápidamente los casos y las conversaciones. El contenido generado por Copilot en Customer Service no está pensado para ser usado sin revisión o supervisión humana.
¿Cómo se evalúa el Copilot en Customer Service? ¿Qué métricas se utilizan para medir el rendimiento?
Copilot para el servicio al cliente se evalúa en escenarios reales de los clientes a lo largo de sus fases de diseño, desarrollo y lanzamiento. Con una combinación de estudios de investigación e impacto empresarial, se evalúan métricas cuantitativas y cualitativas para Copilot, incluida la precisión, la utilidad y la confianza representativa. Obtenga más información en el Informe de transparencia de IA responsable.
¿Cuáles son las limitaciones de Copilot en Customer Service? ¿Cómo pueden los usuarios minimizar el impacto de las limitaciones de Copilot?
Las funcionalidades basadas en conocimientos de Copilot, como hacer una pregunta, escribir un correo electrónico y redactar una respuesta de chat, dependen de artículos de conocimiento de alta calidad y actualizados como base. Sin estos artículos de conocimiento, es más probable que los usuarios se encuentren con respuestas de Copilot que no se ajustan a la realidad.
Para reducir el riesgo de respuestas nofactuales, Microsoft usa prácticas sólidas de administración de conocimientos. Estas prácticas ayudan a garantizar que el conocimiento empresarial conectado a Copilot permanezca preciso y actualizado.
¿Qué factores operativos y configuraciones permiten un uso eficaz y responsable del sistema?
Revise siempre los resultados de Copilot
Copilot se basa en la tecnología de modelo de lenguaje extenso, de naturaleza probabilística. Cuando se le presenta un texto de entrada, el modelo calcula la probabilidad de cada palabra de ese texto teniendo en cuenta las palabras que le preceden. A continuación, el modelo elige la palabra que tiene más probabilidades de seguirle. Sin embargo, como el modelo se basa en probabilidades, no puede decir con absoluta certeza cuál es la siguiente palabra correcta. En su lugar, proporciona su mejor estimación en función de los patrones de probabilidad aprendidos de sus datos de entrenamiento.
Copilot usa un enfoque llamado fundamentación, que consiste en agregar información adicional a la entrada para contextualizar la salida a su organización. Usa la búsqueda semántica para comprender la entrada y recuperar los documentos internos pertinentes y los resultados web públicos de confianza. A continuación, guía el modelo para generar una respuesta basada en ese contenido. Aunque este enfoque ayuda a garantizar que las respuestas de Copilot se alineen con los datos de la organización, siempre debe revisar los resultados antes de usarlos.
Sacar el máximo partido a Copilot
Cuando interactúe con Copilot, es importante que tenga en cuenta que la estructura de las preguntas puede afectar en gran medida a la respuesta que dé Copilot. Para interactuar con Copilot de forma eficaz, es crucial formular preguntas claras y específicas, proporcionar contexto para ayudar a la IA a entender mejor su intención, hacer una pregunta cada vez y evitar términos técnicos para mayor claridad y accesibilidad.
Formular preguntas claras y concretas
Una intención clara es esencial a la hora de formular preguntas, ya que repercute directamente en la calidad de la respuesta. Por ejemplo, formular una pregunta amplia como "¿Por qué no se inicia la cafetera del cliente?" es menos probable que produzca una respuesta útil en comparación con una pregunta más específica, como "¿Qué pasos puedo seguir para determinar por qué la cafetera del cliente no se está iniciando?"
Sin embargo, formulando una pregunta aún más detallada, como "¿Qué pasos puedo seguir para determinar por qué una cafetera Contoso 900 con una presión nominal de 5 bares no se está iniciando?" limita el ámbito del problema y proporciona más contexto, lo que conduce a respuestas más precisas y dirigidas.
Agregar contexto
Agregar contexto ayuda al sistema de IA conversacional a comprender mejor la intención del usuario y proporcionar respuestas más precisas y pertinentes. Sin contexto, el sistema podría malinterpretar la pregunta del usuario o proporcionar respuestas genéricas o irrelevantes.
Por ejemplo, "¿Por qué no se enciende la cafetera?" da como resultado una respuesta genérica en comparación con una pregunta con mayor contexto, como "Recientemente, el cliente inició el modo de descalcificación en su cafetera y completó la descalcificación correctamente. Incluso vio tres destellos de la luz de encendido al final para confirmar que la descalcificación se había completado. ¿Por qué ya no puede poner en marcha la cafetera?".
Agregar contexto de esta manera es importante porque ayuda a Copilot a comprender mejor la intención del usuario y proporcionar respuestas más precisas y pertinentes.
Evitar los términos técnicos si es posible
Se recomienda evitar el uso de términos y nombres de recursos muy técnicos cuando interactúe con Copilot, ya que es posible que el sistema no siempre lo comprenda de forma precisa o adecuada. Usar un lenguaje más sencillo y natural ayuda a garantizar que el sistema pueda entender correctamente la intención del usuario y ofrecer respuestas claras y útiles.
Por ejemplo, podría volver a escribir "El cliente no puede conectarse mediante SSH a la máquina virtual después de haber cambiado la configuración del firewall" a "El cliente cambió las reglas del firewall en su máquina virtual". Ya no se pueden conectar mediante Secure Shell (SSH). ¿Puedes ayudarte?"
Al seguir las sugerencias, los representantes pueden mejorar sus interacciones con Copilot y aumentar la probabilidad de recibir respuestas precisas y seguras de él.
Resumir o expandir una respuesta
A veces la respuesta de Copilot puede ser más larga de lo esperado. Este escenario podría producirse cuando el representante está en una conversación de chat en directo con un cliente y necesita enviar respuestas concisas en comparación con el envío de una respuesta por correo electrónico. En tales casos, pedir a Copilot que "resuma la respuesta" da como resultado una respuesta concisa a la pregunta. Del mismo modo, si necesita más detalles, preguntar Copilot "Proporcionar más detalles" da como resultado una respuesta más detallada a su pregunta. Si la respuesta se trunca, al escribir "continuar" se muestra la parte restante de la respuesta.
¿Cómo puedo influir en las respuestas generadas por Copilot? ¿Puedo afinar el LLM subyacente?
No es posible personalizar directamente el modelo de lenguaje extenso (LLM). Se puede influir en las respuestas de Copilot actualizando la documentación de origen. El contenido de retroalimentación de las respuestas de Copilot se almacena. Se pueden crear informes mediante estos datos para determinar los orígenes de datos que deben actualizarse. Recomendamos que tenga procesos establecidos para revisar periódicamente los datos de retroalimentación y asegurarse de que los artículos de conocimiento proporcionen la mejor y más actualizada información a Copilot.
¿Cuál es el modelo de seguridad de datos de Copilot?
Copilot aplica los controles de acceso basados en roles (RBAC) definidos y se adhiere a todas las estructuras de seguridad existentes. Por lo tanto, los representantes no pueden ver datos a los que no tienen acceso. Además, solo se usan orígenes de datos a los que el representante tiene acceso para la generación de respuestas de Copilot.
¿Cómo determina Copilot si el contenido es ofensivo o dañino?
Copilot determina si el contenido es dañino a través de un sistema de clasificación de gravedad basado en distintas categorías de contenido objetable. Obtenga más información en Categorías de daños en Seguridad de contenido de Azure AI.
¿Dónde se producen el procesamiento y la recuperación de datos para generar respuestas de Copilot?
Copilot no usa el servicio openAI público que impulsa ChatGPT. Copilot del servicio al cliente usa el Microsoft Azure OpenAI Service hospedado en un entorno administrado Microsoft. Todo el procesamiento y la recuperación de datos se producen en entornos administrados por Microsoft. Los datos del cliente no se comparten con modelos públicos ni se usan para entrenarlos.
¿Cuáles son las limitaciones de idioma para los resúmenes que Copilot genera a partir de casos y conversaciones?
Los resúmenes generados por Copilot a partir de casos y conversaciones admiten muchos idiomas. Se espera que la calidad de estos resúmenes sea la más alta en inglés, mientras que en los demás idiomas se espera que la calidad mejore con el tiempo. Más información sobre los idiomas admitidos en Compatibilidad de idiomas para características de Copilot
¿El modelo se prueba y supervisa de forma continua? Si es así, ¿con qué frecuencia? ¿Qué pruebas se realizan?
El modelo se prueba y supervisa continuamente. El modelo se evalúa por su calidad y contenido perjudicial cada vez que hay un cambio en la versión del modelo o en sus interacciones. Obtenga más información en el Informe de transparencia de IA responsable.
¿Con qué frecuencia se supervisa el modelo para detectar la degradación del rendimiento?
Azure OpenAI hospeda y administra el modelo GPT de IA generativa. Las prácticas responsables de inteligencia artificial y la Junta de Seguridad de Implementación regulan cómo se utiliza el modelo en escenarios de servicio al cliente. Cualquier cambio en las versiones del modelo o en las indicaciones subyacentes se valida en cuanto a la calidad y el contenido peligroso. Obtenga más información en el Informe de transparencia de IA responsable.
¿El producto o servicio emplea más de un modelo o un sistema de modelos interdependientes?
Diferentes características del sistema podrían estar usando diferentes versiones de los modelos de Azure OpenAI Service. Obtenga más información en Modelos de Microsoft Azure OpenAI Service.
¿Usa Copilot un producto o servicio de modelo que no es de Microsoft y hay documentación disponible para este modelo?
Copilot se crea con Azure OpenAI, un servicio de IA totalmente administrado que integra OpenAI con los modelos de detección de abusos y filtrado de contenido desarrollados por Microsoft. Para obtener más información, consulte la Nota sobre transparencia para Azure OpenAI.
¿Existe un proceso establecido para comunicar los cambios en los modelos, los modelos ascendentes o las salidas que se usan desde otras soluciones de inteligencia artificial o aprendizaje automático o modelo?
Cualquier cambio planificado en las características de Copilot se comunica a través de documentación pública. Sin embargo, los procesos internos de inteligencia artificial responsable rigen los cambios en las versiones y avisos del modelo. Estos cambios no se comunican, ya que son mejoras funcionales incrementales y continuas.
¿Los comentarios literales de los usuarios están disponibles para Microsoft para mejorar el producto?
No.
¿Tienen Microsoft políticas y procedimientos que definan y diferencien las diversas funciones y responsabilidades humanas cuando interactúan con los sistemas de IA o los supervisan?
Sí. En el proceso de IA responsable, se tienen en cuenta todas las partes interesadas y los usuarios implicados, y se discute su uso o uso no intencionado del sistema. En función de los escenarios identificados, las mitigaciones necesarias se introducen en el producto o a través de la documentación. Obtenga más información en el Informe de transparencia de IA responsable.
¿Microsoft identificar y documentar formas de recopilar información de los usuarios finales y las partes interesadas para supervisar posibles impactos y riesgos?
Sí. Obtenga más información en el Informe de transparencia de IA responsable.
¿Microsoft documenta, practica y mide los planes de respuesta a incidentes para incidentes del sistema de IA, incluida la medición de los tiempos de respuesta y de inactividad?
Sí. El proceso de inteligencia artificial responsable requiere que el equipo tenga un plan de respuesta a incidentes para problemas de inteligencia artificial, similar al proceso de problemas funcionales. Los equipos de características supervisan activamente el rendimiento y la confiabilidad del sistema. Obtenga más información en el Informe de transparencia de IA responsable.
¿Microsoft establece procedimientos para compartir información sobre incidencias de errores e impactos negativos con las partes interesadas, operadores, profesionales, usuarios y partes afectadas relevantes?
Sí. Para problemas de alta gravedad, los equipos de funciones deben comunicar la interrupción a los clientes afectados.
¿Microsoft mide y supervisa el rendimiento del sistema en tiempo real para permitir una respuesta rápida cuando se detecta un incidente en el sistema de IA?
Sí. Los equipos de funciones supervisan continuamente el rendimiento y la confiabilidad del sistema.
¿Microsoft prueba la calidad de las explicaciones de los sistemas con los usuarios finales y otras partes interesadas?
Sí. Obtenga más información en el Informe de transparencia de IA responsable.
¿Microsoft tiene directivas y procedimientos para supervisar y abordar el rendimiento del modelo, la confiabilidad, el sesgo y la seguridad en todo el ciclo de vida del modelo?
Sí. Obtenga más información en el Informe de transparencia de IA responsable.
¿Microsoft lleva a cabo evaluaciones de equidad para gestionar las formas de sesgo computacional y estadístico?
Sí. Más información en Informe de Transparencia de IA Responsable.
¿Microsoft supervisa las salidas del sistema para detectar problemas de rendimiento o sesgo?
Sí. Los filtros de moderación se aplican en varias capas, incluso en la salida, para asegurarse de que no haya contenido dañino en la respuesta. Más información en Informe de Transparencia de IA Responsable.
¿Cuál es el nivel de resistencia en el funcionamiento del modelo? Por ejemplo, ¿existe un plan de contingencia y recuperación ante desastres para los casos en que el modelo no esté disponible?
Al igual que todos los servicios Azure, la copia de seguridad y la recuperación se admiten a través de múltiples centros de datos para una alta disponibilidad.
¿El modelo depende de las herramientas o soluciones que no son de Microsoft que dificultan la migración del modelo a un entorno diferente (incluidas variables como proveedor de hospedaje, hardware, sistemas de software) que impedirían la explicación del modelo?
No.
¿Existe un modelo establecido de política de gobernanza?
Sí. Azure OpenAI admite una política de gobernanza establecida. Más información en Informe de Transparencia de IA Responsable.
¿Existen protocolos (autorización, duración, tipo) y controles de acceso establecidos y documentados para conjuntos de datos de entrenamiento o producción que contienen PII de acuerdo con las políticas de privacidad y gobernanza de datos?
Actualmente, no hay entrenamiento de modelos, por lo tanto, no hay ningún requisito en torno al conjunto de datos. Sin embargo, cuando un representante de servicio al cliente interactúa con Copilot, dependiendo de la característica, los datos de contexto (caso o chat) se usan para generar una respuesta.
¿Se supervisan las divulgaciones de PII y la inferencia de atributos confidenciales o protegidos legalmente?
Sí. La revisión de privacidad se realiza para cada característica.
¿Tiene Microsoft un proceso para considerar los problemas y requisitos legales y regulatorios específicos de su industria, propósito comercial y el entorno de aplicación de los sistemas de IA implementados?
Sí. La revisión legal se lleva a cabo para cada característica para ayudar con los requisitos normativos y otros asuntos legales.
Información relacionada
Utilizar características de copiloto
Utilizar Copilot para generar borradores de conocimientos a partir de casos
Disponibilidad regional de Copilot
Preguntas frecuentes sobre la seguridad y privacidad de los datos de Copilot en Microsoft Power Platform