Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Después de agregar la implementación correctamente, puede consultar la implementación predicciones de intención y de entidades de la expresión en función del modelo asignado a dicha implementación. Puede consultar la implementación mediante programación, a través de la API de predicción o a través de bibliotecas cliente (Azure SDK).
Comprobación del modelo implementado
Una vez implementado el modelo, puede probarlo enviando solicitudes de predicción para evaluar su rendimiento con expresiones reales. Las pruebas le ayudan a comprobar que el modelo identifica con precisión las intenciones y extrae las entidades según lo previsto antes de integrarla en las aplicaciones de producción. Puede probar la implementación mediante la API REST o las bibliotecas cliente del SDK de Azure.
Envío de una solicitud de reconocimiento del lenguaje conversacional
En primer lugar, debe obtener la clave de recurso y el punto de conexión:
Vaya a la página de información general del recurso en Azure Portal. En el menú de la izquierda, seleccione Claves y punto de conexión. Usa el punto de conexión y la clave para las solicitudes a la API.
Consulta del modelo
Cree una solicitud POST con la dirección URL, los encabezados y el cuerpo JSON que se incluyen a continuación para empezar a probar un modelo de reconocimiento del lenguaje conversacional.
URL de la solicitud
{ENDPOINT}/language/:analyze-conversations?api-version={API-VERSION}
| Marcador de posición | Value | Ejemplo |
|---|---|---|
{ENDPOINT} |
Punto de conexión para autenticar la solicitud de API. | https://<your-custom-subdomain>.cognitiveservices.azure.com |
{API-VERSION} |
Versión de la API a la que se llama. | 2023-04-01 |
encabezados
Use el siguiente encabezado para autenticar la solicitud.
| Clave | Value |
|---|---|
Ocp-Apim-Subscription-Key |
Clave para el recurso. Se usa para autenticar las solicitudes de API. |
Cuerpo de la solicitud
{
"kind": "Conversation",
"analysisInput": {
"conversationItem": {
"id": "1",
"participantId": "1",
"text": "Text 1"
}
},
"parameters": {
"projectName": "{PROJECT-NAME}",
"deploymentName": "{DEPLOYMENT-NAME}",
"stringIndexType": "TextElement_V8"
}
}
| Clave | Marcador de posición | Value | Ejemplo |
|---|---|---|---|
participantId |
{JOB-NAME} |
"MyJobName |
|
id |
{JOB-NAME} |
"MyJobName |
|
text |
{TEST-UTTERANCE} |
La expresión de la que se quiere predecir la intención y extraer las entidades. | "Read Matt's email |
projectName |
{PROJECT-NAME} |
Nombre del proyecto. Este valor distingue mayúsculas de minúsculas. | myProject |
deploymentName |
{DEPLOYMENT-NAME} |
Nombre de la implementación. Este valor distingue mayúsculas de minúsculas. | staging |
Una vez que envíe la solicitud, obtendrá la siguiente respuesta para la predicción.
Cuerpo de respuesta
{
"kind": "ConversationResult",
"result": {
"query": "Text1",
"prediction": {
"topIntent": "inten1",
"projectKind": "Conversation",
"intents": [
{
"category": "intent1",
"confidenceScore": 1
},
{
"category": "intent2",
"confidenceScore": 0
},
{
"category": "intent3",
"confidenceScore": 0
}
],
"entities": [
{
"category": "entity1",
"text": "text1",
"offset": 29,
"length": 12,
"confidenceScore": 1
}
]
}
}
}
| Clave | Valor de ejemplo | Descripción |
|---|---|---|
| Query | "Leer el correo electrónico de Matt" | el texto que envió para la consulta. |
| topIntent | "Lectura" | La intención predicha con la mayor puntuación de confianza. |
| intenciones | [] | Una lista de todas las intenciones que se predijeron para el texto de consulta cada una de ellas con una puntuación de confianza. |
| entities | [] | matriz que contiene la lista de entidades extraídas del texto de la consulta. |
Respuesta de API de un proyecto de conversaciones
En un proyecto de conversaciones, se obtienen predicciones para las intenciones y las entidades existentes en el proyecto.
- Las intenciones y entidades incluyen una puntuación de confianza de entre 0,0 y 1,0 asociada a la confianza del modelo en la predicción de un determinado elemento del proyecto.
- La intención con la mayor puntuación se encuentra dentro de su propio parámetro.
- Solo las entidades predichas aparecen en la respuesta.
- Las entidades indican lo siguiente:
- El texto de la entidad que se ha extraído
- Su ubicación inicial, indicada mediante un valor de desplazamiento
- La longitud del texto de la entidad, indicada mediante un valor de longitud
También puede usar las bibliotecas de cliente proporcionadas por el SDK de Azure para enviar solicitudes al modelo.
Nota:
La biblioteca cliente para el reconocimiento del lenguaje conversacional solo está disponible para:
- .NET
- Pitón
Vaya a la página de información general del recurso en Azure Portal.
En el menú de la izquierda, seleccione Claves y punto de conexión. Utilice el punto de conexión para las solicitudes de API y necesita la clave en el encabezado
Ocp-Apim-Subscription-Key.Descargue e instale el paquete de la biblioteca cliente para el idioma que prefiera:
Idioma Versión del paquete .NET 1.0.0 Pitón 1.0.0 Después de instalar la biblioteca cliente, use los ejemplos siguientes en GitHub para empezar a llamar a la API.
Para obtener más información, consulte la siguiente documentación de referencia: