Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Encuentre respuestas a las preguntas más frecuentes sobre los conceptos y los escenarios relacionados con el NER personalizado en el lenguaje de Azure en Foundry Tools.
¿Cómo puedo empezar a usar el servicio?
Para obtener más información, consulte nuestro inicio rápido o cómo crear proyectos.
¿Cuáles son los límites de servicio?
Para más información, consulteLímites de servicio.
¿Cuántos archivos etiquetados se necesitan?
Por lo general, los datos etiquetados diversos y representativos generan mejores resultados, dado que el etiquetado se realiza de forma precisa, coherente y completa. No hay ningún número establecido de instancias etiquetadas para que un modelo funcione correctamente. El rendimiento depende en gran medida del esquema y de la ambigüedad del esquema. Los tipos de entidad ambiguos necesitan más etiquetas. El rendimiento también depende de la calidad del etiquetado. El número recomendado de instancias etiquetadas por entidad es 50.
¿Cuánto tiempo debe tardar en entrenar un modelo?
El proceso de entrenamiento puede tardar mucho tiempo. Como estimación aproximada, el tiempo de entrenamiento esperado para los archivos con una longitud combinada de 12 800 000 caracteres es de 6 horas.
¿Cómo puedo crear mi modelo personalizado mediante programación?
Nota
Actualmente solo puede crear un modelo mediante la API de REST o Language Studio.
Puede usar la documentación de referencia de la API REST para compilar los modelos personalizados. Siga este inicio rápido para empezar a crear un proyecto y un modelo mediante las API, donde encontrará ejemplos de cómo llamar a la API de autoría.
Cuando tenga todo listo para empezar a usar el modelo con el fin de realizar predicciones, puede usar la API de REST o la biblioteca cliente.
¿Cuál es el proceso de CI/CD recomendado?
Esta es una lista de las acciones que realice en Microsoft Foundry:
- Entrene varios modelos en el mismo conjunto de datos dentro de un único proyecto.
- Vea el rendimiento del modelo.
- Implemente y pruebe el modelo y agregue o quite etiquetas de los datos.
- Elija cómo se divide el conjunto de datos en conjuntos de entrenamiento y pruebas.
Los datos se pueden dividir aleatoriamente en conjuntos de entrenamiento y pruebas, pero esto significa que la evaluación del modelo puede no basarse en el mismo conjunto de pruebas, lo que hace que los resultados no sean compatibles. Se recomienda desarrollar su propio conjunto de pruebas y usarlo para evaluar ambos modelos para medir con precisión las mejoras.
Asegúrese de revisar los límites del servicio para comprender el número máximo de modelos entrenados permitidos por proyecto.
¿Una puntuación de modelo baja o alta garantiza un rendimiento bajo o bueno en producción?
Es posible que la evaluación del modelo no siempre sea completa. El ámbito depende de los siguientes factores:
- Tamaño del conjunto de pruebas. Si el conjunto de pruebas es demasiado pequeño, las puntuaciones buenas o malas no son tan representativas del rendimiento real del modelo. Además, si falta un tipo de entidad específico o está infrarrepresentado en el conjunto de pruebas, afecta al rendimiento del modelo.
- La diversidad de los datos. Si los datos solo incluyen un número limitado de escenarios o ejemplos del texto previsto en producción, es posible que el modelo no encuentre todas las situaciones posibles. Como resultado, el modelo podría funcionar mal cuando se enfrenta a escenarios desconocidos.
- La representación dentro de sus datos. Si el conjunto de datos usado para entrenar el modelo no es representativo de los datos que se introducirían en el modelo en producción, el rendimiento del modelo se ve afectado en gran medida.
Para obtener más información, consulteselección de datos y diseño de esquemas.
¿Cómo puedo mejorar el rendimiento del modelo?
- Vea la matriz de confusión del modelo. Si observa que un determinado tipo de entidad no suele predecirse correctamente, considere la posibilidad de agregar más instancias etiquetadas para esta clase.
Cuando a menudo se predicen dos tipos de entidad diferentes entre sí, indica que el esquema carece de claridad. Para mejorar el rendimiento, debe pensar en combinar estos dos tipos de entidad en un único tipo unificado. Si dos tipos de entidad se equivocan de forma coherente entre sí durante la predicción, este resultado sugiere ambigüedad en el esquema. Combinarlos en un tipo de entidad puede ayudar a mejorar la precisión general del modelo.
Revisión de las predicciones del conjunto de pruebas. Si uno de los tipos de entidad tiene muchas más instancias etiquetadas que los demás, el modelo puede estar sesgado hacia este tipo. Agregue más datos a los otros tipos de entidad o quite ejemplos del tipo dominante.
Obtenga más información sobre la selección de datos y el diseño de esquemas.
Revise el conjunto de pruebas. Revise las entidades predichas junto con las entidades etiquetadas y obtenga una comprensión más clara de la precisión del modelo. Esta comparación puede ayudarle a determinar si se necesitan ajustes en el esquema o conjunto de etiquetas.
¿Por qué se obtienen resultados diferentes al volver a entrenar el modelo?
Al entrenar el modelo, puede determinar si desea que los datos se dividan aleatoriamente en conjuntos de entrenamiento y de pruebas. Si decide continuar, no hay ninguna garantía de que la evaluación del modelo se realice en el mismo conjunto de pruebas, lo que significa que es posible que los resultados no sean comparables directamente. Al hacerlo, corre el riesgo de evaluar el modelo en un conjunto de pruebas diferente, lo que hace que sea imposible comparar los resultados de forma confiable.
Si va a reentrenar el mismo modelo, el conjunto de test es el mismo, pero es posible que observe un ligero cambio en las predicciones realizadas por el modelo. El problema surge porque el modelo entrenado carece de suficiente solidez. Este resultado depende de la forma en que los datos representan diferentes escenarios, la diferencia entre los puntos de datos y la calidad general del etiquetado de datos. Varios factores influyen en el rendimiento del modelo. La solidez del modelo, la diferenciación y la diversidad del conjunto de datos, y la precisión y uniformidad de las etiquetas asignadas a los datos desempeñan roles importantes. Para lograr resultados óptimos, debe asegurarse de que el conjunto de datos no solo representa con precisión el dominio de destino, sino que también ofrece ejemplos únicos y que todas las etiquetas se aplican con coherencia y precisión a lo largo de los datos.
¿Cómo obtener predicciones en distintos idiomas?
En primer lugar, debe habilitar la opción multilingüe al crear el proyecto, o puede habilitarla más adelante desde la página de configuración del proyecto. Después de entrenar e implementar el modelo, puede empezar a consultarlo en varios idiomas. Puede obtener resultados variados para distintos idiomas. Para mejorar la precisión de cualquier idioma, agregue más instancias etiquetadas al proyecto en ese idioma para introducir el modelo entrenado a más sintaxis de ese idioma.
He entrenado mi modelo, pero no puedo probarlo
Debe implementar el modelo para poder probarlo.
¿Cómo uso mi modelo entrenado para realizar predicciones?
Después de implementar el modelo, llame a la API de predicción mediante la API de REST o las bibliotecas cliente.
Seguridad y privacidad de datos
Los datos solo se almacenan en la cuenta de Azure Storage. El reconocimiento de entidades con nombre (NER) personalizadas solo tiene acceso para leer desde ella durante el entrenamiento. Los usuarios NER personalizados tienen control total para ver, exportar o eliminar cualquier contenido de usuario a través de Foundry o mediante programación mediante la documentación de referencia de la API REST). Para obtener más información, consulteDatos, privacidad y seguridad del lenguaje.
¿Cómo puedo clonar mi proyecto?
Para clonar el proyecto, debe usar la API de exportación para exportar los recursos del proyecto y, a continuación, importarlos en un nuevo proyecto. Consulte la documentación de referencia de la API REST para ambas operaciones.