Datos y privacidad
¿Usa mis datos de empresa para entrenar cualquiera de los modelos?
Azure OpenAI no usa datos de clientes para volver a entrenar modelos. Para obtener más información, consulte la guía de datos, privacidad y seguridad de Azure OpenAI.
General
¿Azure OpenAI admite encabezados de API personalizados? Añadimos encabezados adicionales personalizados a nuestras solicitudes de API y estamos viendo errores de fallo HTTP 431.
Nuestras API actuales permiten hasta 10 encabezados personalizados, que se pasan a través de la canalización y se devuelven. Hemos observado que algunos clientes ahora superan este recuento de encabezados, lo que da lugar a errores HTTP 431. No hay ninguna solución para este error, aparte de reducir el volumen del encabezado. En futuras versiones de API ya no pasaremos por encabezados personalizados. Se recomienda que los clientes no dependan de encabezados personalizados en futuras arquitecturas del sistema.
¿Azure OpenAI funciona con la biblioteca de Python más reciente publicada por OpenAI (versión>=1.0)?
Azure OpenAI es compatible con la versión más reciente de OpenAI Python biblioteca (versión>=1.0). Sin embargo, es importante tener en cuenta la migración del código base mediante openai migrate no se admite y no funcionará con código que tenga como destino Azure OpenAI.
¿Cómo se comparan las funcionalidades de Azure OpenAI con OpenAI?
Azure OpenAI ofrece a los clientes inteligencia artificial de lenguaje avanzado con los modelos openAI más recientes con la promesa de seguridad y empresa de Azure. Azure OpenAI desarrolla las API con OpenAI, lo que garantiza la compatibilidad y una transición fluida de una a otra.
Con Azure OpenAI, los clientes obtienen las funcionalidades de seguridad de Microsoft Azure mientras ejecutan los mismos modelos que OpenAI.
¿Azure OpenAI admite redes virtuales y puntos de conexión privados?
Sí, Azure OpenAI admite redes virtuales y puntos de conexión privados. Para más información, consulte la guía de redes virtuales.
¿Cómo puedo solicitar nuevos casos de uso?
Anteriormente, el proceso para agregar nuevos casos de uso requería que los clientes se vuelvan a aplicar al servicio. Ahora, estamos publicando un nuevo proceso que le permite agregar rápidamente nuevos casos de uso al uso del servicio. Este proceso sigue el proceso de acceso limitado establecido en Azure OpenAI. Los clientes existentes pueden atestiguar todos los nuevos casos de uso aquí. Tenga en cuenta que esto es necesario siempre que quiera usar el servicio para un nuevo caso de uso que no haya solicitado originalmente.
Estoy intentando usar inserciones y he recibido el error "InvalidRequestError: Demasiadas entradas. El número máximo de entradas es 16". ¿Cómo lo arreglo?
Este error suele producirse cuando se intenta enviar un lote de texto para insertar en una única solicitud de API como una matriz. Actualmente, Azure OpenAI solo admite matrices de incrustaciones con varias entradas para el modelo text-embedding-ada-002 versión 2. Esta versión del modelo admite una matriz que consta de hasta 16 entradas por solicitud de API. La matriz puede tener hasta 8 191 tokens al usar el modelo text-embeding-ada-002 (versión 2).
Cuando le pregunto qué modelo está en ejecución, me dice que está ejecutando una versión diferente. ¿Por qué ocurre esto?
Los modelos de Azure OpenAI que no pueden identificar correctamente qué modelo se está ejecutando se considera un comportamiento esperado.
¿Por qué ocurre esto?
En última instancia, el modelo realiza la siguiente predicción de token en respuesta a la pregunta. El modelo no tiene ninguna capacidad nativa de consultar la versión del modelo que se está ejecutando actualmente para responder a la pregunta. Para responder a esta pregunta, Siempre puede ir a Microsoft Foundry>Deployments o Models + endpoints> y consultar la columna de nombre del modelo para confirmar qué modelo está asociado actualmente a un nombre de implementación determinado.
Las preguntas, "¿Qué modelo está ejecutando?" o "¿Cuál es el modelo más reciente de OpenAI?" producen resultados de calidad similares para preguntar al modelo cuál será el tiempo hoy. Podría devolver el resultado correcto, pero meramente por casualidad. Por sí solo, el modelo no tiene información del mundo real que no sea lo que formaba parte de sus datos de entrenamiento. En el caso de GPT-4, a partir de agosto de 2023 los datos de entrenamiento subyacentes solo van hasta septiembre de 2021. GPT-4 no se publicó hasta marzo de 2023, por lo que, salvo que OpenAI publique una nueva versión con datos de entrenamiento actualizados, o una nueva versión que esté ajustada para responder a esas preguntas específicas, es esperable que GPT-4 responda que GPT-3 es la versión más reciente del modelo de OpenAI.
Si desea ayudar a un modelo basado en GPT a responder con precisión a la pregunta "¿qué modelo está ejecutando?", tendría que proporcionar esa información al modelo a través de técnicas como ingeniería de indicaciones del mensaje del sistema del modelo, Retrieval Augmented Generation (RAG), que es la técnica utilizada por Azure OpenAI en sus datos donde información actualizada se inserta en el mensaje del sistema en el momento de la consulta o a través de fine-tuning, donde podría ajustar mediante fine-tuning versiones específicas del modelo para responder a esa pregunta de una manera determinada basada en la versión del modelo.
Para obtener más información sobre cómo se entrenan y funcionan los modelos GPT, recomendamos ver la charla de Andrej Apathy de Build 2023 sobre el estado de GPT.
¿Cómo puedo obtener el modelo para responder en un lenguaje específico?
Asegúrese de que la solicitud esté clara y específica sobre el requisito de idioma. Si el problema persiste, considere la posibilidad de agregar más contexto o reformular la solicitud para reforzar la instrucción de idioma.
Indicaciones de ejemplo:
- "Por favor responda en inglés y solo en inglés."
- Responda a la siguiente pregunta en inglés: ¿Cómo es el clima en Fresno?
Le pregunté al modelo cuál es su fecha de corte de conocimiento y me dio una respuesta diferente a la que está en la página del modelo de Azure OpenAI. ¿Por qué ocurre esto?
Este es el comportamiento esperado. Los modelos no pueden responder preguntas sobre sí mismos. Si desea saber cuándo está el límite de conocimiento de los datos de entrenamiento del modelo, consulte la página modelos.
Le pregunté al modelo sobre algo que sucedió recientemente antes del límite de conocimiento y obtuvo la respuesta incorrecta. ¿Por qué ocurre esto?
Este es el comportamiento esperado. En primer lugar, no hay ninguna garantía de que todos los eventos recientes formaban parte de los datos de entrenamiento del modelo. E incluso cuando la información formaba parte de los datos de entrenamiento, sin usar técnicas adicionales como la Recuperación Aumentada de Generación (RAG) para ayudar a fundamentar las respuestas del modelo, siempre existe la posibilidad de que se produzcan respuestas infundadas. Tanto la característica de uso de tus datos de Azure OpenAI como Bing Chat usan modelos de Azure OpenAI combinados con Generación Aumentada por Recuperación para ayudar a fundamentar aún más las respuestas del modelo.
La frecuencia con la que apareció un fragmento de información determinado en los datos de entrenamiento también puede afectar a la probabilidad de que el modelo responda de una manera determinada.
Preguntando al modelo sobre algo que cambió más recientemente como "¿Quién es el primer ministro de Nueva Zelanda?", es probable que resulte en la respuesta Jacinda Ardernfabricada. Sin embargo, al preguntar al modelo "¿Cuándo Jacinda Ardern renunció como primer ministro?", tiende a producir una respuesta precisa que muestra el conocimiento de los datos de entrenamiento que llega al menos hasta enero de 2023.
Por lo tanto, aunque es posible sondear el modelo con preguntas para adivinar su fecha de límite de conocimiento de datos de entrenamiento, la página del modelo es el mejor lugar para verificar la fecha de límite de conocimiento de un modelo.
¿Dónde puedo acceder a la información de precios de los modelos heredados, que ya no están disponibles para las nuevas implementaciones?
La información de precios heredada está disponible a través de un archivo PDF downloadable. Para todos los demás modelos, consulte la página oficial de precios.
¿Cómo puedo corregir InternalServerError - 500- No se pudo crear la finalización a medida que el modelo generó una salida Unicode no válida?
Para minimizar la aparición de estos errores, reduzca la temperatura de las solicitudes a menos de 1 y asegúrese de utilizar un cliente con lógica de reintento. Reintentar la solicitud suele resultar en una respuesta correcta.
¿Cómo solucionar el error del servidor (500): token especial inesperado?
Se trata de un problema conocido. Para minimizar la aparición de estos errores, reduzca la temperatura de las solicitudes a menos de 1 y asegúrese de utilizar un cliente con lógica de reintento. Reintentar la solicitud suele resultar en una respuesta correcta.
Si reducir la temperatura a menos de 1 no disminuye la frecuencia de este error, como solución alternativa, restablezca las penalizaciones de presencia/frecuencia y los sesgos de logit a sus valores predeterminados. En algunos casos, puede ayudar establecer top_p en un valor no predeterminado y más bajo para animar al modelo a evitar muestrear tokens de menor probabilidad.
Hemos observado cargos asociados a llamadas API que no se pudieron completar con el código de estado 400. ¿Por qué se producen errores en las llamadas API que generan un cargo?
Si el servicio realiza el procesamiento, se le cobrará incluso si el código de estado no es correcto (no 200). Algunos ejemplos comunes de esto son, un error 400 debido a un filtro de contenido o un error 408 debido a un tiempo de espera. Los cargos también se producirán cuando se recibe un status 200 con un finish_reason de content_filter. En este caso, la solicitud no tenía ningún problema, pero se detectó que la finalización generada por el modelo infringía las reglas de filtrado de contenido, resultando en que esta fuera filtrada.
Si el servicio no realiza el procesamiento, no se le cobrará. Por ejemplo, un error 401 debido a la autenticación o un error 429 debido a superar el límite de velocidad.
¿Todos los modelos de Azure OpenAI soportan "max_completion_tokens" con la API de finalizaciones de chat?
No, todos los modelos Azure OpenAI no admiten max_completion_tokens. Este parámetro no se admite con modelos anteriores como gpt-4 (turbo-2024-04-09).
Obtener acceso a Azure OpenAI Service
¿Cómo obtengo acceso a Azure OpenAI?
No se requiere un formulario de registro de acceso limitado para acceder a la mayoría de los modelos de OpenAI Azure. Obtenga más información en la página de Acceso Limitado de Azure OpenAI.
Se ha concedido acceso a mi cuenta de invitado a un recurso de OpenAI de Azure, pero no puedo acceder a ese recurso en el [portal de Microsoft Foundry](https://ai.azure.com/?cid=learnDocs). ¿Cómo se habilita el acceso?
Este es el comportamiento esperado al usar la experiencia de inicio de sesión predeterminada para la Microsoft Foundry.
Para acceder a Microsoft Foundry desde una cuenta de invitado a la que se ha concedido acceso a un recurso de OpenAI de Azure:
- Abra una sesión privada del explorador y vaya a https://ai.azure.com.
- En lugar de escribir inmediatamente las credenciales de la cuenta de invitado, seleccione
Sign-in options - Ahora seleccione Iniciar sesión en una organización
- Escriba el nombre de dominio de la organización a la que se concedió acceso a la cuenta de invitado al recurso Azure OpenAI.
- Ahora, inicie sesión con sus credenciales de cuenta de invitado.
Ahora debería poder acceder al recurso a través del portal Microsoft Foundry.
Como alternativa, si ha iniciado sesión en el portal de Azure, en el panel de Overview del recurso OpenAI de Azure, puede seleccionar Ir a Microsoft Foundry para iniciar sesión automáticamente con el contexto organizativo adecuado.
Más información y dónde hacer preguntas
¿Dónde puedo leer las actualizaciones más recientes de Azure OpenAI?
Para obtener actualizaciones mensuales, consulte nuestra página de novedades.
¿Dónde puedo obtener formación para empezar a aprender y crear mis habilidades en torno a Azure OpenAI?
Consulte nuestro curso de introducción a la formación de Azure OpenAI.
¿Dónde puedo publicar preguntas y ver respuestas a otras preguntas comunes?
- Recomendamos publicar preguntas sobre
Microsoft Q& A . - Como alternativa, puede publicar preguntas en Stack Overflow.
¿Dónde puedo encontrar el soporte al cliente de Azure OpenAI?
Puede obtener información sobre todas las opciones de soporte técnico para Azure OpenAI en guía de opciones de soporte técnico y ayuda.
Modelos y ajuste preciso
¿Qué modelos están disponibles?
Consulte la guía de disponibilidad de Azure OpenAI model.
¿Dónde puedo averiguar en qué región está disponible un modelo?
Consulte la guía de disponibilidad de Azure OpenAI model para obtener disponibilidad de la región.
¿Cuáles son los Acuerdos de Nivel de Servicio (Acuerdos de Nivel de Servicio) en Azure OpenAI?
Ofrecemos un SLA de disponibilidad para todos los recursos y un SLA de latencia para despliegues gestionados provisionados. Para obtener más información sobre el Acuerdo de Nivel de Servicio para Azure OpenAI Service, consulte la página Acuerdo de Nivel de Servicio (SLA) para Online Services.
¿Cómo se habilita el ajuste preciso? La opción de crear un modelo personalizado está deshabilitada en el portal de Microsoft Foundry(https://ai.azure.com/?cid=learnDocs).)
Para acceder al ajuste fino con éxito, se le debe haber asignado el rol de usuario de Azure AI. Incluso una persona con permisos de administrador de servicios de alto nivel todavía necesitaría que se establezca explícitamente esta cuenta para acceder a ajustes detallados. Para obtener más información, revise la guía de control de acceso basado en rol.
¿Cuál es la diferencia entre un modelo base y un modelo ajustado?
Un modelo base es un modelo que no se ha personalizado ni ajustado para un caso de uso específico. Los modelos ajustados son versiones personalizadas de modelos base en las que los pesos de un modelo se entrenan en un conjunto único de indicaciones. Los modelos optimizados permiten lograr mejores resultados en un mayor número de tareas sin necesidad de proporcionar ejemplos detallados para el aprendizaje en contexto como parte de la solicitud de finalización. Para más información, revise nuestra guía de ajuste.
¿Cuál es el número máximo de modelos ajustados que puedo crear?
100
¿Por qué se eliminó mi implementación de modelos optimizada?
Si se implementa un modelo personalizado (ajustado) durante más de 15 días durante el cual no se realizan finalizaciones ni llamadas de finalización de chat, la implementación se elimina automáticamente (y no se incurre en cargos de hospedaje adicionales para esa implementación). El modelo personalizado subyacente permanece disponible y se puede volver a implementar en cualquier momento. Para más información, consulte el artículo de procedimientos.
¿Cómo se implementa un modelo con la API REST?
Actualmente hay dos API REST diferentes que permiten la implementación del modelo. Para las características más recientes de implementación de modelos, como especificar una versión específica del modelo durante la implementación para modelos como text-embedding-ada-002 Versión 2, utilice la llamada a la API REST Deployments - Create Or Update.
¿Puedo usar la cuota para aumentar el límite máximo de tokens de un modelo?
No, la asignación de tokens por minuto (TPM) no está relacionada con el límite máximo de tokens de entrada del modelo. Los límites del token de entrada del modelo se definen en la tabla de modelos y no se ven afectados por los cambios realizados en TPM.
GPT-4 Turbo con Visión
¿Qué tipo de archivos puedo cargar?
Actualmente se admite PNG (.png), JPEG (.jpeg y .jpg), WEBP (.webp) y GIF noanimado (.gif).
¿Hay un límite para el tamaño de la imagen que puedo cargar?
Sí, se restringen las cargas de imágenes a 50 MB por imagen.
¿Puedo eliminar una imagen que he cargado?
No, eliminaremos automáticamente la imagen después de que el modelo lo haya procesado.
¿Cómo funcionan los límites de velocidad para GPT-4 Turbo con Vision?
Procesamos imágenes en el nivel de token, por lo que cada imagen que procesamos cuenta para el límite de tokens por minuto (TPM). Consulte la sección Tokens de imagen de la visión general para obtener más información sobre la fórmula que se usa para determinar el conteo de tokens por cada imagen.
¿Puede GPT-4 Turbo con Vision comprender los metadatos de la imagen?
No, el modelo no recibe metadatos de imagen.
¿Qué ocurre si mi imagen no está clara?
Si una imagen es ambigua o no está clara, el modelo hará lo mejor para interpretarla. Sin embargo, los resultados pueden ser menos precisos. Una buena regla general es que si un humano medio no puede ver la información en una imagen en las resoluciones usadas en el modo de res bajo o alto, el modelo tampoco puede.
¿Cuáles son las limitaciones conocidas de GPT-4 Turbo with Vision?
Consulte la sección de limitaciones de la guía de conceptos GPT-4 Turbo with Vision.
Sigo recibiendo respuestas truncadas cuando uso modelos de visión turbo GPT-4. ¿Por qué sucede esto?
De forma predeterminada, GPT-4 vision-preview y GPT-4 turbo-2024-04-09 tienen un max_tokens valor de 16. Dependiendo de la solicitud, este valor suele ser demasiado bajo y puede provocar respuestas truncadas. Para resolver este problema, pase un valor mayor max_tokens como parte de las solicitudes de API de finalizaciones de chat. GPT-4o tiene como valor predeterminado 4096 max_tokens.
Asistentes
¿Almacena algún dato usado en la API de Asistentes?
Sí. A diferencia de la API de finalizaciones de chat, la API Azure OpenAI Assistants es con estado de sesión, lo que significa que conserva los datos. Hay dos tipos de datos almacenados en la API assistants:
- Entidades con estado: subprocesos, mensajes y ejecuciones creados durante el uso de asistentes.
- Archivos: cargados durante la configuración de los asistentes o como parte de un mensaje.
¿Dónde se almacenan estos datos?
Los datos se almacenan en una cuenta de almacenamiento segura y gestionada por Microsoft que está separada de manera lógica.
¿Cuánto tiempo se almacenan estos datos?
Todos los datos usados se conservan en este sistema a menos que elimine explícitamente estos datos. Utiliza la función delete con el identificador del hilo que deseas eliminar. Limpiar la opción Ejecutar en el área de juegos de asistentes no elimina los hilos. Sin embargo, si se eliminan mediante la función de eliminación, no se mostrarán en la página de hilos.
¿Puedo traer mi propio almacén de datos para usarlo con asistentes?
No. Actualmente, Assistants solo soporta archivos locales cargados en el almacenamiento gestionado por Assistants. No puede usar su cuenta de almacenamiento privada con Asistentes.
¿Admite los asistentes el cifrado de claves administradas por el cliente (CMK)?
Hoy damos soporte a CMK para hilos y archivos en los asistentes.
¿Usan mis datos Microsoft para modelos de entrenamiento?
No. Los datos no se utilizan por parte de Microsoft para entrenar modelos. Consulte la documentación de Inteligencia artificial responsable para obtener más información.
¿Dónde se almacenan los datos geográficamente?
Azure OpenAI Assistant los puntos de conexión son regionales y los datos se almacenan en la misma región que el punto de conexión. Para obtener más información, consulte la documentación de residencia de datos Azure.
¿Cómo se me cobra por los asistentes?
- Costo de inferencia (entrada y salida) del modelo base que usa para cada Asistente (por ejemplo, gpt-4-0125). Si ha creado varios asistentes, se le cobrará por el modelo base asociado a cada asistente.
- Si ha habilitado la herramienta de intérprete de código. Por ejemplo, si el asistente llama al intérprete de código simultáneamente en dos subprocesos diferentes, esto crearía dos sesiones de intérprete de código, cada una de las cuales se cobraría. Cada sesión está activa de forma predeterminada durante una hora, lo que significa que solo pagaría esta tarifa una vez si el usuario sigue dando instrucciones al intérprete de código en el mismo subproceso durante hasta una hora.
- La búsqueda de archivos se factura en función del almacenamiento vectorial usado.
Para obtener más información, consulte la página de precios.
¿Hay algún precio o cuota adicional para usar asistentes?
No. Todas las cuotas se aplican al uso de modelos con asistentes.
¿Admite la API assistants modelos que no son de Azure OpenAI?
La API assistants solo admite modelos openAI de Azure.
¿La API assistants está disponible con carácter general?
La API assistants está actualmente en versión preliminar pública. Manténgase informado de nuestras últimas actualizaciones de productos visitando regularmente nuestra página novedades .
¿Cuáles son algunos ejemplos u otros recursos que puedo usar para obtener información sobre los asistentes?
Consulte los artículos conceptuales y artículos de procedimientos para obtener información sobre cómo empezar a trabajar y usar asistentes. También puede consultar ejemplos de código de Azure OpenAI Assistants en GitHub.
Aplicación web
¿Cómo puedo personalizar mi aplicación web publicada?
Puede personalizar la aplicación web publicada en el portal de Azure. El código fuente de la aplicación web publicada es disponible en GitHub, donde puede encontrar información sobre cómo cambiar el front-end de la aplicación, así como instrucciones para compilar e implementar la aplicación.
¿Se sobrescribirá mi aplicación web al volver a implementar la aplicación desde el portal de [Microsoft Foundry](https://ai.azure.com/?cid=learnDocs)?
El código de la aplicación no se sobrescribirá al actualizar la aplicación. La aplicación se actualizará para usar el recurso Azure OpenAI, el índice de Búsqueda de Azure AI (si está usando Azure OpenAI en sus datos) y las configuraciones del modelo seleccionadas en el portal de Microsoft Foundry sin realizar ningún cambio en la apariencia o la funcionalidad.
Uso de los datos
¿Qué es Azure OpenAI en tus datos?
Azure OpenAI en tus datos es una característica de Azure OpenAI que ayuda a las organizaciones a generar información personalizada, contenido y búsquedas mediante sus fuentes de datos designadas. Funciona con las funcionalidades de los modelos de OpenAI en Azure OpenAI para proporcionar respuestas más precisas y relevantes a las consultas de usuario en lenguaje natural. Azure OpenAI en los datos se puede integrar con las aplicaciones y flujos de trabajo existentes del cliente, ofrece información sobre los indicadores clave de rendimiento y puede interactuar con los usuarios sin problemas.
¿Cómo puedo acceder a Azure OpenAI sobre sus datos?
Todos los clientes de Azure OpenAI pueden usar Azure OpenAI en sus datos a través del portal Microsoft Foundry y la API REST.
¿Qué orígenes de datos admite Azure OpenAI sobre tus datos?
Azure OpenAI en tus datos admite la ingestión desde Búsqueda de Azure AI, Azure Blob Storage y subida de archivos locales. Puede obtener más información sobre Azure OpenAI en sus datos a partir del artículo conceptual y el inicio rápido.
¿Cuánto cuesta usar Azure OpenAI en tus datos?
Al usar Azure OpenAI en los datos, incurre en costos al usar Búsqueda de Azure AI, Azure Blob Storage, Azure Web App Service, búsqueda semántica y modelos openAI. No hay ningún costo adicional por usar la característica "sus datos" en el portal Microsoft Foundry.
¿Cómo puedo personalizar o automatizar el proceso de creación de índices?
Puede preparar el índice usted mismo mediante un script proporcionado en GitHub. Con este script se creará un índice de Búsqueda de Azure AI con toda la información necesaria para usar mejor los datos, con los documentos divididos en fragmentos administrables. Consulte el archivo LÉAME con el código de preparación de datos para obtener más información sobre cómo ejecutarlo.
¿Cómo puedo actualizar mi índice?
Puede programar una actualización automática de índices o cargar datos adicionales en el contenedor de blobs de Azure y usarlo como origen de datos al crear un nuevo índice. El nuevo índice incluirá todos los datos del contenedor.
¿Qué tipos de archivo admite Azure OpenAI en sus datos?
Consulte Uso de los datos para obtener más información sobre los tipos de archivo admitidos.
¿La inteligencia artificial responsable está respaldada por Azure OpenAI en sus datos?
Sí, Azure OpenAI en los datos forma parte de Azure OpenAI y funciona con los modelos disponibles en Azure OpenAI. Las características de filtrado content y supervisión de abusos de Azure OpenAI siguen aplicándose. Para obtener más información, consulte la visión general de las prácticas de IA responsable para modelos de Azure OpenAI para obtener orientación adicional sobre el uso de Azure OpenAI en sus datos de manera responsable.
¿Hay un límite de tokens en el mensaje del sistema?
Sí, el límite de tokens del mensaje del sistema es 400. Si el mensaje del sistema es superior a 400 tokens, se omitirán el resto de los tokens más allá de los primeros 400. Esta limitación solo se aplica a Azure OpenAI en la función de tus datos.
¿Azure OpenAI en las llamadas a funciones de compatibilidad de datos?
Azure OpenAI en tus datos actualmente no admite llamadas a funciones.
¿Es necesario que el lenguaje de consulta y el lenguaje de origen de datos sean los mismos?
Debe enviar consultas en el mismo idioma de los datos. Los datos pueden estar en cualquiera de los idiomas admitidos por Búsqueda de Azure AI.
Si la búsqueda semántica está habilitada para mi recurso de Búsqueda de Azure AI, se aplicará automáticamente a Azure OpenAI en los datos del [portal de Microsoft Foundry](https://ai.azure.com/?cid=learnDocs)?
Al seleccionar "Búsqueda de Azure AI" como origen de datos, puede elegir aplicar la búsqueda semántica. Si selecciona "Contenedor de blobs de Azure" o "Subir archivos" como origen de datos, puede crear el índice como de costumbre. Después, se volvería a ingestionar los datos utilizando la opción "Búsqueda de Azure AI" para seleccionar el mismo índice y aplicar Búsqueda Semántica. Prepárese para interactuar con sus datos aplicando búsqueda semántica.
¿Cómo puedo agregar incrustaciones de vectores al indexar mis datos?
Al seleccionar "Azure Blob Container", "Búsqueda de Azure AI" o "Cargar archivos" como origen de datos, también puede seleccionar una implementación de modelo de inserción de Ada para utilizar al ingerir sus datos. Esto creará un índice Búsqueda de Azure AI con incrustaciones vectoriales.
¿Por qué se produce un error en la creación de índices después de agregar un modelo de inserción?
Se puede producir un error al agregar incrustaciones al índice si el límite de velocidad en la implementación del modelo de inserción de Ada es demasiado bajo o si tiene un conjunto de documentos muy grande. Puede usar este script proporcionado en GitHub para crear el índice con inserciones manualmente.
Compromiso de derechos de autor del cliente
¿Cómo obtengo cobertura bajo el compromiso de copyright del cliente?
El Compromiso de Derechos de Autor del Cliente es una disposición que se incluirá el 1 de diciembre de 2023 en los Términos de los Productos de Microsoft, que describe la obligación de Microsoft de defender a los clientes contra ciertas reclamaciones de propiedad intelectual de terceros relacionadas con el Contenido Generado. Si el asunto de la notificación es Contenido de salida generado a partir del Azure OpenAI (o cualquier otro producto cubierto que permita a los clientes configurar los sistemas de seguridad), después recibir cobertura, el cliente debe haber implementado todas las mitigaciones requeridas por la documentación de OpenAI de Azure en la oferta que entregó el contenido de salida. Las mitigaciones necesarias se documentan aquí y se actualizan continuamente. En el caso de los nuevos servicios, características, modelos o casos de uso, se publicarán nuevos requisitos de CCC y surtirán efecto al lanzamiento de dicho servicio, característica, modelo o caso de uso. De lo contrario, los clientes tendrán seis meses a partir del momento de la publicación para implementar nuevas mitigaciones para mantener la cobertura bajo el CCC. Si un cliente licita una reclamación, será necesario que el cliente demuestre el cumplimiento de los requisitos pertinentes. Estas mitigaciones son necesarias para productos cubiertos que permiten a los clientes configurar los sistemas de seguridad, incluidos los Azure OpenAI Service; no afectan a la cobertura de los clientes que usan otros productos cubiertos.