Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Foundry Agent Service permite conectarse y usar modelos hospedados detrás de sus puertas de enlace de IA, como Azure API Management u otras puertas de enlace de modelos de IA no administradas por Azure. Esta funcionalidad, denominada trae tu propio modelo, le permite mantener el control sobre los puntos de conexión del modelo mientras usa las funcionalidades del agente Foundry.
Importante
Para los fines de esta documentación, BYOM models hace referencia a modelos de terceros que trae a Foundry y no incluye Azure Direct Models. Foundry Agent Service admite la capacidad de traer su propio modelo (BYOM). Si usted usa Foundry Agent Service para interactuar con los modelos BYOM, lo hace bajo su propio riesgo. Los modelos BYOM se consideran productos no Microsoft bajo los términos de Microsoft producto y se rigen por sus propios términos de licencia.
Si usa Foundry Agent Service para interactuar con los modelos BYOM, usted es responsable de implementar sus propias mitigaciones de IA responsables dentro de Foundry Agent Service, tales como metaprompt, filtros de contenido u otros sistemas de seguridad.
Si usa Foundry Agent Service para interactuar con los modelos BYOM, es responsable de asegurarse de que el uso del modelo BYOM cumpla con sus requisitos de manejo de datos. Usted es responsable de revisar todos los datos que se comparten con modelos BYOM y comprender las prácticas de terceros para la retención y la ubicación de los datos. Es su responsabilidad gestionar si sus datos fluirán fuera de los límites geográficos y de cumplimiento de su organización de Azure y cualesquiera implicaciones relacionadas con el uso de modelos BYOM.
Esta funcionalidad permite a las organizaciones:
- Mantenga el control sobre los puntos finales del modelo resguardados por la infraestructura empresarial existente.
- Integre de forma segura con gateways empresariales mediante políticas de seguridad existentes.
- Cree agentes que usen modelos sin exponerlos públicamente.
- Aplique los requisitos de cumplimiento y gobernanza al acceso al modelo de inteligencia artificial.
En este artículo, creará una conexión de puerta de enlace al punto de conexión del modelo de IA, implementará un agente de solicitud que enruta las solicitudes a través de la puerta de enlace y comprobará el flujo de un extremo a otro.
Requisitos previos
- Una suscripción Azure. Cree uno gratis.
- Un proyecto Microsoft Foundry.
- Acceda a las credenciales de la puerta de enlace de IA empresarial, como una clave de suscripción de API Management, una clave de API para otra puerta de enlace de modelos de IA que no sea de Azure o las credenciales de un proveedor de OAuth 2.0 mediante credenciales de cliente.
- Para administrar conexiones a través de la línea de comandos:
- CLI de Azure versión 2.67 o posterior.
- Python 3.10 o posterior.
- El
azure-ai-projectspaquete del SDK (versión 2.0.0 o posterior). Para conocer los pasos de instalación, consulte el inicio rápido.
Permisos necesarios
Necesita las siguientes asignaciones de roles:
| Recurso | Rol necesario |
|---|---|
| Proyecto de fundición | Usuario de Azure AI o superior |
| Grupo de recursos (para la implementación de conexiones) | Colaborador |
Cree una conexión de modelo
Usa el portal de Foundry para crear una conexión a tu modelo.
Puede elegir modelos detrás de un recurso de Azure API Management existente o una puerta de enlace de modelos de IA que no sea de Azure. Mediante estos pasos, puede agregar varios modelos que implementan la API de finalizaciones de chat de OpenAI.
Para agregar una conexión de modelo en el portal de Foundry:
Inicie sesión en Microsoft Foundry.
Seleccione Operar>Consola de Administración.
Abra la pestaña Todos los proyectos .
En la lista de proyectos, busque el proyecto y seleccione el vínculo en la columna Recurso primario .
Seleccione la pestaña Modelos conectados al administrador y, a continuación, seleccione Agregar.
Se abre el Asistente para agregar conexión de modelo .
En la página Connection Type, seleccione Azure API Management y, a continuación, seleccione un nombre de recurso y una implementación de modelos de API Management existentes. El modelo debe implementar la API de finalizaciones de chat compatibles con OpenAI.
En la página Autenticación , seleccione una opción para autenticarse en API Management.
Seleccione una clave de API, como una clave de suscripción de API Management, o identidad administrada si se configura en el proyecto Foundry.
Clave de API: escriba el valor de clave en el campo proporcionado. Opcionalmente, especifique un nombre de encabezado de clave de API que se usará al pasar la clave de API si la puerta de enlace requiere un encabezado personalizado.
Identidad administrada: en Audiencia, escriba el servicio de destino para el token de identidad administrada, como
https://cognitiveservices.azure.com/. Para obtener la configuración necesaria de API Management, consulte Configuración de la autenticación de identidad administrada para API Management.
En la página Configuración del modelo, configure al menos una implementación de modelos que aparecerá en Foundry para su uso con agentes.
- Seleccione + Agregar modelo.
- Escriba un nombre de implementación (usado en llamadas API) y el nombre correspondiente y nombre para mostrar.
- Guarde la configuración del modelo.
Repita los pasos anteriores para agregar más modelos a la conexión si es necesario.
En la página Opciones avanzadas , siga estos pasos:
- Escriba una versión de API si es necesaria para las implementaciones del modelo.
- Inhabilite la configuración Incluir nombre de implementación en la ruta de acceso de la URL si su puerta de enlace expone la API de finalización de chat en una ruta al estilo de Azure OpenAI que incluye el nombre de la implementación (por ejemplo,
/deployments/{deploymentName}/chat/completions). Deje la configuración deshabilitada si la puerta de enlace usa una ruta de acceso de estilo OpenAI sin el nombre de implementación (por ejemplo,/chat/completions) y se basa en otros mecanismos de enrutamiento para dirigir las solicitudes a la implementación correcta del modelo. - Seleccione + Agregar encabezado para agregar un encabezado estático que se debe incluir en las solicitudes a la puerta de enlace. Repita esta operación para agregar varios encabezados si es necesario.
Seleccione Agregar.
Configuración de la autenticación de identidad administrada para API Management
Para configurar la autenticación Managed Identity en API Management, complete la siguiente configuración en Azure:
Habilite la identidad administrada en el recurso del proyecto Foundry.
En el portal Azure, vaya al recurso Foundry.
Vaya a Proyectos> seleccione > del proyecto.
Habilite cualquiera de las siguientes opciones:
- Identidad administrada asignada por el sistema o
- Identidad administrada asignada por el usuario .
Para la validación de tokens en API Management, obtenga el identificador de aplicación (cliente) de la identidad administrada.
- En primer lugar, obtenga el ID de la identidad administrada a partir de la configuración correspondiente en su proyecto.
- Busque ese identificador de objeto en Microsoft Entra ID aplicaciones empresariales para buscar el identificador de aplicación (cliente) correspondiente.
Valide el token de identidad administrada en API Management.
En la directiva de entrada de API Management, use la directiva validate-azure-ad-token para validar los tokens de las solicitudes de Microsoft Foundry.
- Establezca el elemento
audienceal mismo valor que configuró en el campo de conexión Audiencia de Foundry. - Configure el identificador de la aplicación de identidad administrada en
client-application-ids.
Ejemplo:
<validate-azure-ad-token tenant-id="{{your-tenant-id}}" header-name="Authorization" failed-validation-httpcode="401" failed-validation-error-message="Unauthorized"> <client-application-ids> <application-id>{{managed-identity-client-id}}</application-id> </client-application-ids> <audiences> <audience>{{audience-configured-in-foundry-connection}}</audience> </audiences> </validate-azure-ad-token>- Establezca el elemento
La conexión se crea y aparece en la lista de la pestaña Modelos conectados al administrador .
Implementaciones de modelos conectados al administrador
Foundry implementa automáticamente los modelos que agrega a través de una conexión, por lo que puede usarlos en los proyectos.
Cada modelo que agregue en el Asistente para conexiones corresponde a una implementación en Foundry.
Puede seleccionar una implementación conectada al administrador al configurar el modelo de un agente. Foundry enruta automáticamente las solicitudes de los agentes a estas implementaciones a través de la puerta de enlace conectada.
Cree una conexión de modelo
Usa CLI de Azure para crear una conexión con los modelos detrás de tu puerta de enlace de IA.
El servicio de agente admite dos tipos de conexión: conexiones API Management y conexiones Model Gateway.
Elija el tipo de conexión que coincida con la puerta de enlace:
| Tipo de conexión | Usar cuando | Valor de categoría |
|---|---|---|
| API Management | Ya utiliza Azure API Management para el enrutamiento de modelos y desea configuraciones predeterminadas inteligentes para el API Management. | ApiManagement |
| Puerta de enlace de modelos | Usas OpenAI, MuleSoft o un gateway personalizado y necesitas descubrimiento de modelos estáticos o dinámicos. | ModelGateway |
Para obtener especificaciones de conexión detalladas, consulte los ejemplos de conexión connection en GitHub.
Implementación de la conexión
Descargue o clone el repositorio de ejemplos Foundry y localice la plantilla de Bicep para su tipo de conexión en el directorio indicado por
infrastructure/infrastructure-setup-bicep/01-connections/. El directorio contiene archivos Bicep independientes y archivos de parámetros para las conexiones API Management y Model Gateway.Implemente la conexión ejecutando
az deployment group createcon el grupo de recursos, el archivo de plantilla de Bicep y el archivo de parámetros correspondiente. Reemplace los valores de marcador de posición en el archivo de parámetros por la dirección URL del punto de conexión de puerta de enlace y las credenciales antes de la implementación. Para obtener la referencia de comandos completa, consulte az deployment group create.Propina
Una implementación correcta devuelve
provisioningState: Succeededen la salida del comando.Compruebe la conexión en el portal de Foundry. Vaya al portal de Foundry y seleccione el proyecto. Vaya a Recursos conectados en la configuración del proyecto. La nueva conexión aparece con un estado Activo y la dirección URL del punto final de la puerta de enlace que usted especificó.
Crear un agente de comandos con la conexión del modelo
Después de crear la conexión, cree y ejecute un agente de solicitud de instrucciones que use modelos ubicados detrás de su pasarela. La diferencia clave de un agente estándar es el formato de nombre de implementación del modelo: <connection-name>/<model-name>.
Establezca las siguientes variables de entorno:
Variable Valor Ejemplo FOUNDRY_PROJECT_ENDPOINTDirección URL del punto de conexión del proyecto https://<your-ai-services-account>.services.ai.azure.com/api/projects/<project-name>FOUNDRY_MODEL_DEPLOYMENT_NAME<connection-name>/<model-name>my-apim-connection/gpt-4oInicialice un
AIProjectClientcon el punto de conexión yDefaultAzureCredential, a continuación, llame aagents.create_version()con unPromptAgentDefinition. Establezca el parámetromodelal valorFOUNDRY_MODEL_DEPLOYMENT_NAME.Una llamada correcta devuelve un objeto de agente con sus
idcampos ,nameyversionrellenados.Obtenga el cliente de OpenAI con
project.get_openai_client(), cree una conversación conconversations.create()y envíe una solicitud conresponses.create(). Pase la referencia del agente enextra_bodycomo{"agent_reference": {"name": agent.name, "type": "agent_reference"}}.Una respuesta exitosa devuelve el texto de respuesta del modelo, lo que confirma que el agente está siendo enrutado a través de tu puerta de enlace.
Nota
Si se produce un
model not founderror en la respuesta, compruebe que elFOUNDRY_MODEL_DEPLOYMENT_NAMEvalor usa el formato<connection-name>/<model-name>.Elimine la conversación y la versión del agente una vez que se completen las pruebas.
Para obtener un ejemplo de trabajo completo, consulte los ejemplos del SDK de agent en GitHub. Para obtener más información sobre la API, consulte AIProjectClient y PromptAgentDefinition.
Comprobación de la implementación
Después de desplegar su agente, confirme que la canalización completa funciona correctamente:
Comprobar el estado de conexión : en el portal de Foundry, vaya a Recursos conectados en la configuración del proyecto. Compruebe que la conexión muestra un estado Activo . Si el estado es Inactivo, compruebe la dirección URL y las credenciales del punto de conexión de la puerta de enlace.
Enviar un mensaje de prueba : use el SDK para crear una conversación y enviar una solicitud como se describe en la sección anterior. Una respuesta correcta devuelve el texto de respuesta del modelo, lo que confirma que el agente puede llegar al modelo a través de la puerta de enlace.
Revisión de los registros de puerta de enlace : confirme que las solicitudes se enrutan correctamente. Para API Management, compruebe API Management analytics en el portal de Azure. Para otras puertas de enlace, revise el registro de solicitudes de la puerta de enlace. Debería ver las solicitudes recibidas desde el endpoint del servicio de agentes.
Propina
Si se produce algún error en algún paso, consulte la sección Solución de problemas comunes para conocer los pasos de resolución.
Detalles del tipo de conexión
En esta sección se proporcionan detalles de referencia sobre cada tipo de conexión y sus opciones de configuración.
Conexión de gestión de API
Las conexiones de API Management proporcionan valores predeterminados inteligentes y siguen las convenciones estándar de API Management:
| Configuración | Valor predeterminado |
|---|---|
| Enumeración del punto de conexión de implementaciones | /deployments |
| Obtener el punto de conexión de implementación | /deployments/{deploymentName} |
| Proveedor | AzureOpenAI |
Prioridad de configuración:
- Valores de metadatos explícitos (prioridad más alta).
- Valores predeterminados estándar de API Management (alternativa).
Métodos de autenticación:
- Clave de API : autenticación de clave de suscripción estándar.
- Microsoft Entra ID: integración de identidades empresariales.
Conexión de modelos de puerta de enlace
Las conexiones de puerta de enlace de modelos proporcionan una interfaz unificada para conectarse a varios proveedores de modelos de IA. Estas conexiones admiten la detección de modelos estáticos y dinámicos:
- Detección estática : los modelos están predefinidos en los metadatos de conexión. Ideal para implementaciones fijas y listas de modelos aprobados por la empresa.
- Detección dinámica : los modelos se detectan en tiempo de ejecución mediante puntos de conexión de API. Lo mejor para cambiar con frecuencia las implementaciones y los catálogos administrados por el proveedor.
Los tipos de autenticación admitidos son clave de API y OAuth 2.0. Las claves de API se almacenan de forma segura y se hace referencia a ellas a través del sistema de credenciales.
Solución de problemas comunes
| Problema | Resolución |
|---|---|
| La conexión muestra el estado inactivo | Compruebe que la dirección URL del punto de conexión de puerta de enlace es accesible y que las credenciales de autenticación son válidas. |
El agente devuelve model not found un error |
Confirme que el FOUNDRY_MODEL_DEPLOYMENT_NAME valor usa el formato correcto: <connection-name>/<model-name>. |
| Errores de tiempo de espera de la puerta de enlace | Compruebe que los puntos de conexión de puerta de enlace son accesibles desde la red del servicio del agente. Para las redes privadas, consulte la guía de aislamiento de red en la sección Limitaciones. |
| Errores de autenticación | En API Management, compruebe la clave de suscripción. En Model Gateway, compruebe la clave de API o la configuración de OAuth 2.0. |
Configuraciones admitidas
- Solo los agentes de aviso en el SDK de agentes admiten esta función.
- Herramientas de agente compatibles: Intérprete de código, Funciones, Búsqueda de archivos, OpenAPI, Foundry IQ, SharePoint grounding, Fabric Agente de datos, MCP y Automatización del explorador.
- Configuraciones de red admitidas:
- Se admite la conectividad pública tanto para API Management como para gateways autohospedadas.
- Para el aislamiento de red completo:
- API Management como tu puerta de enlace AI: Implementa Foundry y API Management juntos utilizando esta plantilla de GitHub.
- Pasarela autohospedada: asegúrese de que los puntos de conexión de la pasarela sean accesibles dentro de la red virtual utilizada por el Servicio del Agente.