Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Use el paquete langchain-azure-ai como punto de entrada para compilar aplicaciones LangChain y LangGraph con funcionalidades de Microsoft Foundry. En este artículo se proporciona un mapa de alto nivel del paquete para que pueda empezar rápidamente y, a continuación, pasar a la documentación de profundización correcta para cada funcionalidad.
Requisitos previos
- Una suscripción Azure. Cree uno gratis.
- Un proyecto de fundición.
- El rol Azure AI User en el proyecto Foundry (rol con los privilegios mínimos para el desarrollo). Si también crea o administra recursos, use Colaborador o Propietario según sea necesario. Para obtener más información, consulte el control de acceso basado en roles para Microsoft Foundry.
- Python 3.10 o posterior.
- CLI de Azure inició sesión (
az login) para queDefaultAzureCredentialpueda autenticarse.
Propina
En este artículo se menciona la compatibilidad con Microsoft Foundry (nuevo), que usa la versión azure-ai-projects>=2.0.
Si está usando la versión clásica de Foundry, utilice langchain-azure-ai[v1] en su lugar.
Instalación del paquete
Instale el paquete base:
pip install -U langchain-azure-ai azure-identity
Instale extras opcionales en función de su escenario:
pip install -U "langchain-azure-ai[tools]"
pip install -U "langchain-azure-ai[opentelemetry]"
- Use
[tools]si la aplicación usa herramientas del espacio de nombreslangchain_azure_ai.tools.*, como Document Intelligence. - Use
[opentelemetry]si quiere realizar el seguimiento de la integración a través de OpenTelemetry.
Elegir bloques de construcción de integración
Use este mapa para elegir el espacio de nombres adecuado para la solución:
| Capacidad | Espacio de nombres | Uso típico |
|---|---|---|
| Servicio de agente de Foundry | langchain_azure_ai.agents |
Cree nodos de agente administrados para crear gráficos y flujos complejos para LangGraph y LangChain. Vea ejemplos detallados. |
| Seguridad del contenido de Foundry | langchain_azure_ai.agents.middleware |
Use la Seguridad y Moderación de Contenidos de Foundry para asegurar que pueda implementar la solución con los límites de seguridad adecuados. Vea ejemplos detallados. |
| Modelos de chat | langchain_azure_ai.chat_models |
Llame a los modelos de chat del catálogo de Azure OpenAI. Vea ejemplos detallados. |
| Embeddings | langchain_azure_ai.embeddings |
Llame a modelos de inserción desde el catálogo y genere vectores para flujos de trabajo de búsqueda, recuperación y clasificación. Vea ejemplos detallados. |
| Almacenes de vectores | langchain_azure_ai.vectorstores |
Utilice Búsqueda de Azure AI y las integraciones de vectores de Cosmos DB. |
| Recuperadores | langchain_azure_ai.retrievers |
Ejecute la recuperación a través de índices y almacenes respaldados por Azure. |
| Almacenamiento de historial de chat | langchain_azure_ai.chat_message_histories |
Conservar y reproducir el historial de chats entre sesiones. Use historiales con tecnología de memoria para recuperar el historial de chat de paso consolidado. Vea ejemplos detallados. |
| Herramientas | langchain_azure_ai.tools |
Agregue herramientas como Inteligencia de documentos, Vision, análisis de texto de salud y Logic Apps. |
| Devoluciones de llamada y seguimiento | langchain_azure_ai.callbacks |
Capture eventos de ejecución y emita seguimientos de OpenTelemetry. Vea ejemplos detallados. |
| Constructores de consultas | langchain_azure_ai.query_constructors |
Cree filtros de consulta específicos del back-end para escenarios de recuperación. |
Consulte la sección Información detallada de cada funcionalidad para ver tutoriales específicos.
Conexión con puntos de conexión y credenciales del proyecto
Muchas langchain-azure-ai clases admiten la conexión a través de un punto de conexión de proyecto "Foundry". Establezca AZURE_AI_PROJECT_ENDPOINT una vez y vuelva a usarlo en las clases admitidas.
export AZURE_AI_PROJECT_ENDPOINT="https://<resource>.services.ai.azure.com/api/projects/<project>"
Cuando se usa project_endpoint, la autenticación usa Microsoft Entra ID y Azure RBAC en el proyecto.
Las claves de API son para puntos de conexión de servicio directos, como /openai/v1.
export OPENAI_BASE_URL="https://<resource>.services.ai.azure.com/openai/v1"
export OPENAI_API_KEY="<your-key>"
Ejemplo: Usa modelos de fundición
Una vez configuradas las variables de entorno, puede usar un modelo mediante:
import langchain.chat_models import init_chat_model
model = init_chat_model("azure_ai:gpt-5.2")
También puede configurar clientes específicamente. Por ejemplo, veamos AzureAIOpenAIApiChatModel como un patrón representativo:
import os
from azure.identity import DefaultAzureCredential
from langchain_azure_ai.chat_models import AzureAIOpenAIApiChatModel
# Option A: Use a Foundry project endpoint (Microsoft Entra ID required).
model_from_project = AzureAIOpenAIApiChatModel(
project_endpoint=os.environ["AZURE_AI_PROJECT_ENDPOINT"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option B: Use a service endpoint directly.
model_from_endpoint = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option C: Use a different credential strategy.
model_with_cli_credential = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential="super-secret",
model="gpt-5.2",
)
Qué hace este fragmento de código: Muestra el mismo modelo inicializado desde un punto de conexión de proyecto foundry o desde un punto de conexión de servicio directo y muestra cómo intercambiar credenciales.
Puede aplicar el mismo patrón a las herramientas. Por ejemplo, AzureAIDocumentIntelligenceTool puede usar el punto de conexión del proyecto y DefaultAzureCredential sin configuración adicional cuando AZURE_AI_PROJECT_ENDPOINT se establece:
from langchain_azure_ai.tools import AzureAIDocumentIntelligenceTool
document_tool = AzureAIDocumentIntelligenceTool()
Cómo funciona DefaultAzureCredential
DefaultAzureCredential prueba varias fuentes de credenciales de Microsoft Entra ID en orden y utiliza la primera que funcione. Los orígenes comunes son variables de entorno, identidad administrada, herramientas de desarrollo y CLI de Azure.
Use DefaultAzureCredential como valor predeterminado para las cargas de trabajo de desarrollo e implementación locales. Si necesita un control más estricto, reemplácelo por una credencial específica, como AzureCliCredential para el desarrollo solo local o ManagedIdentityCredential para cargas de trabajo de producción en Azure.
Otras clases también utilizan el mismo patrón de fin de proyecto.
Obtenga información detallada sobre cada funcionalidad.
Comience con estas guías en este conjunto de documentación:
- Uso de Modelos de Foundry con LangChain y LangGraph
- Uso del middleware de seguridad de contenido de Foundry
- Uso del servicio de agente Foundry con LangGraph
- Utilizar la memoria de Foundry con LangChain y LangGraph
- Uso de la observabilidad de Foundry para realizar un seguimiento de las aplicaciones
Use estos recursos de paquete para obtener detalles y actualizaciones de nivel de módulo: