Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Use o pacote langchain-azure-ai como ponto de entrada para construir aplicações LangChain e LangGraph com capacidades Microsoft Foundry. Este artigo dá-lhe um mapa de alto nível do pacote para que possa começar rapidamente e depois passar para a documentação aprofundada correta para cada funcionalidade.
Pré-requisitos
- Uma subscrição do Azure. Crie um gratuitamente.
- Um projeto da Foundry.
- O papel de Utilizador de IA do Azure no projeto Foundry (papel com privilégio mínimo para desenvolvimento). Se também criar ou gerenciar recursos, utilize Contribuinte ou Proprietário conforme necessário. Para mais detalhes, consulte Controlo de acesso baseado em funções para Microsoft Foundry.
- Python 3.10 ou posterior.
- CLI do Azure iniciado sessão (
az login) para queDefaultAzureCredentialpossa autenticar-se.
Dica
Este artigo menciona o suporte para Microsoft Foundry (novo), que utiliza a versão azure-ai-projects>=2.0.
Se estiveres a usar o Foundry Classic, usa langchain-azure-ai[v1] em vez disso.
Instale o pacote
Instale o pacote base:
pip install -U langchain-azure-ai azure-identity
Instala extras opcionais consoante o teu cenário:
pip install -U "langchain-azure-ai[tools]"
pip install -U "langchain-azure-ai[opentelemetry]"
- Use
[tools]se a sua aplicação usar ferramentas do namespacelangchain_azure_ai.tools.*, como Document Intelligence. - Usa
[opentelemetry]se quiseres integração de traçado via OpenTelemetry.
Escolha componentes de integração
Use este mapa para escolher o namespace certo para a sua solução:
| Capacidade | Espaço de nomes | Uso típico |
|---|---|---|
| Serviço de Agente de Fundição | langchain_azure_ai.agents |
Desenvolver nós de agentes geridos para criar grafos e fluxos complexos para LangGraph e LangChain. Veja exemplos detalhados. |
| Segurança de Conteúdo na Foundry | langchain_azure_ai.agents.middleware |
Use a Segurança e Moderação de Conteúdos da Foundry para garantir que pode implementar soluções com as proteções certas. Veja exemplos detalhados. |
| Modelos de chat | langchain_azure_ai.chat_models |
Ligue para o Azure OpenAI e modele o catálogo de modelos de chat. Veja exemplos detalhados. |
| Embeddings | langchain_azure_ai.embeddings |
Chamar modelos de embedding do catálogo e gerar vetores para fluxos de trabalho de pesquisa, recuperação e ranking. Veja exemplos detalhados. |
| Armazenamentos vetoriais | langchain_azure_ai.vectorstores |
Use integrações vetoriais com Pesquisa de IA do Azure e Cosmos DB. |
| Retrievers | langchain_azure_ai.retrievers |
Execute a recuperação sobre índices e armazenamentos apoiados pelo Azure. |
| Armazenamento de histórico de chat | langchain_azure_ai.chat_message_histories |
Persiste e reproduz o histórico de chat entre sessões. Use históricos baseados em memória para recuperar o histórico consolidado do chat de passe. Veja exemplos detalhados. |
| Ferramentas | langchain_azure_ai.tools |
Adicione ferramentas como Inteligência de Documentos, Visão, análise de texto de saúde e Aplicações Lógicas. |
| Chamadas de retorno e rastreamento | langchain_azure_ai.callbacks |
Capturar eventos de execução e emitir rastreios OpenTelemetry. Veja exemplos detalhados. |
| Construtores de consulta | langchain_azure_ai.query_constructors |
Crie filtros de consulta específicos do backend para cenários de recuperação. |
Consulte a secção Aprenda cada funcionalidade em detalhe para guias específicas.
Conecte-se aos endpoints e credenciais do projeto
Muitas langchain-azure-ai classes suportam a ligação através de um endpoint de projeto Foundry. Define AZURE_AI_PROJECT_ENDPOINT uma vez e depois reutiliza entre as classes suportadas.
export AZURE_AI_PROJECT_ENDPOINT="https://<resource>.services.ai.azure.com/api/projects/<project>"
Quando usas project_endpoint, a autenticação usa Microsoft Entra ID e Azure RBAC no projeto.
As chaves API são para endpoints de serviço direto, como /openai/v1.
export OPENAI_BASE_URL="https://<resource>.services.ai.azure.com/openai/v1"
export OPENAI_API_KEY="<your-key>"
Exemplo: Usar modelos de fundição
Depois de configuradas as variáveis de ambiente, pode usar um modelo através de:
import langchain.chat_models import init_chat_model
model = init_chat_model("azure_ai:gpt-5.2")
Também podes configurar clientes especificamente. Como exemplo, vejamos AzureAIOpenAIApiChatModel como um padrão representativo:
import os
from azure.identity import DefaultAzureCredential
from langchain_azure_ai.chat_models import AzureAIOpenAIApiChatModel
# Option A: Use a Foundry project endpoint (Microsoft Entra ID required).
model_from_project = AzureAIOpenAIApiChatModel(
project_endpoint=os.environ["AZURE_AI_PROJECT_ENDPOINT"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option B: Use a service endpoint directly.
model_from_endpoint = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option C: Use a different credential strategy.
model_with_cli_credential = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential="super-secret",
model="gpt-5.2",
)
O que este excerto faz: Mostra o mesmo modelo inicializado a partir de um endpoint de projeto Foundry ou de um endpoint de serviço direto, e mostra como trocar credenciais.
Podes aplicar o mesmo padrão às ferramentas. Por exemplo, AzureAIDocumentIntelligenceTool pode usar o endpoint do projeto e DefaultAzureCredential sem configuração adicional quando AZURE_AI_PROJECT_ENDPOINT está definido:
from langchain_azure_ai.tools import AzureAIDocumentIntelligenceTool
document_tool = AzureAIDocumentIntelligenceTool()
Como DefaultAzureCredential funciona
DefaultAzureCredential tenta várias fontes de credenciais Microsoft Entra ID por ordem e usa a primeira que funciona. Fontes comuns são variáveis de ambiente, identidade gerida, ferramentas para programadores e CLI do Azure.
Use DefaultAzureCredential como padrão para o desenvolvimento local e cargas de trabalho implementadas. Se precisares de controlo mais rigoroso, substitui-o por uma credencial específica, como AzureCliCredential para desenvolvimento apenas local ou ManagedIdentityCredential para cargas de trabalho de produção em Azure.
O mesmo padrão projeto-ponto final é também utilizado por outras classes.
Aprenda cada capacidade em detalhe
Comece com estes guias neste conjunto de documentação:
- Use Modelos de Fundição com LangChain e LangGraph
- Use middleware Foundry Content Safety
- Use o Serviço de Agente da Fundição com o LangGraph
- Use a Memória da Foundry com LangChain e LangGraph
- Use a Foundry Observability para rastrear aplicações
Use estes recursos do pacote para detalhes e atualizações ao nível do módulo: