Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Aplica-se apenas a:Portal Foundry (clássico). Este artigo não está disponível para o novo portal da Foundry.
Saiba mais sobre o novo portal.
Nota
Os links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação do Foundry (clássico) que está a ver agora.
Dica
Está disponível um quickstart alternativo para projetos Foundry: Quickstart: Comece com Microsoft Foundry (projetos Foundry).
Este quickstart configura o seu ambiente local para projetos baseados em hubs, implementa um modelo e constrói um script simples de chat rastreado/avaliável.
Pré-requisitos
- Subscrição do Azure.
- Projeto hub existente (ou criar um). Se não, considera usar um quickstart de projeto Foundry.
Configura o teu ambiente de desenvolvimento
- Pré-requisitos de instalação (Python, CLI do Azure, login).
- Pacotes de instalação:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Diferentes tipos de projetos precisam de versões distintas de projetos Azure-AI. Mantenha cada projeto num ambiente isolado para evitar conflitos.
Implementar um modelo
- Portal: Iniciar sessão, abrir o projeto do hub.
- Catálogo de modelos: selecione gpt-4o-mini.
- Use este modelo > para usar o nome de implementação predefinido > Deploy.
- Após o sucesso: Abra no parque infantil para verificar.
Construa a sua aplicação de chat
Crie chat.py com código de exemplo:
Dica
O código usa Azure AI Projects 1.x SDK e é incompatível com Azure AI Projects 2.x. Certifica-te de que instalas a versão azure-ai-projects==1.0.0b10 correta para usar com o código deste artigo.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Insira a sua string de conexão do projeto a partir da página de Resumo do projeto (copiar, substituir o marcador de posição no código).
Corrida:
python chat.py
Adicionar templação de prompts
Adiciona get_chat_response usando o mustache template (ver exemplo chat-template.py) e depois chama-o com mensagens de utilizador/contexto.
Volte a executar para ver a resposta modelada.
Liberar recursos
Elimine a implementação ou o projeto quando terminado para evitar cobranças.