Início Rápido: Introdução ao Microsoft Foundry (projetos do Hub) (clássico)

Aplica-se somente a:Portal Foundry (clássico). Este artigo não está disponível para o novo portal do Foundry. Saiba mais sobre o novo portal.

Nota

Links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação da Foundry (clássica) que você está exibindo agora.

Dica

Um início rápido alternativo do projeto foundry está disponível: Quickstart: Introdução ao Microsoft Foundry (projetos da Foundry).

Este guia rápido configura seu ambiente local para projetos centralizados em hub, implanta um modelo, e cria um script de chat simples rastreado/avaliável.

Pré-requisitos

  • Assinatura do Azure
  • Projeto de hub existente (ou criar um). Caso contrário, considere o uso de um quickstart do projeto Foundry.

Configurar seu ambiente de desenvolvimento

  1. Instalar pré-requisitos (Python, CLI do Azure, logon).
  2. Instalar pacotes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Diferentes tipos de projeto precisam de versões distintas do azure-ai-projects. Mantenha cada projeto em seu próprio ambiente isolado para evitar conflitos.

Implantar um modelo

  1. Portal: Entrar, abrir o projeto do hub.
  2. Catálogo de modelos: selecione gpt-4o-mini.
  3. Use este modelo > para aceitar o nome padrão de implantação > Implantar.
  4. Após o sucesso: abra no playground para verificar.

Criar seu aplicativo de chat

Crie chat.py com o código de exemplo:

Dica

O código usa Azure AI Projects 1.x SDK e é incompatível com Azure AI Projects 2.x. Instale a versão azure-ai-projects==1.0.0b10 correta a ser usada com o código neste artigo.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insira a cadeia de conexão do seu projeto na página de Visão Geral do projeto (copie e substitua o espaço reservado no código).

Executar:

python chat.py

Adicionar modelagem de prompt

Adicione get_chat_response usando o template Mustache (consulte o exemplo chat-template.py) e invoque com as mensagens de usuário e contexto.

Execute novamente para exibir a resposta modelo.

Limpar recursos

Exclua a implantação ou o projeto assim que terminar para evitar encargos.

Próxima etapa

visão geral da biblioteca de clientes do Microsoft Foundry

Guia Rápido: Introdução ao Foundry (projetos Foundry).