Compartilhar via


Início Rápido: Introdução ao Microsoft Foundry (projetos do Hub) (clássico)

Aplica-se somente a:Portal Foundry (clássico). Este artigo não está disponível para o novo portal do Foundry. Saiba mais sobre o novo portal.

Observação

Links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação da Foundry (clássica) que você está exibindo agora.

Dica

Um início rápido alternativo do projeto foundry está disponível: Quickstart: Introdução ao Microsoft Foundry (projetos da Foundry).

Este tutorial rápido configura seu ambiente local para projetos baseados em hub, implanta um modelo e cria um script de chat simples rastreado/avaliável.

Pré-requisitos

  • Assinatura do Azure
  • Projeto de hub existente (ou criar um). Caso contrário, considere usar um guia de início rápido de projeto do Foundry.

Configurar seu ambiente de desenvolvimento

  1. Instalar pré-requisitos (Python, CLI do Azure, logon).
  2. Instalar pacotes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Diferentes tipos de projetos precisam de versões azure-ai-projects distintas. Mantenha cada projeto em seu próprio ambiente isolado para evitar conflitos.

Implantar um modelo

  1. Portal: Entrar, abrir o projeto do hub.
  2. Catálogo de modelos: selecione gpt-4o-mini.
  3. Use esse modelo > aceite o nome de implantação padrão > Implantar.
  4. Após ter sucesso, abra no playground para verificar.

Criar o aplicativo de chat

Crie chat.py com o código de exemplo:

Dica

O código usa Azure AI Projects 1.x SDK e é incompatível com Azure AI Projects 2.x. Instale a versão azure-ai-projects==1.0.0b10 correta a ser usada com o código neste artigo.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insira a cadeia de conexão do projeto na página de visão geral do projeto (copie, substitua o marcador de posição no código).

Executar:

python chat.py

Adicionar modelagem de solicitação

Adicione get_chat_response usando o modelo mustache (consulte o exemplo chat-template.py) e invoque com mensagens de usuário/contexto.

Execute novamente para exibir a resposta modelo.

Limpar os recursos

Exclua a implantação ou o projeto ao concluir para evitar cobranças.

Próxima etapa

visão geral da biblioteca de clientes do Microsoft Foundry

Início Rápido: Comece a usar o Foundry (Projetos Foundry).