Início rápido: Comece a usar o Microsoft Foundry (projetos Hub) (clássico)

Aplica-se apenas a:Portal Foundry (clássico). Este artigo não está disponível para o novo portal da Foundry. Saiba mais sobre o novo portal.

Nota

Os links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação do Foundry (clássico) que está a ver agora.

Dica

Está disponível um quickstart alternativo para projetos Foundry: Quickstart: Comece com Microsoft Foundry (projetos Foundry).

Este quickstart configura o seu ambiente local para projetos baseados em hubs, implementa um modelo e constrói um script simples de chat rastreado/avaliável.

Pré-requisitos

  • Subscrição do Azure.
  • Projeto hub existente (ou criar um). Se não, considera usar um quickstart de projeto Foundry.

Configura o teu ambiente de desenvolvimento

  1. Pré-requisitos de instalação (Python, CLI do Azure, login).
  2. Pacotes de instalação:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Diferentes tipos de projetos precisam de versões distintas de projetos Azure-AI. Mantenha cada projeto num ambiente isolado para evitar conflitos.

Implementar um modelo

  1. Portal: Iniciar sessão, abrir o projeto do hub.
  2. Catálogo de modelos: selecione gpt-4o-mini.
  3. Use este modelo > para usar o nome de implementação predefinido > Deploy.
  4. Após o sucesso: Abra no parque infantil para verificar.

Construa a sua aplicação de chat

Crie chat.py com código de exemplo:

Dica

O código usa Azure AI Projects 1.x SDK e é incompatível com Azure AI Projects 2.x. Certifica-te de que instalas a versão azure-ai-projects==1.0.0b10 correta para usar com o código deste artigo.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insira a sua string de conexão do projeto a partir da página de Resumo do projeto (copiar, substituir o marcador de posição no código).

Corrida:

python chat.py

Adicionar templação de prompts

Adiciona get_chat_response usando o mustache template (ver exemplo chat-template.py) e depois chama-o com mensagens de utilizador/contexto.

Volte a executar para ver a resposta modelada.

Liberar recursos

Elimine a implementação ou o projeto quando terminado para evitar cobranças.

Próximo passo

Início rápido: Comece com a Foundry (projetos da Foundry).