Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Gäller endast för:Foundry-portalen (klassisk). Den här artikeln är inte tillgänglig för den nya Foundry-portalen.
Läs mer om den nya portalen.
Observera
Länkar i den här artikeln kan öppna innehåll i den nya Microsoft Foundry-dokumentationen i stället för den foundry-dokumentation (klassisk) som du visar nu.
Tips
Det finns en alternativ snabbstart för Foundry-projektet: Quickstart: Kom igång med Microsoft Foundry (Foundry-projekt).
Den här snabbstarten konfigurerar din lokala miljö för hubb-baserade projekt, distribuerar en modell och skapar ett enkelt spårat/utvärderbart chat-skript.
Förutsättningar
- Azure prenumeration.
- Befintligt hubbprojekt (eller skapa ett). Om inte kan du överväga att använda en snabbstart för Foundry-projektet.
Konfigurera utvecklingsmiljön
- Installera krav (Python, Azure CLI, inloggning).
- Installera paket:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Olika projekttyper behöver distinkta versioner av azure-ai-projects. Håll varje projekt i sin egen isolerade miljö för att undvika konflikter.
Distribuera en modell
- Portal: Logga in, öppna hubbprojektet.
- Modellkatalog: välj gpt-4o-mini.
- Använd den här modellen > för att acceptera standarddistributionsnamnet > Distribuera.
- Efter succén: Öppna på lekplatsen för att verifiera.
Skapa chattappen
Skapa chat.py med exempelkod:
Tips
Koden använder Azure AI Projects 1.x SDK och är inte kompatibel med Azure AI Projects 2.x. Se till att du installerar rätt version azure-ai-projects==1.0.0b10 som ska användas med koden i den här artikeln.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Infoga projektets anslutningssträng från projektöversiktssidan; kopiera och ersätt sedan platshållaren i koden.
Kör:
python chat.py
Lägg till prompt-templating
Lägg till get_chat_response med mustache-mall (se chat-template.py exempelfil) och anropa sedan med användarmeddelanden och kontextmeddelanden.
Kör igen för att visa mallsvar.
Rensa resurser
Ta bort distributionen eller projektet när du är färdig för att undvika avgifter.