Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt nur für:klassisches Foundry-Portal. Dieser Artikel ist für das neue Foundry-Portal nicht verfügbar.
Erfahren Sie mehr über das neue Portal.
Tipp
Ein alternativer Foundry-Projekt-Schnellstart ist verfügbar: Schnellstart: Erste Schritte mit Microsoft Foundry (Foundry-Projekte).
Diese Schnellstartanleitung richtet Ihre lokale Umgebung für hub-basierte Projekte ein, stellt ein Modell bereit und erstellt ein einfaches nachverfolgbares/bewertbares Chatskript.
Voraussetzungen
- Azure Abonnement.
- Vorhandenes Hub-Projekt (oder erstellen Sie eines). Falls nicht, erwägen Sie die Verwendung eines Foundry-Projekt-Schnellstarts.
Einrichten Ihrer Entwicklungsumgebung
- Installieren Sie die erforderlichen Komponenten (Python, Azure CLI, Anmelden).
- Installieren von Paketen:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Unterschiedliche Projekttypen benötigen verschiedene azure-ai-projects-Versionen. Halten Sie jedes Projekt in einer eigenen isolierten Umgebung, um Konflikte zu vermeiden.
Bereitstellen eines Modells
- Portal: Anmelden, Hub-Projekt öffnen.
- Modellkatalog: wählen Sie gpt-4o-mini aus.
- Verwenden Sie dieses Modell > , um den Standardmäßigen Bereitstellungsnamen > "Deploy" zu akzeptieren.
- Nach Erfolg: Im Playground öffnen, um zu überprüfen.
Erstellen Ihrer Chat-App
Erstellen sie chat.py mit Beispielcode:
Tipp
Code verwendet Azure AI Projects 1.x SDK und ist mit Azure AI Projects 2.x nicht kompatibel. Stellen Sie sicher, dass Sie die richtige Version azure-ai-projects==1.0.0b10 installieren, die mit dem Code in diesem Artikel verwendet werden soll.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Fügen Sie Ihre Verbindungszeichenfolge aus der Projektseite „Übersicht“ ein (kopieren, Platzhalter im Code ersetzen).
Laufen:
python chat.py
Vorlagen für Prompts hinzufügen
Fügen Sie get_chat_response mithilfe der Vorlage "Mustache" hinzu (siehe chat-template.py Beispiel), und rufen Sie dann benutzer-/kontextbezogene Nachrichten auf.
Führen Sie den Vorgang erneut aus, um die vorlagenbasierte Antwort anzuzeigen.
Bereinigen von Ressourcen
Löschen Sie die Bereitstellung oder das Projekt, wenn Sie fertig sind, um Gebühren zu vermeiden.
Nächster Schritt
Verwandte Inhalte
Schnellstart: Erste Schritte mit Foundry (Foundry-Projekte).