Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica solo a:Portale di Foundry (versione classica). Questo articolo non è disponibile per il nuovo portale foundry.
Altre informazioni sul nuovo portale.
Nota
I collegamenti in questo articolo potrebbero aprire contenuto nella nuova documentazione di Microsoft Foundry anziché nella documentazione di Foundry (versione classica) visualizzata.
Suggerimento
È disponibile una guida introduttiva al progetto Foundry alternativa: Quickstart: Introduzione a Microsoft Foundry (progetti Foundry).
Questa guida introduttiva configura l'ambiente locale per i progetti basati su hub, distribuisce un modello e compila un semplice script di chat tracciato/valutabile.
Prerequisiti
- sottoscrizione di Azure
- Progetto hub esistente (o crearne uno). In caso contrario, prendere in considerazione l'uso di un avvio rapido del progetto Foundry.
Configurare l'ambiente di sviluppo
- Installare i prerequisiti (Python, interfaccia della riga di comando di Azure, account di accesso).
- Installare i pacchetti:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Per i diversi tipi di progetto sono necessarie versioni distinte di azure-ai-projects. Mantenere ogni progetto nel proprio ambiente isolato per evitare conflitti.
Distribuire un modello
- Portale: accedere; aprire il progetto Hub.
- Catalogo modelli: selezionare gpt-4o-mini.
- Usare questo modello > accettare il nome > di distribuzione predefinito Deploy.
- Dopo il successo: aprirlo nel Playground per verificare.
Creare l'app di chat
Creare chat.py con codice di esempio:
Suggerimento
Il codice usa Azure AI Projects 1.x SDK ed è incompatibile con Azure AI Projects 2.x. Assicurarsi di installare la versione azure-ai-projects==1.0.0b10 corretta da usare con il codice in questo articolo.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Inserisci la stringa di connessione del tuo progetto dalla pagina Panoramica del progetto (copia, sostituisci il segnaposto nel codice).
Correre:
python chat.py
Aggiungere template di prompt
Aggiungere get_chat_response usando il modello mustache (vedere chat-template.py esempio) e quindi richiamare con messaggi utente/contesto.
Esegui di nuovo per visualizzare la risposta predefinita.
Pulire le risorse
Eliminare la distribuzione o il progetto al termine per evitare addebiti.
Passaggio successivo
Panoramica della libreria client Microsoft Foundry
Contenuto correlato
Guida introduttiva: Introduzione a Foundry (progetti Foundry).