Démarrage rapide : Prise en main de Microsoft Foundry (projets Hub) (classique)

S’applique uniquement au :Portail Foundry (classique). Cet article n’est pas disponible pour le nouveau portail Foundry. En savoir plus sur le nouveau portail.

Note

Les liens de cet article peuvent ouvrir du contenu dans la nouvelle documentation Microsoft Foundry au lieu de la documentation Foundry (classique) que vous affichez maintenant.

Conseil

Un guide de démarrage rapide de projet Foundry alternatif est disponible : Quickstart : Prise en main de Microsoft Foundry (projets Foundry).

Ce guide de démarrage rapide configure votre environnement local pour les projets centrés sur un hub, déploie un modèle et génère un script de chat simple traçable et évaluable.

Conditions préalables

  • abonnement Azure.
  • Projet hub existant (ou créez-en un). Si ce n’est pas le cas, envisagez d’utiliser un démarrage rapide du projet Foundry.

Configurer votre environnement de développement

  1. Prérequis d’installation (Python, Azure CLI, connexion).
  2. Installer des packages :
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10

Différents types de projets ont besoin de versions distinctes d’azure-ai-projects. Conservez chaque projet dans son propre environnement isolé pour éviter les conflits.

Déployer un modèle

  1. Portail : Connectez-vous, ouvrez le projet hub.
  2. Catalogue de modèles : sélectionnez gpt-4o-mini.
  3. Utilisez ce modèle > pour accepter le nom > de déploiement par défaut Déployer.
  4. Après succès : Ouvrez dans le terrain de jeu pour vérifier.

Créer votre application de conversation

Créez chat.py avec un exemple de code :

Conseil

Le code utilise Azure SDK AI Projects 1.x et est incompatible avec Azure AI Projects 2.x. Veillez à installer la version azure-ai-projects==1.0.0b10 appropriée à utiliser avec le code de cet article.

from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential

project_connection_string = "<your-connection-string-goes-here>"

project = AIProjectClient.from_connection_string(
    conn_str=project_connection_string, credential=DefaultAzureCredential()
)

chat = project.inference.get_chat_completions_client()
response = chat.complete(
    model="gpt-4o-mini",
    messages=[
        {
            "role": "system",
            "content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
        },
        {"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
    ],
)

print(response.choices[0].message.content)

Insérez votre chaîne de connexion du projet à partir de la page d'aperçu du projet (copiez, remplacez l’espace réservé dans le code).

Courir:

python chat.py

Ajouter un modèle de prompts

Ajoutez get_chat_response à l’aide d’un modèle de moustache (voir chat-template.py exemple), puis appelez-le avec des messages utilisateur/contexte.

Réexécutez pour afficher la réponse modèle.

Nettoyer les ressources

Supprimez le déploiement ou le projet quand vous avez terminé pour éviter les frais.

Étape suivante

Démarrage rapide : Se lancer avec Foundry (projets Foundry).