Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Solo se aplica a:portal Foundry (clásico). Este artículo no está disponible para el nuevo portal de Foundry.
Obtenga más información sobre el nuevo portal.
Nota
Los vínculos de este artículo pueden abrir contenido en la nueva documentación de Microsoft Foundry en lugar de la documentación de Foundry (clásico) que está viendo ahora.
Propina
Hay disponible un inicio rápido alternativo para el proyecto Foundry: Quickstart: Introducción a Microsoft Foundry (Proyectos Foundry).
En esta guía rápida, se configura el entorno local para proyectos basados en hubs, se despliega un modelo y se construye un script de chat simple de rastreo/evaluación.
Requisitos previos
- suscripción de Azure
- Proyecto de concentrador existente (o cree uno). Si no es así, considere la posibilidad de usar un inicio rápido del proyecto Foundry.
Configuración del entorno de desarrollo
- Instale los requisitos previos (Python, CLI de Azure, inicio de sesión).
- Instalar paquetes:
pip install azure-ai-inference azure-identity azure-ai-projects==1.0.0b10
Los diferentes tipos de proyecto requieren distintas versiones de azure-ai-projects. Mantenga cada proyecto en su propio entorno aislado para evitar conflictos.
Implementación de un modelo
- Portal: inicie sesión y abra el proyecto del centro.
- Catálogo de modelos: seleccione gpt-4o-mini.
- Usa este modelo > para aceptar el nombre de implementación > predeterminado, Deploy.
- Después de que se complete correctamente: abra en el área de juegos para comprobarlo.
Construir tu aplicación de chat
Cree chat.py con código de ejemplo:
Propina
El código usa Azure SDK de AI Projects 1.x y no es compatible con Azure AI Projects 2.x. Asegúrese de instalar la versión azure-ai-projects==1.0.0b10 correcta para usarla con el código de este artículo.
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project_connection_string = "<your-connection-string-goes-here>"
project = AIProjectClient.from_connection_string(
conn_str=project_connection_string, credential=DefaultAzureCredential()
)
chat = project.inference.get_chat_completions_client()
response = chat.complete(
model="gpt-4o-mini",
messages=[
{
"role": "system",
"content": "You are an AI assistant that speaks like a techno punk rocker from 2350. Be cool but not too cool. Ya dig?",
},
{"role": "user", "content": "Hey, can you help me with my taxes? I'm a freelancer."},
],
)
print(response.choices[0].message.content)
Inserte su cadena de conexión del proyecto desde la página Información general del proyecto (copie y reemplace el marcador de posición en el código).
Ejecutar:
python chat.py
Adición de plantillas de aviso
Agregue get_chat_response mediante la plantilla mustache (consulte chat-template.py ejemplo) y, a continuación, invoque con mensajes de usuario o contexto.
Vuelve a ejecutar para ver la respuesta prediseñada.
Limpieza de recursos
Elimine la implementación o el proyecto cuando haya terminado para evitar cargos.
Paso siguiente
Introducción a la biblioteca cliente de Microsoft Foundry
Contenido relacionado
Inicio rápido: Introducción a Foundry (proyectos de Foundry).