Solo se aplica a:
portal Foundry (clásico). Este artículo no está disponible para el nuevo portal de Foundry.
Obtenga más información sobre el nuevo portal.
Nota
Los vínculos de este artículo pueden abrir contenido en la nueva documentación de Microsoft Foundry en lugar de la documentación de Foundry (clásico) que está viendo ahora.
Después de afinar un modelo, es posible que quiera probar su calidad a través de la API de completaciones de chat o el servicio Evaluaciones.
Una implementación de nivel de desarrollador le permite implementar el nuevo modelo sin la tarifa de hospedaje por hora en la que incurren las implementaciones estándar o globales. Los únicos cargos en los que se incurre son por cada token. Consulte la página de precios para obtener los precios más up-to-date.
Importante
El nivel de Desarrollador no ofrece un SLA de disponibilidad ni garantiza la residencia de datos. Si necesita un Acuerdo de Nivel de Servicio o una residencia de datos, elija un tipo de implementación alternativo para probar el modelo.
Las implementaciones de nivel de desarrollador tienen una duración fija de 24 horas. Obtenga más información sobre el ciclo de vida de la implementación.
Implementación del modelo optimizado
Para implementar el candidato del modelo, seleccione el modelo optimizado para implementar y, a continuación, seleccione Implementar.
Se abre el cuadro de diálogo Implementar modelo . En el cuadro de diálogo, escriba el nombre de la implementación y, a continuación, seleccione Desarrollador en la lista desplegable Tipo de implementación. Seleccione Crear para iniciar la implementación del modelo personalizado.
Puede supervisar el progreso de la nueva implementación en el panel Deployments en el portal Microsoft Foundry.
import json
import os
import requests
token = os.getenv("<TOKEN>")
subscription = "<YOUR_SUBSCRIPTION_ID>"
resource_group = "<YOUR_RESOURCE_GROUP_NAME>"
resource_name = "<YOUR_AZURE_OPENAI_RESOURCE_NAME>"
model_deployment_name = "gpt41-mini-candidate-01" # custom deployment name that you will use to reference the model when making inference calls.
deploy_params = {'api-version': "2025-07-01-preview"}
deploy_headers = {'Authorization': 'Bearer {}'.format(token), 'Content-Type': 'application/json'}
deploy_data = {
"sku": {"name": "developertier", "capacity": 50},
"properties": {
"model": {
"format": "OpenAI",
"name": <"fine_tuned_model">, #retrieve this value from the previous call, it will look like gpt41-mini-candidate-01.ft-b044a9d3cf9c4228b5d393567f693b83
"version": "1"
}
}
}
deploy_data = json.dumps(deploy_data)
request_url = f'https://management.azure.com/subscriptions/{subscription}/resourceGroups/{resource_group}/providers/Microsoft.CognitiveServices/accounts/{resource_name}/deployments/{model_deployment_name}'
print('Creating a new deployment...')
r = requests.put(request_url, params=deploy_params, headers=deploy_headers, data=deploy_data)
print(r)
print(r.reason)
print(r.json())
| variable |
Definición |
| token |
Hay varias maneras de generar un token de autorización. El método más sencillo para las pruebas iniciales es iniciar el Cloud Shell desde el portal Azure. A continuación, ejecute az account get-access-token. Puede usar este token como token de autorización temporal para las pruebas de API. Se recomienda almacenarlo en una nueva variable de entorno. |
| suscripción |
El identificador de suscripción para el recurso de Azure OpenAI asociado. |
| grupo de recursos |
Nombre del grupo de recursos del recurso de Azure OpenAI. |
| nombre_del_recurso |
El nombre del recurso de Azure OpenAI. |
| nombre_despliegue_modelo |
Nombre personalizado para la nueva implementación de modelos ajustados finamente. Este es el nombre al que se hará referencia en el código al realizar llamadas de finalización de chat. |
| modelo afinado |
Obtenga este valor de los resultados del trabajo de ajuste fino en el paso anterior. Tendrá un aspecto similar a gpt41-mini-candidate-01.ft-b044a9d3cf9c4228b5d393567f693b83. Tendrá que agregar ese valor al deploy_data json. Como alternativa, también puede implementar un punto de control pasando el identificador de punto de control que aparecerá en el formato ftchkpt-e559c011ecc04fc68eaa339d8227d02d. |
En el ejemplo siguiente se muestra cómo usar la API REST para crear una implementación de modelos para el modelo personalizado. La API REST genera un nombre para la implementación del modelo personalizado.
curl -X POST "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2025-07-01-preview" \
-H "Authorization: Bearer <TOKEN>" \
-H "Content-Type: application/json" \
-d '{
"sku": {"name": "developertier", "capacity": 50},
"properties": {
"model": {
"format": "OpenAI",
"name": "<FINE_TUNED_MODEL>",
"version": "1"
}
}
}'
| variable |
Definición |
| token |
Hay varias maneras de generar un token de autorización. El método más sencillo para las pruebas iniciales es iniciar el Cloud Shell desde el portal Azure. A continuación, ejecute az account get-access-token. Puede usar este token como token de autorización temporal para las pruebas de API. Se recomienda almacenarlo en una nueva variable de entorno. |
| suscripción |
El identificador de suscripción para el recurso de Azure OpenAI asociado. |
| grupo de recursos |
Nombre del grupo de recursos del recurso de Azure OpenAI. |
| nombre_del_recurso |
El nombre del recurso de Azure OpenAI. |
| nombre_despliegue_modelo |
Nombre personalizado para la nueva implementación de modelos ajustados finamente. Este es el nombre al que se hará referencia en el código al realizar llamadas de finalización de chat. |
| modelo afinado |
Obtenga este valor de los resultados del trabajo de ajuste fino en el paso anterior. Tendrá un aspecto similar a gpt-4.1-mini-2025-04-14.ft-b044a9d3cf9c4228b5d393567f693b83. Tendrá que agregar ese valor al deploy_data json. Como alternativa, también puede implementar un punto de control pasando el identificador de punto de control que aparecerá en el formato ftchkpt-e559c011ecc04fc68eaa339d8227d02d. |
Implementación de un modelo con CLI de Azure
En el ejemplo siguiente se muestra cómo usar el CLI de Azure para implementar el modelo personalizado. Con el CLI de Azure, debe especificar un nombre para la implementación del modelo personalizado. Para obtener más información sobre cómo usar el CLI de Azure para implementar modelos personalizados, vea az cognitiveservices account deployment.
Para ejecutar este comando CLI de Azure en una ventana de consola, debe reemplazar el siguiente <placeholders> por los valores correspondientes para el modelo personalizado:
| Marcador de posición |
Valor |
|
<YOUR_AZURE_SUBSCRIPTION> |
Nombre o identificador de la suscripción de Azure. |
|
<YOUR_RESOURCE_GROUP> |
Nombre del grupo de recursos de Azure. |
|
<YOUR_RESOURCE_NAME> |
Nombre del recurso de Azure OpenAI. |
|
<YOUR_DEPLOYMENT_NAME> |
Nombre que desea usar para la implementación del modelo. |
|
<YOUR_FINE_TUNED_MODEL_ID> |
Nombre del modelo personalizado. |
az cognitiveservices account deployment create
--resource-group <YOUR_RESOURCE_GROUP>
--name <YOUR_RESOURCE_NAME>
--deployment-name <YOUR_DEPLOYMENT_NAME>
--model-name <YOUR_FINE_TUNED_MODEL_ID>
--model-version "1"
--model-format OpenAI
--sku-capacity "50"
--sku-name "Developer"
Uso del modelo optimizado implementado
Una vez implementado el modelo personalizado, puede usarlo como cualquier otro modelo implementado. Puede usar el área de juegos en el portal de Foundry para experimentar con la nueva implementación. Puede seguir usando los mismos parámetros con el modelo personalizado, como temperature y max_tokens, como puede con otros modelos implementados.
También puede usar el servicio Evaluations para crear y ejecutar evaluaciones del modelo en el candidato del modelo implementado, así como otras versiones del modelo.
import os
from openai import OpenAI
client = OpenAI(
base_url = "https://YOUR-RESOURCE-NAME.openai.azure.com/openai/v1/",
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
)
response = client.chat.completions.create(
model="gpt41-mini-candidate-01", # model = "Custom deployment name you chose for your fine-tuning model"
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},
{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},
{"role": "user", "content": "Do other Foundry Tools support this too?"}
]
)
print(response.choices[0].message.content)
curl $AZURE_OPENAI_ENDPOINT/openai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "api-key: $AZURE_OPENAI_API_KEY" \
-d '"model": "YOUR_MODEL_DEPLOYMENT_NAME", {"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Foundry Tools support this too?"}]}'
Limpia tu implementación
Las implementaciones de desarrolladores se eliminarán automáticamente independientemente de la actividad. Cada implementación tiene una duración fija de 24 horas después de la cual está sujeta a eliminación. La eliminación de una implementación no elimina ni afecta al modelo personalizado subyacente y el modelo personalizado se puede volver a implementar en cualquier momento.
Para eliminar una implementación manualmente, puede usar el portal foundry o usar CLI de Azure.
Para usar la API REST Deployments - Delete envía un HTTP DELETE al recurso de implementación. Al igual que con la creación de implementaciones, debe incluir los parámetros siguientes:
- identificador de suscripción de Azure
- Nombre del grupo de recursos de Azure
- nombre de recurso de Azure OpenAI
- Nombre de la implementación que se va a eliminar
A continuación se muestra el ejemplo de la API REST para eliminar una implementación:
curl -X DELETE "https://management.azure.com/subscriptions/<SUBSCRIPTION>/resourceGroups/<RESOURCE_GROUP>/providers/Microsoft.CognitiveServices/accounts/<RESOURCE_NAME>/deployments/<MODEL_DEPLOYMENT_NAME>?api-version=2025-07-01-preview" \
-H "Authorization: Bearer <TOKEN>"
Pasos siguientes