Configuración de una conexión para usar Microsoft Foundry Models en el proyecto de IA (clásico)

Solo se aplica a:portal Foundry (clásico). Este artículo no está disponible para el nuevo portal de Foundry. Obtenga más información sobre el nuevo portal.

Nota

Los vínculos de este artículo pueden abrir contenido en la nueva documentación de Microsoft Foundry en lugar de la documentación de Foundry (clásico) que está viendo ahora.

Puede usar Microsoft Foundry Models en los proyectos de Foundry para crear aplicaciones enriquecidas e interactuar o administrar los modelos disponibles. Para usar el servicio Foundry Models en el proyecto, debe crear una conexión al recurso Foundry (anteriormente conocido Azure AI Services).

En el siguiente artículo se explica cómo crear una conexión al recurso Foundry (anteriormente conocido Azure AI Services) para usar foundry Models.

Un diagrama con la arquitectura general de la integración de Azure Marketplace con Foundry Models.

Requisitos previos

Para completar este artículo, necesita lo siguiente:

  • Un recurso de proyecto de IA.

  • La característica Desplegar modelos al servicio de inferencia de modelos de IA de Azure está activada.

    Una animación que muestra cómo activar la característica de implementación de modelos en el servicio de inferencia de modelos de Azure AI en el portal de Microsoft Foundry.

Adición de una conexión

Puede crear una conexión a un recurso de Foundry Tools mediante los pasos siguientes:

  1. Vaya al portal de Foundry.

  2. En la esquina inferior izquierda de la pantalla, seleccione Centro de administración.

  3. En la sección Recursos conectados , seleccione Nueva conexión.

  4. Seleccione Herramientas de fundición.

  5. En el explorador, busque un recurso de Foundry Tools existente en la suscripción.

  6. Seleccione Agregar conexión.

  7. La nueva conexión se agrega a tu Hub.

  8. Vuelva a la página de aterrizaje del proyecto para continuar y seleccione la nueva conexión creada. Actualice la página si no aparece inmediatamente.

    Captura de pantalla de la página de aterrizaje del proyecto, en la que se resalta la ubicación del recurso conectado y el punto de conexión de inferencia asociado.

Consulte implementaciones de modelos en el recurso conectado.

Puede ver las implementaciones del modelo disponibles en el recurso conectado siguiendo estos pasos:

  1. Vaya al portal de Foundry.

  2. En el panel izquierdo, seleccione Modelos y puntos de conexión.

  3. En la página se muestran los despliegues del modelo disponibles para usted, agrupados por nombre de conexión. Busque la conexión que acaba de crear, que debe ser de tipo Foundry Tools.

    Captura de pantalla que muestra la lista de modelos disponibles en una conexión determinada.

  4. Seleccione cualquier implementación de modelo que quiera inspeccionar.

  5. La página de detalles muestra información sobre la implementación específica. Si desea probar el modelo, puede usar la opción Abrir en el área de juegos.

  6. Se muestra el área de juegos de Foundry, donde puede interactuar con el modelo especificado.

Puede usar Microsoft Foundry Models en los proyectos de Foundry para crear aplicaciones enriquecidas e interactuar o administrar los modelos disponibles. Para usar el servicio Foundry Models en el proyecto, debe crear una conexión al recurso Foundry (anteriormente conocido Azure AI Services).

En el siguiente artículo se explica cómo crear una conexión al recurso Foundry (anteriormente conocido Azure AI Services) para usar foundry Models.

Un diagrama con la arquitectura general de la integración de Azure Marketplace con Foundry Models.

Requisitos previos

Para completar este artículo, necesita lo siguiente:

  • Instale la extensión CLI de Azure y la extensión ml para Microsoft Foundry:

    az extension add -n ml
    
  • Identifique la siguiente información:

    • Identificador de suscripción de Azure.

    • Nombre del recurso de Foundry Tools.

    • El grupo de recursos en el que se implementa el recurso de Foundry Tools.

Adición de una conexión

Para agregar un modelo, primero debe identificar el modelo que desea implementar. Puede consultar los modelos disponibles de la siguiente manera:

  1. Inicie sesión en la suscripción de Azure:

    az login
    
  2. Configure la CLI para que apunte al proyecto:

    az account set --subscription <subscription>
    az configure --defaults workspace=<project-name> group=<resource-group> location=<location>
    
  3. Cree una definición de conexión:

    connection.yml

    name: <connection-name>
    type: aiservices
    endpoint: https://<ai-services-resourcename>.services.ai.azure.com
    api_key: <resource-api-key>
    
  4. Cree la conexión:

    az ml connection create -f connection.yml
    
  5. En este punto, la conexión está lista para su uso.

Puede usar Microsoft Foundry Models en los proyectos de Foundry para crear aplicaciones enriquecidas e interactuar o administrar los modelos disponibles. Para usar el servicio Foundry Models en el proyecto, debe crear una conexión al recurso Foundry (anteriormente conocido Azure AI Services).

En el siguiente artículo se explica cómo crear una conexión al recurso Foundry (anteriormente conocido Azure AI Services) para usar foundry Models.

Un diagrama con la arquitectura general de la integración de Azure Marketplace con Foundry Models.

Requisitos previos

Para completar este artículo, necesita lo siguiente:

  • Un proyecto de fundición con un Hub de IA.

  • Instale el CLI de Azure.

  • Identifique la siguiente información:

    • Identificador de suscripción de Azure.

    • Nombre del recurso de Foundry Tools.

    • Id. de recurso de Foundry Tools.

    • Nombre del centro de inteligencia artificial de Azure donde se implementa el proyecto.

    • El grupo de recursos en el que se implementa el recurso de Foundry Tools.

Adición de una conexión

  1. Use la plantilla ai-services-connection-template.bicep para describir la conexión:

    ai-services-connection-template.bicep

    @description('Name of the hub where the connection will be created')
    param hubName string
    
    @description('Name of the connection')
    param name string
    
    @description('Category of the connection')
    param category string = 'AIServices'
    
    @allowed(['AAD', 'ApiKey', 'ManagedIdentity', 'None'])
    param authType string = 'AAD'
    
    @description('The endpoint URI of the connected service')
    param endpointUri string
    
    @description('The resource ID of the connected service')
    param resourceId string = ''
    
    @secure()
    param key string = ''
    
    
    resource connection 'Microsoft.MachineLearningServices/workspaces/connections@2024-04-01-preview' = {
      name: '${hubName}/${name}'
      properties: {
        category: category
        target: endpointUri
        authType: authType
        isSharedToAll: true
        credentials: authType == 'ApiKey' ? {
          key: key
        } : null
        metadata: {
          ApiType: 'Azure'
          ResourceId: resourceId
        }
      }
    }
    
  2. Ejecute la implementación:

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    ENDPOINT_URI="https://<azure-ai-model-inference-name>.services.ai.azure.com"
    RESOURCE_ID="<resource-id>"
    HUB_NAME="<hub-name>"
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-connection-template.bicep \
        --parameters accountName=$ACCOUNT_NAME hubName=$HUB_NAME endpointUri=$ENDPOINT_URI resourceId=$RESOURCE_ID
    

Pasos siguientes