Dados, privacidade e segurança para utilização de modelos através do catálogo de modelos no portal Microsoft Foundry (clássico)

Aplica-se apenas a:Portal Foundry (clássico). Este artigo não está disponível para o novo portal da Foundry. Saiba mais sobre o novo portal.

Nota

Os links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação do Foundry (clássico) que está a ver agora.

Importante

Os itens marcados (pré-visualização) neste artigo encontram-se atualmente em pré-visualização pública. Esta pré-visualização é fornecida sem um acordo de nível de serviço, e não a recomendamos para cargas de trabalho em produção. Certas funcionalidades podem não ser suportadas ou podem ter capacidades limitadas. Para mais informações, consulte Termos de Utilização Suplementares para Microsoft Azure Pré-visualizações.

Este artigo descreve como os dados que fornece são processados, usados e armazenados quando implementa modelos do catálogo de modelos. Consulte também o Adendo de Proteção de Dados Microsoft Produtos e Serviços, que regula o processamento de dados pelos serviços de Azure.

Importante

Para informações sobre IA responsável no Azure OpenAI e Foundry Tools, veja Uso responsável da IA.

Que dados são processados para os modelos implementados no portal Microsoft Foundry?

Quando implementa modelos no Foundry, os seguintes tipos de dados são processados para fornecer o serviço:

  • Instruções e conteúdo gerado. Um utilizador submete um prompt, e o modelo gera conteúdo (output) através das operações que o modelo suporta. Os prompts podem incluir conteúdos adicionados via geração aumentada por recuperação (RAG), metaprompts ou outras funcionalidades incluídas numa aplicação.

  • Dados carregados. Para modelos que suportam ajuste fino, os clientes podem carregar os seus dados para uma base de dados.

Geração de saídas de inferência com computação gerida

A implementação de modelos para computação gerida implementa pesos dos modelos em máquinas virtuais dedicadas e expõe uma API REST para inferência em tempo real. Para saber mais sobre a implementação de modelos do catálogo de modelos para computação gerida, consulte Catálogo e coleções de modelos no portal Foundry.

Geres a infraestrutura destes recursos de computação geridos. Aplicam-se compromissos de dados, privacidade e segurança no Azure. Para saber mais sobre as ofertas de conformidade Azure aplicáveis à Foundry, consulte a página Azure Ofertas de Conformidade.

Embora os contentores para Modelos Vendidos Diretamente por Azure sejam analisados para vulnerabilidades que possam exfiltrar dados, nem todos os modelos disponíveis no catálogo de modelos são digitalizados. Para reduzir o risco de exfiltração de dados, ajude a proteger a sua implementação utilizando redes virtuais. Também use Azure Policy para regular os modelos que os seus utilizadores podem implementar.

Diagrama que mostra o ciclo de vida do serviço da plataforma.

Geração de resultados de inferência como implementação de uma API serverless

Quando implementa um modelo a partir do catálogo de modelos (base ou ajustado) usando implementações de API sem servidor com oferta de pagamento por token em ambiente serverless para inferência, uma API é provisionada. A API dá-lhe acesso ao modelo que o serviço Azure Machine Learning aloja e gere. Saiba mais sobre implementações de APIs serverless no catálogo e coleções de modelos.

O modelo processa os seus prompts de entrada e gera saídas com base na sua funcionalidade, conforme descrito nos detalhes do modelo. A sua utilização do modelo (juntamente com a responsabilidade do fornecedor pelo modelo e pelas suas saídas) está sujeita aos termos da licença do modelo. A Microsoft fornece e gere a infraestrutura de alojamento e o endpoint da API. Os modelos alojados neste cenário de implementação serverless API estão sujeitos a compromissos de dados Azure, privacidade e segurança. Saiba mais sobre as ofertas de conformidade Azure aplicáveis à Foundry.

A Microsoft atua como processador de dados para prompts e saídas enviadas para e geradas por um modelo implementado para APIs sem servidor. A Microsoft não partilha estes prompts e resultados com o fornecedor do modelo. Além disso, a Microsoft não utiliza estes prompts e saídas para treinar ou melhorar modelos da Microsoft, os modelos do fornecedor de modelos ou modelos de terceiros.

Os modelos são sem estado e não armazenam quaisquer prompts ou saídas. Se o filtro de conteúdos estiver ativado, o serviço Segurança de conteúdo de IA do Azure filtra em tempo real prompts e saídas para certas categorias de conteúdos prejudiciais. Saiba mais sobre como Segurança de conteúdo de IA do Azure processa dados.

Os prompts e outputs são processados dentro da geografia especificada durante a implementação, mas podem ser processados entre regiões dentro da geografia para fins operacionais. Os propósitos operacionais incluem a gestão de desempenho e capacidade.

Diagrama que mostra o ciclo de serviço do editor de modelos.

Nota

Como explicado durante o processo de implementação da API serverless, a Microsoft pode partilhar informações de contacto do cliente e detalhes das transações (incluindo o volume de utilização associado à oferta) com o editor do modelo para que este possa contactar os clientes relativamente ao modelo. Saiba mais sobre a informação disponível para publicadores de modelos em Aceder a insights para o mercado comercial da Microsoft no Partner Center.

Ajuste fino de um modelo para implementação de APIs serverless

Se um modelo disponível para implementações de APIs serverless suportar ajuste fino, pode carregar dados para (ou designar dados já existentes) num datastore para afinar finamente o modelo. Depois, criar uma implementação de API serverless para o modelo finamente ajustado. O modelo afinado não pode ser descarregado, mas:

  • Está disponível exclusivamente para o seu uso.
  • Pode usar dupla encriptação em repouso: a encriptação padrão Microsoft AES-256 e uma chave opcional gerida pelo cliente.
  • Podes apagá-lo a qualquer momento.

Os dados de treino carregados para afinação não são utilizados para treinar, retreinar ou melhorar qualquer modelo Microsoft ou não Microsoft, a menos que você direcione essas atividades dentro do serviço.

Processamento de dados para modelos descarregados

Se descarregares um modelo do catálogo de modelos, escolhes onde implantar o modelo. És responsável por como os dados são processados quando usas o modelo.