Dados, privacidade e segurança para Azure Modelos Diretos no Microsoft Foundry

Importante

Traduções não em inglês são fornecidas apenas para conveniência. Consulte a EN-US versão deste documento para obter a versão definitiva.

Este artigo fornece detalhes sobre como os dados fornecidos por você para Azure Modelos Diretos no Microsoft Foundry são processados, usados e armazenados. Azure Modelo Direto significa um modelo de IA designado e implantado como um "Modelo Azure Direto" na Foundry e inclui os modelos Azure OpenAI. Modelos Diretos do Azure armazenam e processam dados para fornecer o serviço e monitorar utilizações que violam os termos do produto aplicáveis. Consulte também Adendo de Proteção de Dados de Produtos e Serviços da Microsoft, que rege o processamento de dados por Modelos Diretos do Azure. A Foundry é um serviço de Azure; aprendo mais sobre as ofertas de conformidade Azure aplicáveis.

Importante

Seus prompts (entradas) e conclusões (saídas), suas incorporações e seus dados de treinamento:

  • NÃO estão disponíveis para outros clientes.
  • NÃO estão disponíveis para o OpenAI ou outros provedores de Modelo Direto Azure.
  • NÃO são usados por Azure provedores de Modelo Direto para melhorar seus modelos ou serviços.
  • NÃO são usados para treinar modelos de base de IA gerativos sem sua permissão ou instrução.
  • Dados do Cliente, Prompts e Conclusões NÃO são usados para melhorar produtos ou serviços da Microsoft ou de terceiros sem sua permissão ou instrução explícita.

Seus Modelos Diretos do Azure ajustados estão disponíveis exclusivamente para seu uso.

A Foundry é um serviço do Azure; a Microsoft hospeda os Modelos Diretos do Azure no ambiente Azure da Microsoft e os Modelos Diretos do Azure NÃO interagem com quaisquer serviços operados por provedores de Modelos Diretos do Azure, por exemplo, OpenAI (como o ChatGPT ou a API OpenAI).

Quais dados o Foundry processa para fornecer Azure Modelos Diretos?

A Foundry processa os seguintes tipos de dados para fornecer Azure Modelos Diretos:

  • Prompts e conteúdo gerado. Quando as solicitações são enviados pelo usuário, o conteúdo é gerado pelo serviço, por meio das conclusões, conclusões de chat, imagens e operações de inserção.
  • Dados carregados. Você pode carregar seus próprios dados para uso com determinados recursos de serviço (por exemplo, ajuste fino, API de assistentes, processamento em lote) usando a API de Arquivos ou o repositório de vetores.
  • Dados para entidades com estado. Quando você usa determinados recursos opcionais de Azure Direct Models and Agents, como a API Responses, o recurso Threads da API Assistants e as conclusões armazenadas, o serviço cria um repositório de dados para persistir o histórico de mensagens e outros conteúdos, de acordo com a forma como você configura o recurso.
  • Dados aumentados incluídos com ou por meio de prompts. Ao usar dados associados a entidades com estado, o serviço recupera dados relevantes de um armazenamento de dados configurado e aumenta o prompt para produzir resultados baseados em seus dados. Os prompts também podem ser aumentados com dados recuperados de uma fonte incluída no prompt em si, como uma URL.
  • Dados de treinamento e validação. Você pode fornecer seus próprios dados de treinamento que consistem em pares de solicitações/conclusões para fins de ajuste fino de um modelo.

Como o Foundry processa dados para fornecer modelos diretos Azure?

O diagrama a seguir ilustra como os dados são processados. Este diagrama aborda vários tipos de processamento:

  1. Como a Fábrica processa suas solicitações por meio de inferência com os Modelos Diretos do Azure para gerar o conteúdo (incluindo quando os dados adicionais de uma fonte de dados designada são inseridos em uma solicitação por meio do OpenAI do Azure nos seus dados, Assistentes ou processamento em lote).
  2. Como o recurso Assistentes armazena dados em conexão com Mensagens, Threads e Execuções.
  3. Como o recurso de API de Respostas armazena dados para persistir o histórico de mensagens.
  4. Como o recurso de processamento em lote processa seus dados enviados.
  5. Como o Foundry cria um modelo ajustado (personalizado) com seus dados carregados.
  6. Como a Fábrica e a equipe da Microsoft analisam solicitações e preenchimentos (texto e imagem) para identificar conteúdo prejudicial e padrões que sugerem o uso do serviço de forma a violar o Código de Conduta ou outros termos de produto aplicáveis.

Diagrama de fluxo de dados para o serviço.

Conforme descrito no diagrama acima, os clientes gerenciados podem solicitar para modificar o monitoramento de abusos.

Gerando conclusões, imagens ou inserções por meio de inferência

Modelos Diretos do Azure (base ou ajustado) implantados em seu recurso do Foundry processam seus prompts de entrada e geram respostas com texto, imagens ou incorporações. Os prompts e as conclusões são avaliados em tempo real quanto a tipos de conteúdo prejudiciais e a geração de conteúdo é filtrada com base em limites configurados. Saiba mais em Visão Geral do Guardrails (anteriormente filtros de conteúdo).

Solicitações e respostas são processadas dentro da geografia especificada pelo cliente (a menos que você esteja usando um tipo de implantação global ou DataZone), mas podem ser processadas entre regiões dentro da mesma geografia para fins operacionais (incluindo gerenciamento de desempenho e capacidade). Veja abaixo informações sobre o local do processamento ao usar um tipo de implantação Global ou DataZone.

Os modelos são sem memória de estado: nenhuma entrada ou resultado é armazenado no modelo. Além disso, solicitações e conclusões não são usados para treinar, treinar novamente ou melhorar os modelos básicos.

Noções básicas sobre o local do processamento para tipos de implantação "Global" e "Zona de dados"

Além das implantações padrão, a Foundry oferece Azure opções de implantação do Modelo Direto rotuladas como "Global" e "DataZone". Para qualquer tipo de deployment marcado como 'Global', os prompts e respostas podem ser processados em qualquer geografia onde o modelo direto Azure relevante seja implantado (saiba mais sobre disponibilidade regional de modelos). Para qualquer tipo de implantação rotulado como 'DataZone', os prompts e as respostas podem ser processados ​​em qualquer região geográfica dentro da zona de dados especificada, conforme definido pela Microsoft. Se você criar uma implantação de DataZone em um recurso da Fábrica localizado nos Estados Unidos, as solicitações e as respostas poderão ser processadas em qualquer lugar dentro dos Estados Unidos. Se você criar uma implantação de DataZone em um recurso do Foundry localizado em um Estado-Membro da União Europeia, os prompts e as respostas poderão ser processados nesse ou em qualquer outro Estado-Membro da União Europeia. Para os tipos de implantação Global e DataZone, qualquer dado armazenado em repouso, como dados enviados, incluindo o armazenamento de dados de monitoramento de abuso criado para implantações Global e DataZone, é armazenado na localização designada pelo cliente. Somente o local do processamento é afetado quando um cliente usa um tipo de implantação global ou o tipo de implantação DataZone nos Azure Direct Models; os compromissos de conformidade e processamento de dados do Azure continuam aplicáveis.

Aumentando os prompts para "fundamentar" os resultados gerados "em seus dados".

O recurso Azure OpenAI "em seus dados" permite que você conecte fontes de dados para basear os resultados gerados com seus dados. Os dados permanecem armazenados na fonte de dados e no local que você designa; Azure OpenAI não cria um armazenamento de dados duplicado. Quando um prompt de usuário é recebido, o serviço recupera dados relevantes da fonte de dados conectada e enriquece o prompt. O modelo processa esse prompt aumentado e o conteúdo gerado é retornado conforme descrito acima. Saiba mais sobre como usar o recurso On Your Data com segurança.

Armazenamento de dados para características dos Modelos Diretos do Azure

Alguns dos recursos de Modelos Diretos do Azure armazenam dados no serviço do Azure. Esses dados são carregados pelo cliente, usando a API de Arquivos ou o repositório de vetores ou são armazenados automaticamente em conexão com determinadas entidades com estado, como a API de Respostas, o recurso Threads da API de Assistentes e conclusões armazenadas. Dados armazenados para esses recursos:

  • É armazenado em repouso no recurso Foundry no locatário Azure do cliente, na mesma geografia que o recurso;
  • É sempre criptografado em repouso com a criptografia AES-256 do Microsoft por padrão, com a opção de usar uma chave gerenciada pelo cliente (determinados recursos de visualização podem não dar suporte a chaves gerenciadas pelo cliente). As chaves gerenciadas pela Microsoft são sempre usadas para garantir a criptografia padrão para todos os dados armazenados.
  • Pode ser excluído pelo cliente a qualquer momento.

Nota

Modelos ou recursos em versão prévia podem não dar suporte a todas as condições acima.

Os dados armazenados podem ser usados com os seguintes recursos ou capacidades do serviço:

  • Criando um modelo personalizado (ajustado finamente). Saiba mais sobre como o ajuste fino funciona. Modelos ajustados estão disponíveis exclusivamente para o cliente cujos dados foram usados para criar o modelo ajustado, são criptografados em repouso (quando não implantados para inferência) e podem ser excluídos pelo cliente a qualquer momento. Os dados de treinamento carregados para ajuste fino não são usados para treinar modelos de base de IA generativos sem sua permissão ou instrução.
  • Processamento em lote. Saiba mais sobre como funciona o processamento em lote. O processamento em lote é um tipo de implantação global; os dados armazenados em repouso permanecem na geografia Azure designada até que a capacidade de processamento fique disponível; o processamento pode ocorrer em qualquer geografia em que o modelo direto Azure relevante seja implantado (saiba mais sobre a disponibilidade de região de modelos).
  • API de respostas. Saiba mais sobre como funciona a API de Respostas . Essa API armazena o histórico de mensagens e outros conteúdos relacionados ao histórico de mensagens. Isso é necessário para conversas e fluxos de trabalho de vários turnos.
  • API de assistentes (versão prévia). Saiba mais sobre como funciona a API de Assistentes. Alguns recursos do Assistente, como Threads, armazenam histórico de mensagens e outros tipos de conteúdo.
  • Conclusões armazenadas (versão prévia). As conclusões armazenadas armazenam pares de entrada e saída dos modelos OpenAI do Azure implantados pelo cliente, como GPT-4o por meio da API de conclusões de chat e exibe os pares no portal Foundry. Isso permite que os clientes criem conjuntos de dados com seus dados de produção, que podem ser usados para avaliar ou ajustar modelos (conforme permitido em Termos de Produto aplicáveis).

Prevenção de abusos

Para reduzir o risco de uso abusivo ou prejudicial, Azure Modelos Diretos inclui recursos de monitoramento de abuso. Para saber mais sobre o monitoramento de abusos, consulte o monitoramento de abusos.

As avaliações de segurança de modelos ajustados avaliam um modelo ajustado para respostas potencialmente prejudiciais usando as métricas de risco e segurança da Azure. Somente a avaliação resultante (implantável ou não implantável) é registrada pelo serviço.

O sistema de monitoramento de abuso do Azure Direct Models foi projetado para detectar e mitigar instâncias de conteúdo recorrente e/ou comportamentos que sugiram o uso do serviço de maneira que possa violar o código de conduta ou outros termos aplicáveis do produto. Conforme descrito aqui, o sistema emprega algoritmos e heurística para detectar indicadores de potencial abuso. Quando esses indicadores são detectados, uma amostra dos prompts e conclusões do cliente pode ser selecionada para revisão. A revisão é realizada por meios automatizados, inclusive por modelos de IA, como LLMs, por padrão, com revisões adicionais por revisores humanos, conforme necessário. Informações detalhadas sobre revisão automatizada e revisão humana estão disponíveis no monitoramento de abuso.

Para revisão automatizada, os prompts e conclusões do cliente não são armazenados pelo sistema ou usados para treinar os modelos de IA ou outros sistemas. O armazenamento de dados de monitoramento de abuso em que as solicitações e os preenchimentos são armazenados para a revisão humana são logicamente separados pelo recurso do cliente (cada solicitação inclui a ID do recurso da Fábrica do cliente). Um repositório de dados separado está localizado em cada geografia onde o Azure Direct Model está disponível. Os prompts e o conteúdo gerado de um cliente são armazenados na geografia do Azure onde o recurso de Foundry do cliente é implantado, dentro do limite de serviço do Azure Direct Models. Revisores humanos que avaliam possíveis abusos podem acessar prompts e dados de conclusão somente quando esses dados já foram sinalizados pelo sistema de monitoramento de abuso ou quando os prompts e conclusões fazem parte de um padrão de uso potencialmente abusivo. Os revisores humanos da Microsoft são funcionários autorizados que acessam os dados por meio de consultas pontuais usando IDs de solicitação, Estações de Trabalho de Acesso Seguro (SAWs) e aprovação de solicitações Just-in-Time (JIT) concedida por gerentes de equipe. Para Modelos Diretos do Azure implantados na Área Econômica Europeia, os funcionários autorizados da Microsoft estão localizados na Área Econômica Europeia.

Se o cliente tiver sido aprovado para monitoramento de abuso modificado (saiba mais no Monitoramento de Abuso),o armazenamento de dados e o processo de revisão humana descritos acima não serão executados. No entanto, a revisão automatizada ainda pode ser realizada, aproveitando algoritmos, incluindo modelos de IA que revisam prompts e conclusões no momento em que são fornecidos ou gerados, conforme aplicável. Se essa revisão automatizada detectar conteúdo potencialmente indicando abusos graves ou recorrentes na assinatura do cliente, o cliente poderá estar sujeito a limitações de acesso, conforme fornecido nos Termos do Produto para Uso Responsável dos Serviços de IA Microsoft. O cliente também pode ser solicitado a concordar em ter o monitoramento de abuso com a revisão humana ativada para reduzir o risco de limitações futuras no acesso (por exemplo, limitação e/ou suspensão da conta ou assinatura em que o abuso foi detectado).

Nota

Recursos de visualização do Azure, incluindo os Modelos Diretos do Azure em visualização, podem empregar diferentes práticas de privacidade, inclusive no que diz respeito ao monitoramento de abuso. As visualizações podem estar sujeitas a termos complementares em: Supplemental Terms of use for Microsoft Azure Previews.

Prevenção da geração de conteúdo prejudicial

Azure Modelos Diretos incluem um sistema projetado para detectar e impedir a saída de conteúdo prejudicial. Para saber mais sobre Guardrails (filtros de conteúdo anteriormente), consulte Guardrails.

Proteções ocorre de forma síncrona enquanto o serviço processa prompts para gerar conteúdo, como descrito acima e aqui. Nenhum prompt ou conteúdo gerado é armazenado nos modelos do classificador de conteúdo, e prompts e saídas não são usados para treinar modelos de base de IA gerativos sem sua permissão ou instrução.

Como um cliente pode verificar se o armazenamento de dados para monitoramento de abuso está desativado?

Há duas maneiras para os clientes, uma vez aprovados para desativar o monitoramento de abuso, verificar se o armazenamento de dados para monitoramento de abuso foi desativado em sua assinatura de Azure aprovada:

  • Usando o portal Azure ou
  • CLI do Azure (ou qualquer API de gerenciamento).

Nota

O valor de "false" para o atributo "ContentLogging" será exibido somente se o armazenamento de dados para monitoramento de abuso estiver desativado. Caso contrário, essa propriedade não aparecerá no portal Azure ou na saída do CLI do Azure.

Pré-requisitos

  1. Conectar-se no Azure
  2. Selecione a Assinatura Azure que hospeda o recurso Foundry.
  3. Navegue até a página Visão geral do recurso Foundry.
  1. Ir para a página visão geral do recurso

  2. Clique em Exibição JSON no canto superior direito, conforme mostrado na imagem abaixo.

    Exibição de status de logging em JSON no portal do Azure.

Haverá um valor na lista de funcionalidades chamado "ContentLogging", que será exibido e definido como FALSE quando o registro em log para monitoramento de abuso estiver desativado.

{ 
    "name":"ContentLogging",
    "value":"false"
}

Para saber mais sobre os compromissos de privacidade e segurança da Microsoft, consulte o Microsoft Trust Center.

Registro de alterações

Data Alterações
3 de outubro de 2025 Expansão do documento para os Modelos Diretos do Azure; separação das seções de monitoramento de abuso e Verificadores de integridade (anteriormente filtros de conteúdo); adição de esclarecimentos sobre o monitoramento de abuso e abusos graves ou recorrentes.
17 de dezembro de 2024 Informações adicionadas sobre processamento e armazenamento de dados em conexão com o novo recurso de conclusões armazenadas; adição de linguagem esclarecendo que os recursos do Azure OpenAI em versão prévia talvez não deem suporte a todas as condições de armazenamento de dados; a designação de 'versão prévia' foi removida para o processamento em Lote.
18 de novembro de 2024 Informações adicionadas sobre o local de processamento de dados para novos tipos de implantação 'Data Zone'. Adicionadas informações sobre a nova revisão por IA de prompts e conclusões como parte da prevenção de abusos e geração de conteúdo prejudicial.
4 de setembro de 2024 Foram adicionadas informações (e revisado o texto existente conforme necessário) sobre o processamento de dados para novos recursos, incluindo Assistants API (versão preliminar), Batch (versão preliminar) e Implantação Global; linguagem revisada relacionada à localização do processamento de dados, de acordo com os princípios de residência de dados do Azure; adição de informações sobre o processamento de dados para avaliações de segurança de modelos ajustados; compromissos esclarecidos relacionados ao uso de prompts e conclusões; revisões secundárias para melhorar a clareza
23 de junho de 2023 Foram adicionadas informações sobre o processamento de dados para o novo recurso do Azure para seus dados; foram removidas informações sobre o monitoramento de abuso, o qual agora está disponível em Serviço OpenAI do Azure monitoramento de abuso. Adição da nota de resumo. Conteúdo atualizado e simplificado e diagramas atualizados para maior clareza. Adicionado registro de alterações

Consulte também