Card de aplicações: Microsoft Copilot no Microsoft Defender

O que é uma aplicação card?

Os cartões de aplicação e plataforma da Microsoft destinam-se a ajudá-lo a compreender como funciona a nossa tecnologia de IA, as escolhas que os proprietários das aplicações podem fazer que influenciam o desempenho e o comportamento das aplicações e a importância de considerar toda a aplicação, incluindo a tecnologia, as pessoas e o ambiente. Os cartões de aplicação são criados para aplicações de IA e os cartões de plataforma são criados para serviços de plataforma de IA. Estes recursos podem suportar o desenvolvimento ou a implementação das suas próprias aplicações e podem ser partilhados com utilizadores ou intervenientes afetados pelas mesmas.

Como parte do seu compromisso com a IA responsável, a Microsoft cumpre seis princípios fundamentais: equidade, fiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. Estes princípios estão incorporados no Standard de IA Responsável, que orienta as equipas na conceção, criação e teste de aplicações de IA. Os cartões de aplicação e plataforma desempenham um papel fundamental na operacionalização destes princípios ao oferecer transparência em torno das capacidades, das utilizações pretendidas e das limitações. Para obter mais informações, os leitores são encorajados a explorar o Relatório de Transparência de IA Responsável da Microsoft e o Código de Conduta, que descrevem como os clientes empresariais e os indivíduos podem interagir com a IA de forma responsável.

Visão Geral

Microsoft Copilot no Microsoft Defender é a integração de Microsoft Security Copilot no portal do Microsoft Defender. É uma aplicação de segurança com tecnologia de IA concebida para ajudar os analistas de segurança a investigar e responder a ameaças de cibersegurança de forma mais eficiente e eficaz. Ao combinar grandes modelos de linguagem com dados e inteligência específicos de segurança, o Copilot no Defender fornece informações contextuais, análise automatizada e recomendações acionáveis diretamente nos fluxos de trabalho de segurança que os analistas utilizam todos os dias.

As equipas do Centro de Operações de Segurança (SOC) enfrentam volumes crescentes de alertas, ataques cada vez mais sofisticados e o desafio da equipa de analistas experientes. O Copilot no Defender aborda estes desafios ao acelerar a investigação de incidentes, ao reduzir o tempo necessário para analisar ameaças complexas e ao permitir que os analistas em todos os níveis de experiência executem tarefas que tradicionalmente exigiam conhecimentos profundos. A aplicação baseia-se em dados das cargas de trabalho que Microsoft Defender monitoriza, incluindo pontos finais, identidades, e-mail, aplicações na cloud e muito mais, para fornecer assistência relevante e contextualizada.

Microsoft Copilot no Microsoft Defender destina-se a clientes empresariais, especificamente analistas de segurança, socorristas de incidentes, caçadores de ameaças e analistas de informações sobre ameaças que utilizam o portal Microsoft Defender para proteger as suas organizações. Para obter mais informações, veja Microsoft Security Copilot no Microsoft Defender.

Principais termos

A tabela seguinte fornece um glossário de termos-chave relacionados com Microsoft Copilot no Microsoft Defender.

Termo Descrição
Busca avançada Uma ferramenta de investigação de ameaças baseada em consultas no Microsoft Defender que utiliza Linguagem de Consulta Kusto (KQL) para permitir que as equipas de segurança procurem proativamente ameaças, atividades suspeitas e indicadores de compromisso entre dados de segurança. O Copilot no Defender pode gerar consultas KQL a partir de pedidos de linguagem natural.
Resposta guiada Um conjunto gerado por IA de ações recomendadas fornecidas pelo Copilot no Defender para ajudar os analistas de segurança a fazer a triagem, conter, investigar e remediar incidentes de segurança. Cada recomendação inclui uma lógica que explica por que motivo a ação é sugerida.
Incidente Uma coleção de alertas correlacionados e dados associados que, em conjunto, representam um potencial ou confirmado ataque de segurança. O Copilot no Defender pode resumir incidentes, realçar detalhes principais e sugerir ações de resposta adequadas.
KQL (Linguagem de Consulta Kusto) Uma linguagem de consulta só de leitura utilizada na investigação avançada dentro de Microsoft Defender e Microsoft Sentinel. O Copilot no Defender pode traduzir questões de linguagem natural em consultas KQL, reduzindo a barreira técnica para os caçadores de ameaças.
Modelo de linguagem grande (LLM) Um tipo de modelo de IA preparado em grandes conjuntos de dados de texto que podem compreender e gerar linguagem natural. O Copilot no Defender utiliza modelos de linguagem de grandes dimensões para analisar dados de segurança, gerar resumos e fornecer recomendações.
MITRE ATT&CK Uma base de dados de conhecimento globalmente reconhecida de tácticas e técnicas adversários baseadas em observações do mundo real. O Copilot no Defender mapeia as descobertas da análise de scripts e da deteção de ameaças para técnicas MITRE ATT&CK para ajudar os analistas a compreender o comportamento do atacante.
Agrupamento vermelho Uma prática de teste de segurança na qual uma equipa simula ataques do mundo real contra um produto para identificar modos de falha, vulnerabilidades e cenários fora da utilização pretendida. A Microsoft realizou uma equipa vermelha no Copilot no Defender antes do lançamento.
Unidades de Computação de Segurança (SCUs) As unidades de capacidade aprovisionadas que medem e gerem os recursos de computação consumidos pelo Microsoft Security Copilot. O acesso ao Copilot no Defender requer capacidade SCU aprovisionada.
Security Copilot A plataforma de Segurança da Microsoft que reúne IA e conhecimentos humanos para ajudar as equipas de segurança a responder a ameaças de forma mais rápida e eficaz. O Copilot no Defender é a experiência incorporada de Security Copilot no portal do Microsoft Defender.

Principais funcionalidades ou capacidades

As principais funcionalidades e capacidades na tabela seguinte descrevem o que Microsoft Copilot no Microsoft Defender foi concebido para fazer e como funciona em todas as tarefas suportadas.

Recurso Descrição
Resumo de incidentes Copilot gera automaticamente um resumo conciso quando um analista abre um incidente, incluindo o ataque linha do tempo, ativos afetados, indicadores de compromisso e nomes de ator de ameaças. Isto ajuda os analistas a compreender imediatamente o âmbito e a gravidade de um ataque sem rever manualmente cada alerta. Os resumos podem conter até 100 alertas correlacionados e são colocados em cache até uma semana sem custos de computação adicionais se o incidente não tiver sido alterado.

Para obter mais informações, veja Resumir um incidente com Microsoft Copilot no Microsoft Defender.
Respostas orientadas O Copilot fornece recomendações contextuais geradas por IA para ajudar os analistas a responder a incidentes. As recomendações estão organizadas em quatro categorias: triagem (classificar o incidente), contenção (impedir a propagação do ataque), investigação (passos de análise adicionais) e remediação (ações de resposta específicas para entidades afetadas). Os administradores também podem carregar diretrizes de resposta específicas da organização para adaptar as recomendações ao respetivo ambiente.

Para obter mais informações, consulte Utilizar respostas guiadas com o Copilot no Microsoft Defender.
Script e análise da linha de comandos O Copilot analisa scripts potencialmente maliciosos ou ocultados, como linhas de comandos do PowerShell, e fornece uma explicação em linguagem simples sobre o que o script faz, se é malicioso e que MITRE ATT&técnicas CK que utiliza. Isto reduz a necessidade de ferramentas de análise externa e permite que analistas com diferentes níveis de experiência avaliem ameaças rapidamente.

Para obter mais informações, veja Análise de scripts com Microsoft Copilot no Microsoft Defender.
Análise de arquivo O Copilot avalia ficheiros suspeitos ao gerar um resumo que inclui informações de deteção, certificados de ficheiro relacionados, uma lista de chamadas à API e cadeias encontradas no ficheiro. Os resultados da análise são gerados automaticamente quando um analista abre uma página de ficheiro, ajudando a acelerar a investigação de ficheiros potencialmente maliciosos.

Para obter mais informações, veja Análise de ficheiros com Microsoft Copilot no Microsoft Defender.
Resumo do dispositivo O Copilot gera um resumo da postura de segurança de um dispositivo, incluindo o status de capacidades de proteção, como a redução da superfície de ataque e a proteção contra adulteração, qualquer atividade invulgar do utilizador, uma lista de software vulnerável, definições de firewall e informações de Microsoft Intune relevantes. Isto permite que os analistas avaliem rapidamente se um dispositivo está em risco.

Para obter mais informações, consulte Resumo do dispositivo com Microsoft Copilot no Microsoft Defender.
Resumo de identidade O Copilot fornece uma descrição geral contextual de uma identidade de utilizador, incluindo data de criação da conta, nível de criticidade, alterações de função e função, comportamentos e padrões de início de sessão, métodos de autenticação, riscos de Microsoft Entra ID e informações de contacto. Isto ajuda os analistas a avaliar rapidamente se uma conta de utilizador está comprometida ou em risco.

Para obter mais informações, veja Resumir informações de identidade com Microsoft Copilot no Microsoft Defender.
Geração de relatórios de incidentes O Copilot compila todas as informações de incidentes, incluindo ações de gestão, carimbos de data/hora, analistas envolvidos, raciocínio de classificação, ações de investigação e remediação, e recomendações de seguimento, num relatório estruturado que pode ser exportado para PDF ou publicado num registo de atividades de incidentes.

Para obter mais informações, veja Criar um relatório de incidentes com Microsoft Copilot no Microsoft Defender.
Consulta de linguagem natural assistente Copilot converte questões de investigação de ameaças de linguagem natural em consultas KQL prontas a executar para utilização na investigação avançada. Isto reduz o tempo e os conhecimentos necessários para escrever consultas de investigação de raiz, permitindo que os analistas se concentrem na investigação de ameaças em vez da sintaxe de consulta.

Para obter mais informações, veja Build KQL queries for hunting using Microsoft Copilot in Microsoft Defender (Criar consultas KQL para investigação com Microsoft Copilot no Microsoft Defender).
Informação sobre ameaças O Agente de Informação sobre Ameaças recolhe e sintetiza de forma autónoma dados de informações sobre ameaças relevantes, fornecendo briefings personalizados que incluem a atividade mais recente do ator de ameaças, informações de vulnerabilidade e detalhes de exploração ativa. Os briefings podem ser agendados ou gerados a pedido e são personalizáveis por profundidade de informações, período de análise, região e indústria.

Para obter mais informações, veja Agente de Informação sobre Ameaças.
Triagem de Alertas de Segurança O Agente de Triagem de Alertas de Segurança é um agente autónomo que ajuda as equipas de segurança a fazer a triagem de alertas em escala. Aplica o raciocínio dinâmico e orientado pela IA entre provas para fornecer veredictos claros para cargas de trabalho de segurança suportadas, incluindo phishing, identidade e alertas na cloud. Ao identificar quais os alertas que representam ataques reais e que são falsos positivos, o agente permite que os analistas se concentrem na investigação de ameaças reais, com um raciocínio passo a passo transparente para suportar todas as decisões.

Para obter mais informações, veja Security Alert Triage Agent in Microsoft Defender (Agente de Triagem de Alertas de Segurança no Microsoft Defender).
Deteção de ameaças dinâmicas O Agente de Deteção de Ameaças Dinâmicas é um serviço de back-end sempre ligado e adaptável que utiliza IA para identificar lacunas na deteção tradicional baseada em regras ao correlacionar alertas, eventos, anomalias e informações sobre ameaças em ambientes Microsoft Defender e Microsoft Sentinel. Quando é detetada uma ameaça oculta, o agente gera um alerta dinâmico com contexto completo, explicações de linguagem natural, técnicas mitre att mapeadas&CK e passos de remediação personalizados.

Para obter mais informações, veja Agente de Deteção de Ameaças Dinâmicas no Microsoft Defender.
Análise de informações sobre ameaças A Copilot consolida e resume as informações sobre ameaças para que as equipas de segurança possam priorizar ameaças com base nos níveis de exposição, compreender os atores de ameaças que podem visar a sua indústria e manter-se informado sobre as vulnerabilidades e campanhas emergentes.

Para obter mais informações, veja Informações sobre Ameaças do Microsoft Defender.
Experiência de Chat do Defender (pré-visualização) Uma conversa aberta assistente que permite conversações de linguagem natural diretamente no portal do Microsoft Defender. Fornece deteção de contexto de página, permitindo que os analistas façam perguntas de seguimento sobre o incidente, alerta, dispositivo ou entidade atual sem fornecer IDs ou nomes. O chat mantém o histórico de conversações completo, pode apresentar planos de investigação passo a passo para pedidos complexos e suporta a exportação de respostas para análise adicional. Esta experiência de pré-visualização ainda não está disponível na Austrália ou na Nova Zelândia.

Para obter mais informações, consulte Microsoft Security Copilot e Conversar em Microsoft Defender.

Utilizações pretendidas

Microsoft Copilot no Microsoft Defender podem ser utilizados em vários cenários em vários setores. Alguns exemplos de casos de utilização incluem:

  • Acelerar a investigação e resposta a incidentes: Um analista de segurança de uma organização de serviços financeiros recebe um alerta de incidente de alta gravidade que envolve vários alertas correlacionados entre pontos finais e e-mail. Utilizando Copilot, o analista recebe imediatamente um resumo do ataque linha do tempo, ativos afetados e indicadores de compromisso. Em seguida, o Copilot fornece recomendações de resposta orientada para conter a ameaça e remediar os sistemas afetados, reduzindo o tempo de investigação de horas para minutos e permitindo uma contenção mais rápida do ataque.

  • Triaging user-reported phishing at scale: Uma grande empresa recebe centenas de e-mails de phishing comunicados pelo utilizador todos os dias. O Agente de Triagem de Phishing avalia de forma autónoma cada submissão, classifica-a como uma ameaça genuína ou um falso positivo e fornece uma lógica de linguagem natural para a sua determinação. Os analistas do SOC podem então concentrar o seu tempo em ameaças confirmadas em vez de rever manualmente todos os e-mails reportados, melhorando a velocidade de resposta e a eficiência dos analistas.

  • Permitir que os analistas júnior realizem a investigação avançada de ameaças: A equipa SOC de uma agência governamental inclui analistas que ainda não são proficientes na KQL. Com a consulta de linguagem natural assistente, estes analistas podem descrever o que procuram em inglês simples e Copilot gera a consulta KQL adequada. Isto permite que membros de equipa menos experientes participem na investigação proativa de ameaças ao lado de analistas seniores, alargando a cobertura da equipa sem sobrecarga adicional de formação.

  • Analisar scripts ocultados e ficheiros suspeitos: Durante uma investigação sobre um possível ataque de ransomware, um analista encontra um script do PowerShell ocultado. Em vez de depender de ferramentas de análise externas ou esperar por um membro da equipa sénior, o analista utiliza a capacidade de análise de scripts da Copilot para receber uma explicação em linguagem simples do comportamento do script, do seu nível de risco e das técnicas mitre att&CK que utiliza. Isto reduz significativamente o tempo para determinar se o script é malicioso e que passos de remediação são necessários.

  • Mantenha-se à frente de ameaças emergentes com briefings de informações: Uma equipa de segurança de uma organização de cuidados de saúde quer manter-se informada sobre atores de ameaças e vulnerabilidades relevantes para a sua indústria. O Agente de Informação sobre Ameaças fornece briefings agendados e personalizados que resumem a mais recente atividade de ator de ameaças, tendências de exploração e divulgações de vulnerabilidades, permitindo à equipa ajustar proativamente as suas defesas e priorizar os esforços de aplicação de patches.

  • Simplificar a documentação e os relatórios de incidentes: Depois de resolver um incidente complexo com vários alertas, uma equipa de segurança tem de produzir um relatório de incidente detalhado para conformidade e revisão executiva. O Copilot compila automaticamente o incidente linha do tempo, as ações de resposta, os analistas envolvidos e o raciocínio de classificação num relatório estruturado que pode ser exportado para PDF, poupando tempo significativo à documentação aos analistas.

  • Avaliar a identidade e o risco do dispositivo durante as investigações: Ao investigar um incidente de início de sessão suspeito, um analista utiliza o Copilot para gerar um resumo de identidade que realça a função do utilizador, alterações recentes de função, padrões de início de sessão e sinalizadores de risco de Microsoft Entra ID. O analista também gera um resumo do dispositivo para o ponto final envolvido, revelando software vulnerável e atividade invulgar. Em conjunto, estes resumos permitem ao analista determinar rapidamente o âmbito do compromisso e tomar medidas específicas.

Modelos e dados de preparação

Microsoft Defender expande Microsoft Security Copilot, tirando partido dos agentes existentes e dos modelos de IA subjacentes. Como tal, depende de qualquer configuração externa fornecida por estes. Por exemplo, escolha de modelo para Microsoft Security Copilot para a experiência de pedido de linguagem natural incorporada. Para saber mais, veja Microsoft Security Copilot FAQ sobre IA Responsável.

Os dados do cliente não são partilhados com o OpenAI nem utilizados para preparar modelos de base Azure OpenAI. Os administradores têm controlo total sobre a forma como os dados da sua organização são utilizados, incluindo se devem permitir que a Microsoft capture dados para validação de produtos ou melhoria do modelo de IA de segurança. As preferências de partilha de dados podem ser configuradas em qualquer altura e os dados dos clientes são armazenados na localização geográfica selecionada durante a configuração. Para obter informações detalhadas sobre os controlos de processamento, armazenamento, retenção e partilha de dados, veja Privacidade e segurança de dados no Microsoft Security Copilot.

Desempenho

Microsoft Copilot no Microsoft Defender foi concebido para efetuar um desempenho fiável numa série de fluxos de trabalho de investigação e resposta de segurança no portal Microsoft Defender. A aplicação funciona em ambientes onde os analistas de segurança interagem com dados de incidentes, alertas, informações sobre ameaças, informações de dispositivos e identidades, metadados de ficheiros e scripts. O Copilot processa entradas baseadas em texto, incluindo pedidos de linguagem natural, conteúdos de scripts e dados de segurança estruturados, e gera saídas baseadas em texto, tais como resumos, recomendações, consultas KQL, relatórios e veredictos de classificação. Não processa nem gera conteúdo de imagem, vídeo ou áudio.

A aplicação foi concebida e avaliada principalmente para utilização em inglês. Os analistas que submeterem pedidos e reverem as saídas geradas por Copilot em inglês podem esperar o nível mais elevado de precisão e coerência. Embora o portal Microsoft Defender suporte vários idiomas para a sua interface mais ampla, as capacidades de geração e compreensão de linguagem natural da Copilot são otimizadas para inglês. A utilização de idiomas não suportados pode resultar numa precisão reduzida ou em saídas menos relevantes e os utilizadores devem ter cuidado ao operar fora do âmbito de idioma pretendido.

O Copilot no Defender tem um melhor desempenho quando os analistas interagem com o mesmo nos fluxos de trabalho de investigação pretendidos, como abrir uma página de incidentes para receber um resumo, pedir respostas guiadas durante a triagem ou introduzir uma questão de linguagem natural na consulta de investigação avançada assistente. A aplicação tira partido dos dados das cargas de trabalho que Microsoft Defender monitoriza, incluindo Microsoft Defender para Ponto de Extremidade, Microsoft Defender para Identidade, Microsoft Defender para Office 365, Microsoft Defender para Aplicativos de Nuvem e Gerenciamento de Vulnerabilidades do Microsoft Defender, bem como Microsoft Sentinel dados quando disponíveis. A qualidade e a integridade das saídas da Copilot dependem da disponibilidade e riqueza dos dados no ambiente do cliente.

O desempenho também é influenciado pela complexidade da entrada. Os pedidos simples e claramente confinados tendem a produzir resultados mais precisos e acionáveis, enquanto os pedidos ambíguos, extremamente longos ou fora do domínio de segurança podem produzir saídas menos relevantes. Para agentes autónomos, como o Agente de Triagem de Phishing e o Agente de Deteção de Ameaças Dinâmicas, o desempenho é medido através da precisão de classificação e precisão de deteção, com melhoria contínua impulsionada pelo feedback dos analistas e refinamento contínuo do modelo.

Limitações

Compreender Microsoft Copilot nas limitações do Microsoft Defender é crucial para determinar se é utilizado dentro de limites seguros e eficazes. Embora incentivemos os clientes a tirar partido das Microsoft Copilot no Microsoft Defender nas suas aplicações ou soluções inovadoras, é importante ter em atenção que Microsoft Copilot no Microsoft Defender não foram concebidos para todos os cenários possíveis. Incentivamos os utilizadores a referirem-se ao Código de Conduta dos Serviços de IA empresarial da Microsoft (para organizações) ou à secção Código de Conduta no Contrato de Serviços Microsoft (para indivíduos), bem como às seguintes considerações ao escolher um caso de utilização:

  • Âmbito do domínio de segurança: Microsoft Copilot no Microsoft Defender foi concebido para gerar respostas relacionadas com o domínio de segurança, tais como investigação de incidentes, informações sobre ameaças e investigação de ameaças. Solicitações fora do escopo de segurança podem resultar em respostas que não são precisas nem abrangentes. Os utilizadores devem garantir que a utilização do Copilot está limitada a tarefas relacionadas com segurança no portal Microsoft Defender.

  • Otimização do idioma em inglês: O Copilot no Defender foi desenvolvido e avaliado principalmente em inglês. A utilização de idiomas não suportados pode resultar numa precisão reduzida, saídas menos relevantes ou respostas incompletas. Os utilizadores devem ter cuidado ao operar fora do âmbito de idioma pretendido e verificar cuidadosamente as saídas nesses cenários.

  • Precisão de geração de código: O Copilot no Defender pode gerar código ou incluir fragmentos de código, como consultas KQL, nas respetivas respostas. Embora estas saídas pareçam válidas, podem nem sempre estar semanticamente ou sintaticamente corretas, ou podem não refletir com precisão a intenção do analista. Os utilizadores devem sempre rever, testar e validar qualquer código gerado antes de o utilizarem na produção, seguindo as mesmas precauções que fariam com qualquer código que não tenham criado de forma independente: testes rigorosos, análise de IP e verificação de vulnerabilidades de segurança.

  • Restrições de comprimento do pedido: O sistema pode não ser capaz de processar pedidos muito longos, como aqueles que contêm centenas de milhares de carateres. Os analistas devem manter os pedidos concisos e bem confinados para obter os melhores resultados.

  • Latência e capacidade de resposta: Gerar e verificar respostas pode demorar algum tempo, até vários minutos em alguns casos, e requer uma capacidade de computação significativa. A utilização pode estar sujeita a limitação de capacidade, especialmente durante períodos de elevada procura. Os utilizadores devem planear potenciais atrasos quando dependerem do Copilot para tarefas sensíveis ao tempo.

  • Precisão de saída gerada pela IA: Como qualquer tecnologia com tecnologia de IA, o Copilot no Defender não acerta tudo. As saídas podem ser imprecisas, incompletas, tendenciosas ou desalinhadas com a intenção do analista. Isto pode ocorrer devido à ambiguidade nas entradas, limitações dos modelos subjacentes ou lacunas nos dados disponíveis. Os utilizadores devem sempre rever os conteúdos gerados pela Copilot antes de agirem no mesmo e utilizarem as ferramentas de feedback incorporadas para comunicar saídas imprecisas ou problemáticas.

  • Correspondências com código público: O Copilot no Defender gera código probabilisticamente e, embora a probabilidade de produzir código que corresponda ao código publicamente disponível seja baixa, é possível. Os utilizadores devem tomar precauções para garantir a adequação e a originalidade, incluindo testes rigorosos, análise de IP e verificação de vulnerabilidades de segurança.

  • Não substitui o julgamento humano: O Copilot no Defender foi concebido para ajudar, não substituir, analistas de segurança. Todas as recomendações, resumos e classificações devem ser revistas por um analista qualificado antes de serem tomadas medidas, nomeadamente para decisões consequentes, como contenção, remediação ou escalamento.

Avaliações

As avaliações de desempenho e segurança avaliam se as aplicações de IA estão a funcionar de forma fiável e segura ao examinar fatores como a fundamentação, a relevância e a coerência, ao mesmo tempo que identificam os riscos de gerar conteúdo prejudicial. As seguintes avaliações foram realizadas com componentes de segurança já em vigor, que também estão descritos em Componentes de segurança e mitigações.

Avaliações de desempenho e qualidade

As avaliações de desempenho para aplicações de IA são essenciais para melhorar a fiabilidade em aplicações do mundo real. Métricas como a terra, a relevância e a coerência ajudam a avaliar a precisão e consistência das saídas geradas por IA, para que sejam factualmente suportadas em cenários de conteúdo fundamentado, contextualmente apropriados e logicamente estruturados. Para Microsoft Copilot no Microsoft Defender, realizamos avaliações de desempenho para as seguintes métricas, que estão disponíveis através do Microsoft Foundry:

  • Terra firme
  • Coerência
  • Fluência
  • Semelhança

Métodos de avaliação de desempenho e qualidade

As avaliações de desempenho para Microsoft Copilot no Microsoft Defender foram realizadas em saídas baseadas em texto geradas ao longo de toda a gama de capacidades suportadas, incluindo resumo de incidentes, respostas guiadas, análise de scripts e ficheiros, resumo de identidades e dispositivos, geração de consultas KQL e briefings de informações sobre ameaças. As avaliações utilizaram avaliadores automatizados assistidos por IA disponíveis através do Microsoft Foundry, aplicados a conjuntos de dados organizados de cenários realistas de investigação de segurança retirados de entradas sintéticas e representativas do mundo real.

A groundedness mede se as saídas geradas são factualmente suportadas pelos dados de origem disponíveis no ambiente, tais como alertas de incidentes, sinais de informações sobre ameaças e telemetria de segurança. Um resultado ideal é aquele em que todas as afirmações na saída são rastreáveis e consistentes com os dados subjacentes. Um resultado inferior aotim contém afirmações fabricadas, alucinadas ou inconsistentes com os dados de origem fornecidos ao modelo.

A coerência mede a estrutura lógica, a clareza e a consistência interna das saídas geradas. Um resultado ideal é bem organizado, fácil de seguir e livre de contradições. Um resultado inferior aotim é desacontíguo, contraditório ou difícil para um analista interpretar e agir.

A fluência mede a correção gramatical e a qualidade linguística do texto gerado. Um resultado ideal lê naturalmente e está livre de erros gramaticais ou construções embaraçosas. Um resultado inferior aotim contém erros gramaticais ou expressões que impedem a legibilidade ou a compreensão dos analistas.

A semelhança mede o grau de alinhamento entre as saídas geradas e as saídas de referência produzidas por especialistas do assunto para as mesmas entradas. Um resultado ideal reflete de perto a intenção, a cobertura e a precisão da referência de especialistas. Um resultado inferior aotimidade diverge significativamente da resposta esperada no conteúdo, no âmbito ou na precisão.

Cada métrica foi classificada numa escala numérica com juízes assistidos por IA calibrados contra anotações humanas. As avaliações foram executadas iterativamente em atualizações de conjuntos de dados para controlar a qualidade ao longo do tempo e suportar a melhoria contínua.

Avaliações de risco e segurança

A avaliação de potenciais riscos associados ao conteúdo gerado pela IA é essencial para salvaguardar os riscos de conteúdo com diferentes graus de gravidade. Isto inclui avaliar a predisposição de uma aplicação de IA para gerar conteúdo prejudicial ou testar vulnerabilidades para ataques de jailbreak. Para Microsoft Copilot no Microsoft Defender, realizamos avaliações de risco e segurança para as seguintes métricas disponíveis através do Microsoft Foundry:

  • Ódio e injustiça
  • Sexual
  • Violência
  • Auto-dano
  • Material protegido
  • Jailbreak indireto
  • Jailbreak direto
  • Vulnerabilidade do código
  • Atributos não encalhadas

Métodos de avaliação de risco e segurança

As avaliações de risco e segurança para Microsoft Copilot no Microsoft Defender foram realizadas com conjuntos de dados adversos e classificadores assistidos por IA disponíveis através do Microsoft Foundry, aplicados a entradas e saídas baseadas em texto. Foram criados pedidos adversos para simular tentativas de provocar conteúdo prejudicial, violador de políticas ou off-topic em várias categorias de risco. As saídas foram classificadas para a presença desses conteúdos através de classificadores preparados e calibrados para as normas de segurança da Microsoft.

O ódio e a injustiça avaliam se as saídas contêm conteúdo depreciativo, discriminatório ou prejudicial destinado a indivíduos ou grupos com base em características protegidas. Um resultado ideal não contém tal conteúdo. Um resultado inferior aotim inclui linguagem que diminui, estereotipa ou caracteriza injustamente indivíduos ou grupos.

Sexual avalia se as saídas contêm conteúdo sexualmente explícito ou inapropriado. Um resultado ideal não contém tal conteúdo. Um resultado inferior aotim inclui uma linguagem de natureza sexual inadequada para um contexto profissional de operações de segurança.

A violência avalia se as saídas contêm conteúdo queglorifa, instrui ou encoraja atos violentos. Um resultado ideal não contém tal conteúdo. Um resultado inferior aotim inclui linguagem que promove ou facilita danos a indivíduos ou grupos.

O auto-dano avalia se as saídas contêm conteúdo que promove, instrui ou encoraja comportamentos auto-prejudiciais. Um resultado ideal não contém tal conteúdo. Um resultado inferior aotim inclui linguagem que pode contribuir para o auto-dano.

O material protegido avalia se as saídas reproduzem texto, código ou outro texto protegido protegido ou de forma a criar exposição legal. Um resultado ideal não reproduz material protegido. Um resultado inferior aotim contém a reprodução literal de conteúdo protegido por terceiros.

A jailbreak indireta avalia a resiliência da aplicação para pedir ataques de injeção incorporados em conteúdo externo, como dados obtidos a partir de e-mails, documentos ou alertas de segurança, que tentam redirecionar o comportamento do modelo. Um resultado ideal é aquele em que o modelo não segue as instruções injetadas. Um resultado inferior aotim é aquele em que as instruções injetadas alteram as saídas ou o comportamento do modelo.

A jailbreak direta avalia a resiliência da aplicação para tentativas explícitas dos utilizadores de ignorar restrições de segurança, substituir instruções de sistema ou provocar conteúdo fora do âmbito pretendido da aplicação. Um resultado ideal é aquele em que o modelo recusa ou processa adequadamente tais tentativas. Um resultado inferior aotim é aquele em que o modelo está em conformidade com as instruções concebidas para contornar os controlos de segurança.

A vulnerabilidade do código avalia se as saídas de código geradas, como consultas KQL ou fragmentos de script, contêm vulnerabilidades de segurança que podem expor o analista ou o respetivo ambiente ao risco. Um resultado ideal é o código que está livre de vulnerabilidades exploráveis. Um resultado inferior aotim contém código com padrões de vulnerabilidade conhecidos, como riscos de injeção ou construções inseguras.

Os atributos não encalhados avaliam se as saídas atribuem características, comportamentos ou atributos a entidades, como utilizadores, dispositivos ou atores de ameaças, que não são suportados pelos dados subjacentes. Um resultado ideal atribui apenas o que é evidenciado nos dados de segurança disponíveis. Um resultado inferior aotimal fabrica ou infere atributos sem base probatória, o que pode levar um analista a conclusões incorretas.

Cada métrica foi classificada com classificadores assistidos por IA, com classificações calibradas contra anotações humanas. As avaliações foram realizadas iterativamente e informaram a conceção de mitigações de segurança descritas em Componentes de segurança e mitigações.

Dados de avaliação para qualidade e segurança

Os nossos dados de avaliação são personalizados para avaliar o desempenho da aplicação de IA em áreas-chave de segurança e qualidade, simulando cenários e riscos do mundo real. Começamos por identificar aspectos de avaliação relevantes de preocupação com base na investigação multidisciplinar e no contributo de especialistas. Estas preocupações traduzem-se em objetivos de avaliação direcionados e formulação de guias de métricas de avaliação. Por motivos de segurança, criamos pedidos adversos para obter respostas indesejáveis ou de casos edge, que são pontuadas com anotadores assistidos por IA preparados para avaliar o alinhamento com as normas de segurança da Microsoft. Para qualidade, criamos pedidos baseados em rubricas relevantes para cenários, incluindo a avaliação de aplicações e agentes de geração aumentada de obtenção (RAG). Os conjuntos de dados são organizados a partir de diversas origens, incluindo conjuntos de dados sintéticos e públicos, para simular cenários de utilizador do mundo real. Com os conjuntos de dados organizados, ambas as avaliações são submetidas a refinamento iterativo e alinhamento humano para melhorar a eficácia e fiabilidade das métricas. Esta metodologia constitui a base de avaliações repetíveis e rigorosas que refletem a forma como os clientes utilizam as avaliações para criar uma IA melhor e mais segura.

Avaliações personalizadas

Microsoft Copilot em Microsoft Defender foram submetidos a testes e avaliações personalizados substanciais antes do lançamento. Isto incluía agrupamento vermelho abrangente, uma prática na qual as equipas dedicadas testam rigorosamente o produto para identificar modos de falha e cenários que podem fazer com que a aplicação produza saídas fora das utilizações pretendidas ou que não estão alinhadas com os Princípios de Microsoft AI. Os exercícios de agrupamento vermelho foram concebidos para avaliar a resiliência da aplicação contra entradas adversas, tentativas de provocar conteúdo prejudicial ou fora do tópico e cenários de casos edge que podem comprometer a segurança ou a fiabilidade.

Além do agrupamento vermelho, a Microsoft realizou testes iterativos em toda a gama de capacidades do Copilot no Defender, incluindo resumo de incidentes, respostas orientadas, análise de scripts, análise de ficheiros, resumo de identidades e dispositivos, geração de consultas KQL e briefings de informações sobre ameaças. Estas avaliações avaliaram a precisão, a terra, a relevância e a coerência das saídas geradas em modalidades baseadas em texto (linguagem natural e código KQL). Um resultado ideal é um resultado factualmente preciso, baseado nos dados de segurança disponíveis, relevantes para a consulta do analista e claramente estruturados. Um resultado inferior aotim seria um resultado factualmente incorreto, não suportado pelos dados, irrelevante para a intenção do analista ou difícil de seguir.

Um programa de acesso antecipado apenas para convites forneceu um mecanismo de avaliação adicional, permitindo que os utilizadores do mundo real interajam com a aplicação e forneçam feedback estruturado antes da disponibilidade geral. Os comentários dos utilizadores, recolhidos através dos botões "Fora do Destino", "Relatório" e "Confirmar" em todas as respostas do Copilot, são um sinal de avaliação contínuo que a Microsoft utiliza para identificar problemas de qualidade e impulsionar a melhoria contínua. Para agentes autónomos, como o Agente de Triagem de Phishing, a avaliação também inclui métricas de precisão de classificação e comentários de analistas sobre decisões de triagem para refinar continuamente o desempenho do agente.

Componentes de segurança e mitigações

  • Agrupamento vermelho e testes adversos: Antes do lançamento, a Microsoft realizou uma extensa equipa vermelha para identificar os modos e condições de falha nas quais a aplicação poderia gerar saídas fora do âmbito pretendido. As equipas dedicadas simularam entradas adversas, tentativas de jailbreak e cenários de casos edge para avaliar a resiliência da aplicação e informar a conceção de controlos de segurança.

  • Design humano-no-ciclo: O Copilot no Defender mantém os humanos no centro de todos os fluxos de trabalho. Todas as saídas geradas, incluindo resumos, recomendações, classificações e código, são apresentadas aos analistas para análise antes de qualquer ação ser tomada. Este design garante que o julgamento humano é o ponto de decisão final para todas as atividades de operações de segurança.

  • Sistemas de filtragem e segurança de conteúdos: Um sistema de segurança de várias camadas foi concebido para mitigar a geração de conteúdos prejudiciais e evitar a utilização indevida. Isto inclui anotação de conteúdo prejudicial, classificadores de conteúdo e salvaguardas incorporadas que filtram entradas e saídas para conteúdo externo, prejudicial ou inadequado.

  • Monitorização operacional: A Microsoft monitoriza continuamente o desempenho operacional do Copilot no Defender para detetar anomalias, desempenho degradado e potencial utilização indevida. Esta monitorização permite uma identificação rápida e resolução de problemas que podem afetar a qualidade ou a segurança da aplicação.

  • Mecanismo de feedback do utilizador: Cada resposta copilot inclui controlos de feedback, especificamente os botões "Fora do destino", "Relatório" e "Confirmar", que permitem aos analistas sinalizar saídas imprecisas, incompletas ou censuráveis. Este feedback é enviado diretamente para a Microsoft e é utilizado para melhorar a qualidade e a segurança da aplicação ao longo do tempo.

  • Imposição de limites de âmbito: O Copilot no Defender foi concebido para responder apenas a pedidos relacionados com o domínio de segurança. Prompts que estão fora do âmbito das operações de segurança, como pedidos de conhecimentos gerais não relacionados ou tarefas não relacionadas com segurança, são processadas com proteções adequadas para reduzir o risco de gerar conteúdo externo ou enganador.

  • Acesso baseado em funções e permissões: O acesso ao Copilot no Defender é regido por controlos de acesso baseados em funções. Os utilizadores têm de ter acesso aprovisionado a Microsoft Security Copilot e as funcionalidades e agentes específicos necessitam de permissões adicionais, tais como Leitor de Segurança, Administrador de Segurança ou funções de Microsoft Entra específicas. Isto limita a exposição a pessoal autorizado e impõe o princípio do menor privilégio.

  • Raciocínio transparente para agentes autónomos: Para capacidades agentes, como o Agente de Triagem de Phishing, a aplicação fornece uma lógica transparente para os respetivos veredictos de classificação em linguagem natural, detalhando o raciocínio e as provas subjacentes às conclusões. Também está disponível uma representação visual do processo de raciocínio, permitindo que os analistas compreendam e verifiquem o processo de tomada de decisão do agente.

  • Ciclo de comentários dos analistas para IA agente: Os analistas podem fornecer feedback sobre classificações de agentes autónomos, como decisões de triagem de phishing. Ao longo do tempo, este feedback ajuda a refinar o comportamento do agente para refletir melhor o contexto organizacional, reduzir os falsos positivos e melhorar a precisão da classificação.

  • Conformidade com a Lei de IA da UE: A Microsoft está empenhada em cumprir a Lei de IA da UE. A aplicação é desenvolvida de acordo com a Standard de IA Responsável da Microsoft, que explica as propostas regulamentares, incluindo a Lei de IA da UE. Para obter mais informações, veja Conformidade da Microsoft com a Lei de IA da UE.

Melhores práticas para implementar e adotar Microsoft Copilot no Microsoft Defender

A IA responsável é um compromisso partilhado entre a Microsoft e os seus clientes. Embora a Microsoft crie aplicações de IA com segurança, equidade e transparência no centro, os clientes desempenham um papel fundamental na implementação e utilização destas tecnologias de forma responsável nos seus próprios contextos. Para apoiar esta parceria, oferecemos as seguintes melhores práticas para implementadores e utilizadores finais para ajudar os clientes a implementar a IA responsável de forma eficaz.

Os implementadores e os utilizadores finais devem:

  • Tenha cuidado e avalie os resultados ao utilizar Microsoft Copilot no Microsoft Defender para decisões consequentes ou em domínios confidenciais: as decisões consequentes são aquelas que podem ter um impacto legal ou significativo no acesso de uma pessoa à educação, ao emprego, às plataformas financeiras, aos benefícios governamentais, aos cuidados de saúde, à habitação, aos seguros, às plataformas legais ou que possam resultar em danos físicos, psicológicos ou financeiros. Domínios confidenciais, como plataformas financeiras, cuidados de saúde e habitação, requerem cuidados específicos devido ao potencial de impacto desproporcionado em diferentes grupos de pessoas. Ao utilizar a IA para decisões nestas áreas, certifique-se de que os intervenientes afetados conseguem compreender como as decisões são tomadas, tomar decisões de recurso e atualizar quaisquer dados de entrada relevantes.

  • Avaliar considerações legais e regulamentares: Os clientes têm de avaliar potenciais obrigações legais e regulamentares específicas ao utilizarem quaisquer plataformas e soluções de IA, que podem não ser adequadas para utilização em todos os setores ou cenários. Além disso, as plataformas ou soluções de IA não foram concebidas para e não podem ser utilizadas de forma proibida nos termos de serviço aplicáveis e códigos de conduta relevantes.

Os utilizadores finais devem:

  • Exerça a supervisão humana quando apropriado: A supervisão humana é uma salvaguarda importante ao interagir com aplicações de IA. Embora melhoremos continuamente as nossas aplicações de IA, a IA ainda pode cometer erros. As saídas geradas podem ser imprecisas, incompletas, tendenciosas, desalinhadas ou irrelevantes para os objetivos pretendidos. Isto pode acontecer devido a várias razões, como ambiguidade nas entradas ou limitações dos modelos subjacentes. Como tal, os utilizadores devem rever as respostas geradas por Microsoft Copilot no Microsoft Defender e verificar se correspondem às suas expetativas e requisitos.

  • Tenha em atenção o risco de dependência excessiva: A dependência excessiva da IA ocorre quando os utilizadores aceitam saídas de IA incorretas ou incompletas, principalmente porque os erros nas saídas de IA podem ser difíceis de detetar. Para os utilizadores finais, a sobre-confiança pode resultar numa diminuição da produtividade, perda de confiança, abandono de aplicações, perda financeira, danos psicológicos ou danos físicos. Os analistas de segurança devem tratar as saídas da Copilot como um ponto de partida para a investigação, não como uma determinação final, e devem verificar de forma independente as conclusões críticas antes de tomar medidas consequentes.

  • Tenha cuidado ao conceber IA agente em domínios confidenciais: Os utilizadores devem ter cuidado ao conceber e/ou implementar aplicações de IA agente em domínios confidenciais em que as ações do agente são irreversíveis ou altamente consequentes. Devem também ser tomadas precauções adicionais ao criar IA agente autónoma, conforme descrito mais detalhadamente no Código de Conduta dos Serviços de IA empresarial da Microsoft (para organizações) ou na secção Código de Conduta do Contrato de Serviços Microsoft (para indivíduos).

  • Forneça comentários para melhorar a qualidade do Copilot: Quando uma resposta for imprecisa, incompleta ou pouco clara, utilize os botões "Fora do destino" e "Relatório" para sinalizar uma saída problemática. Quando as respostas forem úteis e precisas, utilize o botão "Confirmar". Estes controlos de feedback são apresentados na parte inferior de cada resposta copilot e ajudam a Microsoft a melhorar continuamente o desempenho da aplicação.

  • Utilize pedidos claros e específicos: Para obter os melhores resultados, submeta pedidos concisos, com contexto e relacionados com o domínio de segurança. Por exemplo, em vez de uma vaga pergunta como "Fale-me de ameaças", pergunte "Resumir os mais recentes atores de ameaças direcionados para a indústria da saúde nos últimos 30 dias". Os pedidos específicos ajudam o Copilot a gerar resultados mais precisos e acionáveis.

  • Monitorizar o desfasamento de desempenho: Se observar um declínio na qualidade das saídas da Copilot ao longo do tempo, comunique o problema com as ferramentas de feedback. Os comentários consistentes ajudam a Microsoft a detetar e resolver o desfasamento de desempenho na base de utilizadores.

Os implementadores devem:

  • Garanta o aprovisionamento de acesso adequado e a atribuição de funções: Antes de implementar o Copilot no Defender, certifique-se de que os utilizadores têm acesso a Microsoft Security Copilot com capacidade de Unidades de Computação de Segurança suficiente. Atribua permissões baseadas em funções com o princípio de menor privilégio para que os analistas, administradores e agentes tenham apenas o acesso necessário para as suas responsabilidades. Para capacidades agentes, como o Agente de Triagem de Phishing e o Agente de Informação sobre Ameaças, verifique se as funções e os pré-requisitos necessários Microsoft Entra são cumpridos antes de ativar estas funcionalidades.

  • Carregar diretrizes de resposta específicas da organização: Os administradores podem carregar diretrizes de resposta personalizadas que o Copilot utiliza para adaptar as recomendações de resposta orientada às políticas e procedimentos da organização. Isto ajuda a garantir que as recomendações da Copilot estão alinhadas com a postura de segurança e os requisitos operacionais da organização.

  • Configure as definições de resumo de incidentes adequadamente: O resumo automático de incidentes da Copilot pode ser configurado para executar "Sempre", "Com base no nível de gravidade" ou "Apenas a pedido". Os implementadores devem selecionar a definição que se alinha com o fluxo de trabalho do SOC e o orçamento de computação para equilibrar a capacidade de resposta com o consumo de recursos.

  • Teste as capacidades do Copilot em todo o seu ambiente: Antes de ativar amplamente o Copilot, teste as principais capacidades, como o resumo de incidentes, as respostas orientadas, a análise de scripts e a geração de consultas KQL com dados e cenários realistas do seu ambiente. Confirme que as saídas são precisas, relevantes e acionáveis para as suas cargas de trabalho e origens de dados específicas.

  • Monitorizar e rever a atividade do agente autónomo: Para obter capacidades agenteísticas, como o Agente de Triagem de Phishing e o Agente de Deteção de Ameaças Dinâmicas, implemente a monitorização inicial para rever as classificações e os alertas dos agentes. Certifique-se de que os analistas estão a rever as determinações autónomas e a fornecer feedback, especialmente durante o período de implementação inicial, para calibrar o agente para o contexto da sua organização.

  • Planear a capacidade de computação e a latência: A geração de respostas pode demorar vários minutos e requer capacidade de GPU. Os implementadores devem planear a latência potencial durante períodos de elevada procura e comunicar os tempos de resposta esperados aos analistas para que possam planear os seus fluxos de trabalho em conformidade.

Saiba mais sobre Microsoft Copilot no Microsoft Defender

Para obter orientações adicionais ou para saber mais sobre a utilização responsável de Microsoft Copilot no Microsoft Defender, recomendamos que reveja a seguinte documentação:

Saiba mais sobre a IA responsável