アプリケーション カード: Microsoft DefenderでのMicrosoft Copilot

アプリケーションのカードとは

Microsoft のアプリケーションカードとプラットフォーム カードは、AI テクノロジのしくみ、アプリケーション所有者がアプリケーションのパフォーマンスと動作に影響を与える選択肢、テクノロジ、ユーザー、環境を含むアプリケーション全体を考慮することの重要性を理解するのに役立つものです。 アプリケーション カードは AI アプリケーション用に作成され、プラットフォーム カードは AI プラットフォーム サービス用に作成されます。 これらのリソースは、独自のアプリケーションの開発またはデプロイをサポートでき、影響を受けるユーザーや利害関係者と共有できます。

責任ある AI へのコミットメントの一環として、Microsoft は、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任という 6 つのコア 原則に準拠しています。 これらの原則は責任ある AI Standardに組み込まれており、AI アプリケーションの設計、構築、テストの各チームをガイドします。 アプリケーションカードとプラットフォーム カードは、機能、意図された用途、制限事項に関する透明性を提供することで、これらの原則を運用する上で重要な役割を果たします。 さらに詳しい分析情報を得るために、Microsoft の 責任ある AI 透明性レポート行動規範を調べるようお勧めします。これは、企業のお客様と個人が責任を持って AI に関与する方法を概説しています。

概要

Microsoft DefenderのMicrosoft Copilotは、Microsoft Defender ポータル内のMicrosoft Security Copilotの統合です。 これは、セキュリティ アナリストがより効率的かつ効果的にサイバーセキュリティの脅威を調査して対応できるように設計された AI を利用したセキュリティ アプリケーションです。 大きな言語モデルとセキュリティ固有のデータとインテリジェンスを組み合わせることで、Defender の Copilot は、アナリストが毎日使用するセキュリティ ワークフロー内で、コンテキスト分析情報、自動分析、実用的な推奨事項を直接提供します。

セキュリティ オペレーション センター (SOC) チームは、アラートの量の増加、ますます高度な攻撃、経験豊富なアナリストのスタッフ配置の課題に直面しています。 Defender の Copilot は、インシデント調査を加速し、複雑な脅威の分析に必要な時間を短縮し、従来は深い専門知識を必要とするタスクをすべてのエクスペリエンス レベルのアナリストが実行できるようにすることで、これらの課題に対処します。 アプリケーションは、エンドポイント、ID、電子メール、クラウド アプリケーションなど、Microsoft Defender監視するワークロードのデータを引き出して、関連するコンテキスト化された支援を提供します。

Microsoft DefenderのMicrosoft Copilotは、エンタープライズのお客様、特に、Microsoft Defender ポータルを使用して組織を保護するセキュリティ アナリスト、インシデント レスポンダー、脅威ハンター、脅威インテリジェンス アナリストを対象としています。 詳細については、「Microsoft DefenderのMicrosoft Security Copilot」を参照してください。

重要な用語

次の表に、Microsoft DefenderのMicrosoft Copilotに関連する主な用語の用語集を示します。

用語 説明
高度な追求 Kusto 照会言語 (KQL) を使用してセキュリティ チームが脅威、疑わしいアクティビティ、セキュリティ データ全体の侵害のインジケーターを事前に検索できるようにする、Microsoft Defenderのクエリベースの脅威ハンティング ツール。 Defender の Copilot は、自然言語要求から KQL クエリを生成できます。
ガイド付き応答 セキュリティ アナリストがセキュリティ インシデントのトリアージ、包含、調査、修復を行うのに役立つ、Defender の Copilot によって提供される、AI によって生成された推奨アクションのセット。 各推奨事項には、アクションが推奨される理由を説明する根拠が含まれています。
インシデント 潜在的または確認されたセキュリティ攻撃を表す相関アラートと関連データのコレクション。 Defender の Copilot は、インシデントの要約、重要な詳細の強調表示、適切な対応アクションの提案を行うことができます。
KQL (Kusto 照会言語) Microsoft DefenderとMicrosoft Sentinel内の高度なハンティングで使用される読み取り専用クエリ言語。 Defender の Copilot は、自然言語の質問を KQL クエリに変換し、脅威ハンターの技術的障壁を減らすことができます。
大規模言語モデル (LLM) 自然言語を理解して生成できるテキストの大規模なデータセットに対してトレーニングされた AI モデルの一種。 Defender の Copilot では、大規模な言語モデルを使用してセキュリティ データを分析し、概要を生成し、推奨事項を提供します。
MITRE ATT&CK 現実世界の観測に基づく敵対的な戦術と手法の世界的に認識されたサポート情報。 Defender の Copilot は、スクリプト分析と脅威検出からの結果を MITRE ATT&CK 手法にマップして、アナリストが攻撃者の行動を理解するのに役立ちます。
赤いチーミング チームが製品に対する実際の攻撃をシミュレートして、意図した使用外の障害モード、脆弱性、シナリオを特定するセキュリティ テストプラクティス。 Microsoft では、リリース前に Defender の Copilot で赤いチーミングを行いました。
セキュリティ コンピューティング ユニット (SCU) Microsoft Security Copilotによって消費されるコンピューティング リソースを測定および管理するプロビジョニングされた容量ユニット。 Defender で Copilot にアクセスするには、プロビジョニングされた SCU 容量が必要です。
Security Copilot セキュリティ チームが脅威に迅速かつ効果的に対応できるように、AI と人間の専門知識を組み合わせる Microsoft セキュリティ プラットフォーム。 Defender の Copilot は、Microsoft Defender ポータル内のSecurity Copilotの埋め込みエクスペリエンスです。

主な機能

次の表の主な機能は、Microsoft Defenderで実行するように設計されているMicrosoft Copilotと、それがサポートされているタスク全体でどのように実行されるかを示しています。

機能 説明
インシデントの概要作成 Copilot は、アナリストがインシデントを開いたときに、攻撃タイムライン、影響を受ける資産、侵害のインジケーター、脅威アクター名など、簡潔な概要を自動的に生成します。 これにより、アナリストは、各アラートを手動で確認することなく、攻撃の範囲と重大度をすぐに理解できます。 サマリーには最大 100 個の相関アラートを含めることができます。インシデントが変更されていない場合は、追加のコンピューティング コストなしで最大 1 週間キャッシュされます。

詳細については、「Microsoft DefenderでMicrosoft Copilotを使用してインシデントを要約する」を参照してください。
ガイド付き応答 Copilot は、アナリストがインシデントに対応するのに役立つ、コンテキストに基づく AI によって生成される推奨事項を提供します。 推奨事項は、トリアージ (インシデントの分類)、封じ込め (攻撃の拡散を停止する)、調査 (詳細な分析手順)、修復 (影響を受けるエンティティに対する特定の応答アクション) の 4 つのカテゴリに分類されます。 管理者は、organization固有の応答ガイドラインをアップロードして、環境に合わせて推奨事項を調整することもできます。

詳細については、「Microsoft Defenderで Copilot でガイド付き応答を使用する」を参照してください。
スクリプトとコマンド ライン分析 Copilot は、PowerShell コマンド ラインなど、悪意のあるスクリプトや難読化される可能性のあるスクリプトを分析し、スクリプトの実行内容、悪意があるかどうか、および使用する CK 手法&MITRE ATT について、プレーンな言語で説明します。 これにより、外部分析ツールの必要性が減り、さまざまなレベルの経験を持つアナリストが脅威を迅速に評価できるようになります。

詳細については、「Microsoft DefenderでのMicrosoft Copilotを使用したスクリプト分析」を参照してください。
ファイルの分析 Copilot は、検出情報、関連するファイル証明書、API 呼び出しの一覧、およびファイル内の文字列を含む概要を生成することで、疑わしいファイルを評価します。 分析結果は、アナリストがファイル ページを開いたときに自動的に生成され、悪意のある可能性のあるファイルの調査を迅速化するのに役立ちます。

詳細については、「Microsoft DefenderでのMicrosoft Copilotを使用したファイル分析」を参照してください。
デバイスの概要 Copilot は、攻撃面の縮小や改ざん防止などの保護機能の状態、異常なユーザー アクティビティ、脆弱なソフトウェア、ファイアウォール設定、関連するMicrosoft Intune情報の一覧など、デバイスのセキュリティ体制の概要を生成します。 これにより、アナリストはデバイスが危険にさらされているかどうかを迅速に評価できます。

詳細については、「Microsoft DefenderのMicrosoft Copilotを使用したデバイスの概要」を参照してください。
ID の要約 Copilot では、アカウントの作成日、重要度レベル、ロールとロールの変更、サインインの動作とパターン、認証方法、Microsoft Entra IDからのリスク、連絡先情報など、ユーザー ID のコンテキストの概要が提供されます。 これにより、アナリストは、ユーザー アカウントが侵害されているか危険にさらされているかを迅速に評価できます。

詳細については、「Microsoft DefenderのMicrosoft Copilotを使用して ID 情報を集計する」を参照してください。
インシデント レポートの生成 Copilot は、管理アクション、タイムスタンプ、関連するアナリスト、分類推論、調査と修復アクション、フォローアップの推奨事項など、すべてのインシデント情報を、PDF にエクスポートしたり、インシデント アクティビティ ログに投稿したりできる構造化されたレポートにコンパイルします。

詳細については、「Microsoft DefenderでMicrosoft Copilotを使用してインシデント レポートを作成する」を参照してください。
自然言語クエリ アシスタント Copilot は、高度なハンティングで使用するために、自然言語の脅威ハンティングの質問をすぐに実行できる KQL クエリに変換します。 これにより、ハンティング クエリをゼロから記述するために必要な時間と専門知識が短縮され、アナリストはクエリ構文ではなく脅威調査に集中できます。

詳細については、「Microsoft DefenderでMicrosoft Copilotを使用してハンティングするための KQL クエリを構築する」を参照してください。
脅威インテリジェンスブリーフィング 脅威インテリジェンス ブリーフィング エージェントは、関連する脅威インテリジェンス データを自律的に収集して合成し、最新の脅威アクター アクティビティ、脆弱性情報、アクティブな悪用の詳細を含むカスタマイズされたブリーフィングを提供します。 ブリーフィングは、オンデマンドでスケジュールまたは生成することができ、分析情報の深さ、ルックバック期間、地域、業界によってカスタマイズできます。

詳細については、「脅威インテリジェンス ブリーフィング エージェント」を参照してください。
セキュリティ アラートトリアージ セキュリティ アラート トリアージ エージェントは、セキュリティ チームが大規模にアラートをトリアージするのに役立つ自律エージェントです。 これは、AI 主導の動的推論を証拠全体に適用して、フィッシング、ID、クラウド アラートなど、サポートされているセキュリティ ワークロードに対して明確な判定を提供します。 どのアラートが実際の攻撃を表し、どのアラートが誤検知であるかを特定することで、アナリストは、すべての決定をサポートする透過的で段階的な推論を使用して、実際の脅威の調査に集中できます。

詳細については、「Microsoft Defenderのセキュリティ アラート トリアージ エージェント」を参照してください。
動的脅威検出 動的脅威検出エージェントは、アラート、イベント、異常、脅威インテリジェンスをMicrosoft Defender環境とMicrosoft Sentinel環境間で関連付けることで、AI を使用して従来のルールベースの検出のギャップを特定する、常時オンのアダプティブ バックエンド サービスです。 非表示の脅威が検出されると、エージェントは、完全なコンテキスト、自然言語の説明、マップされた MITRE ATT&CK 手法、および調整された修復手順を含む動的アラートを生成します。

詳細については、「Microsoft Defenderの動的脅威検出エージェント」を参照してください。
脅威インテリジェンス分析 Copilot は脅威インテリジェンスを統合して要約します。これにより、セキュリティ チームは、公開レベルに基づいて脅威の優先順位を付け、業界を対象とする可能性のある脅威アクターを理解し、新たな脆弱性やキャンペーンについて常に情報を得ることができます。

詳細については、「Microsoft Defender 脅威インテリジェンス」を参照してください。
Defender チャット エクスペリエンス (プレビュー) Microsoft Defender ポータル内で自然言語の会話を直接行える、オープン プロンプト チャット アシスタント。 これにより、ページ コンテキスト認識が提供され、アナリストは ID や名前を指定せずに、現在のインシデント、アラート、デバイス、またはエンティティに関するフォローアップの質問をすることができます。 チャットは完全な会話履歴を保持し、複雑な要求の詳細な調査計画を提示でき、さらに分析するための応答のエクスポートをサポートします。 このプレビュー エクスペリエンスは、オーストラリアまたはニュージーランドではまだ利用できません。

詳細については、「Microsoft DefenderでのMicrosoft Security Copilotとチャット」を参照してください。

目的に合った用途

Microsoft DefenderのMicrosoft Copilotは、さまざまな業界の複数のシナリオで使用できます。 ユース ケースの例を次に示します。

  • インシデントの調査と対応の加速:金融サービス organizationのセキュリティ アナリストは、エンドポイントと電子メール間で複数の相関アラートを含む重大度の高いインシデント アラートを受け取ります。 アナリストは Copilot を使用して、攻撃タイムライン、影響を受ける資産、侵害のインジケーターの概要をすぐに受け取ります。 その後、Copilot は、脅威を封じ込め、影響を受けるシステムを修復するためのガイド付き対応の推奨事項を提供し、調査時間を数時間から数分に短縮し、攻撃をより迅速に封じ込めることができます。

  • ユーザーから報告されたフィッシングを大規模にトリアージする: 大企業は、毎日何百ものユーザーから報告されたフィッシングメールを受け取ります。 フィッシングトリアージエージェントは、各提出物を自律的に評価し、本物の脅威または誤検知として分類し、その決定のための自然言語の根拠を提供します。 SOC アナリストは、報告されたすべての電子メールを手動で確認するのではなく、確認された脅威に時間を集中でき、応答速度とアナリストの効率の両方が向上します。

  • ジュニア アナリストが高度な脅威ハンティングを実行できるようにする: 政府機関の SOC チームには、KQL にまだ熟練していないアナリストが含まれています。 これらのアナリストは、自然言語クエリ アシスタントを使用して、探しているものをプレーンな英語で記述でき、Copilot は適切な KQL クエリを生成します。 これにより、経験の少ないチーム メンバーがシニア アナリストと共にプロアクティブな脅威ハンティングに参加できるようになり、トレーニングオーバーヘッドを増やすことなくチームのカバレッジを広げることができます。

  • 難読化されたスクリプトと疑わしいファイルの分析: ランサムウェア攻撃の可能性に関する調査中に、アナリストは難読化された PowerShell スクリプトを検出します。 アナリストは、外部分析ツールに依存したり、シニア チーム メンバーを待ったりするのではなく、Copilot のスクリプト分析機能を使用して、スクリプトの動作、そのリスク レベル、および使用する MITRE ATT&CK 手法のプレーンな説明を受け取ります。 これにより、スクリプトが悪意があるかどうか、および必要な修復手順を判断する時間が大幅に短縮されます。

  • インテリジェンス ブリーフィングで新たな脅威を先取りする:医療organizationのセキュリティ チームは、業界に関連する脅威アクターと脆弱性について常に情報を得たいと考えています。 脅威インテリジェンスブリーフィングエージェントは、最新の脅威アクターアクティビティ、悪用傾向、脆弱性の開示をまとめたスケジュールされたカスタマイズされたブリーフィングを提供し、チームが積極的に防御を調整し、パッチ適用作業の優先順位を付けることを可能にします。

  • インシデントドキュメントとレポートの合理化: 複雑なマルチアラート インシデントを解決した後、セキュリティ チームはコンプライアンスとエグゼクティブ レビューのための詳細なインシデント レポートを作成する必要があります。 Copilot は、インシデント タイムライン、対応アクション、関係するアナリスト、分類推論を、PDF にエクスポートできる構造化されたレポートに自動的にコンパイルし、アナリストがドキュメントを作成する時間を大幅に節約します。

  • 調査中の ID とデバイスのリスクの評価:不審なサインイン インシデントの調査中に、アナリストは Copilot を使用して、ユーザーのロール、最近のロールの変更、サインイン パターン、およびリスク フラグをMicrosoft Entra IDから強調表示する ID 概要を生成します。 アナリストは、関連するエンドポイントのデバイスの概要も生成し、脆弱なソフトウェアと異常なアクティビティを明らかにします。 これらの概要を組み合わせることで、アナリストは侵害の範囲をすばやく特定し、ターゲットを絞ったアクションを実行できます。

モデルとトレーニング データ

Microsoft Defenderは、既存のエージェントと基になる AI モデルを活用して、Microsoft Security Copilotを拡張します。 そのため、これらは提供される外部構成に依存します。 たとえば、埋め込まれた自然言語プロンプト エクスペリエンスのMicrosoft Security Copilotのモデルの選択などです。 詳細については、「責任ある AI FAQ Microsoft Security Copilot」を参照してください。

顧客データは OpenAI と共有されず、OpenAI 基盤モデルAzureトレーニングに使用されません。 管理者は、Microsoft が製品の検証やセキュリティ AI モデルの改善のためにデータをキャプチャできるようにするかどうかなど、organizationのデータの使用方法を完全に制御できます。 データ共有設定はいつでも構成でき、顧客データはセットアップ中に選択した地理的な場所に格納されます。 データの処理、ストレージ、保持、共有の制御の詳細については、「Microsoft Security Copilotのプライバシーとデータのセキュリティ」を参照してください。

パフォーマンス

Microsoft DefenderのMicrosoft Copilotは、Microsoft Defender ポータル内のセキュリティ調査と対応ワークフローの範囲にわたって確実に実行するように設計されています。 このアプリケーションは、セキュリティ アナリストがインシデント データ、アラート、脅威インテリジェンス、デバイスと ID 情報、ファイル メタデータ、スクリプトと対話する環境で動作します。 Copilot は、自然言語プロンプト、スクリプト コンテンツ、構造化セキュリティ データなどのテキスト ベースの入力を処理し、概要、推奨事項、KQL クエリ、レポート、分類の判定などのテキスト ベースの出力を生成します。 画像、ビデオ、またはオーディオ コンテンツは処理または生成されません。

アプリケーションは、主に英語で使用するために設計および評価されます。 プロンプトを送信し、英語で Copilot によって生成された出力を確認するアナリストは、最高レベルの精度と一貫性を期待できます。 Microsoft Defender ポータルでは、より広範なインターフェイスで複数の言語がサポートされていますが、Copilot の自然言語の理解と生成機能は英語向けに最適化されています。 サポートされていない言語を使用すると、精度が低下したり、関連性の低い出力が生成されたりする可能性があり、ユーザーは意図した言語の範囲外で操作する際に注意する必要があります。

Defender の Copilot は、インシデント ページを開いて概要を受け取る、トリアージ中にガイド付き応答を要求する、高度なハンティング クエリ アシスタントで自然言語の質問を入力するなど、アナリストが目的の調査ワークフロー内で操作するときに最適なパフォーマンスを発揮します。 アプリケーションは、Microsoft Defender for Endpoint、Microsoft Defender for Identity、Microsoft Defenderなど、監視Microsoft Defenderワークロードのデータを活用します。Office 365、Microsoft Defender for Cloud Apps、Microsoft Defender 脆弱性の管理、および使用可能な場合はMicrosoft Sentinelデータ。 Copilot 出力の品質と完全性は、顧客の環境内のデータの可用性と豊富さによって異なります。

パフォーマンスは、入力の複雑さにも影響されます。 シンプルで明確なスコープのプロンプトは、より正確で実用的な結果を生成する傾向があります。一方、あいまい、非常に長い、またはセキュリティ ドメイン外のプロンプトでは、関連性の低い出力が生成される可能性があります。 フィッシングトリアージエージェントや動的脅威検出エージェントなどの自律エージェントの場合、パフォーマンスは分類の精度と検出精度によって測定され、アナリストのフィードバックと進行中のモデルの絞り込みによって継続的な改善が行われます。

制限事項

Microsoft Defenderの制限事項のMicrosoft Copilotを理解することは、安全で効果的な境界内で使用されているかどうかを判断するために重要です。 革新的なソリューションやアプリケーションのMicrosoft DefenderでMicrosoft Copilotを活用することをお勧めしますが、Microsoft DefenderのMicrosoft Copilotは、可能なシナリオごとに設計されたわけではないことに注意してください。 ユーザーは、 Microsoft Enterprise AI Services の行動規範 (組織向け) または Microsoft サービス契約 (個人向け) の [行動規範] セクションと、ユース ケースを選択する際の次の考慮事項を参照することをお勧めします。

  • セキュリティ ドメインスコープ: Microsoft DefenderのMicrosoft Copilotは、インシデント調査、脅威インテリジェンス、脅威ハンティングなど、セキュリティ ドメインに関連する応答を生成するように設計されています。 セキュリティの範囲外でプロンプトを表示すると、正確さと包括的性に欠ける応答が発生する可能性があります。 ユーザーは、Copilot の使用が、Microsoft Defender ポータル内のセキュリティ関連のタスクに限定されていることを確認する必要があります。

  • 英語の最適化: Defender の Copilot は、主に英語で開発および評価されました。 サポートされていない言語を使用すると、精度の低下、関連性の低い出力、または不完全な応答が発生する可能性があります。 ユーザーは、目的の言語スコープの外部で動作する場合は注意を払い、それらのシナリオで出力を慎重に確認する必要があります。

  • コード生成の精度: Defender の Copilot は、コードを生成したり、KQL クエリなどのコード スニペットを応答に含めたりすることがあります。 これらの出力は有効に見えますが、常に意味的または構文的に正しいとは限らない場合や、アナリストの意図を正確に反映していない場合があります。 ユーザーは、生成されたコードを運用環境で使用する前に、常に確認、テスト、検証する必要があります。厳密なテスト、IP スキャン、セキュリティの脆弱性のチェックなど、独自に作成しなかったコードと同じ予防策に従ってください。

  • プロンプトの長さの制約: システムでは、数十万文字を含むプロンプトなど、非常に長いプロンプトを処理できない場合があります。 アナリストは、最良の結果を得るには、プロンプトを簡潔かつ適切な範囲に保つ必要があります。

  • 応答の待機時間と容量: 応答の生成と検証には時間がかかる場合があり、場合によっては数分かかる場合があり、かなりのコンピューティング容量が必要です。 使用量は、特に需要の高い期間中に、容量調整の影響を受ける可能性があります。 時間の影響を受けやすいタスクに Copilot を使用する場合、ユーザーは潜在的な遅延を計画する必要があります。

  • AI によって生成される出力精度: AI を利用するテクノロジと同様に、Defender の Copilot では、すべてが正しいとは言えません。 出力は、アナリストの意図に不正確、不完全、偏り、またはずれがある可能性があります。 これは、入力のあいまいさ、基になるモデルの制限、または使用可能なデータのギャップが原因で発生する可能性があります。 ユーザーは、対処する前に常に Copilot によって生成されたコンテンツを確認し、組み込みのフィードバック ツールを使用して不正確または問題のある出力を報告する必要があります。

  • パブリック コードと一致します。 Defender の Copilot は確率的にコードを生成し、一般公開されているコードと一致するコードを生成する可能性は低くなりますが、可能です。 ユーザーは、厳格なテスト、IP スキャン、セキュリティの脆弱性のチェックなど、適合性と独創性を確保するための予防措置を講じる必要があります。

  • 人間の判断に代わるものではありません: Defender の Copilot は、セキュリティ アナリストを置き換えるのではなく、支援するように設計されています。 すべての推奨事項、概要、分類は、特に包含、修復、エスカレーションなどの結果的な決定のために、アクションを実行する前に、適格なアナリストによってレビューする必要があります。

評価

パフォーマンスと安全性の評価では、有害なコンテンツを生成するリスクを特定しながら、根拠、関連性、一貫性などの要因を調べることで、AI アプリケーションが確実かつ安全に動作しているかどうかを評価します。 次の評価は、安全コンポーネントが既に配置されている状態で行われました。これは、「 安全コンポーネントと軽減策」にも記載されています。

パフォーマンスと品質の評価

AI アプリケーションのパフォーマンス評価は、実際のアプリケーションでの信頼性を向上させるために不可欠です。 根拠、関連性、一貫性などのメトリックは、AI によって生成される出力の正確性と一貫性を評価するのに役立ちます。そのため、基になっているコンテンツ シナリオで事実に基づきサポートされ、コンテキストに応じて適切で、論理的に構造化されます。 Microsoft DefenderのMicrosoft Copilotでは、Microsoft Foundry から入手できる次のメトリックのパフォーマンス評価を行いました。

  • 接地性
  • コヒーレンス
  • 流暢さ
  • 類似

パフォーマンスと品質の評価方法

Microsoft DefenderのMicrosoft Copilotのパフォーマンス評価は、インシデントの要約、ガイド付き応答、スクリプトとファイル分析、ID とデバイスの要約、KQL クエリ生成、脅威インテリジェンスブリーフィングなど、サポートされている機能の全範囲にわたって生成されたテキスト ベースの出力に対して行われました。 評価では、Microsoft Foundry を通じて利用できる AI 支援の自動エバリュエーターが使用され、合成および代表的な現実世界の入力から引き出された現実的なセキュリティ調査シナリオのキュレーションされたデータセットに対して適用されます。

グランドネスは、生成された出力が、インシデント アラート、脅威インテリジェンスシグナル、セキュリティ テレメトリなど、環境内で利用可能なソース データによって事実上サポートされているかどうかを測定します。 理想的な結果は、出力内のすべての要求がトレース可能であり、基になるデータと一致する結果です。 最適でない結果には、モデルに提供されるソース データと共に作成、幻覚、または一貫性のない要求が含まれます。

コヒーレンスは、生成された出力の論理構造、明確さ、および内部整合性を測定します。 理想的な結果は、よく整理され、従いやすく、矛盾のない結果です。 最適でない結果は、不整合、自己矛盾、またはアナリストが解釈して対処するのが困難です。

流暢さは、生成されたテキストの文法上の正確性と言語的品質を測定します。 理想的な結果は自然に読み取られ、文法上のエラーや厄介な構造はありません。 最適でない結果には、読みやすさやアナリストの理解を妨げる文法上の間違いや言い回しが含まれます。

類似性は、生成された出力と、同じ入力について主題の専門家によって生成された参照出力との間のアライメントの程度を測定します。 理想的な結果は、エキスパートリファレンスの意図、カバレッジ、正確さを密接に反映しています。 最適でない結果は、コンテンツ、スコープ、または精度で予想される応答から大幅に分岐します。

各メトリックは、人間の注釈に対して調整された AI 支援の審査員を使用して数値スケールでスコア付けされました。 評価は、データセットの更新プログラム全体で反復的に実行され、時間の経過に伴う品質を追跡し、継続的な改善をサポートしました。

リスクと安全性の評価

AI によって生成されるコンテンツに関連する潜在的なリスクを評価することは、重大度が異なるコンテンツ リスクから保護するために不可欠です。 これには、有害なコンテンツの生成や脱獄攻撃の脆弱性のテストに対する AI アプリケーションの素因の評価が含まれます。 Microsoft DefenderでMicrosoft Copilotするため、Microsoft Foundry で利用できる次のメトリックに対してリスクと安全性の評価を実施しました。

  • 憎しみと不公平さ
  • 性的内容
  • 暴力
  • 自傷行為
  • 保護材料
  • 間接脱獄
  • 直接脱獄
  • コードの脆弱性
  • 固定されていない属性

リスクと安全性の評価方法

Microsoft DefenderのMicrosoft Copilotのリスクと安全性の評価は、Microsoft Foundry を通じて利用できる敵対的データセットと AI 支援分類子を使用して行われ、テキストベースの入力と出力に適用されました。 敵対的なプロンプトは、さまざまなリスク カテゴリにわたって有害、ポリシー違反、またはトピック外のコンテンツを引き出す試みをシミュレートするために作成されました。 出力は、Microsoft の安全基準に合ったトレーニングと調整を行った分類子を使用して、このようなコンテンツの存在についてスコア付けされました。

ヘイトと不公平は、保護された特性に基づいて個人またはグループを対象とする軽蔑的、差別的、または偏見的なコンテンツが出力に含まれているかどうかを評価します。 理想的な結果には、そのようなコンテンツが含まれています。 最適でない結果には、個人やグループを軽蔑、ステレオタイプ、または不当に特徴付ける言語が含まれます。

性的には、出力に性的に露骨なコンテンツまたは不適切なコンテンツが含まれているかどうかを評価します。 理想的な結果には、そのようなコンテンツが含まれています。 最適でない結果には、専門的なセキュリティ運用コンテキストに不適切な性的性質の言語が含まれます。

暴力は、出力に暴力行為を栄光、指示、または奨励するコンテンツが含まれているかどうかを評価します。 理想的な結果には、そのようなコンテンツが含まれています。 最適でない結果には、個人やグループへの害を助長または助長する言語が含まれます。

自傷行為は、自傷行為を促進、指示、または奨励するコンテンツが出力に含まれているかどうかを評価します。 理想的な結果には、そのようなコンテンツが含まれています。 最適でない結果には、自傷行為に貢献する可能性のある言語が含まれます。

保護された素材は、出力が著作権で保護されたテキスト、コード、またはその他の保護されたコンテンツを逐語的に再現するか、法的な露出を生み出す方法で評価します。 理想的な結果は保護された材料を再現しない。 最適でない結果には、サード パーティの保護されたコンテンツの逐語的な再現が含まれます。

間接脱獄は、電子メール、ドキュメント、セキュリティ アラートから取得されたデータなど、モデルの動作をリダイレクトしようとする外部コンテンツに埋め込まれたインジェクション攻撃を促すアプリケーションの回復性を評価します。 理想的な結果は、モデルが挿入された指示に従わない結果です。 最適でない結果は、挿入された命令によってモデルの出力または動作が変更される結果です。

ダイレクト 脱獄は、ユーザーが安全上の制約をバイパスしたり、システム命令をオーバーライドしたり、アプリケーションの意図した範囲外のコンテンツを引き出そうとしたりしようとする、アプリケーションの回復性を評価します。 理想的な結果は、モデルがそのような試行を拒否または適切に処理する結果です。 最適でない結果は、モデルが安全制御を回避するように設計された指示に準拠している結果です。

コードの脆弱性は、生成されたコード出力 (KQL クエリやスクリプト スニペットなど) に、アナリストまたはその環境を危険にさらす可能性のあるセキュリティ脆弱性が含まれているかどうかを評価します。 理想的な結果は、悪用可能な脆弱性のないコードです。 最適でない結果には、インジェクション リスクや安全でないコンストラクトなど、既知の脆弱性パターンを持つコードが含まれます。

固定されていない属性は、基になるデータでサポートされていないエンティティ (ユーザー、デバイス、脅威アクターなど) に、出力が特性、動作、または属性を割り当てるかどうかを評価します。 理想的な結果属性は、使用可能なセキュリティ データで証明された属性のみです。 最適でない結果は、証拠ベースなしで属性を作成または推論し、アナリストが誤った結論を導く可能性があります。

各メトリックは AI 支援分類子を使用してスコア付けされ、スコアは人間の注釈に対して調整されました。 評価は反復的に実施され、「安全コンポーネントと軽減策」で説明されている安全軽減策の設計に関 する情報が提供されました

品質と安全性に関する評価データ

当社の評価データは、安全性と品質の重要な領域全体で AI アプリケーションのパフォーマンスを評価し、実際のシナリオとリスクをシミュレートするためにカスタム構築されています。 我々は、多分野の研究と専門家の意見に基づいて懸念の関連評価の側面を特定することから始めます。 これらの懸念は、対象となる評価目標に変換され、評価メトリックの策定をガイドします。 安全性を確保するために、望ましくない応答やエッジケースの応答を引き出す敵対的なプロンプトを作成し、その後、Microsoft の安全基準との整合性を評価するためにトレーニングされた AI 支援アノテーターを使用してスコア付けされます。 品質を高めるために、取得拡張生成 (RAG) アプリケーションとエージェントの評価など、シナリオに関連するルーブリックベースのプロンプトを作成します。 データセットは、実際のユーザー シナリオをシミュレートするために、合成データセットやパブリック データセットなど、さまざまなソースからキュレーションされます。 キュレーションされたデータセットを使用して、両方の評価で反復的な絞り込みと人間の調整が行われ、メトリックの有効性と信頼性が向上します。 この手法は、顧客が評価をどのように使用してより良く、より安全な AI を構築するかを反映する反復可能で厳格な評価の基礎を形成します。

カスタム評価

Microsoft DefenderのMicrosoft Copilotは、リリース前に大幅なカスタム評価とテストを行いました。 これには包括的な赤いチーミングが含まれていました。これは、専用チームが製品を厳格にテストして、アプリケーションが意図した用途外で出力を生成する可能性がある、またはMicrosoft AI原則と一致しないエラー モードとシナリオを特定するプラクティスです。 赤色のチーミング演習は、敵対的な入力に対するアプリケーションの回復性を評価し、有害またはオフトピックコンテンツを引き出そうとする試み、および安全性や信頼性を損なう可能性のあるエッジケースシナリオを評価するように設計されました。

赤いチーミングに加えて、Microsoft では、インシデントの要約、ガイド付き応答、スクリプト分析、ファイル分析、ID とデバイスの要約、KQL クエリ生成、脅威インテリジェンスブリーフィングなど、Defender 機能の Copilot の全範囲にわたる反復テストを実施しました。 これらの評価では、テキスト ベースのモダリティ (自然言語と KQL コード) 全体で生成された出力の精度、根拠、関連性、一貫性を評価しました。 理想的な結果は、アナリストのクエリに関連し、明確に構造化された、実際に正確で、使用可能なセキュリティ データに基づいている結果です。 最適でない結果は、実際には正しくない、データでサポートされていない、アナリストの意図とは無関係、またはフォローが困難な結果になります。

招待専用の早期アクセス プログラムにより、追加の評価メカニズムが提供され、実際のユーザーがアプリケーションと対話し、一般公開前に構造化されたフィードバックを提供できるようになります。 すべての Copilot 応答の "Off-target"、"Report"、"Confirm" ボタンを通じて収集されたユーザー フィードバックは、Microsoft が品質の問題を特定し、継続的な改善を推進するために使用する継続的な評価シグナルです。 フィッシングトリアージエージェントなどの自律エージェントの場合、評価には、エージェントのパフォーマンスを継続的に改善するためのトリアージの決定に関する分類精度メトリックとアナリストフィードバックも含まれています。

安全コンポーネントと軽減策

  • 赤いチーミングと敵対的なテスト: リリース前に、Microsoft は広範な赤いチーミングを実施し、アプリケーションが目的の範囲外で出力を生成できるエラー モードと条件を特定しました。 専用チームは、敵対的な入力、脱獄の試み、エッジケースのシナリオをシミュレートして、アプリケーションの回復性を評価し、安全制御の設計を通知しました。

  • ヒューマン・イン・ザ・ループ設計: Defender の Copilot は、すべてのワークフローの中心に人間を保持します。 生成されたすべての出力 (概要、推奨事項、分類、コードを含む) は、アクションが実行される前に、アナリストにレビューのために提示されます。 この設計により、人間の判断がすべてのセキュリティ運用アクティビティの最終的な決定ポイントになります。

  • コンテンツ フィルタリングと安全システム: 多層安全システムは、有害なコンテンツの生成を軽減し、誤用を防ぐよう設計されています。 これには、トピック外、有害、またはその他の不適切なコンテンツの入力と出力の両方をスクリーニングする有害なコンテンツ注釈、コンテンツ分類子、組み込みのセーフガードが含まれます。

  • 運用監視: Microsoft は、Defender の Copilot の運用パフォーマンスを継続的に監視して、異常、パフォーマンスの低下、誤用の可能性を検出します。 この監視により、アプリケーションの品質や安全性に影響を与える可能性がある問題を迅速に特定して解決できます。

  • ユーザー フィードバック メカニズム: すべての Copilot 応答には、フィードバック コントロール (特に "Off-target"、"レポート"、"確認" ボタン) が含まれており、アナリストは不正確、不完全、または不快な出力にフラグを設定できます。 このフィードバックは Microsoft に直接送信され、時間の経過と伴うアプリケーションの品質と安全性の向上に使用されます。

  • スコープ境界の適用: Defender の Copilot は、セキュリティ ドメインに関連するプロンプトにのみ応答するように設計されています。 関連のない一般的な知識やセキュリティ以外のタスクの要求など、セキュリティ操作の範囲外のプロンプトは、トピック外または誤解を招くコンテンツを生成するリスクを軽減するために、適切なガードレールで処理されます。

  • ロールベースのアクセスとアクセス許可: Defender での Copilot へのアクセスは、ロールベースのアクセス制御によって管理されます。 ユーザーはMicrosoft Security Copilotへのプロビジョニングされたアクセス権を持っている必要があり、特定の機能とエージェントには、セキュリティ閲覧者、セキュリティ管理者、特定のMicrosoft Entraロールなどの追加のアクセス許可が必要です。 これにより、承認された担当者への露出が制限され、最小特権の原則が適用されます。

  • 自律エージェントの透過的な推論: フィッシングトリアージエージェントなどのエージェント機能の場合、アプリケーションは自然言語での分類判定の透過的な根拠を提供し、結論の背後にある推論と証拠を詳しく説明します。 推論プロセスを視覚的に表現することもできます。これにより、アナリストはエージェントの意思決定プロセスを理解して検証できます。

  • エージェント AI のアナリスト フィードバック ループ: アナリストは、フィッシングトリアージの決定など、自律的なエージェント分類に関するフィードバックを提供できます。 時間の経過とともに、このフィードバックは、組織のコンテキストをより適切に反映し、誤検知を減らし、分類の精度を向上させるために、エージェントの動作を改善するのに役立ちます。

  • EU AI Act コンプライアンス:Microsoft は、EU AI 法の遵守に取り組んでいます。このアプリケーションは、EU AI 法を含む規制の提案を説明する Microsoft の責任ある AI Standardと連携して開発されています。詳細については、MICROSOFT による EU AI 法への準拠に関するページを参照してください。

Microsoft DefenderでのMicrosoft Copilotのデプロイと導入に関するベスト プラクティス

責任ある AI は、Microsoft とその顧客との間で共有されるコミットメントです。 Microsoft は安全性、公平性、透明性を中核に AI アプリケーションを構築していますが、お客様は、これらのテクノロジを独自のコンテキスト内で責任を持ってデプロイおよび使用する上で重要な役割を果たします。 このパートナーシップをサポートするために、デプロイ者とエンド ユーザーが責任ある AI を効果的に実装できるように、次のベスト プラクティスを提供します。

デプロイ担当者とエンド ユーザーは、次の手順を実行する必要があります。

  • Microsoft CopilotをMicrosoft Defenderで使用して、結果的な意思決定や機密性の高い領域で結果を評価する: 結果的な決定は、教育、雇用、金融プラットフォーム、政府の利益、医療、住宅、保険、法的プラットフォームへのアクセスに法的または重大な影響を与える可能性があるものです。物理的、心理的、または経済的損害。 金融プラットフォーム、医療、住宅などの機密性の高い領域では、さまざまなグループの人々に不均衡な影響を与える可能性があるため、特定のケアが必要です。 これらの分野の意思決定に AI を使用する場合は、影響を受けた利害関係者が意思決定の方法を理解し、意思決定をアピールし、関連する入力データを更新できることを確認します。

  • 法的および規制に関する考慮事項を評価する: お客様は、AI プラットフォームとソリューションを使用する際に、潜在的な特定の法的および規制上の義務を評価する必要があります。これは、すべての業界やシナリオでの使用に適していない可能性があります。 さらに、AI プラットフォームまたはソリューションは、対象となるサービス条件および関連する行動規範で禁止されている方法で設計されておらず、使用されない場合があります。

エンド ユーザーは次の手順を実行する必要があります。

  • 適切な場合は、人間の監督を実行します。 人間の監視は、AI アプリケーションと対話するときの重要な保護手段です。 AI アプリケーションを継続的に改善する一方で、AI は間違いを引き続き犯す可能性があります。 生成される出力は、不正確、不完全、バイアス、ずれ、または目的の目標とは無関係である可能性があります。 これは、入力のあいまいさや基になるモデルの制限など、さまざまな理由が原因で発生する可能性があります。 そのため、ユーザーはMicrosoft DefenderのMicrosoft Copilotによって生成された応答を確認し、期待と要件に一致することを確認する必要があります。

  • 過度の依存のリスクに注意してください。 AI への過度の依存は、ユーザーが誤った AI 出力または不完全な AI 出力を受け入れた場合に発生します。これは主に、AI 出力の間違いが検出しにくい可能性があるためです。 エンド ユーザーの場合、過度の依存により、生産性の低下、信頼の喪失、アプリケーションの破棄、金銭的損失、心理的損害、または物理的な損害が発生する可能性があります。 セキュリティ アナリストは、最終的な決定ではなく、調査の出発点として Copilot の出力を扱う必要があり、結果的なアクションを実行する前に、重要な結果を個別に検証する必要があります。

  • 機密性の高いドメインでエージェント AI を設計する場合は、注意が必要です 。エージェント アクションが元に戻せない、または非常に結果的な機密ドメインにエージェント AI アプリケーションを設計またはデプロイする場合は、ユーザーが注意を払う必要があります。 さらに、「 Microsoft Enterprise AI サービス行動規範 (組織向け)」または「Microsoft サービス契約 (個人向け)」の「行動規範」セクションで説明されているように、自律エージェント AI を作成する場合は、追加の予防措置を講じる必要があります。

  • Copilot の品質を向上させるためのフィードバックを提供します。 応答が不正確、不完全、または不明な場合は、"Off-target" ボタンと "Report" ボタンを使用して、問題のある出力にフラグを設定します。 応答が便利で正確な場合は、[確認] ボタンを使用します。 これらのフィードバック コントロールは、すべての Copilot 応答の下部に表示され、Microsoft がアプリケーションのパフォーマンスを継続的に向上させるのに役立ちます。

  • 明確で特定のプロンプトを使用します。 最適な結果を得るには、簡潔でコンテキストが豊富で、セキュリティ ドメインに関連するプロンプトを送信します。 たとえば、"脅威について教えてください" のようなあいまいな質問ではなく、「過去 30 日間の医療業界を対象とする最新の脅威アクターを要約する」と質問します。特定のプロンプトは、Copilot がより正確で実用的な結果を生成するのに役立ちます。

  • パフォーマンスドリフトを監視する: 時間の経過に伴う Copilot 出力の品質の低下が観察された場合は、フィードバック ツールを使用して問題を報告してください。 一貫性のあるフィードバックは、Microsoft がユーザー ベース全体のパフォーマンスドリフトを検出して対処するのに役立ちます。

デプロイ担当者は次の手順を実行する必要があります。

  • 適切なアクセス プロビジョニングとロールの割り当てを確認します。Defender に Copilot をデプロイする前に、十分なセキュリティ コンピューティング ユニット容量を持つMicrosoft Security Copilotへのアクセス権がユーザーにプロビジョニングされていることを確認します。 最小限の特権の原則を使用してロールベースのアクセス許可を割り当て、アナリスト、管理者、エージェントが自分の責任に必要なアクセス権のみを持つようにします。 フィッシングトリアージエージェントや脅威インテリジェンスブリーフィングエージェントなどのエージェント機能の場合は、これらの機能を有効にする前に、必要なMicrosoft Entraロールと前提条件が満たされていることを確認してください。

  • organization固有の応答ガイドラインをアップロードする: 管理者は、Copilot がガイド付き応答の推奨事項をorganizationのポリシーと手順に合わせて調整するために使用するカスタム応答ガイドラインをアップロードできます。 これにより、Copilot の推奨事項がorganizationのセキュリティ体制と運用要件に合わせて調整されます。

  • インシデントの概要設定を適切に構成します。 Copilot のインシデントの自動要約は、"Always"、"重大度レベルに基づく"、または "オンデマンドのみ" を実行するように構成できます。デプロイ担当者は、応答性とリソース使用量のバランスを取るために、SOC ワークフローとコンピューティング予算に合わせた設定を選択する必要があります。

  • 環境全体で Copilot 機能をテストします。 Copilot を広く有効にする前に、実際の環境からの現実的なデータとシナリオを使用して、インシデントの要約、ガイド付き応答、スクリプト分析、KQL クエリ生成などの主要な機能をテストします。 出力が、特定のワークロードとデータ ソースに対して正確で関連性があり、実用的であることを検証します。

  • 自律エージェント アクティビティの監視と確認: フィッシング トリアージ エージェントや動的脅威検出エージェントなどのエージェント機能の場合は、初期監視をデプロイしてエージェントの分類とアラートを確認します。 アナリストが自律的な決定を確認し、特に初期デプロイ期間中にフィードバックを提供して、エージェントをorganizationのコンテキストに合わせて調整していることを確認します。

  • コンピューティング容量と待機時間を計画する: 応答の生成には数分かかる場合があり、GPU 容量が必要です。 デプロイ担当者は、需要の高い期間中に潜在的な待機時間を計画し、予想される応答時間をアナリストに伝え、それに応じてワークフローを計画できるようにする必要があります。

Microsoft DefenderでのMicrosoft Copilotの詳細

その他のガイダンスや、Microsoft DefenderでのMicrosoft Copilotの責任ある使用の詳細については、次のドキュメントを参照することをお勧めします。

責任ある AI の詳細