はじめに
AI システムを対象とする攻撃の種類と、それらを保護するために用意できるセキュリティコントロールについて学習しました。 ただし、脆弱性が存在することを知り、攻撃者が行う前にそれらを見つける方法を知ることは、2 つの異なるスキルです。 そこで、AI セキュリティ テストが登場します。
AI セキュリティ テスト (特に AI レッド チーミング) は、悪用される前に脆弱性を検出するために敵対的な手法を使用して AI システムを調査するプロセスです。 これは責任ある AI 開発ライフサイクルで必要なプラクティスであり、計画と実行方法に関係する従来の侵入テストとは異なる方法で動作します。
このモジュールでは、AI レッド チーミングとは何か、従来のセキュリティ テストと異なる理由、実際に使用される AI レッド チーミングの 3 つのカテゴリ、組織内の LLM または AI 対応アプリケーションの赤いチーミング演習を計画する方法について説明します。
学習の目的
このモジュールを終了すると、次のことが可能になります。
- AI レッド チーミングとは何か、および従来のセキュリティ レッド チーミングとどのように異なるかについて説明する
- AI レッド チーミングの 3 つのカテゴリと、それぞれが必要とするスキルを特定する
- チーム構成とテスト手法を含む AI レッド チーミング 演習を計画する
- 手動テストを補完する自動レッドチームツールについて説明する
前提条件
このモジュールから最高の学習エクスペリエンスを得るには、次の知識と経験が必要です。
- 基本的なセキュリティの概念 (認証、アクセス制御、暗号化など)
- AI の基本的な概念 (モデル、トレーニング、推論など)
- 「AI セキュリティの基礎」モジュールで説明されている AI 攻撃の種類
- モジュール AI セキュリティ コントロールで説明されている AI セキュリティ コントロール