はじめに
AI セキュリティ制御は、脅威、脆弱性、未承認のアクセスから人工知能システムを保護するために実装される対策とプロトコルです。 従来のセキュリティ制御 (ネットワーク セキュリティ、アクセス管理、暗号化など) は引き続き適用されますが、AI システムには、自然言語インターフェイス、モデルの動作、およびエージェント機能によってもたらされる固有のリスクに対処する、追加の特殊なコントロールが必要です。
このモジュールでは、AI 環境のセキュリティ体制を強化するために AI システムに実装できるセキュリティコントロールの概要を示します。 AI ライブラリのサプライ チェーン セキュリティ、コンテンツ フィルタリング、データ セキュリティ、システム プロンプト設計、接地、アプリケーション セキュリティのベスト プラクティス、継続的な監視など、複数の領域にわたるコントロールについて説明します。
学習の目的
このモジュールを終了すると、次のことが可能になります。
- セキュリティ リスクについてオープンソースの AI ライブラリを評価する
- コンテンツ フィルター機能と、それらを効果的に構成する方法について説明する
- エージェント ID やアクセス制御を含む AI データセキュリティの原則について説明する
- 効果的なメタプロンプト (システム プロンプト) をセキュリティ コントロールとして設計する
- 接地によって AI によって生成された不正確なコンテンツとセキュリティ リスクが軽減されるしくみについて説明する
- AI 対応アプリケーションにアプリケーション セキュリティのベスト プラクティスを適用する
- AI 固有の脅威を検出するための監視戦略について説明する
前提条件
- 基本的なセキュリティの概念 (認証、アクセス制御、暗号化など) に関する知識
- 基本的な人工知能の概念 (モデル、トレーニング、推論など) に関する知識
- AI セキュリティ モジュールの基礎または同等の知識の完了