イントロダクション
効果的な生成 AI アプリケーションを構築するには、特定のユース ケースに適した基盤モデルを選択する必要があります。 何千ものモデルを利用するには、モデルが要件を満たしていることを検出、比較、デプロイ、検証するための構造化されたアプローチが必要です。
小売企業向けに AI を利用したカスタマー サポート チャットボットを構築するシナリオを考えてみましょう。 顧客の質問を理解し、正確な回答を提供し、適切なトーンと安全基準を維持できる言語モデルを選択する必要があります。 しかし、利用可能なモデルの膨大なカタログからどのように選択すればよいでしょうか。 モデルが特定のニーズに対して適切に動作するかどうかを確認するにはどうすればよいですか? また、デプロイ後、パフォーマンスを測定して改善するにはどうすればよいでしょうか。
Microsoft Foundry ポータルは、このワークフロー全体の包括的なプラットフォームを提供します。 Microsoft、Anthropic、OpenAI、Meta、Hugging Face などのプロバイダーから 1,900 を超えるモデルを探索できます。 品質、安全性、コスト、パフォーマンスに関する業界標準のベンチマークを使用してモデルを比較できます。 モデルを選択したら、アプリケーションが使用できるエンドポイントにモデルをデプロイします。 最後に、自動メトリックと手動テストの両方を使用してモデルのパフォーマンスを評価し、品質と安全性の要件を満たしていることを確認します。
このモジュールでは、Microsoft Foundry ポータルを使用して、モデル カタログからモデルを選択、デプロイ、評価する方法について説明します。 さまざまな評価アプローチを使用して、モデルの選択に関する情報に基づいた意思決定を行い、さまざまなデプロイ オプションを理解し、モデルのパフォーマンスを評価する方法について説明します。
このモジュールを完了すると、次のことができるようになります。
- モデル カタログ内のモデルの探索とフィルター処理
- 品質、安全性、コスト、パフォーマンスに関するベンチマーク メトリックを使用してモデルを比較する
- エンドポイントにモデルをデプロイし、プレイグラウンドでテストする
- 手動および自動アプローチを使用してモデルのパフォーマンスを評価する
- さまざまな評価メトリックと、それらを使用するタイミングを理解する