適用対象: Dynamics 365 Contact Center—埋め込み、Dynamics 365 Contact Center—スタンドアロン、Dynamics 365 Customer Service
この FAQ 記事は、カスタマー サービスのCopilot機能での AI の責任ある使用に関する質問に回答するのに役立ちます。
Dynamics 365 Customer Service の Copilot とは何ですか?
Copilot は、Dynamics 365 Customer Service の 顧客サービス担当者 (サービス担当者 または 担当者) エクスペリエンスを変革する AI を活用したツールです。 担当者が問題をより迅速に解決し、ケースをより効率的に管理し、日常的なタスクを自動化して、高品質の顧客サービスの提供に集中できるようにする、AI を活用したリアルタイムの支援を提供します。
システムの機能とは何ですか?
Copilot の主な機能は以下の通りです:
質問: サービス担当者がCopilotヘルプ ウィンドウをアクティブ化するときに表示される最初のタブ。 これは Copilot を使用した会話型インターフェイスであり、担当者の質問に対してコンテキストに応じた回答を提供するのに役立ちます。 Copilot の応答は、セットアップ中に組織から提供される内部および外部の両方の知識ソースに基づいています。
電子メールの書き込み: Copilot ヘルプ ウィンドウの 2 番目のタブは、担当者がケースのコンテキストに基づいて電子メールの応答をすばやく作成するのに役立ち、ユーザーがメールの作成に費やす時間を短縮します。
電子メールのセンチメントを分析する: 顧客の電子メールが肯定的、否定的、または中立的なセンチメントを表しているかどうかを検出します。 この分析情報は、担当者がトーンを理解し、より効果的に対応するのに役立ちます。 この機能は、受信した顧客の電子メールにのみ適用され、特定の感情は推測されません。 代表的なパフォーマンスは評価されません。また、顧客サービス担当者のパフォーマンス管理の唯一の入力として使用しないでください。 評価にセンチメント データを使用するには、人間による監視が含まれている必要があります。
チャットの応答を下書きする: 担当者は、組織が設定したナレッジ ソースから進行中のデジタル メッセージング会話に対して一度のクリックで応答を作成できます。
サポート案件を要約する: Copilot では、担当者がサポート案件フォーム上でサポート案件の概要を確認できるため、サポート案件の重要な詳細をすばやく把握することができます。
会話を要約する: Copilot は、仮想担当者のハンドオフ、転送、オンデマンドなど、顧客体験全体の重要なポイントで、担当者に会話の要約を提供します。
ケースからナレッジドラフトを生成する (プレビュー): Copilotは、ケースからの情報に基づいて提案としてナレッジ記事のドラフトを生成します。 担当者は、Copilot に修正指示を与えることで、下書きをレビューして改良し、保存することができます。
カスタム レコードの集計: Copilotは、管理者がカスタム テーブル用に構成するフィールドを使用して、レコードの概要を提供します。 この概要は、担当者がサポート レコードの重要な詳細をすばやく理解するのに役立ちます。
解決メモを生成する: Copilot は、サポート案件の詳細、メール、サポート案件にリンクされたメモの概要を 質問する タブで担当者に提供し、サポート案件またはインシデントをより早くクローズできるようにします。
AI 主導の最適な方法選択を使用した予測 (プレビュー): シナリオの入力に基づいて最適な方法をインテリジェントに推奨して適用することで、予測シナリオを強化します。 管理者はセットアップ中にオプトインし、従来のアプローチと AI ベースのオプションを選択できます。 また、スーパーバイザーはスケジュールされた実行を待つ代わりにオンデマンドで予測を実行できるため、チームは柔軟性と迅速な分析情報を得ることができます。
システムの使用目的は何ですか?
顧客サービス の Copilot は、顧客サービス の担当者がより効率的かつ効果的に作業できるようにすることを目的としています。 顧客サービスの担当者は、Copilot のナレッジベースの回答を使用して、ナレッジ記事の検索や回答の下書きにかかる時間を節約できます。 Copilot サマリーは、担当者がケースや会話を迅速に進められるようサポートすることを目的としています。 Copilot によって顧客サービスで生成されたコンテンツは、人間によるレビューや監督なしに使用することを目的としていません。
Customer Service の Copilot はどのように評価されますか? パフォーマンスの測定にはどのようなメトリックが使用されますか?
カスタマー サービスのCopilotは、設計、開発、リリースの各フェーズを通じて、実際の顧客シナリオに対して評価されます。 調査とビジネス影響調査の組み合わせを使用して、正確性、有用性、代表的な信頼など、Copilotの定量的および定性的メトリックを評価します。 詳しくは 責任ある AI の透明性レポートをご覧ください。
顧客サービスの Copilot の制限はありますか? どうすれば Copilot の制限による影響を最小限に抑えることができますか?
Copilotのナレッジベース機能である質問をする、メールを書く、チャット応答を作成するなどの能力は、基盤となる高品質で最新のナレッジ記事に依存します。 これらのナレッジ記事がないと、ユーザーは事実に基づかない Copilot の応答に遭遇する可能性が高くなります。
非ファクト対応のリスクを軽減するために、Microsoftでは強力なナレッジ管理プラクティスが使用されます。 これらのプラクティスは、Copilotに接続されているビジネス知識が正確で最新の状態を維持するのに役立ちます。
システムを効果的に責任を持って利用できるようにするために、どのような運用要因および設定がありますか?
Copilot からの結果を常に確認してください
Copilot は、本質的に確率的な大規模言語モデル テクノロジーに基づいて構築されています。 入力テキストが与えられると、モデルはそのテキストの前にある単語を考慮して、そのテキスト内の各単語の確率を計算します。 続いてモデルは、後に続く可能性が最も高い単語を選択します。 ただし、モデルは確率に基づいているため、次の正しい単語が何であるかを絶対確実に言い当てることはできません。 代わりに、トレーニング データから学習された確率パターンに基づいて、最適な推測を行います。
Copilot は、グラウンディングと呼ばれるアプローチを使用します。これには、入力に追加情報を追加して、組織への出力をコンテキスト化することが含まれます。 セマンティック検索を使用して入力を理解し、関連する内部ドキュメントと信頼できるパブリック Web 結果を取得します。 次に、そのコンテンツに基づいて応答を生成するようにモデルをガイドします。 このアプローチは、Copilot応答が組織のデータと一致していることを確認するのに役立ちますが、使用する前に常に結果を確認する必要があります。
Copilot を最大限に活用する
Copilot と対話する際は、質問の構造が Copilot の応答に大きく影響する可能性があることに留意することが重要です。 Copilot と効果的に対話するには、明確で具体的な質問をし、AI がユーザーの意図をよりよく理解できるようにコンテキストを提供し、一度にひとつずつ質問し、明確さとアクセシビリティのために専門用語を避けることが重要です。
明確かつ具体的な質問をする
質問する際には明確な意図が不可欠であり、それは応答の質に直接影響します。 たとえば、"顧客のコーヒー マシンが起動しない理由" のような広範な質問をすると、"顧客のコーヒー マシンが起動しない理由を判断するために実行できる手順は何か" など、より具体的な質問に比べて役立つ回答が得られる可能性が低くなります。
ただし、「Contoso 900 コーヒー マシンの 5 バーの圧力評価が開始されない理由を判断するには、どのような手順が必要か」などのさらに詳細な質問を行うと、問題の範囲が絞り込まれるため、より正確で対象を絞った回答が得られます。
コンテキストの追加
コンテキストを追加すると、会話型 AI システムがユーザーの意図をよりよく理解し、より正確で関連性の高い応答を提供できるようになります。 コンテキストがない場合、システムはユーザーの質問を誤解したり、一般的または無関係な応答を提供したりする可能性があります。
たとえば、「なぜコーヒー マシンが起動しないのですか」と言うと、"最近、顧客がコーヒー マシンで脱スケール モードを開始し、スケールを正常に完了しました" などのコンテキストが多い質問と比較すると、一般的な応答が返されます。 最終的に電源ランプが3回点滅し、スケール除去が完了したことが確認されました。 コーヒーメーカーが起動しなくなったのはなぜですか?」
このようにコンテキストを追加することは、Copilot がユーザーの意図をよりよく理解し、より正確で適切な応答を提供するのに役立つため、重要です。
可能であれば専門用語を避ける
Copilot とやり取りするときは、システムが正確または適切に認識しているとは限らないため、高度な技術用語とリソース名を使用しないことをお勧めします。 よりシンプルな自然言語を使用すると、システムがユーザーの意図を正しく理解し、明確で有用な応答を提供できるようになります。
たとえば、"ファイアウォール構成を変更した後、お客様は VM に SSH 接続できません" と言い換えて、お客様が仮想マシンのファイアウォール規則を変更したとします。 Secure Shell (SSH) を使用して接続できなくなりました。お手伝いできますか?
提案に従うことで、担当者は Copilot とのやり取りを強化し、正確で自信を持って回答を受け取る可能性を高めることができます。
回答を要約または展開する
Copilot からの応答が予想よりも長くなる場合があります。 このシナリオは、担当者が顧客とのライブ チャットの会話中で、電子メール経由で応答を送信する場合と比較して簡潔な応答を送信する必要がある場合に発生する可能性があります。 このような場合、Copilot に "応答の要約" を依頼すると、質問に対する簡潔な回答が得られます。 同様に、より詳細な情報が必要な場合は、Copilotに "詳細を指定する" を要求すると、質問に対するより詳細な回答が得られます。 応答が切り捨てられた場合、「続行」と入力すると、応答の残りの部分が表示されます。
Copilot によって生成された応答に影響を与える方法 基になる LLM を微調整できますか?
大規模言語モデル (LLM) を直接カスタマイズすることはできません。 Copilot の応答は、ソース ドキュメントを更新することによって影響を受ける可能性があります。 Copilot応答からのフィードバック コンテンツが格納されます。 このデータを使用してレポートを作成し、更新する必要があるデータ ソースを決定できます。 フィードバック データを定期的に確認し、ナレッジ記事が Copilot に最適で最新の情報を提供していることを確認するプロセスを整えることを推奨します。
Copilot のデータ セキュリティ モデルは何ですか?
Copilot は、定義されたロールベースのアクセス (RBAC) 制御を強制し、既存のセキュリティ構造をすべて遵守します。 そのため、担当者はアクセス権のないデータを表示できません。 また、担当者がアクセスできるデータ ソースのみが、Copilot応答の生成に使用されます。
Copilot は、コンテンツが攻撃的か有害かをどのように判断しますか?
Copilot は、好ましくないコンテンツの明確なカテゴリに基づく重大度評価システムを通じて、コンテンツが有害かどうかを判断します。 詳細については、 Azure AI Content Safety の [損害] カテゴリを参照してください。
Copilot応答を生成するためにデータの処理と取得はどこで行われますか?
Copilotでは、ChatGPT を強化するパブリック OpenAI サービスは使用されません。 カスタマー サービスのCopilotは、Microsoftマネージド環境でホストされている Microsoft Azure OpenAI Service を使用します。 すべてのデータ処理と取得は、Microsoftマネージド環境内で行われます。 顧客データは、パブリック モデルと共有されたり、トレーニングに使用されたりすることはありません。
Copilot がケースや会話から生成する要約の言語制限は何ですか?
Copilot がケースや会話から生成する要約では、多くの言語がサポートされています。 これらの要約の質は英語で最も高く、他の言語では時間の経過とともに品質が向上すると予想されます。 Copilot の言語サポート機能でサポートされている言語について説明します
モデルは継続的にテストおよび監視されていますか? もしそうなら、どのくらいの頻度で? どのようなテストが実施されますか?
モデルは継続的にテストおよび監視されます。 モデルは、モデルのバージョンまたはその相互作用に変更が発生するたびに、品質と有害なコンテンツについて評価されます。 詳しくは 責任ある AI の透明性レポートをご覧ください。
パフォーマンスの低下を検出するために、モデルはどのくらいの頻度で監視されますか?
Azure OpenAI は、生成型 AI GPT モデルをホストし、管理します。 責任ある AI プラクティスとデプロイ安全委員会のチェックにより、カスタマー サービス シナリオでのモデルの使用方法が管理されます。 モデル バージョンや基になるプロンプトに対する変更は、品質と有害なコンテンツについて検証されます。 詳しくは 責任ある AI の透明性レポートをご覧ください。
製品またはサービスは、複数のモデルまたは相互依存モデルのシステムを採用していますか?
システム内の異なる機能が、異なるバージョンの Azure OpenAI Service モデルを使用している可能性があります。 詳細は、Azure OpenAI Service モデルを参照してください。
Copilot は Microsoft 以外のモデルの製品またはサービスを使用しており、このモデルのドキュメントは入手できますか?
Copilot は、マイクロソフトが開発したコンテンツ フィルターおよび不正使用検出モデルと OpenAI を統合するフル マネージド AI サービスである Azure OpenAI を使用して構築されています。 詳しくは Azure OpenAI の透過性のためのメモをご覧ください。
他の AI/ML またはモデル ソリューションから使用されるモデル、アップストリーム モデル、または出力の変更を伝える一連のプロセスはありますか。
Copilot 機能に対する計画の変更は、公開ドキュメントを通じて通知されます。 ただし、内部責任のある AI プロセスは、モデルのバージョンとプロンプトの変更を管理します。 これらの変更は、段階的かつ継続的な機能改善であるため、通知されません。
製品を改善するために、マイクロソフトに逐語的なフィードバックは利用可能ですか?
いいえ
Microsoft には、AI システムと対話または監視する際のさまざまな人間の役割と責任を定義し、区別するポリシーと手順がありますか?
はい 責任ある AI プロセスでは、関係するすべての利害関係者とユーザーが考慮され、システムの使用または意図しない使用について話し合います。 特定されたシナリオに基づいて、必要な軽減策が製品内またはドキュメントを介して取り込まれます。 詳しくは 責任ある AI の透明性レポートをご覧ください。
Microsoftは、エンド ユーザーや利害関係者からの意見を収集して潜在的な影響やリスクを監視する方法を特定して文書化していますか?
はい 詳しくは 責任ある AI の透明性レポートをご覧ください。
Microsoftは、対応時間やダウンタイムの測定など、AIシステムインシデントのインシデント対応計画を文書化、実践、測定していますか?
はい 責任ある AI プロセスでは、機能上の問題のプロセスと同様に、AI の問題に対するインシデント対応計画をチームに持っている必要があります。 機能チームは、システムのパフォーマンスと信頼性を積極的に監視します。 詳しくは 責任ある AI の透明性レポートをご覧ください。
Microsoftは、エラーの発生と悪影響に関する情報を、関連する利害関係者、オペレーター、実務家、ユーザー、および影響を受ける当事者と共有するための手順を確立していますか?
はい 重大度の高い問題の場合、機能チームは、影響を受ける顧客に停止を通知する必要があります。
Microsoftは、AIシステムのインシデントが検出されたときに迅速な対応を可能にするために、システムのパフォーマンスをリアルタイムで測定および監視していますか?
はい 機能チームは、システムのパフォーマンスと信頼性を継続的に監視します。
Microsoftは、エンドユーザーやその他の利害関係者とシステムの説明の品質をテストしていますか?
はい 詳しくは 責任ある AI の透明性レポートをご覧ください。
Microsoftには、モデルのライフサイクル全体にわたるモデルのパフォーマンス、信頼性、偏り、セキュリティを監視して対処するためのポリシーと手順がありますか?
はい 詳しくは 責任ある AI の透明性レポートをご覧ください。
Microsoftは、計算的および統計的なバイアスを管理するために公平性評価を実施していますか?
はい 詳細については、 責任ある AI 透明性レポートの詳細情報を参照してください。
Microsoftは、パフォーマンスやバイアスの問題がないかシステム出力を監視しますか?
はい モデレーション フィルターは、応答に有害なコンテンツがないことを確認するために、出力を含む複数のレイヤーに適用されます。 詳細は、責任あるAIの透明性に関するレポートをご覧ください。
モデルの操作の回復性のレベルはどの程度ですか。 たとえば、モデルが使用できない場合のインスタンスに対するディザスター リカバリーおよびコンティンジェンシー プランはありますか?
すべてのAzureサービスと同様に、バックアップとリカバリは複数のデータセンターを介してサポートされ、高可用性を実現します。
モデルは、モデルを別の環境 (ホスティング プロバイダー、ハードウェア、ソフトウェア システムなどの変数を含む) に移行することが困難になる、Microsoft以外のツールまたはソリューション内に埋め込まれている場合、モデルの説明性を妨げるものに依存していますか?
いいえ
確立されたモデル ガバナンス ポリシーはありますか?
はい Azure OpenAI では、確立されたガバナンス ポリシーがサポートされます。 詳しくは、責任ある AI 透明性レポートをご覧ください。
プライバシーおよびデータガバナンスポリシーに従って、PIIを含むトレーニングまたは本番データセットのプロトコル(承認、期間、タイプ)とアクセス制御が確立され、文書化されていますか?
現在、モデルのトレーニングは行われていないため、データ セットに関する要件はありません。 ただし、顧客サービス担当者が Copilot と連携する場合は、機能に応じて、コンテキスト データ (ケースまたはチャット) を使用して応答が生成されます。
PIIの開示や、機密性の高い属性や法的に保護された属性の推論は監視されていますか?
はい プライバシーレビューはすべての機能に対して行われます。
Microsoft には、業界、ビジネス目的、およびデプロイされた AI システムのアプリケーション環境に固有の法的および規制上の問題と要件を検討するプロセスがありますか?
はい 法的レビューは、規制要件やその他の法的事項に役立つすべての機能について行われます。
関連情報
Copilot 機能の使用
Copilot を使用してケースからナレッジドラフトを生成する
Copilot の地域別の可用性
Microsoft Power Platform での Copilot データのセキュリティとプライバシーに関する FAQ