Présentation
Azure Speech in Foundry Tools fournit des fonctionnalités de reconnaissance vocale et de synthèse vocale que vous pouvez intégrer aux applications IA. Ces fonctionnalités vous permettent de transcrire de l’audio en texte et de synthétiser la voix naturelle à partir du texte.
Bien que vous puissiez appeler ces fonctionnalités directement via le SDK Speech ou les API REST, vous pouvez également les mettre à la disposition d’un agent IA via le serveur MCP (Azure Speech Model Context Protocol). Cette approche permet à l’agent de gérer les tâches vocales en fonction de la demande de langage naturel d’un utilisateur, sans avoir à écrire de code spécifique pour chaque opération vocale.
Par exemple, supposons que vous travaillez pour une entreprise qui doit traiter les appels de support client. Votre équipe doit transcrire les appels enregistrés en texte pour l’analyse et générer des réponses audio qui peuvent être diffusées aux clients. Au lieu de créer des intégrations distinctes pour la transcription et la synthèse, vous pouvez créer un agent IA qui utilise le serveur MCP Azure Speech pour effectuer les deux tâches via une connexion d’outil unique.
Dans ce module, vous allez découvrir comment fonctionne le serveur MCP Azure Speech, comment le connecter à un agent IA dans Microsoft Foundry et comment créer une application cliente qui interagit avec l’agent par programmation.
Note
Nous reconnaissons que différentes personnes aiment apprendre de différentes façons. Vous pouvez choisir d’effectuer ce module au format vidéo ou lire le contenu sous forme de texte et d’images. Le texte contient plus de détails que les vidéos. Dans certains cas, vous voudrez peut-être y faire référence en tant que matériel supplémentaire à la présentation vidéo.
Note
Le serveur MCP Azure Speech est actuellement en préversion publique. Les détails décrits dans ce module sont susceptibles de changer.