Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Foundry Local permet l’exécution locale de modèles de langage volumineux (LLMs) directement sur votre appareil Windows, dans le cadre de Microsoft Foundry sur Windows. Il s’agit d’une bonne alternative si vous souhaitez approfondir et implémenter un scénario IA qui n’est pas disponible avec les API Windows AI.
Cette solution d’inférence ia sur appareil offre des avantages en matière de confidentialité, de personnalisation et de coût par rapport aux alternatives basées sur le cloud. Mieux encore, il s’intègre à vos flux de travail et applications existants avec une interface CLI et une API REST faciles à utiliser.
Note
La documentation complète relative à Foundry Local , notamment l’installation, la gestion des modèles, l’API REST et la référence du SDK, est conservée dans la documentation Azure AI Foundry. Le lien ci-dessous vous emmène là-bas. Utilisez le bouton Précédent de votre navigateur ou le fil d'Ariane pour revenir aux documents Windows AI à tout moment.
Si vous ne savez pas si Foundry Local est le bon choix pour votre scénario, consultez Choisissez votre solution IA Windows avant de continuer.
Pour plus d’informations sur Foundry Local, consultez la documentation Foundry Local.