適用対象:Foundry (クラシック) ポータル。 この記事は、新しい Foundry ポータルでは使用できません。
新しいポータルの詳細を確認します。
メモ
この記事のリンクは、現在表示している Foundry (クラシック) ドキュメントではなく、新しい Microsoft Foundry ドキュメントのコンテンツを開く場合があります。
重要
Azure AI 推論ベータ SDK は非推奨となり、2026 年 8 月 26 日に廃止されます。 安定した OpenAI SDK を使用して、一般公開されている OpenAI/v1 API に切り替えます。 好みのプログラミング言語に SDK を使用して、 移行ガイド に従って OpenAI/v1 に切り替えます。
Microsoft Foundry Models にデプロイされるすべてのモデルは、Azure AI モデル推論 API とそれに関連付けられている SDK ファミリをサポートします。
これらの SDK を使用するには、Azure AI モデル推論 URI (通常は https://<resource-name>.services.ai.azure.com/models の形式) に接続します。
Azure AI 推論パッケージ
Azure AI 推論パッケージを使用すると、Foundry リソースにデプロイされたすべてのモデルを使用して、モデルのデプロイを簡単に切り替えることができます。 Azure AI 推論パッケージは、Microsoft Foundry SDK の一部です。
| Language | ドキュメント | パッケージ | 例 |
|---|---|---|---|
| C# | 参照 | azure-ai-inference (NuGet) | C# の例 |
| Java | 参照 | azure-ai-inference (Maven) | Javaの例 |
| JavaScript | 参照 | @azure/ai-inference (npm) | JavaScript の例 |
| Python | 参照 | azure-ai-inference (PyPi) | Pythonの例 |
統合
| フレームワーク | Language | ドキュメント | パッケージ | 例 |
|---|---|---|---|---|
| LangChain | Python | 参照 | langchain-azure-ai (PyPi) | Pythonの例 |
| Llama-Index | Python | 参照 |
llama-index-llms-azure-inference (PyPi) llama-index-embeddings-azure-inference (PyPi) |
Pythonの例 |
| Semantic Kernel | Python | 参照 | semantic-kernel[azure] (PyPi) | Pythonの例 |
| AutoGen | Python | 参照 | autogen-ext[azure] (PyPi) | クイック スタート |
制限
Foundry では、Cohere SDK または Mistral SDK はサポートされていません。
次の手順
- 現在サポートされているモデルを確認するには、「 Foundry モデルと機能」を参照してください。