Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Zurzeit wird folgendes angezeigt:Foundry (klassische) Portalversion - Wechseln zur Version für das neue Foundry-Portal
Eine Foundry-Ressource bietet einheitlichen Zugriff auf Modelle, Agenten und Tools. In diesem Artikel wird erläutert, welches SDK und welcher Endpunkt für Ihr Szenario verwendet werden soll.
| SDK | Wozu es gut ist | Endpunkt |
|---|---|---|
| Foundry SDK | Gießereispezifische Funktionen mit OpenAI-kompatiblen Schnittstellen. Enthält Zugriff auf Direktmodelle in Foundry über die Responses-API (nicht Chat Completions). | https://<resource-name>.services.ai.azure.com/api/projects/<project-name> |
| OpenAI SDK | Neueste OpenAI SDK-Modelle und -Features mit dem vollständigen OpenAI-API-surface. Direkte Foundry-Modelle sind über die Chat-Completions-API (nicht Antworten) verfügbar. | https://<resource-name>.openai.azure.com/openai/v1 |
| Foundry-Tools-SDKs | Vorgefertigte Lösungen (Vision, Speech, Content Safety und mehr). | Toolspezifische Endpunkte (variiert je nach Dienst). |
| Agent Framework | Multi-Agent-Orchestrierung im Code. Cloud-agnostisch. | Verwendet den Projektendpunkt über das Foundry SDK. |
Wählen Sie Ihr SDK aus:
- Verwenden Sie Foundry SDK beim Erstellen von Apps mit Agents, Auswertungen oder Foundry-spezifischen Funktionen
- Verwenden Sie das OpenAI SDK, wenn eine maximale OpenAI-Kompatibilität erforderlich ist, oder verwenden Sie Foundry-Direktmodelle über Chat Completions.
- Verwenden von Foundry Tools SDKs beim Arbeiten mit bestimmten KI-Diensten (Vision, Spracherkennung, Sprache usw.)
- Verwenden des Agent-Frameworks beim Erstellen von Multi-Agent-Systemen im Code (lokale Orchestrierung)
Hinweis
Ressourcentypen: Eine Foundry-Ressource stellt alle zuvor aufgeführten Endpunkte bereit. Eine Azure OpenAI-Ressource stellt nur den endpunkt /openai/v1 bereit.
Authentication: Beispiele verwenden hier Microsoft Entra ID (DefaultAzureCredential). API-Schlüssel funktionieren auf /openai/v1. Übergeben Sie den Schlüssel als api_key anstelle eines Token-Anbieters.
Voraussetzungen
-
Ein Azure Konto mit einem aktiven Abonnement. Wenn Sie kein Konto haben, erstellen Sie ein free Azure Konto, das ein kostenloses Testabonnement enthält.
Führen Sie eine der folgenden Azure RBAC-Rollen zum Erstellen und Verwalten von Foundry-Ressourcen aus:
- Azure AI User (Rolle mit den geringsten Berechtigungen für die Entwicklung)
- Azure AI Project Manager (für die Verwaltung von Foundry-Projekten)
- Mitwirkender oder Besitzer (für Berechtigungen auf Abonnementebene)
Ausführliche Informationen zu den Berechtigungen der einzelnen Rollen finden Sie unter Rollenbasierte Zugriffskontrolle für Microsoft Foundry.
Installieren Sie die erforderlichen Sprachlaufzeiten, globalen Tools und VS-Codeerweiterungen, wie unter "Vorbereiten Der Entwicklungsumgebung" beschrieben.
Von Bedeutung
Bevor Sie beginnen, stellen Sie sicher, dass Ihre Entwicklungsumgebung bereit ist.
Dieser Artikel konzentriert sich auf szenariospezifische Schritte wie SDK-Installation , Authentifizierung und Ausführen von Beispielcode.
Überprüfen der Voraussetzungen
Bevor Sie fortfahren, bestätigen Sie Folgendes:
- Azure-Abonnement ist aktiv:
az account show - Sie verfügen über die erforderliche RBAC-Rolle: Überprüfen des Azure-Portals → Foundry-Ressource → Zugriffssteuerung (IAM)
- Installierte Sprachlaufzeit:
- Python:
python --version(≥3.8) - Node.js:
node --version(≥18) - .NET:
dotnet --version(≥6.0) - Java:
java --version(≥11)
- Python:
Foundry SDK
Das Foundry SDK verbindet sich mit einem einzelnen Projektendpunkt, der Zugriff auf die beliebtesten Foundry-Funktionen bietet.
https://<resource-name>.services.ai.azure.com/api/projects/<project-name>
Hinweis
Wenn Ihre Organisation eine benutzerdefinierte Unterdomäne verwendet, ersetzen Sie <resource-name> durch <your-custom-subdomain> in der Endpunkt-URL.
Dieser Ansatz vereinfacht die Anwendungskonfiguration. Anstatt mehrere Endpunkte zu verwalten, konfigurieren Sie einen.
Installieren des SDKs
Hinweis
Dieser Artikel bezieht sich auf ein Foundry-Projekt. Der hier gezeigte Code funktioniert nicht für ein hub-basiertes Projekt. Weitere Informationen finden Sie unter Projekttypen.
Hinweis
SDK-Versionen: Das 2.x GA SDK zielt auf das neue Foundry-Portal und die NEUE API ab. Das 1.x GA SDK zielt auf foundry classic ab. Stellen Sie sicher, dass die folgenden Beispiele ihrem installierten Paket entsprechen.
| SDK-Version | Portalversion | Der Status | Python-Paket |
|---|---|---|---|
| 2.x | Gießerei (neu) | Stabil | azure-ai-projects>=2.0.0 |
| 1.x | Gießerei (klassisch) | Stabil | azure-ai-projects==1.0.0 |
Die Azure AI Projects-Clientbibliothek für Python ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen project Endpunkt herstellen.
Führen Sie diesen Befehl aus, um die stabilen Pakete für klassische Foundry-Projekte zu installieren.
pip install openai azure-identity azure-ai-projects==1.0.0
| SDK-Version | Portalversion | Der Status | Java-Paket |
|---|---|---|---|
| 1.0.0-beta.3 1.0.0-beta.1 |
Gießerei (neu) | Vorschau | azure-ai-projectsazure-ai-agents |
| SDK-Version | Portalversion | Der Status | JavaScript-Paket |
|---|---|---|---|
| 2.0.0-beta.4 (Vorschau) | Gießerei (neu) | Vorschau | @azure/ai-projects 'prerelease' |
| 1.0.1 | Foundry Classic | Stabil | @azure/ai-projects |
| SDK-Version | Portalversion | Der Status | .NET-Paket |
|---|---|---|---|
| 1.2.0-beta.5 (Vorschau) | Gießerei (neu) | Vorschau | Azure.AI.ProjectsAzure.AI.Projects.Openai |
| 1.x (GA) | Foundry Classic | Stabil | Azure.AI.Projects |
Die Azure AI Projects-Clientbibliothek für Java (Vorschau) ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen project Endpunkt herstellen.
Von Bedeutung
Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Supplementale Nutzungsbedingungen für Microsoft Azure Previews.
Fügen Sie diese Pakete zu Ihrer Installation für klassische Foundry-Projekte hinzu.
package com.azure.ai.foundry.samples;
import com.azure.ai.projects;
import com.azure.ai.inference.ChatCompletionsClient;
import com.azure.ai.inference.ChatCompletionsClientBuilder;
import com.azure.ai.inference.models.ChatCompletions;
import com.azure.core.credential.AzureKeyCredential;
import com.azure.core.credential.TokenCredential;
import com.azure.core.exception.HttpResponseException;
import com.azure.core.util.logging.ClientLogger;
import com.azure.identity.DefaultAzureCredentialBuilder;
Die Azure AI Projects-Clientbibliothek für JavaScript ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen project Endpunkt herstellen.
Führen Sie diesen Befehl aus, um die aktuellen JavaScript-Pakete für klassische Foundry-Projekte zu installieren.
npm install @azure/ai-projects @azure/identity
Die Azure AI Projects-Clientbibliothek für .NET ist eine einheitliche Bibliothek, mit der Sie mehrere Clientbibliotheken zusammen verwenden können, indem Sie eine Verbindung mit einem einzelnen project Endpunkt herstellen.
Führen Sie diese Befehle aus, um die Azure AI SDK-Pakete für klassische Foundry-Projekte hinzuzufügen.
# Add Azure AI SDK packages
dotnet add package Azure.Identity
dotnet add package Azure.AI.Projects
dotnet add package Azure.AI.Agents.Persistent
dotnet add package Azure.AI.Inference
Verwenden des Foundry SDK
Das SDK macht zwei Clienttypen verfügbar, da Foundry und OpenAI unterschiedliche API-Shapes haben:
- Project client – Wird für Foundry-native Vorgänge verwendet, bei denen OpenAI keine Entsprechung hat. Beispiele: Auflisten von Verbindungen, Abrufen der Projekteigenschaften, Aktivieren der Ablaufverfolgung.
-
OpenAI-kompatibler Client – Verwendung für Foundry-Funktionen, die auf OpenAI-Konzepten basieren. Die Responses-API, Agenten, Auswertungen und Fine-Tuning verwenden alle OpenAI-Stil Anforderungs-/Antwortmuster. Dieser Client bietet Ihnen auch access für Foundry Direct-Modelle (nicht Azure-OpenAI-Modelle, die in Foundry gehostet werden). Der Projektendpunkt bedient diesen Datenverkehr auf der Route
/openai.
Die meisten Apps verwenden beide Clients. Verwenden Sie den project-Client zum Einrichten und Konfigurieren, und verwenden Sie dann den openAI-kompatiblen Client für die Ausführung von Agents, Auswertungen und aufrufenden Modellen (einschließlich Foundry Direct Models).
Erstellen Sie einen Projekt-Client:
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
project = AIProjectClient(
endpoint="https://<resource-name>.services.ai.azure.com/api/projects/<project-name>",
credential=DefaultAzureCredential(),
)
```**Create an OpenAI-compatible client from your project:**
```python
models = project_client.get_openai_client(api_version="2024-10-21")
chat_responses = models.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "What is the size of France in square miles?"},
],
)
print(chat_responses.choices[0].message.content)
Erstellen Sie einen Projekt-Client:
package com.azure.ai.foundry.samples;
import com.azure.ai.inference.ChatCompletionsClient;
import com.azure.ai.inference.ChatCompletionsClientBuilder;
import com.azure.ai.inference.models.ChatCompletions;
import com.azure.core.credential.AzureKeyCredential;
import com.azure.core.credential.TokenCredential;
import com.azure.core.exception.HttpResponseException;
import com.azure.core.util.logging.ClientLogger;
import com.azure.identity.DefaultAzureCredentialBuilder;
String prompt = "What best practices should I follow when asking an AI model to review Java code?";
String endpoint = "https://<resource-name>.services.ai.azure.com/api/projects/<project-name>";
TokenCredential credential = new DefaultAzureCredentialBuilder().build();
ChatCompletionsClient client = new ChatCompletionsClientBuilder()
.credential(credential)
.endpoint(endpoint)
.buildClient();
```**Create and use an OpenAI-compatible client from your project:**
```java
ChatCompletions completions = client.complete(prompt);
String content = completions.getChoice().getMessage().getContent();
System.out.println("\nResponse from AI assistant:\n" + content);
Erstellen Sie einen Projekt-Client:
const endpoint = "https://<resource-name>.services.ai.azure.com/api/projects/<project-name>";
const deployment = "gpt-4o";
const project = new AIProjectClient(endpoint, new DefaultAzureCredential());
Erstellen Sie einen OpenAI-kompatiblen Client von Ihrem Projekt:
const client = await project.getAzureOpenAIClient({
// The API version should match the version of the Azure OpenAI resource
apiVersion: "2024-12-01-preview"
});
const chatCompletion = await client.chat.completions.create({
model: deployment,
messages: [
{ role: "system", content: "You are a helpful assistant" },
{ role: "user", content: "What is the speed of light?" },
],
});
console.log(chatCompletion.choices[0].message.content);
Erstellen Sie einen Projekt-Client:
string endpoint = "https://<resource-name>.services.ai.azure.com/api/projects/<project-name>";
AIProjectClient projectClient = new AIProjectClient(new Uri(endpoint), new DefaultAzureCredential());
Erstellen Sie einen OpenAI-kompatiblen Client von Ihrem Projekt:
ClientConnection connection = projectClient.GetConnection(typeof(AzureOpenAIClient).FullName!);
if (!connection.TryGetLocatorAsUri(out Uri uri) || uri is null)
{
throw new InvalidOperationException("Invalid URI.");
}
uri = new Uri($"https://{uri.Host}");
const string modelDeploymentName = "gpt-4o";
AzureOpenAIClient azureOpenAIClient = new AzureOpenAIClient(uri, new DefaultAzureCredential());
ChatClient chatClient = azureOpenAIClient.GetChatClient(deploymentName: modelDeploymentName);
Console.WriteLine("Complete a chat");
ChatCompletion result = chatClient.CompleteChat("List all the rainbow colors");
Console.WriteLine(result.Content[0].Text);
Was Sie mit dem Foundry SDK tun können
- Access Foundry Models, einschließlich Azure OpenAI
- Verwenden Sie den Foundry Agent-Dienst
- Ausführen von Cloud-Auswertungen
- Aktivieren der App-Ablaufverfolgung
- Ein Modell feinabstimmen
- Erhalten Sie Endpunkte und Schlüssel für Foundry-Tools, lokale Orchestrierung und vieles mehr
Problembehandlung
Authentifizierungsfehler
Wenn Folgendes angezeigt wird DefaultAzureCredential failed to retrieve a token:
Verify Azure CLI wird authentifiziert:
az account show az login # if not logged inÜberprüfen der Rollenzuweisung bei RBAC:
- Vergewissern Sie sich, dass Sie mindestens über die Azure AI-Benutzerrolle im Foundry-Projekt verfügen.
- Siehe Azure-Rollen zuweisen
Für verwaltete Identität in der Produktion:
- Stellen Sie sicher, dass der verwalteten Identität die entsprechende Rolle zugewiesen wurde.
- Siehe Konfigurieren verwalteter Identitäten
Endpunktkonfigurationsfehler
Wenn Sie Connection refused oder 404 Not Found sehen:
- Überprüfen Sie, ob Ressourcen- und Projektnamen mit Ihrer tatsächlichen Bereitstellung übereinstimmen
-
Überprüfen Sie das URL-Format des Endpunkts: Should be
https://<resource-name>.services.ai.azure.com/api/projects/<project-name> -
Für benutzerdefinierte Unterdomänen: Ersetzen Sie
<resource-name>durch Ihre benutzerdefinierte Unterdomäne
SDK-Versionskonflikte
Wenn Codebeispiele mit AttributeError oder ModuleNotFoundError fehlschlagen:
-
SDK-Version überprüfen:
pip show azure-ai-projects # Python npm list @azure/ai-projects # JavaScript dotnet list package # .NET - Überprüfen der Moniker-Ausrichtung: 2.x SDK erfordert Foundry-Portal, 1.x SDK erfordert Foundry classic
- Neuinstallation mit korrekten Versionskennzeichnungen: Siehe Installationsbefehle in den einzelnen Sprachabschnitten oben
OpenAI SDK
Verwenden Sie das OpenAI SDK, wenn Sie die vollständige OpenAI-API surface und maximale Clientkompatibilität benötigen. Dieser Endpunkt bietet Zugang zu Azure OpenAI-Modellen und Foundry Direct-Modellen (über die API für Chat-Abschlüsse). Es bietet keinen Zugriff auf Foundry-spezifische Funktionen wie Agenten und Auswertungen.
Der folgende Codeausschnitt zeigt, wie Sie den Azure OpenAI /openai/v1 Endpunkt direkt verwenden.
from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://ai.azure.com/.default"
)
client = OpenAI(
base_url = "https://<resource-name>.openai.azure.com/openai/v1/",
api_key=token_provider,
)
response = client.responses.create(
model="model_deployment_name",
input= "What is the size of France in square miles?"
)
print(response.model_dump_json(indent=2))
Weitere Informationen finden Sie unter Azure OpenAI unterstützte Programmiersprachen. Erwartete Ausgabe:
{
"id": "resp_abc123",
"object": "response",
"created": 1234567890,
"model": "gpt-5.2",
"output_text": "France has an area of approximately 213,011 square miles (551,695 square kilometers)."
}
Weitere Informationen finden Sie unter Azure OpenAI unterstützte Programmiersprachen
Von Bedeutung
Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Diese Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und sollte nicht für Produktionsworkloads verwendet werden. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Supplementale Nutzungsbedingungen für Microsoft Azure Previews.
Der folgende Codeausschnitt zeigt, wie Sie den Azure OpenAI /openai/v1 Endpunkt direkt verwenden.
import com.azure.ai.openai.OpenAIClient;
import com.azure.ai.openai.OpenAIClientBuilder;
import com.azure.ai.openai.models.ChatChoice;
import com.azure.ai.openai.models.ChatCompletions;
import com.azure.ai.openai.models.ChatCompletionsOptions;
import com.azure.ai.openai.models.ChatRequestAssistantMessage;
import com.azure.ai.openai.models.ChatRequestMessage;
import com.azure.ai.openai.models.ChatRequestSystemMessage;
import com.azure.ai.openai.models.ChatRequestUserMessage;
import com.azure.ai.openai.models.ChatResponseMessage;
import com.azure.core.credential.AzureKeyCredential;
import com.azure.core.util.Configuration;
import java.util.ArrayList;
import java.util.List;
String endpoint = "https://<resource-name>.openai.azure.com/openai/v1";
String deploymentName = "gpt-5.2";
TokenCredential defaultCredential = new DefaultAzureCredentialBuilder().build();
OpenAIClient client = new OpenAIClientBuilder()
.credential(defaultCredential)
.endpoint("{endpoint}")
.buildClient();
List<ChatRequestMessage> chatMessages = new ArrayList<>();
chatMessages.add(new ChatRequestSystemMessage("You are a helpful assistant."));
chatMessages.add(new ChatRequestUserMessage("What is the speed of light?"));
ChatCompletions chatCompletions = client.getChatCompletions(deploymentName, new ChatCompletionsOptions(chatMessages));
System.out.printf("Model ID=%s is created at %s.%n", chatCompletions.getId(), chatCompletions.getCreatedAt());
for (ChatChoice choice : chatCompletions.getChoices()) {
ChatResponseMessage message = choice.getMessage();
System.out.printf("Index: %d, Chat Role: %s.%n", choice.getIndex(), message.getRole());
System.out.println("Message:");
System.out.println(message.getContent());
Weitere Informationen zur Verwendung des OpenAI SDK finden Sie unter Azure OpenAI unterstützte Programmiersprachen.
import { AzureOpenAI } from "openai";
import { DefaultAzureCredential } from "@azure/identity";
const deployment = "gpt-4o"
const endpoint = "https://<resource-name>.openai.azure.com/openai/v1";
const scope = "https://ai.azure.com/.default";
const apiVersion = "2024-04-01-preview";
const azureADTokenProvider = getBearerTokenProvider(new DefaultAzureCredential(), scope);
const options = { azureADTokenProvider, deployment, apiVersion }
const client = new AzureOpenAI(options);
const result = await client.chat.completions.create({
model: deployment,
messages: [
{ role: "system", content: "You are a helpful assistant" },
{ role: "user", content: "What is the speed of light?" },
],
});
console.log(result.choices[0].message.content);
Weitere Informationen zur Verwendung des OpenAI SDK finden Sie unter Azure OpenAI unterstützte Programmiersprachen.
- Installieren Sie das OpenAI-Paket: Führen Sie diesen Befehl aus, um ihrer .NET project die OpenAI-Clientbibliothek hinzuzufügen.
dotnet add package OpenAI ```When it succeeds, the .NET CLI confirms that it installed the `OpenAI` package. This snippet configures `DefaultAzureCredential`, builds `OpenAIClientOptions`, and creates a `ChatClient` for the Azure OpenAI v1 endpoint. ```csharp using System.ClientModel.Primitives; using Azure.Identity; using OpenAI; using OpenAI.Chat; #pragma warning disable OPENAI001 const string directModelEndpoint = "https://<resource-name>.openai.azure.com/openai/v1/"; const string modelDeploymentName = "gpt-5.2"; BearerTokenPolicy tokenPolicy = new( new DefaultAzureCredential(), "https://ai.azure.com/.default"); OpenAIClient openAIClient = new( authenticationPolicy: tokenPolicy, options: new OpenAIClientOptions() { Endpoint = new($"{directModelEndpoint}"), }); ChatClient chatClient = openAIClient.GetChatClient(modelDeploymentName); ChatCompletion completion = await chatClient.CompleteChatAsync( [ new SystemChatMessage("You are a helpful assistant."), new UserChatMessage("How many feet are in a mile?") ]); Console.WriteLine(completion.Content[0].Text); #pragma warning restore OPENAI001
Weitere Informationen zur Verwendung des OpenAI SDK finden Sie unter Azure OpenAI unterstützte Programmiersprachen.
Verwenden des Agent-Frameworks für die lokale Orchestrierung
Microsoft Agent Framework ist ein Open-Source SDK zum Erstellen von Multi-Agent-Systemen im Code (z. B. .NET und Python) mit einer cloud-provider-agnostischen Schnittstelle.
Verwenden Sie Agent Framework, wenn Sie Agents lokal definieren und koordinieren möchten. Koppeln Sie es mit dem Foundry SDK, wenn diese Agents für Foundry-Modelle ausgeführt werden sollen oder wenn Sie möchten, dass Agent Framework Agents koordiniert, die in Foundry gehostet werden.
Weitere Informationen finden Sie in der Übersicht über das Microsoft Agent Framework.
Foundry Tools SDKs
Foundry Tools (ehemals Azure AI Services) sind vorgefertigte Point-Lösungen mit dedizierten SDKs. Verwenden Sie die folgenden Endpunkte, um mit Foundry Tools zu arbeiten.
Welchen Endpunkt sollten Sie verwenden?
Wählen Sie einen Endpunkt basierend auf Ihren Anforderungen aus:
Verwenden Sie den Azure AI Services Endpunkt, um auf Computer Vision, Inhaltssicherheit, Dokumentintelligenz, Sprache, Übersetzung und Token Foundry Tools zuzugreifen.
Endpunkt "Foundry Tools": https://<your-resource-name>.cognitiveservices.azure.com/
Hinweis
Endpunkte verwenden entweder Ihren Ressourcennamen oder eine benutzerdefinierte Unterdomäne. Wenn Ihre Organisation eine benutzerdefinierte Unterdomäne eingerichtet hat, ersetzen Sie your-resource-name durch your-custom-subdomain in allen Endpunktbeispielen.
Verwenden Sie für die Sprach- und Übersetzungswerkzeuge die Endpunkte in den folgenden Tabellen. Ersetzen Sie Platzhalter durch Ihre Ressourceninformationen.
Sprachendpunkte
| Gießerei-Werkzeug | Endpunkt |
|---|---|
| Sprache zu Text (Standard) | https://<YOUR-RESOURCE-REGION>.stt.speech.microsoft.com |
| Text-zu-Sprache (Neural) | https://<YOUR-RESOURCE-REGION>.tts.speech.microsoft.com |
| Custom Voice | https://<YOUR-RESOURCE-NAME>.cognitiveservices.azure.com/ |
Übersetzungsendpunkte
| Gießerei-Werkzeug | Endpunkt |
|---|---|
| Textübersetzung | https://api.cognitive.microsofttranslator.com/ |
| Dokumentübersetzung | https://<YOUR-RESOURCE-NAME>.cognitiveservices.azure.com/ |
Die folgenden Abschnitte enthalten Schnellstartlinks für die Foundry Tools-SDKs und Referenzinformationen.