Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Zurzeit wird folgendes angezeigt:Foundry (klassische) Portalversion - Wechseln zur Version für das neue Foundry-Portal
Wichtig
In diesem Artikel markierte Elemente (Vorschau) befinden sich derzeit in der öffentlichen Vorschau. Diese Vorschau wird ohne Vereinbarung auf Serviceebene bereitgestellt und wird für Produktionsworkloads nicht empfohlen. Bestimmte Features werden möglicherweise nicht unterstützt oder weisen eingeschränkte Funktionen auf. Weitere Informationen finden Sie unter Supplementale Nutzungsbedingungen für Microsoft Azure Previews.
Microsoft Foundry Playgrounds bieten eine On-Demand-, Chat-Umgebung für schnelle Prototyperstellung, API-Erkundung und technische Validierung. Verwenden Sie Spielplätze, um mit Modellen zu experimentieren und Ideen zu überprüfen, bevor Sie eine einzelne Zeile von Produktionscode übernehmen.
Voraussetzungen
- Ein Azure-Abonnement. Erstellen Sie eine kostenlos.
- Eine Microsoft Foundry-Ressource.
- Mindestens ein bereitgestelltes Modell in Ihrer Foundry-Ressource.
Highlights der Gießerei-Spielplätze
Zu den Highlights der Gießerei-Spielplätze gehören:
AgentOps-Unterstützung für Auswertungen und Nachverfolgung im Agents-Playground.
In VS Code für Chat- und Agents-Playground öffnen. Mit diesem Feature können Sie Zeit sparen, indem Sie Ihren Endpunkt und Schlüssel automatisch aus Foundry in VS Code für mehrsprachige Codebeispiele importieren.
Bilder-Spielplatz 2.0 für Modelle wie gpt-image-1, Stable Diffusion 3.5 Large und FLUX.1-Kontext-pro Modelle.
Video playground für Azure OpenAI Sora-2.
Audio-Playground für Modelle wie gpt-4o-audio-preview, gpt-4o-transcribe und gpt-4o-mini-tts modelle.
Tipp
Im Screenshot der Startseite des Playgrounds wird der linke Bereich des Portals so angepasst, dass die Registerkarte "Playgrounds" angezeigt wird. Weitere Informationen zum Anzeigen der anderen Elemente im linken Bereich finden Sie unter Anpassen des linken Bereichs.
Gründe für die Verwendung von Spielplätzen vor der Produktion
Die moderne Entwicklung umfasst die Arbeit über mehrere Systeme hinweg – APIs, Dienste, SDKs und Datenmodelle – häufig, bevor Sie bereit sind, sich vollständig auf ein Framework zu verpflichten, Tests zu schreiben oder die Infrastruktur zu drehen. Da die Komplexität von Softwareökosystemen zunimmt, wird die Notwendigkeit sicherer, einfacher Umgebungen zur Validierung von Ideen kritisch. Die Spielplätze werden gebaut, um diesen Bedarf zu erfüllen.
Die Foundry-Spielplätze bieten einsatzbereite Umgebungen mit vorinstallierten Tools und Features, sodass Sie keine Projekte einrichten, Abhängigkeiten verwalten oder Kompatibilitätsprobleme lösen müssen. Die Spielplätze können die Entwicklungsgeschwindigkeit erhöhen, indem sie das API-Verhalten überprüfen, einen schnelleren Übergang zum Code ermöglichen, die Kosten für Experimente und die Zeit bis zur Auslieferung reduzieren, die Integration beschleunigen, Eingabeaufforderungen optimieren und vieles mehr.
Spielplätze bieten auch schnell Klarheit, wenn Sie Fragen haben, indem sie Antworten in Sekunden, anstatt Stunden, bereitstellen und es ermöglichen, Ideen zu testen und zu validieren, bevor Sie sich dazu verpflichten, im großen Maßstab zu bauen. Zum Beispiel sind die Spielplätze ideal für die schnelle Beantwortung von Fragen wie:
- Was ist die minimale Eingabeaufforderung, die ich benötigen, um die gewünschte Ausgabe zu erhalten?
- Funktioniert diese Logik, bevor ich eine vollständige Integration schreibe?
- Wie ändert sich die Latenz oder die Tokenverwendung mit unterschiedlichen Konfigurationen?
- Welches Modell bietet das beste Preis-leistungs-Verhältnis, bevor ich es zu einem Agenten entwickelt habe?
Funktion "In VS Code öffnen"
Mit dem Chat-Playground und dem Agents-Playground können Sie in VS Code mithilfe der Schaltfläche " In VS Code öffnen " arbeiten. Sie finden diese Schaltfläche über die Foundry-Erweiterung in VS Code.
In den mehrsprachigen Beispielcodebeispielen verfügbar, importiert Open in VS Code automatisch Das Codebeispiel, den API-Endpunkt und den Schlüssel zu einem VS Code-Arbeitsbereich in einer /azure Umgebung. Diese Funktionalität erleichtert die Arbeit in der VS-Code-IDE aus dem Foundry-Portal.
Führen Sie die folgenden Schritte aus, um die Funktion "In VS Code öffnen" aus den Chat- und Agents-Spielplätzen zu verwenden:
Wählen Sie "Chat-Playground testen " aus, um ihn zu öffnen. Alternativ können Sie diese Schritte im Agents-Playground ausführen, indem Sie "Los geht' auf der Agents-Playground-Karte" auswählen.
Wenn Sie noch keine Bereitstellung haben, wählen Sie Neue Bereitstellung erstellen aus, und deployieren Sie ein Modell wie
gpt-4o-mini.Stellen Sie sicher, dass Ihre Bereitstellung im Feld "Bereitstellung" ausgewählt ist.
Wählen Sie "Code anzeigen" aus, um das Codebeispiel anzuzeigen.
Wählen Sie "In VS Code öffnen" aus, um VS Code auf einer neuen Registerkarte ihres Browserfensters zu öffnen.
Sie werden zur
/azureUmgebung von VS Code umgeleitet, wo Ihr Codebeispiel, der API-Endpunkt und der Schlüssel bereits aus dem Foundry-Playground importiert sind.Durchsuchen Sie die
INSTRUCTIONS.mdDatei, um Anweisungen zum Ausführen Ihres Modells zu erhalten.Zeigen Sie Ihr Codebeispiel in der
run_model.pyDatei an.Zeigen Sie relevante Abhängigkeiten in der
requirements.txtDatei an.
Agenten-Spielplatz
Mit dem Agents-Playground können Sie Agents erkunden, prototypen und testen, ohne Code auszuführen. Auf dieser Seite können Sie schnell iterieren und mit neuen Ideen experimentieren.
Informationen zu den ersten Schritten mit dem Agents-Playground finden Sie in der Schnellstartanleitung: Erstellen eines neuen Agents.
Wichtig
Auswertungen im Agents-Playground sind für alle Foundry-Projekte standardmäßig aktiviert und sind in verbrauchsbasierte Abrechnung enthalten. Zum Deaktivieren von Playground-Auswertungen wählen Sie das Metrikfeld im Agents-Playground aus, und deaktivieren Sie alle Bewertungsfunktionen.
Chat-Spielwiese
Der Chat-Playground ist der Ort, um die neuesten Reasoning-Modelle von Modellen zu testen, darunter Azure OpenAI, DeepSeek und Meta. Für alle Grundgedankenmodelle bietet der Chat-Playground eine Übersichts-Dropdownkette, mit der Sie sehen können, wie das Modell seine Antwort durchdenkt, bevor Sie die Ausgabe freigeben.
Weitere Informationen zum Chat-Playground finden Sie in der Schnellstartanleitung: Antworten im Chat-Playground erhalten.
Audio-Spielplatz
Mit dem Audio-Playground (Vorschau) können Sie Text-zu-Sprache- und Transkriptionsfunktionen mit den neuesten Audiomodellen von Azure OpenAI verwenden.
Führen Sie die folgenden Schritte aus, um die Text-zu-Sprache-Funktion zu testen:
Wählen Sie "Audio-Playground testen" aus, um ihn zu öffnen.
Wenn Sie noch keine Bereitstellung haben, wählen Sie "Neue Bereitstellung erstellen" aus und stellen Sie ein Modell wie zum Beispiel
gpt-4o-mini-ttsbereit.Stellen Sie sicher, dass Ihre Bereitstellung im Feld "Bereitstellung" ausgewählt ist.
Geben Sie eine Textaufforderung ein.
Passen Sie Modellparameter wie Sprach- und Antwortformat an.
Wählen Sie "Generieren " aus, um eine Sprachausgabe mit Wiedergabesteuerelementen zu empfangen, die Wiedergabe, Rückspulen, Vorwärts, Anpassen der Geschwindigkeit und Lautstärke umfassen.
Laden Sie die Audiodatei auf Ihren lokalen Computer herunter.
Führen Sie die folgenden Schritte aus, um die Transkriptionsfunktion zu testen:
Wenn Sie noch keine Bereitstellung haben, wählen Sie Create new deployment aus, und stellen Sie ein Modell wie
gpt-4o-transcribebereit.Stellen Sie sicher, dass Ihre Bereitstellung im Feld "Bereitstellung" ausgewählt ist.
(Optional) Fügen Sie eine Begriffsliste als Textmechanismus ein, um Ihre Audioeingabe zu leiten.
Geben Sie eine Audiodatei ein, indem Sie entweder eine Datei hochladen oder die Audiodaten über die Eingabeaufforderungsleiste aufzeichnen.
Wählen Sie "Transkription generieren " aus, um die Audioeingabe an das Modell zu senden und eine transkribierte Ausgabe in Text- und JSON-Formaten zu empfangen.
Sprachspielplatz
Der Language-Playground bietet eine codefreie Umgebung zum Testen und Überprüfen von Azure-Sprache in Foundry Tools Fähigkeiten. Verwenden Sie diese Funktion, um mit NLP-Funktionen (Natural Language Processing) zu experimentieren, wie z. B. Schlüsseldatenauszug, Informationszusammenfassung, Textklassifikation und Feineinstellung von benutzerdefinierten Modellen.
Der Sprach-Playground besteht aus vier primären Abschnitten:
- Oberstes Banner: Wählen Sie aus den verfügbaren Sprachfunktionen wie Spracherkennung, Entitätserkennung, Stimmungsanalyse, PII-Erkennung, Zusammenfassung und Unterhaltungssprachenverständnis aus.
- Linker Bereich: Konfigurieren von Dienstoptionen wie API-Version, Modellversion und funktionsspezifische Parameter.
- Mittlerer Bereich: Eingeben oder Hochladen von Text für die Verarbeitung. Ergebnisse werden hier angezeigt, nachdem Sie den Vorgang ausgeführt haben.
- Rechtsbereich: Anzeigen detaillierter Vorgangsergebnisse, einschließlich Entitätskategorien, Konfidenzbewertungen, Offsets und JSON-formatierter Antworten.
So verwenden Sie den Sprach-Playground:
Wählen Sie im linken Bereich Spielplätze aus.
Wählen Sie Try Azure Language Playground aus.
Wählen Sie im oberen Banner eine Sprachfunktion aus, z. B.:
- Analysieren der Stimmung
- Gesprächssprachenverständnis
- Benutzerdefinierte benannte Entitätserkennung
- Benutzerdefinierte Frageantwort
- Sprache erkennen
- Extrahieren von Gesundheitsinformationen
- Schlüsselphrasen extrahieren
- Extrahieren benannter Entitäten
- Extraktion personenbezogener Daten aus Gesprächen oder Text
- Zusammenfassen von Unterhaltungen, Anrufcenter-Transkriptionen oder Text
Wählen Sie "Konfigurieren" aus, um API-Version, Modellversion und funktionsspezifische Optionen anzugeben, z. B. Sprachauswahl, Entitätstypen, die eingeschlossen werden sollen, oder Redaction-Richtlinien für PII.
Geben Sie Text direkt im Beispielfenster ein, wählen Sie ein vorinstalliertes Textbeispiel aus dem Dropdownmenü aus, oder laden Sie ihre eigene Textdatei mithilfe des Büroklammersymbols hoch.
Wählen Sie die entsprechende Interaktive Schaltfläche (z. B. Erkennen, Extrahieren, Analysieren oder Zusammenfassen) aus, um den Text zu verarbeiten.
Überprüfen Sie die Ergebnisse, die im mittleren Bereich angezeigt werden, und überprüfen Sie detaillierte Ausgabeinformationen im Abschnitt "Details " im rechten Bereich, einschließlich Konfidenzbewertungen, Entitätskategorien, Zeichenversatz und Längen.
Wählen Sie View-Code aus, um auf mehrsprachige Codebeispiele in Python, C#, JavaScript und anderen Sprachen für die Integration in Ihre Anwendungen zuzugreifen.
Der Sprach-Playground beschleunigt die Entwicklung und ermöglicht eine schnelle Prototyperstellung und Validierung von NLP-Funktionen vor der Produktionsimplementierung. Es unterstützt außerdem Schulungen, Bereitstellung, Tests und Feinabstimmung von benutzerdefinierten NER-Modellen (Named Entity Recognition) mit Echtzeitdebugging.
Übersetzer-Spielplatz
Der Translator-Playground bietet eine codefreie Umgebung zum Testen und Überprüfen Azure Translator Funktionen. Es unterstützt sowohl Textübersetzungs- als auch Dokumentübersetzungsworkflows und ermöglicht Entwicklern das Experimentieren mit neuralen maschinellen Übersetzungen (NMT) und einer llM-basierten Übersetzung mithilfe von GPT-4o und GPT-4o-mini.
So verwenden Sie den Übersetzer-Playground:
Wählen Sie im linken Bereich "Playgrounds" aus.
Wählen Sie Versuchen Sie den Übersetzer-Playground aus.
Für textübersetzung:
Geben Sie den Text ein, den Sie im Eingabefeld übersetzen möchten, oder fügen Sie ihn ein.
Wählen Sie die Quellsprache aus, oder aktivieren Sie die automatische Spracherkennung.
Wählen Sie eine oder mehrere Zielsprachen für die Übersetzungsausgabe aus.
Wählen Sie das Übersetzungsmodell aus: Azure-MT (neurale maschinelle Übersetzung), GPT-4o oder GPT-4o-mini. LLM-Modelle ermöglichen die Übersetzung mit bestimmten Geschlechts- oder Tonanpassungen und können mithilfe der domänenspezifischen Terminologie optimiert werden.
(Optional) Konfigurieren Sie erweiterte Optionen wie z. B. Die Behandlung von Profanität, den Texttyp oder die benutzerdefinierten Glossare.
Wählen Sie "Übersetzen" aus, um die Übersetzung zu generieren.
Überprüfen Sie die übersetzte Ausgabe, und vergleichen Sie ergebnisse in verschiedenen Modellauswahlen.
Für die Dokumentübersetzung:
Wählen Sie die Option "Dokumentübersetzung" aus .
Laden Sie Ihr Quelldokument hoch, oder wählen Sie ein vorab geladenes Dokumentbeispiel aus.
Geben Sie die Zielsprache für die Übersetzung an.
(Optional) Wenden Sie benutzerdefinierte Übersetzungsmodelle oder benutzerdefinierte Glossare an, um domänenspezifische Terminologiekonsistenz zu gewährleisten.
Wählen Sie "Übersetzen" aus, um das Dokument zu verarbeiten. Dadurch wird das ursprüngliche Layout und die ursprüngliche Formatierung beibehalten.
Laden Sie das übersetzte Dokument auf Ihren lokalen Computer herunter.
Wählen Sie "Code anzeigen" aus, um auf REST-API-Beispiele und SDK-Codebeispiele in mehreren Programmiersprachen zuzugreifen, um Übersetzerfunktionen in Ihre Anwendungen zu integrieren.
Der Translator-Playground ermöglicht die Echtzeitüberprüfung von Übersetzungsqualität, Eingabeaufforderungsstrukturen und benutzerdefinierter Glossareffizienz vor der Implementierung der Produktion. Verwenden Sie es, um Modellausgaben zu vergleichen und Übersetzungskonfigurationen für Ihre spezifischen Anwendungsfälle zu optimieren.
Video-Plattform
Der Video-Playground (Vorschau) ist Ihre schnelle Iterationsumgebung zum Untersuchen, Verfeinern und Validieren von generativen Videoworkflows. Es wurde für Entwickler entwickelt, die von der Idee zum Prototyp mit Präzision, Kontrolle und Geschwindigkeit wechseln müssen. Der Playground bietet Ihnen eine Schnittstelle mit geringer Reibung, um Aufforderungsstrukturen zu testen, die Bewegungstreue zu bewerten, die Modellkonsistenz über Frames hinweg zu bewerten und die Ausgaben über Modelle hinweg zu vergleichen – ohne Standardvorlagen zu schreiben oder Rechenzyklen zu verschwenden.
Alle Modellendpunkte sind in Azure KI Inhaltssicherheit integriert. Daher filtert der Video-Playground schädliche und unsichere Bilder aus, bevor sie angezeigt werden. Wenn Richtlinien für die Inhaltsmoderation Ihre Textaufforderung oder die Generierung von Videos kennzeichnen, erhalten Sie eine Warnbenachrichtigung.
Sie können den Video-Playground mit dem Modell Azure OpenAI Sora-2 verwenden.
Tipp
Sehen Sie sich den DevBlog für Sora und den Video-Playground in Foundry an.
Führen Sie die folgenden Schritte aus, um den Video-Playground zu verwenden:
Vorsicht
Videos, die Sie generieren, werden aufgrund des Datenschutzes 24 Stunden aufbewahrt. Laden Sie Videos zur längeren Aufbewahrung auf Ihren lokalen Computer herunter.
Wählen Sie "Video-Playground testen" aus, um ihn zu öffnen.
Wenn Sie noch keine Bereitstellung haben, wählen Sie "Jetzt bereitstellen" auf der oberen rechten Seite der Startseite aus, und stellen Sie das
sora-2Modell bereit.Lassen Sie sich auf der Homepage des Video-Playgrounds von vordefinierten Eingabeaufforderungen inspirieren, die nach dem Branchenfilter sortiert sind. Von hier aus können Sie die Videos in voller Anzeige anzeigen und die Eingabeaufforderung aus der unteren rechten Ecke eines Videos kopieren, um daraus zu erstellen.
Kopieren Sie die Eingabeaufforderung, um sie in die Eingabeaufforderungsleiste einzufügen. Passen Sie wichtige Steuerelemente (z. B. Seitenverhältnis oder Auflösung) an, um die spezifische Reaktionsfähigkeit und Einschränkungen des Modells tiefgehend zu verstehen.
Wählen Sie "Generieren " aus, um ein Video basierend auf der kopierten Eingabeaufforderung zu generieren.
Schreiben Sie ihre Textaufforderungssyntax mit gpt-4o neu, indem Sie re-write with AI verwenden.
Schalten Sie den Start mit einer Branchensystem-Eingabeaufforderungsfunktion ein, wählen Sie eine Branche aus, und geben Sie die für Ihre ursprüngliche Eingabeaufforderung erforderliche Änderung an.
Wählen Sie "Aktualisieren" aus, um die Eingabeaufforderung zu aktualisieren, und wählen Sie dann "Generieren " aus, um ein neues Video zu erstellen.
Wechseln Sie zur Registerkarte " Generationenverlauf ", um Ihre Generationen als Raster- oder Listenansicht zu überprüfen. Wenn Sie die Videos auswählen, öffnen Sie sie im Vollbildmodus, um die Volleintauchung zu ermöglichen. Beobachten Sie die Ausgaben visuell bei Änderungen an Prompts oder Parametern.
Bearbeiten Sie im Vollbildmodus die Eingabeaufforderung und übermitteln Sie sie, um sie erneut zu generieren.
Entweder im Vollbildmodus oder über die Optionsschaltfläche, die angezeigt wird, wenn Sie auf das Video zeigen, die Videos auf Ihren lokalen Computer herunterladen, das Informationstag der Videogenerierung anzeigen, Code anzeigen oder das Video löschen.
Wählen Sie View-Code aus dem Optionsmenü aus, um Kontextbeispielcode für Ihre Videogenerationen in mehreren Sprachen anzuzeigen, einschließlich Python, JavaScript, C#, JSON, Curl und Go.
Portieren Sie die Codebeispiele in die Produktion, indem Sie sie in VS Code kopieren.
Was beim Experimentieren im Video-Playground zu überprüfen ist
Wenn Sie den Video-Playground verwenden, um Ihre Produktionsauslastung zu planen, erkunden und überprüfen Sie die folgenden Attribute:
Prompt-to-Motion-Übersetzung
- Interpretiert das Videomodell Ihre Eingabeaufforderung auf eine Weise, die logischen und zeitlichen Sinn macht?
- Ist Bewegung mit der beschriebenen Aktion oder Szene kohärent?
Framekonsistenz
- Bleiben Zeichen, Objekte und Formatvorlagen über Frames hinweg konsistent?
- Gibt es visuelle Artefakte, Jitter oder unnatürliche Übergänge?
Szenensteuerelement
- Wie gut können Sie die Szenenkomposition, das Motivverhalten oder kamerawinkel steuern?
- Können Sie Szenenübergänge oder Hintergrundumgebungen leiten?
Länge und Anzeigedauer
- Wie wirken sich unterschiedliche Eingabeaufforderungsstrukturen auf die Videolänge und das Pacing aus?
- Fühlt sich das Video zu schnell, zu langsam oder zu kurz an?
Multimodale Eingabeintegration
- Was passiert, wenn Sie ein Referenzbild, Posedaten oder Audio-Eingaben bereitstellen?
- Können Sie Videos in Übereinstimmung mit einem bestimmten Voiceover generieren?
Anforderungen nach der Verarbeitung
- Welche Genauigkeitsstufe können Sie erwarten, bevor Sie Bearbeitungstools benötigen?
- Müssen Sie das Video skalieren, stabilisieren oder retouchieren, bevor Sie es in der Produktion verwenden?
Latenz und Leistung
- Wie lange dauert es, um Video für verschiedene Eingabeaufforderungstypen oder Auflösungen zu generieren?
- Was ist der Preis-Leistungs-Kompromiss beim Generieren von 5-Sekunden-Clips im Vergleich zu 15 Sekunden?
Bilder-Playground
Der Bilder-Playground eignet sich ideal für Entwickler, die Bildgenerierungsflüsse erstellen. Dieser Playground ist eine umfassende, kontrollierte Umgebung für High-Fidelity-Experimente, die für modellspezifische APIs entwickelt wurden, um Bilder zu generieren und zu bearbeiten.
Tipp
Sehen Sie sich das 60-Sekunden-Kurzvideo des Images Playground für gpt-image-1 und unseren Entwickler-Blog zum Images Playground in Foundry an.
Sie können den Bilder-Playground mit folgenden Modellen verwenden:
- gpt-image-1 aus Azure OpenAI.
- Stable Diffusion 3.5 Large, Stable Image Core, Stable Image Ultra von Stability AI.
- FLUX.1-Kontext-pro und FLUX-1.1-pro aus den Black Forest Labs.
Führen Sie die folgenden Schritte aus, um den Bilder-Playground zu verwenden:
Wählen Sie "Bilder-Playground testen" aus, um ihn zu öffnen.
Wenn Sie noch keine Bereitstellung haben, wählen Sie Bereitstellung erstellen aus und stellen Sie ein Modell bereit, wie z. B.
gpt-image-1.Geben Sie Ihre Textaufforderung ein: Beginnen Sie mit einer beliebigen Textaufforderung für das Bild, das Sie generieren möchten. Laden Sie für Modelle, die die Generierung von Bildern ermöglichen, einen Bildanhang in die Eingabezeile hoch.
Erkunden Sie die modellspezifischen Generierungssteuerelemente nach der Modellbereitstellung: Passen Sie Schlüsselsteuerungen (z. B. Anzahl der Variationen, Qualität, Größe, Bildformat) an, um die Reaktionsfähigkeit und Einschränkungen des Modells besser zu verstehen.
Wählen Sie "Generieren" aus.
Nebeneinander in der Rasteransicht: Beobachten Sie die Ausgaben für alle Promptanpassungen oder Parameteränderungen visuell.
Transformation mit API-Tools: Die Inpaintierung mit der Texttransformation ist für gpt-image-1 verfügbar. Ändern Sie Teile Ihres Originalbildes mit der Inpainting-Auswahl. Verwenden Sie Textaufforderungen, um die Änderung anzugeben.
Für die Produktion portieren mit mehrsprachigen Code-Beispielen: Verwenden Sie Python-, Java-, JavaScript-, C#-Code-Beispiele mit View Code. "Der Images-Spielplatz ist Ihr Sprungbrett für Entwicklungsarbeiten in VS Code."
Was beim Experimentieren im Bilder-Playground zu überprüfen ist
Mithilfe des Bilder-Playgrounds können Sie die folgenden Aspekte untersuchen und überprüfen, während Sie Ihre Produktionsauslastung planen:
Effektivität des Prompts
- Welche Art visueller Ausgabe generiert diese Aufforderung für meinen Unternehmensanwendungsfall?
- Wie spezifisch oder abstrakt kann meine Sprache sein, um trotzdem gute Ergebnisse zu erzielen?
- Versteht das Modell Stilverweise wie "surrealistisch" oder "cyberpunk" genau?
Stilistische Konsistenz
- Wie kann ich dasselbe Zeichen, dieselbe Formatvorlage oder dasselbe Design für mehrere Bilder beibehalten?
- Kann ich bei Variationen derselben Basiseingabeaufforderung mit minimalem Drift iterieren?
Parameteroptimierung
- Welche Auswirkungen hat das Ändern von Modellparametern wie Leitskala, Seed (Startwert), Schritte und andere?
- Wie kann ich Kreativität gegen prompte Genauigkeit ausgleichen?
Modellvergleich
- Wie unterscheiden sich die Ergebnisse zwischen Modellen, z. B. SDXL im Vergleich zu DALL· E?
- Welches Modell ist für realistische Gesichter im Vergleich zu künstlerischen Kompositionen besser geeignet?
Kompositionssteuerung
- Was geschieht, wenn ich räumliche Einschränkungen wie Begrenzungsrahmen oder Inpainting-Masken verwende?
- Kann ich das Modell zu bestimmten Layouts oder Schwerpunkten leiten?
Eingabevariation
- Wie wirken sich geringfügige Änderungen bei der Eingabeaufforderung oder Struktur auf die Ergebnisse aus?
- Was ist die beste Methode, um Symmetrie, bestimmte Kamerawinkel oder Emotionen zu ermuntern?
Integrationsbereitschaft
- Erfüllt dieses Bild die Einschränkungen der Benutzeroberfläche meines Produkts, einschließlich Seitenverhältnis, Auflösung und Inhaltssicherheit?
- Entspricht die Ausgabe markenrichtlinien oder Kundenerwartungen?
Problembehandlung
| Angelegenheit | Auflösung |
|---|---|
| Warnung zur Inhaltssicherheit bei der Generierung | Verfeinern Sie Ihre Eingabeaufforderung, um gekennzeichnete Inhalte zu vermeiden. Überprüfen Sie Azure KI Inhaltssicherheit-Richtlinien. |
| Modell in der Bereitstellungsliste nicht verfügbar | Überprüfen Sie die regionale Verfügbarkeit des Modells für Ihre Foundry-Ressourcenregion. |
| Fehler "Kontingent überschritten" | Überprüfen Sie Ihr Abonnementkontingent und beantragen Sie Erhöhungen über das Azure-Portal. |
| Im Vergleichsmodus wird der Abschnitt "Extras" nicht angezeigt. | Schließen Sie zuerst Vergleichsmodelle. Tools sind nur in der Einzelmodell-Playground-Ansicht verfügbar. |
| Generierte Videos werden für begrenzte Zeit aufbewahrt | Videos werden 24 Stunden aufbewahrt. Laden Sie Videos zur längeren Aufbewahrung auf Ihren lokalen Computer herunter. |