Einleitung
Das Erstellen effektiver generativer KI-Anwendungen erfordert die Auswahl des richtigen Foundation-Modells für Ihren spezifischen Anwendungsfall. Mit tausenden verfügbaren Modellen benötigen Sie einen strukturierten Ansatz, um Ihre Anforderungen zu ermitteln, zu vergleichen, bereitzustellen und zu überprüfen, ob ein Modell Ihren Anforderungen entspricht.
Betrachten Sie ein Szenario, in dem Sie einen KI-basierten Kundensupport-Chatbot für ein Einzelhandelsunternehmen erstellen. Sie müssen ein Sprachmodell auswählen, das Kundenfragen verstehen, genaue Antworten liefert und geeignete Ton- und Sicherheitsstandards aufrecht erhält. Aber wie wählen Sie aus dem riesigen Katalog der verfügbaren Modelle? Wie wissen Sie, ob ein Modell für Ihre spezifischen Anforderungen gut funktioniert? Einmal implementiert, wie messen und verbessern Sie die Leistung?
Das Microsoft Foundry-Portal bietet eine umfassende Plattform für diesen gesamten Workflow. Sie können mehr als 1.900 Modelle von Anbietern wie Microsoft, Anthropic, OpenAI, Meta und Hugging Face erkunden. Sie können Modelle mit Branchenstandard-Benchmarks für Qualität, Sicherheit, Kosten und Leistung vergleichen. Nachdem Sie ein Modell ausgewählt haben, stellen Sie es auf einem Endpunkt bereit, an dem Ihre Anwendung es nutzen kann. Schließlich bewerten Sie die Leistung des Modells mithilfe automatisierter Metriken und manueller Tests, um sicherzustellen, dass es Ihre Qualitäts- und Sicherheitsanforderungen erfüllt.
In diesem Modul erfahren Sie, wie Sie mithilfe des Microsoft Foundry-Portals Modelle aus dem Modellkatalog auswählen, bereitstellen und auswerten können. Sie erfahren, wie Sie fundierte Entscheidungen zur Modellauswahl treffen, verschiedene Bereitstellungsoptionen verstehen und die Modellleistung mithilfe verschiedener Evaluierungsansätze bewerten.
Am Ende dieses Moduls können Sie:
- Erkunden und Filtern von Modellen im Modellkatalog
- Vergleichen von Modellen mithilfe von Benchmarkmetriken für Qualität, Sicherheit, Kosten und Leistung
- Bereitstellen eines Modells auf einem Endpunkt und Testen im Playground
- Bewerten der Modellleistung mithilfe manueller und automatisierter Ansätze
- Grundlegendes zu unterschiedlichen Auswertungsmetriken und deren Verwendung