Zusammenfassung
In diesem Modul haben wir die Komplikationen der Optimierung von GitHub Copilot durch effektive Prompts aufgezeigt. Die Kunst und Wissenschaft des Prompt Engineerings besteht darin, das maximale Potenzial des Tools auszuschöpfen. Jetzt sind Sie mit ausgefeilten Fähigkeiten und Erkenntnissen ausgestattet, um das Meiste aus Ihrer Codierungserfahrung und -ausgabe herauszuholen. Durch Abschließen dieses Moduls haben Sie Folgendes gelernt:
Prinzipien des Prompt Engineerings, Best Practices und wie GitHub Copilot aus Ihren Prompts lernt, um kontextbewusste Antworten zu liefern. Zugrunde liegender Flow, wie GitHub Copilot Benutzer-Prompts verarbeitet, um Antworten oder Codevorschläge zu generieren Der Datenfluss für Codevorschläge und Chats in GitHub Copilot LLMs (Large Language Models) und ihre Rolle in GitHub Copilot und bei Prompts. Erstellen effektiver Prompts, mit denen die Leistung von GitHub Copilot optimiert und Präzision und Relevanz in jedem Codevorschlag sichergestellt wird Die komplexe Beziehung zwischen Prompts und den Antworten des Copilot Wie Copilot Daten aus Prompts in verschiedenen Situationen behandelt, einschließlich der sicheren Übertragung und der Inhaltsfilterung.
Verweise
- Inside GitHub: Working with the Large Language Models (LLMs) behind GitHub Copilot - The GitHub Blog
- Verwenden von GitHub Copilot: Eingabeaufforderungen, Tipps und Anwendungsfälle – Der GitHub-Blog
- Wie GitHub Copilot Daten verarbeitet
Feedback geben
Verwenden Sie dieses Problemformular , um Inhaltsfeedback oder vorgeschlagene Änderungen für dieses Microsoft Learn-Modul bereitzustellen. GitHub verwaltet diese Inhalte, und ein Teammitglied löscht die Anforderung. Vielen Dank, dass Sie sich die Zeit genommen haben, unsere Inhalte zu verbessern!