+41 41 544 36 44
  • en
  • de
  • Richtlinien für die Prompt-Entwicklung mit ChatGPT

    von Konstantina Lazaridou, Machine Learning Engineer

    Wussten Sie, dass DeepLearning.AI in Zusammenarbeit mit OpenAI einen kostenlosen Kurzkurs zur Entwicklung von Prompts für ChatGPT für Entwickler anbietet? Mehr Informationen über den Kurs finden Sie hier. Wir haben an dem Kurs teilgenommen und haben in diesem Artikel die wichtigsten Erkenntnisse und Tipps zum Schreiben effektiver Prompts für große Sprachmodelle (LLMs) und insbesondere ChatGPT zusammengefasst.

    Beim Schreiben von Prompts für ChatGPT, entweder mit spielerischem Ansatz oder im Kontext einer Softwareanwendung, gibt es zwei wichtige Strategien zu beachten: Verwenden Sie klare Anweisungen und geben Sie dem Modell Zeit zum Nachdenken.

    Klare und spezifische Anweisungen

    Bei der Kommunikation mit ChatGPT ist es wichtig, die Aufgabenstellung präzise zu formulieren, um die Wahrscheinlichkeit zu erhöhen, dass ChatGPT mit den erwarteten Informationen antwortet. Es ist hilfreich, den Text, den ChatGPT verarbeiten soll, mit Trennzeichen zu versehen. In einem Prompt zur E-Mail-Klassifizierung können Sie zum Beispiel schreiben: „Bitte klassifizieren Sie den folgenden Text, der in dreifachen Anführungszeichen steht, als Spam oder nicht als Spam.“ Anschließend einfach den E-Mail-Text einfügen und in dreifache Anführungszeichen setzen. Auf diese Weise weiß das Modell, worauf es sich konzentrieren muss. Es ist auch hilfreich, das Modell aufzufordern, seine Ausgabe in einem bestimmten Format zu formatieren, z. B. im json-Format, für den Fall, dass man die Ausgabe in der Implementierung weiterverarbeiten möchte. 

    Darüber hinaus können Sie für verschiedene Fälle eine unterschiedliche Behandlung verlangen. So können Sie beispielsweise „Wenn keine Antwort für diese Aufgabe gefunden wird, erfinden Sie bitte keine und geben Sie ‚Unbekannt‘ zurück.“ Am Ende der Aufforderung hinzufügen, um das Verhalten von ChatGPT zu steuern. Wenn die ursprüngliche Aufforderung nicht zum gewünschten Ergebnis führt, können Sie dem Modell auch einige Beispiele geben (few shot prompting), bevor Sie es auffordern, die endgültige Aufgabe zu lösen. Dies kann entweder durch die Bereitstellung von Beispielen während einer vorherigen Interaktion oder innerhalb der Aufgabenstellung selbst geschehen. Schließlich ist es, wie später im Kurs erklärt wird, oft notwendig, mit einem LLM iterativ zu arbeiten, da es selten der Fall ist, dass die gestellte Aufgabe auf Anhieb gelöst wird. Daher kann man, nachdem man das Modell zum ersten Mal aufgefordert hat, weiter mit ihm interagieren, indem man die Anforderungen immer weiter präzisiert, bis die Problembeschreibung für das LLM klar genug ist.

    Dem Modell Zeit zum Nachdenken geben

    Einige Aufgaben können für ChatGPT kompliziert sein und komplexe und anspruchsvolle Überlegungen erfordern, z. B. das Lösen von mathematischen Aufgaben. In diesem Fall ist es hilfreich, dem Modell mitzuteilen, in welchen Schritten es an die Aufgabe herangehen soll, und es so zu ermutigen, einem vernünftigen Schritt-für-Schritt-Denkprozess zu folgen. Wie bereits erwähnt, kann die Klärung des Ausgabeformats es dem Modell ermöglichen, die Aufgabe zu verstehen, aber es könnte ihm auch helfen, komplexe Probleme erfolgreich zu bewältigen. Eine weitere gute Strategie bei komplexen Problemen ist es, ChatGPT aufzufordern, einen Weg zu finden, die Aufgabe selbständig und auf der Grundlage der vorgegebenen Beispiele zu lösen, bevor es versucht, die Aufgabe für das neue Eingabebeispiel zu lösen. Auf diese Weise wird ChatGPT ermutigt, die notwendigen Schritte zu unternehmen und methodisch vorzugehen, anstatt zu hetzen oder Informationen zu erfinden, um eine schnelle Antwort für den neuen Datenpunkt zu liefern. Schließlich können Sie auch versuchen, das Modell aufzufordern, seine Entscheidungen zu begründen; dies ist eine Strategie, die die Chancen erhöht, dass die Aufforderung beim ersten Versuch gut funktioniert. Generell kann die Frage nach Erklärungen oder relevanten Quellen das Modell davon abhalten, zusätzliche Informationen zu halluzinieren (also neue und unbegründete Fakten zu erfinden).

    Fazit

    Unser Eindruck vom Kurs ist, dass er sehr aufschlussreiche Informationen zu Prompts liefert, insbesondere wie man mit ChatGPT interagiert und wie man genau das gewünschte Ergebnis erreicht. Der Rest des Kurses enthält Beispiele für Prompts, die in Gruppen ähnlicher Anwendungsfälle unterteilt sind, d. h. wie man geeignete Prompts schreibt, um Text zusammenzufassen oder zu erweitern, den Text zu verändern (z. B. ihn zu übersetzen), ihn zu klassifizieren, Informationen aus ihm zu extrahieren und schließlich, wie man einen Chatbot für eine bestimmte Anwendung erstellt (mit System-, Benutzer- und Assistentenrollen). Der Umgang mit potenziellen Halluzinationen oder Text ohne Evidenzbasis bleibt noch ein offenes Thema, aber der Kurs bietet nützliche Prompt-Engineering-Techniken, die einen Schritt in diese Richtung darstellen.

    Artikel wurde aus dem englischen Original übersetzt.