Inhaltsverzeichnis
ToggleChatGPT: Bessere Prompts für Sprachmodelle wie GPT-4
Dieser Leitfaden teilt Strategien und Taktiken für bessere Ergebnisse mit großen Sprachmodellen (manchmal auch als GPT-Modelle bezeichnet) wie GPT-4 von ChatGPT. Die hier beschriebenen Methoden können manchmal kombiniert werden, um eine größere Wirkung zu erzielen. Wir ermutigen zur Experimentation, um die Methoden zu finden, die am besten für dich funktionieren.
Einige der hier demonstrierten Beispiele funktionieren derzeit nur mit unserem leistungsstärksten Modell, GPT-4. Im Allgemeinen lohnt es sich jedoch oft, es erneut mit dem leistungsstärkeren Modell zu versuchen, wenn ein Modell bei einer Aufgabe versagt.
Du kannst auch Beispielprompts erkunden, die zeigen, wozu unsere Modelle in der Lage sind: Prompt-Beispiele Erkunde Prompt-Beispiele, um zu erfahren, was GPT-Modelle können.
Sechs Strategien für bessere Ergebnisse
Klare Anweisungen schreiben
Diese Modelle können nicht deine Gedanken lesen. Wenn die Ausgaben zu lang sind, bitte um kurze Antworten. Wenn die Ausgaben zu einfach sind, bitte um Expertenschreibweise. Wenn dir das Format nicht gefällt, demonstriere das Format, das du sehen möchtest. Je weniger das Modell erraten muss, was du willst, desto wahrscheinlicher wirst du es bekommen.
- Taktiken:
- Füge Details in deine Abfrage ein, um relevantere Antworten zu erhalten
- Bitte das Modell, eine Persona anzunehmen
- Verwende Trennzeichen, um klar unterschiedliche Teile des Inputs anzuzeigen
- Gib die erforderlichen Schritte an, um eine Aufgabe abzuschließen
- Gib Beispiele an
- Spezifiziere die gewünschte Länge der Ausgabe
Referenztext bereitstellen
Sprachmodelle können mühelos erfundene Antworten erfinden, insbesondere wenn nach esoterischen Themen oder nach Zitaten und URLs gefragt wird. In gleicher Weise wie ein Blatt Notizen einem Schüler helfen kann, sich bei einem Test zu verbessern, kann die Bereitstellung von Referenztexten diesen Modellen helfen, mit weniger Fiktionen zu antworten.
- Taktiken:
- Weise das Modell an, unter Verwendung eines Referenztextes zu antworten
- Weise das Modell an, mit Zitaten aus einem Referenztext zu antworten
Komplexe Aufgaben in einfachere Teilaufgaben aufteilen
Genau wie es in der Softwareentwicklung eine bewährte Praxis ist, ein komplexes System in eine Reihe modularer Komponenten zu zerlegen, gilt dasselbe für Aufgaben, die einem Sprachmodell vorgelegt werden. Komplexe Aufgaben haben tendenziell höhere Fehlerquoten als einfachere Aufgaben. Darüber hinaus können komplexe Aufgaben oft als ein Workflow einfacherer Aufgaben neu definiert werden, bei dem die Ausgaben früherer Aufgaben verwendet werden, um die Eingaben späterer Aufgaben zu konstruieren.
- Taktiken:
- Verwende die Absichtsklassifizierung, um die relevantesten Anweisungen für eine Benutzerabfrage zu identifizieren
- Bei Dialoganwendungen, die sehr lange Gespräche erfordern, fasse oder filtere vorherigen Dialog zusammen
- Fasse lange Dokumente stückweise zusammen und erstelle eine vollständige Zusammenfassung rekursiv
Dem Modell Zeit zum „Nachdenken“ geben
Wenn du beispielsweise gefragt wirst, 17 mal 28 zu multiplizieren, könntest du es nicht sofort wissen, aber mit etwas Zeit könntest du es trotzdem herausfinden. Ähnlich machen Modelle mehr Denkfehler, wenn sie versuchen, sofort zu antworten, anstatt sich Zeit zu nehmen, um eine Antwort auszuarbeiten. Die Bitte um einen „Gedankenprozess“ vor einer Antwort kann dem Modell helfen, zuverlässiger zu korrekten Antworten zu gelangen.
- Taktiken:
- Weise das Modell an, seine eigene Lösung auszuarbeiten, bevor es zu einem Schluss kommt
- Verwende innere Monologe oder eine Sequenz von Abfragen, um den Denkprozess des Modells zu verbergen
- Frage das Modell, ob ihm bei vorherigen Durchgängen etwas entgangen ist
Externe Tools verwenden
Kompensiere die Schwächen des Modells, indem du ihm die Ausgaben anderer Tools zuführst. Zum Beispiel kann ein Textsuchsystem (manchmal auch RAG oder abgerufene erweiterte Generierung genannt) dem Modell relevante Dokumente mitteilen. Ein Codeausführungssystem wie der OpenAI-Code-Interpreter kann dem Modell dabei helfen, Mathematik durchzuführen und Code auszuführen. Wenn eine Aufgabe zuverlässiger oder effizienter von einem Tool als von einem Sprachmodell erledigt werden kann, lagere sie aus, um das Beste aus beiden zu bekommen.
- Taktiken:
- Verwende eingebettete Suche, um effiziente Wissensabfrage zu implementieren
- Verwende Codeausführung, um genauere Berechnungen durchzuführen oder externe APIs aufzurufen
- Gib dem Modell Zugriff auf spezifische Funktionen
- Beispiele für Prompt Generators:
Änderungen systematisch testen
Die Leistung zu verbessern ist einfacher, wenn du sie messen kannst. In einigen Fällen kann eine Änderung an einem Prompt zu besseren Ergebnissen bei einigen isolierten Beispielen führen, aber zu schlechteren Gesamtergebnissen bei einem repräsentativeren Satz von Beispielen führen. Daher ist es wichtig, sicherzustellen, dass eine Änderung netto positiv für die Leistung ist. Es kann notwendig sein, einen umfassenden Testfall zu definieren (auch als „Eval“ bekannt), um sicherzustellen, dass eine Änderung die Leistung verbessert.
- Taktik:
- Bewerte Modellausgaben im Vergleich zu Referenzlösungen
Jede der oben aufgeführten Strategien kann mit spezifischen Taktiken instanziiert werden. Diese Taktiken sollen Ideen für Dinge bieten, die man ausprobieren kann. Sie sind keineswegs vollständig umfassend, und du solltest dich frei fühlen, kreative Ideen auszuprobieren, die hier nicht vertreten sind.
GIPHY App Key not set. Please check settings