Aus dem Kurs: KI-Prompting für Content Creation
Mit Prompting-Hacks zu besseren Resultaten
Sie haben bereits gelernt, dass Instruktionen, die wir einem KI-Modell geben, Prompts genannt werden. Aber wie kann ein solcher Prompt eigentlich aussehen? Oder kann man Prompts hacken, wie das manche versprechen? Nein, das kann man nicht. Es geht nicht um hacken. Es geht darum, dem KI-Modell zu helfen, Prompts besser zu verstehen. Diese Kunst nennt man Prompt-Engineering. Es gibt sogar Prompt-Engineering als Berufsfeld. Natürlich stellt sich die Frage, wie groß die Zukunft dieses Berufs ist. Denn KI-Modelle werden immer leistungsfähiger, sie lernen und verbessern sich ständig. Dadurch können sie auch immer komplexere Aufgaben ausführen, ohne dass sie explizit dazu angewiesen werden. Weiter bedeutet das, dass das Prompt-Engineering für die Durchführung von spezifischen Aufgaben weniger wichtig sein wird. KI-Modelle werden immer besser darin, Sie zu verstehen. Und sie werden immer besser darin, aus dem Kontext zu lernen. Zum Beispiel mit Ihrem Chatverlauf. Das Language Model oder das System wird eigentlich immer schlauer. Aber bis es so weit ist und die KI uns perfekt verstehen kann, kann man sich ein paar Life Hacks zunutze machen. Und das ist mein Ziel in diesem Video. Ich zeige Ihnen ein paar meiner persönlichen Lieblingshacks in einer ungeordneten Reihenfolge. Ob einer dieser Prompting-Hacks für Sie wichtig ist oder nicht, hängt davon ab, was Sie generieren wollen. Starten wir mit dem Gedankenketten-Prompting, Das Gedankenketten-Prompting, auch Chain of Thought Prompting genannt, ist wahrscheinlich einer der ältesten und bekanntesten Prompting-Hacks. Dabei ermutigen wir das Modell ausdrücklich, sachlich oder korrekt zu sein, indem wir es zwingen, eine Reihe von Schritten in seiner Argumentation zu befolgen. Chain of Thought Prompting ist ein essenzielles Werkzeug geworden, da es die Ergebnisse wirklich drastisch verbessern kann. Und die Technik funktioniert dabei ganz einfach. Wir hängen einfach an den Prompt ein „Denken wir Schritt für Schritt“ an. Machen wir ein Beispiel mit ChatGPT. Ich stelle dem Modell eine Aufgabe. Ich gehe zum Markt und kaufe zehn Äpfel. Ich gebe dem Nachbarn zwei Äpfel, dem Handwerker auch zwei. Ich kaufe dann noch fünf Äpfel und esse einen. Wie viele Äpfel bleiben mir jetzt? Kurzer Tipp: Die richtige Antwort wäre zehn. ChatGPT gibt jedoch sechs als Antwort aus. Das ist falsch. Stellen wir also dieselbe Aufgabe noch einmal und zwingen ChatGPT dazu, in Schritten zu denken. Schauen Sie auf den Prompt - Denken wir Schritt für Schritt. Und dann kommt eine Schritt für Schritt durchgerechnete Antwort. Und die ist dann auch richtig. Wir haben am Schluss zehn Äpfel. Diesen Hack können Sie natürlich nicht nur beim Sätzchen rechnen, wie wir das in der Schweiz sagen, nutzen, sondern Sie können auch das mitten in Ihren Alltag einbauen. Wenn Sie merken, irgendwie kommen da keine logischen Antworten, dann können Sie einfach mal dieses Denken wir Schritt für Schritt anhängen. Ein anderes häufiges Problem ist, dass KI-Modelle die Tendenz haben, Quellen zu erfinden oder Fakten zu erfinden. Dieses Problem nennt man auch Halluzination. Das Problem der halluzinierenden KI ist ein großes und es gibt noch keine abschließende Lösung dafür. Eine Abhilfe kann eine Quellenabfrage schaffen. Mit einer Quellenabfrage können wir versuchen, echte Antworten zu erzwingen. Das heißt, wir hängen an den Prompt einfach eine solche Quellenabfrage an. Zum Beispiel: Antworte nur aus zuverlässigen Quellen und zitiere diese Quellen. Achtung! Auch diese Lösung schützt nicht zu 100 % vor Halluzination. Manche Language Models erfinden immer noch Fakten, aber durch die Nennung der Quellen kann die Echtheit dieser Quellen zumindest überprüft werden. Also Sie wissen dann, ob etwas stimmt oder nicht. Die Quellenabfrage funktioniert übrigens hauptsächlich bei KIs, die Echtzeitzugriff aufs Internet haben, besonders gut. Also zum Beispiel die neueren ChatGPT Modelle Gemini oder Perplexity. Gehen wir zum nächsten Prompting-Hack. Das ist einer meiner Lieblingshacks. Es geht nämlich ums Texte schreiben. Wenn ich Ihnen sage, Sie sollen mir einen Text schreiben, dann schreiben Sie diesen so, wie Sie schreiben würden. Klingt logisch. Bei einer KI funktioniert das jedoch anders. Sie können einem KI-Modell mitteilen, welche Rolle es spielen soll. Machen wir ein paar Beispiele. Wir sagen dem Modell: Du bist ein Lehrer. Das würde dem Modell vielleicht helfen, sich darauf zu konzentrieren, genau und informativ zu kommunizieren und vielleicht auch klar und prägnant zu sein. Eine solche Charakterdefinition stellen Sie einfach vor Ihren Prompt. Also zum Beispiel: Du bist ein Lehrer. Erkläre mir, wie eine Batterie funktioniert. Das funktioniert natürlich nicht nur mit einem Charakter. Sie können da kreativ sein. Wenn ich das KI-Modell auffordere, kreative Inhalte zu generieren, könnte ich das Modell zum Beispiel bitten, als kreative Autor*in zu fungieren. Dann wird das Ganze wahrscheinlich etwas fantasievoller und ausdrucksvoller. Oder Sie wollen etwas Informatives oder eine Lösung finden. Dann könnten Sie das Model bitten, als Forscher zu fungieren. Das würde wahrscheinlich dazu beitragen, dass das Modell objektiver und analytischer wird. Ein nächster, zwar sehr simpler Hack, aber dafür sehr wirkungsvoll ist das Trennen von Prompt und Material. Wenn Sie das KI-Modell mit einem Text arbeiten lassen wollen, ihn zum Beispiel übersetzen wollen, dann sollten Sie immer klar machen, wann der Prompt endet und wo der zu bearbeitende Text anfängt. Das ist ganz einfach. Nutzen Sie zum Beispiel doppelte Klammern wie hier in meinem Beispiel. So legen Sie klar fest, wann der Prompt endet und wo der zu bearbeitende Text anfängt. Etwas, was ich auch gerne nutze in der Praxis, wenn ich ähnliche Ergebnisse haben möchte, also zum Beispiel für repetitive Textaufgaben, nutze ich Few-Shot Prompting. Sie präsentieren der KI dabei 2 bis 3 Beispiele. Diese Beispiele zeigen das gewünschte Denkmuster, vielleicht das gewünschte Format oder eben die Denkweise. Es gibt also eine ganz klare Struktur. Wir haben einen Prompt, dann zwei Beispiele jeweils mit Input und Output. Also, wenn ich dir das gebe, gibst du mir dieses. Wenn ich dir das gebe, gibst du mir jenes und dann kommt eben ein neuer Input, vielleicht auch mehrere neue Inputs und die KI generiert dann den passenden Output. Machen wir mal ein Beispiel, damit das nicht so abstrakt ist. Wir haben ein Ziel: Wir möchten Leistungsbeurteilungen für unsere Mitarbeitenden schreiben. Unser Prompt sieht so aus: Erstelle eine Leistungsbeurteilung für einen Mitarbeiter im Vertrieb. Hier sind einige Beispiele. Dann kommt Beispiel 1: Wir stellen die Person vor, ihre Rolle und ihre Leistungen. Und dann die Leistungsbeurteilung, die wir uns wünschen. Dann noch einmal dasselbe mit einem zweiten Beispiel: Name, Rolle, Leistungen, also unsere Inhalte und dann ein Text, wie wir ihn uns wünschen. Dann geht der Prompt weiter. Nun geben wir nur noch den Input, also immer nur noch Name, Rolle, Leistungen. Und wenn wir dann diesen Prompt laufen lassen, erhalten wir eben genau diese Textform, die wir uns wünschen. Die Länge ist genauso, wie wir sie in unseren Beispielen haben. Der Stil orientiert sich an unseren Beispielen. Die Vorteile von Few-Shot Prompting liegen auf der Hand. Sie helfen damit, der KI Muster und Erwartungen zu verstehen. Sie können auch damit die Konsistenz und Qualität der Ausgabe verbessern. Und es ist besonders nützlich für spezifische, repetitive Aufgaben. Zum Beispiel eben für Texte, die sich immer wieder inhaltlich ändern, im Stil aber gleich bleiben. Okay, nächster Hack. Sie können die KI auch nutzen, um Ihren Prompt zu verbessern. Bitten Sie das Modell einfach, Ihnen Fragen zu stellen, bevor es eine Antwort gibt. Also zum Beispiel: Schreibe einen Text über mich und stelle mir Fragen, bevor du antwortest. ChatGPT antwortet dann mit Fragen und diese Fragen kann ich dann wieder ins Chatfenster kopieren und beantworten. Ich nutze diese Technik sehr gerne, weil ich weiß, dass die KI dann alle Informationen hat, die sie braucht, um eine Aufgabe gut ausführen zu können. Ich muss nicht den ersten Prompt kilometerlang formulieren, sondern kann darauf vertrauen, dass die KI schon fragt nach dem, was sie wissen muss. Ein weiteres zentrales Standbein des Prompt-Engineering sind Affordanzen. Affordanzen sind ganz klare und präzise Aufforderungen, die die gewünschten Aktionen spezifizieren. Wenn wir zum Beispiel möchten, dass das Modell ein Gedicht über Liebe erstellt, könnten wir folgende Aufforderung verwenden. Schreibe ein Gedicht über die Liebe, das sowohl romantisch als auch traurig ist. Das Gedicht sollte mindestens 100 Zeilen lang sein und mindestens fünf verschiedene Metaphern für die Liebe verwenden. Diese Aufforderung gibt ein Modell ganz klare Anweisungen, was zu tun ist. Sie gibt den gewünschten Output, also ein Gedicht über die Liebe, die gewünschte Länge, 100 Zeilen und den gewünschten Stil Romantisch und traurig, an. Durch die Verwendung von Affordanzen in unseren Prompt können wir die Qualität und Konsistenz der von KI-Modellen erzeugten Ausgabe verbessern. Seien Sie also genau in Ihren Anfragen und nutzen Sie auch Affordanzen, um genau das zu erhalten, was Sie auch haben möchten. Ein weiterer Prompt, den ich gerne nutze, wenn ich etwas Kreatives erarbeite, ist, dass ich einfach meinem Prompt diesen Satz anhänge. Fokussiere dich in deiner Antwort auf unkonventionelle, weniger bekannte Ratschläge und erkläre anhand detaillierter Beispiele. Damit erhalten Sie wirklich coole, kreative Ergebnisse, die ein bisschen weniger generisch wirken. Also, wenn Sie etwas Kreatives tun wollen, wenn Sie Ideen suchen, dann können Sie diesen Prompt nutzen. Ein weiterer Tipp betrifft eher ältere Language Models. Manchmal können Sie das übrigens auch nutzen bei Chatbots auf Websites. Es gibt nämlich Language Models wie zum Beispiel GPT-3, diese lesen die Texte nur vorwärts. Das heißt, die Reihenfolge, die Sie im Prompt nutzen, ist sehr relevant. Wenn Sie also die Anweisung vor dem Beispiel geben, kann dies die Qualität Ihrer Ergebnisse verbessern. Experimentieren Sie also mal mit der Reihenfolge der Aufforderungen. Und zu guter Letzt lohnt es sich manchmal auch, die Sprache zu wechseln. Also mal auf Englisch zu prompten zum Beispiel. Die Sprache im Prompt zu wechseln kann den Output drastisch verändern, da nicht jedes Modell auf jede Sprache gleich gut trainiert wurde. Und das waren auch schon unsere Prompting-Hacks. Ich hoffe, ich konnte Sie da ein bisschen inspirieren. Ein kleiner Bonustipp noch am Rande: Die allermeisten Chat-Tools wie zum Beispiel ChatGPT bieten Ihnen eine Möglichkeit, schonmal grundlegend Voreinstellungen für alle Chats, die Sie starten, vorzugeben. Sie hinterlegen also Vorgaben, wie Sie gerne die Antworten hätten von Ihrem Chatbot. Das kann ChatGPT, Claude kann das auch und ganz viele andere Language Models sind auch in der Lage, solche Voreinstellungen zu machen.