Veröffentlicht am in Notion HQ

So schreibst du gute KI-Aufforderungen

Von Michael Krantz

Marketing, Notion

Lesezeit 10 min

Mit künstlicher Intelligenz kannst du erstaunliche Dinge tun – wenn du weißt, wie man großartige KI-Eingabeaufforderungen schreibt (und umschreibt).

Ich wusste dies nicht. Deshalb habe ich mit meinem Kollegen Theo Bleier gesprochen, einem KI-Entwickler, der seine Tage damit verbringt, an vorgefertigten Eingabeaufforderungen zu tüfteln, die du siehst, wenn du Notion-KI verwendest. Jetzt kann ich dir erklären, wie du ab heute die atemberaubende Leistungsfähigkeit der generativen KI nutzen kannst, um deine Arbeit und dein Leben zu verbessern.

Hinweis: Alle Eingabeaufforderungen und Antworten in diesem Beitrag wurden mit Notion-KI erstellt. Die von uns besprochenen Prinzipien sollten jedoch in jedem Standard-Large-Language-Modell (LLM) ähnlich funktionieren.

Lass uns zunächst darüber nachdenken, wie LLMs tatsächlich funktionieren

Large-Language-Modelle (LLMs) wie Notion-KI, ChatGPT und Llama verwenden Datensätze, die große Mengen an Sprache enthalten – das Äquivalent von Millionen von Büchern, Webseiten und so weiter. Sie verwandeln jedes Wort (oder Teile eines Wortes) in diesen Milliarden von Sätzen in ein Token und ordnen dann jedes Token danach ein, wie oft es neben jedem anderen Token in diesem Datensatz verwendet wird.

Wenn du ein KI-Modell aufforderst, deine Anfrage zu prüfen, verwendet es diese Rankings und sendet die seiner Meinung nach ideale Antwort zurück. Bei einfachen Eingabeaufforderungen scheint dieser Vorgang recht einfach zu sein.

Die Antwort der KI

Aber LLMs weichen gelegentlich von ihren Token-Rankings ab, um eine kreative Reaktion zu erzeugen – daher der Name „generative KI“. Das Ergebnis kann, nun ja, etwas gruselig sein.

Die Antwort der KI

Wie führt die Token-Ranking-Strategie von Sprachmodellen zu komplexer Sprache und Konversationsfähigkeit? Diese Frage bleibt ein aktiver Forschungsbereich. Aber wir müssen diesen Prozess nicht vollständig verstehen, um zu lernen, wie wir ihn manipulieren können.

Sprich mit deinem Modell, als wäre es ein Mensch

Sprich normal

Generative KI-Modelle sind nicht wie Siri oder Google Assistant, die nur auf genaue Ausdrücke reagieren. Dein Sprachmodell wurde anhand von unzähligen Dialogen trainiert und kennt alle Nuancen der Art und Weise, wie Menschen miteinander kommunizieren und einander Nachrichten schreiben. Sprich mit ihm, wie du mit einem Menschen sprechen würdest, und du wirst eine bessere (menschlichere) Antwort erhalten.

Sei präzise

Gestalte deine Aufforderung so einfach wie möglich und erläutere deine Anfrage dennoch in allen relevanten Details (dazu später mehr). Je klarer deine Sprache ist, desto geringer ist die Wahrscheinlichkeit, dass das Modell deine Worte falsch interpretiert (dazu später mehr).

Verwende keine negativen Formulierungen wie „Verwende keine negativen Formulierungen.“

Wenn du sagst: „Tue nicht ...“, könnte sich ein LLM auf das „Tun“ konzentrieren und das „nicht“ ignorieren und somit genau die Handlung ausführen, von der du glaubtest, dass du sie zu vermeiden beauftragt hast. Also:

SCHLECHT:Schließe keine unvollständigen Listen ein.

GUT:Schließe nur vollständige Listen ein.

Sag deinem Modell alles, was es wissen muss

Nachdem wir nun besprochen haben, wie wir mit unserem LLM sprechen können, kommen wir zu dem, worüber wir sprechen werden. Ich habe mich für ein Forschungsprojekt entschieden, bei dem ein typischer Marktanalyst vielleicht Hilfe braucht, aber du kannst KI nach allem fragen, was du willst, von Schulaufgaben bis hin zur Zusammenstellung eines großartigen Menüs für eine Dinnerparty am Silvesterabend. Es gelten die gleichen Prinzipien.

Nehmen wir an, du bist Marktanalyst für ein Sportartikelunternehmen und musst einen Bericht über die besten US-Städte schreiben, in denen du eine neue Linie von Campingausrüstung auf den Markt bringen möchtest. Wie solltest du fragen?

Gib deinem Modell eine Identität

Möchtest du, dass dein Modell die Arbeit eines Marktanalysten übernimmt? Beginne mit diesen Worten:

Ja, es ist seltsam, aber es funktioniert. LLMs trainieren in menschlicher Sprache. Sag deinem Modell, es solle davon ausgehen, dass es sich um einen Marktanalysten handelt, und es wird Token-Muster hervorheben, die mit tatsächlichen Marktanalysten verknüpft sind. Wenn du es so betrachtest, ist es gar nicht so seltsam, deinem Modell eine Identität zu geben. Ihm zu sagen, dass es eine Identität hat,

bevor es auf deine Eingabeaufforderung reagiert, ist wirklich seltsam, und offenbar funktioniert das auch.

Sei konkret

Sprachmodelle verstehen Sprache ein Token nach dem anderen. Jedes dieser Tokens zählt – deshalb ist Prägnanz wichtig –, aber du kannst auch nicht davon ausgehen, dass dein Modell eine vage Anfrage richtig interpretiert.

Die Antwort der KI

Diese durchdachte Antwort weist höflich darauf hin, dass wir unserem Modell nicht annähernd genug Informationen gegeben haben, damit es uns eine sinnvolle Antwort geben kann. Wir sollten uns entsprechend anpassen:

Die Antwort der KI

Hoppla – wir wollten, dass in unserem Bericht Standorte angegeben werden:

Die Antwort der KI

Ist dir aufgefallen, wie eine geringfügige Anpassung einer Eingabeaufforderung zu einer erheblichen Änderung der Reaktion unserer KI führt? Da fragt man sich, was eine größere Anpassung bewirken würde.

Fehler vermeiden und großartige Ergebnisse erzielen

Die Art und Weise, wie sich die KI aufgrund der verbesserten Klarheit unserer Anweisungen immer mehr dem annähert, was wir wollen, führt zu einem unserer wichtigsten Tipps:

Sei gründlich

Bisher waren unsere Aufforderungen recht kurz. Aber LLMs sind in der Lage, riesige Datenmengen zu verarbeiten. Das bedeutet, dass du, sobald du gut darin bist, Aufforderungen zu schreiben, viel mehr von ihnen verlangen kannst. Ein Vorteil von Notion-KI gegenüber LLMs wie ChatGPT besteht darin, dass man nicht mit einer leeren Seite beginnen muss, sondern auf einer vorhandenen Seite beginnen und der KI etwas sagen kann wie „Basierend auf den obigen Richtlinien ...“ oder „In der obigen Tabelle findest du aktuelle Statistiken über diese Städte“.

Die Antwort der KI

Füge Zeilen hinzu, die von schlechten Ergebnissen abhalten

Du kannst deiner Aufforderung auch erklärende Sätze hinzufügen, die Probleme vorwegnehmen, die das Modell haben könnte, oder Entscheidungen, die es treffen muss.

Die Antwort der KI

Hier ist ein Ergebnis, bei dem es sich lohnt, innezuhalten. Unsere KI wählte vier Städte: Denver, Seattle, Austin und Minneapolis. Als wir hinzufügten, dass wir nur Städte wollen, in denen mindestens 15 cm Schnee pro Jahr fallen, tauschte das Modell Anchorage und Burlington gegen Seattle und Austin aus und änderte gleichzeitig seine Begründung, um den Gesamtschneefall jeder Stadt hervorzuheben.

Aber ist das wirklich eine ideale Liste? New York City erhält pro Jahr ca. 58 cm Schnee; wollen wir Anchorage wirklich über den Big Apple hervorheben, um unsere Campingausrüstung zu verkaufen?

Hier gibt es ein paar Lektionen zum Schreiben von Aufforderungen.

Eine Lektion besteht darin, dass Sprachmodelle unvorhersehbar sein und sogar Fehler machen können. Unsere KI berichtet uns, dass Anchorage „die Stadt mit dem höchsten Schneefall in den USA ist (durchschnittlich 101 Zoll pro Jahr)“ ist. Meine Suchanfragen haben ergeben, dass Anchorage durchschnittlich 77 Zoll Schnee pro Jahr hat und die schneereichste Stadt Amerikas Buffalo im US-Bundesstaat New York mit über 110 Zoll pro Jahr ist. Und tatsächlich, wenn ich dem Modell ein paar Tage später dieselbe Frage stelle, erhalte ich ein genaueres Ergebnis:

Die Antwort der KI

Informatiker bezeichnen die Tendenz generativer KI-Modelle, periodisch falsche Ergebnisse auszuspucken, als „Halluzination“. Wir können uns vor der Tendenz unseres Modells schützen, uns gelegentlich mit einer unerwarteten Wendung zu konfrontieren, indem wir das Modell wieder auf das zurücklenken, was es am besten kann.

Hinzufügen eines Input-Output-Beispiels („Few-Shot-Beispiel“)

Bisher haben wir unsere KI gebeten, Informationen aus dem Internet zu sammeln. Aber die stärkste Fähigkeit eines LLMs ist die Sprache – sie zu verstehen, mit ihr zu arbeiten, sie zu verändern, sie zu verbessern.

KI half uns bei der Auswahl von Städten, auf die sich unsere Kampagne konzentrieren sollte. Für den Abschlussbericht bitten wir sie, die Informationen über die einzelnen Städte zu einer ausgefeilten Schlussfolgerung zu destillieren. Wir zeigen dem Modell, was es tun soll, indem wir ihm eine Eingabeaufforderung geben, die mit einem „few-shot-example“ beginnt – ein Beispiel für die Eingabe, die das Modell erhält, und die Ausgabe, die es erzeugen soll. Dann fügen wir Hinweise für eine Stadt hinzu, über die wir berichten möchten:

Unser Prompt

Die Antwort der KI

Ziemlich gut, oder? Es hat eine Weile gedauert, aber wir haben herausgefunden, wie wir unser Modell nutzen können, um das Internet zu durchforsten und Vorschläge zu machen, um dann die ausgewählten Informationen in einen Text zu verwandeln, mit dem wir arbeiten können. Die KI hat sogar ihre Bevölkerungszahlen richtig berechnet!

Bei der Überprüfung der grundlegenden Daten von Salt Lake City ist mir allerdings aufgefallen, dass nicht erwähnt wurde, dass in den Bergen rund um die Stadt jährlich etwa 500 Zoll Schnee fallen. Sollte das nicht in der Zusammenfassung enthalten sein?

Na ja, sicher – aber du denkst jetzt über die zweite wichtige Lektion zum Schreiben von Aufforderungen nach: dass das tatsächlich eine Menge Arbeit ist! Menschen kommunizieren seit zehntausenden von Jahren miteinander. Wir untersuchen erst seit ein paar Monaten, wie man mit Sprachmodellen kommuniziert. Woher wissen wir, wann wir es richtig machen? Könnten wir unsere Eingabeaufforderungen nicht einfach endlos weiter anpassen?

Ja, das könnten wir, und das ist eine wichtige Erkenntnis bei der Arbeit mit künstlicher Intelligenz: Je mehr Mühe du dir gibst, desto mehr Nutzen wirst du haben. KI macht unsere Arbeit nicht überflüssig – sie ergänzt unsere Fähigkeiten und Anstrengungen und bringt uns an Orte, die wir allein nie hätten erreichen können.

Und natürlich fangen wir alle gerade erst an.Welche Wunder wird die KI von morgen vollbringen können?Nach oben sind keine Grenzen gesetzt.Lass uns anfangen fliegen zu lernen.

Diesen Beitrag teilen


Jetzt testen

Lege im Internet oder auf dem Desktop los

Wir haben auch passende Mac- und Windows-Apps.

Wir haben auch passende iOS- und Android-Apps.

Web-App

Desktop-App

Verwendest du Notion bei der Arbeit? Demo anfordern

Powered by Fruition