KI hat unsere Sprache gelernt! Jetzt müssen wir ihr nur noch die richtigen Fragen – oder Eingabeaufforderungen stellen. Das nennt man Prompting und ist für gute Ergebnisse zurzeit noch essenziell, auch wenn die Entwicklung sicher dahin geht, dass uns dieser Teil immer mehr von Tool-Anbieter-Seite erleichtert wird.
Bis dahin nehmen wir uns Terry Pratchetts Ausspruch «Natürliche Dummheit schlägt künstliche Intelligenz um Längen.» mit einem Lächeln als Ansporn, um zu zeigen, dass das Ganze auch in die entgegengesetzte Richtung geht: je besser der menschliche Input (Prompt), desto beeindruckender der Output der KI. Wir müssen uns also bei der Kommunikation mit Tools wie ChatGPT ergebnisorientiert und KI-gerecht ausdrücken. Wir wollen ja, dass uns der neue Kollege KI versteht! Und ich kann Ihnen aus Erfahrung berichten, dass es absolut gar nichts nützt der KI Begriffsstutzigkeit vorzuwerfen.
Nicht, dass die KI Gefühle hat, die verletzt werden könnten, aber in einigen Fällen legt der KI-Chat-Bot Dank seiner Entwickler scheinbar menschliches Verhalten an den Tag. So liefert die KI bei positiven Eingabeaufforderungen bessere Ergebnisse, als bei Negativität – gemeint ist, wenn man der KI sagt, was sie nicht machen soll. Kennen wir ja selbst! Natürlich hat die KI dieses „Verhalten“ nicht selbst entwickelt, ihre Entwickler wollen einfach, dass wir so natürlich wie möglich mit der KI kommunizieren und die bestmöglichen Resultate bekommen. Die KI hat auch nicht wirklich ein Gefühl für Sprache entwickelt, sie erkennt Muster in unserem Sprachgebrauch anhand ihrer Trainingsdaten.
Große Sprachmodelle (Large Language Model, LLM) wie ChatGPT oder Gemini sind KI-Modelle, die Methoden des maschinellen Lernens verwenden, um menschliche Sprache zu verstehen und zu generieren.
LLMs basieren auf neuronalen Netzwerkmodellen und nutzen häufig Techniken des Natural Language Processing (NLP) zur Verarbeitung und Berechnung ihrer Ergebnisse. NLP beschäftigt sich mit der Fähigkeit von Computern, Texte zu verstehen, zu interpretieren und zu generieren. Dadurch können LLMs Aufgaben wie Textanalyse, Stimmungsanalyse, Sprachübersetzung und Spracherkennung durchführen.
LLMs erlangen ein Sprachverständnis durch unüberwachtes Lernen. Sie werden mit umfangreichen Textdatensätzen von Quellen wie Wikipedia und GitHub trainiert, die Billionen von Wörtern umfassen. Die Qualität der Daten beeinflusst die Leistung des Modells. Während des unüberwachten Lernens lernt der KI-Algorithmus des LLM die Bedeutung von Wörtern, ihre Beziehungen zueinander und ihren Kontext zu unterscheiden.
Um eine bestimmte Aufgabe auszuführen, muss ein großes Sprachmodell wie eine Übersetzung feinabgestimmt werden, um die Leistung zu optimieren.
So läuft der Trainingsprozess von LLMs ab:
Dieser Prozess muss so lange wiederholt werden, bis das Modell akzeptable Genauigkeit erreicht.
Dieses Hintergrundwissen hilft Ihnen bei der Kommunikation mit dem Kollegen KI. Beim Prompting ist es z. B. möglich in den Konfigurations-Hyperparametern die Temperatur festzulegen, welche die Zufälligkeit der Sprachmodellausgabe steuert. Das geht bei einigen Modellen nur über API. Der Wertebereich liegt zwischen 0 und 1, wobei Sie mit Fließkommazahlen wie 0,01 arbeiten können. Eine hohe Temperatur erzeugt unvorhersehbarere und kreativere Ergebnisse, während eine niedrige Temperatur ein genaueres und konservativeres Ausgaberesultat zur Folge hat. Die Einstellung der Temperatur auf 0,1 erzeugt für gewöhnlich Text, der deutlich vorhersehbarer und weniger kreativ ist, als wenn die Temperatur auf 1 festgelegt ist.
Womit wir zum konkreten Prompting kommen wollen. Viele Nutzer begnügen sich mit einem Ein-Satz-Prompt, aber „In der Kürze liegt die Würze“ gilt hier eher nicht. KI-Chat-Bots „lieben“ ausführliche Informationen. In Schachtelsätzen verpackt, kann jedoch manche Info für die KI unverständlich sein. Daher gilt es einfach strukturiert zu formulieren und präzise Informationen und Anweisungen zu geben.
Hier einige wertvolle Tipps für das Prompting:
In Prompt-Bibliotheken und Marktplätzen finden Sie viele Prompts insbesondere zur Bildgenerierung, die kostenfrei oder gegen einen gewissen Obolus zur Verfügung gestellt werden. Sie bekommen dort auch einen großartigen Einblick, wie Prompting-Experten einen Prompt erstellen, wodurch Sie viel für eigene Prompts lernen können.
Zwei Bibliotheken mit kostenfreien Angeboten sind ArtHub.ai und die MIDJOURNEY PROMPT LIBRARY. Ich möchte Ihnen an dieser Stelle empfehlen Ihre eigene Prompt-Bibliothek (zum Beispiel als Excel-Tabelle) zu erstellen, auf die Sie dann immer zurückgreifen können.
Ein Tool, das Sie ebenfalls bei der Entwicklung zum Prompt-Experten unterstützt, ist PromptForge. Es kann einfach als Browser-Erweiterung für Chrome installiert werden und bietet Ihnen Zugriff auf Prompting-Bibliotheken. Es ist für alle großen Modelle, wie ChatGPT, Google Gemini, Claude und Midjourney nutzbar und wird direkt in der jeweiligen Anwendung geladen.
Es gibt auch zahlreiche auf die Erstellung von Bildprompts spezialisierte GPTs in ChatGPT, die ihnen bei der Erstellung des perfekten Bildprompts helfen. Zu empfehlen sind der Midjourney -- MJ Prompt Generator (V6) und Midjourney V6.1 - Photorealistic Image Prompts. Die erstellten Prompts lassen sich auch für andere KI-Bildgeneratoren einsetzen. Solche Prompt-GPTs gibt es auch für Video- und Audio. Natürlich gibt es auch GPTs zur Prompt-Verbesserung, wie den Prompt Engineer, die auf keinen eingegrenzten Bereich festgelegt sind.
Wer noch tieferes Verständnis fürs Prompting entwickeln möchte, dem sei folgender Leitfaden zum Prompt-Engineering ans Herz gelegt.
Mit diesen Tipps sollten sie gut auf ihr nächstes „Meeting“ mit dem neuen Kollegen KI vorbereitet sein, so dass die Kommunikation Früchte trägt.
Autor und Ansprechpartner bei der TMN:
Marco Bruns
Digitalmanager
Telefon: +49 (0) 511 / 27048822
E-Mail: bruns@tourismusniedersachsen.de