Inhalt anspringen
Skip NavigationMenü

Wie rede ich mit der KI?

Eine kurze Einführung zum Verständnis von Sprache durch KI und konkrete Tipps, wie wir durch effizientes Prompting mit der KI auf Top-Level kommunizieren

Einleitung

KI hat unsere Sprache gelernt! Jetzt müssen wir ihr nur noch die richtigen Fragen – oder Eingabeaufforderungen stellen. Das nennt man Prompting und ist für gute Ergebnisse zurzeit noch essenziell, auch wenn die Entwicklung sicher dahin geht, dass uns dieser Teil immer mehr von Tool-Anbieter-Seite erleichtert wird.

Bis dahin nehmen wir uns Terry Pratchetts Ausspruch «Natürliche Dummheit schlägt künstliche Intelligenz um Längen.» mit einem Lächeln als Ansporn, um zu zeigen, dass das Ganze auch in die entgegengesetzte Richtung geht: je besser der menschliche Input (Prompt), desto beeindruckender der Output der KI. Wir müssen uns also bei der Kommunikation mit Tools wie ChatGPT ergebnisorientiert und KI-gerecht ausdrücken. Wir wollen ja, dass uns der neue Kollege KI versteht! Und ich kann Ihnen aus Erfahrung berichten, dass es absolut gar nichts nützt der KI Begriffsstutzigkeit vorzuwerfen.

Nicht, dass die KI Gefühle hat, die verletzt werden könnten, aber in einigen Fällen legt der KI-Chat-Bot Dank seiner Entwickler scheinbar menschliches Verhalten an den Tag. So liefert die KI bei positiven Eingabeaufforderungen bessere Ergebnisse, als bei Negativität – gemeint ist, wenn man der KI sagt, was sie nicht machen soll. Kennen wir ja selbst! Natürlich hat die KI dieses „Verhalten“ nicht selbst entwickelt, ihre Entwickler wollen einfach, dass wir so natürlich wie möglich mit der KI kommunizieren und die bestmöglichen Resultate bekommen. Die KI hat auch nicht wirklich ein Gefühl für Sprache entwickelt, sie erkennt Muster in unserem Sprachgebrauch anhand ihrer Trainingsdaten.

1. Wie lernen diese großen Sprachmodelle uns zu verstehen?

Große Sprachmodelle (Large Language Model, LLM) wie ChatGPT oder Gemini sind KI-Modelle, die Methoden des maschinellen Lernens verwenden, um menschliche Sprache zu verstehen und zu generieren.

LLMs basieren auf neuronalen Netzwerkmodellen und nutzen häufig Techniken des Natural Language Processing (NLP) zur Verarbeitung und Berechnung ihrer Ergebnisse. NLP beschäftigt sich mit der Fähigkeit von Computern, Texte zu verstehen, zu interpretieren und zu generieren. Dadurch können LLMs Aufgaben wie Textanalyse, Stimmungsanalyse, Sprachübersetzung und Spracherkennung durchführen.

LLMs erlangen ein Sprachverständnis durch unüberwachtes Lernen. Sie werden mit umfangreichen Textdatensätzen von Quellen wie Wikipedia und GitHub trainiert, die Billionen von Wörtern umfassen. Die Qualität der Daten beeinflusst die Leistung des Modells. Während des unüberwachten Lernens lernt der KI-Algorithmus des LLM die Bedeutung von Wörtern, ihre Beziehungen zueinander und ihren Kontext zu unterscheiden.

Um eine bestimmte Aufgabe auszuführen, muss ein großes Sprachmodell wie eine Übersetzung feinabgestimmt werden, um die Leistung zu optimieren.

So läuft der Trainingsprozess von LLMs ab:

  • Vorbereitung der Textdaten zur Umwandlung in eine numerische Darstellung für die Modellzuführung
  • Zufällige Zuweisung der Parameter
  • Eingabe der numerischen Darstellung der Textdaten
  • Anwendung einer Verlustfunktion zur Messung des Unterschieds zwischen den Modellausgaben und dem tatsächlichen nächsten Wort in einem Satz
  • Optimierung der Modellparameter zur Minimierung von Verlusten.

Dieser Prozess muss so lange wiederholt werden, bis das Modell akzeptable Genauigkeit erreicht.

Dieses Hintergrundwissen hilft Ihnen bei der Kommunikation mit dem Kollegen KI. Beim Prompting ist es z. B. möglich in den Konfigurations-Hyperparametern die Temperatur festzulegen, welche die Zufälligkeit der Sprachmodellausgabe steuert. Das geht bei einigen Modellen nur über API. Der Wertebereich liegt zwischen 0 und 1, wobei Sie mit Fließkommazahlen wie 0,01 arbeiten können. Eine hohe Temperatur erzeugt unvorhersehbarere und kreativere Ergebnisse, während eine niedrige Temperatur ein genaueres und konservativeres Ausgaberesultat zur Folge hat. Die Einstellung der Temperatur auf 0,1 erzeugt für gewöhnlich Text, der deutlich vorhersehbarer und weniger kreativ ist, als wenn die Temperatur auf 1 festgelegt ist.

2. Prompt eine Antwort von der KI erhalten!

Womit wir zum konkreten Prompting kommen wollen. Viele Nutzer begnügen sich mit einem Ein-Satz-Prompt, aber „In der Kürze liegt die Würze“ gilt hier eher nicht. KI-Chat-Bots „lieben“ ausführliche Informationen. In Schachtelsätzen verpackt, kann jedoch manche Info für die KI unverständlich sein. Daher gilt es einfach strukturiert zu formulieren und präzise Informationen und Anweisungen zu geben.

Hier einige wertvolle Tipps für das Prompting:

  • Eine Rolle Sie können der KI Expertenstatus verleihen, was tatsächlich die Ergebnisse spürbar verbessert. Beispiel: „Du bist ein erfahrener Experte für Suchmaschinen-Marketing (SEO).“
  • Klare Anweisungen à la „Deine Aufgabe ist [die Entwicklung einer Content-Strategie]“ oder Formulierungen wie „du musst …“. Dabei auch gleich möglichst viel Kontext
  • Wo wir gerade beim Thema sind. Fordern Sie die KI doch einfach auf Sie nach den für die Aufgabe relevanten Informationen zu fragen.
  • Zielgruppe Persona vorgeben.
  • Tonalität Beispiel: „Die Tonalität des Textes soll informierend und inspirierend sein.“
  • Für Texte Keywords integrieren lassen, um bessere Suchergebnisse bei Google und Co zu erzielen.
  • Formate und Ausgabekanäle (z. B. Blogartikel, LinkedIn-Post) vorgeben.
  • Thema für Bild, Video oder Text festlegen („Ein tanzendes Mädchen“)
  • Medium angeben (z. B. Öl-Gemälde oder Anime)
  • Stil bestimmen (z. B. Realismus oder Surrealismus für Bilder). Sie können je nach Tool auch Vorbilder oder Artikel als Bezugsquelle angeben.
  • Für Bilder Komposition bestimmen wie „…in nachdenklicher Pose, Nahaufnahme mit Fokus auf den Gesichtsausdruck“)
  • Ebenfalls für Bild-Prompts Farbe und Licht beschreiben („lebendige Farben und Neonlicht“)
  • Details hinzufügen, nachdem Sie den allgemeinen Aufbau Ihres Prompts fertiggestellt haben.
  • Wenn Sie bei Bildern einen künstlerischen Output möchten, empfiehlt sich die Verwendung von Adjektiven für eine präzise Beschreibung, die dem gewünschten Ergebnis möglichst nahekommt.
  • Nachhaken – Nicht immer gleich mit dem ersten Ergebnis zufriedengeben. Es gibt nicht nur die Regenerate-Funktion oder die Möglichkeit den Prompt umzuformulieren. Sie können auch nachjustieren, indem Sie die KI z. B. auffordern zu einem bestimmten Bereich noch mehr Details oder Ideen zu generieren. Allerdings stoßen KI-Tools, wie ChatGPT nach längeren Dialogen an Kontext-Grenzen. Ja, Vergesslichkeit gibt es auch bei KI-Chat-Bots!
  • Beispiele als Vorbild geben. Das kann man mit einer Anweisung präzisieren wie „Verwende den gleichen Schreibstil und das Vokabular wie im bereitgestellten Beispiel [Absatz/Titel/Text/Artikel]
  • Few-Shot-Prompting. Im Prinzip sind wir auch hier beim Thema Beispiele vorgeben. Beim FSP geben Sie mit einigen Beispielen und wie damit umzugehen ist, ein Muster für die KI vor. Sie können etwa Kundenfeedback, das sie bekommen haben, samt Ihrer jeweiligen Einordnung als positives oder negatives Feedback der KI als Richtschnur vorgeben.
  • Tabellen und Listen erstellen oder in einen Text einfügen lassen. Sie können auch eine Gliederung vorgeben.
  • Fortsetzung – Bei Schreibblockaden oder Ideenstau einfach den Kollegen KI um Hilfe bitten. Den unvollständigen Text oder Ideenliste eingeben und um Fortsetzung bitten.
  • Call-To-Action vorgeben. Beispiel: “Der Leser soll sich für unseren B2B-Newsletter anmelden.“
  • Widersprüche in Prompts vermeiden.
  • Besonders raffinierte Burschen haben schon einer Chat-KI Belohnungen in Aussicht gestellt, wie Credit-Points für bestimmte Ergebnisse und der KI den Gewinn einer Challenge mit einer bestimmten Anzahl an Credits versprochen. Durch diesen Belohnungs-Anreiz ließ sich so manche KI sogar dazu bringen, sich über die installierten Regularien ihres Anbieters hinwegzusetzen. Natürlich sollte man das nicht tun, aber zu wissen, dass solche „Motivations-Parameter“ in Chat-KIs wie ChatGPT oder Claude verankert wurden, ist eine wertvolle Information. Sie können der KI jedenfalls für bessere Ergebnisse auch ein zusätzliches Trinkgeld, Credit-Points oder eine andere Belohnung Ihrer Wahl anbieten.

 

3. Prompt-Hilfe bekommen und fürs Prompting lernen!

In Prompt-Bibliotheken und Marktplätzen finden Sie viele Prompts insbesondere zur Bildgenerierung, die kostenfrei oder gegen einen gewissen Obolus zur Verfügung gestellt werden. Sie bekommen dort auch einen großartigen Einblick, wie Prompting-Experten einen Prompt erstellen, wodurch Sie viel für eigene Prompts lernen können.

Zwei Bibliotheken mit kostenfreien Angeboten sind ArtHub.ai und die MIDJOURNEY PROMPT LIBRARY. Ich möchte Ihnen an dieser Stelle empfehlen Ihre eigene Prompt-Bibliothek (zum Beispiel als Excel-Tabelle) zu erstellen, auf die Sie dann immer zurückgreifen können.

Ein Tool, das Sie ebenfalls bei der Entwicklung zum Prompt-Experten unterstützt, ist PromptForge. Es kann einfach als Browser-Erweiterung für Chrome installiert werden und bietet Ihnen Zugriff auf Prompting-Bibliotheken. Es ist für alle großen Modelle, wie ChatGPT, Google Gemini, Claude und Midjourney nutzbar und wird direkt in der jeweiligen Anwendung geladen.

Es gibt auch zahlreiche auf die Erstellung von Bildprompts spezialisierte GPTs in ChatGPT, die ihnen bei der Erstellung des perfekten Bildprompts helfen. Zu empfehlen sind der Midjourney -- MJ Prompt Generator (V6) und Midjourney V6.1 - Photorealistic Image Prompts. Die erstellten Prompts lassen sich auch für andere KI-Bildgeneratoren einsetzen. Solche Prompt-GPTs gibt es auch für Video- und Audio. Natürlich gibt es auch GPTs zur Prompt-Verbesserung, wie den Prompt Engineer, die auf keinen eingegrenzten Bereich festgelegt sind.

Wer noch tieferes Verständnis fürs Prompting entwickeln möchte, dem sei folgender Leitfaden zum Prompt-Engineering ans Herz gelegt.

Mit diesen Tipps sollten sie gut auf ihr nächstes „Meeting“ mit dem neuen Kollegen KI vorbereitet sein, so dass die Kommunikation Früchte trägt.

Autor und Ansprechpartner bei der TMN:

 

 

 

 

 

 

Marco Bruns
Digitalmanager
Telefon: +49 (0) 511 / 27048822
E-Mail: bruns@tourismusniedersachsen.de

Teilen über: