Die Macht der Prompts: Was Prompt Engineering im Unternehmen bewirkt (Beispiele)
Künstliche Intelligenz ist für viele Branchen die Chance, sich in kürzester Zeit neu zu erfinden und mit einem gewaltigen Schritt den Wettbewerb hinter sich zu lassen. Nach dem der Hype des Jahres 2023 abgeklungen ist, haben viele Unternehmen mit Blick in die Zukunft Ansätze verfolgt, KI in ihrem Unternehmen zu integrieren. Dreh- und Angelpunkt für das erfolgreiche Vorgehen sind zwei Dinge: das KI-Konzept (“Was soll KI verändern, so dass mein Unternehmen in den Leader-Quadrant wechselt/bleibt?”) und des Prompt Engineering (“Wie bringe ich die KI dazu, aus meinen vorhandenen Prozessdaten nachhaltig Lösungen zu generieren?”). Dem zweiten Thema Prompt Engineering widmen wir uns heute und zeigen auf, in welchem konzeptionellen Rahmen wir bei Schwarzer.de KI-Prompts entwickeln.
Prompt Engineering: “Make AI work!”
Das Prompt für eine KI-Engine mit einem Large Language Model (LLM) hat für den CEO eine andere Bedeutung wie für den Prompt-Entwickler. letzterer hat seine eher technische Sicht. Er kann umsetzen, was der CEO für sein erkanntes Ziel als nötig erkannt hat. Der CEO wiederum muss kein Prompt Engineering beherrschen, sondern verstehen, welche Art von Aufgaben mit den Prompt lösbar werden – um so den Weg für KI ins Unternehmen zu ebnen.
Daher beleuchten wir hier zunächst kurz die beiden Sichtweisen auf die Prompts, bevor wir in die Details und Beispiele gehen.
CEO-Sicht: Was ist Prompt Engineering?
Prompt Engineering ist die Kunst, mit Hilfe einer KI-Engine das Unternehmen weiterzuentwickeln. Nichts anderes. Was gerade in Deutschland und in aller Welt passiert, ist der Innovationsschub, der mit Beginn der Einführung der Datenverarbeitung in den Sechzigern des letzten Jahrhunderts einsetzte. Viele Unternehmen belächeln KI und erkennen noch nicht, wo im Unternehmen Potenziale freigesetzt werden können. Und so wie die Programmierung damals zu wertschaffenden Software-Lösungen von SAP bis zu Salesforce führte, beginnen fortschrittliche Unternehmen im Jahr 2023 mit dem Prompt Engineering. Auch hier steht zu erwarten, dass KI-Lösungen für Branchen entstehen werden. Doch die Unternehmen müssen erst die Eigenarten der KI-Tools kennenlernen, um zu verstehen, wie KI arbeitet und welche Aufgaben man an KI übertragen kann. Prompt Engineering ist der Einstieg zu einem Innovationsschub im Unternehmen, den man vorneweg nur schwer identifizieren kann – hinterher nicht mehr missen will. In unserem KI-Onboarding-Workshop identifizieren wir KI-Potenziale im Unternehmen und in dessen Markt.
Entwicklersicht: Was ist “Prompting KI”?
Prompt Engineering ist das Erstellen natürlichsprachiger Prompts für ein KI-Modell. Nichts anderes. Was das Prompt Engineering ebenso einfach wie kompliziert macht, das ist der Sprachraum, in dem es stattfindet. Während klassische Programmiersprachen einen festgelegten Sprachumfang haben, findet das Prompt Engineering in der natürlichen Sprache statt. Limits existieren praktisch nicht. Damit entfallen gedankliche Leitplanken wie Sprachkonstrukte und Strukturelemente, die wir aus herkömmlichen Programmiersprachen kennen. Diese hatten uns das Verstehen und den Umgang mit der Programmiersprache damals erleichtert. KI passiert auf einer Autobahn ohne Leitplanken. Das ist Segen und Fluch zugleich.
Beispiele: Was leisten Prompts auf der “Programmierebene”?
Das ist sehr konkret. Und einige der Beispiele werden Ihnen sehr bekannt vorkommen.
Ein KI-Prompt lässt eine KI-Engine einen Text erzeugen. Dies kann eine reine Fortsetzung oder ein Neuformulieren eines vorgegebenen Textes, Satzes oder Absatzes sein.
- Mit einem Prompt kann der Tonfall und Stil des erzeugten Textes beeinflusst werden.
- Ein Prompt kann eine KI-Engine anweisen zu einem vorgegebenen Text ein Titelbild, eine Illustration oder ein Chart zu erzeugen. (Bei DALLE-2, Stable Diffusion zum Beispiel)
- Ein Prompt kann eine KI-Engine dazu anweisen, aus drei Nachrichten-Texten eine News-Sendung zu erzeugen.
- Ein Prompt kann die KI-Engine Bilder klassifizieren lassen.
- Mit einem Prompt kann ein KI-Tool Programmcodes oder Zusammenhänge erklären.
- Mit nur einem Prompt kann KI aus einem Nachrichtentext die Vorteile eines Produktes extrahieren und aufgezählt einzeln vorstellen.
Noch ist das Vorstellungsvermögen der Menschen (Die Nicht-KI-Entwickler) begrenzt auf das Bekannte. Deswegen werden auch immer noch KI-Tool-Partys gehyped und gut besucht, in denen man sich an fancy Features ergötzt – und die Potenziale der KI nach wie vor nicht verstehen lernt.
Der Nutzen für Unternehmen entsteht jedoch mittels des noch unbekannten Teils der Anwendungsfelder der KI-Prompts. Lassen Sie uns eines der oben vorgestellten Beispiele ansehen.
KI-Prompt Engineering Beispiel #1: “Erzeuge eine Video-News-Sendung aus drei Text-Nachrichten”
Sehen Sie einfach mal die nachstehende (Beispiel-)News-Sendung auf dem YouTube-Channel “industryPRESS” an. Und lesen Sie danach weiter.
Was leistet Prompt Engineering bei der Produktion eines solchen News-Clips?
Prompt Engineering transformiert in diesem Beispiel den Nachrichten Text in das gesprochene Wort in der News-Sendung. Und Prompt Engineering animiert die Moderatoren-Avatare in der Nachrichten-Sendung, so dass das nun gesprochene Wort lippensynchron “zu sehen” ist. Das Zuspielen von Bildmaterial intensiviert die kommunikative Wirkung der News-Sendung.
Welche wertvollen Nutzen bringt ein solches News-Video einem Unternehmen?
Das KI-Prompt lässt Video als Kommunikations-Channel im Unternehmen etablieren.
- In der Internen Kommunikation wird Video die Akzeptanz für die Kommunikation der Geschäftsleitung deutlich erhöhen. Botschaften werden sympathischer und immersiv erlebbar.
- In der Öffentlichkeitsarbeit, also in der Außendarstellung des Unternehmens im Markt ermöglicht das KI-Prompt ein schnelles Reagieren auf Marktgeschehnisse. Auch dann, wenn die relevanten Sprecher des Unternehmens nicht verfügbar sind, denn die Avatare in der Nachrichten-Sendung können mit dem Gesicht des CEO agieren.
- Die Kosten für die Video-Produktion fallen drastisch auf meist dreistellige Beträge pro Sendung. Das ermöglicht eine höhere Frequenz in der Innen- und Außen-Kommunikation.
Prompt Engineering weiter gedacht: was wäre, wenn…
… wenn das modifizierte Prompt statt der News-Sendung eine Gebrauchsanleitung für alle Produkte im Online-Shop erzeugen würde? Oder eine empathische und auf die Zielgruppensegmente individuell angepasste Produktvorstellung? Und das zu vernachlässigbaren Kosten?
Die heutigen Nutzer konsumieren lieber ein kurzes Produktvideo statt einen langen Artikeltext zu lesen. Ob sich damit die Abverkäufe im Online-Shop steigern lassen?
KI-Prompt Engineering Beispiel #2: “Effiziente Steuerung der Arbeitsorganisation”
Vor allem sind Prompts ein Bestandteil der generativen KI mit der Möglichkeit, die Ausgabe des KI-Modells zu kontrollieren. So stellen Prompts sicher, dass relevante und nützliche Inhalte für eine sehr konkrete Aufgabe erzeugt werden.
In serviceorientierten Organisationen sind die Kosten für das Routing von Service-Anfragen oft sehr hoch. Das liegt oft daran, dass der Gegenstand der Anfrage bisher nicht aus dem Anfragentext abgeleitet werden konnte. Der Ansatz bisher war zumeist das Identifizieren von Stichworten, aus denen man eine Themenzugehörigkeit ableiten konnte.
KI Prompts in Service-Prozessen
Mit einem KI-Modell und prompt Engineering ist es möglich, Themen und Kontext einer Serviceanfrage zu identifizieren. Und es ist möglich das Fehlen von wichtigen Informationen zu erkennen. Das wiederum lässt es zu, den Anfrager automatisiert um Zusendung weiterer Informationen zu bitten, also die Anfrage für eine erleichterte Bearbeitung vorzubereiten, noch bevor die Anfrage einem Sachbearbeiter vorgelegt wird – und damit relevante Kosten im Arbeitsprozess entstehen.
So nimmt die Zielgenauigkeit des Routings von Anfragen zu. Im gleichen Maße reduzieren sich Rückfragen von Sachbearbeitern, welche gar nicht erst von diesen gestellt werden müssen, sondern automatisiert generiert werden.
Hauptnutzen durch Prompts: Prozessbeschleunigung und Kostenreduzierung
Die beiden Hauptnutzen in der Überschrift sind für eine klassische Lesart formuliert. Die Kosten zu reduzieren, das lesen wir Deutschen sehr gerne. Das ist eine gewohnte und verstehbare Dimension, in der wir uns zu Hause fühlen.
Wir bewegen uns hier noch nicht im viel spannenderen Bereich von disruptiven Veränderungen im Geschäftsmodell. Und doch: bereits die Beschleunigung der Geschäftsprozesse führt zu einer positiven Veränderung der Servicewahrnehmung im Markt. Zufriedenere Kunden sind treuer. Das sichert die Marktposition und verbessert die Reputation. Letzteres wiederum lässt die Marktposition leichter ausbauen. Und damit bewegen wir uns auf das Unterstützen von Unternehmenszielen zu.
Wie treibt KI das Unternehmen voran?
Die beiden Beispiele für Prompt Engineering haben zwei völlig unterschiedliche Einsatzszenarien vorgestellt. Ein disruptives Vorgehensmodell, das Unternehmen im Wettbewerb bevorteilt. Und ein prozessoptimierendes Modell, das die Grundlage für weitere Veränderungen im Unternehmen schafft.
Welches Vorgehensmodell für ein Unternehmen das geeignetste ist, kann nicht vorhergesagt werden. Es muss stets erarbeitet werden. Deshalb tauchen die KI-Experten von Schwarzer.de im Onboarding-Workshop tief in das Geschäftsmodell der Kundenunternehmen ein, um dessen Wesen kennenzulernen und um damit fundiert konkrete und umsetzbare Handlungsempfehlungen aussprechen zu können. Was wird zu einer Disruption führen? Zu welche Höhen kann das Unternehmen aufsteigen, welche dem Wettbewerb vorenthalten bleiben werden?
Basics: Wie funktioniert KI Prompt Engineering?
für all diejenigen, die das Thema Prompt Engineering für sich erschließen wollen, stellen wir hier Details und Wissen bereit. Bitte sehr.
Das braucht ein guter KI Prompt immer
Die natürliche Sprache liefert ja wenig Leitplanken. Doch unsere Experten können folgende Bausteine eines Prompts benennen, die das Arbeiten der KI Engine verstehen helfen.
-
Die Anweisung
Die Anweisung legt fest, was das KI Modell “tun” soll. Hier spricht man im Prompt zumeist von einem “Schreiben, Zusammenfassen, Antworten, Erstellen, Extrahieren”. Oft fügt man noch Ergänzungen hinzu, welche den Weg vorgeben, auf dem die KI das Ziel erreichen soll.
-
Die Eingabe, der klassische “Input” oder “Payload”
Damit gibt man dem KI Modell mit, was bearbeitet oder als Vorlage / Vorgabe berücksichtigt werden soll. Das können Bilder, Video-Sequenzen oder schlicht Texte sein. Komplexere Prompts erhalten zum Beispiel einen zusammenzufassenden Text, aus dem ein Post für LinkedIn erzeugt werden soll und einen Tweet oder anderen Post, von dem Stil und Tonalität abgeleitet werden sollen.
-
Der Kontext
Mit dem Kontext vermittelt das Prompt der KI Engine die Welt, in die sie sich hineinversetzen soll. So kann die KI Engine als “Filmkritiker” agieren oder auch als “Solar-Techniker”. Diese beiden Beispiele machen deutlich, dass ein und der selbe Eingabetext je nach Kontext sehr unterschiedliche Outputs produzieren wird.
-
Gute Beispiele
KI wäre nicht KI, wenn sie nicht Beispiele lieben würde. Das macht übrigens auch deutlich, dass KI vom Menschen gar nicht so weit entfernt agiert. Wir Menschen lieben es ja auch, wenn wir für eine komplexe Aufgabe ein verständliches Beispiel erhalten. Das macht die Aufgabe nicht nur leichter, es stellt auch sicher, dass das Arbeitsergebnis im Zielkorridor liegt. Als Beispiel kann hier auch eine Datei eines bestimmten Formats angeben, die der KI Engine erklärt, was wir wünschen: eine CSV-Datei, ein JSON-Output, etc. Auch Muster (Patterns) können wir vorgeben. Aber dazu kommen wir gleich nochmals im Detail.
Möchten Sie für eine Generierung eines Bildes die Optionen für die Beleuchtung, den Stil oder den Gesichtsausdruck des Avatars vorgeben? Sagen Sie es im Prompt. KI ist geduldig und gehorsam.
Methoden: Techniken für gute Prompts mit Beispielen
Prompting-Techniken im Kontext einer KI-Engine wie ChatGPT beziehen sich auf die Art und Weise, wie Sie Anfragen oder Anweisungen formulieren, um gezielte und nützliche Antworten von der KI-Modell zu erhalten. Hier sind einige gängige Prompting-Techniken mit Beispielen:
-
Direkte Fragestellung:
Technik: Stellen Sie eine klare Frage, um eine spezifische Antwort zu erhalten.
Beispiel: “Was ist die Hauptursache für Schnupfen?” -
Anweisen und Präzisieren:
Technik: Geben Sie klare Anweisungen, gefolgt von einer Bitte um zusätzliche Informationen.
Beispiel: “Beschreiben Sie die Unterschiede zwischen Vulkanen und Erdbeben. Bitte erläutern Sie auch die Auswirkungen beider Naturphänomene auf die Umwelt.” -
Szenario-Beschreibung:
Technik: Bitten Sie das Modell, eine Geschichte oder ein Szenario zu erstellen.
Beispiel: “Erzähle mir eine Geschichte über eine Reise in den Weltraum.” -
Erklärungsanforderung:
Technik: Fordern Sie das Modell auf, ein Konzept oder einen Begriff zu erklären.
Beispiel: “Können Sie mir den Begriff ‘künstliche Intelligenz’ in einfachen Worten erklären?” -
Problemlösung:
Technik: Bitten Sie das Modell, ein bestimmtes Problem zu lösen oder Ratschläge zu geben.
Beispiel: “Wie kann ich effektiv Zeitmanagement in meinem Arbeitsalltag umsetzen?” -
Vergleich und Bewertung:
Technik: Fordern Sie das Modell auf, zwei oder mehr Dinge zu vergleichen oder eine Bewertung abzugeben.
Beispiel: “Vergleichen Sie die Vor- und Nachteile von Benzinautos im Vergleich zu herkömmlichen Elektroautos.” -
Listen und Zusammenfassungen:
Technik: Bitten Sie das Modell, Listen zu erstellen oder Informationen zusammenzufassen.
Beispiel: “Listen Sie bitte die wichtigsten Schritte auf, um ein erfolgreiches Online-Geschäft zu starten.” -
Quellenanfrage:
Technik: Fragen Sie das Modell nach Quellen oder weiterführenden Informationen zu einem bestimmten Thema.
Beispiel: “Können Sie mir bitte Quellen empfehlen, die sich mit original italienischer Küche beschäftigen?”
Hypothetische Fragen:
Technik: Stellen Sie hypothetische Fragen, um kreative oder spekulative Antworten zu erhalten.
Beispiel: “Was würde passieren, wenn Menschen plötzlich aufhören würden, Salat zu essen?”
Diese Techniken helfen dabei, die Interaktion mit einer KI-Engine wie ChatGPT zu steuern und genau die Informationen oder Antworten zu erhalten, die Sie benötigen. Beachten Sie jedoch, dass die Qualität der Antworten von der Qualität Ihrer Fragen und Anweisungen abhängt.
Klassen der Prompts
Es gibt verschiedene Klassen an Techniken, die beim Schreiben von Prompts eingesetzt werden. Sie sind das Rückgrat.
-
Few-Shot Prompting/In-Context Learning
In einem elementaren Verständnis verwendet der few-shot einige Beispiele (shots) für das, was er tun muss. Dies erfordert eine gewisse Einsicht in eine Demonstration, um sie durchzuführen. Anstatt sich ausschließlich auf das zu verlassen, worauf es trainiert wurde, baut es auf den verfügbaren Aufnahmen (Shots) auf.
-
Gedankenkette/Chain of Thoughts (CoT)
CoT ermöglicht es dem Modell, komplexe Schlussfolgerungen durch mittlere Denkschritte zu erreichen. Dabei werden Zwischenschritte, so genannte “chains of reasoning”, erstellt und verbessert, um ein besseres Sprachverständnis und bessere Ergebnisse zu erzielen. Es kann wie ein Hybrid sein, der einige wenige Schritte mit komplexeren Aufgaben kombiniert.
Zero-Shot-Prompting
Zero-Shot bietet einen Prompt, der nicht Teil des Trainings ist, aber dennoch die gewünschte Leistung erbringt. Kurz gesagt, LLMs können verallgemeinern.
Beispiel:
“Classify the text into neutral, positve or negative.”
“Text: Ich glaube, der Film war genial gut”
“Sentiment:”
Antwort:
The text “Ich glaube, der Film war genial gut” is in German and translates to “I believe the movie was brilliantly good” in English. Based on this translation, the sentiment of the text is positive
Dank der Kenntnis der Bedeutung von “Sentiment” hatte das Modell keine Ahnung, wie es die Frage klassifizieren sollte, auch wenn es nicht mit einer Reihe von Textklassifizierungen arbeiten musste. Da der Text keine beschreibenden Daten enthält, könnte es einen Fallstrick geben. Dann können wir jedoch ein “few-shot prompting” verwenden.
KI Modelle können justiert werden
Und das ist ein wesentlicher Schritt in der Anpassung eines KI-Modells an das Geschäftsmodell eines Unternehmens. Dies ist keine Technik des Prompt Engineerings. Es ist vielmehr eine Adaption des KI Modells, was oft komplex erscheinen mag. Diese Adaption wird der KI Engine über eine separate API zur Verfügung gestellt.
Der KI Engine werden eine Reihe von Prompts und die dazu gehörenden jeweiligen optimalen Antworten zur Verfügung gestellt. So erweitert die KI Engine ihr Wissen um spezifische und vor allem kontextuelle Informationen. Hier ein Beispiel für eine solche Adaption in einem Format, welches die KI Engine von OpenAI verstehen wird.
{ “prompt”: “< Prompt Text >“, “< Vervollständigung >“: “< idealer generierter Text >” }
{ “prompt”: “< Prompt Text >“, “< Vervollständigung >“: “< idealer generierter Text >” }
{ “prompt”: “< Prompt Text >“, “< Vervollständigung >“: “< idealer generierter Text >” }
Fazit
Mit diesem Artikel haben wir einige grundlegende Konzepte im Prompt-Engineering vorgestellt. Dabei haben wir die Unternehmenssicht (am Ziel und Nutzen orientiert) ebenso beleuchtet, wie die Sicht des Entwicklers (technische Sicht). Wenn Sie mehr über den zielführenden und ergebnisorientierten Einsatz von KI im Unternehmen erfahren wollen, folgen Sie uns gerne. Wenn Sie einen erfahrenen Partner für Ihren Weg zur Weiterentwicklung des Unternehmens durch KI suchen, sprechen Sie uns gerne an (06131/368051).
Auch Interessant:
28. Oktober 2024
Churn Analyse: diese 9 Tipps kehren die Kundenabwanderung um
Die Churn-Analyse ist der erste Schritt, die…
21. Oktober 2024
Churn-Rate: Definition, Formel, Bedeutung im Marketing
Die Churn Rate, auch bekannt als…
30. September 2024
Code-Doku nur für Tools zur Codequalität-Analyse ist voll für die Füße
In der Welt der Software-Entwicklung wird häufig…