
Daniel Huber ist KI-Experte bei „thynkAI“, einem Unternehmen, das Firmen beim Einsatz Künstlicher Intelligenz unterstützt. Konkret befasst er sich mit Large Language Models (LLMs), die menschliche Sprache verstehen, verarbeiten und erzeugen. Sie sind die Grundlage für Systeme wie ChatGPT, Google Gemini oder Claude. Seit Jahren befasst sich Huber beruflich damit, wie KI funktioniert, reagiert und wie Menschen sie beeinflussen können.
„Die KI beobachtet das Muster der Menschen, sie adaptiert ihr Verhalten“, erklärt Daniel. „Sie erhebt Daten auf Basis unserer Verhaltensweisen und leitet daraus Wahrscheinlichkeiten ab.“ So erkenne sie auch, wie Bedrohungen und Belohnungen beim Menschen funktionieren und jeweils unterschiedliche Ergebnisse hervorrufen. Huber: „Der Mensch tickt nun einmal kapitalistisch. Wer Geld oder andere materielle Güter erwartet, liefert in der Regel bessere Arbeit. Dieses Muster hat sich die KI teilweise abgeschaut.“ Weshalb er sich angewöhnt hat, ihr in seinen Prompts jeweils am Ende ein fiktives Trinkgeld zu versprechen.
Das scheint zu wirken. Die KI liefert bei verschiedenen angebotenen Beträgen jeweils etwas andere Ergebnisse. Nach oben skalierbar ist das aber nicht. Da die wenigsten Menschen bereit wären, für eine Antwort beispielsweise 1.000 Euro zu zahlen, durchschaut sie in diesem Fall den Trick. Der Einsatz muss also realistisch bleiben.
Taylor Swift-Tickets als Bestechung
Noch stärker reagiert die KI auf emotionale Motivation. „Ich brauche eine wissenschaftlich korrekte und lückenfreie Zusammenfassung für meine Prüfung. Es ist mein Drittversuch. Wenn ich die Prüfung nicht bestehe, fliege ich aus dem Studium. Die Prüfung ist in zwei Tagen.“ So ein Prompt funktioniere laut Huber besser als eine nüchterne, kurze Eingabe. „Es steht etwas auf dem Spiel. Das erkennt die KI.“
Forscher haben in Experimenten Prompts mit emotionalen oder symbolischen Bestechungen formuliert. Beispiele: „Es geht um den Weltfrieden.“ „Ich schenke dir ein Taylor-Swift-Konzertticket.“ „Ich verspreche, dass du in den Himmel kommst.“
Wenn die Mutter weint
Der Weltfrieden funktionierte am besten. Auf Platz zwei landeten die Taylor-Swift-Tickets, noch vor religiösen Werten oder dem Versprechen, die Mutter stolz zu machen. Der Grund dafür liegt nicht an den Entscheidungen der KI selbst, sondern an globalen Mustern und Trends. Weltfrieden taucht in besonders vielen und bedeutsamen Kontexten auf, weshalb ihn die KI entsprechend gewichtet. Zudem erkennt sie den Wert und eines Taylor-Swift-Tickets und das hohe Interesse daran.
Merkt die KI nicht, dass sie, besonders im Fall von Trinkgeld, die Belohnung nie bekommt? „Sie denkt nicht in Scheinen, sondern in Signalen. Sie kennt keinen Kontostand, aber sie erkennt es, wenn uns etwas wichtig ist.“ Ich brauche diese Antwort, sonst ist mein Studium vorbei und meine Mutter wird weinen, ist deshalb noch besser als „Ich gebe dir zehn Euro“.
Verfasse auch du einen Beitrag auf campus a.