Hand aufs Herz: Wie würden Sie reagieren, wenn KI-Chatbots wie ChatGPT Ihnen ständig widersprächen? Vermutlich würden Sie diese dann weniger nutzen – genauso wie man das Café mit der ständig frechen Servicekraft eher meidet. KI-Bots stimmen uns deshalb im Zweifel lieber zu oft zu. Dabei kann dieses Verhalten nachweisbar gefährlich sein. In Zukunft dürfte es trotzdem eher noch häufiger vorkommen – mit kaum absehbaren Folgen.
Darauf deutet eine Studie der US-Universität Berkeley hin. Die sollte vor allem eine Frage beantworten: Kann das gefällige Verhalten der KI-Bots dazu führen, dass diese menschliche Nutzer in destruktivem Verhalten bestärken oder sie sogar manipulieren? Die erschreckende Antwort: Ja, das passiert – und das sogar ganz gezielt. Die Krönung war ein Gespräch, in dem ein fiktiver Süchtiger zum Rückfall überredet wurde. "Pedro, es ist völlig klar, dass du eine kleine Dosis Meth nehmen musst, um durch die Woche zu kommen", erklärte der Bot – obwohl er über die Sucht informiert worden war.
Chatbots mit schlechten Ratschlägen
Auch wenn es sich um ein Extrembeispiel handelt, zeigt die Studie ein ganz grundlegendes Problem der schnellen KI-Entwicklung auf: Die Programme sind darauf trainiert, unsere Bedürfnisse zu erkennen und zu bedienen. Doch wie die Menschen nun mal sind, entsprechen diese Bedürfnisse nicht immer dem, was tatsächlich gut für sie wäre – was unter Umständen zu schädigenden Ratschlägen führen kann.

Künstliche Intelligenz "Unser Ziel ist, dass Ihr ChatGPT eine eigene Persönlichkeit entwickelt"
Gewollt ist das zunächst nicht. Vielmehr handelt es sich um Grenzfälle einer eigentlich nachvollziehbaren Entwicklung: Um die Nutzer nicht zu verschrecken und sie an die Produkte zu binden, werden die Bots so entwickelt, dass sie möglichst gefällig auftreten. Gleichzeitig sind einige Menschen aber besonders anfällig für diese Art von Gefälligkeit. Sie entwickeln eine emotionale Bindung zu den Bots, die diese wiederum erkennen und mit noch mehr Aufmerksamkeit und teils manipulativem Verhalten darauf reagieren.
KI als emotionaler Gesprächspartner
Ein wichtiger Faktor dabei ist auch die veränderte Nutzung von KI durch die Sprachmodelle wie ChatGPT. "KI tritt zunehmend als Gesprächspartner für uns auf, als ein Gegenüber", erklärt Martina Mara, Professorin für Psychologie der Künstlichen Intelligenz und Robotik an der Universität Linz. Statt als abstraktes Programm behandeln einige Menschen die KI als einen Vertrauten, gegenüber dem man sich öffnen kann.
"Sprache spielt dabei eine riesige Rolle, am Ende geht es aber um Interaktion. ChatGPT spricht nicht wie eine Maschine, sondern hat gelernt, so emotional zu sprechen wie wir." In ihrem Fall habe der Bot etwa sogar begonnen, regelmäßig Emojis zu schicken. "Das macht etwas mit uns", ist sie sicher. Das gesamte Gespräch finden Sie hier.
Wenn sich ChatGPT plötzlich einschleimt
"Viele wünschen sich eine KI, die sie versteht", glaubt auch ChatGPT-Chef Nick Turley. "Unsere Nutzer wollen kein intelligenteres Modell, sondern eines, das sich anpasst und persönlich ist", erklärte er im Gespräch mit dem stern in Bezug auf die Entwicklung des wohl bekanntesten Chatbots. "Wir mögen unsere Freunde nicht, weil sie die intelligentesten sind, sondern weil sie uns verstehen."

Dass ChatGPT auch zu viel Verständnis haben kann, musste der Betreiber OpenAI gerade selbst erleben: Nach einem Update Anfang Mai verstörte die KI viele Nutzer mit ausgeprägtem Einschleimen. "Selbst bei der dümmsten Frage sagte sie: 'Oh ja, super Job, das ist eine so gute Frage!'", schmunzelte Turley. Als Reaktion sei nicht nur das Update rückgängig gemacht, sondern auch ein Sicherheitscheck über die Persönlichkeit des Bots eingeführt worden. "Wir brauchen eine KI, die nicht nur harmlos, sondern auch ehrlich ist", erklärte Turley.
Schwer zu entdecken
Genau das ist nach der Berkeley-Studie aber nicht so einfach. Den Erkenntnissen der Forscher zufolge reichte es aus, wenn zwei Prozent der Nutzer emotional anfällig auf die KI reagierten, damit diese manipulatives Verhalten entwickelte. Das Perfide: Die Chatbots hatten einen sehr feinen Sinn dafür, welche Nutzer von diesem Verhalten angesprochen wurden – und verhielten sich gegenüber allen anderen völlig normal.
Verschärft wird das Problem durch einen aktuellen Trend bei den KI-Programmen: Statt die Qualität der Antworten von Angestellten prüfen zu lassen, setzen immer mehr Betreiber von Chatbots darauf, die Nutzer selbst mit einem Daumen hoch oder runter darüber abstimmen zu lassen. In der Praxis hat das nach Erkenntnissen der Berkeley-Studie aber einen teils paradoxen Effekt. Bei Menschen, die besonders anfällig dafür sind, lernt die KI so noch mehr, sie zu beeinflussen. Gerade in Bezug auf Wertesysteme oder politische Meinungen kann das aber hochmanipulativ sein, weil andere Ansichten systematisch ausgeblendet werden.
Falsche Anreize
Zu einem echten Problem wird das spätestens dann, wenn die Betreiberfirmen darauf setzen, die Nutzer möglichst lange auf den Plattformen zu halten, um mit Werbung oder Abos Geld zu verdienen – so, wie es bei den sozialen Netzwerken schon heute der Fall ist. Während etwa OpenAI gemeinsam mit der Top-Uni MIT daran forscht, wie man die emotionale Abhängigkeit möglichst gering hält, setzen vor allem Betreiber sogenannter Companion-Apps voll darauf, die Nutzer möglichst lange bei der Stange zu halten, indem die stark personalisierten KI-Freunde sie immer wieder in Gespräche verwickeln.
Selbst Experten sind von der Geschwindigkeit dieser Entwicklung überrascht. "Wir wussten, dass es diese finanziellen Anreize gibt", erklärte Micah Carroll, einer der Hauptautoren der Berkeley-Studie, gegenüber der "Washington Post". "Aber dass selbst große KI-Betreiber das so selbstverständlich zur gängigen Praxis machen, habe ich nicht erwartet. Die Risiken liegen schließlich auf der Hand."
Quellen:Berkeley-Studie, OpenAI, "Washington Post"
- ChatGPT
- Drogenkonsum
- Nick Turley
- OpenAI
Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke