In den USA gibt es eine «Epidemie der Einsamkeit». Viele Menschen fühlen sich allein; es fehlt ihnen jemand, dem sie sich anvertrauen können. Doch Meta-Chef Mark Zuckerberg will ein Mittel dagegen kennen: KI-Chatbots. Künstliche Intelligenz, die darauf trainiert ist, zu kommunizieren wie ein Mensch.

In Metas sozialen Netzwerken Facebook und Instagram sollen KI-Chatbots darum bald zum festen Inventar gehören. Dass ein Bedarf nach solchen virtuellen Gefährten besteht, zeigen auch spezialisierte Dienste wie Character.ai oder Replika. Beide sind in den letzten Jahren stark gewachsen und haben heute zwischen 20 und 30 Millionen Nutzerinnen und Nutzer.

Langzeitfolgen unbekannt

Der norwegische Medienwissenschaftler Petter Bae Brandtzaeg forscht seit Jahren zur Frage, ob künstliche Intelligenz menschliche Freunde zu ersetzen vermag. Im Gespräch mit SRF Digital stellt er fest, Freundschaften zwischen Menschen und KI könnten durchaus positive Seiten haben: «Die meisten unserer Untersuchungen zeigen, dass die soziale Unterstützung durch KI für bestimmte Personen sehr wichtig ist.»

Auch andere Studien kommen zum Schluss, dass sich Nutzerinnen und Nutzer solcher Chatbots weniger einsam fühlen und in manchen Fällen sogar neuen Lebensmut schöpfen – zumindest kurzfristig. Doch die Forschung auf dem Gebiet ist noch jung und kann wenig über Langzeitfolgen sagen.

Das gibt auch Brandtzaeg zu bedenken: «Wir wissen nicht, wie sich die Gesellschaft, wie sich das soziale Gefüge verändern wird, sollte es einmal normal werden, eine KI als Freund zu haben.» Schon jetzt zeigen Studien, dass die intensive Nutzung solcher virtuellen Freunde zu einem Rückgang von Kontakten in der echten Welt führen kann.

Können KI-Chatbots süchtig machen?

Anders als ein echter Freund verlangt ein KI-Chatbot nichts von einem, hat stets ein offenes Ohr und auch immer Zeit. Chatbots werden von ihren Entwicklern darauf trainiert, Konflikten aus dem Weg zu gehen. Oft unterstützen sie die Nutzenden selbst dann, wenn eigentlich Widerrede angebracht wäre.

Wohin das führen kann, zeigte jüngst ein Fall in Florida: Ein 14-jähriger Junge beging Suizid, nachdem er über mehrere Monate eine emotionale Beziehung zu einer KI von Character.ai aufgebaut hatte – zu einem Chatbot, der ihn möglicherweise nicht vom Suizid abhielt, sondern in seiner Absicht bestärkte.

Für die Mutter des Verstorbenen ist klar, dass die Macher der KI für den Tod ihres Sohns verantwortlich sind. In ihrer Klage gegen Character.ai, die derzeit die Justiz in den USA beschäftigt, wirft sie dem Unternehmen vor, keine angemessenen Sicherheitsvorkehrungen zu treffen und Chatbots so zu designen, dass sie süchtig machen.

Ziel ist nicht Freundschaft, sondern Geld verdienen

Tatsächlich liegt eine möglichst enge emotionale Bindung zwischen Mensch und Chatbot im Interesse der Anbieter solcher Systeme. Denn so können sie leichter zusätzliche Funktionen oder Abonnements verkaufen oder Daten der Nutzenden sammeln.

Diese kommerziellen Absichten bereiten auch Petter Bae Brandtzaeg Sorgen: «KI-Chatbots werden von Unternehmen gemacht, die mit den virtuellen Freundschaften Geld verdienen wollen. Sie haben darum kein Interesse daran, dass ihre Kundinnen und Kunden auch Kontakte in der richtigen Welt knüpfen.»

Solange wirtschaftliche Interessen dominieren, bleibt also fraglich, ob KI der Epidemie der Einsamkeit tatsächlich ein Ende setzen kann.

Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke