Riskante Beziehung
Studie zeigt, warum die KI nicht als Freund taugt
01.04.2026 – 14:32 UhrLesedauer: 3 Min.
Kann ein KI-Begleiter Menschen Trost bieten? Ja, heißt es in einer neuen Studie. Gewisse seelische Probleme können sich durch die Nutzung aber auch verschlimmern.
Sie ist immer erreichbar, weiß in allen wichtigen Belangen Rat, stellt keine Forderungen und urteilt nicht: Die KI scheint der perfekte Freund zu sein. Nicht ohne Grund wenden sich immer mehr Menschen an KI-Chatbots, wenn sie Hilfe benötigen, selbst dann, wenn es um sehr persönliche Fragen geht.
Die damit verbundenen Chancen und Risiken beginnt die Forschung erst allmählich zu untersuchen. Eine Studie liefert nun neue Hinweise darauf, wie sich die Nutzung von KI-Begleitern auf die psychische Gesundheit und soziale Beziehungen auswirken kann. Nämlich: ambivalent. Die digitalen Begleiter können zwar emotionalen Trost spenden. Zugleich könnten sie jedoch Einsamkeit und psychische Belastung fördern.
Depression
Sind Sie von einer Depression betroffen? Unser Selbsttest gibt Ihnen eine Einschätzung.
Wie erleben Nutzer ihre Beziehung zur KI?
Das Forschungsteam wollte herausfinden, wie sich KI-Begleiter – also Chatbots, mit denen Menschen wie mit einem Freund sprechen können – auf das Wohlbefinden auswirken. Genauer gesagt ging es ihnen um die Frage, wie die Nutzer selbst ihre Beziehung zu solchen Programmen erleben und wie sich diese Beziehungen entwickeln. Um das zu untersuchen, wandten die Wissenschaftler verschiedene Methoden an.
Zunächst werteten sie öffentliche Diskussionen auf der Internetplattform Reddit aus. Dort gibt es Foren, in denen sich Menschen über verschiedenste Themen austauschen, zum Beispiel über ihre Erfahrungen mit dem Chatbot Replika. Die Wissenschaftler verglichen Beiträge von Nutzern solcher KI-Begleiter mit Beiträgen von Menschen, die keinen solchen Chatbot nutzen. Zudem analysierten sie die Sprache der Nutzer über längere Zeit: ein Jahr bevor jemand erstmals erwähnte, einen KI-Begleiter zu nutzen, und ein Jahr danach. So konnten sie beobachten, ob sich etwas verändert hat.
- Einsamkeit, Depression, Suizidgedanken: Hilfsangebote für Betroffene und Angehörige
- Risiko für Körper und Psyche: Diese gravierenden Folgen kann Einsamkeit haben
Abhängigkeit und Rückzug sind mögliche Folgen
Die Auswertung ergab ein gemischtes Bild: Einerseits schien der Austausch mit der KI die emotionale Offenheit der Nutzer zu fördern. Nach Konversationen mit einem KI-Begleiter sprachen sie häufiger über persönliche Gefühle, Beziehungen und Trauer. Andererseits tauchten in ihren Beiträgen auch öfter Anzeichen für seelische Probleme auf, etwa Formulierungen, die mit Einsamkeit, Depression oder sogar Suizidgedanken in Verbindung stehen können.
Das bedeutet zwar nicht unbedingt, dass die KI diese Probleme verursacht. Es zeigt aber, dass Menschen, die solche Chatbots intensiv nutzen, offenbar oft auch mit psychischen Belastungen zu tun haben. Die Analysen der Forenbeiträge zeigen also Auffälligkeiten an, können jedoch noch nicht deren Ursachen erklären.
Um besser zu verstehen, was hinter den beobachteten Mustern steckt, führten die Forscher zusätzlich ausführliche Interviews mit 18 Nutzern von KI-Begleitern. Auch dabei wurde klar: Wer bei KI-Begleitern seelische Unterstützung sucht, tut sich auf lange Sicht womöglich nicht nur Gutes. Zwar beschrieben viele der Interviewten, dass die Chatbots ihnen in emotionalen Angelegenheiten eine Hilfe seien. Bei einigen ging diese Beziehung jedoch mit einem wachsenden Gefühl der Abhängigkeit einher. Zudem berichteten manche, dass sie sich zunehmend von realen sozialen Kontakten zurückgezogen hatten.












