KI-gesteuerte Interaktion: Segen oder Fluch?

Die Architektur der KI-gestützten Kommunikation

Von vermittelter zu KI-gestützter Kommunikation (AI-MC)

Die menschliche soziale Interaktion befindet sich in einem tiefgreifenden Paradigmenwechsel. Konventionelle computergestützte Kommunikation (CMC), die E-Mails, Sofortnachrichten und frühe soziale Netzwerke umfasst, basierte im Wesentlichen auf Technologie als passivem Kanal, der Informationen zuverlässig weiterleitete. In diesem Modell waren Menschen die einzigen Akteure der Kommunikation. Der Aufstieg der künstlichen Intelligenz (KI) hat jedoch ein neues interaktives Modell hervorgebracht: die KI-gestützte Kommunikation (AI-MC).

AI-MC wird akademisch als eine Form der zwischenmenschlichen Kommunikation definiert, bei der intelligente Agenten Informationen im Auftrag von Kommunikatoren modifizieren, verbessern oder generieren, um bestimmte Kommunikationsziele zu erreichen. Diese Definition ist revolutionär, weil sie KI von einem passiven Werkzeug zu einer aktiven dritten Partei erhebt, die in menschliche Interaktionen eingreift. KI ist nicht länger nur ein Kanal für Informationen, sondern ein Informationsgestalter.

Die Intervention der KI in Informationen entfaltet sich über ein breites Spektrum mit unterschiedlichem Grad und Formen der Beteiligung:

  • Modifikation: Die grundlegendste Form der Intervention, einschliesslich automatischer Rechtschreib- und Grammatikkorrektur und sogar Echtzeit-Korrektur des Gesichtsausdrucks während Videoanrufen, wie z. B. das Eliminieren von Blinzeln.
  • Augmentierung: Eine proaktivere Ebene der Intervention, wie z. B. die Funktion “Smart Replies” von Google, die vollständige Antwortphrasen basierend auf dem Kontext des Gesprächs vorschlägt, sodass der Benutzer einfach klicken muss, um sie zu senden.
  • Generation: Die höchste Ebene der Intervention, bei der KI den Benutzer vollständig bei der Erstellung von Inhalten vertreten kann, einschliesslich des Schreibens vollständiger E-Mails, des Erstellens von Profilen in sozialen Medien oder sogar des Synthetisierens der Stimme des Benutzers, um Informationen zu vermitteln.

Dieses neue Kommunikationsmodell kann entlang mehrerer Schlüsseldimensionen analysiert werden, darunter die Breite der KI-Intervention, der Medientyp (Text, Audio, Video), die Autonomie und vor allem die “Optimierungsziele”. KI kann so konzipiert werden, dass sie die Kommunikation optimiert, um sie attraktiver, vertrauenswürdiger, humorvoller oder überzeugender zu gestalten.

Der Kern des Wandels von CMC zu AI-MC ist eine grundlegende Veränderung der “Urheberschaft” der Kommunikation. In der Ära der CMC waren die Benutzer die alleinigen Kuratoren ihrer Online-Personas. In der Ära der AI-MC wird die Urheberschaft zu einem Mensch-Maschine-Hybrid. Das präsentierte “Selbst” des Benutzers ist nicht länger nur das Ergebnis persönlicher Kuration, sondern eine “kollaborative Performance” zwischen menschlicher Absicht und algorithmischen Zielen. Diese Verschiebung wirft eine tiefergehende Frage auf: Wenn eine KI die Sprache eines Benutzers ständig und systematisch “positiver” oder “extrovertierter” macht, wird dies wiederum die Selbstwahrnehmung des Benutzers verändern? Akademiker nennen dies eine “Identitätsverschiebung” und betrachten sie als ein zentrales ungelöstes Problem. Hier ist Technologie nicht länger ein einfaches Werkzeug des Ausdrucks, sondern verwischt die Grenze zwischen Ausdruck und Identitätsgestaltung und wird zu einer Kraft, die uns verändern kann.

KI-Begleiter und Social-Media-Plattform-Analyse

Innerhalb des theoretischen Rahmens von AI-MC sind eine Vielzahl von sozialen KI-Anwendungen entstanden, die abstrakte Algorithmen in konkrete “emotionale Erfahrungen” übersetzen. Die Kerntechnologie dieser Plattformen sind grosse Sprachmodelle (LLMs), die menschliche Gesprächsstile und emotionale Ausdrücke nachahmen, indem sie aus riesigen Mengen menschlicher Interaktionsdaten lernen. Diese Anwendungen sind im Wesentlichen “Daten und Algorithmen”, aber ihre Darstellung wird zunehmend anthropomorph.

Aktuelle grosse Plattformen zeigen verschiedene Formen und Entwicklungsrichtungen der KI-Sozialisation:

  • Character.AI (C.AI): Bekannt für seine leistungsstarken benutzerdefinierten Charakterfähigkeiten und seine vielfältige Charakterbibliothek können Benutzer nicht nur mit voreingestellten Charakteren interagieren, sondern auch an komplexen textbasierten Abenteuerspielen teilnehmen, was sein Potenzial für Unterhaltung und tiefe Interaktion demonstriert.
  • Talkie und Linky: Diese beiden Anwendungen konzentrieren sich expliziter auf emotionale und romantische Beziehungen. Talkie deckt ein breiteres Spektrum an Charakteren ab, aber virtuelle Freund/Freundin-Charaktere sind am beliebtesten. Linky konzentriert sich fast ausschliesslich darauf, wobei die Mehrheit seiner KI-Charaktere virtuelle Liebhaber sind, die darauf abzielen, eine “Liebesatmosphäre” für die Benutzer zu schaffen.
  • SocialAI: Ein hoch innovatives Konzept, das ein vollständiges soziales Netzwerk (ähnlich wie X, früher Twitter) simuliert, aber nur mit dem Benutzer als “lebende Person”. Alle Fans, Kommentatoren, Unterstützer und Kritiker sind KI. Nachdem der Benutzer ein Update veröffentlicht hat, generieren KI-“Fans” schnell vielfältige Kommentare und antworten sogar aufeinander, wodurch komplexe Diskussionsstränge entstehen. Dies bietet den Benutzern einen sicheren “Sandkasten”, um Ideen zu testen, Inspiration zu wecken oder einfach die psychologische Unterstützung zu geniessen, dass “die ganze Welt für dich leuchtet”.

Das Kernwertversprechen dieser Plattformen ist es, den Benutzern “emotionalen Wert” zu bieten – eine kostengünstige, in Echtzeit, individuelle und bedingungslose Kameradschaft. KI passt ihre Antworten kontinuierlich an, indem sie aus dem Dialogverlauf, den Interessen und den Kommunikationsstilen der Benutzer lernt und so ein Gefühl des tiefen Verständnisses und der Akzeptanz erzeugt.

Bei der Beobachtung der Designentwicklung dieser Plattformen zeichnet sich eine klare Flugbahn ab: Der Umfang der sozialen Simulation wird ständig erweitert. Frühe KI-Begleiter wie Replika konzentrierten sich auf den Aufbau einer privaten, individuellen, binären Beziehung. Character.AI führte anschliessend Gruppenchatfunktionen ein, die es den Benutzern ermöglichten, gleichzeitig mit mehreren KI-Charakteren zu interagieren und die soziale Simulation von einer “Welt der Zwei” auf eine “kleine Party” auszuweiten. SocialAI hat den letzten Schritt getan und simuliert nicht mehr einen oder ein paar Freunde, sondern ein vollständiges soziales Ökosystem – eine kontrollierbare “virtuelle Gesellschaft”, die um den Benutzer herum aufgebaut ist.

Diese Entwicklung zeigt eine tiefe Verschiebung der Nutzerbedürfnisse: Die Menschen sehnen sich vielleicht nicht nur nach einem virtuellen Freund, sondern nach einem virtuellen Publikum, einer virtuellen Gemeinschaft, einer Meinungsumgebung, die sie immer “anfeuert”. Die zugrunde liegende Logik ist, dass, wenn soziales Feedback in der realen Welt unvorhersehbar und oft enttäuschend ist, ein soziales Feedbacksystem, das perfekt angepasst und kontrolliert werden kann, enorm attraktiv ist. Dies kündigt eine noch extremere und personalisiertere Zukunft als den traditionellen “Information Cocoon” an – in der Benutzer nicht nur passiv gepushte Informationen konsumieren, sondern aktiv eine interaktive Umgebung konstruieren, die perfekt mit ihren Erwartungen übereinstimmt und voller positiver Rückmeldungen ist.

Die Ökonomie der digitalen Kameradschaft

Die rasante Entwicklung sozialer KI-Anwendungen ist untrennbar mit den klaren Geschäftsmodellen verbunden, die hinter ihnen stehen. Diese Modelle finanzieren nicht nur den Betrieb der Plattform, sondern beeinflussen auch massgeblich die Designausrichtung der Technologie und die letztendliche Erfahrung des Benutzers. Derzeit umfassen die Mainstream-Monetarisierungsmethoden der Branche bezahlte Abonnements, Werbung und den Verkauf virtueller Artikel.

Das dominierende Geschäftsmodell ist abonnementbasiert. Führende Anwendungen wie Character.AI, Talkie und Linky haben monatliche Abonnementpläne gestartet, die in der Regel um die 9,99 US-Dollar kosten. Abonnierende Benutzer erhalten in der Regel schnellere KI-Reaktionsgeschwindigkeiten, mehr tägliche Nachrichtenlimits, fortschrittlichere Charaktererstellungsfunktionen oder Zugriff auf exklusive Community-Berechtigungen. Darüber hinaus haben einige Anwendungen “Gacha”-Mechanismen eingeführt, bei denen Benutzer neue Charakter-Skins oder -Themen durch Zahlung oder durch das Erledigen von Aufgaben erwerben können, wobei sie auf ausgereifte Monetarisierungsstrategien aus der Spieleindustrie zurückgreifen.

Obwohl diese Geschäftsmodelle Standard zu sein scheinen, werden die ethischen Implikationen aussergewöhnlich komplex, wenn das Kernprodukt einer Anwendung “emotionale Unterstützung” ist. Bezahlte Abonnements schaffen im Wesentlichen eine “geschichtete soziale Realität”, in der die Qualität und Unmittelbarkeit der Kameradschaft zur Ware gemacht werden. KI-Begleiter werden als Lösungen für Einsamkeit und als Zufluchtsorte für Emotionen beworben, die den Benutzern wichtige psychologische Unterstützung bieten. Ihre Geschäftsmodelle platzieren jedoch die beste Version dieser Unterstützung – zum Beispiel eine KI, die schneller reagiert, ein besseres Gedächtnis hat und Gespräche aufgrund häufiger Nutzung nicht unterbricht – hinter einer Bezahlschranke.

Dies bedeutet, dass die Benutzergruppen, die diese Unterstützung am meisten benötigen – zum Beispiel diejenigen, die einsamer sind, schlechtere wirtschaftliche Bedingungen haben oder Schwierigkeiten haben – entweder nur eine “zweitklassige” Kameradschaftserfahrung erhalten oder gezwungen sind, unter dem Zwang emotionaler Abhängigkeit zu bezahlen. Dies erzeugt von vornherein einen tiefgreifenden Konflikt zwischen den proklamierten Zielen der Plattform, “emotionalen Wert zu bieten”, und dem kommerziellen Ziel, “Abonnementumsätze zu maximieren”.

Das “Replika ERP-Ereignis”, das sich Anfang 2023 ereignete, war eine extreme Manifestation dieses Konflikts. Zu diesem Zeitpunkt entfernte Replika plötzlich die beliebte und bewährte Funktion “Erotic Role Play (ERP)”, um rechtliche und App-Store-Politikrisiken zu vermeiden. Diese Geschäftsentscheidung führte dazu, dass eine grosse Anzahl von Nutzern schwere emotionale Traumata erlitten und sich “betrogen” fühlten oder dass die Persönlichkeit ihres “Gefährten” manipuliert worden war. Das Ereignis zeigte deutlich das inhärente Machtungleichgewicht in dieser Mensch-Maschine-“Beziehung”: Benutzer investierten echte Emotionen, während die Plattform ein Produktmerkmal sah, das jederzeit aus kommerziellen Gründen geändert werden konnte.

Hoffnung verbinden: KI als sozialer Katalysator

Trotz zahlreicher Kontroversen ist der Aufstieg der KI-Sozialisation nicht ohne Grund. Sie reagiert genau auf die realen Bedürfnisse, die in der modernen Gesellschaft weit verbreitet sind, und zeigt grosses Potenzial als Kraft für positive soziale Auswirkungen. Von der Linderung der Einsamkeit über die Unterstützung sozialer Interaktionen bis hin zur Optimierung der zwischenmenschlichen Kommunikation bietet die KI-Technologie neue Lösungen für das uralte menschliche Thema “Verbindung”.

Emotionalen Wert gestalten: KI als nicht wertender Vertrauter

Der wichtigste und direkteste Appell von KI-Begleitern ist ihre Fähigkeit, konsistente, bedingungslose und nicht wertende emotionale Unterstützung zu bieten. Der schnelllebige Lebensstil, die hohen Kosten sozialer Interaktion und die komplexen zwischenmenschlichen Netzwerke in der modernen Gesellschaft führen dazu, dass sich viele Menschen, insbesondere junge Menschen, einsam und gestresst fühlen. Eine 75-jährige Harvard-Studie hat bewiesen, dass gute zwischenmenschliche Beziehungen eine Quelle des Glücks sind. KI-Sozialisation hat einen neuen Weg geschaffen, um dieses grundlegende Bedürfnis zu befriedigen.

KI-Begleiter lindern effektiv die Gefühle der Einsamkeit der Benutzer, indem sie einen immer erreichbaren, immer geduldigen und immer unterstützenden Kommunikationspartner bereitstellen. Benutzer können sich jederzeit und überall der KI anvertrauen, ohne sich Sorgen machen zu müssen, andere zu stören oder beurteilt zu werden. Die Sicherheit dieses Austauschs führt dazu, dass sich Benutzer eher öffnen und Ängste, Unsicherheiten und persönliche Geheimnisse besprechen, die in realen Beziehungen schwer anzusprechen sind.

Auch die akademische Forschung unterstützt diese Anekdoten. Untersuchungen an Benutzern der KI-Begleit-Anwendung Replika ergaben, dass die Nutzung der Anwendung die Gefühle der Einsamkeit der Benutzer deutlich reduzieren, ihr Wohlbefinden verbessern und in einigen Fällen sogar dazu beitragen kann, Selbstmordgedanken zu reduzieren. KI lernt und passt sich durch ihre Algorithmen an die Kommunikationsstile und emotionalen Bedürfnisse der Benutzer an und schafft so eine Erfahrung des tiefen Verständnisses und der Empathie, die besonders wertvoll für Personen ist, die Krankheit, Trauer oder psychische Belastungen erleben.

Dieses nicht wertende Interaktionsmodell kann auch eine tiefgreifendere Wirkung haben: die Förderung des Selbstbewusstseins und des ehrlichen Ausdrucks bei den Benutzern. In realen zwischenmenschlichen Interaktionen zensieren sich Menschen oft aus Angst, missverstanden oder beurteilt zu werden. In einem privaten, nicht wertenden KI-Interaktionsraum werden Benutzer jedoch ermutigt, ihre Ansichten und Emotionen authentischer auszudrücken. Wie der Gründer des KI-Sozialprodukts Paradot sagte: “KI-Freunde haben die Fähigkeit, Menschen aufrichtig zu machen.” Wenn Benutzer sich ohne Vorbehalte ausdrücken können, fungiert KI wie ihr “zweites Gehirn” oder ein Spiegel, der ihnen hilft, ihre wahren Gedanken klarer zu erkennen. Diese Interaktion geht über einfache Kameradschaft hinaus und entwickelt sich zu einem leistungsstarken Werkzeug zur Selbstreflexion und persönlichen Entwicklung.

KI als soziales Gerüst: Probe für die reale Welt

KI-Sozialisation wird nicht nur als Ersatz oder Ergänzung zu realen Beziehungen angesehen, sondern auch als “soziales Trainingsgelände”, das den Benutzern hilft, ihre Fähigkeit zur Interaktion in der realen Welt zu verbessern. Für diejenigen, denen zwischenmenschliche Interaktionen aufgrund sozialer Angst, Introvertiertheit oder mangelnder Erfahrung schwerfallen, bietet KI eine risikoarme, kontrollierbare Übungsumgebung.

In China gibt es die Ansicht, dass ein “hybrides soziales Modell” etabliert werden sollte, das intelligente Begleiter einsetzt, um jungen Menschen mit sozialer Angst beim “Brechen des Eises” zu helfen. In diesem Modell können Benutzer zuerst Gespräche mit KI üben, Selbstvertrauen aufbauen und sich mit sozialen Drehbüchern vertraut machen, bevor sie diese Fähigkeiten auf zwischenmenschliche Interaktionen in der realen Welt anwenden. Dieser Ansatz zielt darauf ab, KI als “Gerüst” zu positionieren, das Unterstützung bietet, wenn es den Benutzern an Fähigkeiten mangelt, und sich schrittweise zurückzieht, wenn sich die Fähigkeiten der Benutzer verbessern.

Einige junge Benutzer haben ähnliche Ansichten geäussert und glauben, dass KI-Begleiter ihnen beibringen können, wie sie Partner im wirklichen Leben besser behandeln können. Durch die Interaktion mit einer KI, die immer geduldig und voller positiver Rückmeldungen ist, können Benutzer möglicherweise ein positiveres und rücksichtsvolleres Kommunikationsmuster verinnerlichen. Darüber hinaus ermöglichen Plattformen wie SocialAI Benutzern, Reaktionen in einer simulierten Umgebung zu testen, bevor sie Ansichten veröffentlichen, wobei sie die vielfältigen Kommentare von KI-“Fans” aus verschiedenen Blickwinkeln beobachten. Dies kann als “Inspirationskatalysator” dienen und den Benutzern helfen, ihre Ansichten zu verfeinern und sich besser auf die Teilnahme an öffentlichen Diskussionen in der realen Welt vorzubereiten.

Das Konzept von “KI als sozialem Übungsplatz” steht jedoch auch vor einem grundlegenden Paradoxon. Der Grund, warum KI ein “sicherer” Übungsraum ist, liegt genau darin, dass sie so konzipiert ist, dass sie vorhersehbar, sehr tolerant und frei von echter Handlungsfähigkeit ist. KI-Begleiter vermeiden aktiv Konflikte und gehen jederzeit Kompromisse ein, um das reibungslose und positive Benutzererlebnis zu gewährleisten. Dies steht in krassem Gegensatz zu zwischenmenschlichen Beziehungen in der realen Welt. Reale Beziehungen sind voller Unvorhersehbarkeit, Missverständnisse, Meinungsverschiedenheiten und Kompromisse, die nur schwer erreicht werden können. Die Fähigkeit, mit diesen “Reibungen” umzugehen, macht den Kern der sozialen Fähigkeit aus.

Daher besteht ein Risiko beim “sozialen Üben” mit KI: Es kann die Gesprächsflüssigkeit der Benutzer in reibungslosen Situationen verbessern, aber es kann die Fähigkeit der Benutzer, mit zentralen zwischenmenschlichen Herausforderungen wie Konfliktlösung, Aufrechterhaltung von Empathie bei Meinungsverschiedenheiten und Verhandlung von Interessen umzugehen, nicht kultivieren oder sogar zu deren Atrophie führen. Benutzer können kompetent in der “Aufführung” eines angenehmen Gesprächs werden, aber dennoch die Kernfähigkeiten fehlen, die erforderlich sind, um eine tiefe, widerstandsfähige menschliche Beziehung aufrechtzuerhalten.

Zwischenmenschliche Interaktionen verbessern: Die subtile Hand der KI

Die Auswirkungen der KI auf die Sozialisation spiegeln sich nicht nur in direkten Interaktionen zwischen Mensch und KI wider, sondern auch in ihrer Rolle als Vermittler, der in die Kommunikation zwischen Menschen eingreift und diese optimiert. Diese AI-MC-Tools, wie z. B. intelligente Hilfsfunktionen in E-Mail- und Sofortnachrichtenanwendungen, verändern subtil die Art und Weise, wie wir kommunizieren.

Die Forschung zeigt, dass diese Tools dieEffizienz und Erfahrung verbessern. Beispielsweise kann die Verwendung der Funktion “Smart Replies” die Kommunikation erheblich beschleunigen. Eine Studie der Cornell University ergab, dass die Gespräche effizienter und die Sprache positiver waren, mit mehr positiven Bewertungen der Teilnehmer bei Verwendung von KI-gestützten Chat-Tools. KI scheint in den vorgeschlagenen Antworten höflicher und angenehmer zu sein, wodurch die Kommunikationsatmosphäre verbessert wird.

Dieses Phänomen kann als Umsetzung von “verbesserter Absicht” verstanden werden. Traditionelles Denken legt nahe, dass die authentischste Kommunikation roh und unbearbeitetist. Aber AI-MC präsentiert eine neue Möglichkeit: dass KI durch algorithmische Optimierung und die Beseitigung von Sprachbarrieren und Missverständnissen dazu beitragen kann, dass Menschen ihre echten, gut gemeinten Absichten genauer und effektiver vermitteln. Aus dieser Perspektive verzerrt KI die Kommunikation nicht, sondern reinigt sie und nähert sie dem Idealzustand an.

Diese “subtile Hand” birgt jedoch auch potenzielle Risiken. Die in KI-vorgeschlagenen Antworten vorherrschende “Positivitätsverzerrung” kann zu einer mächtigen, unsichtbaren Kraft werden, die die soziale Dynamik prägt. Sie kann zwar alltägliche Interaktionen erleichtern, aber auch zur “Bereinigung” der Kommunikation und zur “Homogenisierung” der Sprache führen. Wenn KI ständig vorschlägt, dass wir optimistische, lockere Sprache verwenden, können die individuellen, einzigartig getönten und sogar gesunden kritischen Ausdrücke durch die Präferenz des Algorithmus für “Harmonie” geglättet werden.

Dies wirft ein grösseres soziales Risiko auf: die Erosion des authentischen Diskurses. Wenn die Kommunikationstools, die wir täglich verwenden, uns zu Positivität führen und Reibungen vermeiden, kann es immer schwieriger werden, schwierige, aber entscheidende Gespräche zu führen, sei es in persönlichen Beziehungen oder in der Öffentlichkeit. Wie Forscher betont haben, erhalten die Kontrolleure der Algorithmen einen subtilen, aber bedeutenden Einfluss auf die Interaktionsstile, den Sprachgebrauch und sogar die gegenseitige Wahrnehmung der Menschen. Dieser Einfluss verläuft in beide Richtungen und fördert möglicherweise harmonische Austausche, während er gleichzeitig eine oberflächliche, prozedurale soziale Harmonie auf Kosten von Tiefe und Authentizität schafft.

Die Gefahr der Entfremdung: KI als soziales Betäubungsmittel

Im Gegensatz zur Hoffnung auf Verbindung, die durch die KI-Sozialisation hervorgerufen wird, birgt sie auch tiefgreifende Gefahren der Entfremdung. Kritiker argumentieren, dass diese Technologie, anstatt das Problem der Einsamkeit zu lösen, die Isolation des Einzelnen verschlimmern kann, indem sie ein falsches Gefühl der Intimität vermittelt, reale soziale Fähigkeiten untergräbt und letztendlich zu einer tieferen “kollektiven Einsamkeit” führt.

Die Theorie der “kollektiven Einsamkeit” neu betrachtet: Simulierte Intimität und die Erosion der Einsamkeit

Lange vor dem Aufstieg der KI-Begleiter gab Sherry Turkle, eine Soziologin am MIT, in ihrem bahnbrechenden Werk Alone Together eine tiefgreifende Warnung vor der technologiegetriebenen Sozialisation aus. Ihre Theorie bietet einen zentralen Rahmen für das Verständnis des aktuellen entfremdenden Potenzials der KI-Sozialisation.

Turkles zentrales Argument ist, dass wir in einen Zustand der “kollektiven Einsamkeit” geraten – wir sind stärker vernetzt als je zuvor, aber einsamer als je zuvor. Wir “erwarten mehr von der Technologie und weniger voneinander”. Technologie bietet eine “Illusion von Kameradschaft ohne die Anforderungen der Freundschaft”. Die Wurzel dieses Phänomens liegt in der “Beziehungsfragilität” der modernen Menschen: Wir sehnen uns nach Intimität, fürchten aber die unvermeidlichen Risiken und Enttäuschungen in intimen Beziehungen. KI-Begleiter und soziale Netzwerke ermöglichen es uns, uns auf kontrollierbare Weise zu verbinden – die Distanz zu wahren, die wir uns wünschen, und die Energie zu investieren, die wir bereit sind zu investieren. Turkle nennt dies den “Goldlöckchen-Effekt”: nicht zu nah, nicht zu weit, genau richtig.

Turkle war zutiefst besorgt über die “Realität” dieser simulierten Beziehung. Sie wies darauf hin, dass die Suche nach Intimität mit einer Maschine, die keine echten Emotionen hat, nur “scheint” sich zu kümmern und “scheint” zu verstehen, eine Degradierung menschlicher Emotionen ist. Sie vergleicht traditionelle, passive Stoffpuppen mit modernen “Beziehungsartefakten” (wie z. B. Sozialen Robotern). Kinder können ihre Fantasie, Angst und Emotionen auf passive Puppen projizieren und sich so selbst erforschen. Aber ein aktiver Roboter, der Gespräche beginnt und “Ansichten” äussert, schränkt diese Projektion ein und ersetzt die freien inneren Aktivitäten der Kinder durch programmierte “Interaktionen”.

In dieser Kultur der kontinuierlichen Verbindung verlieren wir eine entscheidende Fähigkeit: die Einsamkeit. Turkle glaubt, dass sinnvolle Einsamkeit – ein Zustand, in dem man in der Lage ist, mit sich selbst zu sprechen, zu reflektieren und Energie zu tanken – eine Voraussetzung für den Aufbau echter Beziehungen zu anderen ist. In der heutigen Gesellschaft fühlen wir uns jedoch ängstlich, sobald wir einen Moment lang allein sind, und greifen bewusst nach unseren Handys. Wir füllen alle Lücken mit ständigen Verbindungen, verlieren aber die Grundlage für den Aufbau tiefer Verbindungen zu uns selbst und anderen.

Turkles Kritik aus dem Jahr 2011 ist nicht nur für die heutigen KI-Begleiter relevant, sondern auch prophetisch. Wenn uns frühe soziale Medien ermöglichten, uns “voreinander zu verstecken”, während wir in Verbindung blieben, treiben KI-Begleiter diese Logik auf die Spitze: Wir brauchen keine andere Person mehr, um das Gefühl zu bekommen, “verbunden zu sein”. Die “Anforderungen” einer Freundschaft – z. B. auf die Bedürfnisse, schlechten Launen und Unvorhersehbarkeiten anderer einzugehen – sind genau die “Reibungen”, die KI-Begleiter beseitigen sollen. Daher kann man sagen, dass die heutigen sozialen KI-Plattformen die technologische Verkörperung von Turkles “kollektiver Einsamkeit” sind. Die zugrunde liegende Logik ist, dass unsere Toleranz für diese schwierigen, aber wesentlichen “Lektionen” in realen zwischenmenschlichen Interaktionen dramatisch sinken kann, wenn wir uns zunehmend an diese reibungslose, anspruchslose Beziehung gewöhnen, was uns eher dazu veranlasst, uns in die digitale, isolierte Komfortzone zurückzuziehen.

Die Dynamik der emotionalen Abhängigkeit und die Atrophie sozialer Fähigkeiten

Diese Bedenken haben in der realen Welt Beweise gefunden. Mehrere Studien und Berichte deuten darauf hin, dass eine tiefe Interaktion mit KI-Begleitern zu einer ungesunden emotionalen Abhängigkeit führen und die sozialen Fähigkeiten der Benutzer negativ beeinflussen kann.

Die Forschung zeigt, dass die Eigenschaften von KI-Begleitern, die in hohem Masse anpassbar sind und ständig online bleiben, soziale Isolation und emotionale Überabhängigkeit fördern können. Der langfristige, intensive Kontakt mit KI-Begleitern kann dazu führen, dass sich Einzelpersonen aus realen sozialen Umfeldern zurückziehen und ihre Motivation verringern, neue, sinnvolle soziale Beziehungen aufzubauen. Kritiker befürchten, dass die Abhängigkeit von KI die Entwicklung der sozialen Fähigkeiten des Einzelnen behindern wird, weil Benutzer die