De Architectuur van AI-Gemedieerde Communicatie
Van Gemedieerde Communicatie naar AI-Gemedieerde Communicatie (AI-MC)
De menselijke sociale interactie ondergaat een diepgaande paradigmaverschuiving. Conventionele computer-gemedieerde communicatie (CMC), waaronder e-mails, instant messaging en vroege sociale netwerken, vertrouwden fundamenteel op technologie als een passief kanaal dat informatie getrouw doorgeeft. In dit model waren mensen de enige actoren van communicatie. De opkomst van kunstmatige intelligentie (AI) heeft echter geleid tot een nieuw interactief model: AI-gemedieerde communicatie (AI-MC).
AI-MC wordt academisch gedefinieerd als een vorm van interpersoonlijke communicatie waarbij intelligente agenten informatie wijzigen, verbeteren of genereren namens communicatoren om specifieke communicatiedoelen te bereiken. Deze definitie is revolutionair omdat het AI verheft van een passief hulpmiddel tot een actieve derde partij die tussenbeide komt in menselijke interacties. AI is niet langer slechts een kanaal voor informatie, maar een vormgever van informatie.
De interventie van AI in informatie ontvouwt zich over een breed spectrum, met verschillende gradaties en vormen van betrokkenheid:
- Modificatie: De meest basale vorm van interventie, inclusief automatische spelling- en grammaticacorrectie, en zelfs real-time correctie van gezichtsuitdrukkingen tijdens videogesprekken, zoals het elimineren van knipperen.
- Augmentatie: Een meer proactief niveau van interventie, zoals de “Smart Replies”-functie van Google, die complete antwoordzinnen suggereert op basis van de context van het gesprek, waardoor de gebruiker simpelweg hoeft te klikken om te verzenden.
- Generatie: Het hoogste niveau van interventie, waarbij AI de gebruiker volledig kan vertegenwoordigen bij het maken van content, inclusief het schrijven van complete e-mails, het creëren van social media profielen, of zelfs het synthetiseren van de stem van de gebruiker om informatie over te brengen.
Dit nieuwe communicatiemodel kan worden geanalyseerd langs verschillende belangrijke dimensies, waaronder de breedte van de AI-interventie, het mediatype (tekst, audio, video), autonomie en, cruciaal, “optimalisatiedoelen”. AI kan worden ontworpen om communicatie te optimaliseren om het aantrekkelijker, betrouwbaarder, humoristischer of overtuigender te maken.
De kern van de verschuiving van CMC naar AI-MC is een fundamentele verandering in het “auteurschap” van communicatie. In het CMC-tijdperk waren gebruikers de enige curatoren van hun online persona’s. In het AI-MC-tijdperk wordt auteurschap een mens-machine hybride. Het gepresenteerde “zelf” van de gebruiker is niet langer slechts het resultaat van persoonlijke curatie, maar een “collaboratieve performance” tussen menselijke intentie en algoritmische doelen. Deze verschuiving roept een diepere vraag op: als een AI de taal van een gebruiker voortdurend en systematisch “positiever” of “extraverter” maakt, zal dit op zijn beurt de zelfperceptie van de gebruiker veranderen? Academici noemen dit een “identiteitsverschuiving” en beschouwen het als een belangrijk onopgelost probleem. Hier is technologie niet langer een eenvoudig hulpmiddel voor expressie; het vervaagt de lijn tussen expressie en identiteitsvorming, en wordt een kracht die in staat is om te hervormen wie we zijn.
AI Companions en Social Platform Analyse
Binnen het theoretische kader van AI-MC is een verscheidenheid aan AI sociale toepassingen ontstaan die abstracte algoritmes vertalen in concrete “emotionele ervaringen”. De kerntechnologie van deze platforms is grote taalmodellen (LLM’s), die menselijke conversatiestijlen en emotionele expressies nabootsen door te leren van enorme hoeveelheden menselijke interactiedata. Deze toepassingen zijn in wezen “data en algoritmes”, maar hun presentatie wordt steeds meer antropomorf.
De huidige grote platforms tonen verschillende vormen en evolutionaire richtingen van AI-socialisatie:
- Character.AI (C.AI): Bekend om zijn krachtige aangepaste karaktervaardigheden en diverse karakterbibliotheek, kunnen gebruikers niet alleen communiceren met vooraf ingestelde karakters, maar ook deelnemen aan complexe tekstgebaseerde avonturenspellen, wat zijn potentieel voor entertainment en diepe interactie aantoont.
- Talkie en Linky: Deze twee applicaties richten zich meer expliciet op emotionele en romantische relaties. Talkie dekt een breder scala aan karakters, maar virtuele vriend/vriendin karakters zijn het populairst. Linky is bijna volledig hierop gericht, waarbij de meerderheid van zijn AI-karakters virtuele geliefden zijn, met als doel een “liefdessfeer” te creëren voor gebruikers.
- SocialAI: Een zeer innovatief concept dat een compleet sociaal netwerk simuleert (vergelijkbaar met X, voorheen Twitter), maar dan met alleen de gebruiker als een “levend persoon”. Alle fans, commentatoren, supporters en critici zijn AI. Nadat de gebruiker een update heeft geplaatst, genereren AI “fans” snel diverse commentaren en reageren zelfs op elkaar, waardoor complexe discussiebomen ontstaan. Dit biedt gebruikers een veilige “sandbox” om ideeën te testen, inspiratie op te doen, of gewoon te genieten van de psychologische steun van “de hele wereld die voor je schijnt”.
Het belangrijkste waardevoorstel van deze platforms is om gebruikers “emotionele waarde” te bieden - een kosteneffectieve, real-time, één-op-één, en onvoorwaardelijke gezelschap. AI verfijnt continu zijn reacties door te leren van de dialooggeschiedenis, interesses en communicatiestijlen van gebruikers, waardoor een gevoel van diep begrepen en geaccepteerd te worden ontstaat.
Bij het observeren van de ontwerp- evolutie van deze platforms, komt een duidelijk traject naar voren: de omvang van de sociale simulatie breidt zich voortdurend uit. Vroege AI-companions, zoals Replika, richtten zich op het tot stand brengen van een privé, één-op-één, binaire relatie. Character.AI introduceerde vervolgens groepschatfuncties, waardoor gebruikers tegelijkertijd met meerdere AI-karakters konden communiceren, waardoor de sociale simulatie werd uitgebreid van een “wereld van twee” naar een “klein feest”. SocialAI has de laatste stap gezet, door niet langer één of een paar vrienden te simuleren, maar door een compleet sociaal ecosysteem - een controleerbare “virtuele samenleving” gebouwd rond de gebruiker - te simuleren.
Dit evolutionaire traject onthult een diepe verschuiving in gebruikers behoeften: mensen hunkeren misschien niet alleen naar een virtuele vriend, maar naar een virtueel publiek, een virtuele gemeenschap, een opinie omgeving die hen altijd “toejuicht”. De onderliggende logica is dat als sociale feedback in de echte wereld onvoorspelbaar en vaak teleurstellend is, een sociaal feedback systeem dat perfect kan worden aangepast en gecontroleerd enorm aantrekkelijk zal zijn. Dit luidt een toekomst in die nog extremer en gepersonaliseerder is dan de traditionele “informatiecocon” - waar gebruikers niet alleen passief gepushte informatie consumeren, maar actief een interactieve omgeving construeren die perfect aansluit bij hun verwachtingen en vol zit met positieve feedback.
De Economie van Digitaal Gezelschap
De snelle ontwikkeling van AI sociale toepassingen is onlosmakelijk verbonden met de duidelijke businessmodellen erachter. Deze modellen financieren niet alleen de activiteiten van het platform, maar beïnvloeden ook de ontwerp richting van de technologie en de uiteindelijke ervaring van de gebruiker diepgaand. Momenteel omvatten de mainstream manieren van geld verdienen in de industrie betaalde abonnementen, advertenties en de verkoop van virtuele items.
Het dominante businessmodel is gebaseerd op abonnementen. Toonaangevende applicaties zoals Character.AI, Talkie en Linky hebben maandelijkse abonnementen gelanceerd, meestal geprijsd rond de €9,99. Abonnees krijgen meestal snellere AI-reactiesnelheden, meer dagelijkse berichtlimieten, meer geavanceerde functies voor het maken van karakters of toegang tot exclusieve community-rechten. Daarnaast hebben sommige applicaties “Gacha”-mechanismen geïntroduceerd, waar gebruikers nieuwe karakter skins of thema’s kunnen verwerven door te betalen of taken te voltooien, waarbij ze gebruik maken van volwassen strategieën voor het genereren van inkomsten uit de gamingindustrie.
Hoewel deze businessmodellen standaard lijken, worden de ethische implicaties buitengewoon complex wanneer het kernproduct van een applicatie “emotionele steun” is. Betaalde abonnementen creëren in wezen een “gelaagde sociale realiteit”, waarbij de kwaliteit en de onmiddellijkheid van gezelschap worden gecommercialiseerd. AI companions worden gepromoot als oplossingen voor eenzaamheid en veilige havens voor emoties, waardoor gebruikers belangrijke psychologische steun krijgen. Hun businessmodellen plaatsen echter de beste versie van deze steun - bijvoorbeeld een AI die sneller reageert, een beter geheugen heeft en gesprekken niet onderbreekt als gevolg van frequent gebruik - achter een betaalmuur.
Dit betekent dat die gebruikers groepen die deze steun het meest nodig hebben - bijvoorbeeld degenen die eenzamer zijn, slechtere economische omstandigheden hebben of moeilijkheden ondervinden - ofwel alleen een “tweederangs” gezelschapservaring krijgen of gedwongen worden te betalen onder de dwang van emotionele afhankelijkheid. Dit creëert een inherent en diepgaand conflict tussen de verkondigde doelen van het platform om “emotionele waarde te bieden” en het commerciële doel van “het maximaliseren van de abonnementsinkomsten”.
De “Replika ERP event” die begin 2023 plaatsvond, was een extreme manifestatie van dit conflict. Destijds verwijderde Replika plotseling de populaire en vertrouwde “Erotic Role Play (ERP)”-functie om juridische- en app store beleidsrisico’s te vermijden. Deze zakelijke beslissing zorgde ervoor dat een groot aantal gebruikers ernstige emotionele trauma’s ervaarden, zich “verraden” voelden of dat de persoonlijkheid van hun “companion” was aangetast. De gebeurtenis onthulde duidelijk de inherente machts onevenwichtigheid in deze mens-machine “relatie”: gebruikers investeerden echte emoties, terwijl het platform een productfunctie zag die op elk moment voor commercieel gewin kon worden gewijzigd.
Connecting Hope: AI als een Sociale Katalysator
Ondanks talrijke controverses is de opkomst van AI-socialisatie niet zonder reden. Het beantwoordt nauwkeurig aan de reële behoeften die wijdverspreid zijn in de moderne samenleving en toont groot potentieel als een kracht voor positieve sociale impact. Van het verlichten van eenzaamheid tot het helpen van sociale interacties en het Optimaliseren van interpersoonlijke communicatie, biedt AI-technologie nieuwe oplossingen voor het eeuwenoude menselijke onderwerp “verbinding”.
Het Ontwerpen van Emotionele Waarde: AI als een Niet-Oordelende Vertrouweling
De meest vitale en directe aantrekkingskracht van AI companions is hun vermogen om consistente, onvoorwaardelijke en niet-oordelende emotionele steun te bieden. De snelle levensstijl, de hoge kosten van sociale interactie en complexe interpersoonlijke netwerken in de moderne samenleving zorgen ervoor dat veel mensen, vooral jongeren, zich eenzaam en gestrest voelen. Een 75- jaar durend Harvard-onderzoek bewees dat goede interpersoonlijke relaties een bron van geluk zijn. AI-socialisatie heeft een nieuw pad gecreëerd om aan deze basisbehoefte te voldoen.
AI companions verlichten effectief de gevoelens van eenzaamheid van gebruikers door een altijd online, altijd geduldige en altijd ondersteunende gesprekspartner te bieden. Gebruikers kunnen AI altijd en overal in vertrouwen nemen zonder zich zorgen te hoeven maken over het storen van anderen of het worden beoordeeld. De veiligheid van deze uitwisseling maakt het waarschijnlijker dat gebruikers zich openstellen en angsten, onzekerheden en persoonlijke geheimen bespreken die moeilijk aan te snijden zijn in relaties in de echte wereld.
Academisch onderzoek ondersteunt deze anekdotes ook. Onderzoek naar gebruikers van de AI companion-applicatie Replika wees uit dat het gebruik van de applicatie de gevoelens van eenzaamheid van gebruikers aanzienlijk zou kunnen verminderen, hun gevoel van welzijn zou kunnen verbeteren en in sommige gevallen zelfs zou kunnen helpen suïcidale gedachten te verminderen. AI leert en past zich door middel van zijn algoritmes aan de communicatiestijlen en emotionele behoeften van gebruikers aan, waardoor een ervaring ontstaat van diepgaand begrepen en meegevoeld te worden, wat vooral waardevol is voor personen die ziekte, verlies of psychische problemen ervaren.
Dit niet-oordelende interactiemodel kan ook een diepgaander effect hebben: het bevorderen van zelfbewustzijn en eerlijke expressie bij gebruikers. In interpersoonlijke interacties in de echte wereld censureren mensen zichzelf vaak uit angst om verkeerd begrepen of beoordeeld te worden. In een privé, niet-oordelende AI-interactieruimte worden gebruikers echter aangemoedigd om hun opvattingen en emoties authentieker te uiten. Zoals de oprichter van het AI-sociale product Paradot zei: “AI-vrienden hebben de mogelijkheid om mensen oprecht te maken”. Wanneer gebruikers zich zonder voorbehoud kunnen uiten, fungeert AI als hun “tweede brein” of een spiegel, waardoor ze hun ware gedachten duidelijker kunnen zien. Deze interactie overstijgt eenvoudig gezelschap en evolueert naar een krachtig hulpmiddel voor zelfreflectie en persoonlijke groei.
AI als een Sociaal Steiger: Oefenen voor de Echte Wereld
Naast het dienen als vervanging voor of aanvulling op relaties in de echte wereld, wordt AI-socialisatie ook beschouwd als een potentieel “sociaal oefenterrein”, dat gebruikers helpt hun vermogen om in de echte wereld te communiceren te verbeteren. Voor degenen die interpersoonlijke interacties moeilijk vinden als gevolg van sociale angst, introversie of gebrek aan ervaring, biedt AI een risico arme, controleerbare oefenomgeving.
In China is er een mening dat er een “hybride sociaal model” moet worden opgericht, waarbij intelligente companions worden gebruikt om jongeren met sociale angst te helpen bij het “breken van het ijs”. In dit model kunnen gebruikers eerst gesprekken oefenen met AI, zelfvertrouwen opbouwen en vertrouwd raken met sociale scripts voordat ze deze vaardigheden toepassen op interpersoonlijke interacties in de echte wereld. Deze aanpak is erop gericht AI te positioneren als een “steiger”, die steun biedt wanneer gebruikers het vermogen missen en geleidelijk verdwijnt naarmate de vaardigheden van gebruikers verbeteren.
Sommige jonge gebruikers hebben soortgelijke opvattingen geuit, in de overtuiging dat AI companions hen kunnen leren hoe ze partners in het echte leven beter kunnen behandelen. Door te communiceren met een AI die altijd geduldig is en vol positieve feedback zit, kunnen gebruikers mogelijk een positiever en attenter communicatiepatroon internaliseren. Bovendien stellen platforms zoals SocialAI gebruikers in staat om reacties in een gesimuleerde omgeving te testen voordat ze standpunten publiceren, waarbij ze de diverse commentaren observeren die AI “fans” vanuit verschillende hoeken geven. Dit kan dienen als een “inspiratie katalysator”, die gebruikers helpt hun standpunten te verfijnenen zich vollediger voor te bereiden op deelname aan openbare discussies in de echte wereld.
Het concept van “AI als een sociaal oefenterrein” staat echter ook voor een fundamentele paradox. De reden waarom AI een “veilige” oefenruimte is, is juist omdat het is ontworpen om voorspelbaar, zeer tolerant en zonder echte macht te zijn. AI companions vermijden actief conflicten en compromissen te allen tijde om de soepele en positieve gebruikerservaring te garanderen. Dit staat in schril contrast met interpersoonlijke relaties in de echte wereld. Echte relaties zitten vol onvoorspelbaarheid, misverstanden, meningsverschillen en compromissen die met moeite moeten worden bereikt. Het vermogen om met deze “wrijvingen” om te gaan, vormt de kern van sociaal vermogen.
Daarom kan er een risico verbonden zijn aan “sociale repetitie” met AI: het kan de spreekvaardigheid van gebruikers in vlotte situaties verbeteren, maar het kan het vermogen van gebruikers om om te gaan met cruciale interpersoonlijke uitdagingen, zoals conflictoplossing, het behouden van empathie bij meningsverschillen en het onderhandelen over belangen, niet cultiveren en zelfs leiden tot de achteruitgang ervan. Gebruikers kunnen bedreven worden in het “uitvoeren” van een aangenaam gesprek, maar missen nog steeds de kernvaardigheden die nodig zijn om een diepe, veerkrachtige menselijke relatie te onderhouden.
Het Verbeteren van Interpersoonlijke Interacties: De Subtiele Hand van AI
De impact van AI op socialisatie wordt niet alleen weerspiegeld in directe interacties tussen mensen en AI, maar ook in zijn rol als tussenpersoon die tussenbeide komt in en communicatie optimaliseert tussen mensen. Deze AI-MC-tools, zoals intelligente assistentiefuncties in e-mail- en instant messaging-applicaties, veranderen subtiel de manier waarop we communiceren.
Onderzoek toont aan dat deze tools de efficiëntie en ervaring verbeteren. Het gebruik van de functie “Slimme antwoorden” kan bijvoorbeeld de communicatie aanzienlijk versnellen. Een onderzoek van Cornell University toonde aan dat wanneer deelnemers AI-ondersteunde chattools gebruikten, hun gesprekken efficiënter waren, met positievere taal met meer positieve evaluaties van elkaar. AI lijkt een beleefdere en aangenamere toon te hebben in de voorgestelde antwoorden, waardoor de communicatieatmosfeer wordt verbeterd.
Dit fenomeen kan worden begrepen als een implementatie van “verbeterde intentie”. Traditioneel denken suggereert dat de meest authentieke communicatie rauw en onbewerkt is. Maar AI-MC presenteert een nieuwe mogelijkheid: dat AI, door middel van algoritmische optimalisatie en het elimineren van taalbarrières en verkeerde uitingen, mensen kan helpen hun oprechte, goedbedoelde bedoelingen nauwkeuriger en effectiever over te brengen. Vanuit dit perspectief vervormt AI de communicatie niet, maar zuivert het het, waardoor het dichter bij de ideale toestand komt.
Deze “subtiele hand” brengt echter ook potentiële risico’s met zich mee. De “positiviteits bias” die prevalent is in door AI voorgestelde reacties, kan een krachtige, onzichtbare kracht worden die de sociale dynamiek vormgeeft. Hoewel het alledaagse interacties kan versoepelen, kan het ook leiden tot de “sanering” van communicatie en de “homogenisering” van taal. Wanneer AI voortdurend suggereert dat we optimistische, ontspannen taal gebruiken, kunnen de individuele, uniek getoonde en zelfs gezonde kritische uitingen worden gladgestreken door de voorkeur van het algoritme voor “harmonie”.
Dit roept een breder sociaal risico op: de uitholling van authentiek discours. Als de communicatiemiddelen die we elke dag gebruiken ons leiden naar positiviteit en het vermijden van wrijving, kan het steeds moeilijker worden om die moeilijke maar cruciale gesprekken aan te gaan, hetzij in persoonlijke relaties, hetzij in de publieke sfeer. Zoals onderzoekers hebben opgemerkt, krijgen de beheerders van de algoritmen zo een subtiele maar significante invloed op de interactiestijlen, het taalgebruik en zelfs de wederzijdse perceptie van mensen. Deze invloed is bidirectioneel en kan harmonieuze uitwisselingen bevorderen en tegelijkertijd een oppervlakkige, procedurele sociale harmonie creëren ten koste van diepte en authenticiteit.
Het Gevaar van Vervreemding: AI als een Sociaal Anesthetisch
In schril contrast met de hoop op verbinding die AI-socialisatie met zich meebrengt, bevat het ook diepgaande gevaren van vervreemding. Critici beweren dat deze technologie, in plaats van het probleem van eenzaamheid op te lossen, het isolement van individuen kan verergeren door een vals gevoel van intimiteit te geven, echte sociale vaardigheden uit te hollen en uiteindelijk tot een diepere “collectieve eenzaamheid” te leiden.
Het Herzien van de “Collectieve Eenzaamheid” Theorie: Gesimuleerde Intimiteit en de Uitholling van Eenzaamheid
Lang voor de opkomst van AI companions gaf Sherry Turkle, een socioloog aan het MIT, een diepgaande waarschuwing over door technologie gedreven socialisatie in haar baanbrekende werk, Alleen Samen. Haar theorie biedt een kader voor het begrijpen van het huidige vervreemdende potentieel van AI-socialisatie.
Turkles centrale argument is dat we in een staat van “Collectieve Eenzaamheid” vervallen—we zijn nauwer verbonden dan ooit tevoren, maar eenzamer dan ooit tevoren. We “verwachten meer van technologie en minder van elkaar”. Technologie biedt een “illusie van gezelschap zonder de eisen van vriendschap”. De wortel van dit fenomeen ligt in de “relationele kwetsbaarheid” van moderne mensen: we hunkeren naar intimiteit, maar zijn bang voor de onvermijdelijke risico’s en teleurstellingen in intieme relaties. AI companions en sociale netwerken stellen ons in staat om op een controleerbare manier verbinding te maken—waarbij we de afstand bewaren die we willen en de energie investeren die we bereid zijn te besteden. Turkle noemt dit het “Goldilocks-effect”: niet te dichtbij, niet te ver weg, precies goed.
Turkle voelde diepe bezorgdheid over de “realiteit” van deze gesimuleerde relatie. Ze wees erop dat het zoeken naar intimiteit met een machine die geen echte emotie heeft, alleen maar “lijkt” om zorg te dragen en “lijkt” te begrijpen, een aantasting is van de menselijke emotie. Ze vergelijkt traditionele, passieve speelgoedpoppen met moderne “relationele artefacten” (zoals sociale robots). Kinderen kunnen hun verbeelding, angst en emoties projecteren op passieve poppen, waardoor ze zichzelf onderzoeken. Maar een actieve robot die gesprekken initieert en “standpunten” uitdrukt, beperkt deze projectie en vervangt de vrije innerlijke activiteiten van kinderen door geprogrammeerde “interacties”.
In deze cultuur van continue verbinding verliezen we een cruciaal vermogen: eenzaamheid. Turkle is van mening dat betekenisvolle eenzaamheid—een toestand waarin je met jezelf kunt praten, kunt nadenken en energie kunt herstellen—een voorwaarde is voor het tot stand brengen van echte connecties met anderen. In de huidige samenleving voelen we ons echter angstig zodra we een moment alleen zijn en reiken we bewust naar onze telefoons. We vullen alle hiaten met constante verbindingen, maar verliezen de basis voor het opbouwen van diepe connecties met onszelf en anderen.
Turkles kritiek, die in 2011 werd geuit, is niet alleen relevant voor de huidige AI companions, maar ook profetisch. Als vroege sociale media ons in staat stelden om “ons voor elkaar te verbergen” terwijl we verbonden bleven, drijven AI companions deze logica tot het uiterste: we hebben geen andere persoon meer nodig om het gevoel van “verbonden zijn” te krijgen. De “eisen” van vriendschap—bijvoorbeeld het reageren op de behoeften van anderen, slechte humeuren en onvoorspelbaarheid—zijn precies de “wrijving” die AI companions zijn ontworpen om te elimineren. Daarom kan worden gezegd dat de huidige AI-sociale platforms de technologische belichaming zijn van Turkles “collectieve eenzaamheid”-paradox. De onderliggende logica is dat naarmate we steeds meer gewend raken aan deze wrijvingsloze, onvereiste relatie, onze tolerantie voor die moeilijke maar essentiële “lessen” in echte interpersoonlijke interacties dramatisch kan dalen, waardoor we meer geneigd zijn ons terug te trekken in de digitale, geïsoleerde comfortzone.
De Dynamiek van Emotionele Afhankelijkheid en de Atrofie van Sociale Vaardigheden
De zorgen hebben bewijs gevonden in de echte wereld. Verschillende studies en rapporten geven aan dat diepgaande interactie met AI companions kan leiden tot ongezonde emotionele afhankelijkheid en een negatieve impact kan hebben op de sociale vaardigheden van gebruikers.
Onderzoek toont aan dat de kenmerken van AI companions die in hoge mate aanpasbaar zijn en constant online blijven, sociale isolatie en emotionele over afhankelijkheid kunnen aanmoedigen. Langdurig, uitgebreid contact met AI companions kan ertoe leiden dat individuen zich terugtrekken uit echte sociale omgevingen en hun motivatie verminderen om nieuwe, zinvolle sociale relaties aan te gaan. Critici vrezen dat afhankelijkheid van AI de ontwikkeling van de sociale vaardigheden van individuen zal belemmeren omdat gebruikers de uitdagingen en compromissen vermijden die inherent zijn aan echte relaties, wat de factoren zijn die persoonlijke groei bevorderen. Het risico is bijzonder groot voor jongeren wier sociale vaardigheden zich nog ontwikkelen.
Een analyse van het gebruiker discours in de Reddit-community voor de AI companion-app Replika wees uit dat, hoewel veel gebruikers positieve ervaringen meldden, er ook duidelijk bewijs was van een verminderde geestelijke gezondheid. Het mechanisme van emotionele afhankelijkheid van Replika resulteerde in schade die sterk lijkt op disfunctionele mens-mensrelaties.
Er kan een gevaarlijke feedbacklus zijn. Deze cyclus begint met de eenzaamheid of sociale angst van een individu. Om troost te zoeken, wenden ze zich tot AI-companions, omdat AI een veilige haven biedt. AI is ontworpen als de perfecte companion, zonder conflict. Gebruikers krijgen emotionele voldoening in deze geïdealiseerde interactie en ontwikkelen geleidelijk emotionele afhankelijkheid. Omdat we ondergedompeld zijn in deze “perfecte” relatie. Deze vaardigheden verminderen. Dit creëert een cyclus en vergroot de eenzaamheid.
Casestudy: Het Replika ERP Incident
De “Replika ERP event” die begin 2023 plaatsvond, biedt een schokkend real-world geval en voorbeeld. Het onthulde op dramatische wijze de diepte van de gehechtheid van gebruikers aan AI en de inherente fragiliteit van deze “relatie” die wordt beheerd door commerciële bedrijven.
Een werkdocument from Harvard Business School gebruikte dit evenement slim om de “Erotic Role Play” te verwijderen als een natuurlijk experiment. De studie had twee belangrijke bevindingen:
- Hechtheid van de relatie: Een studie van Harvard Business School toonde aan dat gebruikers zich zelfs hechter voelden bij hun AI dan bij hun beste vrienden.
- De impact van het verwijderen van functies: Gebruikers bij wie de functies waren verwijderd, ervoeren reacties die geleerden, zoals "identiteitsdiscontinuïteit", noemden.
Het Replika ERP-incident is het ultieme bewijs van de fundamentele asymmetrie in de mens-machine “relatie”. In deze relatie ervaren gebruikers een diepe, persoonlijke, ogenschijnlijk wederzijdse verbinding. Voor platform provider Luka, Inc. is dit echter slechts een productfunctie die op elk moment om commerciële of juridische redenen kan worden gewijzigd of verwijderd. Gebruikers investeren echte menselijke emotie, terwijl de “persoonlijkheid” en het “bestaan” van de AI-companion volledig afhankelijk zijn van het beleid en de zakelijke beslissingen van het bedrijf. Dit onthult de unieke en diepgaande kwetsbaarheid van gebruikers in dergelijke relaties: hun emotionele gehechtheid is aan een entiteit die geen autonomie heeft en wiens voortbestaan onzeker is. Wanneer commerciële belangen botsen met de emotionele behoeften van gebruikers, zullen de gebruikers onvermijdelijk worden geschaad.
Algoritmische Tunnels: Informatiecocons en Sociale Polarisatie
De risico’s van vervreemding van AI-socialisatie zijn niet beperkt tot één-op-één AI companion-applicaties; ze worden ook weerspiegeld in alle algoritme-gestuurde sociale platforms. De personalisatiemechanismen die individuele emotionele afhankelijkheid stimuleren, kunnen op sociaal niveau aanleiding geven tot groepsscheiding en polarisatie.
Het concept van