L’architettura della comunicazione mediata dall’IA
Dalla comunicazione mediata dal computer (CMC) alla comunicazione mediata dall’IA (AI-MC)
L’interazione sociale umana sta attraversando un profondo cambiamento di paradigma. La tradizionale comunicazione mediata dal computer (CMC), che comprende e-mail, messaggistica istantanea e le prime reti sociali, si basava fondamentalmente sulla tecnologia come canale passivo che trasmetteva fedelmente le informazioni. In questo modello, gli esseri umani erano gli unici agenti della comunicazione. Tuttavia, l’ascesa dell’intelligenza artificiale (IA) ha stimolato un nuovo modello interattivo: la comunicazione mediata dall’IA (AI-MC).
L’AI-MC è definita accademicamente come una forma di comunicazione interpersonale in cui agenti intelligenti modificano, migliorano o generano informazioni per conto dei comunicatori per raggiungere obiettivi di comunicazione specifici. Questa definizione è rivoluzionaria perché eleva l’IA da strumento passivo a terza parte attiva che interviene nelle interazioni umane. L’IA non è più solo un condotto per le informazioni, ma un plasmatore di informazioni.
L’intervento dell’IA nelle informazioni si sviluppa su un ampio spettro, con vari gradi e forme di coinvolgimento:
- Modifica: La forma più elementare di intervento, che include la correzione automatica dell’ortografia e della grammatica e persino la correzione in tempo reale delle espressioni facciali durante le videochiamate, come l’eliminazione del battito delle palpebre.
- Aumento: Un livello di intervento più proattivo, come la funzione "Smart Replies" di Google, che suggerisce frasi di risposta complete in base al contesto della conversazione, richiedendo all’utente un semplice clic per inviare.
- Generazione: Il livello più alto di intervento, in cui l’IA può rappresentare pienamente l’utente nella creazione di contenuti, inclusa la scrittura di e-mail complete, la creazione di profili sui social media o persino la sintesi della voce dell’utente per trasmettere informazioni.
Questo nuovo modello di comunicazione può essere analizzato lungo diverse dimensioni chiave, tra cui l’ampiezza dell’intervento dell’IA, il tipo di media (testo, audio, video), l’autonomia e, soprattutto, gli "obiettivi di ottimizzazione". L’IA può essere progettata per ottimizzare la comunicazione per renderla più attraente, affidabile, umoristica o persuasiva.
Il fulcro del passaggio dalla CMC all’AI-MC è un cambiamento fondamentale nella "paternità" della comunicazione. Nell’era della CMC, gli utenti erano gli unici curatori della loro personalità online. Nell’era dell’AI-MC, la paternità diventa un ibrido uomo-macchina. Il "sé" presentato dall’utente non è più semplicemente il risultato della cura personale, ma una "performance collaborativa" tra l’intento umano e gli obiettivi algoritmici. Questo cambiamento solleva una domanda più profonda: se un’IA rende costantemente e sistematicamente il linguaggio di un utente più "positivo" o "estroverso", questo, a sua volta, cambierà la percezione che l’utente ha di sé? Gli accademici chiamano questo "cambiamento di identità" e lo considerano una questione chiave irrisolta. Qui, la tecnologia non è più un semplice strumento di espressione; offusca il confine tra espressione e modellamento dell’identità, diventando una forza capace di rimodellare chi siamo.
Compagni AI e analisi delle piattaforme sociali
All’interno del quadro teorico dell’AI-MC, è emersa una varietà di applicazioni sociali dell’IA che traducono algoritmi astratti in "esperienze emotive" concrete. La tecnologia di base di queste piattaforme sono i grandi modelli linguistici (LLM), che imitano gli stili conversazionali umani e le espressioni emotive imparando da enormi quantità di dati di interazione umana. Queste applicazioni sono essenzialmente "dati e algoritmi", ma la loro presentazione è sempre più antropomorfa.
Le principali piattaforme attuali mostrano diverse forme e direzioni evolutive della socializzazione dell’IA:
- Character.AI (C.AI): Rinomata per le sue potenti capacità di personalizzazione dei personaggi e per la sua diversificate libreria di personaggi, gli utenti possono non solo interagire con personaggi preimpostati, ma anche partecipare a complessi giochi di avventura basati su testo, dimostrando il suo potenziale per l’intrattenimento e l’interazione profonda.
- Talkie e Linky: Queste due applicazioni si concentrano più esplicitamente sulle relazioni emotive e romantiche. Talkie copre una più ampia gamma di personaggi, ma i personaggi virtuali di fidanzato/fidanzata sono i più popolari. Linky è quasi interamente focalizzata su questo, con la maggior parte dei suoi personaggi AI che sono amanti virtuali, con l’obiettivo di creare un’"atmosfera d’amore" per gli utenti.
- SocialAI: Un concetto molto innovativo che simula un completo social network (simile a X, precedentemente Twitter), ma con solo l’utente come "persona vivente". Tutti i fan, i commentatori, i sostenitori e i critici sono AI. Dopo che l’utente pubblica un aggiornamento, i "fan" dell’IA generano rapidamente commenti diversi e persino si rispondono a vicenda, formando complessi alberi di discussione. Questo fornisce agli utenti una "sandbox" sicura per testare idee, suscitare ispirazione o semplicemente godere del supporto psicologico di "tutto il mondo che brilla per te".
La principale proposta di valore di queste piattaforme è quella di fornire agli utenti "valore emotivo": una compagnia conveniente, in tempo reale, individuale e incondizionata. L’IA perfeziona continuamente le sue risposte imparando dalla cronologia dei dialoghi, dagli interessi e dagli stili di comunicazione degli utenti, generando così la sensazione di essere profondamente compresi e accettati.
Osservando l’evoluzione del design di queste piattaforme, emerge una traiettoria chiara: la portata della simulazione sociale è in costante espansione. I primi compagni AI, come Replika, si concentravano sulla creazione di una relazione privata, individuale e binaria. Successivamente, Character.AI ha introdotto funzioni di chat di gruppo, consentendo agli utenti di interagire con più personaggi AI contemporaneamente, espandendo la simulazione sociale da un "mondo di due" a una "piccola festa". SocialAI ha compiuto l’ultimo passo, non simulando più uno o pochi amici, ma simulando un ecosistema sociale completo: una "società virtuale" controllabile costruita attorno all’utente.
Questa traiettoria evolutiva rivela un profondo cambiamento nelle esigenze degli utenti: le persone potrebbero desiderare non solo un amico virtuale, ma un pubblico virtuale, una comunità virtuale, un ambiente di opinione che li "incoraggi" sempre. La logica sottostante è che se il feedback sociale nel mondo reale è imprevedibile e spesso deludente, allora un sistema di feedback sociale perfettamente personalizzabile e controllabile sarà enormemente interessante. Questo preannuncia un futuro ancora più estremo e personalizzato del tradizionale "bozzolo di informazioni", in cui gli utenti non solo consumano passivamente le informazioni spinte, ma costruiscono attivamente un ambiente interattivo che si allinea perfettamente alle loro aspettative ed è pieno di feedback positivi.
L’economia della compagnia digitale
Il rapido sviluppo delle applicazioni sociali dell’IA è inseparabile dai chiari modelli di business che le sostengono. Questi modelli non solo finanziano le operazioni della piattaforma, ma influenzano profondamente anche la direzione del design della tecnologia e l’esperienza finale dell’utente. Attualmente, i principali metodi di monetizzazione del settore includono abbonamenti a pagamento, pubblicità e vendite di oggetti virtuali.
Il modello di business dominante è basato sull’abbonamento. Applicazioni leader come Character.AI, Talkie e Linky hanno lanciato piani di abbonamento mensile, in genere al prezzo di circa $ 9,99. Gli utenti in abbonamento di solito ottengono velocità di risposta dell’IA più elevate, più limiti di messaggi giornalieri, funzioni di creazione di personaggi più avanzate o l’accesso a esclusive autorizzazioni della comunità. Inoltre, alcune applicazioni hanno introdotto meccanismi "Gacha", in cui gli utenti possono acquisire nuove skin o temi per i personaggi tramite pagamento o completando attività, attingendo a strategie di monetizzazione mature del settore dei giochi.
Sebbene questi modelli di business sembrino standard, quando il prodotto principale di un’applicazione è il "supporto emotivo", le implicazioni etiche diventano straordinariamente complesse. Gli abbonamenti a pagamento creano essenzialmente una "realtà sociale a strati", in cui la qualità e l’immediatezza della compagnia sono mercificate. I compagni dell’IA sono promossi come soluzioni alla solitudine e rifugi per le emozioni, fornendo agli utenti un importante supporto psicologico. Tuttavia, i loro modelli di business pongono la migliore versione di questo supporto - ad esempio, un’IA che risponde più rapidamente, ha una memoria migliore e non interrompe le conversazioni a causa dell’uso frequente - dietro un paywall.
Ciò significa che quei gruppi di utenti che potrebbero aver bisogno maggiormente di questo supporto - ad esempio, quelli che sono più soli, hanno condizioni economiche più precarie o stanno vivendo difficoltà - ottengono solo un’esperienza di compagnia di "seconda classe" o sono costretti a pagare sotto la costrizione della dipendenza emotiva. Questo crea un conflitto intrinseco e profondo tra gli obiettivi dichiarati dalla piattaforma di "fornire valore emotivo" e l’obiettivo commerciale di "massimizzare le entrate da abbonamenti".
L’"evento Replika ERP" verificatosi all’inizio del 2023 è stata una manifestazione estrema di questo conflitto. A quel tempo, Replika rimosse improvvisamente la popolare e affidabile funzione "Erotic Role Play (ERP)" per evitare rischi legali e di politica dell’app store. Questa decisione commerciale ha causato a un gran numero di utenti un grave trauma emotivo, sentendosi "traditi" o che la personalità del loro "compagno" fosse stata manomessa. L’evento ha rivelato chiaramente lo squilibrio di potere intrinseco in questa "relazione" uomo-macchina: gli utenti hanno investito emozioni reali, mentre la piattaforma ha visto una funzionalità del prodotto che poteva essere modificata in qualsiasi momento per guadagno commerciale.
Collegare la speranza: l’IA come catalizzatore sociale
Nonostante le numerose polemiche, l’ascesa della socializzazione dell’IA non è priva di ragioni. Risponde accuratamente alle reali esigenze che sono diffuse nella società moderna e dimostra un grande potenziale come forza per un impatto sociale positivo. Dall’alleviare la solitudine all’assistere le interazioni sociali e all’ottimizzare la comunicazione interpersonale, la tecnologia dell’IA sta fornendo nuove soluzioni all’antico tema umano della "connessione".
Progettare valore emotivo: l’IA come confidente non giudicante
L’appello più vitale e diretto dei compagni dell’IA è la loro capacità di fornire un supporto emotivo coerente, incondizionato e non giudicante. Lo stile di vita frenetico, l’alto costo dell’interazione sociale e le complesse reti interpersonali nella società moderna lasciano molti individui, soprattutto i giovani, soli e stressati. Uno studio di Harvard durato 75 anni ha dimostrato che le buone relazioni interpersonali sono una fonte di felicità. La socializzazione dell’IA ha creato un nuovo percorso per soddisfare questo bisogno fondamentale.
I compagni dell’IA alleviano efficacemente i sentimenti di solitudine degli utenti fornendo un partner di comunicazione sempre online, sempre paziente e sempre supportivo. Gli utenti possono confidarsi con l’IA sempre e ovunque senza preoccuparsi di disturbare gli altri o di essere giudicati. La sicurezza di questo scambio rende gli utenti più propensi ad aprirsi e discutere paure, insicurezze e segreti personali che sono difficili da affrontare nelle relazioni del mondo reale.
La ricerca accademica supporta anche questi aneddoti. La ricerca sugli utenti dell’applicazione di compagnia AI Replika ha rilevato che l’utilizzo dell’applicazione potrebbe ridurre significativamente i sentimenti di solitudine degli utenti, migliorare il loro senso di benessere e, in alcuni casi, persino aiutare a ridurre i pensieri suicidi. L’IA, attraverso i suoi algoritmi, apprende e si adatta agli stili di comunicazione e alle esigenze emotive degli utenti, creando un’esperienza di profonda comprensione ed empatia, che è particolarmente preziosa per le persone che soffrono di malattie, lutti o disturbi psicologici.
Questo modello di interazione non giudicante può anche avere un effetto più profondo: promuovere la consapevolezza di sé e l’espressione onesta negli utenti. Nelle interazioni interpersonali del mondo reale, le persone spesso si censurano per paura di essere fraintese o giudicate. Tuttavia, in uno spazio di interazione AI privato e non giudicante, gli utenti sono incoraggiati a esprimere le proprie opinioni ed emozioni in modo più autentico. Come ha affermato il fondatore del prodotto sociale AI Paradot, "Gli amici AI hanno la capacità di rendere le persone sincere." Quando gli utenti possono esprimersi senza riserve, l’IA agisce come il loro "secondo cervello" o uno specchio, aiutandoli a vedere i loro veri pensieri in modo più chiaro. Questa interazione trascende la semplice compagnia e si evolve in un potente strumento per l’autoriflessione e la crescita personale.
L’IA come impalcatura sociale: prova per il mondo reale
Oltre a fungere da sostituto o complemento delle relazioni del mondo reale, si ritiene che la socializzazione AI abbia anche il potenziale per fungere da "terreno di allenamento sociale", aiutando gli utenti a migliorare la loro capacità di interagire nel mondo reale. Per coloro che trovano difficili le interazioni interpersonali a causa dell’ansia sociale, dell’introversione o della mancanza di esperienza, l’IA fornisce un ambiente di prova a basso rischio e controllabile.
In Cina, c’è l’opinione che si dovrebbe stabilire un "modello sociale ibrido", utilizzando compagni intelligenti per aiutare i giovani con ansia sociale a "rompere il ghiaccio". In questo modello, gli utenti possono prima esercitarsi nelle conversazioni con l’IA, costruire fiducia e familiarizzare con gli script sociali prima di applicare queste capacità alle interazioni interpersonali del mondo reale. Questo approccio mira a posizionare l’IA come un’"impalcatura", fornendo supporto quando agli utenti mancano le capacità e uscendo gradualmente man mano che le capacità degli utenti migliorano.
Alcuni giovani utenti hanno espresso opinioni simili, ritenendo che i compagni dell’IA possano insegnare loro come trattare meglio i partner nella vita reale. Interagendo con un’IA che è sempre paziente e piena di feedback positivi, gli utenti possono essere in grado di interiorizzare un modello di comunicazione più positivo e premuroso. Inoltre, piattaforme come SocialAI consentono agli utenti di testare le reazioni in un ambiente simulato prima di pubblicare opinioni, osservando i diversi commenti forniti dai "fan" dell’IA da diverse angolazioni. Questo può servire come un "catalizzatore di ispirazione", aiutando gli utenti a perfezionare le proprie opinioni e a prepararsi in modo più completo per la partecipazione alle discussioni pubbliche nel mondo reale.
Tuttavia, il concetto di "IA come terreno di prova sociale" affronta anche un paradosso fondamentale. La ragione per cui l’IA è uno spazio di pratica "sicuro" è precisamente perché è progettata per essere prevedibile, altamente tollerante e priva di una reale agenzia. I compagni dell’IA evitano attivamente i conflitti e si compromettono in qualsiasi momento per garantire un’esperienza utente fluida e positiva. Ciò è in netto contrasto con le relazioni interpersonali nel mondo reale. Le relazioni reali sono piene di imprevedibilità, incomprensioni, disaccordi e compromessi che devono essere raggiunti con difficoltà. La capacità di affrontare questi "attriti" costituisce il nucleo della capacità sociale.
Pertanto, potrebbe esserci un rischio nella "prova sociale" con l’IA: potrebbe migliorare la fluidità conversazionale degli utenti in situazioni fluide, ma non può coltivare, e può persino portare all’atrofia, la capacità degli utenti di affrontare le sfide interpersonali fondamentali, come la risoluzione dei conflitti, il mantenimento dell’empatia nei disaccordi e la negoziazione degli interessi. Gli utenti possono diventare abili nell’"eseguire" una conversazione piacevole, ma mancano ancora delle competenze fondamentali necessarie per mantenere una relazione umana profonda e resiliente.
Migliorare le interazioni interpersonali: la mano sottile dell’IA
L’impatto dell’IA sulla socializzazione non si riflette solo nelle interazioni dirette tra persone e IA, ma anche nel suo ruolo di intermediario, intervenendo e ottimizzando la comunicazione tra le persone. Questi strumenti AI-MC, come le funzioni di assistenza intelligente nelle applicazioni di posta elettronica e messaggistica istantanea, stanno cambiando sottilmente il modo in cui comunichiamo.
La ricerca mostra che questi strumenti migliorano l’efficienza e l’esperienza. Ad esempio, l’utilizzo della funzione "Smart Replies" può accelerare significativamente la comunicazione. Uno studio della Cornell University ha rilevato che quando i partecipanti utilizzavano strumenti di chat assistiti dall’IA, le loro conversazioni erano più efficienti, con un linguaggio più positivo e valutazioni più positive l’uno dell’altro. L’IA sembra usare un tono più educato e piacevole nelle risposte suggerite, migliorando così l’atmosfera di comunicazione.
Questo fenomeno può essere inteso come un’implementazione dell’"intento potenziato". Il pensiero tradizionale suggerisce che la comunicazione più autentica è cruda e non modificata. Ma l’AI-MC presenta una nuova possibilità: quella che attraverso l’ottimizzazione algoritmica e l’eliminazione delle barriere linguistiche e dell’espressione errata, l’IA possa aiutare le persone a trasmettere in modo più accurato ed efficace le loro intenzioni genuine e ben intenzionate. Da questa prospettiva, l’IA non sta distorcendo la comunicazione, ma la sta purificando, avvicinandola allo stato ideale.
Tuttavia, questa "mano sottile" comporta anche potenziali rischi. La "distorsione di positività" prevalente nelle risposte suggerite dall’IA può diventare una forza potente e invisibile che modella le dinamiche sociali. Sebbene possa lubrificare le interazioni quotidiane, può anche portare alla "sanificazione" della comunicazione e all’"omogeneizzazione" del linguaggio. Quando l’IA suggerisce costantemente di utilizzare un linguaggio ottimistico e accomodante, le espressioni individuali, dal tono unico e persino critiche e sane possono essere smussate dalla preferenza dell’algoritmo per l’"armonia".
Ciò solleva un rischio sociale più ampio: l’erosione del discorso autentico. Se gli strumenti di comunicazione che utilizziamo ogni giorno ci stanno guidando verso la positività ed evitando l’attrito, può diventare sempre più difficile impegnarsi in quelle conversazioni difficili ma cruciali, sia nelle relazioni personali che nella sfera pubblica. Come hanno sottolineato i ricercatori, i controllori degli algoritmi ottengono così un’influenza sottile ma significativa sugli stili di interazione, sull’uso del linguaggio e persino sulla reciproca percezione delle persone. Questa influenza è bidirezionale, potenzialmente promuovendo scambi armoniosi, creando allo stesso tempo un’armonia sociale superficiale e procedurale a scapito della profondità e dell’autenticità.
Il pericolo diAlienazione: l’IA come anestetico sociale
In netto contrasto con la speranza di connessione portata dalla socializzazione dell’IA, contiene anche profondi pericoli di alienazione. I critici sostengono che questa tecnologia, invece di risolvere il problema della solitudine, può esacerbare l’isolamento degli individui fornendo un falso senso di intimità, erodendo le reali capacità sociali e portando in definitiva a una più profonda "solitudine collettiva".
Rivisitare la teoria della "solitudine collettiva": intimità simulata e l’erosione della solitudine
Molto prima dell’ascesa dei compagni dell’IA, Sherry Turkle, una sociologa del MIT, ha lanciato un profondo avvertimento sulla socializzazione guidata dalla tecnologia nella sua opera seminale, Alone Together. La sua teoria fornisce un quadro di base per comprendere l’attuale potenziale alienante della socializzazione dell’IA.
L’argomentazione centrale di Turkle è che stiamo cadendo in uno stato di "solitudine collettiva": siamo più strettamente connessi che mai, ma più soli che mai. Ci "aspettiamo di più dalla tecnologia e meno l’uno dall’altro". La tecnologia fornisce un’"illusione di compagnia senza le esigenze dell’amicizia". La radice di questo fenomeno risiede nella "fragilità relazionale" delle persone moderne: bramiamo l’intimità ma temiamo gli inevitabili rischi e delusioni nelle relazioni intime. I compagni dell’IA e i social network ci consentono di connetterci in modo controllabile, mantenendo la distanza che vogliamo e investendo l’energia che siamo disposti a dedicare. Turkle chiama questo l’"effetto Riccioli d’oro": non troppo vicino, non troppo lontano, giusto.
Turkle provava una profonda preoccupazione per la "realtà" di questa relazione simulata. Ha sottolineato che cercare l’intimità con una macchina che non ha emozioni reali, può solo "sembrare" di preoccuparsi e "sembrare" di capire, è un degrado dell’emozione umana. Confronta le bambole giocattolo tradizionali e passive con i moderni "artefatti relazionali" (come i robot sociali). I bambini possono proiettare la loro immaginazione, ansia ed emozioni sulle bambole passive, esplorando così se stessi. Ma un robot attivo che avvia conversazioni ed esprime "opinioni" limita questa proiezione, sostituendo le libere attività interiori dei bambini con "interazioni" programmate.
In questa cultura di connessione continua, stiamo perdendo una capacità cruciale: la solitudine. Turkle ritiene che la solitudine significativa - uno stato di essere in grado di parlare con se stessi, riflettere e ripristinare l’energia - sia un prerequisito per stabilire vere connessioni con gli altri. Tuttavia, nella società odierna, ci sentiamo ansiosi non appena siamo soli per un momento e raggiungiamo consapevolmente i nostri telefoni. Riempiamo tutti i vuoti con costanti connessioni ma perdiamo le basi per costruire connessioni profonde con noi stessi e con gli altri.
La critica di Turkle, avanzata nel 2011, non è solo rilevante per i compagni dell’IA di oggi, ma anche profetica. Se i primi social media ci consentivano di "nasconderci l’uno dall’altro" pur rimanendo connessi, i compagni dell’IA portano questa logica all’estremo: non abbiamo più bisogno di un’altra persona per avere la sensazione di "essere connessi". Le "esigenze" dell’amicizia - ad esempio, rispondere alle esigenze degli altri, al malumore e all’imprevedibilità - sono proprio l’"attrito" che i compagni dell’IA sono progettati per eliminare. Pertanto, si può dire che le piattaforme sociali dell’IA di oggi sono l’incarnazione tecnologica del paradosso della "solitudine collettiva" di Turkle. La logica sottostante è che man mano che ci abituiamo sempre di più a questa relazione senza attriti e senza pretese, la nostra tolleranza per quelle "lezioni" difficili ma essenziali nelle reali interazioni interpersonali potrebbe diminuire drasticamente, rendendoci più inclini a ritirarci nella zona di comfort digitale e isolata.
Le dinamiche della dipendenza emotiva e l’atrofia delle capacità sociali
Le preoccupazioni hanno trovato prove nel mondo reale. Diversi studi e rapporti indicano che l’interazione profonda con i compagni dell’IA può portare a una dipendenza emotiva malsana e influire negativamente sulle capacità sociali degli utenti.
La ricerca mostra che le caratteristiche dei compagni AI altamente personalizzabili e che rimangono costantemente online possono incoraggiare l’isolamento sociale e la dipendenza emotiva eccessiva. Il contatto esteso e a lungo termine con i compagni AI può indurre gli individui a ritirarsi dagli ambienti sociali reali e ridurre la loro motivazione a stabilire nuove relazioni sociali significative. I critici temono che la dipendenza dall’IA ostacolerà lo sviluppo delle capacità sociali degli individui perché gli utenti evitano le sfide e i compromessi inerenti alle relazioni reali, che sono i fattori che promuovono la crescita personale. Il rischio è particolarmente evidente per i giovani le cui capacità sociali sono ancora in fase di sviluppo.
Un’analisi del discorso degli utenti nella comunità Reddit per l’app complementare AI Replika ha rilevato che, sebbene molti utenti abbiano riportato esperienze positive, c’erano anche chiare prove di problemi di salute mentale. Il meccanismo della dipendenza emotiva da Replika ha comportato danni molto simili alle relazioni umane-umane disfunzionali.
Potrebbe esserci un pericoloso ciclo di feedback. Questo ciclo inizia con la solitudine o l’ansia sociale di un individuo. Per cercare conforto, si rivolgono ai compagni dell’IA perché l’IA offre una AI sicura. L’IA è progettata come il compagno perfetto, senza conflitti. Gli utenti ottengono soddisfazione emotiva in questa interazione idealizzata e sviluppano gradualmente dipendenza emotiva. Perché siamo immersi in questa relazione "perfetta". Queste capacità diminuiscono. Questo crea un ciclo e aumenta la solitudine.
Caso di studio: l’incidente Replika ERP
L’"evento Replika ERP" verificatosi all’inizio del 2023 fornisce un caso ed esempio reale scioccante. Ha rivelato drammaticamente la profondità dell’attaccamento degli utentiAll’IA e l’inerente fragilità di questa "relazione" controllata da società commerciali.
Un documento di lavoro della Harvard Business School ha utilizzato abilmente questo evento per rimuovere l’"Erotic Role Play" come esperimento naturale. Lo studio ha avuto due principali risultati:
- Strettezza della relazione: uno studio della Harvard Business School ha dimostrato che gli utenti si sentivano ancora più vicini alla loro IA che ai loro migliori amici.
- L’impatto della rimozione delle funzionalità: gli utenti che avevano avuto le funzionalità rimosse avevano sperimentato risposte, che gli studiosi hanno definito "discontinuità dell’identità".
L’incidente Replika ERP è la prova definitiva dell’asimmetria fondamentale nella "relazione uomo-macchina. In questa relazione, gli utenti sperimentano una profonda, personale, apparentemente reciproca connessione. Tuttavia, per il fornitore della piattaforma Luka, Inc., questa è solo una funzionalità del prodotto che può essere modificata o eliminata in qualsiasi momento per motivi commerciali o legali. Gli utenti investono emozioni umane reali, mentre la "personalità" e l’"esistenza" del compagno AI dipendono interamente dalle politiche e dalle decisioni aziendali dell’azienda. Ciò rivela la vulnerabilità unica e profonda degli utenti in tali relazioni: il loro attaccamento emotivo è a un’entità priva di autonomia e la cui sopravvivenza è incerta. Quando gli interessi commerciali si scontrano con le esigenze emotive degli utenti, sono gli utenti che inevitabilmente subiranno danni.
Imbuti algoritmici: bozzoli di informazioni e polarizzazione sociale
I rischi di alienazione dalla socializzazione dell’IA non si limitano alle applicazioni complementari AI individuali; si riflettono anche in tutte le piattaforme sociali guidate da algoritmi. I meccanismi di personalizzazione che guidano la dipendenza emotiva individuale possono, a livello sociale, dare origine alla segregazione di gruppo e alla polarizzazione.
Il concetto di "bozzolo di informazioni", proposto dallo studioso Cass Sunstein, descrive come i flussi di informazioni personalizzati filtrano i contenuti che non si allineano con le opinioni esistenti degli utenti, avvolgendo così gli utenti in una camera di eco costituita dalle loro preferenze. Alla base di questo fenomeno ci sono gli algoritmi di raccomandazione progettati dalle piattaforme di social media per massimizzare il tempo di sosta e l’interazione degli utenti. A livello globale