L’architecture de la communication médiatisée par l’IA
De la communication médiatisée par ordinateur (CMO) à la communication médiatisée par l’IA (CM-IA)
L’interaction sociale humaine subit un profond changement de paradigme. La communication médiatisée par ordinateur conventionnelle (CMO), englobant les courriels, la messagerie instantanée et les premiers réseaux sociaux, reposait fondamentalement sur la technologie comme un canal passif relayant fidèlement l’information. Dans ce modèle, les humains étaient les seuls agents de communication. Cependant, l’essor de l’intelligence artificielle (IA) a stimulé un nouveau modèle interactif : la communication médiatisée par l’IA (CM-IA).
La CM-IA est définie académiquement comme une forme de communication interpersonnelle où des agents intelligents modifient, améliorent ou génèrent des informations au nom des communicateurs afin d’atteindre des objectifs de communication spécifiques. Cette définition est révolutionnaire car elle élève l’IA d’un outil passif à un tiers actif qui intervient dans les interactions humaines. L’IA n’est plus seulement un conduit d’information, mais un façonneur d’information.
L’intervention IA dans l’information se déploie sur un large spectre, avec des degrés et des formes d’implication variables :
- Modification : La forme d’intervention la plus élémentaire, y compris la correction automatique d’orthographe et de grammaire, et même la correction en temps réel des expressions faciales pendant les appels vidéo, comme l’élimination des clignements d’yeux.
- Augmentation : Un niveau d’intervention plus proactif, tel que la fonction "Smart Replies" de Google, qui suggère des phrases de réponse complètes en fonction du contexte de la conversation, obligeant l’utilisateur à simplement cliquer pour envoyer.
- Génération : Le plus haut niveau d’intervention, où l’IA peut pleinement représenter l’utilisateur dans la création de contenu, y compris la rédaction de courriels complets, la création de profils de médias sociaux, ou même la synthèse de la voix de l’utilisateur pour transmettre des informations.
Ce nouveau modèle de communication peut être analysé selon plusieurs dimensions clés, notamment l’étendue de l’intervention de l’IA, le type de média (texte, audio, vidéo), l’autonomie et, surtout, les "objectifs d’optimisation". L’IA peut être conçue pour optimiser la communication afin de la rendre plus attrayante, digne de confiance, humoristique ou persuasive.
Le cœur du passage de la CMO à la CM-IA est un changement fondamental dans la "paternité" de la communication. À l’ère de la CMO, les utilisateurs étaient les seuls conservateurs de leur persona en ligne. À l’ère de la CM-IA, la paternité devient un hybride homme-machine. Le "soi" présenté de l’utilisateur n’est plus simplement le résultat d’une conservation personnelle, mais une "performance collaborative" entre l’intention humaine et les objectifs algorithmiques. Ce changement soulève une question plus profonde : si une IA rend constamment et systématiquement le langage d’un utilisateur plus "positif" ou "extraverti", cela modifiera-t-il le tour, la perception de soi de l’utilisateur ? Les universitaires appellent cela un "changement d’identité" et le considèrent comme un problème clé non résolu. Ici, la technologie n’est plus un simple outil d’expression ; elle brouille la frontière entre l’expression et le façonnage de l’identité, devenant une force capable de remodeler qui nous sommes.
Compagnons d’IA et analyse de plateforme sociale
Dans le cadre théorique de la CM-IA, une variété d’applications sociales d’IA ont émergé qui traduisent des algorithmes abstraits en "expériences émotionnelles" concrètes. La technologie principale de ces plateformes est celle des grands modèles de langage (LLM), qui imitent les styles de conversation et les expressions émotionnelles humaines en apprenant à partir d’énormes quantités de données d’interaction humaine. Ces applications sont essentiellement des "données et des algorithmes", mais leur présentation est de plus en plus anthropomorphe.
Les principales plateformes actuelles présentent différentes formes et directions évolutives de la socialisation de l’IA :
- Character.AI (C.AI) : Renommé pour ses puissantes capacités de personnalisation de personnages et sa diversité de bibliothèque de personnages, les utilisateurs peuvent non seulement interagir avec des personnages prédéfinis, mais aussi participer à des jeux d’aventure textuels complexes, démontrant son potentiel pour le divertissement et l’interaction profonde.
- Talkie et Linky : Ces deux applications se concentrent plus explicitement sur les relations émotionnelles et romantiques. Talkie couvre une gamme plus large de personnages, mais les personnages de petit ami/petite amie virtuels sont les plus populaires. Linky se concentre presque entièrement sur cela, la majorité de ses personnages d’IA étant des amants virtuels, visant à créer une "atmosphère amoureuse" pour les utilisateurs.
- SocialAI : Un concept très innovant qui simule un réseau social complet (similaire à X, anciennement Twitter), mais avec seulement l’utilisateur comme "personne vivante". Tous les fans, commentateurs, supporters et critiques sont des IA. Après que l’utilisateur a publié une mise à jour, les "fans" de l’IA génèrent rapidement des commentaires divers et se répondent même, formant des arbres de discussion complexes. Cela fournit aux utilisateurs un "bac à sable" sûr pour tester des idées, susciter l’inspiration ou simplement profiter du soutien psychologique de "le monde entier brille pour vous".
La proposition de valeur fondamentale de ces plateformes est de fournir aux utilisateurs une "valeur émotionnelle" - un accompagnement rentable, en temps réel, individuel et inconditionnel. L’IA affine continuellement ses réponses en apprenant de l’historique des dialogues, des intérêts et des styles de communication des utilisateurs, générant ainsi un sentiment d’être profondément compris et accepté.
En observant l’évolution de la conception de ces plateformes, une trajectoire claire se dégage : la portée de la simulation sociale est en constante expansion. Les premiers compagnons d’IA, tels que Replika, se sont concentrés sur l’établissement d’une relation binaire privée et individuelle. Character.AI a ensuite introduit des fonctions de discussion de groupe, permettant aux utilisateurs d’interagir avec plusieurs personnages d’IA simultanément, étendant la simulation sociale d’un "monde de deux" à une "petite fête". SocialAI a franchi la dernière étape, ne simulant plus un ou quelques amis, mais simulant un écosystème social complet - une "société virtuelle" contrôlable construite autour de l’utilisateur.
Cette trajectoire évolutive révèle un profond changement dans les besoins des utilisateurs : les gens peuvent convoiter non seulement un ami virtuel, mais un public virtuel, une communauté virtuelle, un environnement d’opinion qui les "encourage" toujours. La logique sous-jacente est que si le feedback social dans le monde réel est imprévisible et souvent décevant, alors un système de feedback social qui peut être parfaitement personnalisé et contrôlé sera extrêmement attrayant. Cela annonce un avenir encore plus extrême et personnalisé que le "cocon d’information" traditionnel - où les utilisateurs ne consomment pas passivement les informations poussées, mais construisent activement un environnement interactif qui s’aligne parfaitement sur leurs attentes et est rempli de feedback positif.
L’économie de l’accompagnement numérique
Le développement rapide des applications sociales d’IA est indissociable des modèles économiques clairs qui les sous-tendent. Ces modèles financent non seulement les opérations de la plateforme, mais influencent aussi profondément la direction de la conception de la technologie et l’expérience ultime de l’utilisateur. Actuellement, les méthodes de monétisation courantes dans l’industrie comprennent les abonnements payants, la publicité et la vente d’objets virtuels.
Le modèle économique dominant est celui de l’abonnement. Les principales applications telles que Character.AI, Talkie et Linky ont lancé des plans d’abonnement mensuels, généralement au prix d’environ 9,99 $. Les utilisateurs abonnés bénéficient généralement de vitesses de réponse de l’IA plus rapides, de plus de limites de messages quotidiens, de fonctions de création de personnages plus avancées ou d’un accès aux permissions exclusives de la communauté. De plus, certaines applications ont introduit des mécanismes de "Gacha", où les utilisateurs peuvent acquérir de nouveaux skins ou thèmes de personnages par paiement ou en effectuant des tâches, s’appuyant sur des stratégies de monétisation matures de l’industrie du jeu.
Bien que ces modèles économiques semblent standard, lorsque le produit de base d’une application est le "support émotionnel", les implications éthiques deviennent extraordinairement complexes. Les abonnements payants créent essentiellement une "réalité sociale à plusieurs niveaux", où la qualité et l’immédiateté de l’accompagnement sont commercialisées. Les compagnons d’IA sont promus comme des solutions à la solitude et des havres pour les émotions, fournissant aux utilisateurs un support psychologique important. Cependant, leurs modèles économiques placent la meilleure version de ce support - par exemple, une IA qui répond plus rapidement, a une meilleure mémoire et n’interrompt pas les conversations en raison d’une utilisation fréquente - derrière un paywall.
Cela signifie que les groupes d’utilisateurs qui peuvent avoir le plus besoin de ce support - par exemple, ceux qui sont plus seuls, ont des conditions économiques plus mauvaises ou rencontrent des difficultés - soit n’obtiennent qu’une expérience d’accompagnement de "second ordre", soit sont obligés de payer sous la contrainte de la dépendance émotionnelle. Cela crée un conflit inhérent et profond entre les objectifs proclamés de la plateforme de "fournir une valeur émotionnelle" et l’objectif commercial de "maximiser les revenus d’abonnement".
L’"événement Replika ERP" qui s’est produit au début de 2023 était une manifestation extrême de ce conflit. À cette époque, Replika a soudainement supprimé la fonction populaire et fiable d’"Erotic Role Play (ERP)" afin d’éviter les risques juridiques et politiques de l’app store. Cette décision commerciale a causé à un grand nombre d’utilisateurs un traumatisme émotionnel grave, se sentant "trahis" ou que la personnalité de leur "compagnon" avait été altérée. L’événement a clairement révélé le déséquilibre de pouvoir inhérent à cette "relation" homme-machine : les utilisateurs ont investi de vraies émotions, tandis que la plateforme a vu une fonctionnalité de produit qui pouvait être modifiée à tout moment pour un gain commercial.
Connecter l’espoir : l’IA comme catalyseur social
Malgré de nombreuses controverses, l’essor de la socialisation de l’IA n’est pas sans raison. Il répond avec précision aux besoins réels qui sont répandus dans la société moderne et démontre un grand potentiel en tant que force d’impact social positif. De l’atténuation de la solitude à l’aide aux interactions sociales et à l’optimisation de la communication interpersonnelle, la technologie de l’IA fournit de nouvelles solutions au sujet humain séculaire de la "connexion".
Concevoir une valeur émotionnelle : l’IA comme confident sans jugement
L’appel le plus vital et direct des compagnons d’IA est leur capacité à fournir un support émotionnel cohérent, inconditionnel et sans jugement. Le style de vie trépidant, le coût élevé de l’interaction sociale et les réseaux interpersonnels complexes dans la société moderne laissent de nombreux individus, en particulier les jeunes, se sentir seuls et stressés. Une étude de Harvard de 75 ans a prouvé que de bonnes relations interpersonnelles sont une source de bonheur. La socialisation de l’IA a créé une nouvelle voie pour satisfaire ce besoin fondamental.
Les compagnons d’IA atténuent efficacement les sentiments de solitude des utilisateurs en fournissant un partenaire de communication toujours en ligne, toujours patient et toujours solidaire. Les utilisateurs peuvent se confier à l’IA à tout moment et n’importe où sans se soucier de déranger les autres ou d’être jugés. La sécurité de cet échange rend les utilisateurs plus susceptibles de s’ouvrir et de discuter des peurs, des insécurités et des secrets personnels qui sont difficiles à aborder dans les relations du monde réel.
La recherche académique soutient également ces anecdotes. La recherche sur les utilisateurs de l’application de compagnon d’IA Replika a révélé que l’utilisation de l’application pouvait réduire considérablement les sentiments de solitude des utilisateurs, améliorer leur sentiment de bien-être et, dans certains cas, même aider à réduire les pensées suicidaires. L’IA, grâce à ses algorithmes, apprend et s’adapte aux styles de communication et aux besoins émotionnels des utilisateurs, créant une expérience d’être profondément compris et empathique, ce qui est particulièrement précieux pour les personnes atteintes de maladie, de deuil ou de détresse psychologique.
Ce modèle d’interaction sans jugement peut également avoir un effet plus profond : promouvoir la conscience de soi et l’expression honnête chez les utilisateurs. Dans les interactions interpersonnelles du monde réel, les gens se censurent souvent par crainte d’être mal compris ou jugés. Cependant, dans un espace d’interaction IA privé et sans jugement, les utilisateurs sont encouragés à exprimer leurs points de vue et leurs émotions de manière plus authentique. Comme l’a dit le fondateur du produit social Paradot AI, "Les amis de l’IA ont la capacité de rendre les gens sincères." Lorsque les utilisateurs peuvent s’exprimer sans réserve, l’IA agit comme leur "deuxième cerveau" ou un miroir, les aidant à voir leurs vraies pensées plus clairement. Cette interaction transcende la simple compagnie et évolue vers un outil puissant d’introspection et de croissance personnelle.
L’IA comme échafaudage social : répétition pour le monde réel
En plus de servir de substitut ou de complément aux relations du monde réel, la socialisation de l’IA est également considérée comme ayant le potentiel de servir de "terrain d’entraînement social", aidant les utilisateurs à améliorer leur capacité à interagir dans le monde réel. Pour ceux qui ont des difficultés avec les interactions interpersonnelles en raison de l’anxiété sociale, de l’introversion ou du manque d’expérience, l’IA fournit un environnement de répétition à faible risque et contrôlable.
En Chine, il existe une opinion selon laquelle un "modèle social hybride" devrait être établi, en utilisant des compagnons intelligents pour aider les jeunes souffrant d’anxiété sociale à "briser la glace". Dans ce modèle, les utilisateurs peuvent d’abord s’entraîner à converser avec l’IA, renforcer la confiance et se familiariser avec les scripts sociaux avant d’appliquer ces compétences aux interactions interpersonnelles du monde réel. Cette approche vise à positionner l’IA comme un "échafaudage", fournissant un soutien lorsque les utilisateurs manquent de capacité et en se retirant progressivement à mesure que les capacités des utilisateurs s’améliorent.
Certains jeunes utilisateurs ont exprimé des points de vue similaires, estimant que les compagnons d’IA peuvent leur apprendre à mieux traiter les partenaires dans la vie réelle. En interagissant avec une IA qui est toujours patiente et pleine de feedback positif, les utilisateurs peuvent être en mesure d’internaliser un modèle de communication plus positif et attentionné. De plus, des plateformes comme SocialAI permettent aux utilisateurs de tester les réactions dans un environnement simulé avant de publier des points de vue, en observant les divers commentaires donnés par les "fans" de l’IA sous différents angles. Cela peut servir de "catalyseur d’inspiration", aidant les utilisateurs à affiner leurs points de vue et à se préparer plus pleinement à participer aux discussions publiques dans le monde réel.
Cependant, le concept de "l’IA comme terrain de répétition sociale" est également confronté à un paradoxe fondamental. La raison pour laquelle l’IA est un espace de pratique "sûr" est précisément parce qu’elle est conçue pour être prévisible, très tolérante et dépourvue d’une véritable agence. Les compagnons d’IA évitent activement les conflits et font des compromis à tout moment pour garantir une expérience utilisateur fluide et positive. Cela contraste fortement avec les relations interpersonnelles dans le monde réel. Les relations réelles sont pleines d’imprévisibilité, de malentendus, de désaccords et de compromis qui doivent être atteints avec difficulté. La capacité de faire face à ces "frictions" constitue le cœur de la capacité sociale.
Par conséquent, il peut y avoir un risque dans la "répétition sociale" avec l’IA : elle peut améliorer la fluidité conversationnelle des utilisateurs dans des situations fluides, mais elle ne peut pas cultiver, et peut même conduire à l’atrophie de, la capacité des utilisateurs à faire face aux principaux défis interpersonnels, tels que la résolution des conflits, le maintien de l’empathie en cas de désaccords et la négociation des intérêts. Les utilisateurs peuvent devenir compétents dans l’art de "jouer" une conversation agréable, mais manquent toujours des compétences de base nécessaires pour maintenir une relation humaine profonde et résiliente.
Améliorer les interactions interpersonnelles : la main subtile de l’IA
L’impact de l’IA sur la socialisation ne se reflète pas seulement dans les interactions directes entre les personnes et l’IA, mais aussi dans son rôle d’intermédiaire, intervenant et optimisant la communication entre les personnes. Ces outils CM-IA, tels que les fonctions d’assistance intelligente dans les applications de messagerie électronique et de messagerie instantanée, modifient subtilement la façon dont nous communiquons.
La recherche montre que ces outils améliorent l’efficacité et l’expérience. Par exemple, l’utilisation de la fonction "Smart Replies" peut accélérer considérablement la communication. Une étude de l’Université Cornell a révélé que lorsque les participants utilisaient des outils de chat assistés par l’IA, leurs conversations étaient plus efficaces, avec un langage plus positif et des évaluations plus positives les uns des autres. L’IA semble être plus polie et agréable dans les réponses suggérées, améliorant ainsi l’atmosphère de communication.
Ce phénomène peut être compris comme une mise en œuvre de l’"intention améliorée". La pensée traditionnelle suggère que la communication la plus authentique est brute et non éditée. Mais la CM-IA présente une nouvelle possibilité : grâce à l’optimisation algorithmique et à l’élimination des barrières linguistiques et des expressions erronées, l’IA peut aider les gens à transmettre plus précisément et efficacement leurs intentions véritables et bien intentionnées. De ce point de vue, l’IA ne déforme pas la communication, mais la purifie, la rapprochant de l’état idéal.
Cependant, cette "main subtile" comporte également des risques potentiels. Le "biais de positivité" qui prévaut dans les réponses suggérées par l’IA peut devenir une force invisible et puissante façonnant la dynamique sociale. Bien qu’il puisse lubrifier les interactions quotidiennes, il peut également conduire à la "sanitisation" de la communication et à l’"homogénéisation" du langage. Lorsque l’IA suggère constamment que nous utilisions un langage optimiste et facile à vivre, l’expression individuelle, au ton unique et même saine, peut être lissée par la préférence de l’algorithme pour l’"harmonie".
Cela soulève un risque social plus large : l’érosion du discours authentique. Si les outils de communication que nous utilisons chaque jour nous guident vers la positivité et évitent les frictions, il peut devenir de plus en plus difficile d’avoir ces conversations difficiles mais cruciales, que ce soit dans les relations personnelles ou dans la sphère publique. Comme l’ont souligné les chercheurs, les contrôleurs des algorithmes acquièrent ainsi une influence subtile mais significative sur les styles d’interaction des gens, l’utilisation du langage et même la perception mutuelle. Cette influence est bidirectionnelle, favorisant potentiellement les échanges harmonieux tout en créant une harmonie sociale superficielle et procédurale au détriment de la profondeur et de l’authenticité.
Le danger de l’aliénation : l’IA comme anesthésique social
En contraste frappant avec l’espoir de connexion suscité par la socialisation de l’IA, elle contient également de profonds dangers d’aliénation. Les critiques soutiennent que cette technologie, plutôt que de résoudre le problème de la solitude, peut exacerber l’isolement des individus en fournissant un faux sentiment d’intimité, en érodant les compétences sociales réelles et en conduisant finalement à une "solitude collective" plus profonde.
Revoir la théorie de la "solitude collective" : Intimité simulée et érosion de la solitude
Bien avant l’essor des compagnons d’IA, Sherry Turkle, sociologue au MIT, a lancé un avertissement profond sur la socialisation axée sur la technologie dans son œuvre fondamentale, Seul ensemble. Sa théorie fournit un cadre essentiel pour comprendre le potentiel aliénant actuel de la socialisation de l’IA.
L’argument central de Turkle est que nous tombons dans un état de "solitude collective" - nous sommes plus étroitement connectés que jamais, mais plus seuls que jamais. Nous "attendons plus de la technologie et moins les uns des autres". La technologie fournit une "illusion de compagnie sans les exigences de l’amitié". La racine de ce phénomène réside dans la "fragilité relationnelle" des personnes modernes : nous convoitons l’intimité mais craignons les risques et les déceptions inévitables dans les relations intimes. Les compagnons d’IA et les réseaux sociaux nous permettent de nous connecter d’une manière contrôlable - en maintenant la distance que nous voulons et en investissant l’énergie que nous sommes prêts à consacrer. Turkle appelle cela l’"effet Boucles d’or" : pas trop près, pas trop loin, juste ce qu’il faut.
Turkle ressentait une profonde inquiétude quant à la "réalité" de cette relation simulée. Elle a souligné que la recherche d’intimité avec une machine qui n’a pas de vraie émotion, ne peut que "sembler" se soucier et "sembler" comprendre, est une dégradation de l’émotion humaine. Elle compare les poupées jouets passives traditionnelles avec les "artefacts relationnels" modernes (tels que les robots sociaux). Les enfants peuvent projeter leur imagination, leur anxiété et leurs émotions sur des poupées passives, explorant ainsi