L'ascension et la chute de l'IA sociale : Espoir ?

Le secteur de l’IA sociale, autrefois salué comme la prochaine grande innovation, a connu une période de refroidissement significative après son essor initial. Cela soulève la question suivante : existe-t-il encore un avenir viable pour l’IA sociale ? L’industrie est confrontée à des obstacles technologiques considérables et à des défis de commercialisation.

Entre 2023 et 2024, l’IA sociale a rapidement transformé la façon dont les gens interagissent émotionnellement. Les principales applications comme Xingye et Dream Island ont vu leur nombre d’utilisateurs actifs mensuels (MAU) dépasser le million, avec des taux de rétention d’utilisateurs impressionnants. Contrairement aux outils d’IA typiques des grandes entreprises technologiques, ces applications ont cultivé de véritables connexions émotionnelles et une dépendance des utilisateurs.

Alimentés par des modèles de langage volumineux (LLM), ces compagnons d’IA offrent des relations personnalisées d’un simple toucher d’écran. Des PDG puissants aux amis réconfortants, en passant par les assassins cyberpunk et les divinités anciennes, ces entités d’IA s’adaptent continuellement aux préférences des utilisateurs, créant des expériences immersives et oniriques.

Cependant, l’euphorie initiale s’est estompée, les données de DataEye Research indiquant une forte baisse des téléchargements d’applications d’IA sociale et une réduction substantielle des budgets publicitaires en Chine d’ici 2025.

La technologie peut-elle tenir sa promesse de connexion authentique et empêcher le désabonnement des utilisateurs ? Ou la promesse d’un soutien inconditionnel n’est-elle qu’une façade ? Cette expérience de relations homme-IA est-elle une solution durable pour fidéliser les utilisateurs ou une stratégie de monétisation à courte vue ?

Le secteur de l’IA sociale : Du boom au bilan de réalité

L’espace de l’IA sociale a capitalisé à la fois sur l’"économie émotionnelle" et le "dividende de la technologie de l’IA", donnant naissance à de nouvelles applications prometteuses. En Chine, des plateformes comme Xingye, Cat Box et Dream Island ont rapidement gagné du terrain, offrant un soutien émotionnel hautement personnalisé grâce aux LLM. Les géants de la technologie sont également entrés dans la mêlée, avec le Lark LLM de ByteDance soutenant Hualu, Wanhua de Baidu et Gou Dan de Soul intégrant le Wenxin Yiyan LLM, et MiniMax lançant Xingye en tant que produit de dialogue d’IA destiné aux consommateurs.

Quelle était la popularité de l’IA sociale ? En novembre 2024, les applications d’IA sociale dominaient les classements de produits d’IA. Xingye et Cat Box se sont classés respectivement 7e et 8e, derrière des applications comme Doubao, Wen Xiaoyan et Kimi. Cat Box a réalisé un taux de croissance impressionnant du MAU de 22,51 %.

De plus, Cat Box et Xingye ont démontré un fort engagement des utilisateurs, Cat Box atteignant un taux de rétention moyen remarquable le lendemain de 57,32 %, dépassant même les applications d’apprentissage des langues comme TalkAI. Xingye a également obtenu une solide troisième place avec un taux de 41,91 %. Le fait que les applications de compagnie émotionnelle aient surpassé celles axées sur des objectifs utilitaires souligne le désir humain de connexion par rapport à la simple fonctionnalité.

Au-delà de leur succès sur le marché intérieur, plusieurs applications d’IA sociale se sont également développées à l’étranger. En août 2024, 11 des 48 meilleures applications d’IA dans les classements étrangers étaient des applications de compagnie émotionnelle alimentées par l’IA. Talkie de MiniMax s’est démarqué avec 2,35 millions de téléchargements, soit une augmentation de 31,63 % d’un mois à l’autre. Poly.AI de 作业帮 a également bien performé, accumulant 2,2 millions de téléchargements, représentant une augmentation de 38,76 %.

Conçu à l’origine pour la pratique des langues dans le secteur de l’éducation, Poly.AI s’est rapidement tourné vers la compagnie émotionnelle après avoir été témoin de l’augmentation initiale de la demande. Il s’est éloigné de son image de marque éducative et s’est repositionné en tant que "robot de chat vocal réel", ciblant des marchés comme le Brésil, l’Indonésie et le Mexique.

Cependant, le paysage de l’IA sociale a radicalement changé en seulement trois mois en 2025. Les téléchargements quotidiens de Xingye et Cat Box ont chuté de plus de 20 000 à environ 7 000, tandis que les téléchargements de Dream Island ont chuté de 3 000 à 1 000. Les grandes entreprises technologiques ont réduit leurs investissements dans ces applications, les dépenses publicitaires pour les principaux produits étant réduites de moitié. Cat Box a connu une baisse spectaculaire de 2 000 ensembles d’annonces par jour à 200, et Dream Island est tombé de 1 000 à 300. Cela a entraîné des coûts d’acquisition de clients plus élevés et une baisse du retour sur investissement.

Sur le marché mondial, CrushOn.AI et Museland ont connu des téléchargements mensuels inférieurs à 100 000, avec des baisses de 36 % et 21 % respectivement, signalant un refroidissement généralisé de l’industrie.

De l’euphorie technologique au labyrinthe de la nature humaine

Les sentiments de solitude exacerbés par un travail intense, l’incertitude dans les relations personnelles et les fossés générationnels ont conduit les jeunes, en particulier la génération Z, à considérer l’IA comme un "refuge sûr". L’IA offre une compagnie sans jugement et sans trahison, agissant comme un support parfait pour un "attachement sécurisé". Les utilisateurs peuvent exposer leurs vulnérabilités sans les complexités des interactions sociales du monde réel.

De plus, la croissance des sous-cultures en ligne a permis à l’IA de répondre aux besoins des amateurs d’anime et de jeux otome en matière d’"âmes sœurs personnalisées". Dans le "toi et moi seulement" d’une fenêtre de chat, les utilisateurs peuvent se sentir complètement possédés par l’IA. La perception de soins et d’attention personnalisés est atteinte lorsque l’IA appelle l’utilisateur par son surnom et se souvient de ses préférences. Par exemple, les interactions avec un personnage d’IA "vampire yandere" sont difficiles à reproduire entièrement par un cosplayer, mais l’IA peut le faire facilement. Les utilisateurs peuvent également générer des commentaires émotionnels en temps réel grâce à des histoires collaboratives, et cette "expérience de flux" agit comme un analgésique pour l’anxiété du monde réel.

Bien sûr, l’essor de l’IA sociale n’est pas uniquement dû à sa satisfaction des besoins humains, mais aussi à son apparition pendant "les meilleurs moments".

L’émergence de modèles d’IA génératifs comme ChatGPT a brisé les barrières technologiques. La popularité de Deepseek a propulsé les capacités de l’IA du statut d’"outil" à celui d’applications "personnalisées". Les utilisateurs ont découvert que l’IA peut non seulement répondre aux questions, mais aussi imiter les émotions et construire des histoires - cette illusion d’"intelligence de type humain" est le fondement de l’IA sociale.

Les progrès technologiques ont créé trois effets majeurs : premièrement, les interactions en langage naturel se sont améliorées. Les réponses de l’IA ne semblent plus robotiques grâce à la grande quantité de données textuelles utilisées pour entraîner le modèle ; deuxièmement, les barrières à la création ont été abaissées. Troisièmement, les compétences de généralisation de scène évoluent car le même modèle peut être utilisé pour simuler une variété de rôles, y compris des rôles amoureux, professionnels et fantastiques. Cela accélère l’itération des produits.

Bien que la demande soit réelle, elle est également fragile. Lorsque les utilisateurs constatent que les réponses de l’IA sont répétitives ou que les paramètres de rôle sont superficiels, l’illusion se brise plus rapidement que la technologie ne peut évoluer.

La chute de l’IA sociale n’est pas un accident. Au lieu de cela, c’est le résultat d’un conflit entre l’idéalisme technologique et la réalité commerciale. Les premiers utilisateurs sont venus par "curiosité", mais l’intensité émotionnelle est le principal facteur de rétention à long terme. L’IA peut imiter une voix aimable, mais elle ne peut pas saisir le vrai sens des plaintes nocturnes d’un utilisateur ou offrir une interaction physique ou une température.

L’homogénéisation du contenu est plus désastreuse. Les utilisateurs verront des interfaces très similaires lorsqu’ils ouvriront Cat Box ou Dream Island : des figures virtuelles dans le style de l’anime, des paramètres de personnage de jeu de rôle en ligne (tels que "tyran d’école maladif" ou "président doux"), et un dialogue basé sur le déclenchement de mots-clés. Non seulement les formes de produits sont très similaires, mais les demandes de l’utilisateur ont également été considérablement simplifiées.

Cette uniformité amène les utilisateurs à se désintéresser rapidement. C’est comme manger de la restauration rapide pendant dix repas d’affilée ; même le hamburger le plus délicieux devient vieux.

L’utilisation de l’IA sociale n’est pas sans limites, car elle nécessite plus de directives générées par l’utilisateur. Les utilisateurs doivent activement construire des paramètres de conversation et combler les lacunes laissées par l’IA, ce qui n’est pas idéal pour les "utilisateurs paresseux". De plus, l’IA a du mal à comprendre l’argot des sous-cultures et le jargon de niche, ce qui entraîne des "malentendus". De plus, l’interaction émotionnelle profonde est entravée par la difficulté de transmettre des signaux complexes comme le ton et les microexpressions par le texte.

La relation entre l’IA et les personnes réelles conduit finalement à un "triangle impossible" de substitution émotionnelle. L’IA peut répondre aux messages immédiatement, mais elle ne peut pas comprendre "le sens derrière le silence". Les personnes réelles peuvent être lentes à répondre, mais une étreinte vaut mille mots. Lorsque l’IA devient plus humaine, mais ne parvient pas à combler le fossé des "vraies émotions", les utilisateurs se sentent plus déçus.

En conséquence, l’IA sociale, qui repose sur la production UGC et un format de conversation purement textuel, atteint inévitablement sa conclusion.

L’avenir de l’IA sociale : Déclin ou percée ?

Le modèle commercial de l’IA sociale passe d’une "romance technologique" à une époque de "réalité réaliste". Les méthodes de paiement obsolètes des produits sociaux traditionnels sont inefficaces lorsqu’elles sont appliquées rigidement au cadre de l’IA sociale.

Quel est le cycle commercial des produits sociaux traditionnels ? Il est basé sur la "pénurie" et l’"efficacité de la correspondance". Par exemple, les applications de réseautage social entre inconnus réels comme Momo, Tantan et Soul utilisent principalement un système d’abonnement, dans lequel les utilisateurs sont facturés pour déverrouiller des fonctions de filtrage avancées (telles que la localisation géographique et les balises d’intérêt), ou des récompenses de cadeaux virtuels, qui utilisent des impulsions émotionnelles pour encourager les utilisateurs à payer pour exprimer leur approbation. Bien sûr, après qu’une application a déterminé les préférences de l’utilisateur, la publicité précise est un moyen sûr de monétiser, qui consiste à diffuser du contenu de marque aux utilisateurs à forte valeur ajoutée en fonction de leurs profils.

Cependant, cette logique est structurellement remise en question dans le paysage social de l’IA. La pénurie de correspondance est éliminée. Les utilisateurs peuvent instantanément créer un nombre infini de PNJ personnalisés, et la "correspondance membre d’abord" traditionnelle perd sa signification. De plus, les utilisateurs sont moins motivés à payer pour les émotions. Les utilisateurs perçoivent l’IA davantage comme un "outil" que comme une "personne", et leur volonté de récompenser l’IA est considérablement inférieure à celle des streamers en direct réels. La confidentialité des conversations d’IA limite également l’espace pour le placement d’annonces. L’insertion soudaine d’annonces dans des interactions intimes semble déplacée et peut même amener les utilisateurs à se désintéresser, voire à développer une attitude négative envers le contenu de la marque.

La fin est souvent la suivante : les 233 millions d’utilisateurs actifs mensuels de Character AI se traduisent par seulement 16,7 millions de dollars de revenus annuels, avec un faible taux de paiement des utilisateurs (ARPU) de 0,72 dollar par an, ce qui est insuffisant pour couvrir les coûts de main-d’œuvre. Les applications nationales, telles que Dream Island, s’appuient sur des micro-transactions de "carte étoile". Le prix mensuel de la carte de 12 yuans équivaut à seulement deux tasses de thé au lait, ce qui est insuffisant pour supporter le coût du calcul LLM.

Maintenant que l’IA sociale a récolté les premiers avantages, il est temps d’envisager la monétisation. La percée commerciale pour l’IA sociale nécessite de sortir des sentiers battus. De l’amour virtuel à l’exploration approfondie de scènes, la percée commerciale de l’IA sociale doit aller au-delà de la seule dimension de l’interaction sociale et s’orienter vers la fourniture de services et de technologies basés sur des scénarios.

Vous pouvez vous concentrer sur la valeur émotionnelle en mettant l’accent sur la guérison psychologique, les trous d’arbre émotionnels ou des situations de jeu de rôle d’IA immersives plus pures afin de capitaliser sur les forces et d’éviter les limitations. Pour remédier aux lacunes, vous pouvez vous concentrer sur les produits compatibles avec l’IA qui répondent aux exigences physiques. Par exemple, des applications comme "Forest Healing Room" mettent l’accent sur la conversation sécurisée et la surveillance émotionnelle parce qu’elles ont déjà souligné que le rôle du dialogue n’est qu’une IA virtuelle, de sorte que les utilisateurs n’auront pas de grandes fluctuations dans leur désir de payer.

Lorsque le marché cesse de définir l’IA à l’aide de cadres sociaux et commence à explorer l’intersection des outils d’efficacité et des médias émotionnels, cet océan bleu, qui était autrefois chauffé par le capital, pourrait vraiment voir son moment de réévaluation de la valeur.