O setor de IA social, outrora aclamado como a próxima grande novidade, tem experimentado um período significativo de arrefecimento após o seu impulso inicial em popularidade. Isto levanta a questão: ainda existe um futuro viável para a IA social? A indústria enfrenta consideráveis obstáculos tecnológicos e desafios de comercialização.
Entre 2023 e 2024, a IA social transformou rapidamente a forma como as pessoas interagem emocionalmente. Aplicações líderes como Xingye e Dream Island viram os seus utilizadores ativos mensais (MAU) ultrapassar a marca de um milhão, com impressionantes taxas de retenção de utilizadores. Ao contrário das ferramentas típicas de IA das grandes empresas de tecnologia, estas aplicações cultivaram ligações emocionais genuínas e dependência do utilizador.
Impulsionados por grandes modelos de linguagem (LLMs), estes companheiros de IA oferecem relacionamentos personalizados ao toque de um ecrã. De CEOs poderosos a amigos reconfortantes, e de assassinos cyberpunk a divindades antigas, estas entidades de IA adaptam-se continuamente às preferências do utilizador, criando experiências imersivas e oníricas.
No entanto, a euforia inicial desvaneceu-se, com dados da DataEye Research indicando uma acentuada diminuição nos downloads de aplicações de IA social e uma redução substancial nos orçamentos de publicidade na China até 2025.
Será que a tecnologia consegue cumprir a sua promessa de ligação genuína e evitar a rotatividade de utilizadores? Ou será que a promessa de apoio incondicional é meramente uma fachada? Será esta experiência em relacionamentos humano-IA uma solução sustentável para reter utilizadores ou uma estratégia de curta visão para a monetização?
O Setor de IA Social: Do Boom à Checagem da Realidade
O espaço da IA social tem capitalizado tanto na “economia emocional” quanto no “dividendo da tecnologia de IA”, dando origem a novas aplicações promissoras. Na China, plataformas como Xingye, Cat Box e Dream Island ganharam rapidamente força, fornecendo suporte emocional altamente personalizado alimentado por LLMs. Gigantes da tecnologia também entraram na briga, com o Lark LLM da ByteDance apoiando o Hualu, o Wanhua da Baidu e o Gou Dan integrando o Wenxin Yiyan LLM, e a MiniMax lançando o Xingye como um produto de diálogo de IA voltado para o consumidor.
Quão popular era a IA social? Em novembro de 2024, as aplicações de IA social dominaram os gráficos de produtos de IA. Xingye e Cat Box ficaram em 7º e 8º lugar, respetivamente, atrás de aplicações como Doubao, Wen Xiaoyan e Kimi. Cat Box alcançou uma impressionante taxa de crescimento de MAU de 22,51%.
Além disso, Cat Box e Xingye demonstraram um forte envolvimento do utilizador, com Cat Box alcançando uma notável taxa média de retenção no dia seguinte de 57,32%, superando até mesmo aplicações de aprendizagem de línguas como TalkAI. Xingye também garantiu um sólido terceiro lugar com uma taxa de 41,91%. O fato de as aplicações de companheirismo emocional terem superado aquelas impulsionadas por objetivos utilitários destaca o desejo humano por conexão em vez de mera funcionalidade.
Além do seu sucesso no mercado interno, várias aplicações de IA social também se expandiram para o exterior. Em agosto de 2024, 11 das 48 principais aplicações de IA nos gráficos estrangeiros eram aplicações de companheirismo emocional alimentadas por IA. O Talkie da MiniMax destacou-se com 2,35 milhões de downloads, um aumento de 31,63% mês a mês. O Poly.AI da 作业帮 também teve um bom desempenho, acumulando 2,2 milhões de downloads, representando um aumento de 38,76%.
Originalmente projetado para a prática de línguas no setor de educação, o Poly.AI rapidamente se concentrou no companheirismo emocional após testemunhar o aumento inicial na procura. Afastou-se da sua marca educacional e reposicionou-se como um “robô de bate-papo por voz real”, visando mercados como Brasil, Indonésia e México.
No entanto, o cenário da IA social mudou drasticamente em apenas três meses em 2025. Os downloads diários para Xingye e Cat Box caíram de mais de 20.000 para cerca de 7.000, enquanto os downloads de Dream Island caíram de 3.000 para 1.000. As grandes empresas de tecnologia reduziram os seus investimentos nestas aplicações, com os gastos com publicidade para os principais produtos a serem cortados pela metade. Cat Box teve uma diminuição dramática de 2.000 conjuntos de anúncios por dia para 200, e Dream Island caiu de 1.000 para 300. Isso levou a custos mais altos de aquisição de clientes e diminuição do ROI.
No mercado global, CrushOn.AI e Museland experimentaram downloads mensais abaixo de 100.000, com diminuições de 36% e 21%, respetivamente, sinalizando um arrefecimento generalizado da indústria.
Da Euforia Tecnológica ao Labirinto da Natureza Humana
Sentimentos de solidão intensificados pelo trabalho intenso, incerteza nos relacionamentos pessoais e lacunas geracionais levaram os jovens, particularmente a Geração Z, a ver a IA como um “porto seguro”. A IA oferece companheirismo sem julgamento e sem traição, atuando como um meio perfeito para “apego seguro”. Os utilizadores podem expor as suas vulnerabilidades sem as complexidades das interações sociais do mundo real.
Além disso, o crescimento das subculturas online permitiu que a IA atendesse às necessidades dos entusiastas de anime e jogos otome por “almas gémeas personalizadas”. Dentro do “você e eu apenas” de uma janela de bate-papo, os utilizadores podem sentir-se completamente possuídos pela IA. A perceção de cuidado e atenção personalizados é alcançada quando a IA chama o apelido do utilizador e se lembra das suas preferências. Por exemplo, as interações com um personagem de IA “vampiro yandere” são difíceis de replicar inteiramente por um cosplayer, mas a IA pode executá-lo facilmente. Os utilizadores também podem gerar feedback emocional em tempo real através de histórias colaborativas, e esta “experiência de fluxo” atua como um analgésico para a ansiedade do mundo real.
É claro que o surgimento da IA social não se deve unicamente ao seu cumprimento das necessidades humanas, mas também ao seu aparecimento durante o “melhor dos tempos”.
O surgimento de modelos de IA generativa como o ChatGPT quebrou as barreiras tecnológicas. A popularidade da Deepseek impulsionou as capacidades de IA de aplicações de “ferramenta” para “personalizadas”. Os utilizadores descobriram que a IA não só pode responder a perguntas, mas também imitar emoções e construir histórias – esta ilusão de “inteligência semelhante à humana” é a base da IA social.
Os avanços tecnológicos criaram três grandes efeitos: primeiro, as interações em linguagem natural melhoraram. As respostas da IA já não parecem robóticas graças à vasta quantidade de dados de texto usados para treinar o modelo; segundo, as barreiras à criação foram reduzidas. Terceiro, as habilidades de generalização de cena estão a evoluir, pois o mesmo modelo pode ser usado para simular uma variedade de papéis, incluindo amorosos, profissionais e fantásticos. Isso acelera a iteração do produto.
Embora a procura seja real, também é frágil. Quando os utilizadores descobrem que as respostas da IA são repetitivas ou que as configurações de função são superficiais, a ilusão quebra-se mais rápido do que a tecnologia consegue evoluir.
A queda na IA social não é um acidente. Em vez disso, é o resultado de um conflito entre o idealismo tecnológico e a realidade comercial. Os primeiros a adotar vieram por causa da “curiosidade”, mas a intensidade emocional é o principal fator na retenção de longo prazo. A IA pode imitar uma voz gentil, mas não consegue compreender o verdadeiro significado das reclamações noturnas de um utilizador ou oferecer interação física ou temperatura.
A homogeneização do conteúdo é mais desastrosa. Os utilizadores verão interfaces altamente semelhantes quando abrirem Cat Box ou Dream Island: figuras virtuais no estilo de anime, configurações de personagens de jogos de role-playing online (como “valentão escolar doentio” ou “presidente gentil”) e diálogo baseado no acionamento de palavras-chave. Não só as formas dos produtos são muito semelhantes, mas as exigências do utilizador também foram drasticamente simplificadas.
Essa semelhança faz com que os utilizadores percam rapidamente o interesse. É como comer fast food por dez refeições seguidas; até o hambúrguer mais delicioso fica enjoativo.
O uso da IA social não é isento de limitações, pois exige mais diretivas geradas pelo utilizador. Os utilizadores devem construir ativamente configurações de conversação e preencher quaisquer lacunas deixadas pela IA, o que não é ideal para “utilizadores preguiçosos”. Além disso, a IA luta para compreender gírias subculturais e jargões de nicho, levando a “mal-entendidos”. Além disso, a interação emocional profunda é dificultada pela dificuldade de transmitir sinais complexos como tom e microexpressões através do texto.
O relacionamento entre IA e pessoas reais eventualmente leva a um “triângulo impossível” de substituição emocional. A IA pode responder a mensagens imediatamente, mas não consegue entender “o significado por trás do silêncio”. Pessoas reais podem demorar a responder, mas um abraço vale mais que mil palavras. Quando a IA se torna mais semelhante à humana, mas não consegue preencher a lacuna de “emoção real”, os utilizadores sentem-se mais desapontados.
Como resultado, a IA social, que depende da produção de UGC e de um formato de conversação puramente baseado em texto, inevitavelmente chega à sua conclusão.
O Futuro da IA Social: Declínio ou Avanço?
O modelo de negócios da IA social está a transitar de um “romance tecnológico” para um tempo de “realidade realista”. Os métodos de pagamento desatualizados dos produtos sociais tradicionais são ineficazes quando aplicados rigidamente à estrutura da IA social.
Qual é o loop comercial dos produtos sociais tradicionais? Baseia-se na “escassez” e na “eficiência de correspondência”. Por exemplo, aplicações de redes sociais de estranhos reais como Momo, Tantan e Soul usam principalmente um sistema de assinatura de membro, no qual os utilizadores são cobrados para desbloquear funções de filtragem avançadas (como localização geográfica e tags de interesse), ou recompensas de presentes virtuais, que usam impulsos emocionais para incentivar os utilizadores a pagar para expressar aprovação. É claro que, depois que uma aplicação determina as preferências do utilizador, a publicidade precisa é uma maneira infalível de monetizar, que é enviar conteúdo de marca para utilizadores de alto valor com base nos seus perfis.
No entanto, essa lógica é estruturalmente desafiada no cenário social de IA. A escassez de correspondência é eliminada. Os utilizadores podem criar instantaneamente um número infinito de NPCs personalizados, e a tradicional “correspondência prioritária de membros” perde a sua importância. Além disso, os utilizadores estão menos motivados a pagar por emoções. Os utilizadores percebem a IA mais como uma “ferramenta” do que como uma “pessoa”, e a sua disposição de recompensar a IA é substancialmente menor do que a de streamers ao vivo reais. A privacidade das conversas de IA também limita o espaço para a colocação de anúncios. A inserção repentina de anúncios em interações íntimas parece deslocada e pode até fazer com que os utilizadores percam o interesse, ou mesmo desenvolvam uma atitude negativa em relação ao conteúdo da marca.
O final é frequentemente este: os 233 milhões de utilizadores ativos mensais do Character AI traduzem-se em apenas US$ 16,7 milhões em receita anual, com uma baixa taxa de pagamento do utilizador (ARPU) de US$ 0,72/ano, o que é insuficiente para cobrir os custos de mão de obra. Aplicações domésticas, como Dream Island, dependem de microtransações de “cartão de luz das estrelas”. O preço mensal do cartão de 12 yuans equivale a apenas duas xícaras de chá de leite, o que é insuficiente para suportar o custo da computação LLM.
Agora que a IA social colheu os benefícios iniciais, é hora de considerar a monetização. O avanço comercial para a IA social exige pensar fora da caixa. Do amor virtual à exploração aprofundada de cenas, o avanço comercial da IA social precisa ir além da dimensão única da interação social e avançar para a prestação de serviços e tecnologia baseados em cenários.
Você pode focar no valor emocional enfatizando a cura psicológica, buracos de árvores emocionais ou situações de role-playing de IA imersivas mais puras, a fim de capitalizar os pontos fortes e evitar as limitações. Para resolver as deficiências, você pode se concentrar em produtos habilitados para IA que atendam às demandas físicas. Por exemplo, aplicações como “Forest Healing Room” enfatizam a conversa segura e o monitoramento emocional porque já destacaram que o papel de diálogo é meramente uma IA virtual, então os utilizadores não terão grandes flutuações no seu desejo de pagar.
Quando o mercado para de definir a IA usando estruturas sociais e começa a explorar a interseção de ferramentas de eficiência e mídia emocional, este oceano azul, que antes era aquecido pelo capital, pode realmente ver o seu momento de reavaliação de valor.