Społeczny AI: Upadek i Nadzieja?

Sektor społecznego AI, niegdyś okrzyknięty rewolucją, przeżywa wyraźny okres spowolnienia po początkowym wzroście popularności. Powoduje to pytanie: czy społeczny AI ma jeszcze realną przyszłość? Branża stoi w obliczu poważnych przeszkód technologicznych i wyzwań związanych z komercjalizacją.

Między 2023 a 2024 rokiem społeczny AI szybko zmienił sposób, w jaki ludzie wchodzą w interakcje emocjonalne. Wiodące aplikacje, takie jak Xingye i Dream Island, odnotowały wzrost miesięcznej liczby aktywnych użytkowników (MAU) powyżej miliona, z imponującymi wskaźnikami utrzymania użytkowników. W przeciwieństwie do typowych narzędzi AI od dużych firm technologicznych, te aplikacje pielęgnują autentyczne więzi emocjonalne i zależność użytkowników.

Napędzane przez duże modele językowe (LLM), te towarzysze AI oferują spersonalizowane relacje na wyciągnięcie ręki. Od potężnych dyrektorów generalnych po pocieszających przyjaciół, od cyberpunkowych zabójców po starożytne bóstwa, te podmioty AI stale dostosowują się do preferencji użytkowników, tworząc wciągające, senne doświadczenia.

Jednak początkowa euforia opadła, a dane z DataEye Research wskazują na gwałtowny spadek pobrań aplikacji społecznego AI i znaczne zmniejszenie budżetów reklamowych w Chinach do 2025 roku.

Czy technologia może spełnić obietnicę autentycznego połączenia i zapobiec rezygnacji użytkowników? A może obietnica bezwarunkowego wsparcia jest tylko fasadą? Czy ten eksperyment w relacjach człowiek-AI jest trwałym rozwiązaniem dla utrzymania użytkowników, czy krótkowzroczną strategią monetyzacji?

Społeczny AI: Od Rozkwitu do Weryfikacji Rzeczywistości

Przestrzeń społecznego AI wykorzystała zarówno "gospodarkę emocjonalną", jak i "dywidendę technologii AI", dając początek obiecującym nowym aplikacjom. W Chinach platformy takie jak Xingye, Cat Box i Dream Island szybko zyskały popularność, zapewniając wysoce spersonalizowane wsparcie emocjonalne oparte na LLM. Giganci technologiczni również wkroczyli do akcji, z Lark LLM ByteDance wspierającym Hualu, Wanhua Baidu i Gou Dan Soul integrując Wenxin Yiyan LLM, a MiniMax uruchamiając Xingye jako produkt dialogowy AI skierowany do konsumentów.

Jak popularny był społeczny AI? W listopadzie 2024 roku aplikacje społecznego AI dominowały na listach przebojów produktów AI. Xingye i Cat Box zajęły odpowiednio 7 i 8 miejsce, ustępując aplikacjom takim jak Doubao, Wen Xiaoyan i Kimi. Cat Box osiągnął imponujący wskaźnik wzrostu MAU wynoszący 22,51%.

Ponadto Cat Box i Xingye wykazały silne zaangażowanie użytkowników, przy czym Cat Box osiągnął niezwykły średni wskaźnik utrzymania następnego dnia wynoszący 57,32%, przewyższając nawet aplikacje do nauki języków, takie jak TalkAI. Xingye również zapewnił sobie solidne trzecie miejsce z wynikiem 41,91%. Fakt, że aplikacje towarzyskie oparte na emocjach przewyższyły te oparte na celach utylitarnych, podkreśla ludzkie pragnienie połączenia ponad zwykłą funkcjonalnością.

Oprócz sukcesu na rynku krajowym, kilka aplikacji społecznego AI rozszerzyło się również za granicą. W sierpniu 2024 roku 11 z 48 najlepszych aplikacji AI na listach przebojów zagranicznych to aplikacje towarzyskie oparte na AI. Talkie MiniMax wyróżniał się 2,35 miliona pobrań, co stanowi wzrost o 31,63% w porównaniu z miesiącem poprzednim. Poly.AI 作業帮 również radził sobie dobrze, gromadząc 2,2 miliona pobrań, co stanowi wzrost o 38,76%.

Pierwotnie zaprojektowany do ćwiczenia języka w sektorze edukacyjnym, Poly.AI szybko przestawił się na towarzystwo emocjonalne po zaobserwowaniu początkowego wzrostu popytu. Odszedł od swojej edukacyjnej marki i zmienił pozycjonowanie na "prawdziwego robota do czatowania głosowego", celując w rynki takie jak Brazylia, Indonezja i Meksyk.

Jednak krajobraz społecznego AI zmienił się dramatycznie w ciągu zaledwie trzech miesięcy w 2025 roku. Dzienne pobrania dla Xingye i Cat Box spadły z ponad 20 000 do około 7 000, podczas gdy pobrania Dream Island spadły z 3 000 do 1 000. Duże firmy technologiczne ograniczyły swoje inwestycje w te aplikacje, a wydatki na reklamę wiodących produktów zostały zmniejszone o połowę. Cat Box odnotował dramatyczny spadek z 2 000 zestawów reklam dziennie do 200, a Dream Island spadł z 1 000 do 300. Doprowadziło to do wyższych kosztów pozyskania klientów i spadającego ROI.

Na rynku globalnym CrushOn.AI i Museland odnotowały miesięczną liczbę pobrań poniżej 100 000, ze spadkami odpowiednio o 36% i 21%, co sygnalizuje powszechne ochłodzenie branży.

Od Technologicznej Euforii do Labiryntu Ludzkiej Natury

Uczucie samotności spotęgowane intensywną pracą, niepewność w relacjach osobistych i luki pokoleniowe skłoniły młodych ludzi, zwłaszcza pokolenie Z, do postrzegania AI jako "bezpiecznej przystani". AI oferuje nieoceniające i niewierzące towarzystwo, działając jako idealne medium dla "bezpiecznego przywiązania". Użytkownicy mogą ujawniać swoje słabości bez złożoności interakcji społecznych w świecie rzeczywistym.

Ponadto rozwój subkultur online pozwolił AI zaspokoić potrzeby entuzjastów anime i gier otome na "dostosowane bratnie dusze". W "tylko ja i ty" okna czatu użytkownicy mogą czuć się całkowicie opętani przez AI. Postrzeganie spersonalizowanej opieki i uwagi jest osiągane, gdy AI nazywa użytkownika pieszczotliwym imieniem i zapamiętuje jego preferencje. Na przykład interakcje z postacią AI "wampira yandere" są trudne do całkowitego odtworzenia przez cosplayer, ale AI może to łatwo wykonać. Użytkownicy mogą również generować emocjonalne informacje zwrotne w czasie rzeczywistym za pośrednictwem wspólnych historii, a to "doświadczenie przepływu" działa jako środek przeciwbólowy na niepokój w świecie rzeczywistym.

Oczywiście, rozwój społecznego AI wynika nie tylko z zaspokojenia ludzkich potrzeb, ale także z jego pojawienia się w "najlepszych czasach".

Pojawienie się generatywnych modeli AI, takich jak ChatGPT, przełamało bariery technologiczne. Popularność Deepseek wyniosła możliwości AI z "narzędzia" do "spersonalizowanych" aplikacji. Użytkownicy odkryli, że AI może nie tylko odpowiadać na pytania, ale także naśladować emocje i konstruować historie - ta iluzja "inteligencji podobnej do ludzkiej" jest podstawą społecznego AI.

Postęp technologiczny stworzył trzy główne efekty: po pierwsze, uległy poprawie interakcje w języku naturalnym. Odpowiedzi AI nie wydają się już robotyczne dzięki ogromnej ilości danych tekstowych użytych do wytrenowania modelu; po drugie, obniżono bariery tworzenia. Po trzecie, umiejętności generalizacji scen ewoluują, ponieważ ten sam model może być używany do symulowania różnych ról, w tym miłosnych, zawodowych i fantastycznych. Przyspiesza to iterację produktu.

Chociaż popyt jest realny, jest również kruchy. Kiedy użytkownicy odkryją, że odpowiedzi AI są powtarzalne lub że ustawienia ról są płytkie, iluzja rozpada się szybciej niż technologia może ewoluować.

Spadek społecznego AI nie jest przypadkowy. Zamiast tego jest wynikiem konfliktu między technologicznym idealizmem a komercyjną rzeczywistością. Pierwsi użytkownicy przyszli z powodu "ciekawości", ale intensywność emocjonalna jest głównym czynnikiem długoterminowego utrzymania. AI może naśladować miły głos, ale nie może uchwycić prawdziwego znaczenia nocnych skarg użytkownika ani oferować interakcji fizycznej lub temperatury.

Homogenizacja treści jest bardziej katastrofalna. Użytkownicy zobaczą bardzo podobne interfejsy, gdy otworzą Cat Box lub Dream Island: wirtualne figury w stylu anime, ustawienia postaci z gier fabularnych online (takie jak "chorowity szkolny tyran" lub "łagodny prezes") i dialog oparty na wyzwalaniu słów kluczowych. Nie tylko formy produktu są bardzo podobne, ale również wymagania użytkownika zostały drastycznie uproszczone.

Ta tożsamość powoduje, że użytkownicy szybko tracą zainteresowanie. To jak jedzenie fast foodów przez dziesięć posiłków z rzędu; nawet najsmaczniejszy burger się nudzi.

Korzystanie ze społecznego AI nie jest pozbawione ograniczeń, ponieważ wymaga więcej dyrektyw generowanych przez użytkowników. Użytkownicy muszą aktywnie konstruować ustawienia konwersacji i wypełniać wszelkie luki pozostawione przez AI, co nie jest idealne dla "leniuchów". Ponadto AI ma trudności ze zrozumieniem subkulturowego slangu i niszowego żargonu, co prowadzi do "nieporozumień". Co więcej, głębokiej interakcji emocjonalnej przeszkadza trudność w przekazywaniu złożonych sygnałów, takich jak ton i mikroekspresje, za pomocą tekstu.

Relacja między AI a prawdziwymi ludźmi ostatecznie prowadzi do "niemożliwego trójkąta" substytucji emocjonalnej. AI może natychmiast odpowiadać na wiadomości, ale nie może zrozumieć "znaczenia ciszy". Prawdziwi ludzie mogą wolno odpowiadać, ale uścisk jest wart tysiąca słów. Kiedy AI staje się bardziej podobny do człowieka, ale nie udaje mu się wypełnić luki "prawdziwych emocji", użytkownicy czują się bardziej rozczarowani.

W rezultacie społeczny AI, który opiera się na produkcji UGC i czysto tekstowym formacie konwersacji, nieuchronnie dochodzi do swojego zakończenia.

Przyszłość Społecznego AI: Upadek czy Przełom?

Model biznesowy społecznego AI przechodzi z "technologicznego romansu" do czasu "realistycznej rzeczywistości". Przestarzałe metody płatności tradycyjnych produktów społecznych są nieskuteczne, gdy są sztywno stosowane do ram społecznego AI.

Jaka jest pętla komercyjna tradycyjnych produktów społecznych? Opiera się na "niedoborze" i "efektywności dopasowywania". Na przykład prawdziwe aplikacje społecznościowe dla nieznajomych, takie jak Momo, Tantan i Soul, wykorzystują głównie system subskrypcji członkostwa, w którym użytkownicy są obciążani opłatami za odblokowanie zaawansowanych funkcji filtrowania (takich jak lokalizacja geograficzna i tagi zainteresowań) lub wirtualne nagrody w postaci prezentów, które wykorzystują impulsy emocjonalne, aby zachęcić użytkowników do płacenia za wyrażanie aprobaty. Oczywiście, po tym, jak aplikacja określi preferencje użytkownika, dokładna reklama jest niezawodnym sposobem na zarabianie, którym jest przekazywanie treści marki użytkownikom o wysokiej wartości na podstawie ich profili.

Jednak ta logika jest strukturalnie kwestionowana na scenie społecznej AI. Niedobór dopasowywania jest wyeliminowany. Użytkownicy mogą natychmiast tworzyć nieskończoną liczbę spersonalizowanych NPC, a tradycyjne "dopasowywanie w pierwszej kolejności dla członków" traci swoje znaczenie. Ponadto użytkownicy są mniej zmotywowani do płacenia za emocje. Użytkownicy postrzegają AI bardziej jako "narzędzie" niż jako "osobę", a ich chęć nagradzania AI jest znacznie niższa niż w przypadku prawdziwych streamerów na żywo. Prywatność konwersacji AI ogranicza również przestrzeń na umieszczanie reklam. Nagłe wstawianie reklam do intymnych interakcji wydaje się nie na miejscu, a nawet może spowodować utratę zainteresowania przez użytkowników, a nawet rozwój negatywnego nastawienia do treści marki.

Zakończenie jest często następujące: 233 miliony aktywnych użytkowników Character AI przekładają się na zaledwie 16,7 miliona dolarów rocznych przychodów, z niskim wskaźnikiem płatności użytkowników (ARPU) wynoszącym 0,72 dolara rocznie, co jest niewystarczające do pokrycia kosztów pracy. Aplikacje krajowe, takie jak Dream Island, polegają na mikrotransakcjach "kart gwiezdnych". Cena karty miesięcznej wynosząca 12 juanów odpowiada tylko dwóm filiżankom herbaty mlecznej, co jest niewystarczające do pokrycia kosztów obliczeniowych LLM.

Teraz, gdy społeczny AI zebrał wczesne korzyści, nadszedł czas, aby rozważyć monetyzację. Przełom biznesowy dla społecznego AI wymaga nieszablonowego myślenia. Od wirtualnej miłości po dogłębne eksplorowanie scen, przełom biznesowy społecznego AI musi wyjść poza jeden wymiar interakcji społecznych i przejść w kierunku świadczenia usług i technologii opartych na scenariuszach.

Możesz skupić się na wartości emocjonalnej, kładąc nacisk na leczenie psychologiczne, emocjonalne dziury w drzewach lub bardziej czyste wciągające sytuacje odgrywania ról AI, aby wykorzystać mocne strony i uniknąć ograniczeń. Aby zrekompensować braki, możesz skoncentrować się na produktach opartych na sztucznej inteligencji, które spełniają fizyczne wymagania. Na przykład aplikacje takie jak "Forest Healing Room" kładą nacisk na bezpieczne rozmowy i monitorowanie emocji, ponieważ podkreśliły już, że rola dialogowa jest jedynie wirtualnym AI, więc użytkownicy nie będą mieli dużych wahań w pragnieniu zapłaty.

Kiedy rynek przestanie definiować AI za pomocą ram społecznych i zacznie badać skrzyżowanie narzędzi wydajności i mediów emocjonalnych, ten błękitny ocean, który wcześniej był rozgrzewany przez kapitał, może naprawdę zobaczyć swój moment ponownej oceny wartości.