Chiny: Rewolucja Open Source w AI

Konwergencja Chińskiego Open Source

Na początku lutego, kiedy chiński model open-source DeepSeek znalazł się na szczytach list pobrań aplikacji w 140 krajach i regionach na całym świecie, OpenAI publicznie oskarżył DeepSeek o użycie destylowanych danych z ChatGPT bez pozwolenia.

Zamiast ratować reputację OpenAI, to oskarżenie spotkało się z powszechnym szyderstwem ze strony badaczy na całym świecie.

Teraz pojawił się kolejny konkurent, w pełni wykorzystujący ‘destylację’.

13 kwietnia Kunlun Wanwei uruchomił modele z serii Skywork-OR1 (Open Reasoner 1), przewyższając Qwen-32B Alibaba w tej samej skali i dorównując DeepSeek-R1.

Jak Kunlun Wanwei, firma o ograniczonych zasobach finansowych, może stworzyć model na poziomie SOTA? Oficjalne wyjaśnienie jest takie, że ich modele są oparte na DeepSeek-R1-Distill-Qwen-7B i DeepSeek-R1-Distill-Qwen-32B.

Jak sugerują nazwy, modele DeepSeek destylowały modele serii Qwen Alibaba.

Wykorzystując doskonałe modele open-source, Kunlun Wanwei również przyczynia się do społeczności open-source. W przeciwieństwie do DeepSeek, który udostępnił tylko wagi modelu, Kunlun Wanwei udostępnił również swoje zbiory danych i kod szkoleniowy, co jest bardziej zgodne z koncepcją ‘prawdziwego open source’. Oznacza to, że każdy użytkownik może spróbować odtworzyć proces szkolenia modelu.

Osiągnięcie Kunlun Wanwei demonstruje najważniejszy aspekt open source: nie tylko zapewnia użytkownikom darmowy i łatwo dostępny produkt, ale także umożliwia większej liczbie programistów stanie na ramionach poprzedników, szybko i efektywnie kosztowo rozwijając technologię.

W rzeczywistości, w kontekście zeszłorocznych dyskusji branżowych na temat wąskiego gardła w wstępnym szkoleniu dużych modeli, tempo iteracji chińskich dużych modeli przyspieszyło w tym roku, a coraz więcej firm inwestuje w open source.

Tongyi Qianwen Alibaba Cloud udostępnił swój nowy model wizualny Qwen2.5-VL w chiński Sylwester i wydał oraz udostępnił swój nowy model rozumowania QwQ-32B na początku marca, zajmując pierwsze miejsce na liście trendów globalnej głównej społeczności AI open-source Hugging Face w dniu, w którym został udostępniony.

Stepwise następnie udostępnił trzy multimodalne duże modele w ciągu około miesiąca, z których najnowszy to model obraz-wideo Step-Video-TI2V, który obsługuje generowanie filmów z kontrolowaną amplitudą ruchu i ruchem obiektywu, a także posiada pewne możliwości generowania efektów specjalnych.

Zhipu ogłosił w kwietniu, że udostępni serie GLM 32B/9B, obejmujące modele bazowe, rozumowania i kontemplacyjne, wszystkie na licencji MIT.

Nawet Baidu, który kiedyś był zamknięty, ogłosił, że w pełni udostępni duży model Wenxin 30 czerwca.

W porównaniu z rosnącym dobrobytem krajowego ekosystemu open-source, amerykańskie firmy zajmujące się dużymi modelami nadal koncentrują się głównie na zamkniętym kodzie źródłowym, co dało chińskim dużym modelom rzadką okazję do wyjazdu za granicę. DeepSeek pozwolił indonezyjskiej firmie edukacyjnej Ruangguru zoptymalizować swój model nauczania przy niskich kosztach; singapurska firma technologiczna B2B Atlas zintegrowała Qwen z inteligentnym systemem obsługi klienta, aby osiągnąć całodobową obsługę wielojęzyczną.

Dlaczego Zamknięty Kod Źródłowy w USA, Open Source w Chinach?

Tendencja do zamkniętego kodu źródłowego w amerykańskim przemyśle AI i rosnąca otwartość chińskiej AI są nieuniknionymi skutkami różnych środowisk rozwoju AI w obu krajach.

Amerykański przemysł AI jest prowadzony głównie przez gigantów technologicznych i VC (venture capitalists), którzy mają ogromne oczekiwania dotyczące zwrotów kapitałowych z AI. Dlatego amerykańskie firmy modelowe AI generalnie mają silną wiarę w technologię, to znaczy, dążą do przywództwa technologicznego, osiągają pewien stopień monopolu rynkowego, a następnie tworzą ogromne zyski, a ich ekosystem naturalnie skłania się ku zamkniętemu kodowi źródłowemu.

Biorąc jako przykład historię rozwoju OpenAI, zaczęła jako podmiot non-profit podczas swojego powstania, ale od tego czasu staje się coraz bardziej zamknięta. GPT-1 był w pełni open source, GPT-2 był częściowo open source i napotkał sprzeciw, zanim został w pełni open source, GPT-3 oficjalnie przeszedł na zamknięty kod źródłowy, a następnie GPT-4 jeszcze bardziej wzmocnił strategię zamkniętego kodu źródłowego, z architekturą modelu i danymi treningowymi całkowicie poufnymi, a nawet ograniczając częstotliwość wywoływania API przez użytkowników korporacyjnych.

Chociaż OpenAI powiedział, że zamykanie kodu źródłowego opiera się na zgodności i kontrolowaniu nadużywania technologii, rynek generalnie uważa, że przełomowym wydarzeniem w przejściu OpenAI na zamknięty kod źródłowy było osiągnięcie współpracy o wartości stu miliardów dolarów z Microsoftem, osadzając GPT-3 w usługach chmurowych Azure, tworząc zamkniętą pętlę ‘technologia-kapitał’.

Kiedy Microsoft po raz pierwszy ujawnił swoją inwestycję w OpenAI w swoim raporcie finansowym w październiku ubiegłego roku, powiedział: ‘Zainwestowaliśmy w OpenAIGlobal, LLC, z łącznym zobowiązaniem inwestycyjnym w wysokości 13 miliardów dolarów, a inwestycja jest rozliczana przy użyciu metody udziałów.’

Tak zwaną metodę udziałów można również rozumieć jako to, że inwestycja Microsoftu w OpenAI ma na celu uzyskanie zwrotów, a nie czyste badania charytatywne. Oczywiście sprzedaż przez OpenAI drogich interfejsów API za pośrednictwem ekosystemu zamkniętego kodu źródłowego jest jego obecnym największym źródłem przychodów i stała się największą przeszkodą w niechęci OpenAI do udostępniania kodu źródłowego.

Anthropic, który powstał z ‘podziału’ OpenAI, od początku był zdeterminowany, aby obrać drogę zamkniętego kodu źródłowego, a jego duży model produktu Claude w pełni przyjął model zamkniętego kodu źródłowego.

Nawet Llama META, jedyny lider open-source w Stanach Zjednoczonych, dodał dwie klauzule anty-przyjacielskie podczas udostępniania kodu źródłowego:

  1. Modele open-source nie mogą być używane do produktów i usług z ponad 700 milionami aktywnych użytkowników miesięcznie, zanim META je zatwierdzi.
  2. Treści wyjściowe modeli Llama nie mogą być wykorzystywane do szkolenia i ulepszania innych dużych modeli językowych.

Widać, że nawet w przypadku modeli open-source, głównym celem Meta jest nadal budowanie własnego ekosystemu AI, a nie włączenie techniczne.

Stany Zjednoczone wybrały strategię AI opartą na zamkniętym kodzie źródłowym z open source jako uzupełnieniem na poziomie kapitału, co można powiedzieć, że jest czysto komercyjnymi względami. W przeciwieństwie do tego, odgórny projekt Chin od samego początku przywiązywał wagę do open source, odzwierciedlając ścieżkę ‘przemysł przede wszystkim’ zgodnie z koncepcją niezależnej kontroli.

Już w 2017 roku chiński rząd opublikował ‘Plan Rozwoju Sztucznej Inteligencji Nowej Generacji’, który wyraźnie proponował przyspieszenie głębokiej integracji AI z gospodarką i społeczeństwem oraz wdrożenie w celu zbudowania przewagi pierwszego gracza w rozwoju AI. W 2021 roku treści związane z open source zostały wyraźnie uwzględnione w chińskim ‘14. Planie Pięcioletnim’, co wywołało aktywną promocję innowacji technologicznych przez rządy lokalne.

Mei Hong, akademik Chińskiej Akademii Nauk, powiedział kiedyś, że przyszły rozwój modeli językowych musi opierać się na platformach open-source. Tylko w otwartym środowisku można zapewnić bezpieczeństwo i wiarygodność przesyłania danych i integracji biznesowej dla użytkowników w różnych branżach.

‘Specjalny Plan Działania na rzecz Cyfrowego Wzmocnienia Małych i Średnich Przedsiębiorstw (2025-2027)’ wydany przez Ministerstwo Przemysłu i Technologii Informacyjnych oraz inne cztery departamenty w grudniu ubiegłego roku wyraźnie wspiera Open Atom Open Source Foundation w utworzeniu ‘Specjalnego Projektu Open Source AI dla Małych i Średnich Przedsiębiorstw’, aby zapewnić powtarzalne i łatwe do promowania ramy szkoleniowe, narzędzia testowe i inne zasoby, aby obniżyć próg techniczny dla przedsiębiorstw.

Bardziej realistycznym problemem jest to, że ze względu na potencjalną blokadę technologiczną ze strony Stanów Zjednoczonych, Chiny nie mogą być po prostu naśladowcą w dziedzinie AI, ale muszą zbudować niezależny ekosystem krajowy. Budowanie kolejnego ekosystemu zamkniętego kodu źródłowego pod ekosystemem, który Stany Zjednoczone już zbudowały z zamkniętym kodem źródłowym jako głównym celem, jest równoznaczne z budowaniem samochodu za zamkniętymi drzwiami. Tylko ekosystem open-source może szybko pomóc w rozwoju przemysłu AI.

Oprócz wsparcia z góry, różne rządy lokalne również dokonały prawdziwych inwestycji pieniężnych w ekosystem open-source.

Fundusz Z, utworzony wspólnie przez Zhipu i Beijing State-owned Assets, który koncentruje się na inwestycjach w ekosystem dużych modeli, ogłosił, że zainwestuje 300 milionów juanów, aby wesprzeć rozwój społeczności AI open-source na całym świecie. Każdy projekt startupowy oparty na modelach open-source (nie tylko na modelach open-source Zhipu) może aplikować.

Rozbieżność między Chinami a Stanami Zjednoczonymi w ich strategiach open-source i closed-source dla przemysłu AI jest zasadniczo fundamentalną różnicą w logice rozwoju. Stany Zjednoczone są napędzane przez kapitał, a dążenie do zysku przez gigantów technologicznych i VC zaowocowało ekosystemem zamkniętego kodu źródłowego ‘monopolu technologicznego-wysokiej realizacji cenowej’. Nawet jeśli Meta próbuje open source, trudno jest uciec od okowów barier komercyjnych. Chiny polegają na odgórnym projekcie, z ‘równością technologiczną + współpracą przemysłową’ jako podstawową koncepcją, i budują otwarty ekosystem poprzez wzmocnienie polityczne, czyniąc open source podstawową infrastrukturą do obniżania progów technicznych i promowania integracji realnej gospodarki. Ten strategiczny wybór nie tylko kształtuje różne ścieżki przemysłu AI w obu krajach, ale także zwiastuje przyspieszenie globalnego ekosystemu AI od ‘konkurencji monopolowej’ do ‘otwartej i korzystnej dla wszystkich’.

Dobre Wystarczająco jest Dobre

Chiński ekosystem open-source AI nie tylko przyspiesza rozwój industrializacji AI w Chinach i na świecie, ale także wpędza w niezręczną pułapkę wiarę Stanów Zjednoczonych w technologię na pierwszym miejscu.

W obliczu rosnącej presji wywieranej przez efekt DeepSeek, Meta wydała Llama4 5 kwietnia, twierdząc, że jest to najsilniejszy multimodalny duży model w historii.

Jednak po rzeczywistych testach jest to model, który rozczarowuje. Długość kontekstu 10 milionów tokenów często się myli, początkowy test piłki jest trudny do ukończenia, a występuje błąd w porównaniu rozmiaru 9.11 > 9.9. W ciągu kilku dni od uruchomienia modelu skandale, takie jak rezygnacje kierownicze i oszustwa testowe, zostały również potwierdzone przez pracowników wewnętrznych.

Więcej wiadomości dowodzi, że Llama4 można powiedzieć, że jest produktem, który Zuckerberg spieszył się, aby umieścić na półkach. Powstaje więc pytanie, dlaczego Zuckerberg musiał go uruchomić w kwietniu?

Jak wspomniano wcześniej, amerykański przemysł AI ma mylącą wiarę w technologię, wierząc, że ich produkty muszą być najsilniejsze i najbardziej zaawansowane, więc rozpoczęli wyścig zbrojeń. Jednak zmniejszający się efekt krańcowy szkolenia AI spowodował, że duzi producenci ponoszą ogromne koszty, a nie tylko nie zbudowano progu technicznego, ale wpadli w bagno wąskich gardeł mocy obliczeniowej.

Po tym, jak OpenAI wydał funkcję generowania obrazów GPT-4o, Altman napisał kilka dni później na Twitterze, że ich GPU się ‘wypalają’. Niecały tydzień po wydaniu Gemini2.5 szef GoogleAIStudio powiedział, że nadal są nękani przez ‘limity szybkości’, a programiści mogą wysyłać tylko 20 żądań na minutę. Wydaje się, że żadna firma nie może poradzić sobie z potrzebami wnioskowania super-dużych modeli.

W rzeczywistości Stany Zjednoczone wpadają w nieporozumienie. Osoba odpowiedzialna za Instytut Badań Zhiyuan powiedziała: ‘Jeśli nowy model zużywa 100 razy większy koszt, aby uzyskać wzrost o 10 punktów w teście porównawczym, to ten nowy model jest bez znaczenia dla ponad 80% scenariuszy zastosowań, ponieważ nie ma opłacalności.’

Chińskie firmy zajmujące się dużymi modelami przyspieszają ekosystem open-source. Wydaje się, że nie konkurują już o pierwsze miejsce, ale zamiast tego zdobyły więcej klientów, zwłaszcza klientów przemysłowych, dzięki swojemu podejściu ‘wystarczająco dobrym’.

W porównaniu z dziesiątkami milionów budżetów dla klientów rządowych i korporacyjnych, wiele firm i instytucji ma pilne potrzeby AI, ale nie ma tak wielu istniejących rozwiązań. Wykorzystanie modeli open-source do opracowania własnych rozwiązań stało się prawie jedynym wyborem:

  • Baosteel wykorzystuje ‘duży model + mały model’ do kluczowych procesów inżynierii metalurgicznej do inteligentnego wczesnego ostrzegania o urządzeniach produkcyjnych.
  • ‘Coal Science Guardian Large Model ChinamjGPT’ China Coal Science and Industry Group zmniejsza przestoje urządzeń i koszty konserwacji odpowiednio o 30% i 20%.
  • Shanghai Mengbo Intelligent Internet of Things Technology stworzyła platformę aplikacji do wykrywania krawędzi i optymalizacji procesu pieca do ciągłego wyżarzania w oparciu o lekki duży model.
  • Mifei Technology zrealizowała inteligentne przewidywanie, konserwację i zarządzanie zautomatyzowanymi systemami transportu materiałów w fabrykach płytek półprzewodnikowych w oparciu o technologię dużych modeli.

To wszystko są reprezentatywne przypadki wdrażania modeli open-source w scenariuszach przemysłowych.

Oprócz zastosowań przemysłowych, ekosystem open-source może również pomóc w większej liczbie przedsięwzięć na rzecz dobra publicznego.

Shanshui Nature Conservation Center angażuje się w ochronę śnieżnych panter i ekosystemów płaskowyżowych. Kamery na podczerwień, które ustawia, robią dużą liczbę zdjęć lub filmów co kwartał. Niezwykle nieefektywne i czasochłonne jest poleganie na ręcznej identyfikacji śladów śnieżnej pantery. Huawei Ascend współpracuje z Shanshui Nature Conservation Center w celu identyfikacji śladów śnieżnej pantery. Huawei udostępnił odpowiednie modele i narzędzia do rozpoznawania gatunków na obrazach w podczerwieni w Sanjiangyuan, obniżając próg uczestnictwa w rozwoju AI i umożliwiając korzystanie z modelu większej liczbie instytucji badawczych i ochronnych. Ludzie mogą wspólnie zoptymalizować model pod względem zbiorów danych, przetwarzania danych i czyszczenia danych.

Efekt ‘Bazaru’ Open Source

Eric Raymond, sztandarowy nosiciel ruchu oprogramowania open-source, zaproponował metaforę w swojej książce ‘Katedra i bazar’ z 1999 roku: Tradycyjny, model rozwoju oprogramowania zamkniętego kodu źródłowego jest jak budowanie katedry. Oprogramowanie jest starannie projektowane i budowane przez kilku ekspertów (architektów) w izolowanym środowisku i jest udostępniane użytkownikom dopiero po ostatecznym ukończeniu; Model rozwoju open-source jest jak tętniący życiem, pozornie chaotyczny, ale pełen życia bazar. Rozwój oprogramowania jest otwarty, zdecentralizowany i ewolucyjny.

Książka uważa, że w przypadku wielu typów projektów oprogramowania, zwłaszcza złożonego oprogramowania na poziomie systemu (takiego jak jądra systemów operacyjnych), otwarty, oparty na współpracy i zdecentralizowany model rozwoju ‘bazaru’, choć może wydawać się chaotyczny, jest w rzeczywistości bardziej wydajny, tworzy wyższą jakość i bardziej niezawodne oprogramowanie niż tradycyjny, zamknięty i scentralizowany model ‘katedry’. Może szybciej wykrywać i naprawiać błędy oraz lepiej absorbować opinie użytkowników i wkład społeczności za pomocą mechanizmów takich jak ‘wydawaj wcześnie, wydawaj często’ i wykorzystywanie szeroko zakrojonych recenzji kolegów (‘wystarczająca liczba gałek ocznych’), promując w ten sposób szybką iterację i innowacje oprogramowania.

Ogromny sukces projektów open-source, takich jak Linux, zweryfikował punkt widzenia Raymonda.

Ruch open-source przyniósł Stanom Zjednoczonym i światu ogromną wartość, która znacznie przekracza jego własną inwestycję. Raport badawczy z Uniwersytetu Harvarda z 2024 roku stwierdza: ‘Open-source zainwestował 4,15 miliarda dolarów i stworzył 8,8 biliona dolarów wartości dla firm (to znaczy, każdy zainwestowany dolar tworzy 2000 dolarów wartości). Bez open source wydatki korporacyjne na oprogramowanie byłyby 3,5 razy większe niż obecnie.’

Dziś chińskie firmy się tego nauczyły. Amerykańskie firmy AI wydają się o tym zapominać.

W rzeczywistości, dla chińskich firm zajmujących się dużymi modelami, nawet jeśli nie biorą pod uwagę korzyści społecznych, wybór przyjęcia ekosystemu open-source nie jest nieopłacalny dla samych firm.

Wiele firm zajmujących się dużymi modelami powiedziało Observer.com, że open source nie oznacza rezygnacji z komercjalizacji. Open source nadal ma logikę zysku open source. W porównaniu z tym, czy jest open source, czy nie, kluczową kwestią jest to, jak lepiej obsługiwać klientów technicznie.

Biorąc jako przykład Zhipu AI, twierdzi, że jest jedyną firmą w Chinach, która w pełni benchmarkuje OpenAI, ale w porównaniu ze strategią zamkniętego kodu źródłowego OpenAI, jest jednym z najbardziej zdeterminowanych praktyków strategii open-source w branży.

Zhipu jako pierwszy udostępnił pierwszy chiński model Chat ChatGLM-6B w 2023 roku. Od momentu powstania prawie sześć lat temu, Zhipu udostępnił ponad 55 modeli, z łączną liczbą pobrań wynoszącą prawie 40 milionów razy w międzynarodowej społeczności open-source.

Zhipu powiedział Observer.com, że Zhipu ma nadzieję, że jego strategia open-source przyczyni się do przekształcenia Pekinu w ‘globalną stolicę open-source’ dla sztucznej inteligencji.

Konkretnie, na poziomie komercyjnym, Zhipu zdecydował się przyciągnąć ekosystem programistów za pośrednictwem open source i zapewnić płatne, dostosowane rozwiązania klientom B-end i G-end.

Oprócz sprzedaży rozwiązań, sprzedaż API jest również ważnym ogniwem zysku.

Biorąc jako przykład DeepSeek, pierwszym biznesem modelu open-source jest sprzedaż wysokowydajnych API. Chociaż podstawowe usługi są bezpłatne, firmy mogą świadczyć wysokowydajne usługi API i pobierać opłaty na podstawie użytkowania. Ceny API dla DeepSeek-R1 wynoszą 1 juana za milion tokenów wejściowych i 16 juanów za milion tokenów wyjściowych. Jeśli bezpłatny limit tokenów zostanie wyczerpany lub podstawowe API nie spełniają potrzeb, użytkownicy mają tendencję do korzystania z płatnej wersji, aby utrzymać stabilność procesów biznesowych.

W porównaniu z firmami, które mają tylko usługi modelowe, Alibaba wybrała inny model monetyzacji open-source: łączenie ekosystemów.

Seria Qwen Alibaba, jako pionier open-source, przyciąga programistów do korzystania z przetwarzania w chmurze i innej infrastruktury poprzez pełny tryb open source, tworząc scenariusz zamkniętej pętli. Ich model jest tylko wprowadzeniem na wczesnym etapie, a towary z oznaczonymi cenami to w rzeczywistości usługi w chmurze.

Globalizacja chińskich dużych modeli open-source przeszła od ‘podążania za technologią’ do ‘dominacji ekosystemu’. Kiedy Stany Zjednoczone są uwięzione w dylemacie ‘monopolu zamkniętego kodu źródłowego’ i ‘open-source wymykającego się spod kontroli’, Chiny rekonstruują podstawową logikę globalnego ekosystemu open-source AI poprzez ‘innowacje w zakresie umów + kultywację scenariuszy’. Ostateczne pole bitwy w tej grze nie znajduje się w konkurencji skali parametrów, ale na rynku o wartości bilionów dolarów głębokiej integracji technologii AI i realnej gospodarki.