Literacki Festiwal, Objawienie AI
Kilka tygodni temu, tętniący życiem Jaipur Literature Festival (JLF) w Indiach stał się nieoczekiwanym forum kluczowej dyskusji o przyszłości sztucznej inteligencji. Podczas panelu, który pozornie skupiał się na dziedzictwie imperium, rozmowa gwałtownie zmieniła kierunek. Publiczność, urzeczona książką Pankaja Mishry ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’, zadała serię wnikliwych pytań, nie o literaturę, ale o DeepSeek, nowy generatywny model AI z Chin.
Te pytania – Jak do tego doszliśmy? Jak wytyczyć najlepszą możliwą ścieżkę dla przyszłości AI? Dlaczego open source jest kluczowy w rozwoju AI? – odbiły się szerokim echem daleko poza terenem festiwalu. Dotknęły głęboko zakorzenionej historycznej rywalizacji, tęsknoty za samowystarczalnością i rosnącego globalnego ruchu opowiadającego się za bardziej otwartym i opartym na współpracy podejściem do rozwoju AI.
Historyczne Korzenie Odbioru DeepSeek
Pojawienie się DeepSeek na festiwalu literackim może wydawać się osobliwe. Jednak jego znaczenie jest głęboko splecione z wydarzeniami historycznymi i długotrwałą rywalizacją, szczególnie między Azją a Zachodem. Podczas gdy europejskie laboratoria AI zyskały uznanie za swoje przełomowe rozwiązania open-source, odbiór DeepSeek w Azji ma znacznie głębszy historyczny wydźwięk.
Premiera DeepSeek spotkała się z intensywnym zainteresowaniem mediów. Jego recepcja na JLF ujawniła nastroje, które wykraczały poza zwykłe dyskusje o wydajności AI. Indyjscy pisarze i dziennikarze, często krytyczni wobec Chin, zjednoczyli się we wspólnej walce z dominacją amerykańskich korporacji AI (AICs). Ten entuzjazm dla DeepSeek w całej Azji jest zakorzeniony w historii kolonialnej, a ostatnio w prowokacyjnych korporacyjnych oświadczeniach.
AI: Współczesna Walka o Samowystarczalność
Dla Stephena Platta, autora ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’, ambicje technologiczne Chin są nierozerwalnie związane z ich historycznymi bliznami. Wojny opiumowe (1839–1860) służą jako silny symbol tego, jak brytyjska przewaga technologiczna i militarna upokorzyła Chiny. To “Stulecie Upokorzenia” napędza obecne dążenie Chin do samowystarczalności, ich agresywne inwestycje w AI, półprzewodniki i inne kluczowe technologie. Jest to determinacja, aby uniknąć zależności od zachodniej technologii, lekcja wyryta w narodowej świadomości.
Indyjscy paneliści na JLF znaleźli wspólny mianownik w tej narracji. Podobnie jak Chiny, Indie noszą mroczne piętno wpływu Kompanii Wschodnioindyjskiej. Co więcej, brytyjska dziennikarka Anita Anand zwróciła uwagę na kontrowersyjne wideo, w którym dyrektor generalny OpenAI, Sam Altman, lekceważy potencjał Indii do konkurowania z AICs w szkoleniu modeli podstawowych, stwierdzając, że jest to “całkowicie beznadziejne”. Takie uwagi tylko wzmocniły determinację do samowystarczalności w regionie.
Open Source AI: Symbol Oporu
DeepSeek i europejskie laboratoria, które go poprzedziły, zaoferowały promyk nadziei w wyścigu AI. Ich wybór, aby przyjąć open source, stał się potężnym symbolem oporu przeciwko dominacji zastrzeżonych modeli AI.
Wydanie DeepSeek R1 musi być rozumiane w kontekście głęboko zakorzenionej rywalizacji, szczególnie ze Stanami Zjednoczonymi. Ta rywalizacja jest tak głęboka, że Europa jest często pomijana w dyskusjach o konkurencji z amerykańską technologią.
Dominacja AICs wywołała nawet porównania do kolonializmu na Zachodzie. W artykule z sierpnia 2024 roku zatytułowanym ‘The Rise of Techno-Colonialism’, Hermann Hauser, członek Europejskiej Rady ds. Innowacji, i Hazem Danny Nakib, starszy badacz w University College London (UCL), napisali: ‘W przeciwieństwie do kolonializmu z przeszłości, technokolonializm nie polega na przejmowaniu terytorium, ale na kontrolowaniu technologii, które stanowią podstawę światowej gospodarki i naszego codziennego życia. Aby to osiągnąć, Stany Zjednoczone i Chiny coraz częściej przenoszą do kraju najbardziej innowacyjne i złożone segmenty globalnych łańcuchów dostaw, tworząc w ten sposób strategiczne punkty kontrolne.’
Pionierskie podejście open-source europejskich laboratoriów AI, takich jak Mistral, kyutai i Meta’s FAIR Paris team, a teraz DeepSeek, przedstawiło przekonującą alternatywę dla strategii zastrzeżonego modelu AI stosowanej przez AICs. Te wkłady open-source rezonują globalnie i jeszcze bardziej umocniły przyjęcie open-source AI jako symbolu oporu przeciwko amerykańskiej dominacji AI.
Argument za Open Source: Historia się Powtarza
Współpraca technologiczna rozwija się dzięki energii i szybkości, co jest nieodłącznie związane z ewolucją kodu oprogramowania.
Francuski laureat Nagrody Nobla w dziedzinie ekonomii, Jean Tirole, początkowo zdziwiony pojawieniem się open source, zapytał w swoim artykule z 2000 roku, napisanym wspólnie z Joshem Lernerem, ‘The Simple Economics of Open Source’: ‘Dlaczego tysiące najlepszych programistów miałoby dobrowolnie przyczyniać się do dostarczania dobra publicznego? Jakiekolwiek wyjaśnienie oparte na altruizmie jest tylko częściowo wystarczające.’
Chociaż było to zrozumiałe w tamtym czasie, każdy, kto śledzi postępy AI w ostatnich latach, zwłaszcza po wydaniu DeepSeek R1, uznałby odpowiedź za oczywistą. Wpływ FAIR Paris w Meta na otwarcie Llama, błyskawiczny wzrost Mistral i jego założycieli poprzez otwarcie modelu uczenia się języków (LLM) 7B oraz DeepSeek R1 pokazują przekonujące powody, dla których ci programiści i naukowcy poświęcają się open source.
Wyjaśnia to również, dlaczego Sam Altman i jego współzałożyciele wybrali nazwę “OpenAI”, aby przyciągnąć talenty. Czy którekolwiek z tych czołowych laboratoriów osiągnęłoby tak głośny rozgłos i zbudowało tak silne marki osobiste w społeczności AI, gdyby zdecydowało się na podejście oparte na własności? Odpowiedź brzmi: zdecydowanie nie.
Dwa mocne cytaty z 1999 roku, autorstwa programisty Richarda Stallmana i dewelopera Erica Raymonda, zawarte na początku artykułu, oświetlają recepcję DeepSeek na JLF i podkreślają głębsze ideologiczne siły, które wchodzą w grę:
‘Idea, że system społeczny oprogramowania prawnie zastrzeżonego – system, który mówi, że nie wolno ci udostępniać ani zmieniać oprogramowania – jest aspołeczny, że jest nieetyczny, że jest po prostu zły, może być zaskoczeniem dla niektórych ludzi. Ale co innego możemy powiedzieć o systemie opartym na dzieleniu społeczeństwa i utrzymywaniu użytkowników w bezradności?’ - Richard Stallman
‘Funkcja użyteczności, którą maksymalizują hakerzy Linuksa, nie jest klasycznie ekonomiczna, ale jest niematerialną satysfakcją własnego ego i reputacją wśród innych hakerów. … Kultury dobrowolne, które działają w ten sposób, nie są w rzeczywistości rzadkością; inną, w której od dawna uczestniczę, jest fandom science fiction, który w przeciwieństwie do hakerstwa wyraźnie rozpoznaje egoboo (wzrost reputacji wśród innych fanów).’ - Eric Raymond
Trajektoria Uniksa w latach 70. i 80. XX wieku stanowi przekonującą analogię do obecnego stanu AI. Początkowa promocja i bezpłatna dystrybucja Uniksa przez AT&T w środowisku akademickim sprzyjały innowacjom i adaptacji. Jednak, gdy AT&T nałożyło zastrzeżoną licencję pod koniec lat 70., nieuchronnie doprowadziło to do uruchomienia przez Uniwersytet Berkeley BSD Unix, otwartej alternatywy, a ostatecznie do stworzenia Linuksa przez Linusa Torvaldsa. Rozwój Linuksa przez Torvaldsa w Europie przesunął epicentrum oprogramowania open-source z dala od USA.
Paralele są uderzające, nawet geograficznie, z ewolucją AI. Tym razem jednak pojawiły się nowe obszary geograficzne: TII z Abu Zabi ze swoimi modelami Falcon, chiński DeepSeek, Qwen Alibaby, a ostatnio indyjskie laboratorium Krutrim AI ze swoimi modelami open-source dla języków indyjskich.
Zespół Meta FAIR Paris, wraz z wiodącymi europejskimi laboratoriami AI i nowszymi czołowymi laboratoriami (DeepSeek, Falcon, Qwen, Krutrim), znacznie przyspieszył innowacje w dziedzinie AI. Poprzez otwarte udostępnianie prac badawczych i kodu, oni:
- Wyszkolili nowe pokolenie inżynierów i badaczy AI w najnowocześniejszych technikach AI.
- Stworzyli ekosystem otwartej współpracy, umożliwiając szybki postęp poza zastrzeżonymi laboratoriami AI.
- Dostarczyli alternatywne modele AI, zapewniając, że AI nie jest zmonopolizowane przez amerykańskie korporacje AI.
Te cztery ekosystemy (Europa, Indie, Abu Zabi i Chiny) mogłyby stworzyć potężny sojusz AI open-source, aby rzucić wyzwanie dominującym AICs, które nadal działają w oparciu o zastrzeżony sposób myślenia o AI.
W kwestionariuszu Ask Me Anything (AMA) z 31 stycznia 2025 roku, po wydaniu DeepSeek R1, Altman przyznał, że podejście oparte na zastrzeżonym modelu AI było po złej stronie historii.
Z czasem laboratoria AI na całym świecie mogą zdecydować się na dołączenie do tego sojuszu, aby wspólnie rozwijać tę dziedzinę. Nie byłby to pierwszy przypadek, gdy dziedzina naukowa przekracza granice i ideologie polityczne poprzez inicjatywę non-profit. Oferuje to sposób konkurowania, który pozwala uniknąć wywoływania antykolonialnych żalów często wyrażanych przez Globalne Południe.
Historyczne Precedensy: Human Genome Project jako Model dla AI
Jako biolog jestem szczególnie świadomy osiągnięć Human Genome Project (HGP) i tego, jak ostatecznie przewyższył on nastawioną na zysk inicjatywę Celera Genomics, przynosząc korzyści tej dziedzinie i całej ludzkości.
HGP był przełomową międzynarodową inicjatywą badawczą, która zmapowała i zsekwencjonowała cały ludzki genom. Zakończony w 2003 roku po 13 latach współpracy, wygenerował prawie 800 miliardów dolarów wpływu ekonomicznego z inwestycji w wysokości 3 miliardów dolarów, zgodnie z raportem z 2011 roku zaktualizowanym w 2013 roku (zwrot z inwestycji dla gospodarki USA wyniósł 141 do jednego – każdy 1 dolar federalnej inwestycji w HGP przyczynił się do wygenerowania 141 dolarów w gospodarce). Zrewolucjonizował medycynę, biotechnologię i genetykę, umożliwiając postęp w medycynie spersonalizowanej, zapobieganiu chorobom i badaniach genomicznych. Prace nad sekwencjonowaniem i badania były prowadzone przez 20 laboratoriów w sześciu krajach: USA, Wielkiej Brytanii, Francji, Niemczech, Japonii i Chinach.
Podczas gdy Celera Genomics próbowała sekwencjonować sekwencje genomowe dla zysku, HGP priorytetowo traktował otwarte udostępnianie danych, zapisane w Zasadach Bermudzkich. Ustanowione podczas Międzynarodowego Spotkania Strategicznego w sprawie Sekwencjonowania Ludzkiego Genomu na Bermudach w lutym 1996 roku, zasady te miały kluczowe znaczenie w kształtowaniu polityki udostępniania danych dla HGP i miały trwały wpływ na praktyki badawcze w dziedzinie genomiki na całym świecie. Jego kluczowe założenia to:
- Natychmiastowe Upublicznienie Danych: Wszystkie dane dotyczące sekwencji ludzkiego genomu wygenerowane przez HGP miały być udostępniane w publicznych bazach danych, najlepiej w ciągu 24 godzin od wygenerowania. To szybkie rozpowszechnianie miało na celu przyspieszenie odkryć naukowych i maksymalizację korzyści społecznych.
- Bezpłatny i Nieograniczony Dostęp: Dane miały być udostępniane bezpłatnie globalnej społeczności naukowej i opinii publicznej, bez ograniczeń w ich wykorzystaniu do celów badawczych lub rozwojowych.
- Zapobieganie Roszczeniom Dotyczącym Własności Intelektualnej: Uczestnicy zgodzili się, że nie będą zgłaszane żadne prawa własności intelektualnej do pierwotnych danych sekwencji genomowej, promując etos otwartej nauki i zapobiegając potencjalnym przeszkodom w badaniach z powodu patentowania.
Pod względem zarządzania, HGP był wspólną i skoordynowaną inicjatywą naukową, a nie samodzielną organizacją lub korporacją. Był to zdecentralizowany wysiłek finansowany z dotacji rządowych i kontraktów dla różnych instytucji badawczych. Część jego budżetu (3–5%) została przeznaczona na badanie i rozwiązywanie problemów etycznych, prawnych i społecznych związanych z sekwencjonowaniem ludzkiego genomu.
Łączenie Bezpieczeństwa AI i Open Source AI
Kolejną kluczową zaletą open-source AI jest jego rola w badaniach nad bezpieczeństwem AI.
Szczyt AI w Seulu w 2024 roku skupił się wyłącznie na zagrożeniach egzystencjalnych w czasie, gdy AICs miały znaczną przewagę nad resztą świata. Jeszcze w maju 2024 roku były dyrektor generalny Google, Eric Schmidt, twierdził, że USA wyprzedzają Chiny o 2–3 lata w dziedzinie AI, podczas gdy Europa jest zbyt zajęta regulacjami, aby być istotna. Gdyby szczyt się powiódł, skutecznie oddałby kontrolę nad decyzjami dotyczącymi bezpieczeństwa AI tym korporacjom. Na szczęście tak się nie stało.
Teraz, gdy open-source AI wypełnia lukę technologiczną, dyskusje na temat bezpieczeństwa nie będą już dyktowane wyłącznie przez garstkę dominujących graczy. Zamiast tego szersza i bardziej zróżnicowana grupa interesariuszy – w tym badacze, decydenci i laboratoria AI z Europy, Indii, Chin i Abu Zabi – ma możliwość kształtowania dyskusji wraz z AICs.
Co więcej, open-source AI zwiększa globalne możliwości odstraszania, zapewniając, że żaden pojedynczy podmiot nie może zmonopolizować ani niewłaściwie wykorzystać zaawansowanych systemów AI bez odpowiedzialności. To zdecentralizowane podejście do bezpieczeństwa AI pomoże złagodzić potencjalne zagrożenia egzystencjalne, rozkładając zarówno możliwości, jak i nadzór bardziej sprawiedliwie w całym globalnym ekosystemie AI.
Human AI Project z Zasadami Paryskimi
Jaką rolę może odegrać AI Action Summit w Paryżu w przyszłym tygodniu w kształtowaniu przyszłości AI?
Stanowi to kluczową okazję do ustanowienia Human AI Project, wzorowanego na Human Genome Project, w celu rozwoju i wspierania rozwoju open-source AI na skalę globalną. Obecne wkłady open-source, od pionierskich europejskich laboratoriów AI po DeepSeek, już przyspieszają tę dziedzinę i pomagają zmniejszyć dystans do AICs.
Możliwości AI są znacznie zwiększone dzięki dojrzałości ogólnego ekosystemu open-source, z tysiącami dojrzałych projektów, dedykowanymi modelami zarządzania i głęboką integracją z przedsiębiorstwami, środowiskiem akademickim i rządem.
Ekosystem open-source AI korzysta również z platform takich jak Github i Gitlab. Niedawno dedykowane platformy dla open-source AI, takie jak Hugging Face – amerykańska korporacja współzałożona przez trzech francuskich przedsiębiorców – zaczęły odgrywać kluczową rolę jako platformy dystrybucyjne dla społeczności.
Biorąc pod uwagę względną dojrzałość ekosystemu open-source AI w porównaniu z sekwencjonowaniem ludzkiego genomu na początku lat 90., w jaki sposób open-source AI mógłby skorzystać z Human AI Project?
Po pierwsze, Unia Europejska jest często krytykowana przez AICs i własne czołowe laboratoria AI za regulację open source. Human AI Project mógłby poświęcić wspólny wysiłek na opracowanie dostosowania regulacyjnego i standardów w krajach i regionach uczestniczących. Skoordynowane podejście, z początkowym wkładem Europy, Indii, Abu Zabi i Chin, mogłoby ułatwić rozpowszechnianie modeli open-source w tym wspólnym regionie regulacyjnym (rodzaj strefy wolnego handlu dla open source).
Chociaż nie zostało to ostatecznie udowodnione, istnieją paralele z dynamiką napędzaną rywalizacją, która ukształtowała reakcję na DeepSeek na JLF. Podobnie, regulacja AI mogłaby zostać opracowana z naciskiem na wspieranie innowacji i maksymalizację korzyści publicznych – zarówno dla przedsiębiorstw, jak i konsumentów – a nie służyć jako potencjalny mechanizm utrudniający postęp AICs lub utrudniający rodzimym mistrzom AI dążącym do zmniejszenia dystansu.
Projekt mógłby również ułatwić wymianę talentów i sfinansować wspólną infrastrukturę obliczeniową (powiązaną z infrastrukturą energetyczną) dla open-source AI. Z poniższego wykresu jasno wynika, że utalentowani absolwenci STEM w niektórych częściach świata mogą obecnie mieć trudności z dostępem do światowej klasy infrastruktury AI, której brakuje ich krajowi.
Kolejnym obszarem współpracy byłoby ustanowienie najlepszych praktyk w zakresie standardów otwartego dostępu do modeli i zbiorów danych, obejmujących wagi, kod i dokumentację.
Projekt mógłby również wspierać globalną współpracę w zakresie badań nad bezpieczeństwem AI. Zamiast ścigać się w tajemnicy, aby naprawić problemy z dopasowaniem, badacze od Paryża po Pekin i Bangalore mogliby współpracować nad oceną modeli i łagodzeniem zagrożeń. Wszystkie ustalenia dotyczące bezpieczeństwa (np. metody redukcji szkodliwych wyników lub narzędzia do interpretacji) mogłyby być niezwłocznie udostępniane w domenie publicznej.
Ta zasada uznawałaby, że bezpieczeństwo AI jest globalnym dobrem publicznym – przełom w jednym laboratorium (powiedzmy, nowy algorytm, który sprawia, że rozumowanie AI jest przejrzyste) powinien przynieść korzyści wszystkim, a nie być utrzymywany w tajemnicy. Można by zorganizować wspólne testy porównawcze bezpieczeństwa i wydarzenia stanowiące wyzwanie, aby zachęcić do kultury zbiorowej odpowiedzialności. Łącząc badania nad bezpieczeństwem, projekt miałby na celu wyprzedzenie potencjalnego niewłaściwego wykorzystania lub wypadków AI, zapewniając opinię publiczną, że potężne systemy AI są zarządzane z troską.
Koncentracja na ryzyku egzystencjalnym podczas szczytu AI Safety Summit w Bletchley Park w Wielkiej Brytanii w 2023 roku, poprzez nadmierne podkreślanie analogii do proliferacji broni jądrowej, zaprzepaściła okazję do zbadania innych obszarów, w których bezpieczeństwo jest uważane za dobro publiczne: cyberbezpieczeństwo, antybiotyki i immunologia (z kilkoma interesującymi inicjatywami po Covid-19) oraz bezpieczeństwo lotnicze.
Projekt mógłby również współpracować i wspierać prace prowadzone obecnie przez prywatną ARC Prize Foundation w celu wspierania rozwoju bezpiecznych i zaawansowanych systemów AI. ARC Prize, współzałożona przez François Cholleta, twórcę biblioteki open-source Keras, i Mike’a Knoopa, współzałożyciela firmy programistycznej Zapier, jest organizacją non-profit, która organizuje publiczne konkursy w celu rozwoju badań nad sztuczną inteligencją ogólną (AGI). Ich flagowym wydarzeniem, konkursem ARC Prize, oferuje ponad 1 milion dolarów uczestnikom, którzy mogą opracować i otworzyć rozwiązania dla benchmarku ARC-AGI – testu zaprojektowanego do oceny zdolności systemu AI do uogólniania i efektywnego nabywania nowych umiejętności.
Nacisk ARC Prize Foundation na rozwiązania open-source i publiczne konkursy jest doskonale zgodny z celami Human AI Project, polegającymi na wspieraniu międzynarodowej współpracy i przejrzystości w rozwoju AI, jak stwierdzono na stronie internetowej ARC Prize Foundation w sekcji ‘AGI’:
‘LLM są szkolone na niewyobrażalnie ogromnych ilościach danych, a mimo to nie są w stanie dostosować się do prostych problemów, na których nie były szkolone, ani dokonywać nowatorskich wynalazków, bez względu na to, jak podstawowe. Silne bodźce rynkowe sprawiły, że czołowe badania nad AI stały się zamknięte. Uwaga badawcza i zasoby są kierowane w ślepy zaułek. ARC Prize ma na celu zainspirowanie badaczy do odkrywania nowych podejść technicznych, które popchną naprzód otwarty postęp AGI.’
Podobnie jak HGP, Human AI Project przeznaczyłby część swojego finansowania na zarządzanie etyczne i nadzór. Obejmowałoby to dyskusje na temat praw autorskich. Projekt mógłby pomóc społeczeństwu rozważyć etykę bezpłatnego dostępu do najlepszego źródła informacji w szkoleniu przy jednoczesnym opracowywaniu zastrzeżonych modeli na jego podstawie. W dziedzinie biologii dobrze wiadomo, że Protein Data Bank, który był kluczowy dla modelu AlphaFold Google DeepMind do przewidywania struktury białek, prawdopodobnie wymagał równowartości 10 miliardów dolarów finansowania w ciągu 50 lat. Projekt mógłby pomóc w przemyśleniu, w jaki sposób nadal finansujemy rozwój AI lub w jaki sposób zastrzeżone AICs powinny dzielić się przychodami z twórcami oryginalnych prac.
Razem te Zasady Paryskie i Human AI Project pomogłyby rozwijać AI na całym świecie w bardziej otwarty, oparty na współpracy i etyczny sposób. Opierałyby się one na osiągnięciach wiodących dostawców open-source od Europy po Bliski Wschód, Indie, a teraz Chiny, w ramach istniejącego oprogramowania open-source i specyficznych dla AI frameworków i platform.
Historia Rymuje się z AI
Przed nami ogromna szansa. Mistral AI, kyutai, BFL, Stability, a ostatnio DeepSeek dały opinii publicznej nadzieję, że przyszłość, w której współpraca rywalizuje lub nawet przewyższa zastrzeżone AICs, jest możliwa.
Jesteśmy wciąż na wczesnym etapie tego technologicznego przełomu. Powinniśmy być wdzięczni za wkład, jaki AICs wniosły do tej dziedziny. AI Action Summit powinien być okazją do wspierania innowacji opartej na współpracy na niespotykaną dotąd skalę i sprowadzenia jak największej liczby graczy na właściwą stronę historii.
Jest rok 1789. Jesteśmy świadkami walki o suwerenność technologiczną, decentralizację władzy i wezwanie do AI jako dobra publicznego. I tak jak w 1789 roku, ta rewolucja nie zostanie powstrzymana.