От Джайпур до DeepSeek: Зов за Отворен Код

Литературен фестивал, откровение за изкуствения интелект

Преди няколко седмици оживеният Литературен фестивал в Джайпур (JLF) в Индия се превърна в неочакван форум за ключова дискусия относно бъдещето на изкуствения интелект (AI). По време на панел, привидно фокусиран върху наследството на империята, разговорът пое рязък обрат. Публиката, запленена от ‘От руините на империята: Бунтът срещу Запада и преобразяването на Азия’ на Панкадж Мишра, зададе поредица от целенасочени въпроси, не за литературата, а за DeepSeek, нов генеративен AI модел от Китай.

Тези въпроси – Как стигнахме дотук? Как да изградим най-добрия възможен път за бъдещето на AI? Защо отвореният код е ключов за развитието на AI? – отекнаха далеч отвъд фестивалните площадки. Те засегнаха дълбоко вкоренено историческо съперничество, копнеж за самостоятелност и нарастващо глобално движение, застъпващо се за по-отворен и съвместен подход към развитието на AI.

Историческите корени на приемането на DeepSeek

Появата на DeepSeek на литературен фестивал може да изглежда особена. Въпреки това, неговата значимост е дълбоко преплетена с исторически събития и дългогодишно съперничество, особено между Азия и Запада. Докато европейските AI лаборатории са получили признание за своите пробиви с отворен код, приемането на DeepSeek в Азия носи много по-дълбок исторически резонанс.

Пускането на DeepSeek беше посрещнато с интензивно медийно отразяване. Приемането му на JLF разкри чувство, което надхвърляше обикновените дискусии за ефективността на AI. Индийски писатели и журналисти, често критични към Китай, се оказаха обединени от обща борба срещу доминацията на американските AI корпорации (AICs). Този ентусиазъм за DeepSeek в цяла Азия се корени в колониалната история и, по-скоро, в провокативни корпоративни изявления.

AI: Модерна борба за самостоятелност

За Стивън Плат, автор на ‘Имперски здрач: Опиумната война и краят на последната златна ера на Китай’, технологичните амбиции на Китай са неразделни от неговите исторически белези. Опиумните войни (1839–1860) служат като мощен символ на това как технологичното и военно превъзходство на Великобритания унижава Китай. Този ‘Век на унижението’ подхранва настоящия стремеж на Китай към самостоятелност, неговите агресивни инвестиции в AI, полупроводници и други критични технологии. Това е решимост да се избегне зависимостта от западните технологии, урок, врязан в националното съзнание.

Индийските участници в JLF намериха общ език в този разказ. Подобно на Китай, Индия носи тъмния белег на влиянието на Източноиндийската компания. Освен това британската журналистка Анита Ананд подчерта противоречиво видео на главния изпълнителен директор на OpenAI Сам Алтман, който отхвърля потенциала на Индия да се конкурира с AICs в обучението на основни модели, заявявайки, че е ‘напълно безнадеждно’. Подобни забележки само засилиха решимостта за самостоятелност в региона.

Отворен код AI: Символ на съпротива

DeepSeek, и европейските лаборатории, които го предшестваха, предложиха лъч надежда в надпреварата за AI. Техният избор да прегърнат отворения код се превърна в мощен символ на съпротива срещу доминацията на собственическите AI модели.

Пускането на DeepSeek R1 трябва да се разбира в контекста на дълбоко вкоренено съперничество, особено със Съединените щати. Това съперничество е толкова дълбоко, че Европа често се пренебрегва в дискусиите за конкуренцията с американските технологии.

Доминацията на AICs дори предизвика сравнения с колониализма на Запад. В статия от август 2024 г., озаглавена ‘Възходът на техно-колониализма’, Херман Хаузер, член на Европейския съвет за иновации, и Хазем Дани Накиб, старши изследовател в University College London (UCL), пишат: ‘За разлика от колониализма от миналото, техно-колониализмът не е свързан със завземане на територия, а с контролиране на технологиите, които са в основата на световната икономика и нашето ежедневие. За да постигнат това, САЩ и Китай все повече оншорират най-иновативните и сложни сегменти от глобалните вериги за доставки, като по този начин създават стратегически точки на задушаване.’

Пионерският подход с отворен код на европейски AI лаборатории като Mistral, kyutai и Meta’s FAIR Paris team, а сега и DeepSeek, представи убедителна алтернатива на стратегията за собственически AI модели на AICs. Тези приноси с отворен код резонират в световен мащаб и допълнително затвърдиха приемането на AI с отворен код като символ на съпротива срещу американското AI господство.

Аргументът за отворен код: Историята се римува

Технологичното сътрудничество процъфтява благодарение на енергията и скоростта, нещо, което е присъщо на еволюцията на софтуерния код.

Френският лауреат на Нобелова награда за икономика Жан Тирол, първоначално озадачен от появата на отворения код, се запита в своята статия от 2000 г. с Джош Лърнър, ‘Простата икономика на отворения код’: ‘Защо хиляди първокласни програмисти трябва да допринасят свободно за предоставянето на обществено благо? Всяко обяснение, основано на алтруизъм, стига само дотук.’

Макар и разбираемо за времето си, всеки, който следи напредъка на AI през последните години, особено след пускането на DeepSeek R1, би намерил отговора за очевиден. Въздействието на FAIR Paris при отварянето на Llama от Meta, метеоричният възход на Mistral и неговите основатели чрез отварянето на 7B модел за изучаване на езици (LLM) и DeepSeek R1 демонстрират убедителните причини зад отдадеността на тези програмисти и учени на отворения код.

Това също така изяснява защо Сам Алтман и неговите съоснователи са избрали името ‘OpenAI’, за да привлекат таланти. Дали някоя от тези гранични лаборатории би постигнала такава гръмка публичност и би изградила толкова силни лични марки в рамките на AI общността, ако бяха избрали собственически подход? Отговорът е категорично не.

Две силни цитата от 1999 г., съответно от програмиста Ричард Столман и разработчика Ерик Реймънд, включени в началото на статията, осветляват приемането на DeepSeek на JLF и подчертават по-дълбоките идеологически сили в действие:

  • ‘Идеята, че социалната система за собственически софтуер – системата, която казва, че нямате право да споделяте или променяте софтуер – е несоциална, че е неетична, че е просто погрешна, може да изненада някои хора. Но какво друго можем да кажем за система, основана на разделяне на обществото и поддържане на потребителите безпомощни?’ - Ричард Столман

  • ‘Функцията за полезност, която хакерите на Linux максимизират, не е класически икономическа, а е нематериалното удовлетворение на собственото им его и репутацията сред другите хакери. … Доброволните култури, които работят по този начин, всъщност не са необичайни; една друга, в която отдавна участвам, е фендъмът на научната фантастика, който за разлика от хакерството изрично признава egoboo (повишаването на репутацията на човек сред другите фенове).’ - Ерик Реймънд

Траекторията на Unix през 70-те и 80-те години на миналия век предоставя убедителна аналогия за текущото състояние на AI. Първоначалното популяризиране и безплатно разпространение на Unix в рамките на академичните среди от AT&T насърчи иновациите и приемането. Въпреки това, когато AT&T наложи собственически лиценз в края на 70-те години, това неизбежно доведе до стартирането на BSD Unix от университета Бъркли, отворена алтернатива, и в крайна сметка Линус Торвалдс да създаде Linux. Разработката на Linux от Торвалдс в Европа измести епицентъра на софтуера с отворен код от САЩ.

Паралелите са поразителни, дори географски, с еволюцията на AI. Този път обаче се появиха нови географски области: TII на Абу Даби със своите Falcon Models, DeepSeek на Китай, Qwen на Alibaba и по-скоро Krutrim AI Lab на Индия със своите модели с отворен код за индийски езици.

Екипът на Meta FAIR Paris, заедно с водещи европейски AI лаборатории и по-нови гранични лаборатории (DeepSeek, Falcon, Qwen, Krutrim), значително ускориха AI иновациите. Чрез открито споделяне на научни статии и код, те:

  • Обучиха ново поколение AI инженери и изследователи в най-съвременните AI техники.
  • Създадоха екосистема на отворено сътрудничество, позволяваща бърз напредък извън собственическите AI лаборатории.
  • Предоставиха алтернативни AI модели, гарантирайки, че AI не е монополизиран от американските AI корпорации.

Тези четири екосистеми (Европа, Индия, Абу Даби и Китай) биха могли да създадат мощен AI алианс с отворен код, за да предизвикат доминиращите AICs, които все още работят под собственическо AI мислене.

Във въпросник Ask Me Anything (AMA) на 31 януари 2025 г., след пускането на DeepSeek R1, Алтман призна, че подходът на собственическия AI модел е бил от грешната страна на историята.

С времето AI лабораториите по целия свят могат да изберат да се присъединят към този алианс, за да напреднат колективно в областта. Това не би бил първият случай, в който научна област надхвърля границите и политическите идеологии чрез инициатива с нестопанска цел. Той предлага начин на конкуренция, който избягва предизвикването на антиколониалните оплаквания, често изразявани от Глобалния юг.

Исторически прецеденти: Проектът за човешкия геном като модел за AI

Като биолог, аз съм особено наясно с постиженията на Проекта за човешкия геном (HGP) и как той в крайна сметка надмина инициативата с цел печалба на Celera Genomics, облагодетелствайки областта и човечеството като цяло.

HGP беше новаторска международна изследователска инициатива, която картографира и секвенира целия човешки геном. Завършен през 2003 г. след 13 години сътрудничество, той е генерирал близо 800 милиарда долара икономическо въздействие от инвестиция от 3 милиарда долара, според доклад от 2011г., актуализиран през 2013 г. (възвръщаемост на инвестициите за икономиката на САЩ от 141 към едно – всеки $1 федерална инвестиция в HGP е допринесъл за генерирането на $141 в икономиката). Той революционизира медицината, биотехнологиите и генетиката, позволявайки напредък в персонализираната медицина, превенцията на заболяванията и геномните изследвания. Работата по секвенирането и изследванията бяха проведени от 20 лаборатории в шест държави: САЩ, Великобритания, Франция, Германия, Япония и Китай.

Докато Celera Genomics се опита да секвенира геномни последователности с цел печалба, HGP даде приоритет на отвореното споделяне на данни, залегнало в неговите Бермудски принципи. Установени по време на Международната стратегическа среща за секвениране на човешкия геном на Бермудските острови през февруари 1996 г., тези принципи бяха от решаващо значение за оформянето на политиките за споделяне на данни за HGP и оказаха трайно въздействие върху практиките за геномни изследвания в световен мащаб. Основните му принципи бяха:

  1. Незабавно публикуване на данни: Всички данни за човешки геномни последователности, генерирани от HGP, трябваше да бъдат публикувани в публични бази данни, за предпочитане в рамките на 24 часа след генерирането. Това бързо разпространение имаше за цел да ускори научните открития и да увеличи максимално ползите за обществото.
  2. Свободен и неограничен достъп: Данните трябваше да бъдат свободно достъпни за световната научна общност и обществеността, без ограничения за използването им за изследователски или развойни цели.
  3. Предотвратяване на претенции за интелектуална собственост: Участниците се съгласиха, че няма да бъдат предявявани права върху интелектуална собственост върху първичните данни за геномни последователности, насърчавайки етос на отворена наука и предотвратявайки потенциални пречки пред изследванията поради патентоване.

По отношение на управлението, HGP беше съвместна и координирана научна инициатива, а не самостоятелна организация или корпорация. Това беше децентрализирано усилие, финансирано чрез държавни субсидии и договори с различни изследователски институции. Част от бюджета му (3–5%) беше посветена на изучаването и справянето с етични, правни и социални проблеми, свързани със секвенирането на човешкия геном.

Свързване на безопасността на AI и AI с отворен код

Друго решаващо предимство на AI с отворен код е неговата роля в изследванията за безопасност на AI.

Срещата на върха за AI в Сеул през 2024 г. се фокусира изключително върху екзистенциалните рискове в момент, когато AICs имаха значителна преднина пред останалия свят. Съвсем наскоро, през май 2024 г., бившият главен изпълнителен директор на Google Ерик Шмид заяви, че САЩ са с 2–3 години пред Китай в AI, докато Европа е твърде заета с регулирането, за да бъде релевантна. Ако срещата на върха беше успяла, тя ефективно щеше да отстъпи контрола върху решенията за безопасност на AI на тези корпорации. За щастие, това не се случи.

Сега, когато AI с отворен код преодолява технологичната пропаст, дискусиите за безопасността вече няма да се диктуват единствено от шепа доминиращи играчи. Вместо това, по-широка и по-разнообразна група заинтересовани страни – включително изследователи, политици и AI лаборатории от Европа, Индия, Китай и Абу Даби – имат възможността да оформят дискусията заедно с AICs.

Освен това, AI с отворен код подобрява глобалните възможности за възпиране, като гарантира, че нито един актьор не може да монополизира или злоупотреби с усъвършенствани AI системи без отчетност. Този децентрализиран подход към безопасността на AI ще помогне за смекчаване на потенциалните екзистенциални заплахи чрез по-справедливо разпределяне както на възможностите, така и на надзора в глобалната AI екосистема.

Човешки AI проект с Парижките принципи

Каква роля може да изиграе Срещата на върха за AI действие в Париж следващата седмица в оформянето на бъдещето на AI?

Това представлява решаваща възможност за създаване на Човешки AI проект, моделиран по Проекта за човешкия геном, за да се напредне и подкрепи развитието на AI с отворен код в глобален мащаб. Настоящите приноси с отворен код, от пионерските европейски AI лаборатории до DeepSeek, вече ускоряват областта и помагат за затваряне на пропастта с AICs.

Възможностите на AI са значително подобрени от зрелостта на общата екосистема с отворен код, с хиляди зрели проекти, специални модели на управление и дълбока интеграция в предприятията, академичните среди и правителството.

AI екосистемата с отворен код също се възползва от платформи като Github и Gitlab. По-скоро специални платформи за AI с отворен код, като Hugging Face – американска корпорация, съоснована от трима френски предприемачи – започнаха да играят жизненоважна роля като платформи за разпространение за общността.

Като се има предвид относителната зрялост на AI екосистемата с отворен код в сравнение със секвенирането на човешкия геном в началото на 90-те години, как AI с отворен код би могъл да се възползва от Човешки AI проект?

На първо място, Европейският съюз често е критикуван от AICs и собствените си гранични AI лаборатории за регулирането на отворения код. Човешки AI проект би могъл да посвети съвместни усилия за разработване на регулаторно съгласуване и стандарти в участващите страни и региони. Координиран подход, с първоначални приноси от Европа, Индия, Абу Даби и Китай, би могъл да улесни разпространението на модели с отворен код в този споделен регулаторен регион (вид зона за свободна търговия за отворен код).

Макар и да не е окончателно доказано, има паралели с динамиката, водена от съперничеството, която оформи реакцията на DeepSeek на JLF. По подобен начин регулирането на AI може да бъде изработено с фокус върху насърчаване на иновациите и максимизиране на обществената полза – както за предприятията, така и за потребителите – вместо да служи като потенциален механизъм за възпрепятстване на напредъка на AICs или възпрепятстване на местните AI шампиони, стремящи се да затворят пропастта.

Проектът може също така да улесни обмена на таланти и да финансира споделена изчислителна инфраструктура (свързана с енергийната инфраструктура) за AI с отворен код. От диаграмата по-долу е видно, че талантливите STEM завършили в някои части на света може в момента да се борят за достъп до AI инфраструктура от световна класа, която липсва на тяхната страна.

Друга област на сътрудничество би била установяването на най-добри практики относно стандартите за отворен достъп за модели и набори от данни, обхващащи тегла, код и документация.

Проектът може също така да насърчи глобалното сътрудничество в изследванията за безопасност на AI. Вместо да се състезават тайно за коригиране на проблеми с подравняването, изследователи от Париж до Пекин до Бангалор биха могли да работят заедно за оценка на моделите и смекчаване на рисковете. Всички констатации за безопасността (напр. методи за намаляване на вредните резултати или инструменти за интерпретируемост) биха могли да бъдат споделени незабавно в отворената област.

Този принцип би признал, че безопасността на AI е глобално обществено благо – пробив в една лаборатория (да речем, нов алгоритъм за прозрачност на AI разсъжденията) трябва да е от полза за всички, а не да се пази като собственост. Могат да се организират съвместни бенчмаркове за безопасност и предизвикателни събития, за да се насърчи култура на колективна отговорност. Чрез обединяване на изследванията за безопасността, проектът ще има за цел да изпревари потенциалната злоупотреба с AI или инциденти, уверявайки обществеността, че мощните AI системи се управляват с грижа.

Фокусът върху екзистенциалния риск на Срещата на върха за безопасност на AI в Обединеното кралство през 2023 г. в Блечли Парк, чрез прекомерно подчертаване на аналогията с разпространението на ядрено оръжие, пропусна възможността да се проучат други области, където безопасността се счита за обществено благо: киберсигурност, антибиотици и имунология (с няколко интересни инициативи след Covid-19) и авиационна безопасност.

Проектът може също така да си партнира и да продължи работата, извършвана в момента от частната фондация ARC Prize, за да насърчи разработването на безопасни и усъвършенствани AI системи. ARC Prize, съоснована от Франсоа Шоле, създател на библиотеката с отворен код Keras, и Майк Кнуп, съосновател на софтуерната компания Zapier, е организация с нестопанска цел, която организира публични състезания за напредък в изследванията на изкуствения общ интелект (AGI). Тяхното водещо събитие, състезанието ARC Prize, предлага над 1 милион долара на участниците, които могат да разработят и отворят решения за бенчмарка ARC-AGI – тест, предназначен да оцени способността на AI системата да се обобщава и да придобива нови умения ефективно.

Акцентът на фондация ARC Prize върху решенията с отворен код и публичните състезания се съгласува безпроблемно с целите на Човешкия AI проект за насърчаване на международното сътрудничество и прозрачност в развитието на AI, както е посочено на уебсайта на фондация ARC Prize под ‘AGI’:

‘LLMs са обучени на невъобразимо огромни количества данни, но все още не могат да се адаптират към прости проблеми, за които не са били обучени, или да правят нови изобретения, колкото и основни да са те. Силните пазарни стимули тласнаха граничните AI изследвания да преминат към затворен код. Изследователското внимание и ресурси се насочват към задънена улица. ARC Prize е предназначен да вдъхнови изследователите да открият нови технически подходи, които да тласнат напредъка на отворения AGI.’

Подобно на HGP, Човешкият AI проект ще посвети част от финансирането си на етично управление и надзор. Това би включвало дискусии относно авторското право. Проектът може да помогне на обществото да обмисли етиката на достъпа до най-добрия източник на информация в обучението безплатно, докато се разработват собственически модели върху него. В областта на биологията е добре известно, че Protein Data Bank, която беше от решаващо значение за модела AlphaFold на Google DeepMind за прогнозиране на структурата на протеините, вероятно е изисквала еквивалента на 10 милиарда долара финансиране за период от 50 години. Проектът може да помогне в обмислянето на това как да продължим да финансираме развитието на AI или как собственическите AICs трябва да споделят приходите с оригиналните създатели на произведения.

Заедно тези Парижки принципи и Човешкият AI проект биха помогнали за напредъка на AI в световен мащаб по по-отворен, съвместен и етичен начин. Те биха надградили постиженията на водещите участници с отворен код от Европа до Близкия изток, Индия, а сега и Китай, в рамките на съществуващия софтуер с отворен код и специфичните за AI рамки и платформи.

Историята се римува с AI

Възможността пред нас е огромна. Mistral AI, kyutai, BFL, Stability, а напоследък и DeepSeek дадоха на обществеността надежда, че бъдеще, в което сътрудничеството съперничи или дори надминава собственическите AICs, е възможно.

Все още сме в ранните етапи на този технологичен пробив. Трябва да сме благодарни за приноса, който AICs са направили в областта. Срещата на върха за AI действие трябва да бъде възможност за насърчаване на съвместни иновации в безпрецедентен мащаб и привличане на възможно най-много играчи от правилната страна на историята.

Отново е 1789 г. Свидетели сме на борба за технологичен суверенитет, децентрализация на властта и призив за AI като обществено благо. И точно както през 1789 г., тази революция няма да бъде овладяна.