Termin ‘open source’ niegdyś rezonował z pewną klarownością, obietnicą dzielenia się wiedzą i wspólnego postępu, który napędzał niezliczone skoki naukowe i technologiczne. Przywoływał obrazy społeczności budujących razem, analizujących wzajemnie swoją pracę i stojących na ramionach gigantów, ponieważ plany były swobodnie dostępne. Teraz, poruszając się po krajobrazie Sztucznej Inteligencji (AI), termin ten wydaje się coraz bardziej… śliski. Jak podkreślono na łamach Nature oraz szeptano w laboratoriach i salach konferencyjnych, niepokojąca liczba graczy w gorączce złota AI okrywa swoje dzieła płaszczem ‘open source’, jednocześnie trzymając naprawdę krytyczne komponenty pod kluczem. To nie jest tylko semantyczna drobnostka; to praktyka, która podkopuje same fundamenty integralności naukowej i grozi zaciemnieniem ścieżki przyszłych innowacji. Społeczność badawcza, grupa, która może najwięcej zyskać lub stracić, musi rozpoznać tę szaradę i stanowczo opowiedzieć się za systemami AI, które autentycznie ucieleśniają zasady przejrzystości i odtwarzalności, na których od dawna polegamy.
Złoty Wiek Otwartości: Dziedzictwo Zagrożone
Przez dziesięciolecia ruch open-source był niedocenianym bohaterem postępu naukowego. Pomyślmy nie tylko o znanych narzędziach, takich jak R Studio do statystycznych czarów czy OpenFOAM do modelowania dynamiki płynów. Rozważmy fundamentalne systemy, takie jak Linux, zasilający ogromne połacie internetu i klastrów obliczeń naukowych, czy serwer WWW Apache, świadectwo wspólnego rozwoju oprogramowania. Filozofia była prosta: zapewnić dostęp do kodu źródłowego, zezwolić na modyfikację i redystrybucję na podstawie liberalnych licencji oraz wspierać globalny ekosystem, w którym ulepszenia przynoszą korzyści wszystkim.
To nie był zwykły altruizm; to był pragmatyczny geniusz. Otwartość przyspieszała odkrycia. Badacze mogli replikować eksperymenty, weryfikować wyniki i budować na istniejącej pracy bez wymyślania koła na nowo czy poruszania się po nieprzejrzystych systemach własnościowych. Budowało to zaufanie, ponieważ wewnętrzne mechanizmy były dostępne do inspekcji, co pozwalało na wspólne znajdowanie i naprawianie błędów. Demokratyzowało dostęp, umożliwiając naukowcom i programistom na całym świecie, niezależnie od przynależności instytucjonalnej czy budżetu, uczestnictwo w przełomowych pracach. Ten duch współpracy, zbudowany na wspólnym dostępie i wzajemnej kontroli, głęboko zakorzenił się w samej metodzie naukowej, zapewniając solidność i wspierając szybki postęp w różnych dziedzinach. Sama możliwość analizowania, rozumienia i modyfikowania używanych narzędzi była najważniejsza. Nie chodziło tylko o używanie oprogramowania; chodziło o zrozumienie, jak ono działa, zapewnienie jego przydatności do konkretnego zadania naukowego i wnoszenie wkładu z powrotem do zbiorowej puli wiedzy. Ten cnotliwy cykl napędzał innowacje w bezprecedensowym tempie.
Zależność AI od Danych: Dlaczego ‘Kod Jest Królem’ To Za Mało
Wkraczamy w erę wielkoskalowej Sztucznej Inteligencji, w szczególności modeli fundamentalnych, które przyciągają tak wiele uwagi i inwestycji. Tutaj tradycyjny paradygmat open-source, skoncentrowany głównie na kodzie źródłowym, napotyka fundamentalne niedopasowanie. Chociaż algorytmy i kod używane do budowy modelu AI są z pewnością częścią obrazu, daleko im do całości. Nowoczesna AI, zwłaszcza modele głębokiego uczenia, są żarłocznymi konsumentami danych. Dane treningowe to nie tylko wejście; można argumentować, że są głównym determinantem możliwości, uprzedzeń i ograniczeń modelu.
Udostępnienie kodu modelu, a nawet jego ostatecznych wytrenowanych parametrów (‘wag’), bez zapewnienia znaczącego dostępu do lub szczegółowych informacji o kolosalnych zbiorach danych użytych do treningu, jest jak wręczenie komuś kluczyków do samochodu, ale odmowa informacji o rodzaju paliwa, jakie bierze, gdzie był prowadzony, czy jak faktycznie zmontowano silnik. Możesz nim jeździć, ale masz ograniczoną zdolność do zrozumienia jego dziwactw w działaniu, diagnozowania potencjalnych problemów lub niezawodnego modyfikowania go na nowe podróże.
Co więcej, zasoby obliczeniowe wymagane do trenowania tych modeli od zera są ogromne, często sięgające milionów dolarów za pojedynczy cykl treningowy. To tworzy kolejną barierę. Nawet gdyby kod i dane były w pełni dostępne, tylko garstka organizacji posiada infrastrukturę do replikacji procesu treningowego. Ta rzeczywistość fundamentalnie zmienia dynamikę w porównaniu z tradycyjnym oprogramowaniem, gdzie kompilacja kodu jest zazwyczaj w zasięgu większości programistów czy badaczy. W przypadku AI prawdziwa odtwarzalność i możliwość eksperymentowania poprzez ponowne trenowanie często pozostają nieuchwytne, nawet gdy komponenty są oznaczone jako ‘otwarte’. Dlatego proste stosowanie starych definicji open-source stworzonych dla kodu nie oddaje potrzeb tej nowej, skoncentrowanej na danych i intensywnej obliczeniowo dziedziny.
‘Openwashing’: Wilk w Owczej Skórze
Ta luka między tradycyjnymi koncepcjami open-source a realiami rozwoju AI stworzyła podatny grunt dla zjawiska znanego jako ‘openwashing’. Firmy chętnie przyklejają etykietę ‘open source’ do swoich modeli AI, czerpiąc korzyści wizerunkowe i dobrą wolę związane z tym terminem, jednocześnie stosując licencje lub ograniczenia dostępu, które zdradzają ducha, jeśli nie ścisłą (i prawdopodobnie przestarzałą) literę, prawdziwej otwartości.
Jak to wygląda w praktyce?
- Udostępnienie Kodu bez Danych: Firma może udostępnić kod architektury modelu, a może nawet wstępnie wytrenowane wagi, pozwalając innym używać modelu ‘tak jak jest’ lub dostrajać go na mniejszych zbiorach danych. Jednak ogromny, fundamentalny zbiór danych treningowych – sekretny składnik definiujący podstawowe zdolności modelu – pozostaje własnościowy i ukryty.
- Restrykcyjne Licencjonowanie: Modele mogą być udostępniane na licencjach, które na pierwszy rzut oka wydają się otwarte, ale zawierają klauzule ograniczające użycie komercyjne, ograniczające wdrożenie w określonych scenariuszach lub zabraniające określonych typów modyfikacji lub analizy. Te ograniczenia są sprzeczne z wolnościami typowo kojarzonymi z oprogramowaniem open-source.
- Niejasne Ujawnienie Danych: Zamiast szczegółowych informacji o źródłach danych, metodach zbierania, procesach czyszczenia i potencjalnych uprzedzeniach, firmy mogą oferować mgliste opisy lub całkowicie pomijać kluczowe szczegóły. Ten brak ‘przejrzystości danych’ uniemożliwia pełną ocenę wiarygodności modelu lub jego implikacji etycznych.
Dlaczego angażować się w takie praktyki? Motywacje są prawdopodobnie różnorodne. Pozytywne konotacje ‘open source’ są niezaprzeczalnie cenne dla przyciągania talentów, budowania społeczności programistów (nawet jeśli ograniczonych) i generowania przychylnej prasy. Bardziej cynicznie, jak sugeruje Nature, mogą istnieć zachęty regulacyjne. Kompleksowy Akt AI Unii Europejskiej z 2024 roku, na przykład, zawiera potencjalne zwolnienia lub łagodniejsze wymagania dla systemów sklasyfikowanych jako open source. Poprzez strategiczne użycie etykiety, niektóre firmy mogą mieć nadzieję na poruszanie się po złożonych krajobrazach regulacyjnych z mniejszym tarciem, potencjalnie unikając kontroli przeznaczonej dla potężnych systemów AI ogólnego przeznaczenia. To strategiczne ćwiczenie brandingowe wykorzystuje historyczną dobrą wolę ruchu open-source, jednocześnie potencjalnie podważając wysiłki na rzecz zapewnienia odpowiedzialnego wdrażania AI.
Spektrum Otwartości: Badanie Przykładów
Kluczowe jest uznanie, że otwartość w AI niekoniecznie jest stanem binarnym; istnieje na spektrum. Jednak obecne praktyki etykietowania często zaciemniają, gdzie dany model faktycznie znajduje się na tym spektrum.
Rozważmy kilka prominentnych przykładów często omawianych w tym kontekście:
- Seria Llama firmy Meta: Chociaż Meta udostępniła wagi i kod modeli Llama, dostęp początkowo wymagał wniosku, a licencja zawierała ograniczenia, szczególnie dotyczące użytkowania przez bardzo duże firmy i określonych zastosowań. Co kluczowe, podstawowe dane treningowe nie zostały udostępnione, ograniczając pełną odtwarzalność i głęboką analizę ich charakterystyk. Chociaż późniejsze wersje dostosowały warunki, podstawowy problem nieprzejrzystości danych często pozostaje.
- Phi-2 firmy Microsoft: Microsoft przedstawił Phi-2 jako ‘open-source’ mały model językowy. Chociaż wagi modelu są dostępne, licencja ma specyficzne ograniczenia użytkowania, a szczegółowe informacje o jego zbiorze danych treningowych, kluczowe dla zrozumienia jego możliwości i potencjalnych uprzedzeń (zwłaszcza biorąc pod uwagę trening na danych ‘syntetycznych’), nie są w pełni przejrzyste.
- Mixtral firmy Mistral AI: Ten model, wydany przez prominentny europejski startup AI, zyskał uwagę dzięki swojej wydajności. Chociaż komponenty zostały wydane na podstawie liberalnej licencji Apache 2.0 (autentycznie otwarta licencja na kod/wagi), pełna przejrzystość dotycząca składu danych treningowych i procesu kuracji pozostaje ograniczona, utrudniając głęboką naukową kontrolę.
Porównajmy to z inicjatywami dążącymi do większej zgodności z tradycyjnymi zasadami open-source:
- OLMo z Allen Institute for AI: Ten projekt wyraźnie miał na celu zbudowanie prawdziwie otwartego modelu językowego, priorytetowo traktując udostępnienie nie tylko wag modelu i kodu, ale także danych treningowych (zbiór danych Dolma) i szczegółowych logów treningowych. To zaangażowanie pozwala na bezprecedensowy poziom odtwarzalności i analizy przez szerszą społeczność badawczą.
- CrystalCoder z LLM360: Ten wysiłek napędzany przez społeczność podobnie kładzie nacisk na udostępnianie wszystkich komponentów cyklu rozwoju modelu, w tym pośrednich punktów kontrolnych i szczegółowej dokumentacji dotyczącej danych i procesu treningowego, wspierając poziom przejrzystości często brakujący w wydaniach korporacyjnych.
Te kontrastujące przykłady podkreślają, że autentyczna otwartość w AI jest możliwa, ale wymaga świadomego zaangażowania wykraczającego poza samo udostępnienie kodu czy wag. Wymaga przejrzystości co do danych i procesu, akceptując kontrolę, która się z tym wiąże. Obecna niejednoznaczność podsycana przez ‘openwashing’ utrudnia badaczom rozróżnienie, które narzędzia naprawdę wspierają otwarte badania naukowe.
Korozja Zaufania: Integralność Naukowa na Szali
Implikacje tego powszechnego ‘openwashingu’ wykraczają daleko poza zwykły branding. Kiedy badacze polegają na modelach AI, których wewnętrzne mechanizmy, w szczególności dane, na których były trenowane, są nieprzejrzyste, uderza to w serce metodologii naukowej.
- Podważona Odtwarzalność: Kamieniem węgielnym ważności naukowej jest zdolność niezależnych badaczy do odtworzenia wyników. Jeśli dane treningowe i dokładne metodologie treningowe są nieznane, prawdziwa replikacja staje się niemożliwa. Badacze mogą używać wstępnie wytrenowanego modelu, ale nie mogą zweryfikować jego konstrukcji ani zbadać jego fundamentalnych właściwości wynikających z ukrytych danych.
- Utrudniona Weryfikacja: Jak naukowcy mogą ufać wynikom modelu, jeśli nie mogą sprawdzić danych, z których się uczył? Ukryte uprzedzenia, niedokładności lub obawy etyczne osadzone w danych treningowych nieuchronnie zamanifestują się w zachowaniu modelu, jednak bez przejrzystości te wady są trudne do wykrycia, zdiagnozowania lub złagodzenia. Używanie takich czarnych skrzynek do odkryć naukowych wprowadza niedopuszczalny poziom niepewności.
- Stłumiona Innowacja: Nauka postępuje, budując na poprzednich pracach. Jeśli modele fundamentalne są udostępniane z ograniczeniami lub bez niezbędnej przejrzystości (zwłaszcza w odniesieniu do danych), utrudnia to innym innowacje, eksperymentowanie z alternatywnymi reżimami treningowymi lub adaptowanie modeli do nowych zastosowań naukowych w sposób, którego pierwotni twórcy mogli nie przewidzieć. Postęp staje się ograniczony przez dostawców tych półprzezroczystych systemów.
Poleganie na zamkniętych lub częściowo zamkniętych systemach korporacyjnych zmusza badaczy do roli pasywnych konsumentów, a nie aktywnych uczestników i innowatorów. Grozi to stworzeniem przyszłości, w której krytyczna infrastruktura naukowa jest kontrolowana przez kilka dużych podmiotów, potencjalnie priorytetyzujących interesy komercyjne nad potrzebami otwartych badań naukowych. Ta erozja przejrzystości bezpośrednio przekłada się na erozję zaufania do narzędzi stanowiących podstawę nowoczesnych badań.
Koncentracja Rynku i Mrożący Efekt dla Innowacji
Poza bezpośrednim wpływem na praktykę naukową, powszechność fałszywego open source w AI niesie ze sobą znaczące implikacje ekonomiczne i rynkowe. Rozwój dużych modeli fundamentalnych wymaga nie tylko znacznej wiedzy specjalistycznej, ale także dostępu do ogromnych zbiorów danych i olbrzymiej mocy obliczeniowej – zasobów nieproporcjonalnie posiadanych przez duże korporacje technologiczne.
Kiedy te korporacje udostępniają modele pod szyldem ‘open source’, ale zachowują kontrolę nad kluczowymi danymi treningowymi lub narzucają restrykcyjne licencje, tworzy to nierówne warunki gry.
- Bariery Wejścia: Startupom i mniejszym laboratoriom badawczym brakuje zasobów do tworzenia porównywalnych modeli fundamentalnych od zera. Jeśli rzekomo ‘otwarte’ modele udostępniane przez potentatów mają ukryte warunki (jak ograniczenia użytku komercyjnego lub nieprzejrzystość danych uniemożliwiająca głęboką modyfikację), ogranicza to zdolność tych mniejszych graczy do skutecznego konkurowania lub budowania prawdziwie innowacyjnych aplikacji na ich bazie.
- Umacnianie Pozycji Potentatów: ‘Openwashing’ może służyć jako strategiczna fosa. Udostępniając modele, które są użyteczne, ale nie prawdziwie otwarte, duże firmy mogą wspierać ekosystemy zależne od ich technologii, jednocześnie uniemożliwiając konkurentom pełne replikowanie lub znaczące ulepszanie ich podstawowych aktywów (danych i dopracowanych procesów treningowych). Wygląda to na otwartość, ale funkcjonuje bliżej strategii kontrolowanej platformy.
- Zmniejszona Różnorodność Podejść: Jeśli innowacje staną się nadmiernie zależne od kilku dominujących, półprzezroczystych modeli fundamentalnych, może to prowadzić do homogenizacji rozwoju AI, potencjalnie pomijając alternatywne architektury, paradygmaty treningowe lub strategie danych, które mniejsze, niezależne grupy mogłyby badać, gdyby dziedzina była prawdziwie otwarta.
Autentyczne open source historycznie było potężnym motorem konkurencji i rozproszonej innowacji. Obecny trend w AI grozi koncentracją władzy i tłumieniem samej dynamiki, którą otwarta współpraca ma wspierać, potencjalnie prowadząc do mniej żywego i bardziej centralnie kontrolowanego krajobrazu AI.
Regulacyjne Martwe Punkty i Etyczna Lina
Potencjał ‘openwashingu’ do wykorzystywania luk regulacyjnych, szczególnie w odniesieniu do ram takich jak Akt AI UE, zasługuje na bliższe zbadanie. Akt ten ma na celu ustanowienie regulacji opartych na ryzyku dla systemów AI, nakładając surowsze wymagania na zastosowania wysokiego ryzyka. Zwolnienia lub łagodniejsze obowiązki dla AI typu open-source mają na celu wspieranie innowacji i unikanie nadmiernego obciążania społeczności open-source.
Jednakże, jeśli firmy mogą skutecznie rościć sobie prawo do miana ‘open source’ dla modeli pozbawionych prawdziwej przejrzystości (zwłaszcza w odniesieniu do danych i treningu), mogą ominąć ważne zabezpieczenia. Rodzi to krytyczne pytania:
- Znacząca Kontrola: Czy regulatorzy mogą odpowiednio ocenić ryzyko potężnego modelu AI, jeśli jego dane treningowe – kluczowy determinantjego zachowania i potencjalnych uprzedzeń – są ukryte przed widokiem? Błędne etykietowanie może pozwolić potencjalnie systemom wysokiego ryzyka działać z mniejszym nadzorem niż zamierzono.
- Luki w Odpowiedzialności: Kiedy coś pójdzie nie tak – jeśli model wykazuje szkodliwe uprzedzenia lub generuje niebezpieczne wyniki – kto jest odpowiedzialny, jeśli podstawowe dane i proces treningowy są nieprzejrzyste? Prawdziwa otwartość ułatwia dochodzenie i odpowiedzialność; ‘openwashing’ ją zaciemnia.
- Zarządzanie Etyczne: Odpowiedzialne wdrażanie AI wymaga zrozumienia jej ograniczeń i potencjalnych skutków społecznych. To zrozumienie jest fundamentalnie zagrożone, gdy podstawowe komponenty, takie jak dane treningowe, są utrzymywane w tajemnicy. Sprawia to, że niezależne audyty, oceny uprzedzeń i przeglądy etyczne są znacznie trudniejsze, jeśli nie niemożliwe.
Strategiczne wykorzystanie etykiety ‘open source’ do nawigacji po regulacjach to nie tylko manewr prawny; ma głębokie implikacje etyczne. Grozi podważeniem zaufania publicznego i utrudnieniem wysiłków na rzecz zapewnienia, że rozwój AI przebiega w sposób bezpieczny, sprawiedliwy i odpowiedzialny. Zapewnienie, że regulacyjne definicje ‘AI open source’ są zgodne z zasadami prawdziwej przejrzystości, jest zatem najważniejsze.
Wytyczanie Kursu w Kierunku Prawdziwej Otwartości AI
Na szczęście dzwonki alarmowe dzwonią, a podejmowane są wysiłki w celu odzyskania znaczenia ‘open source’ w erze AI. Open Source Initiative (OSI), długoletni strażnik definicji open-source, zainicjowała globalny proces konsultacji w celu ustanowienia jasnych standardów dla Open Source AI (co zaowocowało definicją OSAID 1.0).
Kluczową innowacją w tym wysiłku jest koncepcja ‘informacji o danych’. Uznając, że udostępnianie ogromnych surowych zbiorów danych może być prawnie lub logistycznie niewykonalne w niektórych przypadkach (ze względu na prywatność, prawa autorskie lub samą skalę), ramy OSAID podkreślają potrzebę kompleksowego ujawnienia informacji o danych. Obejmuje to szczegóły dotyczące:
- Źródeł: Skąd pochodziły dane?
- Charakterystyk: Jakiego rodzaju są to dane (tekst, obrazy, kod)? Jakie są ich właściwości statystyczne?
- Przygotowania: Jak dane były zbierane, filtrowane, czyszczone i przetwarzane wstępnie? Jakie kroki podjęto w celu złagodzenia uprzedzeń?
Ten poziom przejrzystości, nawet bez samych surowych danych, zapewnia kluczowy kontekst dla badaczy do zrozumienia prawdopodobnych możliwości, ograniczeń i potencjalnych uprzedzeń modelu. Reprezentuje pragmatyczny kompromis, dążąc do maksymalnej przejrzystości w ramach istniejących ograniczeń. Obok OSI, organizacje takie jak Open Future opowiadają się za szerszą zmianą w kierunku modelu ‘data-commons’, badając sposoby tworzenia wspólnych, etycznie pozyskiwanych i otwarcie dostępnych zbiorów danych do treningu AI, co dodatkowo obniża bariery wejścia i wspiera wspólny rozwój. Ustanowienie i przestrzeganie takich jasnych, zweryfikowanych przez społeczność standardów jest niezbędnym pierwszym krokiem w kierunku rozwiania mgły ‘openwashingu’.
Imperatyw dla Społeczności Badawczej
Naukowcy i badacze nie są jedynie konsumentami narzędzi AI; są kluczowymi interesariuszami w zapewnieniu, że narzędzia te są zgodne z wartościami naukowymi. Aktywne zaangażowanie w ewoluujące definicje i standardy, takie jak OSAID 1.0, jest niezbędne. Ale działanie musi wykraczać poza samą świadomość:
- Żądaj Przejrzystości: W publikacjach, wnioskach grantowych i wyborze narzędzi badacze powinni priorytetyzować i żądać większej przejrzystości w odniesieniu do używanych modeli AI. Obejmuje to naciskanie na szczegółowe karty ‘informacji o danych’ lub arkusze danych towarzyszące wydaniom modeli.
- Wspieraj Prawdziwą Otwartość: Aktywnie przyczyniaj się do, wykorzystuj i cytuj projekty takie jak OLMo lub inne inicjatywy, które demonstrują prawdziwe zaangażowanie w udostępnianie kodu, danych i metodologii. Głosowanie poprzez pobrania i cytowania wysyła potężny sygnał rynkowy.
- Rozwijaj Standardy Oceny: Społeczność potrzebuje solidnych metod i list kontrolnych do oceny stopnia otwartości modelu AI, wykraczając poza uproszczone etykiety. Procesy recenzji naukowych powinny obejmować kontrolę twierdzeń o przejrzystości związanych z narzędziami AI używanymi w badaniach.
- Działaj w Instytucjach: Zachęcaj uniwersytety, instytuty badawcze i stowarzyszenia zawodowe do przyjmowania polityk faworyzujących lub wymagających użycia autentycznie otwartych i przejrzystych narzędzi i platform AI.
Społeczność naukowa ma znaczny wpływ. Poprzez zbiorowe naleganie na standardy, które podtrzymują odtwarzalność, przejrzystość i wspólny dostęp, badacze mogą przeciwstawić się mylącym twierdzeniom i pomóc kształtować ekosystem AI sprzyjający rygorystycznym odkryciom naukowym.
Polityka, Finansowanie i Droga Naprzód
Rządy i publiczne agencje finansujące również dysponują znaczną władzą w kształtowaniu krajobrazu AI. Ich polityka może albo pośrednio popierać ‘openwashing’, albo aktywnie promować prawdziwą otwartość.
- Mandaty na Otwartość: Instytucje takie jak amerykańskie National Institutes of Health (NIH) już mają mandaty wymagające otwartego licencjonowania i udostępniania danych dla badań, które finansują. Rozszerzenie podobnych zasad na modele i zbiory danych AI opracowane za publiczne pieniądze jest logicznym i koniecznym krokiem. Jeśli fundusze publiczne wspierają rozwój AI, wyniki powinny być publicznie dostępne i weryfikowalne w jak największym stopniu.
- Siła Zamówień Publicznych: Agencje rządowe są głównymi konsumentami technologii. Określając wymagania dotyczące autentycznego AI typu open-source (zgodnego ze standardami takimi jak OSAID) w publicznych kontraktach zamówień, rządy mogą stworzyć znaczącą zachętę rynkową dla firm do przyjęcia bardziej przejrzystych praktyk. Wymóg Włoch dotyczący oprogramowania open-source w administracji publicznej oferuje potencjalny wzór.
- Inwestowanie w Otwartą Infrastrukturę: Poza regulacjami, publiczne inwestycje w inicjatywy ‘data commons’, otwarte zasoby obliczeniowe dla badaczy oraz platformy dedykowane do hostowania i oceny prawdziwie otwartych modeli AI mogłyby być transformacyjne. Mogłoby to pomóc wyrównać szanse i zapewnić realne alternatywy dla systemów własnościowych lub półotwartych.
- Globalna Współpraca: Biorąc pod uwagę globalny charakter rozwoju AI, międzynarodowa współpraca w zakresie definiowania i promowania standardów AI typu open-source jest niezbędna, aby uniknąć fragmentacji regulacyjnej i zapewnić spójną bazę przejrzystości i odpowiedzialności na całym świecie.
Dźwignie polityczne, stosowane w przemyślany sposób, mogą znacząco przesunąć zachęty od zwodniczego etykietowania w kierunku praktyk, które autentycznie wspierają integralność naukową i szeroką innowację. Walka z iluzją ‘open source’ w AI wymaga skoordynowanego wysiłku. Badacze muszą być czujnymi krytykami, domagającymi się przejrzystości niezbędnej dla rygoru naukowego. Organy normalizacyjne, takie jak OSI, muszą nadal udoskonalać definicje odzwierciedlające unikalną naturę AI. A decydenci polityczni muszą wykorzystać swoje wpływy, aby zachęcać i nakazywać praktyki zgodne z interesem publicznym w zakresie weryfikowalnej, godnej zaufania i dostępnej sztucznej inteligencji. Przyszła trajektoria AI w nauce – czy stanie się prawdziwie otwartą granicą dla odkryć, czy krajobrazem zdominowanym przez nieprzejrzyste systemy korporacyjne – wisi na włosku.