Gemini 2.5 Pro pod lupą: Brak raportu bezpieczeństwa budzi kontrowersje
Niedawne udostępnienie modelu AI Gemini 2.5 Pro firmy Google wywołało kontrowersje ze względu na brak kluczowego raportu bezpieczeństwa. To pominięcie wydaje się stać w sprzeczności z obietnicami złożonymi przez Google rządowi Stanów Zjednoczonych oraz na szczytach międzynarodowych, budząc obawy o zaangażowanie firmy w transparentność i odpowiedzialny rozwój sztucznej inteligencji. Eksperci kwestionują obecnie, czy Google i inne wiodące laboratoria AI wycofują się ze swoich zobowiązań do informowania opinii publicznej o możliwościach i potencjalnych zagrożeniach związanych z ich modelami AI.
Złamane obietnice i niezrealizowane zobowiązania
Brak raportu z badań nad bezpieczeństwem wraz z wydaniem Gemini 2.5 Pro jest postrzegany jako naruszenie wcześniejszych zobowiązań. W lipcu 2023 r. Google uczestniczył w spotkaniu w Białym Domu zwołanym przez administrację Bidena, gdzie wraz z innymi czołowymi firmami zajmującymi się sztuczną inteligencją podpisał szereg zobowiązań. Kluczowym zobowiązaniem była publikacja raportów dla wszystkich głównych publicznych wersji modeli, które przewyższały ówczesny stan sztuki AI. Biorąc pod uwagę postęp, Gemini 2.5 Pro z pewnością podlegałby zakresowi tych Zobowiązań Białego Domu.
W tamtym czasie Google zgodził się, że raporty te powinny obejmować:
- Przeprowadzone oceny bezpieczeństwa, w tym oceny niebezpiecznych możliwości.
- Znaczące ograniczenia wydajności, które mogłyby wpłynąć na odpowiednie przypadki użycia.
- Omówienie wpływu modelu na ryzyka społeczne, takie jak sprawiedliwość i obciążenia.
- Wyniki testów na przeciwnikach w celu oceny przydatności modelu do wdrożenia.
Po spotkaniu G7 w Hiroszimie w Japonii w październiku 2023 r. Google i inne firmy zobowiązały się do przestrzegania dobrowolnego kodeksu postępowania w zakresie rozwoju zaawansowanej sztucznej inteligencji. Kodeks G7 podkreślał znaczenie publicznego informowania o możliwościach, ograniczeniach oraz odpowiednich i nieodpowiednich zastosowaniach zaawansowanych systemów AI. Celem było zwiększenie przejrzystości i odpowiedzialności w dziedzinie AI.
W maju 2024 r. podczas międzynarodowego szczytu poświęconego bezpieczeństwu AI, który odbył się w Seulu w Korei Południowej, Google ponownie potwierdził swoje zobowiązania. Firma obiecała publicznie ujawniać możliwości modeli, ograniczenia, odpowiednie i nieodpowiednie przypadki użycia oraz zapewnić przejrzystość w zakresie ocen ryzyka i wyników.
Reakcja Google i opóźniona transparentność
W odpowiedzi na pytania dotyczące brakującego raportu bezpieczeństwa rzecznik Google DeepMind, oddziału odpowiedzialnego za rozwój modeli Gemini, stwierdził, że najnowszy Gemini przeszedł testy przedpremierowe. Obejmowały one wewnętrzne oceny rozwoju i oceny zapewnienia jakości przeprowadzone przed wydaniem modelu. Rzecznik wskazał również, że raport z dodatkowymi informacjami dotyczącymi bezpieczeństwa i kartami modeli jest ‘w przygotowaniu’. Jednak pomimo tego, że pierwsze oświadczenie zostało wydane 2 kwietnia, do tej pory nie opublikowano żadnej karty modelu.
Szerszy trend zaniedbywania raportowania bezpieczeństwa
Google nie jest jedyną firmą, która spotyka się z krytyką dotyczącą zaangażowania w bezpieczeństwo AI. Wcześniej w tym roku firma OpenAI również spotkała się z krytyką za brak terminowego opublikowania karty modelu dla swojego modelu Deep Research. Zamiast tego opublikowali kartę systemu kilka tygodni po wstępnym wydaniu projektu. Podobnie, niedawny raport bezpieczeństwa Meta dla Llama 4 został skrytykowany za zbyt krótki i pozbawiony szczegółów.
Te przypadki uwydatniają niepokojący trend w branży AI, gdzie niektóre główne laboratoria nie traktują raportowania bezpieczeństwa priorytetowo zgodnie z wydaniami swoich modeli. Jest to szczególnie niepokojące, biorąc pod uwagę dobrowolne zobowiązania, które firmy te podjęły wobec rządu USA i społeczności globalnej w zakresie sporządzania takich raportów. Zobowiązania te zostały początkowo złożone administracji Bidena w 2023 r., a następnie wzmocnione poprzez zobowiązania do przestrzegania kodeksu postępowania w zakresie AI przyjętego przez narody G7 na szczycie AI w Hiroszimie.
Kevin Bankston, doradca ds. zarządzania AI w Center for Democracy and Technology, wyraził swoje rozczarowanie, stwierdzając, że te niepowodzenia podważają wiarygodność zaangażowanych firm i budzą pytania o ich zaangażowanie w odpowiedzialny rozwój AI.
Pytania bez odpowiedzi i ocena zewnętrzna
Oświadczenie rzecznika Google nie odniosło się również do konkretnych pytań o to, czy Gemini 2.5 Pro został przekazany do oceny zewnętrznej przez brytyjski Instytut Bezpieczeństwa AI lub amerykański Instytut Bezpieczeństwa AI. Wcześniej Google przekazał wcześniejsze generacje swoich modeli Gemini brytyjskiemu Instytutowi Bezpieczeństwa AI do oceny.
Na szczycie bezpieczeństwa w Seulu Google podpisał ‘Zobowiązania dotyczące bezpieczeństwa AI Frontier’, które obejmowały zobowiązanie do zapewnienia publicznej przejrzystości w zakresie wdrażania ocen bezpieczeństwa. Jedynymi wyjątkami były przypadki, w których takie działanie zwiększyłoby ryzyko lub ujawniłoby wrażliwe informacje handlowe w stopniu nieproporcjonalnym do korzyści społecznych. W zobowiązaniu stwierdzono również, że bardziej szczegółowe informacje, których nie można publicznie udostępniać, powinny być nadal udostępniane rządom krajów, w których firmy mają siedzibę, czyli w przypadku Google Stanom Zjednoczonym.
Firmy zobowiązały się również do wyjaśnienia, w jaki sposób podmioty zewnętrzne, takie jak rządy, społeczeństwo obywatelskie, środowisko akademickie i opinia publiczna, są zaangażowane w proces oceny ryzyka związanego z ich modelami AI. Brak odpowiedzi Google na bezpośrednie pytania o to, czy przekazałGemini 2.5 Pro amerykańskim lub brytyjskim evaluatorom rządowym, potencjalnie narusza również to zobowiązanie.
Priorytetowe traktowanie wdrażania kosztem przejrzystości
Brak raportu bezpieczeństwa wzbudził obawy, że Google może priorytetowo traktować szybkie wdrażanie kosztem przejrzystości i dokładnych ocen bezpieczeństwa. Sandra Wachter, profesor i starszy pracownik naukowy w Oxford Internet Institute, podkreśliła znaczenie przejrzystości w odpowiedzialnych badaniach i innowacjach. Porównała to do innych branż, stwierdzając, że ‘Gdyby to był samochód lub samolot, nie powiedzielibyśmy: po prostu wprowadźmy to na rynek tak szybko, jak to możliwe, a aspekty bezpieczeństwa sprawdzimy później’. Wachter wyraziła obawę, że w dziedzinie generatywnej AI panuje postawa polegająca na ‘wypuszczaniu tego na rynek, martwieniu się, badaniu i naprawianiu problemów z tym później’.
Zmiany polityczne i presja konkurencyjna
Ostatnie zmiany polityczne, w połączeniu z nasilającą się rywalizacją między firmami Big Tech, mogą przyczyniać się do odchodzenia od wcześniejszych zobowiązań dotyczących bezpieczeństwa, ponieważ firmy ścigają się we wdrażaniu modeli AI. Wachter zauważyła, że ‘Punkt nacisku dla tych firm polegający na byciu szybszym, byciu sprytniejszym, byciu pierwszym, byciu najlepszym, byciu dominującym jest bardziej rozpowszechniony niż kiedyś’, dodając, że standardy bezpieczeństwa obniżają się w całej branży.
Te pogarszające się standardy mogą być spowodowane rosnącym zaniepokojeniem wśród krajów technologicznych i niektórych rządów, że procedury bezpieczeństwa AI utrudniają innowacje. W USA administracja Trumpa zasygnalizowała zamiar przyjęcia mniej rygorystycznego podejścia do regulacji AI w porównaniu z administracją Bidena. Nowa administracja uchyliła już rozporządzenie wykonawcze Bidena w sprawie AI i nawiązała bliższe relacje z liderami technologicznymi. Na niedawnym szczycie AI w Paryżu wiceprezydent USA JD Vance stwierdził, że ‘polityka AI sprzyjająca wzrostowi’ powinna być traktowana priorytetowo w stosunku do bezpieczeństwa oraz że AI jest ‘szansą, której administracja Trumpa nie zmarnuje’.
Na tym samym szczycie zarówno Wielka Brytania, jak i USA odmówiły podpisania międzynarodowego porozumienia w sprawie sztucznej inteligencji, które promowało ‘otwarte’, ‘inkluzywne’ i ‘etyczne’ podejście do rozwoju tej technologii.
Potrzeba jasnych wymogów dotyczących przejrzystości
Bankston podkreślił, że ‘Jeśli nie możemy liczyć na to, że firmy te wypełnią nawet swoje najbardziej podstawowe zobowiązania dotyczące bezpieczeństwa i przejrzystości przy wydawaniu nowych modeli – zobowiązania, które same dobrowolnie podjęły – to wyraźnie wydają modele zbyt szybko w swoim konkurencyjnym wyścigu o dominację w tej dziedzinie’. Dodał, że w miarę jak twórcy AI nadal zawodzą w tych zobowiązaniach, obowiązkiem ustawodawców będzie opracowanie i egzekwowanie jasnych wymogów dotyczących przejrzystości, których firmy nie mogą unikać.
Szersze implikacje dla zarządzania AI
Kontrowersje wokół Google Gemini 2.5 Pro i brakujący raport bezpieczeństwa podkreślają krytyczną potrzebę solidnych ram zarządzania AI. Ramy te powinny dotyczyć kluczowych kwestii, takich jak:
- Przejrzystość: Zapewnienie, że twórcy AI są transparentni w kwestii możliwości, ograniczeń i potencjalnego ryzyka związanego z ich modelami.
- Odpowiedzialność: Ustalenie jasnych linii odpowiedzialności za rozwój i wdrażanie systemów AI.
- Bezpieczeństwo: Wdrożenie rygorystycznych procedur testowania i oceny bezpieczeństwa w celu zminimalizowania ryzyka szkód.
- Względy etyczne: Włączenie zasad etycznych do projektowania i rozwoju systemów AI.
- Zaangażowanie społeczne: Angażowanie opinii publicznej w celu wspierania szerszego zrozumienia AI i jej implikacji.
- Współpraca międzynarodowa: Współpraca na arenie międzynarodowej w celu opracowania wspólnych standardów i najlepszych praktyk w zakresie zarządzania AI.
Brak przejrzystości wokół Gemini 2.5 Pro uwydatnia potencjalne konsekwencje zaniedbania tych kluczowych aspektów zarządzania AI. Bez odpowiedniej przejrzystości i odpowiedzialności trudno jest ocenić prawdziwy wpływ systemów AI i zapewnić, że są one rozwijane i wdrażane w sposób odpowiedzialny i etyczny.
Dalsze kroki: Wezwanie do większej odpowiedzialności
Branża AI znajduje się w krytycznym momencie. W miarę jak technologie AI stają się coraz potężniejsze i wszechobecne, istotne jest, aby twórcy priorytetowo traktowali bezpieczeństwo, przejrzystość i względy etyczne. Kontrowersje wokół Gemini 2.5 Pro przypominają, że dobrowolne zobowiązania nie zawsze wystarczają. Rządy i organy regulacyjne muszą odgrywać bardziej aktywną rolę w ustanawianiu jasnych standardów i egzekwowaniu zgodności.
Ponadto istotne jest, aby twórcy AI angażowali się w relacje z opinią publiczną i wspierali szersze zrozumienie AI i jej implikacji. Obejmuje to przejrzystość w kwestii ograniczeń i potencjalnego ryzyka związanego z systemami AI, a także kroków podejmowanych w celu złagodzenia tego ryzyka. Współpracując, branża AI, rządy i opinia publiczna mogą zapewnić, że technologie AI są rozwijane i wdrażane w sposób, który przynosi korzyści całemu społeczeństwu.