Неотдавнашното пускане на модела Gemini 2.5 Pro на Google предизвика противоречия поради липсата на важен доклад за безопасност. Това пропускане изглежда противоречи на обещанията, дадени от Google на правителството на САЩ и на международни срещи на върха, което поражда опасения относно ангажимента на компанията към прозрачност и отговорно развитие на AI. Експерти вече поставят под въпрос дали Google и други водещи AI лаборатории се отказват от ангажиментите си да информират обществеността за възможностите и потенциалните рискове, свързани с техните AI модели.
Нарушени обещания и неизпълнени ангажименти
Неуспехът на Google да предостави доклад за изследване на безопасността заедно с пускането на Gemini 2.5 Pro се разглежда като нарушение на предишни ангажименти. През юли 2023 г. Google участва в среща в Белия дом, свикана от администрацията на Байдън, където се присъедини към други видни AI компании в подписването на поредица от обещания. Ключов ангажимент беше публикуването на доклади за всички основни публични издания на модели, които надминаха тогавашното състояние на най-съвременния AI. Като се имат предвид постиженията му, Gemini 2.5 Pro почти сигурно ще попадне в обхвата на тези ангажименти на Белия дом.
По това време Google се съгласи, че тези доклади трябва да обхващат:
- Проведени оценки за безопасност, включително оценки на опасни възможности.
- Значителни ограничения в производителността, които биха могли да повлияят на подходящи случаи на употреба.
- Дискусии за ефектите на модела върху обществени рискове като справедливост и пристрастия.
- Резултати от противникови тестове за оценка на годността на модела за внедряване.
След срещата на Г-7 в Хирошима, Япония, през октомври 2023 г., Google и други компании се ангажираха да се придържат към доброволен кодекс за поведение за разработването на усъвършенстван AI. Този кодекс на Г-7 подчерта важността на публичното отчитане на възможностите, ограниченията и подходящите и неподходящите приложения на усъвършенстваните AI системи. Целта беше да се подобри прозрачността и отчетността в областта на AI.
През май 2024 г., на международна среща на върха за безопасността на AI, проведена в Сеул, Южна Корея, Google повтори ангажиментите си. Компанията обеща да разкрие публично възможностите на модела, ограниченията, подходящите и неподходящите случаи на употреба и да осигури прозрачност около своите оценки на риска и резултати.
Отговорът на Google и забавената прозрачност
В отговор на запитвания относно липсващия доклад за безопасност, говорител на Google DeepMind, подразделението, отговорно за разработването на моделите Gemini, заяви, че последният Gemini е преминал предварителен тестов период. Това включва вътрешни оценки за развитие и оценки за осигуряване, проведени преди пускането на модела. Говорителят също така посочи, че доклад с допълнителна информация за безопасността и карти на модела ‘предстои’. Въпреки че първоначалното изявление беше издадено на 2 април, до момента не е публикувана карта на модела.
По-широка тенденция на пренебрегване на отчитането на безопасността
Google не е единствената, която е изправена пред критики по отношение на ангажимента си към безопасността на AI. По-рано през годината OpenAI също беше изправена пред критики за това, че не е пуснала навременна карта на модела за своя модел Deep Research. Вместо това те публикуваха системна карта седмици след първоначалното пускане на проекта. По същия начин, неотдавнашният доклад за безопасността на Meta за Llama 4 беше критикуван за това, че е твърде кратък и му липсват подробности.
Тези случаи подчертават тревожна тенденция в рамките на AI индустрията, където някои големи лаборатории не дават приоритет на отчитането на безопасността в съответствие с техните издания на модели. Това е особено тревожно предвид доброволните ангажименти, които тези компании направиха към правителството на САЩ и глобалната общност да изготвят такива доклади. Тези ангажименти бяха направени първоначално към администрацията на Байдън през 2023 г. и впоследствие бяха подсилени чрез обещания за спазване на кодекса за поведение на AI, приет от нациите от Г-7 на тяхната среща на върха за AI в Хирошима.
Кевин Банкстън, съветник по управлението на AI в Центъра за демокрация и технологии, изрази разочарованието си, заявявайки, че тези провали подкопават доверието на участващите компании и повдигат въпроси относно ангажимента им към отговорно развитие на AI.
Неотговорени въпроси и външна оценка
Изявлението на говорителя на Google също не отговори на конкретни въпроси относно това дали Gemini 2.5 Pro е бил представен за външна оценка от Института за сигурност на AI на Обединеното кралство или Института за безопасност на AI на САЩ. Преди това Google беше предоставил по-ранни поколения от своите модели Gemini на Института за безопасност на AI на Обединеното кралство за оценка.
На срещата на върха за безопасността в Сеул Google се присъедини към ‘Ангажиментите за безопасност на AI на Frontier’, които включваха обещание да осигури публична прозрачност относно изпълнението на оценките за безопасност. Единствените изключения бяха случаите, когато това би увеличило риска или би разкрило чувствителна търговска информация до степен, която е непропорционална на обществената полза. Обещанието също така гласеше, че по-подробна информация, която не може да бъде споделена публично, все пак трябва да бъде споделена с правителствата на държавите, в които са базирани компаниите, което в случая на Google би било САЩ.
Компаниите също така се ангажираха да обяснят как външни участници, като правителства, гражданско общество, академици и обществеността, участват в процеса на оценка на рисковете на техните AI модели. Неуспехът на Google да отговори на директни въпроси относно това дали е представил Gemini 2.5 Pro на оценители от правителството на САЩ или Обединеното кралство, потенциално нарушава и този ангажимент.
Даване на приоритет на внедряването пред прозрачността
Липсата на доклад за безопасност предизвика опасения, че Google може да дава приоритет на бързото внедряване пред прозрачността и задълбочените оценки за безопасност. Сандра Вахтер, професор и старши изследовател в Оксфордския интернет институт, подчерта важността на прозрачността в отговорните изследвания и иновации. Тя направи аналогия с други индустрии, заявявайки, че ‘Ако това беше кола или самолет, нямаше да кажем: нека просто да пуснем това на пазара възможно най-бързо и ще разгледаме аспектите на безопасността по-късно.’ Вахтер изрази загриженост, че в областта на генеративния AI преобладава нагласата за ‘пускане на това там и притеснение, проучване и отстраняване на проблемите с него по-късно’.
Политически промени и конкурентен натиск
Неотдавнашните политически промени, съчетани с засилващото се съперничество между големите технологични компании, може да допринасят за оттегляне от предишни ангажименти за безопасност, тъй като компаниите се надпреварват да внедряват AI модели. Вахтер отбеляза, че ‘Натискът върху тези компании да бъдат по-бързи, да бъдат по-пъргави, да бъдат първи, да бъдат най-добри, да бъдат доминиращи, е по-разпространен, отколкото беше преди’, добавяйки, че стандартите за безопасност намаляват в цялата индустрия.
Тези намаляващи стандарти биха могли да бъдат причинени от нарастващата загриженост сред технологичните държави и някои правителства, че процедурите за безопасност на AI възпрепятстват иновациите. В САЩ администрацията на Тръмп посочи намерението си да възприеме по-малко строг подход към регулирането на AI в сравнение с администрацията на Байдън. Новата администрация вече отмени изпълнителна заповед от ерата на Байдън относно AI и култивира по-тесни отношения с технологичните лидери. На неотдавнашната среща на върха за AI в Париж вицепрезидентът на САЩ Джей Ди Ванс заяви, че ‘политиките за AI, стимулиращи растежа’ трябва да бъдат приоритет пред безопасността и че AI е ‘възможност, която администрацията на Тръмп няма да пропилее’.
На същата среща на върха както Обединеното кралство, така и САЩ отказаха да подпишат международно споразумение за изкуствен интелект, което насърчава ‘отворен’, ‘приобщаващ’ и ‘етичен’ подход към развитието на технологията.
Необходимостта от ясни изисквания за прозрачност
Банкстън подчерта, че ‘Ако не можем да разчитаме на тези компании да изпълнят дори и най-основните си ангажименти за безопасност и прозрачност при пускането на нови модели - ангажименти, които самите те направиха доброволно - тогава те очевидно пускат модели твърде бързо в своята конкурентна надпревара да доминират в областта.’ Той добави, че тъй като разработчиците на AI продължават да се провалят в тези ангажименти, ще бъде задължение на законодателите да разработят и прилагат ясни изисквания за прозрачност, които компаниите не могат да избегнат.
По-широките последици за управлението на AI
Противоречията около Gemini 2.5 Pro на Google и липсващият доклад за безопасност подчертават критичната необходимост от стабилни рамки за управление на AI. Тези рамки трябва да разглеждат ключови въпроси като:
- Прозрачност: Гарантиране, че разработчиците на AI са прозрачни относно възможностите, ограниченията и потенциалните рискове на техните модели.
- Отчетност: Установяване на ясни линии на отчетност за разработването и внедряването на AI системи.
- Безопасност: Прилагане на строги процедури за тестване и оценка на безопасността, за да се минимизира рискът от вреда.
- Етични съображения: Интегриране на етични принципи в проектирането и разработването на AI системи.
- Обществена ангажираност: Ангажиране с обществеността за насърчаване на по-широко разбиране на AI и неговите последици.
- Международно сътрудничество: Сътрудничество на международно ниво за разработване на общи стандарти и най-добри практики за управление на AI.
Липсата на прозрачност около Gemini 2.5 Pro подчертава потенциалните последици от пренебрегването на тези важни аспекти на управлението на AI. Без адекватна прозрачност и отчетност става трудно да се оцени истинското въздействие на AI системите и да се гарантира, че те се разработват и внедряват по отговорен и етичен начин.
Движение напред: Призив за по-голяма отговорност
AI индустрията е в критичен момент. Тъй като AI технологиите стават все по-мощни и широко разпространени, от съществено значение е разработчиците да дават приоритет на безопасността, прозрачността и етичните съображения. Противоречията около Gemini 2.5 Pro служат като напомняне, че доброволните ангажименти не винаги са достатъчни. Правителствата и регулаторните органи трябва да играят по-активна роля в установяването на ясни стандарти и прилагането на съответствието.
Освен това е от решаващо значение разработчиците на AI да се ангажират с обществеността и да насърчават по-широко разбиране на AI и неговите последици. Това включва да бъдат прозрачни относно ограниченията и потенциалните рискове на AI системите, както и стъпките, предприети за смекчаване на тези рискове. Работейки заедно, AI индустрията, правителствата и обществеността могат да гарантират, че AI технологиите се разработват и внедряват по начин, който е от полза за обществото като цяло.