Google Gemini 2.5 Pro: Güvenlik Raporu Eksikliği

Google’ın Gemini 2.5 Pro yapay zeka modelinin yakın zamanda piyasaya sürülmesi, önemli bir güvenlik raporunun eksikliği nedeniyle tartışmalara yol açtı. Bu ihmal, Google’ın ABD hükümetine ve uluslararası zirvelerde verdiği sözlerle çelişiyor gibi görünüyor ve şirketin şeffaflık ve sorumlu yapay zeka geliştirmeye olan bağlılığı hakkında endişeler uyandırıyor. Uzmanlar şimdi Google’ın ve diğer önde gelen yapay zeka laboratuvarlarının, yapay zeka modellerinin yetenekleri ve potansiyel riskleri hakkında kamuoyunu bilgilendirme sözlerinden geri adım atıp atmadığını sorguluyor.

Verilen Sözler ve Yerine Getirilmeyen Taahhütler

Google’ın Gemini 2.5 Pro lansmanı ile birlikte bir güvenlik araştırma raporu sunmaması, önceki taahhütlerin ihlali olarak görülüyor. Temmuz 2023’te Google, Biden yönetimi tarafından düzenlenen bir Beyaz Saray toplantısına katıldı ve burada diğer önde gelen yapay zeka şirketlerine katılarak bir dizi taahhüt imzaladı. Temel bir taahhüt, o sırada yapay zekanın mevcut en son teknolojisini aşan tüm büyük kamu modeli sürümleri için raporların yayınlanmasıydı. Gelişmeleri göz önüne alındığında, Gemini 2.5 Pro’nun neredeyse kesinlikle bu Beyaz Saray Taahhütleri kapsamına girmesi bekleniyordu.

O zamanlar Google, bu raporların şunları içermesi gerektiği konusunda anlaştı:

  • Tehlikeli yeteneklerin değerlendirmeleri de dahil olmak üzere gerçekleştirilen güvenlik değerlendirmeleri.
  • Uygun kullanım durumlarını etkileyebilecek önemli performans sınırlamaları.
  • Modelin adalet ve önyargı gibi toplumsal riskler üzerindeki etkilerine ilişkin tartışmalar.
  • Modelin dağıtıma uygunluğunu değerlendirmek için düşmanca testlerin sonuçları.

Ekim 2023’te Japonya’nın Hiroşima kentinde düzenlenen G7 toplantısının ardından, Google ve diğer şirketler gelişmiş yapay zekanın geliştirilmesi için gönüllü bir davranış kurallarına uymayı taahhüt ettiler. Bu G7 kodu, gelişmiş yapay zeka sistemlerinin yeteneklerini, sınırlamalarını ve uygun ve uygunsuz uygulamalarını kamuya açık bir şekilde raporlamanın önemini vurguladı. Amaç, yapay zeka alanında şeffaflığı ve hesap verebilirliği artırmaktı.

Mayıs 2024’te Güney Kore’nin Seul kentinde düzenlenen yapay zeka güvenliği konulu uluslararası bir zirvede Google, taahhütlerini yineledi. Şirket, model yeteneklerini, sınırlamalarını, uygun ve uygunsuz kullanım durumlarını kamuya açıklama ve risk değerlendirmeleri ve sonuçları konusunda şeffaflık sağlama sözü verdi.

Google’ın Yanıtı ve Gecikmeli Şeffaflık

Eksik güvenlik raporuyla ilgili sorulara yanıt olarak, Gemini modellerini geliştirmekten sorumlu bölüm olan Google DeepMind’ın bir sözcüsü, en son Gemini’nin piyasaya sürülmeden önce yayın öncesi testlerden geçtiğini belirtti. Bu, modelin piyasaya sürülmesinden önce yapılan dahili geliştirme değerlendirmelerini ve güvence değerlendirmelerini içeriyordu. Sözcü ayrıca, ek güvenlik bilgileri ve model kartları içeren bir raporun ‘yakında’ olduğunu belirtti. Bununla birlikte, ilk açıklama 2 Nisan’da yayınlanmasına rağmen, bugüne kadar hiçbir model kartı yayınlanmadı.

Güvenlik Raporlamasını İhmal Etme Eğilimi

Google, yapay zeka güvenliğine olan bağlılığı konusunda eleştirilerle karşılaşan tek şirket değil. Yılın başlarında OpenAI de Deep Research modeli için zamanında bir model kartı yayınlamadığı için incelemeye alındı. Bunun yerine, projenin ilk yayınlanmasından haftalar sonra bir sistem kartı yayınladılar. Benzer şekilde, Meta’nın Llama 4 için yayınladığı son güvenlik raporu, çok kısa ve ayrıntıdan yoksun olduğu için eleştirildi.

Bu örnekler, yapay zeka endüstrisinde bazı büyük laboratuvarların, model sürümleriyle uyumlu olarak güvenlik raporlamasına öncelik vermediği endişe verici bir eğilimi vurguluyor. Bu, özellikle bu şirketlerin ABD hükümetine ve küresel topluma bu tür raporları üretme konusunda gönüllü taahhütlerde bulunduğu göz önüne alındığında özellikle sorunludur. Bu taahhütler ilk olarak 2023’te Biden yönetimine yapıldı ve daha sonra Hiroşima’daki yapay zeka zirvesinde G7 ulusları tarafından kabul edilen yapay zeka davranış kurallarına uyma taahhütleri ile güçlendirildi.

Demokrasi ve Teknoloji Merkezi’nde yapay zeka yönetişimi danışmanı olan Kevin Bankston, hayal kırıklığını dile getirerek, bu başarısızlıkların ilgili şirketlerin güvenilirliğini zedelediğini ve sorumlu yapay zeka gelişimine olan bağlılıkları hakkında sorular uyandırdığını belirtti.

Cevaplanmayan Sorular ve Harici Değerlendirme

Google sözcüsünün açıklaması, Gemini 2.5 Pro’nun İngiltere Yapay Zeka Güvenliği Enstitüsü veya ABD Yapay Zeka Güvenliği Enstitüsü tarafından harici değerlendirmeye sunulup sunulmadığına dair belirli soruları da ele almadı. Daha önce Google, Gemini modellerinin önceki nesillerini İngiltere Yapay Zeka Güvenliği Enstitüsü’ne değerlendirme için sağlamıştı.

Seul Güvenlik Zirvesi’nde Google, güvenlik değerlendirmelerinin uygulanmasında kamuya şeffaflık sağlama taahhüdünü içeren ‘Sınır Yapay Zeka Güvenliği Taahhütleri’ne kaydoldu. Tek istisna, bunun riski artıracağı veya toplumsal faydayla orantısız derecede hassas ticari bilgileri ifşa edeceği durumlar oldu. Taahhüt ayrıca, kamuoyuyla paylaşılamayan daha ayrıntılı bilgilerin yine de şirketlerin bulunduğu ülkelerin hükümetleriyle paylaşılması gerektiğini belirtti; bu da Google’ın durumunda ABD olurdu.

Şirketler ayrıca, hükümetler, sivil toplum, akademisyenler ve kamuoyu gibi dış aktörlerin yapay zeka modellerinin risklerini değerlendirme sürecine nasıl dahil olduğunu açıklamayı taahhüt ettiler. Google’ın Gemini 2.5 Pro’yu ABD veya İngiltere hükümet değerlendiricilerine gönderip göndermediği konusunda doğrudan soruları yanıtlamaması, bu taahhüdü de potansiyel olarak ihlal ediyor.

Şeffaflık Yerine Dağıtıma Öncelik Verme

Güvenlik raporunun olmaması, Google’ın şeffaflık ve kapsamlı güvenlik değerlendirmelerinin yerine hızlı dağıtıma öncelik veriyor olabileceği endişesini artırdı. Oxford İnternet Enstitüsü’nde profesör ve kıdemli araştırmacı olan Sandra Wachter, sorumlu araştırma ve inovasyonda şeffaflığın önemini vurguladı. Diğer sektörlere bir benzetme yaparak, ‘Bu bir araba veya uçak olsaydı, ‘Bunu mümkün olan en kısa sürede piyasaya sürelim ve güvenlik yönlerini daha sonra inceleyeceğiz’ demeyiz’ dedi. Wachter, üretken yapay zeka alanında ‘Bunu piyasaya sürelim ve sorunları daha sonra endişelenelim, araştıralım ve düzeltelim’ şeklinde yaygın bir tutum olduğu endişesini dile getirdi.

Siyasi Değişimler ve Rekabet Baskıları

Son siyasi değişiklikler, Büyük Teknoloji şirketleri arasındaki yoğun rekabetle birleştiğinde, şirketler yapay zeka modellerini dağıtmak için yarışırken önceki güvenlik taahhütlerinden uzaklaşmaya katkıda bulunuyor olabilir. Wachter, ‘Bu şirketler için daha hızlı, daha çabuk, ilk, en iyi, baskın olma baskı noktası, eskisine göre daha yaygın’ dedi ve sektör genelinde güvenlik standartlarının düştüğünü ekledi.

Bu kayan standartlar, teknoloji ülkeleri ve bazı hükümetler arasında yapay zeka güvenliği prosedürlerinin inovasyonu engellediği yönünde artan bir endişeden kaynaklanıyor olabilir. ABD’de Trump yönetimi, Biden yönetimine kıyasla yapay zeka düzenlemesine daha az katı bir yaklaşım benimseme niyetini belirtmiştir. Yeni yönetim, Biden döneminden kalma bir yapay zeka yürütme emrini zaten feshetti ve teknoloji liderleriyle daha yakın ilişkiler geliştiriyor. Paris’teki son yapay zeka zirvesinde, ABD Başkan Yardımcısı JD Vance, ‘büyüme yanlısı yapay zeka politikalarına’ güvenlikten daha fazla öncelik verilmesi gerektiğini ve yapay zekanın ‘Trump yönetiminin boşa harcamayacağı bir fırsat’ olduğunu belirtti.

Aynı zirvede, hem İngiltere hem de ABD, teknolojinin gelişimine ‘açık’, ‘kapsayıcı’ ve ‘etik’ bir yaklaşımı teşvik eden yapay zeka üzerine uluslararası bir anlaşma imzalamayı reddetti.

Net Şeffaflık Gereksinimlerine Duyulan İhtiyaç

Bankston, ‘Bu şirketlere yeni modelleri piyasaya sürerken en temel güvenlik ve şeffaflık taahhütlerini bile yerine getirmeleri için güvenemiyorsak - kendi gönüllü olarak yaptıkları taahhütler - o zaman rekabetçi acelelerinde modelleri çok hızlı bir şekilde piyasaya sürüyorlar demektir’ dedi. Yapay zeka geliştiricileri bu taahhütlerde tökezlemeye devam ettikçe, milletvekillerinin şirketlerin savsaklayamayacağı net şeffaflık gereksinimleri geliştirmesi ve uygulaması gerekecektir.

Yapay Zeka Yönetişimi İçin Daha Geniş Etkileri

Google’ın Gemini 2.5 Pro’su ve eksik güvenlik raporuyla ilgili tartışmalar, sağlam yapay zeka yönetişimi çerçevelerine duyulan kritik ihtiyacın altını çiziyor. Bu çerçeveler, aşağıdaki gibi temel sorunları ele almalıdır:

  • Şeffaflık: Yapay zeka geliştiricilerinin modellerinin yetenekleri, sınırlamaları ve potansiyel riskleri konusunda şeffaf olmalarını sağlamak.
  • Hesap Verebilirlik: Yapay zeka sistemlerinin geliştirilmesi ve dağıtılması için net hesap verebilirlik hatları oluşturmak.
  • Güvenlik: Zarar riskini en aza indirmek için titiz güvenlik testi ve değerlendirme prosedürleri uygulamak.
  • Etik hususlar: Etik ilkeleri yapay zeka sistemlerinin tasarımına ve geliştirilmesine entegre etmek.
  • Halka katılım: Yapay zeka ve etkileri hakkında daha geniş bir anlayışı teşvik etmek için halkla etkileşimde bulunmak.
  • Uluslararası işbirliği: Yapay zeka yönetişimi için ortak standartlar ve en iyi uygulamalar geliştirmek için uluslararası işbirliği yapmak.

Gemini 2.5 Pro’yu çevreleyen şeffaflık eksikliği, yapay zeka yönetişiminin bu önemli yönlerini ihmal etmenin potansiyel sonuçlarını vurguluyor. Yeterli şeffaflık ve hesap verebilirlik olmadan, yapay zeka sistemlerinin gerçek etkisini değerlendirmek ve sorumlu ve etik bir şekilde geliştirilip dağıtılmalarını sağlamak zorlaşır.

İleriye Doğru: Daha Fazla Sorumluluk Çağrısı

Yapay zeka endüstrisi kritik bir kavşakta bulunuyor. Yapay zeka teknolojileri giderek daha güçlü ve yaygın hale geldikçe, geliştiricilerin güvenliğe, şeffaflığa ve etik hususlara öncelik vermesi esastır. Gemini 2.5 Pro’yu çevreleyen tartışma, gönüllü taahhütlerin her zaman yeterli olmadığını hatırlatıyor. Hükümetler ve düzenleyici kurumlar, net standartlar belirleme ve uyumluluğu sağlama konusunda daha aktif bir rol oynamalıdır.

Dahası, yapay zeka geliştiricilerinin halkla etkileşimde bulunması ve yapay zeka ve etkileri hakkında daha geniş bir anlayışı teşvik etmesi çok önemlidir. Bu, yapay zeka sistemlerinin sınırlamaları ve potansiyel riskleri ile bu riskleri azaltmak için atılan adımlar konusunda şeffaf olmayı içerir. Yapay zeka endüstrisi, hükümetler ve halk birlikte çalışarak, yapay zeka teknolojilerinin toplumun bir bütün olarak yararına olacak şekilde geliştirilmesini ve dağıtılmasını sağlayabilir.