Yapay Zeka 'Açık Kaynak' Maskaralığı

‘Açık kaynak’ terimi bir zamanlar belirli bir netlikle yankılanır, sayısız bilimsel ve teknolojik atılımı ileriye taşıyan paylaşılan bilgi ve işbirlikçi ilerleme vaadi sunardı. Birlikte inşa eden, birbirlerinin çalışmalarını inceleyen ve planlar serbestçe erişilebilir olduğu için devlerin omuzlarında yükselen toplulukların görüntülerini çağrıştırırdı. Şimdi, Yapay Zeka (Artificial Intelligence) manzarasında gezinirken, bu terim giderek daha… kaygan hissettiriyor. Nature dergisinin sayfalarında vurgulandığı ve laboratuvarlarda ve yönetim kurulu odalarında fısıldandığı gibi, yapay zeka altın hücumundaki endişe verici sayıda oyuncu, gerçekten kritik bileşenleri kilit altında tutarken yaratımlarını ‘açık kaynak’ kisvesi altına gizliyor. Bu sadece anlamsal bir laf kalabalığı değil; bilimsel bütünlüğün temellerini kemiren ve gelecekteki inovasyonun yolunu karartmakla tehdit eden bir uygulama. En çok kazanacak veya kaybedecek olan araştırma topluluğunun, bu sahtekarlığı olduğu gibi tanıması ve uzun süredir güvendiğimiz şeffaflık ve tekrarlanabilirlik ilkelerini gerçekten bünyesinde barındıran yapay zeka sistemlerini güçlü bir şekilde savunması gerekiyor.

Açıklığın Altın Çağı: Tehdit Altındaki Bir Miras

Onlarca yıldır açık kaynak hareketi, bilimsel ilerlemenin adı anılmayan bir kahramanı olmuştur. İstatistiksel sihirbazlık için R Studio veya akışkan dinamiği modellemesi için OpenFOAM gibi tanıdık araçların ötesini düşünün. İnternetin ve bilimsel hesaplama kümelerinin geniş alanlarını güçlendiren Linux gibi temel sistemleri veya işbirlikçi yazılım geliştirmenin bir kanıtı olan Apache web sunucusunu göz önünde bulundurun. Felsefe basitti: kaynak koduna erişim sağlamak, izin veren lisanslar altında değiştirilmesine ve yeniden dağıtılmasına izin vermek ve iyileştirmelerin herkese fayda sağladığı küresel bir ekosistemi teşvik etmek.

Bu sadece fedakarlık değildi; pragmatik bir dehaydı. Açıklık keşfi hızlandırdı. Araştırmacılar deneyleri tekrarlayabilir, bulguları doğrulayabilir ve tekerleği yeniden icat etmeden veya anlaşılmaz tescilli sistemlerde gezinmeden mevcut çalışmalar üzerine inşa edebilirlerdi. İç işleyiş denetime açık olduğu için güveni artırdı, hataların topluca bulunup düzeltilmesine olanak sağladı. Kurumsal bağlantı veya bütçeden bağımsız olarak dünya çapındaki bilim insanlarının ve geliştiricilerin en ileri çalışmalara katılmasına olanak tanıyarak erişimi demokratikleştirdi. Paylaşılan erişim ve karşılıklı inceleme üzerine kurulu bu işbirlikçi ruh, bilimsel yöntemin kendisine derinden kök saldı, sağlamlığı sağladı ve çeşitli alanlarda hızlı ilerlemeyi teşvik etti. Kullanılan araçları inceleme, anlama ve değiştirme yeteneği çok önemliydi. Bu sadece yazılımı kullanmakla ilgili değildi; nasıl çalıştığını anlamak, belirli bir bilimsel görev için uygunluğunu sağlamak ve kolektif bilgi havuzuna geri katkıda bulunmakla ilgiliydi. Bu erdemli döngü, inovasyonu benzeri görülmemiş bir hızda ileriye taşıdı.

Yapay Zekanın Veri Bağımlılığı: ‘Kod Kraldır’ Neden Yetersiz Kalıyor

Büyük ölçekli Yapay Zeka (Artificial Intelligence) çağına, özellikle de bu kadar çok dikkat ve yatırım çeken temel modellere girin. Burada, öncelikle kaynak koduna odaklanan geleneksel açık kaynak paradigması temel bir uyumsuzlukla karşılaşıyor. Bir yapay zeka modelini oluşturmak için kullanılan algoritmalar ve kod kesinlikle resmin bir parçası olsa da, hikayenin tamamından çok uzaktır. Modern yapay zeka, özellikle derin öğrenme modelleri, doymak bilmez veri tüketicileridir. Eğitim verileri sadece bir girdi değildir; tartışmasız modelin yeteneklerinin, önyargılarının ve sınırlamalarının birincil belirleyicisidir.

Modelin kodunu veya hatta son eğitilmiş parametrelerini (‘ağırlıklar’) yayınlamak, ancak eğitim için kullanılan devasa veri kümeleri hakkında anlamlı erişim veya ayrıntılı bilgi sağlamamak, birine bir arabanın anahtarlarını vermek ancak ne tür yakıt aldığını, nerede sürüldüğünü veya motorun gerçekte nasıl monte edildiğini söylemeyi reddetmek gibidir. Arabayı sürebilirsiniz, ancak performans tuhaflıklarını anlama, potansiyel sorunları teşhis etme veya yeni yolculuklar için güvenilir bir şekilde değiştirme yeteneğiniz sınırlıdır.

Ayrıca, bu modelleri sıfırdan eğitmek için gereken hesaplama kaynakları muazzamdır ve genellikle tek bir eğitim çalıştırması için milyonlarca dolara mal olur. Bu başka bir engel yaratır. Kod ve veriler tamamen mevcut olsa bile, yalnızca bir avuç kuruluş eğitim sürecini kopyalayacak altyapıya sahiptir. Bu gerçeklik, kod derlemenin tipik olarak çoğu geliştirici veya araştırmacının ulaşabileceği bir yerde olduğu geleneksel yazılımla karşılaştırıldığında dinamikleri temelden değiştirir. Yapay zeka için, gerçek tekrarlanabilirlik ve yeniden eğiterek deney yapma yeteneği, bileşenler ‘açık’ olarak etiketlendiğinde bile genellikle ulaşılamaz kalır. Bu nedenle, kod için tasarlanan eski açık kaynak tanımlarını basitçe uygulamak, bu yeni, veri merkezli ve hesaplama yoğun alanın gerekliliklerini yakalamaz.

‘Openwashing’: Koyun Postuna Bürünmüş Kurt

Geleneksel açık kaynak kavramları ile yapay zeka geliştirmenin gerçekleri arasındaki bu boşluk, ‘openwashing’ olarak bilinen bir olgu için verimli bir zemin yaratmıştır. Şirketler, terimle ilişkili halkla ilişkiler faydalarını ve iyi niyeti toplarken, yapay zeka modellerine hevesle ‘açık kaynak’ etiketini yapıştırır, ancak gerçek açıklığın ruhunu, katı (ve tartışmalı olarak modası geçmiş) harfini olmasa da, ihanet eden lisanslar veya erişim kısıtlamaları kullanırlar.

Bu pratikte nasıl görünüyor?

  • Veri Olmadan Kod Yayınlama: Bir şirket, modelin mimari kodunu ve belki de önceden eğitilmiş ağırlıkları yayınlayabilir, başkalarının modeli ‘olduğu gibi’ kullanmasına veya daha küçük veri kümeleri üzerinde ince ayar yapmasına izin verebilir. Ancak, modelin temel yeteneklerini tanımlayan gizli sos olan devasa, temel eğitim veri kümesi tescilli ve gizli kalır.
  • Kısıtlayıcı Lisanslama: Modeller, ilk bakışta açık görünen ancak ticari kullanımı sınırlayan, belirli senaryolarda dağıtımı kısıtlayan veya belirli türdeki değişiklikleri veya analizleri yasaklayan maddeler içeren lisanslar altında yayınlanabilir. Bu kısıtlamalar, genellikle açık kaynaklı yazılımlarla ilişkilendirilen özgürlüklere aykırıdır.
  • Belirsiz Veri Açıklaması: Veri kaynakları, toplama yöntemleri, temizleme süreçleri ve potansiyel önyargılar hakkında ayrıntılı bilgi yerine, şirketler belirsiz açıklamalar sunabilir veya önemli ayrıntıları tamamen atlayabilir. Bu ‘veri şeffaflığı’ eksikliği, modelin güvenilirliğini veya etik sonuçlarını tam olarak değerlendirmeyi imkansız hale getirir.

Neden bu tür uygulamalara girişiliyor? Motivasyonlar muhtemelen çeşitlidir. ‘Açık kaynak’ın olumlu çağrışımları, yetenek çekmek, geliştirici toplulukları oluşturmak (kısıtlı olsa bile) ve olumlu basın yaratmak için şüphesiz değerlidir. Daha alaycı bir şekilde, Nature‘ın öne sürdüğü gibi, düzenleyici teşvikler olabilir. Örneğin, Avrupa Birliği’nin kapsamlı 2024 Yapay Zeka Yasası, açık kaynak olarak sınıflandırılan sistemler için potansiyel muafiyetler veya daha hafif gereklilikler içerir. Etiketi stratejik olarak kullanarak, bazı firmalar karmaşık düzenleyici ortamlarda daha az sürtünmeyle gezinmeyi umabilir ve potansiyel olarak güçlü, genel amaçlı yapay zeka sistemleri için tasarlanan incelemeden kaçabilir. Bu stratejik markalaşma egzersizi, açık kaynak hareketinin tarihsel iyi niyetini sömürürken, sorumlu yapay zeka dağıtımını sağlama çabalarını potansiyel olarak baltalar.

Açıklık Spektrumu: Örnekleri İnceleme

Yapay zekada açıklığın mutlaka ikili bir durum olmadığını kabul etmek çok önemlidir; bir spektrum üzerinde var olur. Ancak, mevcut etiketleme uygulamaları genellikle belirli bir modelin bu spektrumda gerçekte nerede oturduğunu gizler.

Bu bağlamda sıkça tartışılan bazı önde gelen örnekleri ele alalım:

  • Meta’nın Llama Serisi: Meta, Llama modelleri için ağırlıkları ve kodu yayınlarken, erişim başlangıçta başvuru gerektiriyordu ve lisans, özellikle çok büyük şirketler tarafından kullanım ve belirli uygulamalarla ilgili kısıtlamalar içeriyordu. Kritik olarak, temel eğitim verileri yayınlanmadı, bu da tam tekrarlanabilirliği ve özelliklerinin derinlemesine analizini sınırladı. Sonraki sürümler şartları ayarlamış olsa da, veri opaklığı temel sorunu genellikle devam etmektedir.
  • Microsoft’un Phi-2’si: Microsoft, Phi-2’yi ‘açık kaynaklı’ küçük bir dil modeli olarak sundu. Model ağırlıkları mevcut olsa da, lisansın belirli kullanım sınırlamaları vardır ve yeteneklerini ve potansiyel önyargılarını anlamak için çok önemli olan eğitim veri kümesi hakkında ayrıntılı bilgi (özellikle ‘sentetik’ veriler üzerinde eğitildiği göz önüne alındığında) tam olarak şeffaf değildir.
  • Mistral AI’nin Mixtral’ı: Önde gelen bir Avrupa yapay zeka girişimi tarafından yayınlanan bu model, performansıyla dikkat çekti. Bileşenler izin veren bir Apache 2.0 lisansı (kod/ağırlıklar için gerçekten açık bir lisans) altında yayınlanmış olsa da, eğitim verisi kompozisyonu ve kürasyon süreciyle ilgili tam şeffaflık sınırlı kalmakta ve derin bilimsel incelemeyi engellemektedir.

Bunları, geleneksel açık kaynak ilkeleriyle daha fazla uyum sağlamaya çalışan girişimlerle karşılaştırın:

  • Allen Institute for AI’nin OLMo’su: Bu proje açıkça gerçekten açık bir dil modeli oluşturmayı hedefledi ve yalnızca model ağırlıklarını ve kodunu değil, aynı zamanda eğitim verilerini (Dolma veri kümesi) ve ayrıntılı eğitim günlüklerini yayınlamayı önceliklendirdi. Bu taahhüt, daha geniş araştırma topluluğu tarafından benzeri görülmemiş düzeyde tekrarlanabilirlik ve analiz sağlar.
  • LLM360’ın CrystalCoder’ı: Bu topluluk odaklı çaba, ara kontrol noktaları ve veri ve eğitim süreci hakkında ayrıntılı belgeler de dahil olmak üzere model geliştirme yaşam döngüsünün tüm bileşenlerini yayınlamayı benzer şekilde vurgulayarak, kurumsal sürümlerde genellikle eksik olan bir şeffaflık düzeyini teşvik eder.

Bu zıt örnekler, yapay zekada gerçek açıklığın mümkün olduğunu vurgulamaktadır, ancak bu, yalnızca kod veya ağırlıkları yayınlamanın ötesinde kasıtlı bir taahhüt gerektirir. Veriler ve süreç hakkında şeffaflık talep eder ve bununla birlikte gelen incelemeyi kucaklar. ‘Openwashing’ tarafından beslenen mevcut belirsizlik, araştırmacıların hangi araçların açık bilimsel araştırmayı gerçekten desteklediğini ayırt etmesini zorlaştırmaktadır.

Güvenin Aşınması: Bilimsel Bütünlük Tehlikede

Bu yaygın ‘openwashing’in sonuçları sadece markalaşmanın çok ötesine uzanıyor. Araştırmacılar, iç işleyişi, özellikle de eğitildikleri veriler opak olan yapay zeka modellerine güvendiğinde, bu durum bilimsel metodolojinin kalbine bir darbe vurur.

  • Tekrarlanabilirlik Baltalanıyor: Bilimsel geçerliliğin temel taşı, bağımsız araştırmacıların sonuçları tekrarlayabilmesidir. Eğitim verileri ve kesin eğitim metodolojileri bilinmiyorsa, gerçek kopyalama imkansız hale gelir. Araştırmacılar önceden eğitilmiş bir model kullanabilirler, ancak yapısını doğrulayamazlar veya gizli verilerden türetilen temel özelliklerini araştıramazlar.
  • Doğrulama Engelleniyor: Bilim insanları, öğrendiği verileri inceleyemezlerse bir modelin çıktılarına nasıl güvenebilirler? Eğitim verilerine gömülü gizli önyargılar, yanlışlıklar veya etik kaygılar kaçınılmaz olarak modelin davranışında kendini gösterecektir, ancak şeffaflık olmadan bu kusurları tespit etmek, teşhis etmek veya azaltmak zordur. Bilimsel keşif için bu tür kara kutuları kullanmak kabul edilemez bir belirsizlik düzeyi getirir.
  • İnovasyon Boğuluyor: Bilim, önceki çalışmalar üzerine inşa edilerek ilerler. Temel modeller kısıtlamalarla veya gerekli şeffaflık olmadan (özellikle verilerle ilgili olarak) yayınlanırsa, başkalarının yenilik yapma, alternatif eğitim rejimleriyle deney yapma veya modelleri orijinal yaratıcıların öngörmemiş olabileceği yeni bilimsel uygulamalar için uyarlama yeteneğini engeller. İlerleme, bu yarı opak sistemlerin sağlayıcıları tarafından kontrol edilir hale gelir.

Kapalı veya kısmen kapalı kurumsal sistemlere güvenmek, araştırmacıları aktif katılımcılar ve yenilikçiler yerine pasif bir tüketici rolüne zorlar. Kritik bilimsel altyapının birkaç büyük kuruluş tarafından kontrol edildiği, potansiyel olarak açık bilimsel araştırmanın ihtiyaçları yerine ticari çıkarları önceliklendirdiği bir gelecek yaratma riski taşır. Şeffaflıktaki bu erozyon, doğrudan modern araştırmayı destekleyen araçlara olan güvendeki bir erozyona dönüşür.

Pazar Yoğunlaşması ve İnovasyon Üzerindeki Caydırıcı Etki

Bilimsel pratik üzerindeki acil etkisinin ötesinde, yapay zekada sahte açık kaynağın yaygınlığı önemli ekonomik ve pazar sonuçları taşır. Büyük temel modellerin geliştirilmesi yalnızca önemli uzmanlık değil, aynı zamanda büyük teknoloji şirketleri tarafından orantısız bir şekilde tutulan devasa veri kümelerine ve muazzam hesaplama gücüne erişim gerektirir.

Bu şirketler modelleri ‘açık kaynak’ bayrağı altında yayınladıklarında ancak kritik eğitim verileri üzerinde kontrolü elinde tuttuklarında veya kısıtlayıcı lisanslar uyguladıklarında, bu durum eşitsiz bir oyun alanı yaratır.

  • Giriş Engelleri: Startup’lar ve daha küçük araştırma laboratuvarları, karşılaştırılabilir temel modelleri sıfırdan oluşturmak için kaynaklardan yoksundur. Yerleşik şirketler tarafındanyayınlanan sözde ‘açık’ modeller ek koşullarla (ticari kullanım kısıtlamaları veya derin değişikliği engelleyen veri opaklığı gibi) gelirse, bu daha küçük oyuncuların etkili bir şekilde rekabet etme veya üzerine gerçekten yenilikçi uygulamalar inşa etme yeteneğini sınırlar.
  • Yerleşik Şirketleri Güçlendirme: ‘Openwashing’, stratejik bir hendek görevi görebilir. Yararlı ancak gerçekten açık olmayan modeller yayınlayarak, büyük şirketler teknolojilerine bağımlı ekosistemleri teşvik edebilirken, rakiplerin temel varlıklarını (veri ve rafine edilmiş eğitim süreçleri) tam olarak kopyalamasını veya önemli ölçüde iyileştirmesini engelleyebilirler. Açıklık gibi görünür ancak daha çok kontrollü bir platform stratejisine yakın işlev görür.
  • Yaklaşımların Çeşitliliğinin Azalması: İnovasyon, birkaç baskın, yarı opak temel modele aşırı derecede bağımlı hale gelirse, bu durum yapay zeka geliştirmede bir homojenleşmeye yol açabilir ve alan gerçekten açık olsaydı daha küçük, bağımsız grupların keşfedebileceği alternatif mimarileri, eğitim paradigmalarını veya veri stratejilerini potansiyel olarak gözden kaçırabilir.

Gerçek açık kaynak, tarihsel olarak rekabet ve dağıtılmış inovasyon için güçlü bir motor olmuştur. Yapay zekadaki mevcut eğilim, gücü yoğunlaştırma ve açık işbirliğinin teşvik etmesi gereken dinamizmi boğma riski taşıyor ve potansiyel olarak daha az canlı ve daha merkezi olarak kontrol edilen bir yapay zeka manzarasına yol açıyor.

Düzenleyici Kör Noktalar ve Etik İp Cambazlığı

‘Openwashing’in, özellikle AB Yapay Zeka Yasası (EU AI Act) gibi çerçevelerle ilgili olarak düzenleyici boşluklardan yararlanma potansiyeli daha yakından incelenmeyi hak ediyor. Bu Yasa, yapay zeka sistemleri için risk temelli düzenlemeler oluşturmayı, yüksek riskli uygulamalara daha katı gereklilikler getirmeyi amaçlamaktadır. Açık kaynaklı yapay zeka için muafiyetler veya daha hafif yükümlülükler, inovasyonu teşvik etmeyi ve açık kaynak topluluğuna aşırı yüklenmekten kaçınmayı amaçlamaktadır.

Ancak, şirketler gerçek şeffaflıktan (özellikle veri ve eğitimle ilgili olarak) yoksun modeller için ‘açık kaynak’ iddiasını başarıyla savunabilirlerse, önemli güvenceleri atlayabilirler. Bu, kritik soruları gündeme getirir:

  • Anlamlı İnceleme: Düzenleyiciler, davranışının ve potansiyel önyargılarının temel bir belirleyicisi olan eğitim verileri gözden gizlenmişse, güçlü bir yapay zeka modelinin risklerini yeterince değerlendirebilir mi? Yanlış etiketleme, potansiyel olarak yüksek riskli sistemlerin amaçlanandan daha az denetimle çalışmasına izin verebilir.
  • Hesap Verebilirlik Boşlukları: İşler ters gittiğinde - bir model zararlı önyargı sergilerse veya tehlikeli çıktılar üretirse - temel veriler ve eğitim süreci opaksa kim sorumludur? Gerçek açıklık soruşturmayı ve hesap verebilirliği kolaylaştırır; ‘openwashing’ bunu gizler.
  • Etik Yönetişim: Yapay zekayı sorumlu bir şekilde dağıtmak, sınırlamalarını ve potansiyel toplumsal etkilerini anlamayı gerektirir. Bu anlayış, eğitim verileri gibi temel bileşenler gizli tutulduğunda temelden tehlikeye girer. Bağımsız denetimleri, önyargı değerlendirmelerini ve etik incelemeleri önemli ölçüde daha zor, hatta imkansız hale getirir.

Düzenlemelerde gezinmek için ‘açık kaynak’ etiketinin stratejik kullanımı sadece yasal bir manevra değildir; derin etik sonuçları vardır. Kamu güvenini baltalama ve yapay zeka geliştirmenin güvenli, adil ve hesap verebilir bir şekilde ilerlemesini sağlama çabalarını engelleme riski taşır. Bu nedenle, ‘açık kaynak yapay zeka’nın düzenleyici tanımlarının gerçek şeffaflık ilkeleriyle uyumlu olmasını sağlamak çok önemlidir.

Gerçek Yapay Zeka Açıklığına Doğru Bir Rota Çizmek

Neyse ki, alarm zilleri çalıyor ve yapay zeka çağında ‘açık kaynak’ın anlamını geri kazanma çabaları sürüyor. Açık kaynak tanımlarının uzun süredir koruyucusu olan Open Source Initiative (OSI), Açık Kaynak Yapay Zeka (Open Source AI) için net standartlar oluşturmak üzere küresel bir danışma süreci başlattı (OSAID 1.0 tanımıyla sonuçlandı).

Bu çabadaki önemli bir yenilik, ‘veri bilgisi’ (data information) kavramıdır. Devasa ham veri kümelerini yayınlamanın bazı durumlarda yasal veya lojistik olarak mümkün olmayabileceğini (gizlilik, telif hakkı veya saf ölçek nedeniyle) kabul eden OSAID çerçevesi, veriler hakkında kapsamlı açıklama ihtiyacını vurgular. Bu, aşağıdaki ayrıntıları içerir:

  • Kaynaklar: Veriler nereden geldi?
  • Özellikler: Ne tür veriler (metin, resim, kod)? İstatistiksel özellikleri nelerdir?
  • Hazırlık: Veriler nasıl toplandı, filtrelendi, temizlendi ve ön işlendi? Önyargıyı azaltmak için hangi adımlar atıldı?

Ham verilerin kendisi olmasa bile bu şeffaflık düzeyi, araştırmacıların bir modelin olası yeteneklerini, sınırlamalarını ve potansiyel önyargılarını anlamaları için çok önemli bir bağlam sağlar. Mevcut kısıtlamalar dahilinde maksimum şeffaflık için çabalayan pragmatik bir uzlaşmayı temsil eder. OSI ile birlikte, Open Future gibi kuruluşlar, yapay zeka eğitimi için paylaşılan, etik kaynaklı ve açıkça erişilebilir veri kümeleri oluşturmanın yollarını araştırarak, giriş engellerini daha da düşürerek ve işbirlikçi geliştirmeyi teşvik ederek daha geniş bir ‘veri müşterekleri’ (data-commons) modeline doğru bir kaymayı savunuyorlar. Bu tür net, topluluk tarafından onaylanmış standartları oluşturmak ve bunlara bağlı kalmak, ‘openwashing’ sisini dağıtmaya yönelik temel ilk adımdır.

Araştırma Topluluğu İçin Zorunluluk

Bilim insanları ve araştırmacılar yalnızca yapay zeka araçlarının tüketicileri değildir; bu araçların bilimsel değerlerle uyumlu olmasını sağlamada kritik paydaşlardır. OSAID 1.0 gibi gelişen tanımlar ve standartlarla aktif olarak ilgilenmek hayati önem taşımaktadır. Ancak eylem, salt farkındalığın ötesine geçmelidir:

  • Şeffaflık Talep Edin: Yayınlarda, hibe tekliflerinde ve araç seçiminde, araştırmacılar kullandıkları yapay zeka modelleriyle ilgili daha fazla şeffaflığı önceliklendirmeli ve talep etmelidir. Bu, model sürümlerine eşlik eden ayrıntılı ‘veri bilgisi’ kartları veya veri sayfaları için baskı yapmayı içerir.
  • Gerçek Açıklığı Destekleyin: Kod, veri ve metodolojiyi yayınlama konusunda gerçek bir taahhüt gösteren OLMo gibi projelere veya diğer girişimlere aktif olarak katkıda bulunun, kullanın ve atıfta bulunun. İndirmeler ve atıflarla oy kullanmak güçlü bir pazar sinyali gönderir.
  • Değerlendirme Standartları Geliştirin: Topluluğun, basit etiketlerin ötesine geçerek bir yapay zeka modelinin açıklık derecesini değerlendirmek için sağlam yöntemlere ve kontrol listelerine ihtiyacı vardır. Hakem değerlendirme süreçleri, araştırmada kullanılan yapay zeka araçlarıyla ilişkili şeffaflık iddialarının incelenmesini içermelidir.
  • Kurumlar İçinde Savunun: Üniversiteleri, araştırma enstitülerini ve meslek kuruluşlarını, gerçekten açık ve şeffaf yapay zeka araçlarının ve platformlarının kullanımını destekleyen veya gerektiren politikalar benimsemeye teşvik edin.

Bilim topluluğu önemli bir etkiye sahiptir. Araştırmacılar, tekrarlanabilirliği, şeffaflığı ve işbirlikçi erişimi destekleyen standartlarda topluca ısrar ederek, yanıltıcı iddialara karşı koyabilir ve titiz bilimsel keşfe elverişli bir yapay zeka ekosisteminin şekillenmesine yardımcı olabilirler.

Politika, Finansman ve İleriye Giden Yol

Hükümetler ve kamu finansman kuruluşları da yapay zeka manzarasını şekillendirmede önemli bir güce sahiptir. Politikaları ya dolaylı olarak ‘openwashing’i onaylayabilir ya da aktif olarak gerçek açıklığı teşvik edebilir.

  • Açıklık Yetkileri: ABD Ulusal Sağlık Enstitüleri (NIH) gibi kurumların, finanse ettikleri araştırmalar için açık lisanslama ve veri paylaşımı gerektiren yetkileri zaten bulunmaktadır. Kamu parasıyla geliştirilen yapay zeka modellerine ve veri kümelerine benzer ilkeleri genişletmek mantıklı ve gerekli bir adımdır. Kamu fonları yapay zeka geliştirmeyi destekliyorsa, sonuçlar mümkün olan en geniş ölçüde kamuya açık ve doğrulanabilir olmalıdır.
  • Satın Alma Gücü: Devlet kurumları teknolojinin önemli tüketicileridir. Hükümetler, kamu alım sözleşmelerinde gerçek açık kaynaklı yapay zeka (OSAID gibi standartlara bağlı kalarak) için gereklilikleri belirleyerek, şirketlerin daha şeffaf uygulamaları benimsemeleri için önemli bir pazar teşviki yaratabilirler. İtalya’nın kamu yönetiminde açık kaynaklı yazılım gerekliliği potansiyel bir şablon sunmaktadır.
  • Açık Altyapıya Yatırım: Düzenlemenin ötesinde, ‘veri müşterekleri’ girişimlerine, araştırmacılar için açık hesaplama kaynaklarına ve gerçekten açık yapay zeka modellerini barındırmaya ve değerlendirmeye adanmış platformlara yapılan kamu yatırımı dönüştürücü olabilir. Bu, oyun alanını eşitlemeye ve tescilli veya yarı açık sistemlere uygulanabilir alternatifler sağlamaya yardımcı olabilir.
  • Küresel İşbirliği: Yapay zeka geliştirmenin küresel doğası göz önüne alındığında, açık kaynaklı yapay zeka standartlarının tanımlanması ve teşvik edilmesi konusunda uluslararası işbirliği, düzenleyici parçalanmayı önlemek ve dünya çapında tutarlı bir şeffaflık ve hesap verebilirlik tabanı sağlamak için esastır.

Politika kaldıraçları, düşünceli bir şekilde uygulandığında, teşvikleri aldatıcı etiketlemeden uzaklaştırıp bilimsel bütünlüğü ve geniş inovasyonu gerçekten destekleyen uygulamalara doğru önemli ölçüde kaydırabilir. Yapay zekadaki ‘açık kaynak’ yanılsamasına karşı mücadele, uyumlu bir çaba gerektirir. Araştırmacılar uyanık eleştirmenler olmalı, bilimsel titizlik için gerekli şeffaflığı talep etmelidir. OSI gibi standart belirleyici kuruluşlar, yapay zekanın benzersiz doğasını yansıtan tanımları iyileştirmeye devam etmelidir. Ve politika yapıcılar, doğrulanabilir, güvenilir ve erişilebilir yapay zekaya yönelik kamu yararıyla uyumlu uygulamaları teşvik etmek ve zorunlu kılmak için nüfuzlarını kullanmalıdır. Yapay zekanın bilimdeki gelecekteki yörüngesi - gerçekten keşif için açık bir sınır mı yoksa opak kurumsal sistemlerin hakim olduğu bir manzara mı olacağı - dengede duruyor.