Teknolojik çağların büyüleyici bir çarpışmasında, yaygın ev bilgisayarlarının ilk günleri ile yapay zekanın en ileri noktasını birleştiren bir anlatı ortaya çıktı. Teknoloji dünyasının önde gelen isimlerinden ve etkili risk sermayesi şirketi Andreessen Horowitz’in kurucu ortağı Marc Andreessen, yakın zamanda dikkat çekici bir başarıya ışık tuttu: Meta’nın Llama yapay zeka modelinin kompakt bir versiyonu, yalnızca 128 megabayt RAM ile donatılmış, saygıdeğer Windows 98 işletim sistemini çalıştıran bir bilgisayarda başarıyla çalıştırıldı. Bu açıklama, teknolojik potansiyelin güçlü bir hatırlatıcısı olarak hizmet ediyor ve bilgi işlemin tarihsel yörüngesi hakkında ilgi çekici sorular ortaya çıkarıyor.
Gelişmiş bir yapay zekayı, küçültülmüş bir versiyonunu bile, çeyrek asırdan daha eski donanımlarda çalıştırma fikri neredeyse paradoksal görünüyor. ChatGPT ve Microsoft’un kendi Copilot’u gibi araçlara güç veren modern üretken yapay zeka (generative AI), tipik olarak güçlü işlemciler, önemli bellek ayırmaları ve genellikle bulut tabanlı altyapı ile ilişkilendirilir. Microsoft’un kendisi de yapay zeka yeteneklerini, özellikle Copilot asistanını, en son işletim sistemi Windows 11’e ve özellikle yapay zeka iş yükleri düşünülerek tasarlanmış Copilot+ PC’ler olarak adlandırılan yeni nesil donanıma derinlemesine entegre etmek için yoğun yatırım yaptı. Bu karşıtlık, Windows 98 deneyini daha da çarpıcı kılıyor. Belirli yapay zeka işlevleri için gerçekten gerekli olan kaynaklar hakkındaki varsayımlarımıza meydan okuyor ve alternatif bir teknolojik zaman çizelgesine bir bakış sunuyor.
Geçmişi Canlandırmak: Deneyin Ardındaki Herkülvari Çaba
Andreessen bu başarıya daha geniş bir dikkat çekerken, teknik ağır işlerin daha önceki çalışmalardan, özellikle de Exo Labs ekibinin çalışmalarından kaynaklandığı görülüyor. Modern bir yapay zekayı böylesine eski bir makineye ikna etme yolculukları hiç de kolay değildi; bu, dijital arkeoloji ve yaratıcı problem çözme egzersiziydi ve o zamanki bilgi işlem ile şimdiki arasındaki büyük farkları vurguluyordu.
İlk engel temel lojistik ve donanım uyumluluğunu içeriyordu. Windows 98 döneminden işlevsel donanım bulmak yeterince zor. Ancak makineyi başlatmanın ötesinde, ekibin çevre birimlerine ihtiyacı vardı. Bugün her yerde bulunan modern USB arayüzleri, Windows 98’in en parlak döneminde standart değildi. Bu, daha eski PS/2 konektörlerini kullanan uyumlu giriş aygıtlarının tedarik edilmesini gerektirdi – birçok genç teknoloji meraklısının hiç karşılaşmamış olabileceği klavyeler ve fareler.
Fiziksel kurulum ele alındıktan sonra, bir sonraki önemli engel veri aktarımıydı. Gerekli yapay zeka model dosyalarını ve geliştirme araçlarını, yüksek hızlı USB bağlantı noktaları veya sorunsuz ağ entegrasyonu gibi modern bağlantı seçeneklerinden yoksun bir makineye nasıl alırsınız? Bu muhtemelen, dosyaları CD’lere yazmak veya zamanın sınırlı ağ protokollerini kullanmak gibi daha eski, daha yavaş yöntemlere başvurmayı içeriyordu ve basit bir dosya kopyalamayı potansiyel olarak zaman alıcı bir sürece dönüştürüyordu.
Ancak asıl teknik zorluk, modern kodu eski bir ortam için derlemekte yatıyordu. Meta’nın Llama mimarisine dayanan yapay zeka modeli, çağdaş programlama uygulamaları ve dilleri kullanılarak oluşturulmuştur. Bu kodu Windows 98 tarafından anlaşılır ve yürütülebilir hale getirmek, eski işletim sisteminde çalışabilen ve yapay zeka kodunun karmaşıklıklarını kaldırabilen bir derleyici – kaynak kodunu makine diline çeviren bir program – gerektiriyordu.
Exo Labs başlangıçta, kendisi de bir yazılım tarihi parçası olan Borland C++ 5.02‘ye yöneldi – Windows 98’de yerel olarak çalışan 26 yıllık bir entegre geliştirme ortamı (IDE) ve derleyici kombinasyonu. Bu seçim, modern kod tabanı ile eski işletim sistemi arasında potansiyel bir köprü temsil ediyordu. Ancak yol, komplikasyonlarla doluydu. Modern C++ standartlarının ve kütüphanelerinin inceliklerinin, Borland derleyicisinin ve Windows 98 ortamının yetenekleri ve sınırlamalarıyla uzlaştırılması zor oldu. Uyumluluk sorunları ortaya çıktı ve ekibi yön değiştirmeye zorladı.
Çözümleri, C programlama dilinin daha eski bir sürümüne geri dönmeyi içeriyordu. C temel bir dil ve C++’ın öncüsü olsa da, daha eski bir C standardı kullanmak, C++’ın daha zarif bir şekilde ele aldığı bazı üst düzey soyutlamalardan ve kolaylıklardan fedakarlık etmek anlamına geliyordu. Bu, C++’ın daha zarif bir şekilde ele aldığı işlevler ve değişkenler gibi öğeleri manuel olarak yöneterek daha zahmetli bir kodlama süreci gerektirdi. İlerleme kaçınılmaz olarak daha yavaştı ve eski geliştirme araçlarının kolayca yakalayamayabileceği hatalardan kaçınmak için titiz bir dikkat gerektiriyordu.
Bellek Kısıtlaması: Sınırlı Kaynaklar İçin Llama’yı Evcilleştirmek
Belki de en ürkütücü kısıtlama, son derece sınırlı Rastgele Erişim Belleği (RAM) idi. Hedef makine yalnızca 128 megabayt RAM’e sahipti. Bunu bir perspektife oturtmak gerekirse, modern akıllı telefonlar rutin olarak 8, 12 veya hatta 16 gigabayt RAM ile gönderilir (bir gigabayt kabaca 1000 megabayttır). Oyun veya profesyonel işler için tasarlanmış üst düzey PC’ler genellikle 32GB, 64GB veya daha fazlasına sahiptir. Bir yapay zeka modeli gibi karmaşık bir uygulamayı böylesine küçük bir bellek ayak izi içinde çalıştırmak, bir süpürge dolabında karmaşık bir ameliyat yapmaya benzer.
Meta’nın Llama model ailesi, genellikle OpenAI’nin GPT-4 gibi devlerinden daha kaynak verimli olarak kabul edilse de, hala milyarlarca parametreye sahip sürümleri kapsar. Örneğin Llama 2 mimarisi, 70 milyar parametreye kadar ölçeklenen modeller içerir. Bu daha büyük modeller, önemli hesaplama gücü ve kritik olarak, model ağırlıklarını yüklemek ve bilgiyi işlemek ve yanıtlar üretmekle ilgili hesaplamaları yönetmek için büyük miktarda bellek gerektirir. Standart bir Llama 2 modeli, 128MB kısıtlaması içinde çalışmaktan tamamen aciz olurdu.
Bu nedenle, deneyin başarısı, Llama mimarisinin yüksek düzeyde optimize edilmiş, önemli ölçüde daha küçük bir yinelemesini kullanmaya veya geliştirmeye bağlıydı. Bu özel sürümün, ciddi donanım sınırlamaları altında çalışacak şekilde özel olarak uyarlanması gerekiyordu. Muhtemelen, bellek ve hesaplama ayak izini büyük ölçüde küçültmek için model nicelemesi (modelin hesaplamalarında kullanılan sayıların hassasiyetini azaltma) ve budama (sinir ağının daha az önemli kısımlarını kaldırma) gibi teknikleri içeriyordu. Exo Labs, uyarlanmış sürümlerini GitHub’da kullanıma sunarak gereken özel değişiklikleri sergiledi.
Eski donanımda çalışan bu minik yapay zeka, daha büyük, bulutta çalışan kuzenlerinin geniş bilgisine veya incelikli konuşma yeteneklerine sahip olmazdı. Yetenekleri kısıtlı olurdu. Yine de, çalışabilmesi ve temel üretken görevleri yerine getirebilmesi gerçeği, önemli bir teknik başarıyı temsil ediyor. Büyük dil modellerinin temel kavramlarının, pratik faydası bu tür aşırı uçlarda sınırlı olsa bile, prensipte dramatik bir şekilde küçültülebileceğini gösteriyor.
Andreessen’ın Kışkırtması: Konuşma Odaklı Bilgi İşlem İçin Kayıp Bir Zaman Çizelgesi mi?
Marc Andreessen, bilgi işlemin tarihi ve potansiyel geleceği hakkında daha geniş, daha kışkırtıcı bir noktaya değinmek için bu teknik gösteriden yararlandı. Onun yansıması sadece eski donanımda yeni yazılım çalıştırmanın teknik merakıyla ilgili değildi; insan-bilgisayar etkileşiminin olası alternatif bir tarihi üzerine bir düşünceydi.
Bunu, Llama’nın 26 yıllık bir Dell PC’de başarılı bir şekilde çalıştırılmasının on yıllara yayılan kaçırılmış bir fırsat anlamına geldiğini öne sürerek ifade etti. Andreessen, “Tüm bu eski PC’ler kelimenin tam anlamıyla bunca zaman akıllı olabilirdi,” diye iddia etti. “Bilgisayarlarımızla 30 yıldır konuşuyor olabilirdik.”
Bu ifade bizi, yapay zeka gelişiminin yörüngesinin kişisel bilgi işlemin yükselişiyle farklı bir şekilde birleştiği bir dünya hayal etmeye davet ediyor. PC’ler öncelikle hesaplama, belge oluşturma ve sonunda internete erişim araçları olmak yerine, belki de çok daha erken konuşma ortaklarına dönüşebilirlerdi. Hayal edilen görüntü, kullanıcıların Windows 95, 98 veya hatta daha önceki makineleriyle doğal dil aracılığıyla etkileşim kurduğu, sorular sorduğu, yardım aldığı ve yalnızca modern dijital asistanların ve sofistike LLM’lerin ortaya çıkışıyla ana akım gerçeklik haline gelen bir şekilde diyalog kurduğu bir dünyadır.
Elbette, bu önemli bir karşı olgusal sıçramadır. Bugün anladığımız şekliyle üretken yapay zeka, devasa veri kümelerine, sofistike sinir ağı mimarilerine (Llama ve GPT modellerinin temelini oluşturan Transformer mimarisi gibi) ve eğitim için muazzam hesaplama gücüne dayanmasıyla nispeten yeni bir olgudur. 1980’lerin ve 1990’ların yapay zeka araştırmaları, iddialı olmakla birlikte, uzman sistemler ve sembolik akıl yürütme gibi farklı paradigmalara odaklanmıştı. Exo Labs tarafından gösterilen küçültülmüş Llama’yı çalıştırabilen dönemin donanımı, bugünün sistemlerinden kat kat daha az güçlüydü ve yetenekli üretken modelleri eğitmek için gereken devasa dijital veri kümeleri erişilebilir bir biçimde mevcut değildi.
Andreessen, 1980’lerin yapay zeka patlamasının iyimserliğine dikkat çekerek bu bağlamı kabul etti: “80’lerde birçok akıllı insan tüm bunların o zaman olacağını düşünüyordu.” O dönem, yapay zekaya önemli yatırımlar ve araştırmalar gördü, ancak sonunda bir ‘YZ kışı’na yol açtı – teknolojinin en iddialı vaatlerini yerine getirememesi üzerine finansmanın ve ilginin azaldığı bir dönem. Hesaplama gücü, veri kullanılabilirliği ve algoritmik yaklaşımlardaki sınırlamalar derindi.
Bu nedenle, Andreessen’ın yorumu belki de en iyi şekilde, sofistike, insan benzeri yapay zekanın 1990’ların donanımında şimdi deneyimlediğimiz şekilde mümkün olduğunu iddia eden literal bir iddia olarak değil, daha ziyade bir düşünce deneyi olarak anlaşılmalıdır. Araştırma öncelikleri, algoritmik atılımlar ve donanım geliştirme farklı bir yol izleseydi kilidi açılabilecek potansiyeli vurgular. Sonuç bugünün yapay zekasından çok daha basit olsa bile, bazı akıllı etkileşim biçimlerinin yapı taşlarının teknik olarak ulaşılabilir olabileceği fikrinin altını çizer.
Karşıt Dönemler: Çevirmeli Ağ Hayallerinden YZ Katkılı Gerçekliğe
Windows 98 deneyi, mevcut yapay zeka entegrasyonu manzarasına keskin bir karşıtlık noktası olarak hizmet ediyor. Bugün yapay zeka, bulut merkezli bir hizmet olmaktan hızla işletim sisteminin ve hatta donanımın kendisinin derinliklerine gömülmeye doğru ilerliyor.
Microsoft’un Copilot ve Copilot+ PC’ler ile yaptığı hamle bu eğilimi örnekliyor. Windows 11, Copilot için çok sayıda giriş noktası sunarak belgeleri özetlemekten ve e-postalar taslaklamaktan görüntü oluşturmaya ve sistem ayarlarını yapmaya kadar çeşitli görevler için yapay zeka yardımı sunuyor. Yeni Copilot+ PC spesifikasyonu, yapay zeka hesaplamalarını verimli bir şekilde hızlandırmak için tasarlanmış özel silikon olan bir Sinir İşlem Birimi’nin (NPU) dahil edilmesini zorunlu kılıyor. Bu, yapay zeka işlemenin kişisel bilgisayarın temel bir işlevi haline geldiği, yalnızca uzak sunuculara güvenmek yerine yerel olarak ele alındığı temel bir değişimi ifade ediyor.
Bu modern yaklaşım, bol kaynakları varsayar ve bunlardan yararlanır. Copilot+ PC’ler minimum 16GB RAM ve hızlı katı hal depolama gerektirir; bu özellikler, Windows 98 makinesinin mütevazı 128MB’ını büyük ölçüde aşar. İstemci tarafı yürütme için optimize edilmiş olsalar da kullanılan yapay zeka modelleri, deneyde kullanılan minyatür Llama sürümünden çok daha karmaşık ve yeteneklidir. Onlarca yıllık algoritmik iyileştirme, devasa eğitim veri kümeleri ve ihtiyaçları için özel olarak tasarlanmış donanımdan yararlanırlar.
Karşıtlık birkaç noktayı aydınlatıyor:
- Yazılım Optimizasyonu vs. Şişkinlik: Exo Labs deneyi, modern algoritmaları son derece kısıtlı bir ortama zorlayan aşırı optimizasyonun bir kanıtıdır. Modern yazılımın sürekli artan donanım kaynaklarını varsayma eğilimini, bazen verimsizliğe veya ‘şişkinliğe’ yol açmasını dolaylı olarak eleştirir.
- Donanımın Evrimi: Tipik bir 1998 PC ile 2024 Copilot+ PC arasındaki hesaplama gücü ve bellek farkı şaşırtıcıdır ve Moore Yasası’nın ve mimari yeniliğin birden çok neslini temsil eder.
- Veri Erişilebilirliği: Modern LLM’lerin eğitimi, Windows 98 döneminde hayal bile edilemeyen internet ölçeğindeki veri kümelerine dayanır. Dijital evren o zamanlar basitçe çok küçük ve bağlantısızdı.
- Algoritmik Atılımlar: 2017’de Transformer modeli gibi mimarilerin geliştirilmesi, bugünün üretken yapay zekasında görülen ölçeklendirmeyi ve performansı sağlayan çok önemli bir andı. Daha önceki yapay zeka yaklaşımlarının temel sınırlamaları vardı.
Andreessen 30 yıl önce konuşan bilgisayarlar hayal ederken, gerçek şu ki, bugünün yapay zeka deneyimi için gereken donanım gücü, veri kullanılabilirliği ve algoritmik yeniliğin birleşimi ancak çok daha yakın zamanda gerçekleşti.
Tüm Bunlar Ne Anlama Geliyor? Nostaljinin Ötesindeki Yansımalar
Bir Llama modelinin Windows 98’de başarılı bir şekilde konuşlandırılması sadece zekice bir hack, teknoloji meraklıları için nostaljik bir gösteri mi? Yoksa daha derin bir anlam mı taşıyor? Tartışmalı olarak birkaç amaca hizmet eder:
- Aşırı Ölçeklenebilirliği Göstermek: Büyük dil modellerinin arkasındaki temel ilkelerin inanılmaz derecede sıkı kaynak kısıtlamaları altında çalışacak şekilde uyarlanabileceğini kanıtlar. Bunun, yapay zekayı düşük güçlü gömülü sistemlerde, IoT cihazlarında veya dünyanın çeşitli yerlerinde hala kullanımda olan eski donanımlarda konuşlandırmak için potansiyel etkileri vardır.
- Kısıtlamaların Gücünü Vurgulamak: Ciddi sınırlamalar içinde çalışmak genellikle yeniliği ve verimliliği zorlar. Exo Labs ekibi yaratıcı çözümler bulmak ve acımasızca optimize etmek zorunda kaldı; bu beceriler kaynak açısından zengin ortamlarda bile değerlidir.
- Varsayımlara Meydan Okumak: Modern uygulamalar tarafından kullanılan tüm hesaplama gücünün ve belleğin, sağladıkları değer için kesinlikle gerekli olup olmadığı konusunda düşünmeye sevk eder. Bazı yazılımlar daha yalın ve daha verimli olabilir mi?
- Teknolojik Yolların Olumsallığını Göstermek: Tarih nadiren düz bir çizgiyi takip eder. Bazı ilkel yapay zekanın eski donanımda mümkün olabileceği gerçeği, farklı seçimlerin, araştırma yönlerinin veya hatta şans eseri keşiflerin bizi farklı bir teknolojik yola nasıl götürebileceğinin altını çizer.
Bu deney tarihi yeniden yazmıyor, ne de 2024’ün sofistike yapay zeka deneyimlerinin 1998’de bir şekilde ulaşılabilir olduğu anlamına geliyor. Sağlayıcı teknolojilerdeki – işlem gücü, bellek, veri, algoritmalar – boşluk muazzam olmaya devam ediyor. Ancak, mühendislik yaratıcılığının bir kanıtı ve teknolojik ilerlemenin dolambaçlı yolunu düşünmek için bir katalizör olarak büyüleyici bir veri noktası sağlıyor. Bize dünün sınırlamalarının bazen bugünün bilgisiyle aşılabileceğini, şaşırtıcı sonuçlar doğurabileceğini ve hem şimdi hem de gelecekte neyin mümkün olabileceğini yeniden düşünmeye teşvik ettiğini hatırlatıyor. Eski makinedeki hayalet sadece ne olduğunu değil, belki de basitlik ve verimlilikte yatan kullanılmamış potansiyeli de fısıldıyor.