Zekanın Kodunu Çözmek: Yapay Zekanın Mantığına Derin Bakış

Yapay Zekanın Döşem Taşları: Akıl Yürütmenin Derinlemesine Analizi

Yapay Zekanın Temel İlkelerinin Çözülmesi

Bölüm 1: Zeka Üzerine Mantıksal Tartışma: Felsefi ve Tarihsel Perspektifler

Yapay Zekanın (YZ) \küçük harf`nin “temelindeki mantığı” tekil, sabit bir kavram değildir. Aksine, zekanın nasıl yaratılacağı ile ilgili onlarca yıldır süren entelektüel bir tartışmadan kaynaklanmaktadır. YZ`yi anlamak için öncelikle entelektüel kökenlerine - iki temel felsefi okulun çatışmasına ve birleşmesine inmek gerekir: Sembolizm ve Bağlantıcılık. Bu okullar, zekanın tamamen zıt görüşlerini temsil ediyor ve değişken servetleri, tüm YZ alanının tarihsel yörüngesini ve gelecekteki yönünü şekillendirdi.

1.1 İki Düşünce Okulu

Yapay zekanın inşa mantığı iki ana yol boyunca ilerler: yukarıdan aşağıya sembolik manipülasyon ve aşağıdan yukarıya biyo-esinli öğrenme.

Sembolizm (“Yukarıdan Aşağıya” Mantığı)

Mantıksalcılık veya bilgisayar okulu olarak da bilinen sembolizm, zekanın özünün sembolleri bir dizi açık, resmileştirilmiş kurala göre manipüle etmekte yattığı temel inancına dayanmaktadır. Bu, insan biliş ve düşünce süreçlerinin sembolik işlemlere soyutlanabileceği öncülüyle “yukarıdan aşağıya” bir yaklaşımdır. Bu görüşte zeka, mantıksal akıl yürütme süreci olarak görülür ve zihin, yapılandırılmış veriler üzerinde çalışan bir bilgisayar programına benzetilebilir.

Bu okulun en tipik tezahürü Uzman Sistemlerdir. Bu sistemler 1970’lerde ve 1980’lerde altın çağlarını yaşadılar ve YZ`nin ilk büyük ölçekli ticari başarısını işaret ettiler. İnsan uzmanlarının karar alma süreçlerini, belirli dar alanlarda (tıbbi teşhis veya kimyasal analiz gibi) çok sayıda “eğer-o zaman” kuralı içeren bir bilgi tabanı aracılığıyla simüle etmeyi amaçladılar. Uzman sistemlerin başarısı, sembolizmi zirveye taşıyarak o zamanlar neredeyse YZ ile eş anlamlı hale getirdi.

Bağlantıcılık (“Aşağıdan Yukarıya” Mantığı)

Sembolizmin aksine, biyonik okulu olarak da bilinen bağlantıcılık, zekanın ortaya çıkan bir fenomen olduğunu savunur. Bunu merkezi bir denetleyici veya önceden ayarlanmış kurallar domine etmemektedir, bunun yerine çok sayıda basit, birbirine bağlı işlem birimi (yani, yapay nöronlar) arasındaki karmaşık etkileşimlerden ortaya çıkmaktadır. Bu “aşağıdan yukarıya” mantığı, insan beyninin yapısından ilham alarak zekanın programlanmadığı, bunun yerine verilerden desenler öğrenilerek elde edildiğine inanmaktadır.

Bağlantıcılığın temel inancı, karmaşık davranışların global açık kurallara ihtiyaç duymadan basit yerel etkileşimlerden ortaya çıkabileceğidir. Temel teknolojik somutlaşması Yapay Sinir Ağları (YSAs)`dır. Bu modeller, büyük miktarda örnek veri üzerinde eğitim alarak ve nöronlar arasındaki “ağırlıkları” (yani bağlantı güçlerini) sürekli olarak ayarlayarak girişler ve çıktılar arasındaki karmaşık ilişkileri öğrenirler.

1.2 Tarihin Sarkacı: Yükseliş, Kış ve Diriliş

YZ gelişiminin tarihi, doğrusal bir ilerleme değil, sembolizm ile bağlantıcılık arasında ileri geri salınan bir sarkaçı andırmaktadır. Bu süreç, teorik bir paradigmadaki başarının veya başarısızlığın yalnızca fikirlerinin derinliğine değil, aynı zamanda dönemin teknoloji ve ekonomik koşullarının kısıtlamalarına da bağlı olduğunu derinden ortaya koymaktadır. YZ`nin temelindeki mantık soyut bir vakumda gelişmez ve gelişim yörüngesi (1) ana felsefi düşünce, (2) mevcut işlem gücü ve (3) ekonomik fizibilite arasındaki karmaşık etkileşimin doğrudan bir sonucudur.

İlk Avantajlar ve İlk YZ Kışı

YZ`nin ilk günlerinde, bağlantıcılık büyük bir potansiyel gösterdi. Bununla birlikte, 1969’da sembolizmde önde gelen bir figür olan Marvin Minsky, Algılayıcılar adlı kitabı yayınladı ve bu kitap, tarihte önemli bir dönüm noktası oldu. Minsky, zamanın basit tek katmanlı sinir ağlarının (yani, algılayıcılar) mantıksal “özel veya” (XOR) problemi gibi en temel problemlerden bazılarını çözemediğini matematiksel olarak titizlikle kanıtladı. Bu kesin akademik eleştiri, o sırada bilgisayar işlem gücünün genel kıtlığı ile birleştiğinde, bağlantıcı araştırmalara yıkıcı bir darbe vurdu. Araştırma fonları önemli ölçüde kesildi ve sinir ağı araştırması, ilk “YZ kışı” olarak bilinen on yıldan uzun süren bir durgunluk dönemine girdi. Bu dönemde, sembolizm mantığı mutlak baskın bir konum işgal etti.

Sembolizmin Altın Çağı ve İkinci YZ Kışı

Uzman sistemler 1980’lerde gelişerek sembolizmi ticari uygulamaların zirvesine taşıdı. Bununla birlikte, sınırlamaları kademeli olarak ortaya çıktı: uzman sistemler inşa etmek pahalıydı, bilgi tabanlarını korumak zordu, belirsiz bilgileri işleyemiyorlardı ve otomatik olarak yeni bilgi öğrenme yeteneğine sahip değillerdi. Sonuç olarak, sembolik YZ programlarını (Lisp dili gibi) çalıştırmak için özel olarak kullanılan “Lisp makineleri”nin ticari başarısızlığı bu dönemin sonunu işaret etti. Daha güçlü performansa ve daha düşük fiyatlara sahip genel amaçlı bilgisayarların (IBM PC gibi) yükselişi, bu özel donanım cihazlarını rekabetçi olmaktan çıkardı ve YZ alanı daha sonra ikinci kışa girdi. Bu, teorik bir mantığın gelişmeye devam etmesi için destek olarak güçlü ve ekonomik bir donanım temeline sahip olması gerektiğini bir kez daha kanıtlıyor.

Bağlantıcılığın Yeniden Dirilişi

Bağlantıcılığın yeniden dirilişi tesadüfi değildi, ancak üç temel faktör tarafından yönlendirildi:

  1. Algoritma Atılımları: “Kış” sırasında, geri yayılım algoritmalarının tanıtılması ve uzun kısa süreli bellek ağları (LSTM’ler) gibi daha karmaşık ağ yapılarının icadı, sinir ağlarını etkin bir şekilde eğitmek için algoritmik temeli attı.

  2. Veri Tufanı: İnternetin popülaritesi benzeri görülmemiş miktarda veri getirdi. Bu veriler, eğitim için çok sayıda örneğe ihtiyaç duyan sinir ağları için yeterli “beslenme” sağladı.

  3. İşlem Gücü Devrimi: Başlangıçta video oyunları için tasarlanan grafik işlemciler (GPU’lar), sinir ağlarındaki temel matris işlemleri için mükemmel bir şekilde uygun olduğu bulunan devasa paralel bir işlem mimarisine sahipti. GPU’ların ortaya çıkışı, bağlantıcılığın onlarca yıldır başını belaya sokan işlem gücü darboğazını kırarak teorik potansiyelinin gerçekten açığa çıkmasını sağladı.

Son olarak, algoritmaların, verilerin ve işlem gücünün yakınsaması, derin öğrenme devrimini ateşleyerek bağlantıcılık mantığını günümüzde YZ alanında tartışmasız ana akım haline getirdi.

1.3 Felsefi Çıkmaz: Anlama ve Simülasyon

İki ana okul arasındaki tarihsel anlaşmazlık nihayetinde, günümüze kadar çözülmemiş derin bir felsefi soruya yol açmaktadır: Akıllı davranışı mükemmel bir şekilde simüle edebilen bir makine, gerçekten anlama yeteneğine sahip midir?

Turing Testi

Alan Turing’in “Turing Testi”, zekanın operasyonel, davranışsal bir tanımını sağlar. Test, bir makinenin bir insanla konuşup konuşamadığını ve insanın bunun bir makine mi yoksa bir kişi mi olduğunu söyleyemediğini içerir; o zaman makine akıllı olarak kabul edilebilir. Turing Testi, “zeka nedir” sorusunu atlar ve “zeka hangi davranışı sergilemelidir”e döner.

“Çin Odası” Düşünce Deneyi

Filozof John Searle, 1980’de ünlü “Çin Odası” düşünce deneyini önererek sembolizme ve Turing testine şiddetli bir saldırı başlattı. Deney şu şekilde tasarlanmıştır: Çince anlamayan bir kişi bir odaya kilitlenir ve oda ayrıntılı bir Çince işleme kuralları kılavuzu (bir programa eşdeğer) içerir. Pencereden Çince karakterler yazılı notlar (giriş) alır ve ardından karşılık gelen karakterleri bulmak ve birleştirmek için kural kılavuzundaki talimatları kesinlikle izler ve ardından sonuçları pencereden dışarı geçirir (çıktı). Odanın tepkisi, odanın dışındaki insanlar için ana dili Çince olan birinden farklı değildir, bu nedenle Turing testini geçer.

Ancak Searle, odadaki kişinin başından sonuna kadar hiçbir Çince karakterin anlamını (anlambilim) anlamadığını ve yaptığı tek şeyin saf sembolik manipülasyon (sözdizimi) olduğunu belirtti. Searle, sembolleri manipüle etmek, ne kadar karmaşık olursa olsun, asla gerçek “anlama” üretemeyeceği sonucuna vardı. Bu argüman, “güçlü YZ” görüşüne (yani, doğru programlanmış bir bilgisayarın bir zihne sahip olabileceği inancı) güçlü bir şekilde meydan okuyor.

Günümüzde, büyük dil modelleri (LLM’ler) tarafından temsil edilen modern YZ, bir anlamda “Çin Odası”nın süper yükseltilmiş bir versiyonu olarak görülebilir. Büyük miktarda metin verisindeki örüntüleri istatistiksel olarak eşleştirerek görünüşte akıllı cevaplar üretirler. Dili gerçekten “anlayıp anlamadıkları” veya yalnızca karmaşık “stokastik papağanlar” olup olmadıkları konusundaki tartışma, modern zamanlarda Turing ve Searle tartışmasının bir devamıdır.

Uzun zamandır sembolizm ve bağlantıcılık, birbirini dışlayan iki paradigma olarak kabul edildi. Bununla birlikte, tarihin “savaşı” bir sentez şeklinde sona ermektedir. Geleceğin temelindeki mantık ya da seçim değil, ikisinin birleşimidir. Bu eğilim, Nöro-Sembolik YZ`nin yükselişinde kendini göstermektedir. Bu alan, sinir ağlarının güçlü örüntü tanıma yeteneklerini sembolik sistemlerin titiz mantıksal akıl yürütme yetenekleriyle birleştirmeyi ve hem öğrenebilen hem de akıl yürütebilen daha güçlü sistemler oluşturmayı amaçlamaktadır. Örneğin, modern YZ aracıları, kendi yeteneklerini geliştirmek için harici sembolik araçlar (hesap makineleri, veritabanı sorguları gibi) çağırabilirler; bu da sinir modellerinin ve sembolik araçların pratik bir kombinasyonudur.

Ek olarak, modern büyük dil modellerindeki “Uzmanlar Karışımı (MoE)“ mimarisi de kavram olarak sembolizmin uzman sistemlerini yankılamaktadır. MoE modeli, birden çok uzmanlaşmış “uzman” alt ağı ve her girişi işlemek için en uygun uzmanı seçmekten sorumlu olan bir “geçiş” ağından oluşur. Bu, işlevsel olarak kurallara göre belirli işlevsel modülleri çağıran sembolik bir sisteme benzer, ancak uygulaması tamamen bağlantıcıdır - uçtan uca öğrenme ve farklı optimizasyon yoluyla. Bu, YZ`nin temelindeki mantığın muhalefetten tamamlayıcılığa doğru ilerlediğini ve füzyon yoluyla benzeri görülmemiş güçlü yetenekler yarattığını gösteriyor.

Tablo 1: Temel YZ Paradigmalarının Karşılaştırılması: Sembolizm ve Bağlantıcılık

Özellik Sembolizm (Yukarıdan Aşağıya) Bağlantıcılık (Aşağıdan Yukarıya)
Temel İlke Zeka, sembolleri manipüle ederek ve resmi kurallara uyarak elde edilir. Zeka, çok sayıda basit, birbirine bağlı birimin etkileşiminden ortaya çıkar.
Bilgi Temsili Açık, yapılandırılmış bilgi tabanı (“eğer-o zaman” kuralları gibi). Örtük, dağıtılmış, ağ bağlantılarının ağırlıklarında kodlanmış bilgi.
Akıl Yürütme Yöntemi Mantıksal çıkarım, arama ve sezgisel kurallara dayalı akıl yürütme. Veriye dayalı örüntü tanıma ve istatistiksel çıkarıma dayalı akıl yürütme.
Temel Teknolojiler Uzman sistemler, mantıksal programlama, bilgi grafikleri. Yapay sinir ağları, derin öğrenme, büyük dil modelleri.
Avantajlar Güçlü yorumlanabilirlik, mantıksal olarak titiz, iyi tanımlanmış alanlarda mükemmel. Güçlü öğrenme yeteneği, belirsiz ve yapılandırılmamış verileri işleyebilir, iyi genelleme yeteneği.
Dezavantajlar Bilgi edinme darboğazı, belirsizliği ele alma konusunda zayıf yetenek, kırılgan sistem. “Kara kutu” sorunu (zayıf yorumlanabilirlik), büyük miktarda veri ve işlem gücü gerektirir, düşmanca saldırılara duyarlıdır.
Tarihsel Zirve 1970’ler ve 1980’lerde uzman sistemler çağı. 2010’dan günümüze derin öğrenme çağı.
Temsilci Figürler Marvin Minsky, Herbert A. Simon, Allen Newell. Geoffrey Hinton, Yann LeCun, John Hopfield, Fei-Fei Li.

Bölüm 2: Modern YZ`nin Evrensel Dili: Temel Matematiksel İlkeler

Modern YZ`nin gizemini ortaya çıkarmak, \küçük harf`nin “temelindeki mantığın” insan aklı veya akıl yürütme değil, kesin ve evrensel bir matematiksel dil olduğunu fark etmeyi gerektirir. Özellikle, bağlantıcılık tarafından domine edilen YZ, esasen “veri, algoritmalar ve işlem gücü” tarafından yönlendirilen uygulamalı matematiktir. Zeka üretimi, öğrenme ve optimizasyon süreçleri, üç matematiksel sütunun sinerjisine bölünebilir: olasılık istatistiği, doğrusal cebir ve kalkülüs.

2.1 YZ`nin Matematiksel Doğası

Mevcut yapay zekanın temel görevi genellikle şu şekilde tanımlanabilir: yüksek boyutlu, karmaşık bir problem uzayında yaklaşık olarak optimum bir çözüm bulmak. Tüm olasılıkları ayrıntılı olarak deneyerek problemleri çözmek yerine, yeterince iyi bir çözüm bulmak için matematiksel yöntemler uygular. Matematik, YZ`ye resmi modelleme araçları ve bilimsel açıklama dilleri sağlar ve YZ sistemleri oluşturmak, anlamak ve iyileştirmek için temel taşıdır.

2.2 Sütun 1: Olasılık ve İstatistik - Belirsizliğin Mantığı

Olasılık teorisi ve istatistik, YZ`ye belirsiz ortamlarda akıl yürütmek ve verilerden desenler çıkarmak için teorik bir çerçeve sağlar. YZ modelleri, tahminlerde bulunmak ve kararlar almak için verilerin temel dağılımını öğrenen esasen olasılıksal sistemlerdir.

Bununla birlikte, büyük verilerin ortaya çıkışı, geleneksel istatistik temellerine ciddi bir zorluk teşkil etmektedir. Büyük sayılar yasası ve merkezi limit teoremi gibi geleneksel istatistiksel teoriler, çoğunlukla örneklerin “bağımsız ve özdeş olarak dağıtıldığı” (i.i.d.) ve örnek boyutunun n, özellik sayısından p‘den çok daha büyük olduğu varsayımlarına dayanmaktadır (yani, pn). Ancak büyük veri çağında, bu varsayımlar genellikle kırılmıştır. Örneğin, görüntü tanıma görevlerinde, yüksek çözünürlüklü bir görüntü milyonlarca piksel (özellik p) içerebilirken, eğitim veri kümesi yalnızca on binlerce görüntüye (örnek n) sahip olabilir ve bu da pn olan “boyutsallık laneti” sorununa yol açar. Bu durumda, geleneksel istatistiksel yöntemleri geçersiz kılan “sahte korelasyonlar” oluşturmak kolaydır.

Derin öğrenmenin yükselişi, bir dereceye kadar bu zorluğa bir yanıt olarak tasarlanmıştır. Geleneksel istatistiksel varsayımlara güvenmeden yüksek boyutlu verilerden etkili özellik temsillerini otomatik olarak öğrenmek için bir yöntem sağlar. Bununla birlikte, güncel YZ araştırmalarında bu yeni veri paradigması için sağlam bir istatistiksel temel oluşturmak, acilen çözülmesi gereken önemli bir matematiksel problemdir.

2.3 Sütun 2: Doğrusal Cebir - Temsilin Mantığı

Doğrusal cebir, veri ve modelleri temsil etmek için temel araçlar sağlayan YZ dünyasının “evrensel dilidir”. Sinir ağlarında, ister giriş (bir görüntünün pikselleri, bir metnin kelime vektörleri gibi), modelin parametreleri (ağırlıklar) veya nihai çıktı olsun, hepsi sayısal bir yapı olarak ifade edilir: vektörler, matrisler veya daha yüksek boyutlu tensörler.

Bir nöronun tüm girdilerini tartıp toplamak gibi sinir ağlarındaki temel işlem, esasen matrislerin ve vektörlerin çarpımıdır. GPU’ların YZ eğitimini büyük ölçüde hızlandırabilmesinin nedeni, donanım mimarilerinin bu büyük ölçekli paralel doğrusal cebir işlemlerini verimli bir şekilde yürütmek için son derece optimize edilmiş olmalarıdır.

2.4 Sütun 3: Kalkülüs ve Optimizasyon - Öğrenmenin Mantığı

YZ`nin öğrenme süreci esasen matematiksel bir Optimizasyon problemidir. Amaç, modelin tahminleri ile gerçek cevaplar arasındaki farkı en aza indiren bir dizi model parametresi (örneğin, bir sinir ağındaki ağırlıklar ve yanlılıklar) bulmaktır. Bu fark, bir Kayıp Fonksiyonu ile ölçülür.

Gradyan İnişi: Öğrenmenin Motoru

Gradyan İnişi, bu amaca ulaşmak için temel algoritmadır ve neredeyse tüm modern YZ modellerinin öğrenmesini yönlendiren motordur.

  • Temel Fikir: Gradyan inişi, bir kayıp fonksiyonunun minimum noktasını bulmayı amaçlayan yinelemeli bir optimizasyon algoritmasıdır. Bu süreç, mecazi olarak yoğun siste bir dağdan inen bir kişiye benzetilebilir. Vadinin en alçak noktasının nerede olduğunu göremez, ancak ayaklarının altındaki zeminin eğimini hissedebilir. En rasyonel strateji, mevcut konumda en dik aşağı yönde küçük bir adım atmak ve ardından bu süreci tekrarlamaktır.

  • Özel Süreç:

    1. Başlatma: İlk olarak, rastgele bir ilk model parametreleri kümesi (ağırlıklar ve yanlılıklar) ayarlayın.

    2. Kayıp Hesaplama: Modelin eğitim verilerinde tahminler yapması için geçerli parametreleri kullanın ve tahminler ile gerçek etiketler arasındaki toplam hatayı (kayıp) hesaplayın.

    3. Gradyan Hesaplama: Her parametreye göre kayıp fonksiyonunun Gradyan`ını hesaplamak için kalkülüste Kısmi Türevler kullanın. Gradyan, kayıp fonksiyonu değerindeki en hızlı artış yönünü gösteren bir vektördür.

    4. Parametreleri Güncelleme: Her parametreyi gradyanının zıt yönünde küçük bir adım hareket ettirin. Bu adımın boyutu, Öğrenme Oranı olarak adlandırılan bir hiperparametre (genellikle η olarak gösterilir) tarafından kontrol edilir. Güncelleme formülü şöyledir: parametreyeni = parametreeskiη × gradyan.

    5. Tekrarlama: 2’den 4’e kadar olan adımları binlerce kez sürekli olarak tekrarlayın. Her yineleme model parametrelerini ince ayar yaparak kayıp değerinin kademeli olarak azalmasına neden olur. Kayıp değeri artık önemli ölçüde azalmıyorsa, algoritma yerel veya global bir minimum noktasına “yakınsar” ve öğrenme süreci sona erer.

  • Algoritma Varyantları: Her yinelemede kullanılan veri miktarına bağlı olarak, hesaplama verimliliği ve yakınsama kararlılığı arasında farklı takaslar sağlayan Toplu GD, Stokastik GD (SGD) ve Mini-toplu GD gibi gradyan inişinin birçok varyantı vardır.

Matematik, tüm modern YZ paradigmalarını birbirine bağlayan birleştirici dildir. İster basit doğrusal regresyon, karmaşık destek vektör makineleri veya devasa derin sinir ağları olsun, öğrenmelerinin temelindeki mantık ortaktır: bir model tanımlayın, bir kayıp fonksiyonu tanımlayın ve ardından kayıp fonksiyonunu en aza indiren parametreleri bulmak için bir optimizasyon algoritması (gradyan inişi gibi) kullanın. “Kayıp minimizasyonu”na dayalı bu matematiksel çerçeve, makinelerin verilerden nasıl öğrendiğinin gerçek temel mantığıdır.

YZ`nin matematiksel mantığı aynı zamanda geleneksel programlama mantığından temel bir değişimi işaret ediyor. Geleneksel programlama deterministik ve kesindir. Öte yandan YZ, olasılıksal ve yaklaşıktır. Araştırmaların gösterdiği gibi, YZ`nin amacı genellikle kanıtlanabilir mükemmel bir çözüm bulmak değil (karmaşık gerçek dünya problemleri için genellikle imkansızdır), “yeterince iyi” olan yaklaşık bir çözüm bulmaktır. YZ`nin “kara kutu” özelliği, bu değişiminin doğrudan bir sonucudur. Kaybını veya doğruluğunu değerlendirerek etkili **olup olmadığını** ölçebiliriz, ancak geleneksel algoritmalarla yapabileceğimiz gibi, adım adım açık mantıkla **nasıl** çalıştığını açıklamak zordur. Bunun nedeni, YZ`nin “çözümünün” insan tarafından okunabilir bir kurallar kümesi değil, milyonlarca optimize edilmiş sayısal parametre tarafından kodlanan yüksek boyutlu karmaşık bir fonksiyon olmasıdır. İçsel “mantığı”, anlamsal kuralların kendilerinden ziyade, kayıp fonksiyonu tarafından oluşturulan çok boyutlu uzayın geometrik morfolojisinde somutlaşmıştır.

Bölüm 3: Öğrenme Metodolojileri - YZ Bilgiyi Nasıl Edinir?

Temel matematiksel ilkelere dayanan YZ, üç temel öğrenme stratejisi veya “öğrenme paradigması” geliştirmiştir. Bu paradigmalar, eğitim sırasında YZ sistemine sunulan veri türlerine ve geri bildirim sinyallerine göre sınıflandırılır; yani denetimli öğrenme, denetimsiz öğrenme ve pekiştirmeli öğrenme.

3.1 Denetimli Öğrenme: Bir Akıl Hocasıyla Öğrenme

Denetimli Öğrenme, en yaygın kullanılan makine öğrenme paradigmasıdır.

  • Temel Mantık: Model, etiketli bir veri kümesinden öğrenir. Bu veri kümesinde, her giriş örneği açıkça doğru çıktı cevabıyla eşleştirilir. Bu süreç, bir öğrencinin standart cevapları olan bir dizi egzersizle bir sınava hazırlanmasına benzer.

  • Öğrenme Süreci: Model, bir giriş örneği için bir tahminde bulunur ve ardından tahmini gerçek etiketle karşılaştırarak hatayı (kayıp) hesaplar. Daha sonra, bu hatayı azaltmak için gradyan inişi gibi optimizasyon algoritmaları kullanılarak modelin iç parametreleri ayarlanır.

  • Başlıca Görevler ve Algoritmalar:

    • Sınıflandırma: Ayrık bir kategori etiketi tahmin edin. Örneğin, bir e-postanın “spam” mı yoksa “spam değil” mi olduğuna karar vermek veya bir resimdeki bir hayvanın “kedi” mi yoksa “köpek” mi olduğunu belirlemek. Yaygın algoritmalar arasında Lojistik Regresyon, Karar Ağaçları ve Destek Vektör Makineleri (SVM) bulunur.

    • Regresyon: Sürekli bir sayısal değer tahmin edin. Örneğin, bir evin fiyatını veya yarınki sıcaklığı tahmin etmek. Yaygın algoritmalar arasında Doğrusal Regresyon ve Rastgele Ormanlar bulunur.

  • Veri Gereksinimleri: Denetimli öğrenmenin başarısı, büyük miktarda yüksek kaliteli, manuel olarak etiketlenmiş verilere büyük ölçüde bağlıdır. Bu etiketli verileri elde etmek genellikle maliyetli ve zaman alıcıdır ve bu da bu yöntem için önemli bir darboğaz oluşturmaktadır.

3.2 Denetimsiz Öğrenme: Bir Akıl Hocası Olmadan Öğrenme

Denetimsiz Öğrenme, verinin içsel yapısını araştırır.

  • Temel Mantık: Model etiketsiz veri alır ve verideki gizli desenleri, yapıları veya ilişkileri otonom olarak keşfetmelidir. Bu süreç, bir antropoloğun bilinmeyen bir kabileyi herhangi bir rehber olmadan gözlemlemesine benzer ve yalnızca gözlem yoluyla farklı sosyal grupları ve davranışsal alışkanlıkları tanımlayabilir.

  • Başlıca Görevler ve Algoritmalar:

    • Kümeleme: Benzer veri noktalarını bir araya getirin. Örneğin, müşterileri satın alma davranışlarına göre farklı gruplara ayırmak. Yaygın algoritmalar arasında K-Means ve Gauss Karışım Modelleri (GMM) bulunur.

    • Birliktelik Kuralı Öğrenimi: Veri öğeleri arasındaki ilginç ilişkileri keşfedin. Örneğin, pazar sepeti analizinde “ekmek satın alan müşterilerin süt de satın alma olasılıkları yüksektir” kuralını keşfetmek.

    • Boyut Azaltma: Bilgilerin çoğunu korurken verideki en önemli temel özellikleri bularak veriyi basitleştirin. Örneğin, Temel Bileşenler Analizi (PCA).

  • Önemli Anlam: Denetimsiz öğrenme, keşif amaçlı veri analizi için çok önemlidir ve modern büyük dil modellerinin (LLM’ler) “ön eğitim” aşamasının temel taşıdır ve büyük miktarda etiketlenmemiş metinden dilin genel bilgisini öğrenmelerini sağlar.

3.3 Pekiştirmeli Öğrenme: Deneme Yanılma Yoluyla Öğrenme

Pekiştirmeli Öğrenme, davranışsal psikolojiden ilham almıştır ve bir ortamla etkileşim kurarak öğrenme paradigmasıdır.

  • Temel Mantık: Bir Aracı bir Ortam`da bir **Eylem** gerçekleştirir ve karşılık gelen **Ödül** veya **Ceza**`yı geri bildirim olarak alır. Aracının amacı, optimal bir Politika öğrenmektir; bu da belirli bir durumda ödülü en üst düzeye çıkaran eylemleri seçme stratejisidir.
  • Öğrenme Süreci: Aracı, ortamda deneme yanılma yoluyla sürekli olarak eylemlerde bulunur. Her etkileşimde, aracı hem eyleminin sonucu (örneğin durum değişikliği) hem de bu eylemin ödülü (veya cezası) hakkında geri bildirim alır. Aracı, zaman içinde hangi eylemlerin olumlu sonuçlara yol açtığını keşfeder ve ardından performansı en üst düzeye çıkarmak için eylem politikasını buna göre ayarlar.