ถอดรหัสปัญญาประดิษฐ์: หลักการพื้นฐาน

ส่วนที่ 1: การถกเถียงเชิงตรรกะเกี่ยวกับปัญญา: มุมมองเชิงปรัชญาและประวัติศาสตร์

"ตรรกะพื้นฐาน" ของปัญญาประดิษฐ์ (AI) ไม่ใช่แนวคิดที่ตายตัว แต่เป็นผลมาจากการถกเถียงทางปัญญานานหลายทศวรรษเกี่ยวกับวิธีการสร้างปัญญา เพื่อที่จะเข้าใจ AI อย่างถ่องแท้ เราต้องเจาะลึกลงไปในต้นกำเนิดทางปัญญาของมัน ซึ่งก็คือความขัดแย้งและการผสมผสานของสองสำนักปรัชญาหลัก ได้แก่ Symbolicism (สัญลักษณ์นิยม) และ Connectionism (คอนเน็กชันนิซึม) สำนักคิดเหล่านี้เป็นตัวแทนของมุมมองที่แตกต่างกันอย่างชัดเจนเกี่ยวกับปัญญา และความผันผวนของความสำคัญของพวกเขามีอิทธิพลต่อวิถีทางประวัติศาสตร์และทิศทางในอนาคตของสาขา AI ทั้งหมด

1.1 สองสำนักความคิด

ตรรกะการสร้างปัญญาประดิษฐ์คลี่คลายไปตามสองเส้นทางหลัก ได้แก่ การจัดการสัญลักษณ์จากบนลงล่างและการเรียนรู้ที่ได้รับแรงบันดาลใจจากชีวภาพจากล่างขึ้นบน

Symbolicism (ตรรกะ "จากบนลงล่าง")

Symbolicism หรือที่รู้จักกันในชื่อ logicism หรือสำนักคอมพิวเตอร์ มีพื้นฐานมาจากความเชื่อหลักที่ว่าสาระสำคัญของปัญญาอยู่ที่การจัดการสัญลักษณ์ตามชุดของกฎเกณฑ์ที่ชัดเจนและเป็นทางการ นี่คือแนวทาง "จากบนลงล่าง" โดยมีสมมติฐานว่าความรู้ความเข้าใจและกระบวนการคิดของมนุษย์สามารถนำมาสรุปเป็นปฏิบัติการเชิงสัญลักษณ์ได้ ในมุมมองนี้ ปัญญาถูกมองว่าเป็นกระบวนการของการใช้เหตุผลเชิงตรรกะ และจิตใจสามารถเปรียบได้กับโปรแกรมคอมพิวเตอร์ที่ทำงานบนข้อมูลที่มีโครงสร้าง

การแสดงออกที่ชัดเจนที่สุดของสำนักคิดนี้คือ Expert Systems (ระบบผู้เชี่ยวชาญ) ระบบเหล่านี้รุ่งเรืองในช่วงทศวรรษ 1970 และ 1980 ซึ่งถือเป็นความสำเร็จเชิงพาณิชย์ครั้งใหญ่ครั้งแรกของ AI พวกเขามุ่งมั่นที่จะจำลองกระบวนการตัดสินใจของผู้เชี่ยวชาญที่เป็นมนุษย์ในสาขาแคบ ๆ ที่เฉพาะเจาะจง (เช่น การวินิจฉัยทางการแพทย์หรือการวิเคราะห์ทางเคมี) ผ่านฐานความรู้ที่มีกฎ "ถ้า-แล้ว" จำนวนมาก ความสำเร็จของระบบผู้เชี่ยวชาญผลักดันให้ symbolism ขึ้นสู่จุดสูงสุด ทำให้มันเกือบจะมีความหมายเหมือนกันกับ AI ในเวลานั้น

Connectionism (ตรรกะ "จากล่างขึ้นบน")

Connectionism หรือที่รู้จักกันในชื่อสำนัก bionics โต้แย้งว่าปัญญาเป็นปรากฏการณ์ emergent มันไม่ได้ถูกครอบงำโดยตัวควบคุมส่วนกลางหรือกฎเกณฑ์ที่กำหนดไว้ล่วงหน้า แต่เกิดขึ้นจากการปฏิสัมพันธ์ที่ซับซ้อนระหว่างหน่วยประมวลผลที่เรียบง่ายจำนวนมากที่เชื่อมต่อถึงกัน (เช่น นิวรอนเทียม) ตรรกะ "จากล่างขึ้นบน" นี้ได้รับแรงบันดาลใจจากโครงสร้างของสมองมนุษย์ โดยเชื่อว่าปัญญาไม่ได้ถูกตั้งโปรแกรมไว้ แต่ได้มาจากการเรียนรู้รูปแบบจากข้อมูล

ความเชื่อหลักของ connectionism คือพฤติกรรมที่ซับซ้อนสามารถเกิดขึ้นได้จากการปฏิสัมพันธ์ในท้องถิ่นที่เรียบง่าย โดยไม่จำเป็นต้องมีกฎเกณฑ์ที่ชัดเจนระดับโลก เทคโนโลยีหลักของมันคือ Artificial Neural Networks (ANNs, โครงข่ายประสาทเทียม) แบบจำลองเหล่านี้เรียนรู้ความสัมพันธ์ที่ซับซ้อนระหว่างอินพุตและเอาต์พุตโดยการฝึกอบรมบนข้อมูลตัวอย่างจำนวนมากและปรับ "weights (น้ำหนัก)" อย่างต่อเนื่อง (เช่น ความแข็งแรงของการเชื่อมต่อ) ระหว่างนิวรอน

1.2 ลูกตุ้มแห่งประวัติศาสตร์: การขึ้น การล่มสลาย และการฟื้นคืนชีพ

ประวัติศาสตร์ของการพัฒนา AI ไม่ใช่ความก้าวหน้าที่เป็นเส้นตรง แต่เป็นการเคลื่อนที่ไปมาเหมือนลูกตุ้มระหว่าง symbolism และ connectionism กระบวนการนี้เผยให้เห็นอย่างลึกซึ้งว่าความสำเร็จหรือความล้มเหลวของกระบวนทัศน์ทางทฤษฎีไม่ได้ขึ้นอยู่กับความลึกซึ้งของแนวคิดเท่านั้น แต่ยังขึ้นอยู่กับข้อ จำกัด ของเทคโนโลยีและสภาวะทางเศรษฐกิจในเวลานั้นด้วย ตรรกะพื้นฐานของ AI ไม่ได้พัฒนาไปในสุญญากาศ และวิถีการพัฒนาของมันเป็นผลโดยตรงจากการปฏิสัมพันธ์ที่ซับซ้อนระหว่าง (1) กระแสความคิดทางปรัชญาหลัก (2) กำลังประมวลผลที่มีอยู่ และ (3) ความเป็นไปได้ทางเศรษฐกิจ

ข้อได้เปรียบในช่วงต้นและฤดูหนาว AI ครั้งแรก

ในยุคแรก ๆ ของ AI connectionism แสดงให้เห็นถึงศักยภาพที่ยิ่งใหญ่ อย่างไรก็ตาม ในปี 1969 Marvin Minsky ซึ่งเป็นบุคคลสำคัญใน symbolism ตีพิมพ์หนังสือ Perceptrons ซึ่งกลายเป็นจุดเปลี่ยนสำคัญในประวัติศาสตร์ Minsky พิสูจน์อย่างเข้มงวดทางคณิตศาสตร์ว่าโครงข่ายประสาทเทียมชั้นเดียวที่เรียบง่ายในเวลานั้น (เช่น perceptrons) ไม่สามารถแก้ปัญหาพื้นฐานที่สุดบางอย่างได้ เช่น ปัญหาเชิงตรรกะ "exclusive or (เอกซ์คลูซีฟออร์)" (XOR) การวิพากษ์วิจารณ์ทางวิชาการที่แม่นยำนี้ ประกอบกับการขาดแคลนกำลังประมวลผลคอมพิวเตอร์โดยทั่วไปในเวลานั้น ส่งผลกระทบอย่างมากต่อการวิจัย connectionist เงินทุนวิจัยถูกตัดลดลงอย่างมาก และการวิจัยโครงข่ายประสาทเทียมเข้าสู่ช่วงเวลาที่ซบเซาซึ่งกินเวลานานกว่าทศวรรษ ซึ่งรู้จักกันในชื่อ "ฤดูหนาว AI" ครั้งแรก ในช่วงนี้ ตรรกะของ symbolism ครองตำแหน่งที่โดดเด่นอย่างสมบูรณ์

ยุคทองของ Symbolicism และฤดูหนาว AI ครั้งที่สอง

ระบบผู้เชี่ยวชาญเฟื่องฟูในทศวรรษ 1980 ผลักดันให้ symbolism ขึ้นสู่จุดสูงสุดของการใช้งานเชิงพาณิชย์ อย่างไรก็ตาม ข้อจำกัดของมันค่อยๆ ถูกเปิดเผย: ระบบผู้เชี่ยวชาญมีราคาแพงในการสร้าง ฐานความรู้บำรุงรักษายาก พวกเขาไม่สามารถจัดการกับข้อมูลที่ไม่ชัดเจน และพวกเขาไม่มีความสามารถในการเรียนรู้ความรู้ใหม่โดยอัตโนมัติ ในที่สุด ความล้มเหลวเชิงพาณิชย์ของ "Lisp machines" ที่ใช้เป็นพิเศษในการรันโปรแกรม AI เชิงสัญลักษณ์ (เช่น ภาษา Lisp) ถือเป็นการสิ้นสุดยุคนี้ การเพิ่มขึ้นของคอมพิวเตอร์อเนกประสงค์ (เช่น IBM PC) ที่มีประสิทธิภาพที่แข็งแกร่งขึ้นและราคาที่ต่ำกว่า ทำให้ฮาร์ดแวร์เฉพาะทางเหล่านี้ไม่สามารถแข่งขันได้ และสาขา AI ก็เข้าสู่ฤดูหนาวครั้งที่สอง อีกครั้งนี้พิสูจน์ให้เห็นว่าหากตรรกะทางทฤษฎีจะพัฒนาต่อไปได้ จะต้องมีรากฐานของฮาร์ดแวร์ที่แข็งแกร่งและประหยัดเป็นตัวสนับสนุน

การฟื้นคืนชีพของ Connectionism

การฟื้นคืนชีพของ connectionism ไม่ใช่เรื่องบังเอิญ แต่ถูกขับเคลื่อนโดยปัจจัยสำคัญสามประการ:

  1. Algorithm Breakthroughs (ความก้าวหน้าของอัลกอริทึม): ในช่วง "ฤดูหนาว" การแนะนำอัลกอริทึม backpropagation (แบ็กพรอพาเกชัน) และการประดิษฐ์โครงสร้างเครือข่ายที่ซับซ้อนมากขึ้น เช่น long short-term memory networks (LSTMs, เครือข่ายหน่วยความจำระยะสั้นแบบยาว) วางรากฐานอัลกอริทึมสำหรับการฝึกอบรมโครงข่ายประสาทเทียมอย่างมีประสิทธิภาพ

  2. Data Deluge (ข้อมูลท่วมท้น): ความนิยมของอินเทอร์เน็ตนำมาซึ่งปริมาณข้อมูลที่ไม่เคยมีมาก่อน ข้อมูลนี้ให้ "โภชนาการ" ที่เพียงพอสำหรับโครงข่ายประสาทเทียมที่ต้องการตัวอย่างจำนวนมากสำหรับการฝึกอบรม

  3. Computing Power Revolution (การปฏิวัติพลังประมวลผล): Graphics processors (GPUs, หน่วยประมวลผลกราฟิก) ซึ่งเดิมออกแบบมาสำหรับวิดีโอเกม มีสถาปัตยกรรมคอมพิวเตอร์แบบขนานขนาดใหญ่ ซึ่งพบว่าเหมาะสมอย่างยิ่งสำหรับการดำเนินการเมทริกซ์หลักในโครงข่ายประสาทเทียม การเกิดขึ้นของ GPU ทำลายคอขวดพลังประมวลผลที่คอยรบกวน connectionism มานานหลายทศวรรษ ทำให้ศักยภาพทางทฤษฎีของมันได้รับการปลดปล่อยอย่างแท้จริง

ในที่สุด การบรรจบกันของอัลกอริทึม ข้อมูล และพลังประมวลผล จุดประกายการปฏิวัติ deep learning (การเรียนรู้เชิงลึก) ทำให้ตรรกะของ connectionism กลายเป็นกระแสหลักที่ไม่มีใครโต้แย้งในสาขา AI ในปัจจุบัน

1.3 ทางตันเชิงปรัชญา: ความเข้าใจ (Understanding) เทียบกับการจำลอง (Simulation)

ข้อพิพาททางประวัติศาสตร์ระหว่างสองสำนักหลักนำไปสู่คำถามเชิงปรัชญาที่ลึกซึ้งซึ่งยังคงไม่สามารถแก้ไขได้จนถึงทุกวันนี้: เครื่องจักรที่สามารถจำลองพฤติกรรมที่ชาญฉลาดได้อย่างสมบูรณ์แบบมีความสามารถในการ เข้าใจ อย่างแท้จริงหรือไม่?

The Turing Test (บททดสอบทัวริง)

"Turing Test (บททดสอบทัวริง)" ของ Alan Turing (อลัน ทัวริง) ให้คำจำกัดความเชิงปฏิบัติการแบบ behaviorist (พฤติกรรมนิยม) ของปัญญา บททดสอบนี้เกี่ยวข้องกับว่าเครื่องจักรสามารถสนทนากับมนุษย์ได้หรือไม่ และมนุษย์ไม่สามารถบอกได้ว่าเป็นเครื่องจักรหรือบุคคล จากนั้นเครื่องจักรสามารถพิจารณาได้ว่าฉลาด บททดสอบทัวริงหลีกเลี่ยงคำถามสำคัญของ "ปัญญาคืออะไร" และหันไปที่ "พฤติกรรมอะไรที่ปัญญาควรแสดงออก"

The "Chinese Room" Thought Experiment (การทดลองทางความคิด "ห้องภาษาจีน")

นักปรัชญา John Searle (จอห์น เซิร์ล) เสนอการทดลองทางความคิด "Chinese Room (ห้องภาษาจีน)" ที่มีชื่อเสียงในปี 1980 เพื่อโจมตี symbolism และบททดสอบทัวริงอย่างรุนแรง การทดลองถูกคิดขึ้นดังนี้: บุคคลที่ไม่เข้าใจภาษาจีนถูกขังอยู่ในห้อง และในห้องนั้นมีคู่มือรายละเอียดเกี่ยวกับกฎการประมวลผลภาษาจีน (เทียบเท่ากับโปรแกรม) เขาได้รับบันทึกที่มีอักษรจีนเขียนอยู่ (อินพุต) ผ่านทางหน้าต่าง จากนั้นปฏิบัติตามคำแนะนำในคู่มือกฎอย่างเคร่งครัดเพื่อค้นหาและรวมอักขระที่สอดคล้องกัน จากนั้นส่งผลลัพธ์ออกจากหน้าต่าง (เอาต์พุต) สำหรับคนภายนอกห้อง การตอบสนองของห้องไม่แตกต่างจากการตอบสนองของผู้พูดภาษาจีนพื้นเมือง ดังนั้นจึงผ่านบททดสอบทัวริง

อย่างไรก็ตาม Searle ชี้ให้เห็นว่าบุคคลในห้องไม่เคยเข้าใจ ความหมาย (semantics) ของอักษรจีนใด ๆ ตั้งแต่ต้นจนจบ และสิ่งที่เขาทำทั้งหมดคือการ จัดการสัญลักษณ์ (syntax) อย่างหมดจด Searle สรุปว่าการจัดการสัญลักษณ์อย่างง่าย ๆ ไม่ว่าจะซับซ้อนเพียงใด ก็ไม่สามารถสร้าง "ความเข้าใจ" ที่แท้จริงได้ การโต้แย้งนี้ท้าทายมุมมองของ "strong AI (AI แข็งแกร่ง)" อย่างมีประสิทธิภาพ (เช่น ความเชื่อที่ว่าคอมพิวเตอร์ที่ตั้งโปรแกรมอย่างถูกต้องสามารถมีจิตใจได้)

ปัจจุบัน AI สมัยใหม่ที่แสดงโดย large language models (LLMs, แบบจำลองภาษาขนาดใหญ่) สามารถมองได้ว่าเป็น "Chinese Room (ห้องภาษาจีน)" ที่อัปเกรดขั้นสุดยอดในแง่หนึ่ง พวกเขาสร้างคำตอบที่ดูเหมือนชาญฉลาดโดยการจับคู่รูปแบบทางสถิติในข้อมูลข้อความจำนวนมหาศาล การถกเถียงว่าพวกเขา "เข้าใจ" ภาษาอย่างแท้จริงหรือไม่ หรือเป็นเพียง "stochastic parrots (นกแก้วสุ่ม)" ที่ซับซ้อน เป็นการสานต่อการถกเถียงระหว่าง Turing กับ Searle ในยุคปัจจุบัน

เป็นเวลานานแล้วที่ symbolism และ connectionism ถูกมองว่าเป็นสองกระบวนทัศน์ที่แยกจากกัน อย่างไรก็ตาม "สงคราม" แห่งประวัติศาสตร์กำลังจะสิ้นสุดลงในรูปแบบของการ synthesis (การสังเคราะห์) ตรรกะพื้นฐานของอนาคตไม่ใช่ทางเลือกแบบใดแบบหนึ่ง แต่เป็นการหลอมรวมของทั้งสอง แนวโน้มนี้สะท้อนให้เห็นในการเพิ่มขึ้นของ Neuro-Symbolic AI (AI ประสาท-สัญลักษณ์) สาขานี้มีจุดมุ่งหมายเพื่อรวมความสามารถในการจดจำรูปแบบที่ทรงพลังของโครงข่ายประสาทเทียมเข้ากับความสามารถในการใช้เหตุผลเชิงตรรกะที่เข้มงวดของระบบเชิงสัญลักษณ์ โดยมีเป้าหมายเพื่อสร้างระบบที่มีประสิทธิภาพมากขึ้นที่สามารถเรียนรู้และให้เหตุผลได้ ตัวอย่างเช่น AI agents (ตัวแทน AI) สมัยใหม่สามารถเรียกเครื่องมือเชิงสัญลักษณ์ภายนอก (เช่น เครื่องคิดเลข การสืบค้นฐานข้อมูล) เพื่อเพิ่มขีดความสามารถของตนเอง ซึ่งเป็นการผสมผสานการใช้งานจริงของแบบจำลองประสาทและเครื่องมือเชิงสัญลักษณ์

นอกจากนี้ สถาปัตยกรรม "Mixture of Experts (MoE, ส่วนผสมของผู้เชี่ยวชาญ)" ในแบบจำลองภาษาขนาดใหญ่สมัยใหม่ยังสะท้อนถึงระบบผู้เชี่ยวชาญของ symbolism ในแนวคิดอีกด้วย แบบจำลอง MoE ประกอบด้วยเครือข่ายย่อย "expert (ผู้เชี่ยวชาญ)" ที่มีความเชี่ยวชาญหลายเครือข่าย และเครือข่าย "gating (การควบคุมประตู)" ซึ่งมีหน้าที่ในการเลือกผู้เชี่ยวชาญที่เหมาะสมที่สุดเพื่อจัดการกับอินพุตแต่ละรายการ สิ่งนี้คล้ายกับการที่ระบบเชิงสัญลักษณ์เรียกโมดูลการทำงานเฉพาะตามกฎ แต่การใช้งานของมันเป็นแบบ connectionist ทั้งหมด ซึ่งทำผ่านการเรียนรู้แบบ end-to-end และการเพิ่มประสิทธิภาพที่แตกต่าง สิ่งนี้แสดงให้เห็นว่าตรรกะพื้นฐานของ AI กำลังเปลี่ยนจากการต่อต้านไปสู่การเสริมซึ่งกันและกัน สร้างความสามารถที่ทรงพลังอย่างที่ไม่เคยมีมาก่อนผ่านการหลอมรวม

ตารางที่ 1: การเปรียบเทียบกระบวนทัศน์ AI พื้นฐาน: Symbolicism กับ Connectionism

คุณสมบัติ Symbolicism (จากบนลงล่าง) Connectionism (จากล่างขึ้นบน)
หลักการสำคัญ ปัญญาเกิดขึ้นได้จากการจัดการสัญลักษณ์และการปฏิบัติตามกฎเกณฑ์ที่เป็นทางการ ปัญญาเกิดขึ้นจากการปฏิสัมพันธ์ของหน่วยที่เชื่อมต่อถึงกันที่เรียบง่ายจำนวนมาก
การแทนความรู้ ฐานความรู้ที่ชัดเจน มีโครงสร้าง (เช่น กฎ "ถ้า-แล้ว") ความรู้แฝง ที่มีการกระจายตัว ถูกเข้ารหัสใน weights (น้ำหนัก) ของการเชื่อมต่อเครือข่าย
วิธีการใช้เหตุผล การใช้เหตุผลตามการหักเหตุผลเชิงตรรกะ ການຄົ້ນຫາ และกฎ heuristic (heuristic rule, ฮิวริสติก) การใช้เหตุผลตามการจดจำรูปแบบที่ขับเคลื่อนด้วยข้อมูลและการอนุมานทางสถิติ
เทคโนโลยีหลัก ระบบผู้เชี่ยวชาญ การเขียนโปรแกรมเชิงตรรกะ กราฟความรู้ โครงข่ายประสาทเทียม การเรียนรู้เชิงลึก แบบจำลองภาษาขนาดใหญ่
ข้อดี ความสามารถในการตีความที่แข็งแกร่ง เคร่งครัดเชิงตรรกะ เก่งในด้านที่กำหนดไว้อย่างดี ความสามารถในการเรียนรู้ที่แข็งแกร่ง สามารถจัดการกับข้อมูลที่ไม่ชัดเจนและไม่มีโครงสร้าง ความสามารถในการวางนัยทั่วไปที่ดี
ข้อเสีย คอขวดในการได้มาซึ่งความรู้ ความสามารถในการจัดการกับความไม่แน่นอนที่อ่อนแอ ระบบที่เปราะบาง ปัญหา "กล่องดำ" (ความสามารถในการตีความที่ไม่ดี) ต้องใช้ข้อมูลและพลังประมวลผลจำนวนมาก มีความเสี่ยงต่อการโจมตีแบบ adversarial (adversarial attack, การโจมตีแบบปฏิปักษ์)
จุดสูงสุดทางประวัติศาสตร์ ยุคของระบบผู้เชี่ยวชาญในทศวรรษ 1970 และ 1980 ยุคของการเรียนรู้เชิงลึกตั้งแต่ปี 2010 ถึงปัจจุบัน
บุคคลสำคัญที่เป็นตัวแทน Marvin Minsky (มาร์วิน มินสกี), Herbert A. Simon (เฮอร์เบิร์ต เอ. ไซมอน), Allen Newell (อัลเลน นิวเวลล์) Geoffrey Hinton (เจฟฟรีย์ ฮินตัน), Yann LeCun (ยานน์ เลอคุน), John Hopfield (จอห์น ฮ็อปฟิลด์), Fei-Fei Li (เฟย-เฟย ลี)

ส่วนที่ 2: ภาษาสากลของ AI สมัยใหม่: หลักการทางคณิตศาสตร์หลัก

การเปิดเผยความลึกลับของ AI สมัยใหม่ต้องตระหนักว่า "ตรรกะพื้นฐาน" ของมันไม่ใช่สามัญสำนึกหรือการใช้เหตุผลของมนุษย์ แต่เป็นภาษาทางคณิตศาสตร์ที่แม่นยำและเป็นสากล โดยเฉพาะอย่างยิ่ง AI ที่ถูกครอบงำโดย connectionism นั้นโดยพื้นฐานแล้วคือคณิตศาสตร์ประยุกต์ที่ขับเคลื่อนโดย "ข้อมูล อัลกอริทึม และพลังประมวลผล" กระบวนการสร้างปัญญา การเรียนรู้ และการเพิ่มประสิทธิภาพสามารถแบ่งออกเป็นการทำงานร่วมกันของสามเสาหลักทางคณิตศาสตร์ ได้แก่ สถิติความน่าจะเป็น พีชคณิตเชิงเส้น และแคลคูลัส

2.1 ธรรมชาติทางคณิตศาสตร์ของ AI

งานหลักของปัญญาประดิษฐ์ในปัจจุบันมักจะอธิบายได้ดังนี้: ค้นหาโซลูชันที่เหมาะสมที่สุดโดยประมาณในพื้นที่ปัญหาที่ซับซ้อนและมีมิติสูง แทนที่จะแก้ปัญหาโดยการลองทุกความเป็นไปได้อย่างละเอียดถี่ถ้วน มันใช้วิธีการทางคณิตศาสตร์เพื่อค้นหาโซลูชันที่ดีเพียงพอ คณิตศาสตร์ให้เครื่องมือสร้างแบบจำลองที่เป็นทางการនិងພາສາ περιγραφಿಕ วิทยาศาสตร์แก่ AI และเป็นรากฐานสำหรับการสร้าง ความเข้าใจ และการปรับปรุงระบบ AI

2.2 เสาหลักที่ 1: ความน่าจะเป็นและสถิติ – ตรรกะของความไม่แน่นอน

ทฤษฎีความน่าจะเป็นและสถิติให้กรอบแนวคิดทางทฤษฎีแก่ AI สำหรับการใช้เหตุผลในสภาพแวดล้อมที่ไม่แน่นอนและการดึงรูปแบบจากข้อมูล แบบจำลอง AI นั้นโดยพื้นฐานแล้วคือระบบความน่าจะเป็นที่เรียนรู้การแจกแจงข้อมูลพื้นฐานเพื่อทำการคาดการณ์และการตัดสินใจ

อย่างไรก็ตาม การเกิดขึ้นของ big data (ข้อมูลขนาดใหญ่) ก่อให้เกิดความท้าทายอย่างร้ายแรงต่อรากฐานของสถิติดั้งเดิม ทฤษฎีสถิติดั้งเดิม เช่น กฎจำนวนมากและทฤษฎีบทขีดจำกัดกลาง ส่วนใหญ่มีพื้นฐานมาจากสมมติฐานที่ว่าตัวอย่างเป็น "อิสระและมีการแจกแจงเหมือนกัน (i.i.d.)" และขนาดตัวอย่าง n มีขนาดใหญ่กว่าจำนวนคุณสมบัติ p มาก (เช่น pn) แต่ในยุคของ big data สมมติฐานเหล่านี้มักจะถูกทำลาย ตัวอย่างเช่น ในงานการจดจำภาพ ภาพที่มีความละเอียดสูงอาจมีพิกเซล数ล้าน (คุณสมบัติ p) ในขณะที่ dataset (ชุดข้อมูล) ฝึกอบรมอาจมีเพียงภาพ数เท่านั้น (ตัวอย่าง n) ซึ่งนำไปสู่ปัญหา "curse of dimensionality (คำสาปแห่งมิติ)" ที่ pn ในกรณีนี้ เป็นเรื่องง่ายที่จะสร้าง "pseudo-correlations (ความสัมพันธ์เทียม)" ที่ทำให้วิธีการทางสถิติดั้งเดิมเป็นโมฆะ

การเพิ่มขึ้นของการเรียนรู้เชิงลึกมีอยู่บ้าง เป็นการตอบสนองต่อความท้าทายนี้ มันมีวิธีการเรียนรู้การแทนคุณสมบัติที่มีประสิทธิภาพโดยอัตโนมัติจากข้อมูลที่มีมิติสูงโดยไม่ต้องพึ่งพาสมมติฐานทางสถิติดั้งเดิม ถึงกระนั้น การสร้างรากฐานทางสถิติที่แข็งแกร่งสำหรับกระบวนทัศน์ข้อมูลใหม่นี้ยังคงเป็นปัญหาทางคณิตศาสตร์ที่สำคัญที่จำเป็นต้องได้รับการแก้ไขอย่างเร่งด่วนในการวิจัย AI ในปัจจุบัน

2.3 เสาหลักที่ 2: พีชคณิตเชิงเส้น – ตรรกะของการเป็นตัวแทน

พีชคณิตเชิงเส้นเป็น "ภาษาสากล" ของโลก AI โดย提供เครื่องมือพื้นฐานสำหรับการเป็นตัวแทนข้อมูลและแบบจำลอง ในโครงข่ายประสาทเทียม ไม่ว่าจะเป็นอินพุต (เช่น พิกเซลของภาพ เวกเตอร์คำของข้อความ) พารามิเตอร์ของแบบจำลอง (weights (น้ำหนัก)) หรือเอาต์พุตสุดท้าย ทั้งหมดจะแสดงเป็นโครงสร้างตัวเลข ได้แก่ เวกเตอร์ เมทริกซ์ หรือ tensors (เทนเซอร์) ที่มีมิติสูงกว่า

ปฏิบัติการหลักในโครงข่ายประสาทเทียม เช่น การถ่วงน้ำหนักนิวรอนและการรวมอินพุตทั้งหมด เป็นการคูณเมทริกซ์และเวกเตอร์โดยพื้นฐาน เหตุผลที่ GPUs可以เร่งความเร็วในการฝึกอบรม AI ได้อย่างมาก เป็นเพราะสถาปัตยกรรมฮาร์ดแวร์ได้รับการปรับให้เหมาะสมอย่างสูงเพื่อดำเนินการพีชคณิตเชิงเส้นแบบขนานขนาดใหญ่อย่างมีประสิทธิภาพ

2.4 เสาหลักที่ 3: แคลคูลัสและการเพิ่มประสิทธิภาพ – ตรรกะของการเรียนรู้

กระบวนการเรียนรู้ของ AI นั้นโดยพื้นฐานแล้วคือปัญหา Optimization (การเพิ่มประสิทธิภาพ) ทางคณิตศาสตร์ เป้าหมายคือค้นหาชุดพารามิเตอร์แบบจำลอง (เช่น วัตต์และค่าเบี่ยงเบนในโครงข่ายประสาทเทียม) ที่ลดความแตกต่างระหว่างการคาดการณ์ของแบบจำลองกับคำตอบที่แท้จริง ความแ