ส่วนที่ 1: การถกเถียงเชิงตรรกะเกี่ยวกับปัญญา: มุมมองเชิงปรัชญาและประวัติศาสตร์
"ตรรกะพื้นฐาน" ของปัญญาประดิษฐ์ (AI) ไม่ใช่แนวคิดที่ตายตัว แต่เป็นผลมาจากการถกเถียงทางปัญญานานหลายทศวรรษเกี่ยวกับวิธีการสร้างปัญญา เพื่อที่จะเข้าใจ AI อย่างถ่องแท้ เราต้องเจาะลึกลงไปในต้นกำเนิดทางปัญญาของมัน ซึ่งก็คือความขัดแย้งและการผสมผสานของสองสำนักปรัชญาหลัก ได้แก่ Symbolicism (สัญลักษณ์นิยม) และ Connectionism (คอนเน็กชันนิซึม) สำนักคิดเหล่านี้เป็นตัวแทนของมุมมองที่แตกต่างกันอย่างชัดเจนเกี่ยวกับปัญญา และความผันผวนของความสำคัญของพวกเขามีอิทธิพลต่อวิถีทางประวัติศาสตร์และทิศทางในอนาคตของสาขา AI ทั้งหมด
1.1 สองสำนักความคิด
ตรรกะการสร้างปัญญาประดิษฐ์คลี่คลายไปตามสองเส้นทางหลัก ได้แก่ การจัดการสัญลักษณ์จากบนลงล่างและการเรียนรู้ที่ได้รับแรงบันดาลใจจากชีวภาพจากล่างขึ้นบน
Symbolicism (ตรรกะ "จากบนลงล่าง")
Symbolicism หรือที่รู้จักกันในชื่อ logicism หรือสำนักคอมพิวเตอร์ มีพื้นฐานมาจากความเชื่อหลักที่ว่าสาระสำคัญของปัญญาอยู่ที่การจัดการสัญลักษณ์ตามชุดของกฎเกณฑ์ที่ชัดเจนและเป็นทางการ นี่คือแนวทาง "จากบนลงล่าง" โดยมีสมมติฐานว่าความรู้ความเข้าใจและกระบวนการคิดของมนุษย์สามารถนำมาสรุปเป็นปฏิบัติการเชิงสัญลักษณ์ได้ ในมุมมองนี้ ปัญญาถูกมองว่าเป็นกระบวนการของการใช้เหตุผลเชิงตรรกะ และจิตใจสามารถเปรียบได้กับโปรแกรมคอมพิวเตอร์ที่ทำงานบนข้อมูลที่มีโครงสร้าง
การแสดงออกที่ชัดเจนที่สุดของสำนักคิดนี้คือ Expert Systems (ระบบผู้เชี่ยวชาญ) ระบบเหล่านี้รุ่งเรืองในช่วงทศวรรษ 1970 และ 1980 ซึ่งถือเป็นความสำเร็จเชิงพาณิชย์ครั้งใหญ่ครั้งแรกของ AI พวกเขามุ่งมั่นที่จะจำลองกระบวนการตัดสินใจของผู้เชี่ยวชาญที่เป็นมนุษย์ในสาขาแคบ ๆ ที่เฉพาะเจาะจง (เช่น การวินิจฉัยทางการแพทย์หรือการวิเคราะห์ทางเคมี) ผ่านฐานความรู้ที่มีกฎ "ถ้า-แล้ว" จำนวนมาก ความสำเร็จของระบบผู้เชี่ยวชาญผลักดันให้ symbolism ขึ้นสู่จุดสูงสุด ทำให้มันเกือบจะมีความหมายเหมือนกันกับ AI ในเวลานั้น
Connectionism (ตรรกะ "จากล่างขึ้นบน")
Connectionism หรือที่รู้จักกันในชื่อสำนัก bionics โต้แย้งว่าปัญญาเป็นปรากฏการณ์ emergent มันไม่ได้ถูกครอบงำโดยตัวควบคุมส่วนกลางหรือกฎเกณฑ์ที่กำหนดไว้ล่วงหน้า แต่เกิดขึ้นจากการปฏิสัมพันธ์ที่ซับซ้อนระหว่างหน่วยประมวลผลที่เรียบง่ายจำนวนมากที่เชื่อมต่อถึงกัน (เช่น นิวรอนเทียม) ตรรกะ "จากล่างขึ้นบน" นี้ได้รับแรงบันดาลใจจากโครงสร้างของสมองมนุษย์ โดยเชื่อว่าปัญญาไม่ได้ถูกตั้งโปรแกรมไว้ แต่ได้มาจากการเรียนรู้รูปแบบจากข้อมูล
ความเชื่อหลักของ connectionism คือพฤติกรรมที่ซับซ้อนสามารถเกิดขึ้นได้จากการปฏิสัมพันธ์ในท้องถิ่นที่เรียบง่าย โดยไม่จำเป็นต้องมีกฎเกณฑ์ที่ชัดเจนระดับโลก เทคโนโลยีหลักของมันคือ Artificial Neural Networks (ANNs, โครงข่ายประสาทเทียม) แบบจำลองเหล่านี้เรียนรู้ความสัมพันธ์ที่ซับซ้อนระหว่างอินพุตและเอาต์พุตโดยการฝึกอบรมบนข้อมูลตัวอย่างจำนวนมากและปรับ "weights (น้ำหนัก)" อย่างต่อเนื่อง (เช่น ความแข็งแรงของการเชื่อมต่อ) ระหว่างนิวรอน
1.2 ลูกตุ้มแห่งประวัติศาสตร์: การขึ้น การล่มสลาย และการฟื้นคืนชีพ
ประวัติศาสตร์ของการพัฒนา AI ไม่ใช่ความก้าวหน้าที่เป็นเส้นตรง แต่เป็นการเคลื่อนที่ไปมาเหมือนลูกตุ้มระหว่าง symbolism และ connectionism กระบวนการนี้เผยให้เห็นอย่างลึกซึ้งว่าความสำเร็จหรือความล้มเหลวของกระบวนทัศน์ทางทฤษฎีไม่ได้ขึ้นอยู่กับความลึกซึ้งของแนวคิดเท่านั้น แต่ยังขึ้นอยู่กับข้อ จำกัด ของเทคโนโลยีและสภาวะทางเศรษฐกิจในเวลานั้นด้วย ตรรกะพื้นฐานของ AI ไม่ได้พัฒนาไปในสุญญากาศ และวิถีการพัฒนาของมันเป็นผลโดยตรงจากการปฏิสัมพันธ์ที่ซับซ้อนระหว่าง (1) กระแสความคิดทางปรัชญาหลัก (2) กำลังประมวลผลที่มีอยู่ และ (3) ความเป็นไปได้ทางเศรษฐกิจ
ข้อได้เปรียบในช่วงต้นและฤดูหนาว AI ครั้งแรก
ในยุคแรก ๆ ของ AI connectionism แสดงให้เห็นถึงศักยภาพที่ยิ่งใหญ่ อย่างไรก็ตาม ในปี 1969 Marvin Minsky ซึ่งเป็นบุคคลสำคัญใน symbolism ตีพิมพ์หนังสือ Perceptrons ซึ่งกลายเป็นจุดเปลี่ยนสำคัญในประวัติศาสตร์ Minsky พิสูจน์อย่างเข้มงวดทางคณิตศาสตร์ว่าโครงข่ายประสาทเทียมชั้นเดียวที่เรียบง่ายในเวลานั้น (เช่น perceptrons) ไม่สามารถแก้ปัญหาพื้นฐานที่สุดบางอย่างได้ เช่น ปัญหาเชิงตรรกะ "exclusive or (เอกซ์คลูซีฟออร์)" (XOR) การวิพากษ์วิจารณ์ทางวิชาการที่แม่นยำนี้ ประกอบกับการขาดแคลนกำลังประมวลผลคอมพิวเตอร์โดยทั่วไปในเวลานั้น ส่งผลกระทบอย่างมากต่อการวิจัย connectionist เงินทุนวิจัยถูกตัดลดลงอย่างมาก และการวิจัยโครงข่ายประสาทเทียมเข้าสู่ช่วงเวลาที่ซบเซาซึ่งกินเวลานานกว่าทศวรรษ ซึ่งรู้จักกันในชื่อ "ฤดูหนาว AI" ครั้งแรก ในช่วงนี้ ตรรกะของ symbolism ครองตำแหน่งที่โดดเด่นอย่างสมบูรณ์
ยุคทองของ Symbolicism และฤดูหนาว AI ครั้งที่สอง
ระบบผู้เชี่ยวชาญเฟื่องฟูในทศวรรษ 1980 ผลักดันให้ symbolism ขึ้นสู่จุดสูงสุดของการใช้งานเชิงพาณิชย์ อย่างไรก็ตาม ข้อจำกัดของมันค่อยๆ ถูกเปิดเผย: ระบบผู้เชี่ยวชาญมีราคาแพงในการสร้าง ฐานความรู้บำรุงรักษายาก พวกเขาไม่สามารถจัดการกับข้อมูลที่ไม่ชัดเจน และพวกเขาไม่มีความสามารถในการเรียนรู้ความรู้ใหม่โดยอัตโนมัติ ในที่สุด ความล้มเหลวเชิงพาณิชย์ของ "Lisp machines" ที่ใช้เป็นพิเศษในการรันโปรแกรม AI เชิงสัญลักษณ์ (เช่น ภาษา Lisp) ถือเป็นการสิ้นสุดยุคนี้ การเพิ่มขึ้นของคอมพิวเตอร์อเนกประสงค์ (เช่น IBM PC) ที่มีประสิทธิภาพที่แข็งแกร่งขึ้นและราคาที่ต่ำกว่า ทำให้ฮาร์ดแวร์เฉพาะทางเหล่านี้ไม่สามารถแข่งขันได้ และสาขา AI ก็เข้าสู่ฤดูหนาวครั้งที่สอง อีกครั้งนี้พิสูจน์ให้เห็นว่าหากตรรกะทางทฤษฎีจะพัฒนาต่อไปได้ จะต้องมีรากฐานของฮาร์ดแวร์ที่แข็งแกร่งและประหยัดเป็นตัวสนับสนุน
การฟื้นคืนชีพของ Connectionism
การฟื้นคืนชีพของ connectionism ไม่ใช่เรื่องบังเอิญ แต่ถูกขับเคลื่อนโดยปัจจัยสำคัญสามประการ:
Algorithm Breakthroughs (ความก้าวหน้าของอัลกอริทึม): ในช่วง "ฤดูหนาว" การแนะนำอัลกอริทึม backpropagation (แบ็กพรอพาเกชัน) และการประดิษฐ์โครงสร้างเครือข่ายที่ซับซ้อนมากขึ้น เช่น long short-term memory networks (LSTMs, เครือข่ายหน่วยความจำระยะสั้นแบบยาว) วางรากฐานอัลกอริทึมสำหรับการฝึกอบรมโครงข่ายประสาทเทียมอย่างมีประสิทธิภาพ
Data Deluge (ข้อมูลท่วมท้น): ความนิยมของอินเทอร์เน็ตนำมาซึ่งปริมาณข้อมูลที่ไม่เคยมีมาก่อน ข้อมูลนี้ให้ "โภชนาการ" ที่เพียงพอสำหรับโครงข่ายประสาทเทียมที่ต้องการตัวอย่างจำนวนมากสำหรับการฝึกอบรม
Computing Power Revolution (การปฏิวัติพลังประมวลผล): Graphics processors (GPUs, หน่วยประมวลผลกราฟิก) ซึ่งเดิมออกแบบมาสำหรับวิดีโอเกม มีสถาปัตยกรรมคอมพิวเตอร์แบบขนานขนาดใหญ่ ซึ่งพบว่าเหมาะสมอย่างยิ่งสำหรับการดำเนินการเมทริกซ์หลักในโครงข่ายประสาทเทียม การเกิดขึ้นของ GPU ทำลายคอขวดพลังประมวลผลที่คอยรบกวน connectionism มานานหลายทศวรรษ ทำให้ศักยภาพทางทฤษฎีของมันได้รับการปลดปล่อยอย่างแท้จริง
ในที่สุด การบรรจบกันของอัลกอริทึม ข้อมูล และพลังประมวลผล จุดประกายการปฏิวัติ deep learning (การเรียนรู้เชิงลึก) ทำให้ตรรกะของ connectionism กลายเป็นกระแสหลักที่ไม่มีใครโต้แย้งในสาขา AI ในปัจจุบัน
1.3 ทางตันเชิงปรัชญา: ความเข้าใจ (Understanding) เทียบกับการจำลอง (Simulation)
ข้อพิพาททางประวัติศาสตร์ระหว่างสองสำนักหลักนำไปสู่คำถามเชิงปรัชญาที่ลึกซึ้งซึ่งยังคงไม่สามารถแก้ไขได้จนถึงทุกวันนี้: เครื่องจักรที่สามารถจำลองพฤติกรรมที่ชาญฉลาดได้อย่างสมบูรณ์แบบมีความสามารถในการ เข้าใจ อย่างแท้จริงหรือไม่?
The Turing Test (บททดสอบทัวริง)
"Turing Test (บททดสอบทัวริง)" ของ Alan Turing (อลัน ทัวริง) ให้คำจำกัดความเชิงปฏิบัติการแบบ behaviorist (พฤติกรรมนิยม) ของปัญญา บททดสอบนี้เกี่ยวข้องกับว่าเครื่องจักรสามารถสนทนากับมนุษย์ได้หรือไม่ และมนุษย์ไม่สามารถบอกได้ว่าเป็นเครื่องจักรหรือบุคคล จากนั้นเครื่องจักรสามารถพิจารณาได้ว่าฉลาด บททดสอบทัวริงหลีกเลี่ยงคำถามสำคัญของ "ปัญญาคืออะไร" และหันไปที่ "พฤติกรรมอะไรที่ปัญญาควรแสดงออก"
The "Chinese Room" Thought Experiment (การทดลองทางความคิด "ห้องภาษาจีน")
นักปรัชญา John Searle (จอห์น เซิร์ล) เสนอการทดลองทางความคิด "Chinese Room (ห้องภาษาจีน)" ที่มีชื่อเสียงในปี 1980 เพื่อโจมตี symbolism และบททดสอบทัวริงอย่างรุนแรง การทดลองถูกคิดขึ้นดังนี้: บุคคลที่ไม่เข้าใจภาษาจีนถูกขังอยู่ในห้อง และในห้องนั้นมีคู่มือรายละเอียดเกี่ยวกับกฎการประมวลผลภาษาจีน (เทียบเท่ากับโปรแกรม) เขาได้รับบันทึกที่มีอักษรจีนเขียนอยู่ (อินพุต) ผ่านทางหน้าต่าง จากนั้นปฏิบัติตามคำแนะนำในคู่มือกฎอย่างเคร่งครัดเพื่อค้นหาและรวมอักขระที่สอดคล้องกัน จากนั้นส่งผลลัพธ์ออกจากหน้าต่าง (เอาต์พุต) สำหรับคนภายนอกห้อง การตอบสนองของห้องไม่แตกต่างจากการตอบสนองของผู้พูดภาษาจีนพื้นเมือง ดังนั้นจึงผ่านบททดสอบทัวริง
อย่างไรก็ตาม Searle ชี้ให้เห็นว่าบุคคลในห้องไม่เคยเข้าใจ ความหมาย (semantics) ของอักษรจีนใด ๆ ตั้งแต่ต้นจนจบ และสิ่งที่เขาทำทั้งหมดคือการ จัดการสัญลักษณ์ (syntax) อย่างหมดจด Searle สรุปว่าการจัดการสัญลักษณ์อย่างง่าย ๆ ไม่ว่าจะซับซ้อนเพียงใด ก็ไม่สามารถสร้าง "ความเข้าใจ" ที่แท้จริงได้ การโต้แย้งนี้ท้าทายมุมมองของ "strong AI (AI แข็งแกร่ง)" อย่างมีประสิทธิภาพ (เช่น ความเชื่อที่ว่าคอมพิวเตอร์ที่ตั้งโปรแกรมอย่างถูกต้องสามารถมีจิตใจได้)
ปัจจุบัน AI สมัยใหม่ที่แสดงโดย large language models (LLMs, แบบจำลองภาษาขนาดใหญ่) สามารถมองได้ว่าเป็น "Chinese Room (ห้องภาษาจีน)" ที่อัปเกรดขั้นสุดยอดในแง่หนึ่ง พวกเขาสร้างคำตอบที่ดูเหมือนชาญฉลาดโดยการจับคู่รูปแบบทางสถิติในข้อมูลข้อความจำนวนมหาศาล การถกเถียงว่าพวกเขา "เข้าใจ" ภาษาอย่างแท้จริงหรือไม่ หรือเป็นเพียง "stochastic parrots (นกแก้วสุ่ม)" ที่ซับซ้อน เป็นการสานต่อการถกเถียงระหว่าง Turing กับ Searle ในยุคปัจจุบัน
เป็นเวลานานแล้วที่ symbolism และ connectionism ถูกมองว่าเป็นสองกระบวนทัศน์ที่แยกจากกัน อย่างไรก็ตาม "สงคราม" แห่งประวัติศาสตร์กำลังจะสิ้นสุดลงในรูปแบบของการ synthesis (การสังเคราะห์) ตรรกะพื้นฐานของอนาคตไม่ใช่ทางเลือกแบบใดแบบหนึ่ง แต่เป็นการหลอมรวมของทั้งสอง แนวโน้มนี้สะท้อนให้เห็นในการเพิ่มขึ้นของ Neuro-Symbolic AI (AI ประสาท-สัญลักษณ์) สาขานี้มีจุดมุ่งหมายเพื่อรวมความสามารถในการจดจำรูปแบบที่ทรงพลังของโครงข่ายประสาทเทียมเข้ากับความสามารถในการใช้เหตุผลเชิงตรรกะที่เข้มงวดของระบบเชิงสัญลักษณ์ โดยมีเป้าหมายเพื่อสร้างระบบที่มีประสิทธิภาพมากขึ้นที่สามารถเรียนรู้และให้เหตุผลได้ ตัวอย่างเช่น AI agents (ตัวแทน AI) สมัยใหม่สามารถเรียกเครื่องมือเชิงสัญลักษณ์ภายนอก (เช่น เครื่องคิดเลข การสืบค้นฐานข้อมูล) เพื่อเพิ่มขีดความสามารถของตนเอง ซึ่งเป็นการผสมผสานการใช้งานจริงของแบบจำลองประสาทและเครื่องมือเชิงสัญลักษณ์
นอกจากนี้ สถาปัตยกรรม "Mixture of Experts (MoE, ส่วนผสมของผู้เชี่ยวชาญ)" ในแบบจำลองภาษาขนาดใหญ่สมัยใหม่ยังสะท้อนถึงระบบผู้เชี่ยวชาญของ symbolism ในแนวคิดอีกด้วย แบบจำลอง MoE ประกอบด้วยเครือข่ายย่อย "expert (ผู้เชี่ยวชาญ)" ที่มีความเชี่ยวชาญหลายเครือข่าย และเครือข่าย "gating (การควบคุมประตู)" ซึ่งมีหน้าที่ในการเลือกผู้เชี่ยวชาญที่เหมาะสมที่สุดเพื่อจัดการกับอินพุตแต่ละรายการ สิ่งนี้คล้ายกับการที่ระบบเชิงสัญลักษณ์เรียกโมดูลการทำงานเฉพาะตามกฎ แต่การใช้งานของมันเป็นแบบ connectionist ทั้งหมด ซึ่งทำผ่านการเรียนรู้แบบ end-to-end และการเพิ่มประสิทธิภาพที่แตกต่าง สิ่งนี้แสดงให้เห็นว่าตรรกะพื้นฐานของ AI กำลังเปลี่ยนจากการต่อต้านไปสู่การเสริมซึ่งกันและกัน สร้างความสามารถที่ทรงพลังอย่างที่ไม่เคยมีมาก่อนผ่านการหลอมรวม
ตารางที่ 1: การเปรียบเทียบกระบวนทัศน์ AI พื้นฐาน: Symbolicism กับ Connectionism
คุณสมบัติ | Symbolicism (จากบนลงล่าง) | Connectionism (จากล่างขึ้นบน) |
---|---|---|
หลักการสำคัญ | ปัญญาเกิดขึ้นได้จากการจัดการสัญลักษณ์และการปฏิบัติตามกฎเกณฑ์ที่เป็นทางการ | ปัญญาเกิดขึ้นจากการปฏิสัมพันธ์ของหน่วยที่เชื่อมต่อถึงกันที่เรียบง่ายจำนวนมาก |
การแทนความรู้ | ฐานความรู้ที่ชัดเจน มีโครงสร้าง (เช่น กฎ "ถ้า-แล้ว") | ความรู้แฝง ที่มีการกระจายตัว ถูกเข้ารหัสใน weights (น้ำหนัก) ของการเชื่อมต่อเครือข่าย |
วิธีการใช้เหตุผล | การใช้เหตุผลตามการหักเหตุผลเชิงตรรกะ ການຄົ້ນຫາ และกฎ heuristic (heuristic rule, ฮิวริสติก) | การใช้เหตุผลตามการจดจำรูปแบบที่ขับเคลื่อนด้วยข้อมูลและการอนุมานทางสถิติ |
เทคโนโลยีหลัก | ระบบผู้เชี่ยวชาญ การเขียนโปรแกรมเชิงตรรกะ กราฟความรู้ | โครงข่ายประสาทเทียม การเรียนรู้เชิงลึก แบบจำลองภาษาขนาดใหญ่ |
ข้อดี | ความสามารถในการตีความที่แข็งแกร่ง เคร่งครัดเชิงตรรกะ เก่งในด้านที่กำหนดไว้อย่างดี | ความสามารถในการเรียนรู้ที่แข็งแกร่ง สามารถจัดการกับข้อมูลที่ไม่ชัดเจนและไม่มีโครงสร้าง ความสามารถในการวางนัยทั่วไปที่ดี |
ข้อเสีย | คอขวดในการได้มาซึ่งความรู้ ความสามารถในการจัดการกับความไม่แน่นอนที่อ่อนแอ ระบบที่เปราะบาง | ปัญหา "กล่องดำ" (ความสามารถในการตีความที่ไม่ดี) ต้องใช้ข้อมูลและพลังประมวลผลจำนวนมาก มีความเสี่ยงต่อการโจมตีแบบ adversarial (adversarial attack, การโจมตีแบบปฏิปักษ์) |
จุดสูงสุดทางประวัติศาสตร์ | ยุคของระบบผู้เชี่ยวชาญในทศวรรษ 1970 และ 1980 | ยุคของการเรียนรู้เชิงลึกตั้งแต่ปี 2010 ถึงปัจจุบัน |
บุคคลสำคัญที่เป็นตัวแทน | Marvin Minsky (มาร์วิน มินสกี), Herbert A. Simon (เฮอร์เบิร์ต เอ. ไซมอน), Allen Newell (อัลเลน นิวเวลล์) | Geoffrey Hinton (เจฟฟรีย์ ฮินตัน), Yann LeCun (ยานน์ เลอคุน), John Hopfield (จอห์น ฮ็อปฟิลด์), Fei-Fei Li (เฟย-เฟย ลี) |
ส่วนที่ 2: ภาษาสากลของ AI สมัยใหม่: หลักการทางคณิตศาสตร์หลัก
การเปิดเผยความลึกลับของ AI สมัยใหม่ต้องตระหนักว่า "ตรรกะพื้นฐาน" ของมันไม่ใช่สามัญสำนึกหรือการใช้เหตุผลของมนุษย์ แต่เป็นภาษาทางคณิตศาสตร์ที่แม่นยำและเป็นสากล โดยเฉพาะอย่างยิ่ง AI ที่ถูกครอบงำโดย connectionism นั้นโดยพื้นฐานแล้วคือคณิตศาสตร์ประยุกต์ที่ขับเคลื่อนโดย "ข้อมูล อัลกอริทึม และพลังประมวลผล" กระบวนการสร้างปัญญา การเรียนรู้ และการเพิ่มประสิทธิภาพสามารถแบ่งออกเป็นการทำงานร่วมกันของสามเสาหลักทางคณิตศาสตร์ ได้แก่ สถิติความน่าจะเป็น พีชคณิตเชิงเส้น และแคลคูลัส
2.1 ธรรมชาติทางคณิตศาสตร์ของ AI
งานหลักของปัญญาประดิษฐ์ในปัจจุบันมักจะอธิบายได้ดังนี้: ค้นหาโซลูชันที่เหมาะสมที่สุดโดยประมาณในพื้นที่ปัญหาที่ซับซ้อนและมีมิติสูง แทนที่จะแก้ปัญหาโดยการลองทุกความเป็นไปได้อย่างละเอียดถี่ถ้วน มันใช้วิธีการทางคณิตศาสตร์เพื่อค้นหาโซลูชันที่ดีเพียงพอ คณิตศาสตร์ให้เครื่องมือสร้างแบบจำลองที่เป็นทางการនិងພາສາ περιγραφಿಕ วิทยาศาสตร์แก่ AI และเป็นรากฐานสำหรับการสร้าง ความเข้าใจ และการปรับปรุงระบบ AI
2.2 เสาหลักที่ 1: ความน่าจะเป็นและสถิติ – ตรรกะของความไม่แน่นอน
ทฤษฎีความน่าจะเป็นและสถิติให้กรอบแนวคิดทางทฤษฎีแก่ AI สำหรับการใช้เหตุผลในสภาพแวดล้อมที่ไม่แน่นอนและการดึงรูปแบบจากข้อมูล แบบจำลอง AI นั้นโดยพื้นฐานแล้วคือระบบความน่าจะเป็นที่เรียนรู้การแจกแจงข้อมูลพื้นฐานเพื่อทำการคาดการณ์และการตัดสินใจ
อย่างไรก็ตาม การเกิดขึ้นของ big data (ข้อมูลขนาดใหญ่) ก่อให้เกิดความท้าทายอย่างร้ายแรงต่อรากฐานของสถิติดั้งเดิม ทฤษฎีสถิติดั้งเดิม เช่น กฎจำนวนมากและทฤษฎีบทขีดจำกัดกลาง ส่วนใหญ่มีพื้นฐานมาจากสมมติฐานที่ว่าตัวอย่างเป็น "อิสระและมีการแจกแจงเหมือนกัน (i.i.d.)" และขนาดตัวอย่าง n มีขนาดใหญ่กว่าจำนวนคุณสมบัติ p มาก (เช่น p ≪ n) แต่ในยุคของ big data สมมติฐานเหล่านี้มักจะถูกทำลาย ตัวอย่างเช่น ในงานการจดจำภาพ ภาพที่มีความละเอียดสูงอาจมีพิกเซล数ล้าน (คุณสมบัติ p) ในขณะที่ dataset (ชุดข้อมูล) ฝึกอบรมอาจมีเพียงภาพ数เท่านั้น (ตัวอย่าง n) ซึ่งนำไปสู่ปัญหา "curse of dimensionality (คำสาปแห่งมิติ)" ที่ p ≫ n ในกรณีนี้ เป็นเรื่องง่ายที่จะสร้าง "pseudo-correlations (ความสัมพันธ์เทียม)" ที่ทำให้วิธีการทางสถิติดั้งเดิมเป็นโมฆะ
การเพิ่มขึ้นของการเรียนรู้เชิงลึกมีอยู่บ้าง เป็นการตอบสนองต่อความท้าทายนี้ มันมีวิธีการเรียนรู้การแทนคุณสมบัติที่มีประสิทธิภาพโดยอัตโนมัติจากข้อมูลที่มีมิติสูงโดยไม่ต้องพึ่งพาสมมติฐานทางสถิติดั้งเดิม ถึงกระนั้น การสร้างรากฐานทางสถิติที่แข็งแกร่งสำหรับกระบวนทัศน์ข้อมูลใหม่นี้ยังคงเป็นปัญหาทางคณิตศาสตร์ที่สำคัญที่จำเป็นต้องได้รับการแก้ไขอย่างเร่งด่วนในการวิจัย AI ในปัจจุบัน
2.3 เสาหลักที่ 2: พีชคณิตเชิงเส้น – ตรรกะของการเป็นตัวแทน
พีชคณิตเชิงเส้นเป็น "ภาษาสากล" ของโลก AI โดย提供เครื่องมือพื้นฐานสำหรับการเป็นตัวแทนข้อมูลและแบบจำลอง ในโครงข่ายประสาทเทียม ไม่ว่าจะเป็นอินพุต (เช่น พิกเซลของภาพ เวกเตอร์คำของข้อความ) พารามิเตอร์ของแบบจำลอง (weights (น้ำหนัก)) หรือเอาต์พุตสุดท้าย ทั้งหมดจะแสดงเป็นโครงสร้างตัวเลข ได้แก่ เวกเตอร์ เมทริกซ์ หรือ tensors (เทนเซอร์) ที่มีมิติสูงกว่า
ปฏิบัติการหลักในโครงข่ายประสาทเทียม เช่น การถ่วงน้ำหนักนิวรอนและการรวมอินพุตทั้งหมด เป็นการคูณเมทริกซ์และเวกเตอร์โดยพื้นฐาน เหตุผลที่ GPUs可以เร่งความเร็วในการฝึกอบรม AI ได้อย่างมาก เป็นเพราะสถาปัตยกรรมฮาร์ดแวร์ได้รับการปรับให้เหมาะสมอย่างสูงเพื่อดำเนินการพีชคณิตเชิงเส้นแบบขนานขนาดใหญ่อย่างมีประสิทธิภาพ
2.4 เสาหลักที่ 3: แคลคูลัสและการเพิ่มประสิทธิภาพ – ตรรกะของการเรียนรู้
กระบวนการเรียนรู้ของ AI นั้นโดยพื้นฐานแล้วคือปัญหา Optimization (การเพิ่มประสิทธิภาพ) ทางคณิตศาสตร์ เป้าหมายคือค้นหาชุดพารามิเตอร์แบบจำลอง (เช่น วัตต์และค่าเบี่ยงเบนในโครงข่ายประสาทเทียม) ที่ลดความแตกต่างระหว่างการคาดการณ์ของแบบจำลองกับคำตอบที่แท้จริง ความแ