รุ่งอรุณแห่ง Agentic AI: Llama 4 ของ Meta

ปัญญาประดิษฐ์กำลังอยู่ระหว่างการเปลี่ยนแปลงครั้งใหญ่ โมเดล AI รุ่นแรกๆ ถูกจำกัดให้ประมวลผลข้อความเพียงเล็กน้อย แต่ระบบที่ทันสมัยในปัจจุบันมีความสามารถในการรับและทำความเข้าใจหนังสือทั้งเล่ม เหตุการณ์สำคัญในการวิวัฒนาการนี้เกิดขึ้นเมื่อวันที่ 5 เมษายน 2025 เมื่อ Meta เปิดตัว Llama 4 ซึ่งเป็นตระกูลโมเดล AI ที่ก้าวล้ำด้วยหน้าต่างบริบทขนาด 10 ล้านโทเค็นที่ไม่เคยมีมาก่อน การก้าวกระโดดครั้งนี้มีผลกระทบอย่างมากต่ออนาคตของระบบ Agentic AI ซึ่งได้รับการออกแบบมาให้ทำงานโดยอัตโนมัติ วางแผน ตัดสินใจและดำเนินการอย่างอิสระ

เพื่อให้ได้รับข้อมูลเชิงลึกที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับเทคโนโลยีการเปลี่ยนแปลงนี้ เราได้หันไปหา Nikita Gladkikh บุคคลที่โดดเด่นในชุมชน AI ในฐานะผู้ชนะรางวัล BrainTech สมาชิกที่กระตือรือร้นของ IEEE และ Staff Software Engineer ที่ Primer AI Nikita อยู่ในระดับแนวหน้าของการตรวจสอบ AI และการพัฒนาโครงสร้างพื้นฐาน ด้วยอาชีพที่ยาวนานกว่าทศวรรษ เริ่มต้นในปี 2013 Nikita ได้ผสมผสานวิศวกรรมซอฟต์แวร์เชิงปฏิบัติ การวิจัยเชิงวิชาการ และการมีส่วนร่วมในชุมชนนักพัฒนาทั่วโลกได้อย่างลงตัว ทำให้เขากลายเป็นผู้เชี่ยวชาญที่เป็นที่ต้องการใน Python, Go และระบบอัตโนมัติที่ใช้ AI มุมมองที่เป็นเอกลักษณ์ของเขามาจากประสบการณ์ตรงที่กว้างขวางในการปรับใช้ไปป์ไลน์ที่ขับเคลื่อนด้วย LLM ขนาดใหญ่ในภาคส่วนต่างๆ เช่น การเงิน ตลาด และเทคโนโลยีการค้นหา

Nikita Gladkikh มีชื่อเสียงเป็นพิเศษในด้านงานบุกเบิกสถาปัตยกรรมที่ปรับขนาดได้ซึ่งรวมโมเดลภาษาขนาดใหญ่ (LLM) เข้ากับตรรกะการตรวจสอบที่แข็งแกร่ง ในโดเมนนี้ ความน่าเชื่อถือและความแม่นยำเป็นสิ่งสำคัญยิ่ง และการมีส่วนร่วมเชิงกลยุทธ์ของ Nikita เป็นเครื่องมือสำคัญในการกำหนดกระบวนทัศน์ RAG-V (Retrieval-Augmented Generation with Verification) ซึ่งกำลังได้รับแรงผลักดันอย่างรวดเร็วในอุตสาหกรรมที่ขับเคลื่อนด้วย AI

ความสำคัญของการขยายหน้าต่างบริบท

Llama 4 ของ Meta ได้ทำลายขีดจำกัดหน้าต่างบริบทก่อนหน้านี้โดยขยายเป็น 10 ล้านโทเค็นอย่างน่าอัศจรรย์ ซึ่งเป็นความสำเร็จที่ทำได้หลังจาก Google เปิดตัว Gemini 2.5 ซึ่งมีหน้าต่างบริบท 1 ล้านโทเค็น แต่ตัวเลขเหล่านี้มีความหมายอย่างไรสำหรับอุตสาหกรรม AI

จากข้อมูลของ Nikita แนวโน้มไปสู่หน้าต่างบริบทที่ใหญ่ขึ้นนั้นเป็นสิ่งที่เปลี่ยนแปลงไปอย่างมาก การเปิดใช้งานระบบ AI เพื่อประมวลผลและวิเคราะห์ข้อมูลจำนวนมหาศาล รวมถึงการสนทนาทั้งหมด เอกสารที่ครอบคลุม และแม้แต่ฐานข้อมูลทั้งหมด ระบบเหล่านี้สามารถให้เหตุผลด้วยระดับความลึกและความต่อเนื่องที่ไม่สามารถทำได้ก่อนหน้านี้ การเปลี่ยนแปลงกระบวนทัศน์นี้มีผลกระทบอย่างมากต่อการออกแบบไปป์ไลน์ Agentic ซึ่ง AI Agent ได้รับมอบหมายให้วางแผน ตัดสินใจ และดำเนินการอย่างอิสระ บริบทที่ใหญ่ขึ้นแปลว่ามีข้อผิดพลาดน้อยลง การปรับเปลี่ยนในแบบของคุณที่ได้รับการปรับปรุง และประสบการณ์การใช้งานที่ดื่มด่ำยิ่งขึ้น เป็นตัวบ่งชี้ที่ชัดเจนถึงทิศทางที่ทั้งทุ่งกำลังมุ่งหน้าไป

ประสบการณ์ตรงและการออกแบบไปป์ไลน์ Agentic

ประสบการณ์ที่กว้างขวางของ Nikita ในการสร้างเครื่องมือนักพัฒนา เช่น PKonfig และแพลตฟอร์มการศึกษาที่ใช้ในวงกว้างให้ข้อมูลเชิงลึกที่มีคุณค่าเกี่ยวกับความซับซ้อนของการออกแบบไปป์ไลน์ Agentic เขาเน้นย้ำถึงความสำคัญอย่างยิ่งของโมดูลาร์ ความสามารถในการสังเกต และการแยกความล้มเหลวเมื่อสร้างระบบที่ต้องทำงานได้อย่างน่าเชื่อถือภายใต้แรงกดดัน

จากการวาดประสบการณ์ของเขา Nikita สนับสนุนให้ปฏิบัติต่อทุกองค์ประกอบเสมือนเป็นจุดที่อาจเกิดความล้มเหลวและนำเส้นทางการสำรอง เลเยอร์การตรวจสอบ และมาตรการทำซ้ำมาใช้ หลักการเหล่านี้สามารถนำไปใช้ได้โดยตรงกับการออกแบบเวิร์กโฟลว์ Agentic โดยที่ Agent ต้องการการจัดการสถานะที่มีโครงสร้าง การดำเนินการที่ตรวจสอบย้อนกลับได้ และพฤติกรรมที่กำหนดได้ เช่นเดียวกับระบบกระจายอำนาจใดๆ

งานของ Nikita ใน AI ที่นำไปใช้ โดยเฉพาะอย่างยิ่งในการลดภาพหลอนในการสรุปประวัติส่วนตัวและการทำให้ข้อเสนอแนะเป็นไปโดยอัตโนมัติในสถานศึกษา เน้นย้ำถึงความสำคัญของลูปการตรวจสอบและการออกแบบการดึงข้อมูลก่อน เขาเชื่อว่าไม่ควรไว้วางใจ Agent อย่างสุ่มสี่สุ่มห้า แต่ควรติดตั้งกลไกการตรวจสอบแบบฝังตัวและผสานรวมอย่างใกล้ชิดกับฐานความรู้ที่มีโครงสร้าง นอกจากนี้ เขายังเน้นย้ำถึงความสำคัญของการออกแบบ Human-in-the-Loop ซึ่งเป็นหลักการที่เขาให้ความสำคัญในเครื่องมือทางการศึกษาและตอนนี้ถือว่าจำเป็นเพื่อให้มั่นใจถึงความรับผิดชอบของ Angelic ไปป์ไลน์ Agentic เป็นมากกว่า UX Flow ที่เป็นนวัตกรรม เป็นระบบซอฟต์แวร์ที่ซับซ้อนซึ่งจะต้องได้รับการจัดการด้วยความเข้มงวดเช่นเดียวกับวิศวกรรมแบ็กเอนด์เพื่อให้มั่นใจถึงความสามารถในการใช้งานจริง

การปรับปรุงความน่าเชื่อถือของ AI ผ่านบริบทที่ขยายใหญ่ขึ้น

ความก้าวหน้าในขนาดหน้าต่างบริบทกำลังส่งผลกระทบที่จับต้องได้ต่อระบบการผลิต โดยปรับปรุงความน่าเชื่อถือของ AI ในแอปพลิเคชันต่างๆ Nikita ให้ตัวอย่างที่เป็นรูปธรรมว่าบริบทที่ใหญ่ขึ้นปรับปรุงความน่าเชื่อถือของ AI ได้อย่างไร:

หน้าต่างบริบทที่เล็กลงมักจะบังคับให้โมเดล AI ตัดข้อมูลตามบริบทที่สำคัญออก ซึ่งนำไปสู่เอาต์พุตที่เป็นส่วนๆ หรือไม่ถูกต้อง อย่างไรก็ตาม เมื่อหน้าต่างบริบทขยายเป็นล้านโทเค็น ตอนนี้โมเดลสามารถเก็บรักษาการโต้ตอบในอดีตที่กว้างขวาง โปรไฟล์ผู้ใช้โดยละเอียด และความสัมพันธ์หลายมิติภายในข้อมูลได้ ตัวอย่างเช่น ตัวแทนสนับสนุนลูกค้าที่ใช้ AI สามารถอ้างอิงการโต้ตอบในอดีตที่ครอบคลุมหลายปี โดยให้การสนับสนุนที่สมบูรณ์ตามบริบทและเป็นส่วนตัวสูง สิ่งนี้ช่วยลดข้อผิดพลาดที่เกิดจากการสูญเสียบริบทได้อย่างมาก ซึ่งจะช่วยเพิ่มความน่าเชื่อถือและความลึกซึ้งของการตัดสินใจที่ขับเคลื่อนด้วย AI โดยเฉพาะอย่างยิ่งในสถานการณ์วิกฤต เช่น การวินิจฉัยด้านการดูแลสุขภาพหรือการคาดการณ์ทางการเงิน

Nikita เล่าถึงความท้าทายที่เผชิญขณะใช้งาน Retrieval-Augmented Generation with Verification (RAG-V) ที่ Primer AI: การลดข้อมูลสำหรับการโทรตรวจสอบเพื่อใส่เอกสารสนับสนุนลงในบริบท ข้อจำกัดนี้จำกัดความแม่นยำของความพยายามในการตรวจสอบของพวกเขา อย่างไรก็ตาม ด้วยหน้าต่างบริบทที่ขยายใหญ่ขึ้นของ Llama 4 อุปสรรคเหล่านั้นก็ถูกกำจัดออกไปอย่างมีประสิทธิภาพ

RAG-V: รากฐานสำคัญของการพัฒนา AI ที่เชื่อถือได้

วิธี RAG-V ที่โมเดลดึงและตรวจสอบเนื้อหาได้กลายเป็นรากฐานสำคัญของการพัฒนา AI ที่เชื่อถือได้ Nikita อธิบายว่า RAG-V เป็นวิธีที่ AI ไม่เพียงสร้างคำตอบ แต่ยังตรวจสอบกับแหล่งภายนอกที่เชื่อถือได้ ซึ่งโดยพื้นฐานแล้วคือการตรวจสอบข้อเท็จจริงแบบเรียลไทม์

งานของ Nikita ใน RAG-V เน้นย้ำถึงการบูรณาการหลักการตรวจสอบภายในระบบ Agentic AI RAG-V ใช้ระบบการดึงข้อมูลและเลเยอร์การตรวจสอบที่แข็งแกร่งเพื่ออ้างอิงข้ามเอาต์พุตของโมเดลกับแหล่งภายนอกที่น่าเชื่อถือ ตัวอย่างเช่น ในการประเมินความเสี่ยงทางการเงิน คำแนะนำหรือการคาดการณ์ที่สร้างขึ้นแต่ละชิ้นจะได้รับการตรวจสอบกับข้อมูลตลาดในอดีตหรือเอกสารการปฏิบัติตามกฎระเบียบ หน้าต่างบริบทที่ขยายใหญ่ขึ้นช่วยเพิ่มวิธีการนี้โดยเปิดใช้งานบริบทที่สมบูรณ์ยิ่งขึ้นและเน้นย้ำถึงความจำเป็นในการตรวจสอบเนื้อหาและรูปแบบ

Nikita เน้นย้ำว่าหน้าต่างบริบทที่ใหญ่ขึ้นขยายประโยชน์ของ RAG-V โดยอนุญาตให้รวมสื่อสนับสนุนเพิ่มเติมไว้ในการตรวจสอบครั้งเดียว อย่างไรก็ตาม พวกเขายังเพิ่มความเสี่ยงของเอาต์พุตที่ไม่มีโครงสร้างอีกด้วย เขาเตือนว่าไม่ควรปฏิบัติต่อโมเดลภาษาเสมือนเป็นการอัญเชิญ Web API ที่กำหนดไว้ แต่เป็นเอนทิตีที่เป็นไปได้ คล้ายกับผู้ใช้ที่ชาญฉลาด ดังนั้น การตรวจสอบเนื้อหาและโครงสร้างจึงเป็นสิ่งสำคัญเพื่อให้มั่นใจถึงความน่าเชื่อถือและความพร้อมในการบูรณาการ

LLM เป็นการป้อนข้อมูลของผู้ใช้: การเปลี่ยนแปลงกระบวนทัศน์ในสถาปัตยกรรมซอฟต์แวร์

Nikita แนะนำว่าการปฏิบัติต่อเอาต์พุต LLM เหมือนกับการป้อนข้อมูลของผู้ใช้มากกว่าการตอบสนองของ API มีผลกระทบอย่างมากต่อสถาปัตยกรรมซอฟต์แวร์สมัยใหม่ เมื่อมองว่า LLM เป็นอินพุตเหมือนผู้ใช้มากกว่าการเรียก API แบบคงที่ จะเป็นการเปลี่ยนแปลงวิธีการออกแบบและสร้างซอฟต์แวร์โดยพื้นฐาน

อินเทอร์เฟซส่วนหน้าต้องได้รับการออกแบบมาเพื่อจัดการกับความไม่แน่นอนและชะลอตัวอย่างสง่างาม โดยใช้รูปแบบเช่น UI ในแง่ดี ในส่วนแบ็กเอนด์ การออกแบบแบบอะซิงโครนัสที่ขับเคลื่อนด้วยเหตุการณ์จึงกลายเป็นสิ่งจำเป็น โดยมีคิวข้อความ (เช่น Kafka หรือ RabbitMQ) ช่วยแยกการดำเนินการที่ขับเคลื่อนด้วย AI ออกจากตรรกะหลัก

สถาปัตยกรรมแบบไฮบริด ซึ่งรวมโค้ดแบบดั้งเดิมเข้ากับการตัดสินใจตามโมเดล ช่วยให้มีกลไกสำรองเมื่อเอาต์พุต LLM ช้าหรือไม่น่าเชื่อถือ ความแปรปรวนนี้ตอกย้ำถึงความสำคัญอย่างยิ่งของการตรวจสอบ ไม่ใช่แค่เพื่อความแม่นยำ แต่ยังรวมถึงโครงสร้างและความสอดคล้อง เครื่องมือต่างๆ เช่น PKonfig ที่พัฒนาโดย Nikita บังคับใช้การตอบสนองที่เป็นไปตามสคีมา ทำให้มั่นใจถึงความน่าเชื่อถือในการรวมระบบในระบบ Probabilistic

การเปลี่ยนแปลงการศึกษาด้วย LLM: การให้เกรดอัตโนมัติและข้อเสนอแนะส่วนบุคคล

Nikita ได้นำหลักการเหล่านี้ไปใช้ไม่เพียงแต่ในอุตสาหกรรมเท่านั้น แต่ยังรวมถึงในการศึกษาด้วย โดยพัฒนาแพลตฟอร์มการให้เกรดอัตโนมัติสำหรับ GoIT เขาอธิบายว่าประสบการณ์ของเขาได้เสริมสร้างคุณค่าของการกำหนด การทำซ้ำ และการเลื่อนระดับ Human-in-the-Loop แม้ว่าเราจะรวมเครื่องมือขั้นสูงเพิ่มเติม เช่น LLM แนวคิดเหล่านี้ยังคงเป็นศูนย์กลาง

LLM ที่ทันสมัยมีศักยภาพในการปฏิวัติข้อเสนอแนะของนักเรียนโดยนำเสนอการตอบสนองที่เป็นส่วนตัวและคำนึงถึงบริบทมากขึ้น แทนที่จะพึ่งพาเทมเพลตที่แก้ไขแล้ว LLM สามารถปรับคำอธิบายให้เข้ากับประวัติการเรียนรู้ของนักเรียน รูปแบบการเขียนโค้ด หรือภาษาแม่ ทำให้ข้อเสนอแนะเข้าถึงได้และนำไปปฏิบัติได้มากขึ้น อย่างไรก็ตาม Nikita เน้นย้ำว่าความน่าเชื่อถือและความยุติธรรมยังคงไม่สามารถต่อรองได้ สิ่งนี้จำเป็นต้องรวม LLM กับการลงกราวด์ตามการดึงข้อมูล การตรวจสอบเกณฑ์การให้คะแนน และกลไกการแทนที่ เช่นเดียวกับที่ความสามารถในการอธิบายและการตรวจสอบนำทางการออกแบบแพลตฟอร์มดั้งเดิม Nikita วาดภาพอนาคตของการศึกษาที่ใช้ AI ช่วยเป็น Agentic แต่มีเกราะป้องกันที่เข้มงวดและตรรกะที่โปร่งใสในทุกขั้นตอน

กลยุทธ์ในการจัดการความซับซ้อนในการพัฒนา AI

การจัดการกับความท้าทายทางสถาปัตยกรรมและการตรวจสอบที่มีอยู่ใน AI การพัฒนาต้องการกลยุทธ์ที่มีประสิทธิภาพในการจัดการกับความซับซ้อน Nikita แนะนำให้นักพัฒนาให้ความสำคัญกับการตรวจสอบตั้งแต่เริ่มต้น โดยฝังการตรวจสอบสคีมาตลอดทั้งไปป์ไลน์ เขาเน้นย้ำถึงความสำคัญของการใช้เครื่องมือที่บังคับใช้โครงสร้างและความสม่ำเสมอ ไม่ใช่แค่ความถูกต้องเท่านั้น

จากการวาดประสบการณ์ของเขาและตระหนักถึงความจำเป็นในการคิดแบบแยกส่วน Nikita สนับสนุนให้แยกตรรกะของโมเดลออกจากตรรกะทางธุรกิจและสร้างการสำรองที่แข็งแกร่งสำหรับกรณีที่โมเดลไม่ถูกต้องหรือช้า การผสมผสานระหว่างวินัยทางเทคนิคและการคาดการณ์เชิงกลยุทธ์นี้มีความสำคัญอย่างยิ่งสำหรับการสร้างระบบ AI ที่เชื่อถือได้

อิทธิพลของการยอมรับและการมีส่วนร่วมของชุมชน

การยอมรับ Nikita ผ่านโครงการริเริ่มต่างๆ เช่น BrainTech Award และการมีส่วนร่วมของเขากับชุมชนต่างๆ เช่น IEEE มีอิทธิพลอย่างมากต่อแนวทางการแก้ปัญหาความซับซ้อนในการปฏิบัติจริง ประสบการณ์เหล่านี้ได้ปลูกฝังถึงความสำคัญของการเชื่อมโยงนวัตกรรมเข้ากับการปฏิบัติจริง

BrainTech Award ตระหนักถึงงานของ Nikita ในการประยุกต์ใช้ Computer Vision เพื่อปรับปรุงเวิร์กโฟลว์ของผู้ใช้ในโลกแห่งความเป็นจริง ซึ่งเน้นไม่เพียงแต่ความสามารถทางเทคนิคเท่านั้น แต่ยังรวมถึงความสามารถในการใช้งานในวงกว้างด้วย ประสบการณ์นี้หล่อหลอมความเชื่อของเขาที่ว่าระบบ AI ต้องมีทั้งประสิทธิภาพและผสานรวมเข้ากับกระบวนการที่มีอยู่อย่างราบรื่น การมีส่วนร่วมอย่างต่อเนื่องของเขากับ IEEE ทำให้เขาอยู่บนพื้นฐานของการวิจัยล่าสุดและแนวทางปฏิบัติที่ดีที่สุด ทำให้เขาสามารถออกแบบระบบที่ไม่เพียงแต่ล้ำหน้าเท่านั้น แต่ยังรวมถึงจริยธรรม โมดูลาร์ และยืดหยุ่นในการผลิตอีกด้วย

การสร้างอนาคตของ AI

งานในอนาคตของ Nikita จะมุ่งเน้นไปที่การสร้างระบบ AI ที่แข็งแกร่ง ปรับขนาดได้ และมีจริยธรรม เขาเชื่อว่าโมเดลต่างๆ เช่น Llama 4 และ Gemini 2.5 ที่มีหน้าต่างบริบทขนาดใหญ่นั้นมีศักยภาพในการเปลี่ยนแปลง โดยเฉพาะอย่างยิ่งในการศึกษา โมเดลเหล่านี้สามารถช่วยให้ผู้สอน AI ให้คำอธิบายที่เป็นส่วนตัวและสมบูรณ์ตามบริบทโดยอิงจากประวัติการเรียนรู้ทั้งหมดของนักเรียน

การประเมินอัตโนมัติเป็นอีกส่วนสำคัญที่ต้องให้ความสนใจ เครื่องมือให้เกรดของ Nikita สำหรับ GoIT จัดการกับไวยากรณ์และความถูกต้องในวงกว้างแล้ว อย่างไรก็ตาม LLM รุ่นต่อไปมีศักยภาพที่จะผลักดันสิ่งนี้ให้ไกลออกไปโดยการประเมินความเข้าใจเชิงแนวคิด การปรับแต่งข้อเสนอแนะให้เข้ากับประสิทธิภาพก่อนหน้า และการจัดแนวผลลัพธ์ตามมาตรฐานทางวิชาการผ่าน RAG-V

เพื่อให้มั่นใจถึงความน่าเชื่อถือ Nikita เน้นย้ำถึงความจำเป็นอย่างต่อเนื่องในการตรวจสอบสคีมาและตรรกะการสำรอง ซึ่งเป็นหลักการที่สนับสนุนเครื่องมือต่างๆ เช่น PKonfig ด้วยการรวมโมเดลขั้นสูงเข้ากับการตรวจสอบที่มีโครงสร้าง เราสามารถปรับปรุงการศึกษาได้โดยไม่กระทบต่อความไว้วางใจ ความยุติธรรม หรือความเข้มงวดทางการสอน

การสร้างสมดุลระหว่างความสามารถในการปรับขนาดกับความเข้มงวดทางการศึกษา

การสนับสนุนนักเรียนหลายพันคนในแต่ละไตรมาสต้องมีความสมดุลอย่างระมัดระวังระหว่างความสามารถในการปรับขนาดและความสมบูรณ์ทางการสอน Nikita ทำได้โดยการแยกข้อกังวล: ระบบอัตโนมัติจัดการการตรวจสอบตามปกติ เช่น ผลการทดสอบและการจัดรูปแบบโค้ด ในขณะที่กรณี Edge ที่ซับซ้อนถูกตั้งค่าสถานะสำหรับการตรวจสอบของมนุษย์ สิ่งนี้ทำให้มั่นใจได้ถึงผลผลิตสูงโดยไม่กระทบต่อคุณภาพของข้อเสนอแนะหรือความยุติธรรม

ความเข้มงวดทางการศึกษาได้รับการดูแลรักษาโดยการบังคับใช้เกณฑ์การให้คะแนนที่มีโครงสร้าง การควบคุมเวอร์ชันสำหรับการมอบหมาย และตรรกะการให้คะแนนที่ตรวจสอบย้อนกลับได้ มาตรการเหล่านี้สร้างความไว้วางใจของนักเรียนและความโปร่งใสในการสอน

Nikita เชื่อว่าโมเดลระดับ Llama 4 สามารถเปลี่ยนสมดุลนี้ได้อย่างมากโดยเปิดใช้งานการสร้างข้อเสนอแนะที่คำนึงถึงบริบท หลายภาษา และแม้แต่โค้ดเฉพาะในวงกว้าง พวกเขาสามารถช่วยอธิบายแนวคิดที่เป็นนามธรรมด้วยคำที่ง่ายกว่า ปรับแต่งข้อเสนอแนะให้กับผู้เรียนแต่ละคน และจำลองการโต้ตอบแบบผู้สอน อย่างไรก็ตาม เขาเตือนว่าขนาดไม่ได้ขจัดความจำเป็นในการป้องกัน LLM จะต้องมีพื้นฐานมาจากเกณฑ์การให้คะแนน ตรวจสอบกับเอาต์พุตที่ทราบ และตรวจสอบได้โดยอาจารย์ผู้สอน ด้วยสถาปัตยกรรมที่เหมาะสม การรวมไปป์ไลน์ที่กำหนดไว้เข้ากับการปรับเปลี่ยนในแบบของคุณที่ขับเคลื่อนด้วย LLM เราสามารถเพิ่มการเข้าถึงการศึกษาที่มีคุณภาพได้อย่างมากโดยไม่เสียสละมาตรฐานทางวิชาการ

Nikita สรุปวิสัยทัศน์ของเขาว่า: "ฉันสร้างระบบที่ไม่เพียงแต่ทำงาน แต่ยังสอน ตรวจสอบ กำหนดค่า และสนับสนุนการตัดสินใจ"