ปัญญาประดิษฐ์ โดยเฉพาะสาขาที่เกี่ยวข้องกับภาษา ในช่วงไม่กี่ปีที่ผ่านมาถูกครอบงำโดยขนาดและพลังของ Large Language Models (LLMs) โมเดลขนาดยักษ์เหล่านี้ ซึ่งฝึกฝนจากข้อมูลมหาศาล ได้แสดงความสามารถอันน่าทึ่ง ดึงดูดจินตนาการของสาธารณชนและเม็ดเงินลงทุน อย่างไรก็ตาม ภายใต้พาดหัวข่าวที่ประกาศถึงโมเดลที่ใหญ่ขึ้นเรื่อยๆ การปฏิวัติที่เงียบกว่าแต่มีศักยภาพในการเปลี่ยนแปลงมากกว่ากำลังก่อตัวขึ้น นั่นคือการผงาดขึ้นของ Small Language Models (SLMs) ระบบ AI ที่กระชับและมุ่งเน้นมากขึ้นเหล่านี้กำลังสร้างช่องทางที่สำคัญอย่างรวดเร็ว โดยสัญญาว่าจะนำความสามารถ AI ที่ซับซ้อนมาสู่สภาพแวดล้อมที่รุ่นใหญ่กว่าไม่สามารถทำงานได้อย่างมีประสิทธิภาพหรือประหยัด
ความสนใจที่เพิ่มขึ้นใน SLMs ไม่ใช่แค่เรื่องทางวิชาการเท่านั้น แต่ยังแปลไปสู่แรงผลักดันทางการตลาดที่จับต้องได้ นักวิเคราะห์อุตสาหกรรมคาดการณ์ถึงการเติบโตอย่างรวดเร็วของภาคส่วน SLM โดยคาดการณ์ว่าขนาดตลาดจะขยายตัวจากประมาณ 0.93 พันล้านดอลลาร์ในปี 2025 เป็น 5.45 พันล้านดอลลาร์ภายในปี 2032 เส้นทางการเติบโตนี้แสดงถึงอัตราการเติบโตต่อปีแบบทบต้น (CAGR) ที่แข็งแกร่งประมาณ 28.7% ตลอดช่วงเวลาคาดการณ์ การเติบโตอย่างก้าวกระโดดเช่นนี้ไม่ได้เกิดขึ้นในสุญญากาศ แต่ขับเคลื่อนโดยการบรรจบกันของพลังทางเทคโนโลยีและการตลาดที่ทรงพลัง
ปัจจัยขับเคลื่อนหลักคือความต้องการที่ไม่หยุดยั้งสำหรับ Edge AI และ on-device intelligence ธุรกิจในหลากหลายภาคส่วนต่างแสวงหาโซลูชัน AI ที่สามารถทำงานได้โดยตรงบนสมาร์ทโฟน เซ็นเซอร์ อุปกรณ์อุตสาหกรรม และระบบฝังตัวอื่นๆ มากขึ้นเรื่อยๆ โดยไม่ต้องกังวลเรื่องความหน่วงแฝง ค่าใช้จ่าย หรือความเป็นส่วนตัวที่เกี่ยวข้องกับการเชื่อมต่อคลาวด์ตลอดเวลา การรัน AI แบบโลคัลช่วยให้สามารถตอบสนองแบบเรียลไทม์ซึ่งมีความสำคัญอย่างยิ่งสำหรับการใช้งานตั้งแต่ระบบยานยนต์อัตโนมัติไปจนถึงผู้ช่วยมือถือแบบโต้ตอบและระบบอัตโนมัติในโรงงานอัจฉริยะ SLMs ซึ่งมีขนาดการประมวลผลที่เล็กกว่า LLMs อย่างมาก เหมาะอย่างยิ่งสำหรับสภาพแวดล้อมที่มีทรัพยากรจำกัดเหล่านี้
ในขณะเดียวกัน ความก้าวหน้าอย่างมีนัยสำคัญใน เทคนิคการบีบอัดโมเดล (model compression techniques) ได้ทำหน้าที่เป็นตัวเร่งที่ทรงพลัง นวัตกรรมต่างๆ เช่น quantization (การลดความแม่นยำของตัวเลขที่ใช้ในโมเดล) และ pruning (การลบการเชื่อมต่อที่ไม่สำคัญภายในโครงข่ายประสาทเทียม) ช่วยให้นักพัฒนาสามารถลดขนาดโมเดลและเพิ่มความเร็วในการประมวลผลได้อย่างมาก ที่สำคัญ เทคนิคเหล่านี้กำลังพัฒนาเพื่อให้ได้ประสิทธิภาพที่สูงขึ้นในขณะที่ลดผลกระทบต่อประสิทธิภาพและความแม่นยำของโมเดลให้น้อยที่สุด ประโยชน์สองประการนี้—ขนาดที่เล็กลงและความสามารถที่คงไว้—ทำให้ SLMs เป็นทางเลือกที่น่าสนใจมากขึ้นเรื่อยๆ แทน LLMs สำหรับงานที่หลากหลายมากขึ้น
นอกจากนี้ องค์กรต่างๆ กำลังตระหนักถึงคุณค่าเชิงปฏิบัติของการรวม SLMs เข้ากับการดำเนินงานหลักของตน ตั้งแต่ IT automation ซึ่ง SLMs สามารถวิเคราะห์บันทึกและคาดการณ์ความล้มเหลวของระบบ ไปจนถึง cybersecurity ซึ่งสามารถตรวจจับความผิดปกติในการรับส่งข้อมูลเครือข่าย และ business applications ที่หลากหลายซึ่งมุ่งเป้าไปที่การเพิ่มผลผลิตและปรับปรุงกระบวนการตัดสินใจ ผลกระทบที่อาจเกิดขึ้นนั้นกว้างใหญ่ไพศาล SLMs นำเสนอแนวทางในการปรับใช้ AI อย่างกว้างขวางมากขึ้น โดยเฉพาะอย่างยิ่งในสถานการณ์ที่อ่อนไหวต่อต้นทุน ความเป็นส่วนตัว หรือต้องการการประมวลผลที่เกือบทันที การบรรจบกันของความต้องการ edge computing ประสิทธิภาพที่เพิ่มขึ้นจากการบีบอัด และกรณีการใช้งานที่ชัดเจนในองค์กร ทำให้ SLMs ไม่ใช่แค่เวอร์ชันที่เล็กกว่าของ LLMs แต่เป็นหมวดหมู่ AI ที่แตกต่างและมีความสำคัญซึ่งพร้อมที่จะมีอิทธิพลอย่างมีนัยสำคัญ
การแบ่งแยกเชิงกลยุทธ์: การควบคุมระบบนิเวศ กับ ความเชี่ยวชาญเฉพาะทาง
ในขณะที่ภูมิทัศน์ของ SLM กำลังก่อตัวขึ้น แนวทางเชิงกลยุทธ์ที่แตกต่างกันกำลังปรากฏขึ้นในหมู่ผู้เล่นหลักที่แย่งชิงความเป็นใหญ่ พลวัตการแข่งขันส่วนใหญ่รวมตัวกันรอบปรัชญาสองประการหลัก ซึ่งแต่ละปรัชญาสะท้อนถึงรูปแบบธุรกิจและวิสัยทัศน์ระยะยาวที่แตกต่างกันเกี่ยวกับวิธีการจับมูลค่าของ AI
เส้นทางที่โดดเด่นเส้นทางหนึ่งคือ กลยุทธ์การควบคุมระบบนิเวศที่เป็นกรรมสิทธิ์ (proprietary ecosystem control strategy) แนวทางนี้เป็นที่นิยมของบริษัทยักษ์ใหญ่ด้านเทคโนโลยีหลายแห่งและห้องปฏิบัติการ AI ที่ได้รับทุนสนับสนุนอย่างดี ซึ่งมีเป้าหมายที่จะสร้าง ‘สวนปิด’ (walled gardens) รอบๆ ข้อเสนอ SLM ของตน บริษัทต่างๆ เช่น OpenAI ซึ่งมีรุ่นต่างๆ ที่ได้มาจากสายตระกูล GPT (เช่น ตระกูล GPT-4 mini ที่คาดการณ์ไว้), Google กับโมเดล Gemma, Anthropic ที่สนับสนุน Claude Haiku และ Cohere ที่ส่งเสริม Command R+ เป็นตัวอย่างสำคัญ กลยุทธ์ของพวกเขามักจะเกี่ยวข้องกับการทำให้ SLMs เป็นส่วนประกอบสำคัญของแพลตฟอร์มที่กว้างขึ้น ซึ่งมักจะส่งมอบผ่าน Application Programming Interfaces (APIs) แบบสมัครสมาชิก บริการคลาวด์แบบบูรณาการ (เช่น Azure AI หรือ Google Cloud AI) หรือผ่านข้อตกลงใบอนุญาตระดับองค์กร
เสน่ห์ของกลยุทธ์นี้อยู่ที่ศักยภาพในการบูรณาการที่แน่นแฟ้น ประสิทธิภาพที่สม่ำเสมอ ความปลอดภัยที่เพิ่มขึ้น และการปรับใช้ที่ง่ายขึ้นภายในเวิร์กโฟลว์ขององค์กรที่มีอยู่ การควบคุมระบบนิเวศทำให้ผู้ให้บริการเหล่านี้สามารถให้การรับประกันเกี่ยวกับความน่าเชื่อถือและการสนับสนุน ทำให้ SLMs ของพวกเขาน่าสนใจสำหรับธุรกิจที่ต้องการระบบอัตโนมัติที่ขับเคลื่อนด้วย AI ที่แข็งแกร่ง ผู้ช่วย ‘copilot’ ที่ซับซ้อนซึ่งฝังอยู่ในชุดซอฟต์แวร์ และเครื่องมือสนับสนุนการตัดสินใจที่เชื่อถือได้ โมเดลนี้ให้ความสำคัญกับการจับมูลค่าผ่านการส่งมอบบริการและการผูกขาดแพลตฟอร์ม โดยใช้ประโยชน์จากโครงสร้างพื้นฐานและการเข้าถึงตลาดที่มีอยู่ของผู้ให้บริการ ตอบสนองความต้องการขององค์กรที่ให้ความสำคัญกับการบูรณาการที่ราบรื่นและบริการ AI ที่มีการจัดการได้อย่างมีประสิทธิภาพ
ตรงกันข้ามอย่างสิ้นเชิงกับการเล่นเกมระบบนิเวศคือ กลยุทธ์โมเดลเฉพาะทางตามโดเมน (specialized domain-specific model strategy) แนวทางนี้มุ่งเน้นไปที่การพัฒนา SLMs ที่ปรับแต่งและปรับจูนอย่างพิถีพิถันสำหรับความต้องการ คำศัพท์ และข้อจำกัดด้านกฎระเบียบเฉพาะของอุตสาหกรรมต่างๆ แทนที่จะมุ่งเป้าไปที่การใช้งานที่กว้างขวาง โมเดลเหล่านี้ได้รับการปรับปรุงเพื่อประสิทธิภาพสูงในแนวดิ่ง เช่น การเงิน การดูแลสุขภาพ บริการทางกฎหมาย หรือแม้แต่สาขาทางเทคนิคเฉพาะทาง เช่น การพัฒนาซอฟต์แวร์
ผู้บุกเบิกในพื้นที่นี้ ได้แก่ แพลตฟอร์มอย่าง Hugging Face ซึ่งโฮสต์โมเดลเช่น Zephyr 7B ที่ปรับให้เหมาะสมสำหรับงานเขียนโค้ดโดยเฉพาะ และผู้เล่นระดับองค์กรที่เป็นที่ยอมรับ เช่น IBM ซึ่งตระกูลโมเดล Granite ได้รับการออกแบบโดยคำนึงถึงความต้องการ AI ขององค์กร รวมถึงการกำกับดูแลข้อมูลและการปฏิบัติตามข้อกำหนดเป็นหลัก ข้อได้เปรียบเชิงกลยุทธ์ที่นี่อยู่ที่ความลึกมากกว่าความกว้าง ด้วยการฝึกโมเดลบนชุดข้อมูลเฉพาะอุตสาหกรรมและปรับให้เหมาะสมสำหรับงานเฉพาะ (เช่น การทำความเข้าใจศัพท์เฉพาะทางการเงิน การตีความบันทึกทางการแพทย์ การร่างข้อกฎหมาย) SLMs เหล่านี้สามารถบรรลุความแม่นยำและความเกี่ยวข้องตามบริบทที่เหนือกว่าภายในโดเมนที่กำหนด กลยุทธ์นี้สอดคล้องอย่างยิ่งกับองค์กรในภาคส่วนที่มีการควบคุมหรือมีความรู้สูงซึ่งโมเดลทั่วไปอาจไม่เพียงพอ ทำให้พวกเขาสามารถปรับใช้โซลูชัน AI ที่มีความแม่นยำสูงและตระหนักถึงบริบทสำหรับกรณีการใช้งานเฉพาะทางและมีความสำคัญต่อภารกิจ ส่งเสริมการนำไปใช้โดยการแก้ไขปัญหาเฉพาะจุดและข้อกำหนดการปฏิบัติตามข้อกำหนดที่โมเดลทั่วไปอาจมองข้ามไป
กลยุทธ์เด่นทั้งสองนี้ไม่จำเป็นต้องแยกออกจากกันโดยสิ้นเชิงสำหรับทั้งตลาด แต่แสดงถึงความตึงเครียดหลักที่กำหนดรูปแบบการแข่งขัน ผู้เล่นในระบบนิเวศเดิมพันกับขนาด การบูรณาการ และความแข็งแกร่งของแพลตฟอร์ม ในขณะที่ผู้เชี่ยวชาญมุ่งเน้นไปที่ความลึก ความแม่นยำ และความเชี่ยวชาญในอุตสาหกรรม วิวัฒนาการของตลาด SLM มีแนวโน้มที่จะเกี่ยวข้องกับการทำงานร่วมกันและการแข่งขันระหว่างแนวทางเหล่านี้ ซึ่งอาจนำไปสู่โมเดลแบบผสมผสานหรือการกระจายความเสี่ยงเชิงกลยุทธ์เพิ่มเติมเมื่อเทคโนโลยีเติบโตเต็มที่
ยักษ์ใหญ่เข้าสู่สังเวียน: กลยุทธ์ของผู้ครองตลาดเดิม
การเปลี่ยนแปลงและโอกาสที่อาจเกิดขึ้นจาก Small Language Models ไม่ได้ถูกมองข้ามโดยยักษ์ใหญ่ที่มั่นคงในโลกเทคโนโลยี การใช้ประโยชน์จากทรัพยากรมหาศาล ความสัมพันธ์กับลูกค้าที่มีอยู่ และโครงสร้างพื้นฐานที่กว้างขวาง ผู้ครองตลาดเดิมเหล่านี้กำลังวางกลยุทธ์เพื่อรักษาตำแหน่งผู้นำในสาขาที่กำลังเติบโตนี้
Microsoft
Microsoft ซึ่งเป็นมหาอำนาจตลอดกาลในด้านซอฟต์แวร์ระดับองค์กรและคลาวด์คอมพิวติ้ง กำลังผสาน SLMs เข้ากับโครงสร้างทางเทคโนโลยีของตนอย่างจริงจัง โดยใช้ กลยุทธ์การควบคุมระบบนิเวศที่เป็นกรรมสิทธิ์ (proprietary ecosystem control strategy) ยักษ์ใหญ่แห่ง Redmond กำลังรวมโมเดลที่คล่องตัวเหล่านี้เข้ากับแพลตฟอร์มคลาวด์ Azure และชุดโซลูชันระดับองค์กรที่กว้างขึ้นอย่างลึกซึ้ง ข้อเสนอต่างๆ เช่น ซีรีส์ Phi (รวมถึง Phi-2) และ ตระกูล Orca เป็นตัวแทนของ SLMs ที่มีจำหน่ายในเชิงพาณิชย์ซึ่งปรับให้เหมาะสมสำหรับงาน AI ระดับองค์กรโดยเฉพาะ ขับเคลื่อนฟีเจอร์ต่างๆ ภายในผู้ช่วย Copilot และมอบเครื่องมืออันทรงพลังสำหรับนักพัฒนาที่สร้างบนสแต็กของ Microsoft
ความสามารถหลักที่สนับสนุนการผลักดันของ Microsoft คือ แผนกวิจัย AI ที่น่าเกรงขาม ควบคู่ไปกับ โครงสร้างพื้นฐานคลาวด์ Azure ที่ครอบคลุมทั่วโลก การผสมผสานนี้ช่วยให้ Microsoft ไม่เพียงแต่พัฒนาโมเดลที่ล้ำสมัยเท่านั้น แต่ยังส่งมอบเป็นบริการที่ปรับขนาดได้ ปลอดภัย และเชื่อถือได้ให้กับฐานลูกค้าองค์กรขนาดใหญ่ของตน ความร่วมมือเชิงกลยุทธ์มูลค่าหลายพันล้านดอลลาร์กับ OpenAI เป็นรากฐานที่สำคัญของกลยุทธ์ AI ของบริษัท ทำให้สามารถเข้าถึงโมเดลของ OpenAI ได้อย่างพิเศษ (รวมถึง SLM variants ที่อาจเกิดขึ้น) และช่วยให้สามารถรวมเข้ากับผลิตภัณฑ์ของ Microsoft เช่น Office 365, Bing และบริการ Azure AI ต่างๆ ได้อย่างแน่นแฟ้น ความสัมพันธ์แบบพึ่งพาอาศัยกันนี้ทำให้ Microsoft มีทั้ง SLMs ที่พัฒนาขึ้นภายในและเข้าถึงแบรนด์ที่เป็นที่รู้จักมากที่สุดในด้าน generative AI
นอกจากนี้ การเข้าซื้อกิจการเชิงกลยุทธ์ยังช่วยเสริมความแข็งแกร่งให้กับตำแหน่งของ Microsoft การซื้อ Nuance Communications ซึ่งเป็นผู้นำด้าน AI เชิงสนทนาและเทคโนโลยีเอกสารทางการแพทย์ ได้เสริมสร้างขีดความสามารถในการใช้งาน AI เฉพาะทางในแนวดิ่งอย่างมีนัยสำคัญ โดยเฉพาะอย่างยิ่งในสถานการณ์การดูแลสุขภาพและระบบอัตโนมัติในองค์กรที่ความเข้าใจภาษาเฉพาะทางมีความสำคัญยิ่ง การเคลื่อนไหวที่คำนวณมาอย่างดีเหล่านี้ – การผสมผสานการพัฒนาภายใน ความร่วมมือเชิงกลยุทธ์ การเข้าซื้อกิจการ และการบูรณาการอย่างลึกซึ้งกับแพลตฟอร์มคลาวด์และซอฟต์แวร์ที่โดดเด่น – ทำให้ Microsoft เป็นพลังที่น่าเกรงขามโดยมีเป้าหมายที่จะทำให้ระบบนิเวศของตนเป็นตัวเลือกเริ่มต้นสำหรับการนำ SLM ไปใช้ในองค์กรในอุตสาหกรรมต่างๆ
IBM
International Business Machines (IBM) ซึ่งมีประวัติศาสตร์อันยาวนานหยั่งรากลึกในคอมพิวเตอร์ระดับองค์กร กำลังเข้าสู่ตลาด SLM ด้วยการมุ่งเน้นที่ แอปพลิเคชันที่เน้นธุรกิจ ความไว้วางใจ และการกำกับดูแล (business-centric applications, trust, and governance) อย่างมีลักษณะเฉพาะ Big Blue กำลังพัฒนาและปรับปรุง SLMs ภายในแพลตฟอร์ม watsonx.ai ของตนอย่างแข็งขัน โดยวางกรอบให้เป็นโซลูชัน AI ที่คุ้มค่า มีประสิทธิภาพ และตระหนักถึงโดเมน ซึ่งปรับแต่งมาเพื่อความต้องการขององค์กรโดยเฉพาะ
กลยุทธ์ของ IBM จงใจแตกต่างจากแนวทางที่ให้ความสำคัญกับโมเดลที่เผชิญหน้ากับผู้บริโภคหรือโมเดลเอนกประสงค์ แต่กลับเน้นไปที่คุณลักษณะที่สำคัญสำหรับการปรับใช้ในองค์กรอย่างชัดเจน: ความน่าเชื่อถือ (trustworthiness), การกำกับดูแลข้อมูล (data governance), และการยึดมั่นในหลักการจริยธรรม AI (AI ethics principles) สิ่งนี้ทำให้ข้อเสนอ SLM ของ IBM เช่น โมเดล Granite เหมาะสมอย่างยิ่งสำหรับการปรับใช้ในสภาพแวดล้อมที่ปลอดภัยและอุตสาหกรรมที่อยู่ภายใต้การปฏิบัติตามกฎระเบียบที่เข้มงวด IBM เข้าใจดีว่าสำหรับองค์กรขนาดใหญ่จำนวนมาก โดยเฉพาะอย่างยิ่งในด้านการเงินและการดูแลสุขภาพ ความสามารถในการตรวจสอบ ควบคุม และรับรองการใช้ AI อย่างมีความรับผิดชอบนั้นไม่สามารถต่อรองได้
ด้วยการรวม SLMs ที่เน้นการกำกับดูแลเหล่านี้เข้ากับโซลูชันไฮบริดคลาวด์และบริการให้คำปรึกษา IBM มีเป้าหมายที่จะเสริมศักยภาพให้ธุรกิจต่างๆ สามารถเพิ่มประสิทธิภาพระบบอัตโนมัติ ปรับปรุงการตัดสินใจที่ขับเคลื่อนด้วยข้อมูล และปรับปรุงประสิทธิภาพการดำเนินงานโดยไม่กระทบต่อความปลอดภัยหรือมาตรฐานทางจริยธรรม ความสัมพันธ์ระดับองค์กรที่ลึกซึ้งและชื่อเสียงด้านความน่าเชื่อถือทำหน้าที่เป็นสินทรัพย์สำคัญในการส่งเสริม SLMs ในฐานะเครื่องมือที่ใช้งานได้จริงและน่าเชื่อถือสำหรับการเปลี่ยนแปลงทางดิจิทัลภายในโครงสร้างองค์กรที่ซับซ้อน IBM กำลังเดิมพันว่าสำหรับธุรกิจจำนวนมาก “วิธีการ” ในการปรับใช้ AI – อย่างปลอดภัยและมีความรับผิดชอบ – มีความสำคัญพอๆ กับ “อะไร”
แม้ว่าอาจจะเกี่ยวข้องกับโมเดลขนาดใหญ่อย่าง Gemini มากกว่า แต่ Google ก็เป็นผู้เล่นคนสำคัญในเวที SLM เช่นกัน โดยหลักๆ แล้วใช้ประโยชน์จาก ระบบนิเวศและความสามารถในการวิจัย (ecosystem and research capabilities) อันกว้างใหญ่ ผ่านโมเดลอย่าง Gemma (เช่น Gemma 7B) Google นำเสนอโมเดลเปิดที่ค่อนข้างเบาแต่มีความสามารถ โดยมีเป้าหมายเพื่อส่งเสริมการนำไปใช้โดยนักพัฒนาและการบูรณาการภายในระบบนิเวศของตนเอง โดยเฉพาะ Google Cloud Platform (GCP)
กลยุทธ์ของ Google ดูเหมือนจะผสมผสานองค์ประกอบของการควบคุมระบบนิเวศและการส่งเสริมชุมชนที่กว้างขึ้น ด้วยการเปิดตัวโมเดลอย่าง Gemma ทำให้กระตุ้นการทดลองและช่วยให้นักพัฒนาสามารถสร้างแอปพลิเคชันโดยใช้โครงสร้างพื้นฐานพื้นฐานของ Google (เช่น TPUs สำหรับการฝึกและการอนุมานที่มีประสิทธิภาพ) แนวทางนี้ช่วยขับเคลื่อนการใช้งานบริการ GCP AI และวางตำแหน่ง Google ในฐานะผู้ให้บริการทั้งโมเดลพื้นฐานและเครื่องมือในการปรับใช้อย่างมีประสิทธิภาพ ความเชี่ยวชาญอย่างลึกซึ้งในด้านการค้นหา มือถือ (Android) และโครงสร้างพื้นฐานคลาวด์ ทำให้มีช่องทางมากมายในการรวม SLMs เพื่อปรับปรุงผลิตภัณฑ์ที่มีอยู่หรือสร้างประสบการณ์ใหม่บนอุปกรณ์ การมีส่วนร่วมของ Google ทำให้มั่นใจได้ว่าตลาด SLM ยังคงมีการแข่งขันสูง ผลักดันขอบเขตของประสิทธิภาพและการเข้าถึง
AWS
Amazon Web Services (AWS) ซึ่งเป็นผู้เล่นที่โดดเด่นในโครงสร้างพื้นฐานคลาวด์ กำลังรวม SLMs เข้ากับพอร์ตโฟลิโอ AI และ machine learning ที่ครอบคลุมอย่างเป็นธรรมชาติ ผ่านบริการต่างๆ เช่น Amazon Bedrock, AWS ช่วยให้ธุรกิจสามารถเข้าถึงชุดโมเดลพื้นฐานที่คัดสรรมาอย่างดี รวมถึง SLMs จากผู้ให้บริการต่างๆ (อาจรวมถึงของตนเอง เช่น โมเดล Nova ตามแนวคิดที่กล่าวถึงในบางบริบท แม้ว่ารายละเอียดเฉพาะอาจแตกต่างกันไป)
กลยุทธ์ของ AWS ส่วนใหญ่มุ่งเน้นไปที่ การให้ทางเลือกและความยืดหยุ่น (providing choice and flexibility) ภายในสภาพแวดล้อมคลาวด์อันทรงพลัง ด้วยการนำเสนอ SLMs ผ่าน Bedrock, AWS ช่วยให้ลูกค้าสามารถทดลอง ปรับแต่ง และปรับใช้โมเดลเหล่านี้ได้อย่างง่ายดายโดยใช้เครื่องมือและโครงสร้างพื้นฐานของ AWS ที่คุ้นเคย แนวทางที่เน้นแพลตฟอร์มนี้มุ่งเน้นไปที่การทำให้ SLMs เข้าถึงได้ในฐานะบริการที่มีการจัดการ ลดภาระการดำเนินงานสำหรับธุรกิจที่ต้องการใช้ประโยชน์จาก AI โดยไม่ต้องจัดการฮาร์ดแวร์พื้นฐานหรือไปป์ไลน์การปรับใช้โมเดลที่ซับซ้อน AWS มีเป้าหมายที่จะเป็นแพลตฟอร์มพื้นฐานที่องค์กรสามารถสร้างและรันแอปพลิเคชัน AI ของตนได้ โดยไม่คำนึงว่าจะเลือกโมเดลขนาดใหญ่หรือเล็ก โดยใช้ประโยชน์จากขนาด ความปลอดภัย และข้อเสนอบริการที่กว้างขวางเพื่อรักษาความเป็นผู้นำด้านคลาวด์ในยุค AI
ผู้สร้างความเปลี่ยนแปลงและผู้เชี่ยวชาญเฉพาะทาง: การบุกเบิกเส้นทางใหม่
นอกเหนือจากยักษ์ใหญ่ด้านเทคโนโลยีที่เป็นที่ยอมรับแล้ว กลุ่มผู้เข้ามาใหม่และบริษัทเฉพาะทางที่มีชีวิตชีวากำลังมีอิทธิพลอย่างมากต่อทิศทางและพลวัตของตลาด Small Language Model บริษัทเหล่านี้มักนำเสนอมุมมองใหม่ๆ โดยมุ่งเน้นไปที่หลักการโอเพนซอร์ส ช่องทางเฉพาะของอุตสาหกรรม หรือแนวทางเทคโนโลยีที่เป็นเอกลักษณ์
OpenAI
OpenAI ซึ่งอาจกล่าวได้ว่าเป็นตัวเร่งให้เกิดความสนใจใน generative AI ที่เพิ่มขึ้นอย่างรวดเร็วในปัจจุบัน มีบทบาทสำคัญในพื้นที่ SLM โดยต่อยอดจากการวิจัยบุกเบิกและกลยุทธ์การปรับใช้ที่ประสบความสำเร็จ แม้จะโด่งดังจากโมเดลขนาดใหญ่ แต่ OpenAI ก็กำลังพัฒนาและปรับใช้รุ่นที่เล็กกว่าและมีประสิทธิภาพมากขึ้นอย่างแข็งขัน เช่น ตระกูล GPT-4o mini, ตระกูล o1-mini, และตระกูล o3-mini ที่คาดการณ์ไว้ สิ่งนี้สะท้อนให้เห็นถึงความเข้าใจเชิงกลยุทธ์ว่ากรณีการใช้งานที่แตกต่างกันต้องการขนาดโมเดลและลักษณะประสิทธิภาพที่แตกต่างกัน
ในฐานะผู้บุกเบิกด้าน natural language processing ความได้เปรียบในการแข่งขันของ OpenAI มาจาก ความเชี่ยวชาญด้านการวิจัย (research expertise) อย่างลึกซึ้งและความสามารถที่พิสูจน์แล้วในการแปลงานวิจัยไปสู่ผลิตภัณฑ์ที่ใช้งานได้ในเชิงพาณิชย์ การมุ่งเน้นของบริษัทขยายไปไกลกว่าความสามารถดิบเพื่อรวมแง่มุมที่สำคัญ เช่น ประสิทธิภาพ ความปลอดภัย และการปรับใช้อย่างมีจริยธรรม (efficiency, safety, and the ethical deployment) ของ AI ซึ่งมีความเกี่ยวข้องเป็นพิเศษเมื่อโมเดลแพร่หลายมากขึ้น รูปแบบการส่งมอบผ่าน API (API-based delivery model) ของบริษัทมีบทบาทสำคัญในการทำให้การเข้าถึง AI อันทรงพลังเป็นประชาธิปไตย ช่วยให้นักพัฒนาและธุรกิจทั่วโลกสามารถรวมเทคโนโลยีเข้าด้วยกันได้ ความร่วมมือเชิงกลยุทธ์กับ Microsoft ให้เงินทุนจำนวนมากและการเข้าถึงตลาดที่ไม่มีใครเทียบได้ โดยฝังเทคโนโลยีของ OpenAI ไว้ในระบบนิเวศขององค์กรขนาดใหญ่
OpenAI ยังคงผลักดันขอบเขตอย่างต่อเนื่องโดยการสำรวจ เทคนิคการบีบอัดโมเดล (model compression techniques) ขั้นสูงอย่างแข็งขัน และตรวจสอบ สถาปัตยกรรมแบบผสมผสาน (hybrid architectures) ที่อาจรวมจุดแข็งของโมเดลขนาดต่างๆ เพื่อเพิ่มประสิทธิภาพในขณะที่ลดความต้องการในการคำนวณให้น้อยที่สุด ความเป็นผู้นำในการพัฒนาเทคนิคสำหรับ การปรับจูนและปรับแต่ง (fine-tuning and customizing) โมเดลช่วยให้องค์กรสามารถปรับโมเดลพื้นฐานอันทรงพลังของ OpenAI ให้เข้ากับความต้องการเฉพาะของอุตสาหกรรมและชุดข้อมูลที่เป็นกรรมสิทธิ์ได้ ซึ่งช่วยเสริมความแข็งแกร่งให้กับตำแหน่งทางการตลาดในฐานะทั้งผู้ริเริ่มและผู้สนับสนุนหลักของ AI ประยุกต์
Anthropic
Anthropic ได้สร้างเอกลักษณ์ที่แตกต่างในภูมิทัศน์ AI โดยให้ความสำคัญกับ ความปลอดภัย ความน่าเชื่อถือ และข้อพิจารณาทางจริยธรรม (safety, reliability, and ethical considerations) เป็นอันดับแรกในปรัชญาการพัฒนา การมุ่งเน้นนี้สะท้อนให้เห็นอย่างชัดเจนในแนวทางของบริษัทต่อ SLMs ซึ่งเป็นตัวอย่างโดยโมเดลเช่น Claude Haiku ออกแบบมาโดยเฉพาะเพื่อประสิทธิภาพที่ปลอดภัยและเชื่อถือได้ในบริบทขององค์กร Haiku มีเป้าหมายที่จะมอบความสามารถ AI ที่มีประโยชน์ในขณะที่ลดความเสี่ยงในการสร้างเนื้อหาที่เป็นอันตราย มีอคติ หรือไม่เป็นความจริง
การวางตำแหน่งตัวเองในฐานะผู้ให้บริการ AI ที่น่าเชื่อถือ (trustworthy AI) ทำให้ Anthropic ดึงดูดใจองค์กรที่ดำเนินงานในโดเมนที่ละเอียดอ่อนหรือผู้ที่ให้ความสำคัญกับการนำ AI ไปใช้อย่างมีความรับผิดชอบเป็นพิเศษ การเน้นย้ำเรื่อง constitutional AI และการทดสอบความปลอดภัยอย่างเข้มงวดทำให้แตกต่างจากคู่แข่งที่อาจให้ความสำคัญกับประสิทธิภาพดิบเหนือสิ่งอื่นใด ด้วยการนำเสนอ SLMs ที่ไม่เพียงแต่มีความสามารถเท่านั้น แต่ยังได้รับการออกแบบพร้อมมาตรการป้องกันการใช้งานในทางที่ผิด Anthropic ตอบสนองความต้องการที่เพิ่มขึ้นสำหรับโซลูชัน AI ที่สอดคล้องกับค่านิยมองค์กรและความคาดหวังด้านกฎระเบียบ ทำให้เป็นคู่แข่งสำคัญ โดยเฉพาะอย่างยิ่งสำหรับธุรกิจที่กำลังมองหาพันธมิตร AI ที่เชื่อถือได้และมีพื้นฐานทางจริยธรรม
Mistral AI
Mistral AI ซึ่งเป็นบริษัทฝรั่งเศสที่ก่อตั้งขึ้นในปี 2023 ได้สร้างกระแสอย่างมีนัยสำคัญในภาคส่วน SLM อย่างรวดเร็วจากแวดวงเทคโนโลยีในยุโรป กลยุทธ์หลักของบริษัทหมุนรอบการสร้าง โมเดล AI ขนาดกะทัดรัดและมีประสิทธิภาพสูง (compact, highly efficient AI models) ซึ่งออกแบบมาโดยเฉพาะเพื่อประสิทธิภาพและความสามารถในการปรับใช้ แม้กระทั่งบนอุปกรณ์โลคัลหรือภายในสภาพแวดล้อม edge computing โมเดลอย่าง Mistral 7B (เปิดตัวครั้งแรก แม้ว่าข้อความต้นฉบับจะกล่าวถึง 3B/8B อย่างสับสน - การมุ่งเน้นไปที่ 7B ที่รู้จักกันดีนั้นปลอดภัยกว่า) ได้รับความสนใจอย่างกว้างขวางจากการมอบประสิทธิภาพที่น่าทึ่งเมื่อเทียบกับขนาดที่พอประมาณ (7 พันล้านพารามิเตอร์) ทำให้เหมาะอย่างยิ่งสำหรับสถานการณ์ที่ทรัพยากรการคำนวณมีจำกัด
ความแตกต่างที่สำคัญสำหรับ Mistral AI คือความมุ่งมั่นอย่างแรงกล้าต่อ การพัฒนาโอเพนซอร์ส (open-source development) ด้วยการเปิดตัวโมเดลและเครื่องมือจำนวนมากภายใต้ใบอนุญาตที่อนุญาต Mistral AI ส่งเสริมการทำงานร่วมกัน ความโปร่งใส และนวัตกรรมที่รวดเร็วภายในชุมชน AI ที่กว้างขึ้น แนวทางนี้แตกต่างจากระบบนิเวศที่เป็นกรรมสิทธิ์ของผู้เล่นรายใหญ่บางราย และได้สร้างฐานผู้ติดตามที่ภักดีในหมู่นักพัฒนาและนักวิจัยอย่างรวดเร็ว นอกเหนือจากโมเดลพื้นฐานแล้ว บริษัทยังได้แสดงให้เห็นถึงความเก่งกาจด้วยการผลิตรุ่นต่างๆ เช่น Mistral Saba ซึ่งปรับแต่งสำหรับภาษาตะวันออกกลางและเอเชียใต้ และสำรวจความสามารถหลายรูปแบบด้วยแนวคิดเช่น Pixtral (มุ่งเป้าไปที่ความเข้าใจภาพ) ซึ่งแสดงให้เห็นถึงความทะเยอทะยานในการตอบสนองความต้องการทางภาษาและฟังก์ชันที่หลากหลาย การผงาดขึ้นอย่างรวดเร็วของ Mistral AI เน้นย้ำถึงความต้องการอย่างมีนัยสำคัญสำหรับทางเลือกที่มีประสิทธิภาพสูง มีประสิทธิภาพ และมักจะเป็นโอเพนซอร์สในตลาด AI
Infosys
Infosys ซึ่งเป็นผู้คร่ำหวอดระดับโลกในด้านบริการไอทีและการให้คำปรึกษา กำลังใช้ประโยชน์จากความเชี่ยวชาญในอุตสาหกรรมอย่างลึกซึ้งและความสัมพันธ์กับลูกค้าเพื่อสร้างช่องทางในตลาด SLM โดยมุ่งเน้นไปที่ โซลูชันเฉพาะอุตสาหกรรม (industry-specific solutions) การเปิดตัว Infosys Topaz BankingSLM และ Infosys Topaz ITOpsSLM เป็นตัวอย่างของกลยุทธ์นี้ โมเดลเหล่านี้สร้างขึ้นตามวัตถุประสงค์เพื่อจัดการกับความท้าทายและเวิร์กโฟลว์ที่เป็นเอกลักษณ์ภายในภาคการธนาคารและการดำเนินงานด้านไอทีตามลำดับ
ปัจจัยสำคัญที่ช่วยให้ Infosys คือความร่วมมือเชิงกลยุทธ์กับ NVIDIA โดยใช้สแต็ก AI ของ NVIDIA เป็นรากฐานสำหรับ SLMs เฉพาะทางเหล่านี้ โมเดลได้รับการออกแบบมาเพื่อการรวมเข้ากับระบบองค์กรที่มีอยู่ได้อย่างราบรื่น รวมถึงแพลตฟอร์มการธนาคาร Finacle ที่ใช้กันอย่างแพร่หลายของ Infosys เอง พัฒนาขึ้นภายในศูนย์ความเป็นเลิศเฉพาะทางที่มุ่งเน้นเทคโนโลยี NVIDIA และเสริมความแข็งแกร่งยิ่งขึ้นผ่านความร่วมมือกับพันธมิตรเช่น Sarvam AI SLMs เหล่านี้ได้รับประโยชน์จากการฝึกอบรมทั้งข้อมูลทั่วไปและข้อมูลเฉพาะภาคส่วน ที่สำคัญ Infosys ไม่เพียงแต่จัดหาโมเดลเท่านั้น แต่ยังให้บริการ การฝึกอบรมล่วงหน้าและการปรับจูน (pre-training and fine-tuning services) ช่วยให้องค์กรสามารถสร้างโมเดล AI ตามความต้องการที่ปรับให้เหมาะกับข้อมูลที่เป็นกรรมสิทธิ์และความต้องการในการดำเนินงานเฉพาะของตน ในขณะเดียวกันก็รับประกันความปลอดภัยและการปฏิบัติตามมาตรฐานอุตสาหกรรมที่เกี่ยวข้อง แนวทางที่เน้นบริการนี้วางตำแหน่ง Infosys ในฐานะผู้รวมและปรับแต่งเทคโนโลยี SLM สำหรับองค์กรขนาดใหญ่
ผู้เล่นที่น่าจับตามองอื่นๆ
สนาม SLM นั้นกว้างกว่าแค่บริษัทที่เน้นย้ำเหล่านี้ ผู้มีส่วนร่วมที่สำคัญอื่นๆ กำลังผลักดันนวัตกรรมและกำหนดรูปแบบส่วนตลาดเฉพาะ:
- Cohere: มุ่งเน้นไปที่ AI ระดับองค์กร นำเสนอโมเดลเช่น Command R+ ที่ออกแบบมาสำหรับกรณีการใช้งานทางธุรกิจ และมักจะเน้นความเป็นส่วนตัวของข้อมูลและความยืดหยุ่นในการปรับใช้ (เช่น บนคลาวด์ต่างๆ หรือในองค์กร)
- Hugging Face: แม้ว่าจะรู้จักกันเป็นหลักในฐานะแพลตฟอร์มและศูนย์กลางชุมชน แต่ Hugging Face ก็มีส่วนร่วมในการพัฒนาโมเดล (เช่น Zephyr 7B สำหรับการเขียนโค้ด) และมีบทบาทสำคัญในการทำให้การเข้าถึงโมเดลหลายพันรายการเป็นประชาธิปไตย รวมถึง SLMs จำนวนมาก อำนวยความสะดวกในการวิจัยและการพัฒนาแอปพลิเคชัน
- Stability AI: เริ่มแรกมีชื่อเสียงจากผลงานด้านการสร้างภาพ (Stable Diffusion), Stability AI กำลังขยายพอร์ตโฟลิโอไปสู่โมเดลภาษา สำรวจ SLMs ขนาดกะทัดรัดและมีประสิทธิภาพที่เหมาะสำหรับการปรับใช้บนอุปกรณ์และแอปพลิเคชันระดับองค์กรต่างๆ โดยใช้ประโยชน์จากความเชี่ยวชาญใน generative AI
บริษัทเหล่านี้ ควบคู่ไปกับผู้เล่นรายใหญ่ ต่างมีส่วนร่วมในระบบนิเวศที่มีพลวัตและพัฒนาอย่างรวดเร็ว กลยุทธ์ที่หลากหลายของพวกเขา—ครอบคลุมโอเพนซอร์ส แพลตฟอร์มที่เป็นกรรมสิทธิ์ ความเชี่ยวชาญเฉพาะทางในอุตสาหกรรม และการวิจัยพื้นฐาน—กำลังขับเคลื่อนความก้าวหน้าในด้านประสิทธิภาพ การเข้าถึง และความสามารถของ SLM โดยรวม ทำให้มั่นใจได้ว่าโมเดลขนาดเล็กเหล่านี้จะมีบทบาทสำคัญมากขึ้นในอนาคตของปัญญาประดิษฐ์ในการใช้งานและอุตสาหกรรมนับไม่ถ้วน