บริษัท AI สุดล้ำปี 2025

2. Nvidia

การแสวงหาระบบ AI ที่มีความซับซ้อนมากขึ้นยังคงผลักดันการลงทุนจำนวนมากจากผู้พัฒนาโมเดลภาษาขนาดใหญ่ อย่างไรก็ตาม มีบริษัทหนึ่งที่ได้รับผลประโยชน์จากยุค AI นี้แล้ว นั่นคือ Nvidia ด้วยการจุดประกายการแข่งขันด้าน AI ด้วยหน่วยประมวลผลกราฟิก (GPU) ที่โดดเด่น Nvidia ตอนนี้อยู่ในตำแหน่งที่สมบูรณ์แบบด้วยโปรเซสเซอร์และแพลตฟอร์ม Blackwell ที่ก้าวล้ำ เพื่อสนับสนุนการแสวงหาปัญญาในระดับมนุษย์

Blackwell มีประสิทธิภาพเหนือกว่า H100 รุ่นก่อน โดยให้พลังงานสูงถึง 2.5 เท่าสำหรับงานฝึกอบรมโมเดลทั่วไป ในขณะที่ใช้พลังงานน้อยลงอย่างมาก ผู้ให้บริการศูนย์ข้อมูลและห้องปฏิบัติการ AI รายใหญ่ รวมถึงยักษ์ใหญ่ในอุตสาหกรรม เช่น Google, Meta, Microsoft, OpenAI, Tesla และ xAI ได้ให้คำมั่นที่จะซื้อ Blackwell GPU หลายแสนตัว

แม้ว่าโมเดลล่าสุดจากบริษัทจีน เช่น DeepSeek และ Alibaba ได้แสดงให้เห็นถึงความสามารถที่น่าประทับใจโดยใช้ GPU Nvidia รุ่นเก่าและมีประสิทธิภาพน้อยกว่า แต่ Nvidia ก็ไม่ได้หยุดอยู่แค่นั้น บริษัทกำลังพัฒนาแพลตฟอร์มสำหรับการใช้งานที่หลากหลายอย่างแข็งขัน ตั้งแต่การค้นคว้ายา (Clara for Biopharma) และยานยนต์ไร้คนขับ (Drive AGX) ไปจนถึงการผลิตวิดีโอ (Holoscan) และ Digital Twins (Omniverse) ด้วยการส่งเสริมความก้าวหน้าของ AI ในสถานการณ์จริงที่หลากหลาย Nvidia กำลังวางตำแหน่งตัวเองอย่างมีกลยุทธ์เพื่อการเติบโตอย่างยั่งยืน แม้ว่าโมเดลในอนาคตจะแสดงให้เห็นถึงการพึ่งพาพลังการประมวลผลที่ลดลง

3. OpenAI

ตั้งแต่ปี 2019 OpenAI ได้ปรับปรุงโมเดลอย่างต่อเนื่องโดยการขยายข้อมูลการฝึกอบรมและทรัพยากรการประมวลผล ซึ่งเป็นกลยุทธ์ที่ได้รับการยอมรับอย่างกว้างขวางในอุตสาหกรรม อย่างไรก็ตาม เมื่อผลตอบแทนที่ลดลงจากวิธีการปรับขนาดนี้เริ่มปรากฏชัด OpenAI ตระหนักถึงความจำเป็นในการหาแนวทางใหม่เพื่อให้บรรลุ AGI ซึ่งเป็นโมเดลที่เหนือกว่าสติปัญญาของมนุษย์ในงานส่วนใหญ่

โซลูชันของ OpenAI มาในรูปแบบของโมเดล o1 แทนที่จะมุ่งเน้นไปที่การเพิ่มทรัพยากรในระหว่างการฝึกอบรมล่วงหน้าเพียงอย่างเดียว OpenAI ได้ออกแบบ o1 ให้จัดสรรเวลาและพลังการประมวลผลมากขึ้นในระหว่างการอนุมาน ซึ่งเป็นระยะที่โมเดลถูกนำไปใช้งานจริงและตอบสนองต่อข้อความแจ้งของผู้ใช้ ในระหว่างกระบวนการนี้ o1 จะรวบรวมและเก็บรักษาข้อมูลตามบริบท ทั้งจากผู้ใช้และแหล่งข้อมูลที่เกี่ยวข้อง ใช้ระเบียบวิธีลองผิดลองถูกเพื่อกำหนดเส้นทางที่ดีที่สุดในการตอบคำถาม ผลลัพธ์ที่ได้คือการสร้างคำตอบระดับปริญญาเอกสำหรับคำถามที่ซับซ้อน ซึ่งขับเคลื่อน o1 ไปสู่อันดับต้น ๆ ของการจัดอันดับเกณฑ์มาตรฐานประสิทธิภาพ

OpenAI เสนอ o1 เวอร์ชัน ‘ทดลอง’ และ ‘ขนาดเล็ก’ ให้กับสมาชิก ChatGPT Plus นอกจากนี้ บริการระดับพรีเมียมที่เรียกว่า ChatGPT Pro ยังให้การเข้าถึงโมเดล o1 แบบเต็มรูปแบบได้ไม่จำกัดในราคา $200 ต่อเดือน ในเดือนธันวาคม 2024 OpenAI ได้เปิดตัว o3 ซึ่งเป็นรุ่นต่อจาก o1 และในเดือนกุมภาพันธ์ 2025 ได้ให้สิทธิ์ผู้ใช้แบบชำระเงินเข้าถึง o3-mini ซึ่งเป็นรุ่นที่เล็กกว่าและเร็วกว่าที่ปรับให้เหมาะสมสำหรับวิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ด ผลกระทบที่ลึกซึ้งที่สุดของโมเดลการให้เหตุผลใหม่ของ OpenAI คือการตรวจสอบความถูกต้องของการเพิ่มพลังการประมวลผล ณ เวลาอนุมาน ซึ่งเป็นแนวทางที่มีแนวโน้มว่าจะประสบความสำเร็จในการพัฒนาสติปัญญาต่อไปบนเส้นทางสู่ AGI

4. Google DeepMind

งานวิจัยพื้นฐานที่เป็นรากฐานสำหรับแชทบอทในปัจจุบันมีต้นกำเนิดที่ Google ในช่วงปลายทศวรรษ 2010 Google ได้พัฒนาแชทบอทที่ขับเคลื่อนด้วยโมเดลภาษาขนาดใหญ่ก่อนที่จะมีการเกิดขึ้นของ ChatGPT อย่างไรก็ตาม มีรายงานว่าความกังวลเกี่ยวกับความปลอดภัย ความเป็นส่วนตัว และผลกระทบทางกฎหมายนำไปสู่แนวทางที่ระมัดระวัง ซึ่งทำให้การเปิดตัวสู่สาธารณะล่าช้า ความลังเลนี้ส่งผลให้ Google ตามหลังในการแข่งขัน AI ที่ตามมาซึ่งจุดประกายโดยการเปิดตัวของ ChatGPT

การเปิดตัว Gemini 2.0 ของ Google DeepMind ในปี 2024 เป็นสัญญาณบ่งบอกถึงการกลับมาอย่างเด็ดขาดของ Google Gemini 2.0 เป็นโมเดล AI สำหรับตลาดมวลชนตัวแรกที่เป็น multimodal โดยเนื้อแท้ สามารถประมวลผลและสร้างภาพ วิดีโอ เสียง และโค้ดคอมพิวเตอร์ได้อย่างคล่องแคล่วเช่นเดียวกับข้อความ ความสามารถนี้ช่วยให้โมเดลสามารถวิเคราะห์และให้เหตุผลเกี่ยวกับคลิปวิดีโอ หรือแม้แต่ฟีดวิดีโอสดจากกล้องโทรศัพท์ ด้วยความเร็วและความแม่นยำที่น่าทึ่ง

Gemini ยังโดดเด่นด้วยความสามารถในการควบคุมบริการอื่นๆ ของ Google เช่น Maps และ Search การผสานรวมนี้แสดงให้เห็นถึงความได้เปรียบเชิงกลยุทธ์ของ Google โดยผสมผสานการวิจัย AI เข้ากับเครื่องมือข้อมูลและประสิทธิภาพการทำงานที่มีอยู่ Gemini เป็นหนึ่งในโมเดล AI แรกๆ ที่แสดงให้เห็นถึงการทำงานอัตโนมัติและความสามารถในการให้เหตุผลผ่านปัญหาที่ซับซ้อนในนามของผู้ใช้ Gemini 2.0 Flash Thinking Experimental model ยังให้ข้อมูลเชิงลึกแก่ผู้ใช้เกี่ยวกับกระบวนการคิดที่ใช้ในการหาคำตอบ นอกจากนี้ ในเดือนธันวาคม Google ได้เปิดตัว Project Mariner ซึ่งเป็นคุณสมบัติ AI แบบ agentic ที่ใช้ Gemini ซึ่งออกแบบมาเพื่อทำงานต่างๆ เช่น การซื้อของชำออนไลน์โดยอัตโนมัติ

5. Anthropic

แอปพลิเคชันหลักของ generative AI จนถึงขณะนี้มุ่งเน้นไปที่การเขียนข้อความ การสรุป และการสร้างภาพ ขั้นตอนวิวัฒนาการต่อไปเกี่ยวข้องกับการติดตั้งโมเดลภาษาขนาดใหญ่ด้วยความสามารถในการให้เหตุผลและความสามารถในการใช้เครื่องมือ โมเดล ‘Computer Use’ ของ Anthropic ให้ภาพรวมคร่าวๆ เกี่ยวกับอนาคตนี้

เริ่มต้นด้วย Claude 3.5 Sonnet ในปี 2024 โมเดลของ Anthropic สามารถรับรู้กิจกรรมบนหน้าจอ รวมถึงเนื้อหาอินเทอร์เน็ต สามารถควบคุมเคอร์เซอร์ คลิกปุ่ม และป้อนข้อความ วิดีโอสาธิตแสดงให้เห็นถึงความสามารถของ Claude ในการกรอกแบบฟอร์มโดยใช้ข้อมูลที่มีอยู่บนเว็บไซต์ที่เปิดอยู่ในแท็บเบราว์เซอร์ สามารถทำงานต่างๆ เช่น การสร้างเว็บไซต์ส่วนตัว หรือจัดการการเดินทางแบบไปเช้าเย็นกลับ การกระทำอัตโนมัติของ AI เช่น การเปิดแท็บใหม่ การค้นหา และการเติมข้อมูลในช่องข้อมูล เป็นสิ่งที่น่าทึ่งอย่างแท้จริง

แม้ว่าปัจจุบันโมเดลจะทำงานช้ากว่าและอาจไม่ได้ให้คำตอบที่ถูกต้องเสมอไป แต่คาดว่าจะมีการปรับปรุงอย่างรวดเร็วเมื่อ Anthropic ระบุและแก้ไขข้อจำกัด Project Mariner ที่กล่าวถึงข้างต้นของ Google ตามแนวทางของ Anthropic ในเดือนธันวาคม และ OpenAI ได้เปิดตัวโมเดลการใช้คอมพิวเตอร์ของตัวเองชื่อ Operator ในเดือนมกราคม 2025 ในเดือนกุมภาพันธ์ 2025 Anthropic ได้เปิดตัว Claude 3.7 Sonnet ซึ่งเป็นรุ่นหลักรุ่นต่อไป ซึ่งเป็นโมเดลที่ใหญ่กว่าที่สามารถเข้าสู่โหมดการให้เหตุผลโดยอัตโนมัติสำหรับคำถามที่ท้าทาย

6. Microsoft

การพัฒนาโมเดล Phi ของ Microsoft เกิดจากคำถามพื้นฐานที่นักวิจัยของบริษัทตั้งขึ้นในปี 2023: “ขนาดโมเดลที่เล็กที่สุดที่สามารถแสดงสัญญาณของสติปัญญาที่เกิดขึ้นใหม่คืออะไร” คำถามนี้เป็นจุดเปลี่ยนที่สำคัญในวิวัฒนาการของ “โมเดลภาษาขนาดเล็ก” ซึ่งเป็นโมเดลที่ออกแบบมาเพื่อประสิทธิภาพสูงสุดในสถานการณ์ที่มีหน่วยความจำ พลังการประมวลผล หรือการเชื่อมต่อที่จำกัด ซึ่งเวลาตอบสนองที่รวดเร็วเป็นสิ่งสำคัญ

ตลอดปี 2024 Microsoft ได้เปิดตัวโมเดลขนาดเล็กสองรุ่นที่แสดงความสามารถในการให้เหตุผลและตรรกะที่ไม่ได้รวมอยู่ในการฝึกอบรมอย่างชัดเจน ในเดือนเมษายน บริษัทได้เปิดตัวชุดโมเดล Phi-3 ที่มีความเป็นเลิศในด้านภาษา การให้เหตุผล การเขียนโค้ด และเกณฑ์มาตรฐานทางคณิตศาสตร์ ซึ่งน่าจะเกิดจากการฝึกอบรมเกี่ยวกับข้อมูลสังเคราะห์ที่สร้างโดย LLM ที่มีขนาดใหญ่กว่าและมีความสามารถมากกว่าอย่างมาก ตัวแปรของ Phi-3 แบบโอเพนซอร์สถูกดาวน์โหลดมากกว่า 4.5 ล้านครั้งบน Hugging Face ในช่วงปี 2024

ในช่วงปลายปี 2024 Microsoft ได้เปิดตัวโมเดลภาษาขนาดเล็ก Phi-4 ซึ่งมีประสิทธิภาพเหนือกว่าโมเดล Phi-3 ในงานที่เน้นการให้เหตุผล และยังเหนือกว่า GPT-4o ของ OpenAI ในเกณฑ์มาตรฐาน GPQA (คำถามทางวิทยาศาสตร์) และ MATH Microsoft เปิดตัวโมเดลภายใต้ใบอนุญาตโอเพนซอร์สและโอเพนเวท ซึ่งช่วยให้นักพัฒนาสามารถสร้างโมเดล Edge หรือแอปพลิเคชันสำหรับโทรศัพท์หรือแล็ปท็อป ภายในเวลาไม่ถึงหนึ่งเดือน Phi-4 ได้รับการดาวน์โหลด 375,000 ครั้งบน Hugging Face

7. Amazon

Amazon AWS เพิ่งเปิดตัว Trainium2 ซึ่งเป็นโปรเซสเซอร์ Trainium เวอร์ชันใหม่สำหรับ AI ซึ่งอาจท้าทายการครอบงำของ Nvidia GPU ในบางสถานการณ์ Trainium2 ได้รับการออกแบบมาเพื่อมอบพลังการประมวลผลมหาศาลที่จำเป็นสำหรับการฝึกอบรมโมเดล AI เชิงสร้างสรรค์ที่ใหญ่ที่สุด และสำหรับการดำเนินการอนุมานหลังจากการปรับใช้โมเดล AWS อ้างว่า Trainium คุ้มค่ากว่า GPU 30% ถึง 40% สำหรับงานที่เทียบเคียงได้

Trainium2 แก้ไขข้อบกพร่องด้านพลังงานและการรวมซอฟต์แวร์ที่พบในชิป Trainium รุ่นแรก ทำให้ Amazon สามารถลดช่องว่างกับ Nvidia ได้ (เป็นที่น่าสังเกตว่า AWS เองก็ยังคงพึ่งพา Nvidia อย่างมากสำหรับ GPU) การแทนที่ Nvidia เป็นความท้าทายที่น่าเกรงขามเนื่องจากการล็อกอินของลูกค้าด้วยเลเยอร์ซอฟต์แวร์ CUDA ของ Nvidia ซึ่งช่วยให้นักวิจัยสามารถควบคุมวิธีการที่โมเดลของพวกเขาใช้ทรัพยากรของชิปได้อย่างละเอียด Amazon นำเสนอเลเยอร์ซอฟต์แวร์ควบคุมเคอร์เนลของตัวเอง Neuron Kernel Interface (NKI) ซึ่งคล้ายกับ CUDA ที่ให้การควบคุมแบบละเอียดแก่นักวิจัยเกี่ยวกับการโต้ตอบของเคอร์เนลชิป

สิ่งสำคัญคือต้องทราบว่า Trainium2 ยังไม่ได้รับการทดสอบในวงกว้าง AWS กำลังสร้างคลัสเตอร์เซิร์ฟเวอร์ที่มีชิป Trainium2 จำนวน 400,000 ชิปสำหรับ Anthropic ซึ่งอาจให้ข้อมูลเชิงลึกที่มีค่าในการเพิ่มประสิทธิภาพของชิป AI ในการปรับใช้ขนาดใหญ่

8. Arm

Arm นักออกแบบเซมิคอนดักเตอร์ชาวอังกฤษเป็นผู้ให้บริการหลักของสถาปัตยกรรมที่ใช้ในชิปที่ขับเคลื่อนอุปกรณ์ขนาดเล็ก เช่น โทรศัพท์ เซ็นเซอร์ และฮาร์ดแวร์ IoT มาอย่างยาวนาน บทบาทนี้มีความสำคัญมากขึ้นในยุคที่ชิปอุปกรณ์ Edge จะรันโมเดล AI ศูนย์ข้อมูลจะมีบทบาทสำคัญในวิวัฒนาการนี้เช่นกัน โดยมักจะจัดการการประมวลผล AI ที่มีความต้องการสูงบางส่วนหรือทั้งหมด และส่งผลลัพธ์ไปยังอุปกรณ์ Edge

เนื่องจากศูนย์ข้อมูลแพร่หลายไปทั่วโลก การใช้พลังงานไฟฟ้าของศูนย์ข้อมูลเหล่านี้จะกลายเป็นปัญหาที่น่ากังวลมากขึ้นเรื่อยๆ ปัจจัยนี้มีส่วนทำให้เกิดการเน้นที่ประสิทธิภาพในสถาปัตยกรรม Neoverse CPU ล่าสุดของ Arm มีการปรับปรุงประสิทธิภาพ 50% เมื่อเทียบกับรุ่นก่อนๆ และประสิทธิภาพต่อวัตต์ดีขึ้น 20% เมื่อเทียบกับโปรเซสเซอร์ที่ใช้สถาปัตยกรรม x86 ที่แข่งขันกัน ตามที่บริษัทระบุ

Arm รายงานว่า Amazon, Microsoft, Google และ Oracle ได้นำ Arm Neoverse มาใช้สำหรับการประมวลผลทั่วไปและการอนุมานและการฝึกอบรม AI ที่ใช้ CPU ตัวอย่างเช่น ในปี 2024 Microsoft ประกาศว่าซิลิคอนแบบกำหนดเองตัวแรกที่ออกแบบมาสำหรับระบบคลาวด์ โปรเซสเซอร์ Cobalt 100 สร้างขึ้นบน Arm Neoverse ศูนย์ข้อมูล AI ที่ใหญ่ที่สุดบางแห่งจะพึ่งพา Grace Hopper Superchip ของ NVIDIA ซึ่งรวม Hopper GPU และ Grace CPU ที่ใช้ Neoverse Arm มีกำหนดจะเปิดตัว CPU ของตัวเองในปีนี้ โดยมี Meta เป็นหนึ่งในลูกค้ารายแรก

9. Gretel

ในช่วงปีที่ผ่านมา บริษัท AI ได้รับผลตอบแทนที่ลดลงจากการฝึกอบรมโมเดลด้วยข้อมูลจำนวนมหาศาลที่คัดลอกมาจากเว็บ ดังนั้น พวกเขาจึงเปลี่ยนโฟกัสจากปริมาณข้อมูลการฝึกอบรมไปที่คุณภาพ ซึ่งนำไปสู่การลงทุนที่เพิ่มขึ้นในเนื้อหาที่ไม่เปิดเผยต่อสาธารณะและเนื้อหาเฉพาะที่ได้รับอนุญาตจากพันธมิตรผู้เผยแพร่ นักวิจัย AI ยังต้องแก้ไขช่องว่างหรือจุดบอดภายในข้อมูลการฝึกอบรมที่สร้างขึ้นโดยมนุษย์หรือมีคำอธิบายประกอบโดยมนุษย์ สำหรับจุดประสงค์นี้ พวกเขาได้หันมาใช้ข้อมูลการฝึกอบรมสังเคราะห์ที่สร้างโดยโมเดล AI เฉพาะทางมากขึ้น

Gretel ได้รับความโดดเด่นในปี 2024 โดยเชี่ยวชาญในการสร้างและดูแลจัดการข้อมูลการฝึกอบรมสังเคราะห์ บริษัทประกาศความพร้อมใช้งานทั่วไปของผลิตภัณฑ์เรือธง Gretel Navigator ซึ่งช่วยให้นักพัฒนาสามารถใช้ภาษาธรรมชาติหรือข้อความแจ้ง SQL เพื่อสร้าง เพิ่ม แก้ไข และดูแลจัดการชุดข้อมูลการฝึกอบรมสังเคราะห์สำหรับการปรับแต่งและทดสอบ แพลตฟอร์มดังกล่าวได้ดึงดูดชุมชนนักพัฒนากว่า 150,000 คนที่ได้สังเคราะห์ข้อมูลการฝึกอบรมมากกว่า 350 พันล้านชิ้น

ผู้เล่นในอุตสาหกรรมรายอื่นได้สังเกตเห็นความสามารถของ Gretel Gretel ร่วมมือกับ Google เพื่อให้ข้อมูลการฝึกอบรมสังเคราะห์พร้อมใช้งานสำหรับลูกค้า Google Cloud มีการประกาศความร่วมมือที่คล้ายกันกับ Databricks ในเดือนมิถุนายน โดยให้สิทธิ์ลูกค้าองค์กรของ Databricks เข้าถึงข้อมูลการฝึกอบรมสังเคราะห์สำหรับโมเดลที่ทำงานภายในระบบคลาวด์ Databricks

10. Mistral AI

Mistral AI ผู้เข้าแข่งขันจากฝรั่งเศสในเวที AI เชิงสร้างสรรค์ ได้สร้างแรงกดดันต่อ OpenAI, Anthropic และ Google อย่างต่อเนื่องในระดับแนวหน้าของการพัฒนาโมเดล AI ระดับแนวหน้า Mistral AI เปิดตัวชุดโมเดลใหม่ที่รวมความก้าวหน้าทางเทคโนโลยีที่สำคัญในปี 2024 ซึ่งแสดงให้เห็นถึงการเติบโตทางธุรกิจอย่างรวดเร็วผ่านทั้งการตลาดโดยตรงของ API และความร่วมมือเชิงกลยุทธ์

เมื่อต้นปี บริษัทได้เปิดตัวโมเดลโอเพนซอร์สคู่หนึ่งชื่อ Mixtral ซึ่งโดดเด่นด้วยการใช้สถาปัตยกรรม ‘mixture of experts’ ที่เป็นนวัตกรรมใหม่ โดยมีเพียงพารามิเตอร์ย่อยเฉพาะของโมเดลเท่านั้นที่ถูกใช้งานเพื่อจัดการกับคิวรี ซึ่งช่วยเพิ่มประสิทธิภาพ ในเดือนกรกฎาคม 2024 Mistral ได้ประกาศ Mistral Large 2 ซึ่งมีพารามิเตอร์ 123 พันล้านพารามิเตอร์ แสดงให้เห็นถึงการปรับปรุงที่สำคัญในการสร้างโค้ด คณิตศาสตร์ การให้เหตุผล และการเรียกใช้ฟังก์ชัน บริษัทฝรั่งเศสยังเปิดตัว Ministral 3B และ Ministral 8B ซึ่งเป็นโมเดลขนาดเล็กที่ออกแบบมาสำหรับการทำงานบนแล็ปท็อปหรือโทรศัพท์ ซึ่งสามารถจัดเก็บข้อมูลตามบริบทที่ผู้ใช้ให้มาได้ประมาณ 50 หน้า

Mistral ประสบความสำเร็จในยุโรปโดยวางตำแหน่งตัวเองเป็นทางเลือกต้นทุนต่ำและยืดหยุ่นแทนบริษัท AI ในสหรัฐอเมริกา เช่น OpenAI นอกจากนี้ยังคงขยายไปยังตลาดองค์กรในสหรัฐอเมริกาในช่วงปี 2024 ในเดือนมิถุนายน บริษัทได้รับเงินทุน 640 ล้านดอลลาร์ นำโดยบริษัทร่วมทุน General Catalyst ซึ่งทำให้มูลค่าของ Mistral เพิ่มขึ้นเป็นประมาณ 6.2 พันล้านดอลลาร์

11. Fireworks AI

Fireworks นำเสนอสภาพแวดล้อมรันไทม์แบบกำหนดเองที่ช่วยลดความยุ่งยากในการทำงานด้านวิศวกรรมที่ซับซ้อนซึ่งเกี่ยวข้องกับการสร้างโครงสร้างพื้นฐานสำหรับการปรับใช้ AI การใช้แพลตฟอร์ม Fireworks องค์กรสามารถรวมโมเดล AI กว่า 100 โมเดล จากนั้นปรับแต่งและปรับแต่งให้เหมาะสมกับกรณีการใช้งานเฉพาะของตน

บริษัทได้เปิดตัวผลิตภัณฑ์ใหม่ในช่วงปี 2024 ซึ่งจะทำให้บริษัทอยู่ในตำแหน่งที่จะใช้ประโยชน์จากแนวโน้มที่สำคัญในอุตสาหกรรม AI ประการแรก นักพัฒนาได้ให้ความสำคัญกับความสามารถในการตอบสนองของโมเดลและแอปพลิเคชันที่ขับเคลื่อนด้วย AI มากขึ้น Fireworks เปิดตัว FireAttention V2 ซึ่งเป็นซอฟต์แวร์เพิ่มประสิทธิภาพและการหาปริมาณที่เร่งประสิทธิภาพของโมเดลและลดเวลาแฝงของเครือข่าย ประการที่สอง ระบบ AI กำลังพัฒนาไปสู่ ‘pipelines’ ที่เรียกใช้โมเดลและเครื่องมือต่างๆ ผ่าน API มากขึ้น ซอฟต์แวร์ FireFunction V2 ใหม่ทำหน้าที่เป็นตัวประสานสำหรับส่วนประกอบทั้งหมดภายในระบบที่ซับซ้อนมากขึ้นเหล่านี้ โดยเฉพาะอย่างยิ่งเมื่อองค์กรปรับใช้แอปพลิเคชัน AI อัตโนมัติมากขึ้น

Fireworks รายงานว่ารายได้เพิ่มขึ้น 600% ในปี 2024 ฐานลูกค้าประกอบด้วยบริษัทที่มีชื่อเสียง เช่น Verizon, DoorDash, Uber, Quora และ Upwork

12. Snorkel AI

องค์กรต่างๆ ได้ตระหนักว่าประสิทธิภาพของระบบ AI ของตนเชื่อมโยงโดยตรงกับคุณภาพของข้อมูล Snorkel AI ได้สร้างธุรกิจที่เฟื่องฟูโดยการช่วยเหลือองค์กรในการเตรียมข้อมูลที่เป็นกรรมสิทธิ์สำหรับการใช้งานในโมเดล AI แพลตฟอร์มการพัฒนาข้อมูล AI ของ Snorkel Flow ของบริษัทเป็นวิธีการที่คุ้มค่าสำหรับบริษัทในการติดป้ายกำกับและดูแลจัดการข้อมูลที่เป็นกรรมสิทธิ์ ทำให้สามารถนำไปใช้ในการปรับแต่งและประเมินโมเดล AI สำหรับความต้องการทางธุรกิจเฉพาะของตนได้

ในปี 2024 Snorkel ได้ขยายการสนับสนุนให้รวมรูปภาพ ทำให้บริษัทต่างๆ สามารถฝึกอบรมโมเดล AI แบบ multimodal และเครื่องมือสร้างภาพโดยใช้รูปภาพที่เป็นกรรมสิทธิ์ของตนเอง นอกจากนี้ยังรวม retrieval augmented generation (RAG) เข้ากับแพลตฟอร์ม ทำให้ลูกค้าสามารถดึงเฉพาะส่วนข้อมูลที่เกี่ยวข้องมากที่สุดจากเอกสารขนาดยาว เช่น เนื้อหาฐานความรู้ที่เป็นกรรมสิทธิ์ เพื่อใช้ในการฝึกอบรม AI Snorkel Custom ซึ่งเป็นระดับบริการใหม่ที่ให้การสัมผัสที่สูงขึ้น เกี่ยวข้องกับผู้เชี่ยวชาญด้านการเรียนรู้ของเครื่องของ Snorkel ที่ทำงานร่วมกับลูกค้าโดยตรงในโครงการต่างๆ

Snorkel ระบุว่าการจองรายปีแบบปีต่อปีเพิ่มขึ้นเป็นสองเท่าในช่วงปี 2024 โดยมีการเติบโตของการจองรายปีเป็นตัวเลขสามหลักในช่วงสามปีที่ผ่านมา ธนาคารที่ใหญ่ที่สุดหกแห่งในขณะนี้ใช้ Snorkel Flow ตามที่บริษัทระบุ พร้อมด้วยแบรนด์ต่างๆ เช่น Chubb, Wayfair และ Experian

13. CalypsoAI

เนื่องจาก AI มีบทบาทสำคัญมากขึ้นในกระบวนการตัดสินใจที่สำคัญ องค์กรต่างๆ จึงต้องการการมองเห็นที่เพิ่มขึ้นในการทำงานภายในของโมเดล ความต้องการนี้เด่นชัดเป็นพิเศษในอุตสาหกรรมที่มีการควบคุมซึ่งต้องตรวจสอบอคติและผลลัพธ์ที่ไม่ตั้งใจอื่นๆ อย่างต่อเนื่อง CalypsoAI เป็นหนึ่งในบริษัทแรกๆ ที่ตระหนักถึงข้อกำหนดที่เกิดขึ้นใหม่นี้ และตอบสนองอย่างรวดเร็วด้วยคุณสมบัติการอธิบายที่ได้รับการปรับปรุงในแพลตฟอร์มโครงสร้างพื้นฐาน AI

สิ่งที่ทำให้ Calypso แตกต่างคือความกว้างของเทคโนโลยีการสังเกต ในปี 2024 บริษัทได้เปิดตัว AI Security Platform ซึ่งปกป้องข้อมูลองค์กรโดยการรักษาความปลอดภัย ตรวจสอบ และตรวจสอบโมเดล AI เชิงสร้างสรรค์ที่ใช้งานอยู่ทั้งหมดที่บริษัทอาจใช้อยู่ โดยไม่คำนึงถึงผู้จำหน่ายโมเดล หรือไม่ว่าโมเดลนั้นจะโฮสต์ภายในหรือภายนอก Calypso ยังเปิดตัวเครื่องมือการแสดงภาพใหม่ที่ช่วยให้ผู้ใช้สามารถสังเกตตรรกะที่อยู่เบื้องหลังการตัดสินใจของ AI ได้แบบเรียลไทม์

ตลาดกำลังตอบสนองในเชิงบวกต่อการเน้นที่การสังเกต AI ของ Calypso บริษัทรายงานว่ารายได้เพิ่มขึ้นสิบเท่าในช่วงปี 2024 และคาดว่าจะเพิ่มขึ้นอีกห้าเท่าในปี 2025

14. Galileo

แม้ว่าระบบ AI จะแสดงให้เห็นถึงภาพหลอนและอคติที่ผิดพลาดน้อยลงเมื่อเทียบกับปีที่แล้ว แต่ก็ยังคงอ่อนไหวต่อปัญหาเหล่านี้ สิ่งนี้ก่อให้เกิดความกังวลอย่างมากสำหรับธุรกิจใดๆ ที่ใช้ AI โดยเฉพาะอย่างยิ่งธุรกิจในภาคส่วนที่มีการควบคุม เช่น การดูแลสุขภาพและการธนาคาร ทีมพัฒนา AI ใช้แพลตฟอร์ม AI ของ Galileo เพื่อวัด เพิ่มประสิทธิภาพ และตรวจสอบความถูกต้องของโมเดลและแอปพลิเคชันของตน

ในช่วงต้นปี 2024 หลังจากสองปีของการวิจัย Galileo ได้เปิดตัว Luna ซึ่งเป็นชุดของโมเดลการประเมินที่ได้รับการฝึกฝนเพื่อระบุผลลัพธ์ที่เป็นอันตราย โมเดลเหล่านี้ช่วยให้แพลตฟอร์มของ Galileo สามารถตรวจสอบและให้คะแนนงานของ LLM ได้อย่างรวดเร็วในขณะที่ประกอบโทเค็นที่ประกอบเป็นคำตอบ กระบวนการนี้ใช้เวลาประมาณ 200 มิลลิวินาที ทำให้มีเวลาเพียงพอในการตั้งค่าสถานะและป้องกันไม่ให้ผลลัพธ์ของ AI แสดงต่อผู้ใช้ แม้ว่า LLM มาตรฐานจะสามารถทำงานนี้ได้ แต่ก็จะมีราคาแพงกว่ามาก โมเดลที่สร้างขึ้นตามวัตถุประสงค์ของ Galileo ให้ความแม่นยำ ความคุ้มค่า และที่สำคัญที่สุดคือความเร็วที่เหนือกว่า

Galileo รายงานว่าฐานลูกค้าเพิ่มขึ้นสี่เท่าในปี 2024 โดยมีลูกค้า ได้แก่ Twilio, Reddit, Chegg, Comcast และ JPMorgan Chase สตาร์ทอัพยังได้รับเงินทุน 68 ล้านดอลลาร์จากนักลงทุน เช่น Clément Delangue ซีอีโอของ Hugging Face

15. Runway

หนึ่งในแรงบันดาลใจและความวิตกกังวลที่สำคัญที่สุดเกี่ยวกับ AI คือศักยภาพในการสร้างวิดีโอที่มีคุณภาพเพียงพอที่จะปฏิวัติศิลปะและเศรษฐศาสตร์ของการสร้างภาพยนตร์ เทคโนโลยีมีความก้าวหน้าอย่างมากสู่อนาคตนี้ในปี 2024 โดย Runway สตาร์ทอัพการสร้างวิดีโอในนิวยอร์กมีบทบาทนำ การเปิดตัวโมเดล Gen-3 Alpha ของ Runway ในเดือนมิถุนายน 2024 ได้รับเสียงชื่นชมอย่างกว้างขวางในชุมชน AI สำหรับความน่าเชื่อถือของวิดีโอที่สร้างขึ้นที่ได้รับการปรับปรุงอย่างมีนัยสำคัญ

Runway ยังได้ปรับปรุงเครื่องมือสำหรับการควบคุมสุนทรียภาพของวิดีโอ AI ที่สำคัญ โมเดลได้รับการฝึกฝนทั้งภาพและวิดีโอ และสามารถสร้างวิดีโอตามอินพุตข้อความหรือรูปภาพ บริษัทได้เปิดตัว Gen-3 Alpha Turbo ซึ่งเป็นเวอร์ชันที่คุ้มค่าและเร็วกว่าของ Gen-3

ฮอลลีวูดได้ติดตามความคืบหน้าของ generative AI อย่างใกล้ชิด และ Runway รายงานว่าได้เริ่มผลิตโมเดลเวอร์ชันที่กำหนดเองสำหรับผู้เล่นในอุตสาหกรรมบันเทิง ได้ทำข้อตกลงเป็นพันธมิตรอย่างเป็นทางการกับ Lionsgate Studios ในเดือนกันยายน 2024 Runway ได้พัฒนาโมเดลที่กำหนดเองสำหรับบริษัทผู้ผลิตและฝึกอบรมเกี่ยวกับแคตตาล็อกภาพยนตร์ของ Lionsgate Runway ระบุว่าโมเดลนี้มีวัตถุประสงค์เพื่อช่วยเหลือผู้สร้างภาพยนตร์ ผู้กำกับ และครีเอทีฟอื่นๆ ของ Lionsgate ในการ ‘เพิ่มพูน’ งานของพวกเขาในขณะที่ ‘ประหยัดเวลา เงิน และทรัพยากร’ Runway เชื่อว่าข้อตกลงกับ Lionsgate สามารถใช้เป็นพิมพ์เขียวสำหรับความร่วมมือที่คล้ายกันกับบริษัทผู้ผลิตอื่นๆ

16. Cerebras Systems

ระบบ AI โดยเฉพาะอย่างยิ่งโมเดลระดับแนวหน้าขนาดใหญ่ ต้องการพลังการประมวลผลจำนวนมหาศาลในการทำงานในวงกว้าง สิ่งนี้จำเป็นต้องมีการเชื่อมต่อระหว่างชิปหลายพันหรือหลายล้านชิปเพื่อกระจายปริมาณงาน อย่างไรก็ตาม การเชื่อมต่อเครือข่ายระหว่างชิปอาจทำให้เกิดปัญหาคอขวดด้านประสิทธิภาพ เทคโนโลยีของ Cerebras Systems ได้รับการออกแบบมาเพื่อควบคุมความเร็วและข้อได้เปรียบด้านประสิทธิภาพของการรวมพลังการประมวลผลจำนวนมหาศาลไว้ในชิปขนาดใหญ่พิเศษเพียงชิ้นเดียว

ตัวอย่างเช่น ชิป WSE-3 (Wafer Scale Engine รุ่นที่สาม) ล่าสุดของบริษัทมีขนาด 814 ตารางมิลลิเมตร ขนาดเท่าจานอาหารค่ำ และใหญ่กว่าชิป H100 ที่เป็นผู้นำตลาดของ Nvidia ถึง 56 เท่า ชิปนี้ประกอบด้วยทรานซิสเตอร์ 4 ล้านล้านตัว และมีหน่วยความจำ 44 กิกะบิต ชิปเหล่านี้สามารถจัดกลุ่มเพื่อสร้างซูเปอร์คอมพิวเตอร์ เช่น Condor Galaxy ซึ่งเป็น ‘กลุ่มดาว’ ของซูเปอร์คอมพิวเตอร์ที่เชื่อมต่อถึงกันซึ่ง Cerebras กำลังพัฒนาร่วมกับ G42 ลูกค้ารายใหญ่ที่สุด ซึ่งเป็นบริษัท AI และคลาวด์คอมพิวติ้งในสหรัฐอาหรับเอมิเรตส์

จนถึงปัจจุบัน Cerebras ได้พบช่องทางในองค์กรวิจัยขนาดใหญ่ รวมถึง Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory และ Los Alamos National Laboratory บริษัทยื่นขอ IPO ในเดือนกันยายน 2024 หนังสือชี้ชวนระบุว่ายอดขายของบริษัทเพิ่มขึ้นมากกว่าสามเท่าเป็น 78.7 ล้านดอลลาร์ในปี 2023 และเพิ่มขึ้นเป็น 136.4 ล้านดอลลาร์ในช่วงครึ่งแรกของปี 2024