AI Battle: DeepSeek R1 จุดประกายตอบสนองทั่วโลก

การเปิดตัว DeepSeek-R1 ของทีมจีน DeepSeek ในช่วงต้นปี 2025 ถือเป็นเหตุการณ์สำคัญในวงการปัญญาประดิษฐ์ (AI) Language model แบบ open-source ที่มีพารามิเตอร์ 671 พันล้านรายการนี้ ได้สร้างชื่ออย่างรวดเร็วในฐานะคู่แข่งที่น่าเกรงขาม เทียบเคียงได้กับโมเดลชั้นนำของ OpenAI ในด้านคณิตศาสตร์ การเขียนโปรแกรม และการใช้เหตุผลเชิงตรรกะ ความสามารถของ DeepSeek-R1 ในการจัดการกับปัญหาที่ซับซ้อนนั้นโดดเด่นเป็นพิเศษ เนื่องมาจากการใช้ reinforcement learning (RL) ไลเซนส์ MIT ของโมเดลนี้ยังเข้ามาเปลี่ยนแปลงภูมิทัศน์โดยการทำลายอุปสรรคทางการค้า การสะท้อนกลับของการเปิดตัว DeepSeek-R1 ถูกรู้สึกได้ทั่วโลกเทคโนโลยี และแม้แต่ในตลาดการเงิน โดยมีรายงานว่าทำให้หุ้น AI ตกต่ำลงอย่างมากภายในหนึ่งสัปดาห์หลังจากการเปิดตัว

DeepSeek-R1 แสดงถึงความก้าวหน้าครั้งสำคัญสำหรับขบวนการ AI แบบ open-source ของจีนในขอบเขตของ Language model ระดับไฮเอนด์ ความท้าทายที่ไม่คาดฝันนี้ได้กระตุ้นให้ผู้นำ AI ทั่วโลกจากสหรัฐอเมริกาและจีน เร่งความคิดริเริ่มของพวกเขา เผยให้เห็นกลยุทธ์ของพวกเขา ทั้งในด้านเทคโนโลยีและการวางตำแหน่งทางการตลาด สิ่งนี้ได้เริ่มต้นการแข่งขัน AI รอบโมเดล DeepSeek-R1

ลองมาดูกันว่าผู้เล่นหลักในเวที AI – Meta, Google, OpenAI, Anthropic, Alibaba และ Baidu – ตอบสนองต่อการแข่งขันครั้งใหม่นี้อย่างไร

Meta: การใช้ประโยชน์จากขนาดและประสิทธิภาพด้วย LLaMA 4

Meta ซึ่งเป็นผู้นำในชุมชนโมเดล open-source ได้ตอบสนองต่อ DeepSeek R1 โดยการแนะนำ LLaMA 4 ในเดือนเมษายน 2025 Meta ได้เปิดตัว LLaMA 4 ซึ่งเป็นโมเดลที่ทรงพลังที่สุดเท่าที่เคยมีมา โดยให้การเข้าถึง API ผ่านแพลตฟอร์มต่างๆ เช่น Cloudflare LLaMA 4 ใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ซึ่งแบ่งโมเดลออกเป็นโมเดลย่อย และเปิดใช้งานเพียงเศษเสี้ยวของโมเดลเหล่านั้นในระหว่างการอนุมานแต่ละครั้ง การออกแบบนี้สร้างสมดุลระหว่างพารามิเตอร์ขนาดใหญ่กับประสิทธิภาพการอนุมาน

LLaMA 4 series มีโมเดลย่อยหลายรายการ รวมถึง "Scout" ซึ่งมีพารามิเตอร์รวม 109 พันล้านรายการ และมีเพียง 17 พันล้านพารามิเตอร์ที่ใช้งานอยู่ ทำให้สามารถทำงานบนการ์ด H100 เดียวได้ โมเดล "Maverick" มีพารามิเตอร์รวม 400 พันล้านรายการ (128 experts) แต่ยังมีเพียง 17 พันล้านพารามิเตอร์ที่ใช้งานอยู่ ทำให้ต้องใช้ DGX cluster การออกแบบนี้ช่วยให้ LLaMA 4 รองรับ context windows ได้ถึง 10 ล้าน tokens ทำให้เป็นหนึ่งในโมเดล open-source กลุ่มแรกๆ ที่นำเสนอความสามารถนี้ สิ่งนี้มีประโยชน์อย่างยิ่งสำหรับการสรุปเอกสารขนาดยาวและการวิเคราะห์ repositories โค้ดขนาดใหญ่

LLaMA 4 รักษาเวลาตอบสนองที่รวดเร็วและรองรับอินพุต multimodal สำหรับรูปภาพ เสียง และวิดีโอ ต้องขอบคุณสถาปัตยกรรม MoE Meta ได้เลือกกลยุทธ์ด้านประสิทธิภาพ เสริมสร้างความสามารถ multimodal และปรับปรุงการดำเนินงาน เพื่อเสริมสร้างตำแหน่งในภาค open-source ในขณะที่ DeepSeek มุ่งเน้นไปที่ความสามารถในการอนุมาน

Google: วิวัฒนาการของ Gemini สู่ Autonomous Intelligent Agents

เมื่อเผชิญกับแรงกดดันร่วมกันจาก OpenAI และ DeepSeek Google ได้เลือกใช้กลยุทธ์นวัตกรรมทางเทคโนโลยี ในเดือนกุมภาพันธ์ 2025 Google ได้เปิดตัว Gemini 2.0 series ซึ่งมี Flash, Pro และ Lite versions ซึ่งส่งสัญญาณถึงการก้าวไปสู่ความสามารถ "intelligent agent"

ความสามารถของ agent ของ Gemini 2.0 แสดงถึงความก้าวหน้าครั้งสำคัญ โมเดลสามารถเข้าใจหลาย modalities และใช้งาน search engines, code sandboxes และ web browsing ได้อย่างแข็งขัน Project Mariner ของ Google ช่วยให้การดำเนินงาน Chrome browser ขับเคลื่อนด้วย AI ทำให้ AI สามารถกรอกแบบฟอร์มและคลิกปุ่มได้

Google ยังได้แนะนำ Agent2Agent protocol ซึ่งช่วยให้ intelligent agents ต่างๆ สามารถสื่อสารและทำงานร่วมกันได้ เพื่อรองรับระบบนิเวศ agent นอกจากนี้ ยังได้สร้าง Agent Garden ซึ่งเป็นเครื่องมือและชุดพัฒนาเพื่อกระตุ้นให้นักพัฒนาบุคคลที่สามเข้าร่วม

Google กำลังกำหนดสถานการณ์หลักของยุคหน้าใหม่ โดยมุ่งเน้นไปที่การทำงานร่วมกันของ intelligent agent ในขณะที่ AI พัฒนาไปสู่ความสามารถที่ใช้เครื่องมือและเป็นอิสระ แทนที่จะมุ่งเน้นไปที่การแข่งขันพารามิเตอร์กับ DeepSeek และ OpenAI วิวัฒนาการของ Gemini แสดงถึงการเปลี่ยนแปลงเชิงกลยุทธ์ และไม่ใช่แค่การอัปเกรดโมเดล

OpenAI: การวนซ้ำโมเดลและการรวมระบบนิเวศเพื่อความน่าเชื่อถือและความเป็นผู้นำ

OpenAI ได้เร่งการวนซ้ำโมเดลและการปรับใช้ผลิตภัณฑ์ เพื่อตอบสนองต่อ DeepSeek R1 ในเดือนกุมภาพันธ์ 2025 OpenAI ได้เปิดตัว GPT-4.5 ซึ่งเป็นรุ่นชั่วคราวของ GPT-4 ซึ่งปรับปรุงความสอดคล้องเชิงตรรกะและความแม่นยำของข้อเท็จจริง ในขณะเดียวกันก็เป็นการปูทางสำหรับ GPT-5

GPT-4.5 ถือเป็นโมเดลหลักสุดท้ายที่ไม่มี chain-of-thought reasoning GPT-5 จะรวมคุณสมบัติของโมเดลการใช้เหตุผลเชิงทดลอง o3-mini และ GPT series เพื่อสร้าง "general cognitive model" ที่เป็นเอกภาพ OpenAI ยังได้ระบุว่า GPT-5 จะมีระดับสติปัญญาและความสามารถในการใช้เครื่องมือที่ปรับได้สูง

OpenAI ตัดสินใจอนุญาตให้ผู้ใช้ฟรีของ ChatGPT ใช้ GPT-5 เวอร์ชั่นพื้นฐาน ในขณะที่ผู้ใช้แบบชำระเงินจะสามารถเข้าถึงคุณสมบัติขั้นสูงเพิ่มเติมได้ เพื่อลดความเสี่ยงที่ผู้ใช้จะเปลี่ยนไปใช้ทางเลือกแบบ open-source กลยุทธ์นี้มีเป้าหมายเพื่อให้ผู้ใช้มีส่วนร่วมด้วยความครอบคลุมที่กว้างขวาง

OpenAI ยังรวมความสามารถต่างๆ เช่น plugins, browsers และ code executors เข้ากับ GPT core model แทนที่จะแยกพวกมันออกจากกัน เพื่อสร้าง "full-featured AI" OpenAI ตอบสนองต่อความท้าทายของ R1 โดยการรวมและเพิ่มความหนาแน่นของสติปัญญาอย่างเป็นระบบ

Anthropic: การเพิ่มความแข็งแกร่งให้กับ Robust Intelligence ด้วย Mixed Reasoning และ Thinking Budgets

Anthropic เปิดตัว Claude 3.7 Sonnet ในเดือนกุมภาพันธ์ 2025 ซึ่งมุ่งเน้นไปที่ "mixed reasoning" และ "thinking budgets" ผู้ใช้สามารถเลือก "standard mode" สำหรับการตอบสนองที่รวดเร็ว หรือเปิดใช้งาน "extended mode" เพื่อการคิดทีละขั้นตอนที่ลึกซึ้งยิ่งขึ้น

วิธีนี้คล้ายกับ "thinking more" เมื่อผู้คนเผชิญกับงานที่ยากลำบาก เนื่องจากช่วยให้ AI ใช้เวลานานขึ้นในการใช้เหตุผลเพื่อปรับปรุงความแม่นยำ Anthropic ยังอนุญาตให้ผู้ใช้ตั้งค่า "thinking time" เพื่อสร้างสมดุลระหว่างความลึกซึ้งของการใช้เหตุผลและต้นทุนการโทร

Claude 3.7 เหนือกว่ารุ่นก่อน 3.5 ในงานที่ท้าทาย เช่น การเขียนโปรแกรมและการใช้เหตุผล และเป็นหนึ่งในโมเดลไม่กี่รุ่นในอุตสาหกรรมที่มุ่งเน้นไปที่ความโปร่งใสของกระบวนการใช้เหตุผล ความสามารถด้านโค้ดยังบรรลุอัตราความแม่นยำ 70.3% ในการประเมินล่าสุด

Claude 3.7 แสดงให้เห็นถึงความมุ่งมั่นของ Anthropic ใน "controllable intelligence" โดยมุ่งเน้นไปที่การสร้างโมเดลที่มีรูปแบบการคิดที่อธิบายได้ เสถียร และปรับแต่งได้ แทนที่จะไล่ตามการ stacking พารามิเตอร์ Anthropic กำลังก้าวหน้าอย่างต่อเนื่องตามจังหวะของตัวเองในการ "reasoning race" ที่ขับเคลื่อนด้วย R1

Alibaba: การสร้างระบบนิเวศ Open-Source ของจีนด้วย Qwen

Damo Academy ของ Alibaba อัปเดต Qwen model family อย่างรวดเร็ว เพียงหนึ่งสัปดาห์หลังจาก DeepSeek R1 เปิดตัว โดยเปิดตัว Qwen 2.5 series ในเดือนกุมภาพันธ์ 2025 และ Qwen 3 series ใหม่ในปลายเดือนเมษายน ซึ่งแสดงให้เห็นถึงการตอบสนองต่อผลิตภัณฑ์ที่แข็งแกร่งและวิสัยทัศน์เชิงกลยุทธ์

Qwen 3 series ประกอบด้วย model versions ที่มีตั้งแต่ 600 ล้านถึง 235 พันล้านพารามิเตอร์ ใช้สถาปัตยกรรม MoE เพื่อรักษาประสิทธิภาพของโมเดลในขณะที่ใช้ทรัพยากรคอมพิวเตอร์น้อยลง โมเดลเรือธง Qwen3-235B-A22B ต้องการ GPUs ประสิทธิภาพสูงเพียงสี่ตัวสำหรับการปรับใช้ โดยการปรับพารามิเตอร์การเปิดใช้งานให้เหมาะสม ซึ่งช่วยลดอุปสรรคในการเข้าสู่ตลาดสำหรับธุรกิจในการนำ Large model ไปใช้ ในการทดสอบมาตรฐานหลายรายการ ประสิทธิภาพโดยรวมของ Qwen 3 เกินกว่าโมเดลระดับนานาชาติชั้นนำ เช่น DeepSeek R1, OpenAI o1 และ Gemini 2.5 Pro

Alibaba ให้ความสำคัญกับการสร้างระบบนิเวศ open-source อย่างมาก นอกเหนือจากการแข่งขันด้านเทคโนโลยี Qwen 3 เป็น open-sourced อย่างเต็มรูปแบบภายใต้ไลเซนส์ Apache 2.0 พร้อมด้วย open weights, training code และ deployment tools รองรับ multilingual (119 languages) และ multimodal applications โดยมีเป้าหมายเพื่อสร้างโมเดลพื้นฐานที่สามารถใช้งานและปรับแต่งได้โดยตรงโดยนักพัฒนาทั่วโลก

กลยุทธ์ "technology + ecosystem" ของ Alibaba เติมเต็มรูปแบบการพัฒนาที่ก้าวกระโดดอย่างรวดเร็วของ DeepSeek โดยเน้นที่การวนซ้ำอย่างรวดเร็วและการอนุมานชั้นนำ ในขณะที่อีกฝ่ายเน้นที่การสร้างระบบนิเวศและการสร้างสมดุลระหว่างขนาดและความหลากหลาย Qwen ค่อยๆ สร้างตัวเองให้เป็น "ecosystem hub" ของ Large model แบบ open-source ในตลาดในประเทศ ซึ่งเป็นการตอบสนองอย่างต่อเนื่องต่อการหยุดชะงักของอุตสาหกรรมที่เกิดจาก DeepSeek

Baidu: การปรับปรุง Multimodality และ Plugin Tools ด้วยการอัปเกรด ERNIE Bot

Baidu อัปเกรดโมเดลเรือธง ERNIE Bot อย่างมีนัยสำคัญในเดือนมีนาคม โดยเปิดตัว ERNIE Bot 4.5 และ ERNIE X1 สำหรับการทดสอบสาธารณะ ERNIE X1 ถูกวางตำแหน่งให้เป็น "deep thinking model" โดยมุ่งเน้นไปที่การปรับปรุงความสามารถของ AI ในการทำความเข้าใจ วางแผน และดำเนินการงานที่ซับซ้อน

ERNIE 4.5 เป็น Large model multimodal ดั้งเดิมรุ่นแรกของ Baidu ที่รองรับการสร้างแบบจำลองร่วมกันของข้อความ รูปภาพ เสียง และวิดีโอ รุ่นนี้ยังช่วยลดการสร้าง hallucination อย่างมีนัยสำคัญ และปรับปรุงความเข้าใจโค้ดและการใช้เหตุผลเชิงตรรกะ ซึ่งเหนือกว่าระดับ GPT-4.5 ในงานสถานการณ์ภาษาจีนหลายรายการ

Baidu กำลังสร้าง "AI tool ecosystem" ที่มีประโยชน์มากขึ้น X1 model สามารถใช้ search, document Q&A, PDF reading, code execution, image recognition, web access และ business information query functions เพื่อตระหนักถึง "hands-on ability" ของ AI อย่างแท้จริง ซึ่งสะท้อนถึงเส้นทาง agent ของ Google Gemini

Baidu ยังประกาศว่าจะเปิด open-source พารามิเตอร์บางส่วนของ ERNIE model ภายในสิ้นเดือนมิถุนายน 2025 และขยายการรวมแอปพลิเคชันกับลูกค้าระดับองค์กรเพิ่มเติม ERNIE series กำลังเปลี่ยนจากผลิตภัณฑ์แบบ closed-loop ไปสู่แพลตฟอร์ม ecosystem ดึงดูดนักพัฒนาและธุรกิจผ่าน APIs และ plugin systems

แทนที่จะแข่งขันโดยตรงกับ R1 และ Qwen ในพื้นที่ open-source Baidu กำลังใช้ประโยชน์จากการสะสมอย่างลึกซึ้งในเนื้อหาภาษาจีน บริการค้นหา และ knowledge graphs เพื่อรวมโมเดลเข้ากับสถานการณ์ผลิตภัณฑ์อย่างลึกซึ้ง เช่น search, office และ information flow สร้างพอร์ตโฟลิโอผลิตภัณฑ์ AI ที่เป็นภาษาท้องถิ่นมากขึ้น

โดยสรุป การเปิดตัว DeepSeek R1 เป็นมากกว่าความก้าวหน้าทางเทคโนโลยี แต่เป็นตัวเร่งปฏิกิริยาในเวที AI ทั่วโลก บังคับให้ยักษ์ใหญ่ปรับปรุงประสิทธิภาพการอนุมาน กระตุ้นให้บริษัทในประเทศแข่งขันเพื่อ open-source และกระตุ้นให้บริษัทอเมริกันเร่งการพัฒนา agents, integration และ multimodality

แม้ว่าการตอบสนองของยักษ์ใหญ่ AI ของจีนและอเมริกาจะแตกต่างกัน แต่เป้าหมายของพวกเขาก็เหมือนกัน: เพื่อสร้าง Large model ที่แข็งแกร่ง น่าเชื่อถือ และยืดหยุ่นมากขึ้น และชนะการแข่งขันสามเท่าของเทคโนโลยี ระบบนิเวศ และผู้ใช้ กระบวนการนี้ยังไม่จบสิ้น เมื่อ GPT-5, Gemini 3, Claude 4 และแม้แต่ DeepSeek R2 และ Qwen 4 เปิดตัวทีละรายการ AI ทั่วโลกกำลังเข้าสู่ขั้นตอนใหม่ของ "spiral rise"

สำหรับผู้ใช้และนักพัฒนาองค์กร การแข่งขันนี้จะนำมาซึ่งตัวเลือกที่มากขึ้น ต้นทุนที่ต่ำลง และเครื่องมือ Large model ที่มีประสิทธิภาพมากขึ้น ความสามารถ AI ทั่วโลกกำลังแพร่กระจายและทำให้เป็นประชาธิปไตยในอัตราที่ไม่เคยมีมาก่อน และความก้าวหน้าทางเทคโนโลยีที่เด็ดขาดครั้งต่อไปอาจกำลังจะมาถึง