Google มีความทะเยอทะยานที่คล้ายคลึงกับ Apple มากขึ้น โดยเฉพาะอย่างยิ่งในขอบเขตของ Generative AI (GenAI) large models การประชุม Google Cloud Next ล่าสุดแสดงให้เห็นถึงวิสัยทัศน์อันทะเยอทะยานของ Google ซึ่งรวมถึงนวัตกรรมต่างๆ ตั้งแต่ชิป TPU v7 Ironwood ที่ออกแบบมาเพื่อแข่งขันกับ GB200 ของ Nvidia ไปจนถึงโปรโตคอล Agent2Agent (A2A) ที่มุ่งมั่นที่จะแซงหน้า MCP ของ Anthropic และสภาพแวดล้อมรันไทม์ Pathways สำหรับการใช้งาน GenAI
Google ยังพัฒนาเครื่องมือต่างๆ อย่างแข็งขัน เช่น ADK และ Agentspace เพื่อเสริมศักยภาพให้กับนักพัฒนาในการสร้าง AI Agents หัวใจสำคัญของความพยายามนี้คือ Vertex AI ซึ่งเป็นแพลตฟอร์มการพัฒนาและการใช้งาน AI แบบ cloud-native ของ Google ปัจจุบัน Vertex AI นำเสนอบริการสร้างเนื้อหาที่หลากหลาย ครอบคลุม Veo 2 สำหรับวิดีโอ Imagen 3 สำหรับรูปภาพ Chirp 3 สำหรับเสียง และ Lyria สำหรับเพลง เป็นที่ชัดเจนว่า Google Cloud กำลังวางตำแหน่งตัวเองเพื่อให้บริการนักพัฒนาและผู้ใช้ด้วยชุดแอปพลิเคชันการพัฒนา large model GenAI ที่ครอบคลุม
ในขณะที่การใช้งานจริงของบริการและประสบการณ์เหล่านี้ยังคงต้องรอดูกันต่อไป แต่ Google ได้สร้างระบบนิเวศฮาร์ดแวร์และซอฟต์แวร์ AI แบบ multi-modal ที่สมบูรณ์ ซึ่งพัฒนาขึ้นเอง เป็นแบบ closed-source และพร้อมใช้งาน
แนวทางที่ครอบคลุมนี้วาดภาพของ Google ในฐานะ Apple แห่งยุค AI
Ironwood TPU: คู่แข่งที่ทรงพลัง
การเปิดตัวชิป TPU เจนเนอเรชั่นที่เจ็ด Ironwood เป็นสิ่งที่น่าสังเกตเป็นพิเศษ
- TPU แต่ละตัวมาพร้อมกับหน่วยความจำ HBM ขนาด 192GB โดยมีแบนด์วิดท์ตั้งแต่ 7.2 ถึง 7.4TB/s ซึ่งน่าจะใช้เทคโนโลยี HBM3E สิ่งนี้เปรียบเทียบได้ดีกับชิป B200 ของ Nvidia ซึ่งมีแบนด์วิดท์ 8TB/s
- TPU v7 ที่ระบายความร้อนด้วยของเหลวแต่ละตัวสามารถบรรลุพลังการประมวลผล FP8 แบบหนาแน่น 4.6 Petaflops สิ่งนี้น้อยกว่า B200’s 20 Petaflops เล็กน้อย
- อย่างไรก็ตาม เครือข่ายศูนย์ข้อมูล Jupiter ของ Google ช่วยให้สามารถปรับขนาดเพื่อรองรับชิปได้มากถึง 400,000 ตัว หรือ 43 คลัสเตอร์ TPU v7x ความเชี่ยวชาญด้านเทคโนโลยีเซิร์ฟเวอร์ของ Google ช่วยให้สามารถลดความสำคัญของเมตริกประสิทธิภาพของชิปตัวเดียวได้
- ที่สำคัญ Google ได้เปิดตัว Pathways ซึ่งเป็นสภาพแวดล้อมรันไทม์ AI โดยเฉพาะที่ช่วยเพิ่มความยืดหยุ่นในการใช้งานโมเดล GenAI ซึ่งช่วยเสริมความแข็งแกร่งให้กับข้อได้เปรียบในโดเมนคลัสเตอร์บริการ
- Ironwood มีให้เลือกสองการกำหนดค่าคลัสเตอร์: 256 ชิปหรือ 9216 ชิป ปรับให้เหมาะกับปริมาณงานเฉพาะ คลัสเตอร์เดียวสามารถบรรลุพลังการประมวลผล 42.5 Exaflops Google อ้างว่าประสิทธิภาพนี้เหนือกว่าซูเปอร์คอมพิวเตอร์ที่ใหญ่ที่สุดในโลก El Capitan ถึง 24 เท่า อย่างไรก็ตาม ตัวเลขนี้วัดที่ความแม่นยำ FP8 และ El Capitan ของ AMD ยังไม่ได้ให้ข้อมูลความแม่นยำ FP8 Google ได้รับทราบถึงสิ่งนี้แล้ว ทำให้การเปรียบเทียบโดยตรงเป็นเรื่องยาก
การเปิดรับระบบนิเวศ GenAI แบบ Closed-Source
Google กำลังดำเนินตามระบบนิเวศแบบ closed-source ที่ครอบคลุมในด้าน GenAI ในขณะที่ Gemma แบบ open-source มีข้อดีของมัน Google กำลังส่งทรัพยากรไปยังโซลูชัน closed-source
ด้วยความสนใจที่เพิ่มขึ้นใน AI Agent Google ได้ประกาศโปรโตคอล A2A ในการประชุม โดยมีผู้ขายกระแสหลัก 50 รายเข้าร่วมแข่งขันกับ MCP ของ Anthropic
ในขณะที่ OpenAI เปิดตัว Agents SDK ซึ่งรวมความสามารถ large model Google กำลังขยาย Vertex AI ด้วย ADK, Agentspace, AutoML, AIPlatform และ Kubeflow ซึ่งฉีดความสามารถของ model ต่างๆ
อย่างไรก็ตาม เมื่อเปรียบเทียบการสร้างภาพของ GPT-4o กับคุณสมบัติที่เทียบเท่าของ Gemini 2.0 Flash ข้อเสนอของ Google แม้ว่าจะมีความทะเยอทะยาน แต่ก็อาจขาดความสมบูรณ์ การรวม model บริการ และเครื่องมือจำนวนมาก แม้ว่าจะเป็นประโยชน์สำหรับการแข่งขัน แต่ก็อาจดูเหมือนเป็นการรีบร้อน ตลาดต้องการ multi-modal large model และบริการใน model ที่ครบกำหนดและบูรณาการอย่างดี
การจำลอง Gmail, Chrome และ Google Model ใน AI
ความสำเร็จของ Google กับ Gmail, Chrome และแนวทาง ‘จรวดสามขั้นตอน’ ได้ช่วยให้ Google ครองตลาดเทคโนโลยีโลก กลยุทธ์นี้กำลังถูกนำไปใช้ในด้าน GenAI อย่างรวดเร็ว อย่างไรก็ตาม Google กำลังเปิดรับการพัฒนาแบบ closed-source มากขึ้นเรื่อยๆ ซึ่งแตกต่างจากอดีตที่สนับสนุน open source
Google กำลังแปลง open source ให้เป็นรูปแบบของ closed source อย่างมีประสิทธิภาพ โดยการรวมทรัพยากรเพื่อสร้างระบบนิเวศที่โดดเด่นในพื้นที่เฉพาะ แล้วเรียกเก็บค่าผ่านทาง แนวทางนี้กำลังเผชิญกับการวิพากษ์วิจารณ์ที่เพิ่มขึ้นจากนักพัฒนา
เฟรมเวิร์ก machine learning แบบ open-source ของ Google, TensorFlow และ Jax ประสบความสำเร็จไปทั่วโลก อย่างไรก็ตาม สภาพแวดล้อมรันไทม์ Pathways ใหม่เป็นแบบ closed-source แม้กระทั่งการแยกเครื่องมือพัฒนา CUDA ของ Nvidia
Google vs. Nvidia: การต่อสู้เพื่อความเป็นเจ้าแห่ง AI
ในขณะที่ Nvidia สนับสนุน Physical AI และเปิดตัว humanoid robot general model แบบ open-source Isaac GR00T N1 Google DeepMind กำลังเข้าสู่ตลาดด้วย Gemini Robotics และ Gemini Robotics-ER ซึ่งใช้ Gemini 2.0
ปัจจุบัน Google ขาดการมีอยู่ในตลาด AI computer เดสก์ท็อปเท่านั้น DGX Spark (เดิมชื่อ Project DIGITS) และ DGX Station ของ Nvidia พร้อมด้วย Mac Studio ของ Apple จะแข่งขันกับบริการคลาวด์ของ Google ได้อย่างไร? คำถามนี้กลายเป็นจุดสนใจในอุตสาหกรรมหลังจากการประชุม
การพึ่งพา Google Cloud และชิป M3 Ultra ของ Apple
มีรายงานว่า Apple กำลังใช้คลัสเตอร์ TPU ของ Google Cloud เพื่อฝึกอบรม large model แม้กระทั่งละทิ้งโซลูชันการฝึกอบรมชิป Nvidia เนื่องจากข้อพิจารณาด้านต้นทุน! ในขณะที่เผชิญกับจุดอ่อนของซอฟต์แวร์ Apple กำลังมุ่งเน้นไปที่ชิป M-series Mac Studio ล่าสุดที่มาพร้อมกับชิป M3 Ultra ปัจจุบันมีหน่วยความจำแบบรวมสูงสุด 512GB การนำเทคโนโลยี Pathways ของ Google Cloud มาใช้ในช่วงแรกอาจทำให้ Apple สอดคล้องกับ Google
ปัจจัยต่อต้านการผูกขาด
ปัญหาพื้นฐานหมุนรอบข้อกังวลต่อต้านการผูกขาด ปัจจุบัน โมเดลธุรกิจของ Apple อยู่ในตำแหน่งที่ไม่เหมือนใครในการนำทางคดีต่อต้านการผูกขาดทั่วโลก ซึ่งแตกต่างจาก Microsoft และ Google ซึ่งเผชิญกับการแตกตัวที่อาจเกิดขึ้น ขนาดของ Google ทำให้มีความเสี่ยงที่จะถูกบังคับให้ขายระบบปฏิบัติการ Android หลักและธุรกิจเบราว์เซอร์ Chrome
เมื่อเร็วๆ นี้ Google ได้ยุติการบำรุงรักษาส่วน Android Open Source Project (AOSP) ทำให้การเปลี่ยนไปใช้โมเดล Apple เป็นสิ่งที่หลีกเลี่ยงไม่ได้ในยุค AI เมื่อความก้าวหน้าของ AI ปรากฏขึ้น การเปลี่ยนแปลงเชิงกลยุทธ์ของ Google ก็ชัดเจนมากขึ้นเรื่อยๆ
ขยายเกี่ยวกับ Google’s TPU v7 Ironwood
การเจาะลึกข้อกำหนดของ TPU v7 Ironwood เผยให้เห็นถึงฮาร์ดแวร์ที่ได้รับการออกแบบทางวิศวกรรมอย่างพิถีพิถัน หน่วยความจำ High Bandwidth Memory (HBM) ขนาด 192GB เป็นส่วนประกอบสำคัญ ช่วยให้เข้าถึงข้อมูลได้อย่างรวดเร็ว ซึ่งจำเป็นสำหรับการฝึกอบรมและเรียกใช้โมเดล AI ที่ซับซ้อน การใช้เทคโนโลยี HBM3E ที่คาดการณ์ไว้เน้นย้ำถึงความมุ่งมั่นของ Google ในการใช้ประโยชน์จากความก้าวหน้าล้ำสมัยในเทคโนโลยีหน่วยความจำ แบนด์วิดท์ 7.2-7.4TB/s ไม่ใช่แค่ตัวเลขที่น่าประทับใจ แต่แปลโดยตรงเป็นเวลาประมวลผลที่เร็วขึ้นและความสามารถในการจัดการชุดข้อมูลที่ใหญ่ขึ้นและซับซ้อนยิ่งขึ้น
การเปรียบเทียบกับ B200 ของ Nvidia เป็นสิ่งที่หลีกเลี่ยงไม่ได้ เนื่องจาก Nvidia ครองตลาด GPU ในขณะที่ B200 มีแบนด์วิดท์ที่สูงกว่าเล็กน้อยที่ 8TB/s สถาปัตยกรรมระบบโดยรวมและการบูรณาการภายในระบบนิเวศของ Google คือจุดที่ Ironwood ตั้งเป้าที่จะสร้างความแตกต่าง
พลังการประมวลผล FP8 แบบหนาแน่น 4.6 Petaflops เป็นการวัดความสามารถของชิปในการดำเนินการ floating-point ซึ่งเป็นพื้นฐานของการคำนวณ AI ความแตกต่างเมื่อเทียบกับ B200’s 20 Petaflops เน้นย้ำถึงปรัชญาการออกแบบที่แตกต่างกัน Google เน้นที่ความสามารถในการปรับขนาดและการบูรณาการของ TPUs ภายในโครงสร้างพื้นฐานของศูนย์ข้อมูล ในขณะที่ Nvidia มุ่งเน้นไปที่พลังการคำนวณดิบในระดับชิป
ความสำคัญของเครือข่ายศูนย์ข้อมูล Jupiter ของ Google
เครือข่ายศูนย์ข้อมูล Jupiter ของ Google เป็นสินทรัพย์ที่สำคัญ ช่วยให้สามารถเชื่อมต่อชิป TPU จำนวนมากได้อย่างราบรื่น ความสามารถในการรองรับชิปได้มากถึง 400,000 ตัว หรือ 43 คลัสเตอร์ TPU v7x เน้นย้ำถึงขนาดที่ Google ดำเนินงาน ความสามารถในการปรับขนาดนี้เป็นตัวสร้างความแตกต่างที่สำคัญ เนื่องจากช่วยให้ Google สามารถกระจายปริมาณงานในโครงสร้างพื้นฐานขนาดใหญ่ ปรับประสิทธิภาพและประสิทธิผลให้เหมาะสม
ความเชี่ยวชาญของ Google ในด้านเทคโนโลยีเซิร์ฟเวอร์เป็นปัจจัยสำคัญในกลยุทธ์ AI ของ Google ด้วยการให้ความสำคัญกับประสิทธิภาพระดับระบบมากกว่าข้อกำหนดของชิปแต่ละตัว Google สามารถใช้ประโยชน์จากโครงสร้างพื้นฐานเพื่อให้ได้ผลลัพธ์ที่เหนือกว่า แนวทางนี้มีความเกี่ยวข้องอย่างยิ่งในบริบทของการฝึกอบรม large model AI ขนาดใหญ่ ซึ่งความสามารถในการกระจายการคำนวณในเครือข่ายของโปรเซสเซอร์ที่เชื่อมต่อถึงกันเป็นสิ่งจำเป็น
การเปิดตัว Pathways AI Runtime Environment
การเปิดตัว Pathways เป็นการเคลื่อนไหวเชิงกลยุทธ์ที่ช่วยเพิ่มความยืดหยุ่นและประสิทธิภาพของการใช้งานโมเดล GenAI สภาพแวดล้อมรันไทม์ AI เฉพาะนี้ช่วยให้นักพัฒนาปรับโมเดลให้เหมาะสมสำหรับโครงสร้างพื้นฐานของ Google โดยใช้ประโยชน์จากทรัพยากรฮาร์ดแวร์และซอฟต์แวร์ที่มีอยู่
Pathways แสดงถึงการลงทุนที่สำคัญใน AI software stack โดยมอบแพลตฟอร์มแบบครบวงจรสำหรับการใช้งานและการจัดการโมเดล AI ด้วยการปรับปรุงกระบวนการใช้งานให้มีประสิทธิภาพ Google ตั้งเป้าที่จะลดอุปสรรคในการเข้าสำหรับนักพัฒนาและส่งเสริมการนำบริการ AI มาใช้ สิ่งนี้จะขับเคลื่อนนวัตกรรมและสร้างระบบนิเวศที่มีชีวิตชีวารอบแพลตฟอร์ม AI ของ Google
ข้อมูลเชิงลึกที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับกลยุทธ์ Closed-Source ของ Google
การที่ Google ยอมรับกลยุทธ์ closed-source ในด้าน GenAI เป็นทางเลือกที่รอบคอบซึ่งสะท้อนให้เห็นถึงวิสัยทัศน์ระยะยาวสำหรับ AI ในขณะที่ open-source Gemma เป็นส่วนสำคัญที่ช่วยเสริมสร้างชุมชน AI อย่างมาก Google กำลังจัดลำดับความสำคัญโซลูชัน closed-source อย่างชัดเจน โดยตระหนักว่าพวกเขามีการควบคุมและการปรับแต่งที่มากขึ้น
ด้วยการมุ่งเน้นไปที่การพัฒนาแบบ closed-source Google สามารถปรับโมเดล AI และโครงสร้างพื้นฐานให้เหมาะสมสำหรับงานเฉพาะ ทำให้มั่นใจได้ถึงประสิทธิภาพและประสิทธิผลสูงสุด แนวทางนี้ยังช่วยให้ Google ปกป้องทรัพย์สินทางปัญญาและรักษาความได้เปรียบในการแข่งขันในภูมิทัศน์ AI ที่มีการพัฒนาอย่างรวดเร็ว
แนวทาง closed-source ไม่ได้ปราศจากนักวิจารณ์ ซึ่งโต้แย้งว่าเป็นการขัดขวางนวัตกรรมและจำกัดการทำงานร่วมกัน อย่างไรก็ตาม Google ยืนยันว่ามีความจำเป็นเพื่อให้มั่นใจในคุณภาพ ความปลอดภัย และความน่าเชื่อถือของบริการ AI
โปรโตคอล A2A และการต่อสู้เพื่อความเป็นเจ้าแห่ง AI Agent
การเกิดขึ้นของ AI Agents ได้สร้างสมรภูมิใหม่ในอุตสาหกรรม AI และ Google มุ่งมั่นที่จะเป็นผู้นำในด้านนี้ การประกาศโปรโตคอล A2A ในการประชุม Google Cloud Next เป็นข้อบ่งชี้ที่ชัดเจนถึงความทะเยอทะยานของ Google
ด้วยการเกณฑ์ผู้ขายกระแสหลัก 50 รายให้สนับสนุนโปรโตคอล A2A Google พยายามที่จะสร้างมาตรฐานที่เป็นหนึ่งเดียวสำหรับการสื่อสาร AI Agent สิ่งนี้จะช่วยให้ AI Agents จากแพลตฟอร์มต่างๆ สามารถโต้ตอบกันได้อย่างราบรื่น สร้างระบบนิเวศ AI ที่เชื่อมต่อถึงกันและทำงานร่วมกันมากขึ้น
การแข่งขันกับ MCP ของ Anthropic เป็นแง่มุมสำคัญของกลยุทธ์ AI Agent ของ Google Anthropic เป็นบริษัทวิจัย AI ที่ได้รับการยอมรับ และโปรโตคอล MCP ได้รับแรงฉุดในอุตสาหกรรม โปรโตคอล A2A ของ Google แสดงถึงความท้าทายโดยตรงต่อ MCP และผลลัพธ์ของการแข่งขันนี้จะมีผลกระทบอย่างมากต่ออนาคตของ AI Agents
Vertex AI: แพลตฟอร์มการพัฒนา AI ที่ครอบคลุม
Vertex AI ของ Google เป็นแพลตฟอร์มการพัฒนา AI ที่ครอบคลุม ซึ่งมอบเครื่องมือและบริการที่หลากหลายให้กับนักพัฒนา ด้วยการรวม ADK, Agentspace, AutoML, AIPlatform และ Kubeflow Google กำลังสร้างร้านค้าแบบครบวงจรสำหรับการพัฒนา AI
Vertex AI มีจุดมุ่งหมายเพื่อลดความซับซ้อนของกระบวนการพัฒนา AI ทำให้ง่ายขึ้นสำหรับนักพัฒนาในการสร้าง ฝึกอบรม และใช้งานโมเดล AI แพลตฟอร์มนี้ยังให้การเข้าถึงไลบรารีขนาดใหญ่ของโมเดลที่ได้รับการฝึกอบรมล่วงหน้า ช่วยให้นักพัฒนาสามารถรวมความสามารถ AI เข้ากับแอปพลิเคชันได้อย่างรวดเร็ว
การรวมความสามารถของ model ต่างๆ เป็นข้อได้เปรียบที่สำคัญของ Vertex AI ด้วยการนำเสนอ model ที่หลากหลาย Google กำลังตอบสนองต่อกรณีการใช้งานที่หลากหลาย ตั้งแต่การจดจำภาพไปจนถึงการประมวลผลภาษาธรรมชาติ แนวทางที่ครอบคลุมนี้ทำให้ Vertex AI เป็นตัวเลือกที่น่าสนใจสำหรับนักพัฒนาที่กำลังมองหาแพลตฟอร์มการพัฒนา AI ที่หลากหลายและทรงพลัง
การรวม Model ของ Google: ความทะเยอทะยาน vs. การดำเนินการ
ในขณะที่ความทะเยอทะยานของ Google ในการรวม model บริการ และเครื่องมือจำนวนมากเป็นสิ่งที่น่ายกย่อง การดำเนินการอาจต้องมีการปรับปรุงเพิ่มเติม ตลาดต้องการ multi-modal large model และบริการใน model ที่ครบกำหนดและบูรณาการอย่างดี ข้อเสนอในปัจจุบันของ Google แม้ว่าจะดูมีแนวโน้ม แต่ก็อาจต้องมีการขัดเกลาเพิ่มเติมเพื่อให้เป็นไปตามความคาดหวังเหล่านี้
การรวมความสามารถ AI ต่างๆ เป็นงานที่ซับซ้อน และ Google เผชิญกับความท้าทายในการทำให้มั่นใจว่า model และบริการต่างๆ ทำงานร่วมกันได้อย่างราบรื่น สิ่งนี้ต้องการความใส่ใจในรายละเอียดอย่างรอบคอบและความมุ่งมั่นในการปรับปรุงอย่างต่อเนื่อง
ท้ายที่สุดแล้ว ความสำเร็จของความพยายามในการรวม model ของ Google จะขึ้นอยู่กับความสามารถในการมอบประสบการณ์การใช้งานที่ทรงพลังและใช้งานง่าย สิ่งนี้จะต้องมีความเข้าใจอย่างลึกซึ้งเกี่ยวกับความต้องการของผู้ใช้และการมุ่งเน้นไปที่คุณภาพอย่างไม่ลดละ