Ironwood TPU: พลัง AI ก้าวกระโดดของ Google
ภูมิทัศน์ของปัญญาประดิษฐ์ (AI) มีการพัฒนาอย่างต่อเนื่อง โดยความก้าวหน้าทางด้านฮาร์ดแวร์มีบทบาทสำคัญในการปลดล็อกความเป็นไปได้ใหม่ๆ Google ซึ่งเป็นผู้นำด้านนวัตกรรม AI ได้เปิดตัว Tensor Processing Unit (TPU) เจนเนอเรชั่นที่ 7 ที่มีชื่อรหัสว่า Ironwood ซึ่งเป็นการก้าวกระโดดครั้งสำคัญในด้านขีดความสามารถในการประมวลผล AI ตัวเร่งความเร็ว AI ที่ล้ำสมัยนี้มีความสามารถในการคำนวณที่เหนือกว่าแม้แต่ซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกถึง 24 เท่าในการใช้งานขนาดใหญ่
Ironwood ซึ่งประกาศในงาน Google Cloud Next ‘25 แสดงถึงการเปลี่ยนแปลงเชิงกลยุทธ์ในการเดินทางพัฒนาชิป AI ที่ยาวนานนับทศวรรษของ Google ซึ่งแตกต่างจากรุ่นก่อนๆ ซึ่งได้รับการออกแบบมาสำหรับงาน Training และ Inference ของ AI เป็นหลัก Ironwood ได้รับการออกแบบมาโดยเฉพาะเพื่อความเป็นเลิศในงาน Inference ซึ่งเป็นการประกาศศักราชใหม่ของแอปพลิเคชันที่ขับเคลื่อนด้วย AI
Amin Vahdat รองประธานและผู้จัดการทั่วไปของ Machine Learning, Systems และ Cloud AI ที่ Google กล่าวว่า ‘Ironwood ได้รับการออกแบบมาเพื่อรองรับ Generative AI ในยุคถัดไป และความต้องการด้านการคำนวณและการสื่อสารจำนวนมหาศาล นี่คือสิ่งที่เราเรียกว่า ‘ยุค Inference’ ที่ AI Agent จะดึงและสร้างข้อมูลเชิงรุกเพื่อส่งมอบข้อมูลเชิงลึกและคำตอบร่วมกัน ไม่ใช่แค่ข้อมูลเท่านั้น’
เปิดตัวขีดความสามารถที่ไม่เคยมีมาก่อนของ Ironwood
ข้อกำหนดทางเทคนิคของ Ironwood นั้นไม่ธรรมดา เมื่อปรับขนาดเป็น Pod ที่มีชิป 9,216 ตัว จะสามารถส่งมอบพลังการประมวลผล AI ได้ถึง 42.5 Exaflops ตัวเลขนี้ทำให้ El Capitan ซึ่งเป็นผู้ถือตำแหน่งปัจจุบันสำหรับซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกที่มี 1.7 Exaflops กลายเป็นเรื่องเล็กน้อย ชิป Ironwood แต่ละตัวมีความสามารถในการประมวลผลสูงสุด 4,614 TFLOPs
นอกเหนือจากพลังการประมวลผลที่แท้จริงแล้ว Ironwood ยังมีการปรับปรุงที่สำคัญในด้านหน่วยความจำและแบนด์วิธ ชิปแต่ละตัวมีหน่วยความจำแบนด์วิธสูง (HBM) ขนาด 192GB ซึ่งเพิ่มขึ้นถึงหกเท่าเมื่อเทียบกับ TPU รุ่นก่อนหน้า Trillium ซึ่งเปิดตัวเมื่อปีที่แล้ว นอกจากนี้ แบนด์วิธหน่วยความจำต่อชิปสูงถึง 7.2 Terabits/s ซึ่งแสดงถึงการปรับปรุง 4.5 เท่าเมื่อเทียบกับ Trillium
ในยุคที่ศูนย์ข้อมูลกำลังขยายตัวและการใช้พลังงานกลายเป็นข้อกังวลที่สำคัญ Ironwood ยังโดดเด่นในด้านประสิทธิภาพการใช้พลังงาน ประสิทธิภาพต่อวัตต์เป็นสองเท่าของ Trillium และสูงกว่า TPU ตัวแรกที่เปิดตัวในปี 2018 เกือบ 30 เท่า
การเน้นที่การเพิ่มประสิทธิภาพ Inference แสดงถึงการเปลี่ยนแปลงที่สำคัญในภูมิทัศน์ของ AI ในช่วงไม่กี่ปีที่ผ่านมา ห้องปฏิบัติการ AI ชั้นนำส่วนใหญ่ได้มุ่งเน้นไปที่การสร้าง Model Foundation ที่มีขนาดใหญ่ขึ้นเรื่อยๆ โดยมีจำนวนพารามิเตอร์เพิ่มขึ้น การมุ่งเน้นของ Google ในการเพิ่มประสิทธิภาพ Inference บ่งบอกถึงการเปลี่ยนไปสู่ยุคใหม่ที่เน้นประสิทธิภาพในการปรับใช้และความสามารถในการ Inference
ในขณะที่การ Training Model ยังคงมีความสำคัญ จำนวนรอบการ Training มีจำกัด ในทางตรงกันข้าม เมื่อเทคโนโลยี AI ถูกรวมเข้ากับแอปพลิเคชันต่างๆ มากขึ้น การดำเนินการ Inference คาดว่าจะเกิดขึ้นหลายพันล้านครั้งต่อวัน เมื่อ Model มีความซับซ้อนมากขึ้น ความมีประสิทธิภาพทางเศรษฐกิจของแอปพลิเคชันเหล่านี้จะเชื่อมโยงอย่างแยกไม่ออกกับต้นทุน Inference
ในช่วงแปดปีที่ผ่านมา ความต้องการการประมวลผล AI ของ Google เพิ่มขึ้นสิบเท่า จนน่าตกใจถึง 100 ล้านครั้ง หากไม่มีสถาปัตยกรรมเฉพาะทางเช่น Ironwood แม้แต่ความก้าวหน้าที่ไม่หยุดยั้งของกฎของ Moore ก็จะต้องดิ้นรนเพื่อให้ทันกับการเติบโตแบบทวีคูณนี้
เป็นที่น่าสังเกตว่าการประกาศของ Google เน้นถึงการมุ่งเน้นไปที่ ‘Mental Model’ ที่สามารถทำงานให้เหตุผลที่ซับซ้อนได้มากกว่าการจดจำรูปแบบอย่างง่าย ซึ่งบ่งบอกว่า Google มองเห็นอนาคตที่ AI ขยายออกไปนอกเหนือจาก Model ที่ใหญ่ขึ้นและครอบคลุม Model ที่สามารถแยกส่วนปัญหา ทำงานให้เหตุผลหลายขั้นตอน และเลียนแบบกระบวนการคิดเหมือนมนุษย์
ขับเคลื่อน Model ขนาดใหญ่ในยุคถัดไป
Google วางตำแหน่ง Ironwood เป็นโครงสร้างพื้นฐานสำหรับ Model AI ที่ทันสมัยที่สุด รวมถึง Gemini 2.5 ซึ่งมีความสามารถในการให้เหตุผลในตัว
Google เพิ่งเปิดตัว Gemini 2.5 Flash ซึ่งเป็น Model เรือธงรุ่นเล็กกว่าที่ออกแบบมาสำหรับแอปพลิเคชันที่เน้น Latency และใช้งานในชีวิตประจำวัน Gemini 2.5 Flash สามารถปรับความลึกของการให้เหตุผลแบบไดนามิกตามความซับซ้อนของ Prompt
Google ยังได้แสดงชุด Model Generative Multimodal ที่ครอบคลุม รวมถึง Text-to-image, Text-to-video และ Text-to-music ที่เพิ่งเปิดตัวใหม่ Lyria การสาธิตแสดงให้เห็นว่าเครื่องมือเหล่านี้สามารถรวมกันเพื่อสร้างวิดีโอโปรโมตคอนเสิร์ตที่สมบูรณ์ได้อย่างไร
Ironwood เป็นเพียงส่วนประกอบเดียวของกลยุทธ์โครงสร้างพื้นฐาน AI ที่กว้างขึ้นของ Google Google ยังได้ประกาศ Cloud WAN ซึ่งเป็นบริการเครือข่าย Wide Area ที่มีการจัดการ ซึ่งช่วยให้องค์กรต่างๆ สามารถเข้าถึงโครงสร้างพื้นฐานเครือข่ายส่วนตัวระดับโลกของ Google
นอกจากนี้ Google ยังกำลังขยายข้อเสนอ Software สำหรับงาน AI รวมถึง Pathways ซึ่งเป็น Machine Learning Runtime ที่พัฒนาโดย Google DeepMind ขณะนี้ Pathways ช่วยให้ลูกค้าสามารถปรับขนาด Model Serving ใน TPU หลายร้อยตัวได้
ส่งเสริมการทำงานร่วมกันของ AI Agent ด้วย A2A
นอกเหนือจากความก้าวหน้าทางด้านฮาร์ดแวร์แล้ว Google ยังได้สรุปวิสัยทัศน์สำหรับระบบนิเวศ AI ที่มีศูนย์กลางอยู่ที่ระบบ Multi-Agent เพื่ออำนวยความสะดวกในการพัฒนา Intelligent Agent Google ได้เปิดตัวโปรโตคอล Agent-to-Agent (A2A) ซึ่งออกแบบมาเพื่อให้การสื่อสารที่ปลอดภัยและได้มาตรฐานระหว่าง AI Agent ที่แตกต่างกัน
Google เชื่อว่าปี 2025 จะเป็นปีแห่งการเปลี่ยนแปลงสำหรับ AI โดยแอปพลิเคชัน Generative AI จะพัฒนาจากการตอบคำถามเดียวไปเป็นการแก้ปัญหาที่ซับซ้อนผ่านระบบ Agent
โปรโตคอล A2A ช่วยให้สามารถทำงานร่วมกันระหว่าง Agent ในแพลตฟอร์มและ Framework ที่แตกต่างกัน โดยจัดเตรียม ‘ภาษา’ ทั่วไปและช่องทางการสื่อสารที่ปลอดภัย โปรโตคอลนี้สามารถมองได้ว่าเป็น Network Layer สำหรับ Intelligent Agent โดยมีเป้าหมายเพื่อลดความซับซ้อนในการทำงานร่วมกันของ Agent ใน Workflow ที่ซับซ้อน ด้วยการเปิดใช้งาน AI Agent เฉพาะทางให้ทำงานร่วมกันในงานที่มีความซับซ้อนและระยะเวลาที่แตกต่างกัน A2A พยายามที่จะเพิ่มขีดความสามารถโดยรวมผ่านการทำงานร่วมกัน
A2A ทำงานโดยการสร้างวิธีการที่เป็นมาตรฐานสำหรับ Agent ในการแลกเปลี่ยนข้อมูลและประสานงานการดำเนินการ โดยไม่จำเป็นต้องแชร์ Code หรือ Data Structure ที่อยู่เบื้องหลัง ซึ่งช่วยให้สามารถสร้างระบบ AI ที่เป็น Modular และมีความยืดหยุ่นมากขึ้น ซึ่ง Agent สามารถเพิ่ม ลบ หรือกำหนดค่าใหม่ได้อย่างง่ายดายตามต้องการ
Google ได้เปรียบเทียบโปรโตคอล MCP และ A2A ใน Blog Post
- MCP (Model Context Protocol) ได้รับการออกแบบมาสำหรับการจัดการ Tool และ Resource
- เชื่อมต่อ Agent กับ Tool, API และ Resource ผ่าน Input/Output ที่มีโครงสร้าง
- Google ADK รองรับ MCP Tool ทำให้ MCP Server ต่างๆ สามารถทำงานกับ Agent ได้
- A2A (Agent2Agent Protocol) ได้รับการออกแบบมาสำหรับการทำงานร่วมกันระหว่าง Agent
- เปิดใช้งานการสื่อสารแบบไดนามิกและ Multimodal ระหว่าง Agent โดยไม่ต้องแชร์ Memory, Resource หรือ Tool
- เป็น Open Standard ที่ขับเคลื่อนโดย Community
- สามารถดูตัวอย่างได้โดยใช้ Google ADK, LangGraph, Crew.AI และ Tool อื่นๆ
โดยสรุป A2A และ MCP เป็นส่วนประกอบที่เสริมซึ่งกันและกัน MCP ให้การสนับสนุน Tool แก่ Agent ในขณะที่ A2A ช่วยให้ Agent ที่ติดตั้ง Tool เหล่านี้สามารถสื่อสารและทำงานร่วมกันได้
จากการตัดสินใจของ Partner เริ่มต้น A2A ดูเหมือนจะพร้อมที่จะได้รับความสนใจเช่นเดียวกับ MCP กว่า 50 บริษัทได้เข้าร่วมการทำงานร่วมกันครั้งแรก รวมถึงบริษัท Tech ชั้นนำและผู้ให้บริการ System Integration และ Consulting Service ระดับโลก
Google เน้นย้ำถึงความเปิดกว้างของโปรโตคอล โดยวางตำแหน่งให้เป็นวิธีการที่เป็นมาตรฐานสำหรับ Agent ในการทำงานร่วมกัน โดยไม่คำนึงถึง Technology Framework หรือ Service Provider ที่อยู่เบื้องหลัง Google ได้สรุปหลักการสำคัญ 5 ประการที่ชี้นำการออกแบบโปรโตคอลโดยร่วมมือกับ Partner:
- Embrace Agent Capabilities: A2A มุ่งเน้นไปที่การเปิดใช้งาน Agent ให้ทำงานร่วมกันในแบบที่เป็นธรรมชาติและไม่มีโครงสร้าง แม้ว่าพวกเขาจะไม่ได้แชร์ Memory, Tool และ Context โปรโตคอลมีเป้าหมายเพื่อเปิดใช้งานสถานการณ์ Multi-Agent ที่แท้จริง แทนที่จะจำกัด Agent ให้เป็นเพียง ‘Tool’
- Build on Existing Standards: โปรโตคอลสร้างขึ้นบนมาตรฐานยอดนิยมที่มีอยู่ รวมถึง HTTP, SSE และ JSON-RPC ทำให้ง่ายต่อการรวมเข้ากับ IT Stack ที่องค์กรใช้กันทั่วไป
- Secure by Default: A2A ได้รับการออกแบบมาเพื่อรองรับการ Authentication และ Authorization ระดับ Enterprise ซึ่งเทียบได้กับ Authentication Scheme ของ OpenAPI เมื่อเปิดตัว
- Support Long-Running Tasks: A2A ได้รับการออกแบบมาให้มีความยืดหยุ่น รองรับสถานการณ์ที่หลากหลาย ตั้งแต่ Task ที่รวดเร็วไปจนถึงการวิจัยเชิงลึกที่อาจใช้เวลาหลายชั่วโมงหรือหลายวัน (เมื่อมีมนุษย์เกี่ยวข้อง) ตลอดกระบวนการ A2A สามารถให้ Feedback, Notification และ Status Update แบบเรียลไทม์แก่ผู้ใช้
- Modality Agnostic: โลกของ Agent ไม่ได้จำกัดอยู่แค่ Text ซึ่งเป็นเหตุผลว่าทำไม A2A จึงได้รับการออกแบบมาเพื่อรองรับ Modality ที่หลากหลาย รวมถึง Audio และ Video Stream
Google ให้ตัวอย่างว่า A2A สามารถปรับปรุงกระบวนการจ้างงานได้อย่างมาก
ในอินเทอร์เฟซแบบรวมเช่น Agentspace ผู้จัดการฝ่ายจ้างงานสามารถมอบหมาย Agent ให้ค้นหาผู้สมัครที่เหมาะสมตามข้อกำหนดของงาน Agent นี้สามารถโต้ตอบกับ Agent เฉพาะทางเพื่อจัดหาผู้สมัคร กำหนดเวลาสัมภาษณ์ และแม้แต่ดึง Agent เฉพาะทางอื่นๆ เพื่อช่วยในการตรวจสอบประวัติ ทำให้สามารถทำงานอัตโนมัติอย่างชาญฉลาดในกระบวนการจ้างงานทั้งหมดในระบบต่างๆ
โอบรับ Model Context Protocol (MCP)
นอกเหนือจากความพยายามในการพัฒนา A2A แล้ว Google ยังได้โอบรับ Model Context Protocol (MCP) เพียงไม่กี่สัปดาห์หลังจากที่ OpenAI ประกาศการนำ MCP ไปใช้ Google ก็ทำตาม
Demis Hassabis CEO ของ Google DeepMind เพิ่งประกาศบน X ว่า Google จะเพิ่มการสนับสนุน MCP ให้กับ Model Gemini และ SDK อย่างไรก็ตาม เขาไม่ได้ระบุ Timeline ที่เฉพาะเจาะจง
Hassabis กล่าวว่า ‘MCP เป็นโปรโตคอลที่ยอดเยี่ยมที่กำลังกลายเป็น Open Standard สำหรับยุค AI Agent อย่างรวดเร็ว ฉันรอคอยที่จะได้ร่วมงานกับทีม MCP และ Partner อื่นๆ ในอุตสาหกรรมเพื่อพัฒนาเทคโนโลยีนี้’
นับตั้งแต่เปิดตัวในเดือนพฤศจิกายน 2024 MCP ได้รับความนิยมอย่างรวดเร็ว กลายเป็นวิธีการที่ง่ายและได้มาตรฐานในการเชื่อมต่อ Language Model กับ Tool และ Data
MCP ช่วยให้ Model AI สามารถเข้าถึง Data จากแหล่งต่างๆ เช่น Enterprise Tool และ Software เพื่อทำงานให้เสร็จ ตลอดจนเข้าถึง Content Library และ Application Development Environment โปรโตคอลช่วยให้นักพัฒนาสามารถสร้างการเชื่อมต่อแบบ Bidirectional ระหว่าง Data Source และ AI-Powered Application เช่น Chatbot
นักพัฒนาสามารถเปิดเผย Data Interface ผ่าน MCP Server และสร้าง MCP Client (เช่น Application และ Workflow) เพื่อเชื่อมต่อกับ Server เหล่านี้ นับตั้งแต่ที่ Anthropic เปิด Source MCP บริษัทหลายแห่งได้รวมการสนับสนุน MCP เข้ากับแพลตฟอร์มของตน