Google ได้ปฏิวัติวงการปัญญาประดิษฐ์ (AI) อีกครั้งด้วยการเปิดตัว Tensor Processing Unit (TPU) รุ่นที่ 7 ที่มีชื่อว่า ‘Ironwood’ ซึ่งเป็นตัวเร่งความเร็ว AI ที่ล้ำสมัยที่มีความสามารถในการประมวลผลที่เหนือกว่าแม้แต่ซูเปอร์คอมพิวเตอร์ที่ทรงพลังที่สุดในโลก ในการใช้งานขนาดใหญ่ ความสามารถของ Ironwood นั้นเหนือกว่าซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดถึง 24 เท่า
การเปิดตัว Ironwood ในงาน Google Cloud Next ‘25 ถือเป็นช่วงเวลาสำคัญในการแสวงหานวัตกรรมชิป AI ของ Google ที่ยาวนานนับทศวรรษ ในขณะที่ TPU รุ่นก่อนหน้านี้ส่วนใหญ่รองรับปริมาณงานการฝึกอบรมและการอนุมานของโมเดล AI แต่ Ironwood โดดเด่นในฐานะชิปตัวแรกที่สร้างขึ้นและปรับให้เหมาะสมสำหรับงานอนุมานโดยเฉพาะ
ตามคำกล่าวของ Amin Vahdat รองประธานและผู้จัดการทั่วไปของ Machine Learning, Systems และ Cloud AI ที่ Google ‘Ironwood ได้รับการออกแบบมาเพื่อขับเคลื่อน AI เชิงกำเนิดในระยะต่อไป โดยจัดการกับความต้องการด้านการคำนวณและการสื่อสารที่มหาศาล เรากำลังเข้าสู่สิ่งที่เรียกว่า ‘ยุคแห่งการอนุมาน’ ที่ตัวแทน AI จะดึงข้อมูลและสร้างข้อมูลเชิงรุกเพื่อส่งมอบข้อมูลเชิงลึกและคำตอบร่วมกัน ซึ่งเหนือกว่าความสามารถในการประมวลผลข้อมูลเพียงอย่างเดียว’
ปลดปล่อยพลังการประมวลผลที่ไม่เคยมีมาก่อน: เจาะลึกความสามารถของ Ironwood
ข้อกำหนดทางเทคนิคของ Ironwood อ่านได้เหมือนรายการความปรารถนาสำหรับนักวิจัยและนักพัฒนา AI ด้วยการปรับขนาดเป็นพ็อดของชิป 9,216 ชิป Ironwood ให้การคำนวณ AI ที่น่าทึ่งถึง 42.5 เอ็กซะฟล็อป เพื่อให้เห็นภาพชัดเจน สิ่งนี้เหนือกว่าความสามารถของแชมป์ซูเปอร์คอมพิวเตอร์ที่ครองราชย์ในปัจจุบันอย่าง El Capitan อย่างมาก ซึ่งมีค่าสูงสุดที่ 1.7 เอ็กซะฟล็อป โดยเฉพาะอย่างยิ่ง ชิป Ironwood แต่ละชิปมีความจุในการคำนวณสูงสุด 4614 TFLOPs
นอกเหนือจากพลังการประมวลผลดิบแล้ว Ironwood ยังแนะนำการปรับปรุงที่สำคัญในด้านหน่วยความจำและแบนด์วิดท์ ชิปแต่ละตัวมีหน่วยความจำแบนด์วิดท์สูง (HBM) ขนาด 192GB ซึ่งเพิ่มขึ้นหกเท่าเมื่อเทียบกับ TPU รุ่นก่อนหน้าคือ Trillium แบนด์วิดท์ของหน่วยความจำก็ได้รับการปรับปรุงอย่างมากเช่นกัน โดยสูงถึง 7.2 เทราบิต/วินาทีต่อชิป ซึ่งมากกว่า Trillium ถึง 4.5 เท่า
ในยุคที่ศูนย์ข้อมูลกำลังขยายตัวและปริมาณการใช้ไฟฟ้ากลายเป็นปัจจัยที่สำคัญมากขึ้น Ironwood แสดงให้เห็นถึงประสิทธิภาพการใช้พลังงานที่โดดเด่น ประสิทธิภาพต่อวัตต์เป็นสองเท่าของ Trillium และดีกว่า TPU เริ่มต้นที่เปิดตัวในปี 2018 เกือบ 30 เท่า
การเปลี่ยนแปลงไปสู่การเพิ่มประสิทธิภาพการอนุมานนี้แสดงถึงเหตุการณ์สำคัญในการวิวัฒนาการของ AI ในช่วงไม่กี่ปีที่ผ่านมา ห้องปฏิบัติการ AI ชั้นนำได้มุ่งเน้นไปที่การสร้างโมเดลพื้นฐานที่มีจำนวนพารามิเตอร์เพิ่มขึ้นเรื่อยๆ การเน้นของ Google ในการเพิ่มประสิทธิภาพการอนุมานเป็นการส่งสัญญาณถึงการเปลี่ยนแปลงไปสู่การจัดลำดับความสำคัญของประสิทธิภาพการปรับใช้และความสามารถในการอนุมานในโลกแห่งความเป็นจริง
ในขณะที่การฝึกอบรมโมเดล AI เป็นกิจกรรมที่ไม่ค่อยเกิดขึ้น แต่การดำเนินการอนุมานเกิดขึ้นนับพันล้านครั้งทุกวัน เนื่องจากเทคโนโลยี AI กลายเป็นเรื่องธรรมดามากขึ้น ความมีชีวิตทางเศรษฐกิจของธุรกิจที่ขับเคลื่อนด้วย AI นั้นเชื่อมโยงกับต้นทุนการอนุมานอย่างแยกไม่ออก โดยเฉพาะอย่างยิ่งเมื่อโมเดลมีความซับซ้อนมากขึ้นเรื่อยๆ
ในช่วงแปดปีที่ผ่านมา ความต้องการการคำนวณ AI ของ Google เพิ่มขึ้นแบบทวีคูณ เพิ่มขึ้นสิบเท่าและสูงถึง 100 ล้านอย่างน่าตกใจ หากไม่มีสถาปัตยกรรมเฉพาะทางอย่าง Ironwood กฎของมัวร์เพียงอย่างเดียวไม่สามารถรองรับวิถีการเติบโตนี้ได้
การเน้นของ Google ใน ‘โมเดลการให้เหตุผล’ ที่สามารถทำงานอนุมานที่ซับซ้อนได้ แทนที่จะเป็นการจดจำรูปแบบอย่างง่ายๆ เป็นสิ่งที่น่าสังเกตเป็นพิเศษ สิ่งนี้บ่งชี้ว่า Google มองเห็นอนาคตที่ AI จะเก่งไม่เพียงแต่ผ่านโมเดลที่ใหญ่ขึ้นเท่านั้น แต่ยังผ่านโมเดลที่สามารถแบ่งปัญหาออก ทำการให้เหตุผลหลายขั้นตอน และเลียนแบบกระบวนการคิดเหมือนมนุษย์ได้
ขับเคลื่อนโมเดลภาษาขนาดใหญ่รุ่นต่อไป
Google วางตำแหน่ง Ironwood เป็นโครงสร้างพื้นฐานที่เป็นรากฐานสำหรับโมเดล AI ที่ทันสมัยที่สุด รวมถึง Gemini 2.5 ซึ่งมีความ ‘สามารถในการให้เหตุผลโดยธรรมชาติ’
นอกจาก Ironwood แล้ว Google ยังเปิดตัว Gemini 2.5 Flash ซึ่งเป็นโมเดลเรือธงรุ่นปรับปรุงที่ออกแบบมาสำหรับแอปพลิเคชันที่ละเอียดอ่อนต่อเวลาแฝงและใช้ในชีวิตประจำวัน Gemini 2.5 Flash สามารถปรับความลึกของการให้เหตุผลแบบไดนามิกได้ตามความซับซ้อนของข้อความแจ้ง
Google ยังได้แสดงชุดโมเดลสร้างสรรค์แบบหลายรูปแบบ ซึ่งครอบคลุมข้อความเป็นภาพ ข้อความเป็นวิดีโอ และฟังก์ชันข้อความเป็นเพลงที่เพิ่งเปิดตัวใหม่ Lyria การสาธิตที่น่าสนใจเน้นให้เห็นว่าเครื่องมือเหล่านี้สามารถนำมารวมกันเพื่อสร้างวิดีโอส่งเสริมการขายที่สมบูรณ์แบบสำหรับคอนเสิร์ตได้อย่างไร
Ironwood เป็นเพียงองค์ประกอบเดียวของกลยุทธ์โครงสร้างพื้นฐาน AI ที่ครอบคลุมของ Google บริษัทยังได้เปิดตัว Cloud WAN ซึ่งเป็นบริการเครือข่ายบริเวณกว้างที่มีการจัดการ ซึ่งช่วยให้ธุรกิจต่างๆ สามารถเข้าถึงโครงสร้างพื้นฐานเครือข่ายส่วนตัวขนาดใหญ่ระดับโลกของ Google ได้
Google ยังกำลังขยายข้อเสนอซอฟต์แวร์สำหรับปริมาณงาน AI รวมถึง Pathways ซึ่งเป็นรันไทม์การเรียนรู้ของเครื่องที่พัฒนาโดย Google DeepMind ซึ่งช่วยให้ลูกค้าสามารถปรับขนาดการให้บริการโมเดลใน TPU นับร้อยได้
วิสัยทัศน์ของปัญญาประดิษฐ์แบบร่วมมือ: แนะนำการสนับสนุน A2A และ MCP
นอกเหนือจากความก้าวหน้าของฮาร์ดแวร์แล้ว Google ยังได้แสดงวิสัยทัศน์สำหรับ AI ที่มีศูนย์กลางอยู่ที่ระบบหลายเอเจนต์และแนะนำโปรโตคอล Agent-to-Agent (A2A) ซึ่งออกแบบมาเพื่อส่งเสริมการสื่อสารที่ปลอดภัยและเป็นมาตรฐานระหว่างเอเจนต์ AI ที่หลากหลาย
Google คาดการณ์ว่าปี 2025 จะเป็นปีแห่งการเปลี่ยนแปลงสำหรับ AI โดยแอปพลิเคชัน AI เชิงกำเนิดจะพัฒนาจากการตอบคำถามเดียวไปเป็นการแก้ปัญหาที่ซับซ้อนผ่านระบบเอเจนต์ที่เชื่อมต่อถึงกัน
โปรโตคอล A2A ช่วยให้สามารถทำงานร่วมกันได้ข้ามแพลตฟอร์มและเฟรมเวิร์ก โดยให้ ‘ภาษา’ ทั่วไปและช่องทางการสื่อสารที่ปลอดภัยแก่เอเจนต์ AI ลองนึกภาพมันเป็นเลเยอร์เครือข่ายสำหรับเอเจนต์ AI ซึ่งช่วยลดความซับซ้อนในการทำงานร่วมกันในเวิร์กโฟลว์ที่ซับซ้อน และช่วยให้เอเจนต์ AI เฉพาะทางสามารถจัดการงานที่มีความซับซ้อนและระยะเวลาที่แตกต่างกันได้โดยรวม ซึ่งจะช่วยเพิ่มขีดความสามารถโดยรวมผ่านความร่วมมือ
A2A ทำงานอย่างไร
Google ได้ให้ภาพรวมเปรียบเทียบของโปรโตคอล MCP และ A2A:
- MCP (Model Context Protocol): มุ่งเน้นไปที่การจัดการเครื่องมือและทรัพยากร
- เชื่อมต่อเอเจนต์กับเครื่องมือ APIs และทรัพยากรผ่านอินพุต/เอาต์พุตที่มีโครงสร้าง
- Google ADK รองรับเครื่องมือ MCP อำนวยความสะดวกในการโต้ตอบที่ราบรื่นระหว่างเซิร์ฟเวอร์ MCP และเอเจนต์
- A2A (Agent2Agent Protocol): อำนวยความสะดวกในการทำงานร่วมกันระหว่างเอเจนต์
- เปิดใช้งานการสื่อสารแบบไดนามิกหลายรูปแบบระหว่างเอเจนต์โดยไม่ต้องใช้หน่วยความจำ ทรัพยากร หรือเครื่องมือที่ใช้ร่วมกัน
- เป็นมาตรฐานเปิดที่ขับเคลื่อนโดยชุมชน
- สามารถสำรวจตัวอย่างได้โดยใช้เครื่องมืออย่าง Google ADK, LangGraph และ Crew.AI
A2A และ MCP ต่างก็เสริมซึ่งกันและกัน MCP จัดหาเครื่องมือให้เอเจนต์ ในขณะที่ A2A ช่วยให้เอเจนต์ที่ติดตั้งเหล่านี้สามารถสนทนาและทำงานร่วมกันได้
รายชื่อพันธมิตรเริ่มต้นของ Google บ่งชี้ว่า A2A พร้อมที่จะได้รับการเอาใจใส่เช่นเดียวกับ MCP โครงการริเริ่มนี้ดึงดูดองค์กรมากกว่า 50 แห่งแล้ว รวมถึงบริษัทเทคโนโลยีชั้นนำและผู้ให้บริการให้คำปรึกษาและบูรณาการระบบระดับโลก
Google เน้นย้ำถึงความเปิดกว้างของโปรโตคอล โดยวางตำแหน่งให้เป็นมาตรฐานสำหรับการทำงานร่วมกันระหว่างเอเจนต์ที่เหนือกว่าเฟรมเวิร์กเทคโนโลยีพื้นฐานหรือผู้ให้บริการ Google เน้นย้ำถึงหลักการชี้นำห้าประการที่กำหนดรูปแบบการออกแบบของโปรโตคอล:
- โอบรับความสามารถของเอเจนต์: A2A ให้ความสำคัญกับการเปิดใช้งานเอเจนต์ให้ทำงานร่วมกันอย่างเป็นธรรมชาติ แม้ว่าจะไม่ได้ใช้หน่วยความจำ เครื่องมือ หรือบริบทที่ใช้ร่วมกัน เป้าหมายคือการเปิดใช้งานสถานการณ์จำลองหลายเอเจนต์ที่แท้จริง ไม่ใช่แค่จำกัดเอเจนต์ให้ทำหน้าที่เป็น ‘เครื่องมือ’
- สร้างขึ้นจากมาตรฐานที่มีอยู่: โปรโตคอลใช้ประโยชน์จากมาตรฐานที่มีอยู่ซึ่งมีการนำไปใช้อย่างกว้างขวาง รวมถึง HTTP, SSE และ JSON-RPC ซึ่งทำให้การรวมเข้ากับสแต็ก IT ที่มีอยู่เป็นเรื่องง่าย
- ปลอดภัยโดยค่าเริ่มต้น: A2A ได้รับการออกแบบมาเพื่อรองรับการตรวจสอบสิทธิ์และการอนุญาตระดับองค์กร เทียบได้กับรูปแบบการตรวจสอบสิทธิ์ของ OpenAPI
- รองรับงานที่ใช้เวลานาน: ความยืดหยุ่นของ A2A ช่วยให้สามารถรองรับสถานการณ์ที่หลากหลาย ตั้งแต่ภารกิจด่วนไปจนถึงการวิจัยเชิงลึกที่อาจใช้เวลาหลายชั่วโมงหรือหลายวัน (โดยเฉพาะอย่างยิ่งเมื่อจำเป็นต้องมีส่วนร่วมจากมนุษย์) ตลอดกระบวนการ A2A สามารถให้ข้อเสนอแนะ การแจ้งเตือน และการอัปเดตสถานะแบบเรียลไทม์แก่ผู้ใช้
- Modality Agnostic: ตระหนักดีว่าโลกของเอเจนต์ขยายออกไปเกินกว่าข้อความ A2A รองรับรูปแบบต่างๆ รวมถึงสตรีมเสียงและวิดีโอ
Google ได้ให้ตัวอย่างว่า A2A ปรับปรุงกระบวนการจ้างงานได้อย่างไร
ในอินเทอร์เฟซแบบรวม เช่น Agentspace ผู้จัดการฝ่ายจ้างงานสามารถมอบหมายให้เอเจนต์ระบุผู้สมัครที่เหมาะสมตามข้อกำหนดของงานได้ เอเจนต์นี้สามารถโต้ตอบกับเอเจนต์เฉพาะทางเพื่อจัดหาผู้สมัครได้ ผู้ใช้ยังสามารถสั่งให้เอเจนต์กำหนดเวลาการสัมภาษณ์และให้เอเจนต์เฉพาะทางอื่นๆ ช่วยตรวจสอบประวัติ ทำให้สามารถสรรหาบุคลากรแบบอัตโนมัติและชาญฉลาดได้อย่างเต็มที่ในทุกระบบ
การโอบรับ Model Context Protocol (MCP)
Google ยังได้โอบรับ MCP หลังจากที่ OpenAI ประกาศการนำ Model Context Protocol (MCP) ของ Anthropic มาใช้ Google ก็ทำตามในเวลาต่อมา
Demis Hassabis ซีอีโอของ Google DeepMind ประกาศบน X (เดิมชื่อ Twitter) ว่า Google จะเพิ่มการสนับสนุนสำหรับ MCP ในโมเดล Gemini และ SDK แม้ว่าเขาจะไม่ได้ระบุไทม์ไลน์ที่เฉพาะเจาะจง
Hassabis กล่าวว่า ‘MCP เป็นโปรโตคอลที่ยอดเยี่ยมที่กำลังกลายเป็นมาตรฐานเปิดสำหรับยุคของเอเจนต์ AI อย่างรวดเร็ว เราหวังว่าจะได้ทำงานร่วมกับทีม MCP และพันธมิตรรายอื่นๆ ในอุตสาหกรรมเพื่อพัฒนาเทคโนโลยีนี้’
นับตั้งแต่เปิดตัวในเดือนพฤศจิกายน 2024 MCP ได้รับแรงฉุดอย่างมากในฐานะวิธีที่ง่ายและได้มาตรฐานในการเชื่อมต่อโมเดลภาษาเข้ากับเครื่องมือและข้อมูล
MCP ช่วยให้โมเดล AI สามารถเข้าถึงข้อมูลจากเครื่องมือและซอฟต์แวร์ขององค์กรเพื่อทำงานให้เสร็จสิ้นและเข้าถึงคลังเนื้อหาและสภาพแวดล้อมการพัฒนาแอปพลิเคชัน โปรโตคอลนี้ช่วยให้นักพัฒนาสามารถสร้างการเชื่อมต่อแบบสองทิศทางระหว่างแหล่งข้อมูลและแอปพลิเคชันที่ขับเคลื่อนด้วย AI เช่น แชทบอท
นักพัฒนาสามารถเปิดเผยอินเทอร์เฟซข้อมูลผ่านเซิร์ฟเวอร์ MCP และสร้างไคลเอนต์ MCP (เช่น แอปพลิเคชันและเวิร์กโฟลว์) เพื่อเชื่อมต่อกับเซิร์ฟเวอร์เหล่านี้ เนื่องจาก Anthropic เปิดแหล่งที่มาของ MCP หลายบริษัทจึงได้รวมการสนับสนุน MCP ไว้ในแพลตฟอร์มของตน
Ironwood: รุ่งอรุณแห่งยุคใหม่ใน AI
Ironwood TPU ของ Google แสดงถึงความก้าวหน้าครั้งสำคัญในการคำนวณ AI ประสิทธิภาพที่ไม่เคยมีมาก่อน สถาปัตยกรรมที่ปรับให้เหมาะสม และการสนับสนุนโปรโตคอลที่เกิดขึ้นใหม่ เช่น A2A และ MCP ทำให้เป็นตัวเปิดใช้งานที่สำคัญของคลื่นลูกใหม่ของนวัตกรรม AI เมื่อโมเดล AI เติบโตขึ้นเรื่อยๆ และมีความต้องการมากขึ้น Ironwood มอบพลังดิบและความยืดหยุ่นที่จำเป็นในการปลดล็อกความเป็นไปได้ใหม่ๆ และเปลี่ยนแปลงอุตสาหกรรมต่างๆ ทั่วโลก ไม่ใช่แค่ชิปตัวใหม่ แต่เป็นรากฐานสำหรับอนาคตที่ขับเคลื่อนโดยเครื่องจักรอัจฉริยะที่ทำงานร่วมกันเพื่อแก้ปัญหาที่ซับซ้อนและปรับปรุงชีวิตของเรา