Ландшафт искусственного интеллекта преобразился с появлением Tensor Processing Unit (TPU) седьмого поколения от Google, получившего название Ironwood. Этот передовой ускоритель AI обладает вычислительной мощностью, которая затмевает даже самые мощные суперкомпьютеры в мире. В крупномасштабном развертывании возможности Ironwood превосходят возможности самого быстрого суперкомпьютера в 24 раза.
Презентация Ironwood на мероприятии Google Cloud Next ‘25 знаменует собой поворотный момент в десятилетнем стремлении Google к инновациям в области чипов AI. В то время как предыдущие итерации TPU в основном обслуживали рабочие нагрузки обучения и логического вывода моделей AI, Ironwood выделяется как первый чип, тщательно разработанный и оптимизированный для задач логического вывода.
По словам Амина Вахдата, вице-президента и генерального менеджера машинного обучения, систем и Cloud AI в Google, ‘Ironwood спроектирован для продвижения следующего этапа генеративного AI, решая его огромные вычислительные и коммуникационные потребности. Мы вступаем в то, что мы называем ‘Эрой логического вывода’, где агенты AI будут активно извлекать и генерировать данные для совместной доставки идей и ответов, превосходя возможности простой обработки данных’.
Раскрытие беспрецедентной вычислительной мощности: погружение в возможности Ironwood
Технические характеристики Ironwood читаются как список пожеланий для исследователей и разработчиков AI. Масштабируясь до модуля из 9216 чипов, Ironwood обеспечивает поразительные 42,5 эксафлопс вычислений AI. Чтобы представить это в перспективе, он значительно превосходит возможности нынешнего правящего чемпиона суперкомпьютеров, El Capitan, который достигает пика в 1,7 эксафлопс. Индивидуально каждый чип Ironwood может похвастаться пиковой вычислительной мощностью в 4614 TFLOPs.
Помимо необработанной вычислительной мощности, Ironwood представляет значительные улучшения в памяти и пропускной способности. Каждый чип оснащен 192 ГБ памяти High Bandwidth Memory (HBM), что в шесть раз больше по сравнению с TPU предыдущего поколения, Trillium. Пропускная способность памяти также была значительно улучшена, достигнув 7,2 терабит/с на чип, что в 4,5 раза больше, чем у Trillium.
В эпоху, когда центры обработки данных расширяются, а энергопотребление становится все более важным фактором, Ironwood демонстрирует замечательную энергоэффективность. Его производительность на ватт вдвое выше, чем у Trillium, и почти в 30 раз выше, чем у первого TPU, представленного в 2018 году.
Этот сдвиг в сторону оптимизации логического вывода представляет собой важную веху в эволюции AI. В последние годы ведущие лаборатории AI сосредоточились на создании базовых моделей с постоянно расширяющимся количеством параметров. Акцент Google на оптимизации логического вывода сигнализирует о сдвиге в сторону приоритезации эффективности развертывания и возможностей логического вывода в реальном мире.
В то время как обучение моделей AI является относительно нечастым занятием, операции логического вывода происходят миллиарды раз в день, поскольку технологии AI становятся все более распространенными. Экономическая жизнеспособность предприятий, использующих AI, неразрывно связана с затратами на логический вывод, особенно по мере того, как модели становятся все более сложными.
За последние восемь лет потребность Google в вычислениях AI росла в геометрической прогрессии, увеличившись в десять раз и достигнув поразительных 100 миллионов. Без специализированных архитектур, таких как Ironwood, закон Мура сам по себе не может поддерживать эту траекторию роста.
Особого внимания заслуживает акцент Google на ‘моделях рассуждения’, способных выполнять сложные задачи логического вывода, а не просто распознавать образы. Это говорит о том, что Google видит будущее, в котором AI превосходит не только благодаря более крупным моделям, но и благодаря моделям, способным разбивать проблемы, выполнять многоступенчатые рассуждения и имитировать человеческие мыслительные процессы.
Поддержка следующего поколения больших языковых моделей
Google позиционирует Ironwood как базовую инфраструктуру для своих самых передовых моделей AI, включая Gemini 2.5, которая может похвастаться ‘собственными возможностями рассуждения’.
Наряду с Ironwood Google представила Gemini 2.5 Flash, оптимизированную версию своей флагманской модели, предназначенную для повседневных приложений, чувствительных к задержкам. Gemini 2.5 Flash может динамически регулировать глубину своего рассуждения в зависимости от сложности запроса.
Google также продемонстрировала свой набор мультимодальных генеративных моделей, охватывающих текст в изображение, текст в видео и недавно представленную функцию преобразования текста в музыку Lyria. Убедительная демонстрация показала, как эти инструменты можно объединить для создания полноценного рекламного видеоролика для концерта.
Ironwood — это всего лишь один компонент комплексной стратегии инфраструктуры AI Google. Компания также представила Cloud WAN, управляемую службу глобальной сети, которая позволяет предприятиям использовать частную сетевую инфраструктуру Google глобального масштаба.
Google также расширяет свои программные предложения для рабочих нагрузок AI, включая Pathways, среду выполнения машинного обучения, разработанную Google DeepMind, которая позволяет клиентам масштабировать обслуживание моделей на сотнях TPU.
Видение совместного интеллекта: представление поддержки A2A и MCP
Помимо аппаратных достижений, Google сформулировала свое видение AI, ориентированное на мультиагентные системы, и представила протокол Agent-to-Agent (A2A), предназначенный для содействия безопасной и стандартизированной связи между различными агентами AI.
Google прогнозирует, что 2025 год станет годом преобразований для AI, когда генеративные приложения AI будут развиваться от ответов на отдельные вопросы к решению сложных проблем с помощью взаимосвязанных агентских систем.
Протокол A2A обеспечивает функциональную совместимость между платформами и фреймворками, предоставляя агентам AI общий ‘язык’ и безопасные каналы связи. Думайте об этом как об уровне сети для агентов AI, упрощающем сотрудничество в сложных рабочих процессах и позволяющем специализированным агентам AI коллективно решать задачи различной сложности и продолжительности, тем самым повышая общие возможности посредством сотрудничества.
Как работает A2A
Google предоставила сравнительный обзор протоколов MCP и A2A:
- MCP (Model Context Protocol): Сосредоточен на управлении инструментами и ресурсами.
- Соединяет агентов с инструментами, API и ресурсами через структурированный ввод/вывод.
- Google ADK поддерживает инструменты MCP, облегчая беспрепятственное взаимодействие между серверами MCP и агентами.
- A2A (Agent2Agent Protocol): Облегчает сотрудничество между агентами.
- Обеспечивает динамическую мультимодальную связь между агентами, не требуя общей памяти, ресурсов или инструментов.
- Это открытый стандарт, управляемый сообществом.
- Примеры можно изучить с помощью таких инструментов, как Google ADK, LangGraph и Crew.AI.
A2A и MCP дополняют друг друга. MCP предоставляет агентам инструменты, а A2A позволяет этим оснащенным агентам общаться и сотрудничать.
Первоначальный список партнеров Google предполагает, что A2A получит такое же внимание, как и MCP. Инициатива уже привлекла более 50 организаций, включая ведущие технологические компании и глобальных поставщиков консалтинговых услуг и системной интеграции.
Google подчеркивает открытость протокола, позиционируя его как стандарт для межведомственного сотрудничества, который выходит за рамки базовых технологических фреймворков или поставщиков услуг. Google выделила пять руководящих принципов, которые определили разработку протокола:
- Поддержка возможностей агента: A2A отдает приоритет предоставлению агентам возможности сотрудничать естественным образом, даже не обмениваясь памятью, инструментами или контекстом. Цель состоит в том, чтобы обеспечить реальные сценарии с участием нескольких агентов, а не просто ограничивать агентов, выступающих в качестве ‘инструментов’.
- Основываться на существующих стандартах: Протокол использует существующие, широко распространенные стандарты, включая HTTP, SSE и JSON-RPC, что упрощает интеграцию с существующими ИТ-стеками.
- Безопасность по умолчанию: A2A разработан для поддержки аутентификации и авторизации корпоративного уровня, сравнимой со схемами аутентификации OpenAPI.
- Поддержка долгосрочных задач: Гибкость A2A позволяет поддерживать широкий спектр сценариев, от быстрых задач до углубленных исследований, которые могут занять часы или даже дни (особенно когда необходимо участие человека). На протяжении всего процесса A2A может предоставлять пользователям обратную связь в режиме реального времени, уведомления и обновления статуса.
- Агностик модальности: Признавая, что мир агентов выходит за рамки текста, A2A поддерживает различные модальности, включая аудио- и видеопотоки.
Google привела пример того, как A2A упрощает процесс найма.
В унифицированном интерфейсе, таком как Agentspace, менеджер по найму может назначить агента для выявления подходящих кандидатов на основе требований к работе. Этот агент может взаимодействовать со специализированными агентами для поиска кандидатов. Пользователи также могут поручить агентам планировать собеседования и привлекать других специализированных агентов для оказания помощи в проверке биографических данных, что позволяет полностью автоматизировать и интеллектуально подходить к набору персонала в разных системах.
Внедрение протокола контекста модели (MCP)
Google также внедряет MCP. Вскоре после того, как OpenAI объявила о принятии протокола контекста модели (MCP) Anthropic, Google последовала ее примеру.
Демис Хассабис, генеральный директор Google DeepMind, объявил в X (ранее Twitter), что Google добавит поддержку MCP в свои модели и SDK Gemini, хотя он не указал конкретные сроки.
Хассабис заявил, что ‘MCP — отличный протокол, который быстро становится открытым стандартом для эпохи агентов AI. Мы с нетерпением ждем возможности сотрудничать с командой MCP и другими партнерами в отрасли для развития этой технологии’.
С момента своего выпуска в ноябре 2024 года MCP приобрел значительную популярность как простой стандартизированный способ подключения языковых моделей к инструментам и данным.
MCP позволяет моделям AI получать доступ к данным из корпоративных инструментов и программного обеспечения для выполнения задач и доступа к библиотекам контента и средам разработки приложений. Протокол позволяет разработчикам устанавливать двунаправленные соединения между источниками данных и приложениями на базе AI, такими как чат-боты.
Разработчики могут предоставлять интерфейсы данных через серверы MCP и создавать клиенты MCP (такие как приложения и рабочие процессы) для подключения к этим серверам. С тех пор, как Anthropic предоставила MCP с открытым исходным кодом, несколько компаний интегрировали поддержку MCP в свои платформы.
Ironwood: Заря новой эры в AI
Ironwood TPU от Google представляет собой значительный скачок вперед в вычислениях AI. Его беспрецедентная производительность, оптимизированная архитектура и поддержка новых протоколов, таких как A2A и MCP, делают его ключевым фактором следующей волны инноваций в области AI. Поскольку модели AI становятся все более сложными и требовательными, Ironwood обеспечивает необходимую необработанную мощность и гибкость для раскрытия новых возможностей и преобразования отраслей по всему миру. Это не просто новый чип; это основа для будущего, основанного на интеллектуальных машинах, работающих совместно для решения сложных проблем и улучшения нашей жизни.