Навигация по лабиринту регулирования: призыв к единству (и упреждению)
Общей нитью, проходящей через предложения нескольких крупных AI-фирм, является ощутимая озабоченность по поводу растущей лоскутной системы регулирования ИИ на уровне штатов. OpenAI, создатель ChatGPT, прямо призвал к спасению от того, что он воспринимает как надвигающийся потоп из более чем 700 разрозненных законопроектов, находящихся в настоящее время на рассмотрении на уровне штатов. Однако предлагаемое OpenAI решение — это не федеральное законодательство, а узкая, добровольная структура. Эта структура, что крайне важно, будет иметь преимущественную силу над правилами штатов, предлагая AI-компаниям своего рода безопасную гавань. В обмен на эту защиту компании получат доступ к выгодным государственным контрактам и будут получать заблаговременные предупреждения о потенциальных угрозах безопасности. Правительство, в свою очередь, будет уполномочено тестировать возможности новых моделей и сравнивать их с зарубежными аналогами.
Google вторит этому мнению, выступая за преимущество законов штатов с помощью “единой национальной структуры для передовых моделей ИИ”. Эта структура, по мнению Google, должна уделять первоочередное внимание национальной безопасности, одновременно создавая среду, способствующую инновациям в области американского ИИ. Однако, в отличие от OpenAI, Google не выступает против федерального регулирования ИИ, при условии, что оно сосредоточено на конкретных применениях технологии. Ключевым предостережением для Google является то, что разработчики ИИ не должны нести ответственность за неправильное использование их инструментов другими лицами. Google также воспользовался возможностью, чтобы настаивать на новой федеральной политике конфиденциальности, утверждая, что она влияет на индустрию ИИ.
Помимо внутреннего регулирования, Google призывает администрацию США активно взаимодействовать с другими правительствами по вопросам законодательства об ИИ. Компания особо предостерегает от законов, которые могут заставить компании раскрывать коммерческую тайну. Она предусматривает международную норму, согласно которой только правительство страны, в которой находится компания, будет иметь право проводить глубокую оценку ее моделей ИИ.
Китайский вызов: экспортный контроль и стратегическая конкуренция
Призрак стремительного развития Китая в области ИИ вырисовывается в предложениях всех основных игроков. Правило “распространения ИИ”, введенное администрацией Байдена в январе 2024 года для ограничения доступа Китая к передовым американским технологиям, стало центром дебатов. Хотя все компании признали существование этого правила, их предлагаемые изменения показывают совершенно разные подходы.
OpenAI предлагает стратегию “коммерческой дипломатии”. Она предлагает расширить верхний уровень правила, который в настоящее время разрешает неограниченный импорт американских чипов ИИ, включив в него больше стран. Условие? Эти страны должны взять на себя обязательства по “демократическим принципам ИИ”, развертывая системы ИИ таким образом, чтобы “способствовать большей свободе для своих граждан”. Этот подход направлен на использование технологического лидерства США для стимулирования принятия согласованного с ценностями управления ИИ во всем мире.
Microsoft разделяет стремление OpenAI расширить верхний уровень Правила распространения. Однако Microsoft также подчеркивает необходимость усиления правоприменения. Она призывает к увеличению ресурсов для Министерства торговли, чтобы гарантировать, что передовые чипы ИИ экспортируются и развертываются только в центрах обработки данных, сертифицированных правительством США как надежные и безопасные. Эта мера направлена на то, чтобы помешать китайским компаниям обходить ограничения, получая доступ к мощным чипам ИИ через растущий “серый рынок” небольших, менее тщательно проверяемых поставщиков центров обработки данных в Азии и на Ближнем Востоке.
Anthropic, разработчик модели Claude AI, выступает за еще более жесткий контроль над странами второго уровня правила распространения ИИ, в частности, ограничивая их доступ к чипам Nvidia H100. Кроме того, Anthropic призывает США расширить экспортный контроль, включив в него чипы Nvidia H20, которые были специально разработаны для китайского рынка в соответствии с существующими правилами США. Это демонстрирует более ястребиную позицию Anthropic в отношении предотвращения приобретения Китаем любых технологий, которые могли бы укрепить его возможности в области ИИ.
Google, заметно отличаясь от своих конкурентов, выражает прямое несогласие с правилом распространения ИИ. Признавая обоснованность его целей национальной безопасности, Google утверждает, что это правило налагает “непропорциональное бремя на американских поставщиков облачных услуг”. Эта позиция отражает более широкую озабоченность Google по поводу того, что правила могут задушить инновации и помешать ее глобальной конкурентоспособности.
Помимо правила распространения, OpenAI еще больше повышает ставки, предлагая глобальный запрет на чипы Huawei и китайские “модели, которые нарушают конфиденциальность пользователей и создают риски безопасности, такие как риск кражи интеллектуальной собственности”. Это также широко интерпретируется как выпад в сторону DeepSeek.
Авторское право и топливо для ИИ: навигация по интеллектуальной собственности
Щекотливый вопрос авторского права, особенно в контексте обучения моделей ИИ, также привлекает значительное внимание. OpenAI, явно критикуя европейский Закон об ИИ, критикует положение, которое предоставляет правообладателям возможность отказаться от использования своих произведений для обучения ИИ. OpenAI призывает администрацию США “не допустить, чтобы менее инновационные страны навязывали свои правовые режимы американским фирмам, занимающимся ИИ, и замедляли темпы нашего прогресса”. Эта позиция отражает убежденность OpenAI в том, что неограниченный доступ к данным имеет решающее значение для сохранения конкурентного преимущества США в области ИИ.
Google, с другой стороны, призывает к “сбалансированным законам об авторском праве”, а также к законам о конфиденциальности, которые автоматически предоставляют исключение для общедоступной информации. Это предполагает более тонкий подход, признающий права создателей, но также признающий важность данных для развития ИИ. Google также предлагает пересмотреть “патенты на ИИ, выданные по ошибке”, подчеркивая растущее число патентов на ИИ в США, приобретаемых китайскими компаниями.
Обеспечение будущего: инфраструктура и энергетические потребности
Огромная вычислительная мощность, необходимая для обучения и эксплуатации передовых моделей ИИ, требует значительного расширения инфраструктуры и энергетических ресурсов. OpenAI, Anthropic и Google выступают за упрощение процесса выдачи разрешений на строительство линий электропередач, стремясь ускорить создание энергетической инфраструктуры для поддержки новых центров обработки данных ИИ.
Anthropic занимает особенно смелую позицию, призывая к дополнительным 50 гигаваттам энергии в США, исключительно для использования ИИ, к 2027 году. Это подчеркивает огромные энергетические потребности быстро развивающейся области ИИ и потенциал того, что ИИ станет основным фактором потребления энергии.
Безопасность, внедрение в правительстве и государство, управляемое ИИ
В предложениях также рассматривается пересечение ИИ, национальной безопасности и государственных операций. OpenAI предлагает ускорить утверждение кибербезопасности для лучших инструментов ИИ, что позволит правительственным учреждениям более охотно тестировать и развертывать их. Она также предлагает государственно-частные партнерства для разработки моделей ИИ, ориентированных на национальную безопасность, которые могут не иметь жизнеспособного коммерческого рынка, например, моделей, предназначенных для секретных ядерных задач.
Anthropic вторит призыву к ускорению процедур закупок для интеграции ИИ в государственные функции. Примечательно, что Anthropic также подчеркивает важность надежных ролей оценки безопасности для Национального института стандартов и технологий (NIST) и Института безопасности ИИ США.
Google утверждает, что агентствам национальной безопасности должно быть разрешено использовать коммерческие ресурсы хранения и вычислений для своих нужд в области ИИ. Она также выступает за то, чтобы правительство опубликовало свои наборы данных для коммерческого обучения ИИ и ввело обязательные открытые стандарты данных и API для различных государственных облачных развертываний, чтобы облегчить “аналитику на основе ИИ”.
Социальное воздействие: рынки труда и трансформация, управляемая ИИ
Наконец, в предложениях затрагиваются более широкие социальные последствия ИИ, в частности, его потенциальное влияние на рынки труда. Anthropic призывает администрацию внимательно следить за тенденциями на рынке труда и готовиться к значительным сбоям. Google также признает, что грядут сдвиги, подчеркивая необходимость более широкого развития навыков в области ИИ. Google также запрашивает увеличение финансирования исследований в области ИИ и политику, гарантирующую, что американские исследователи будут иметь адекватный доступ к вычислительным мощностям, данным и моделям.
По сути, предложения к “Плану действий в областиИИ” рисуют картину отрасли, находящейся в поворотном моменте. Будучи едины в своем стремлении к развитию технологии ИИ, ведущие американские компании придерживаются принципиально разных взглядов на то, как решать сложные задачи регулирования, международной конкуренции и социального воздействия. Ближайшие месяцы и годы покажут, как эти расходящиеся взгляды сформируют будущее ИИ не только в Соединенных Штатах, но и во всем мире.