Искусственный интеллект на грани: Пентагон грозит разорвать контракт из-за «опасных» ограничений Anthropic
Пентагон и Anthropic зашли в тупик из-за условий использования Claude в военных задачах
Generated by DALL·E
Американский Пентагон и разработчик ИИ Anthropic спорят о том, как военные могут применять модель Claude, созданную компанией из Сан-Франциско. Суть разногласий — не в том, использовать ли ИИ вообще, а в том, какие условия на это накладывать.
Что требует Пентагон
Пентагон настаивает, что любые системы искусственного интеллекта, с которыми он работает, должны быть доступны для «всех законных целей» армии. Это включает в себя возможность применения в задачах, связанных с национальной безопасностью, которые могли бы выходить за рамки стандартных корпоративных ограничений.
По словам официальных представителей оборонного ведомства, если партнер не готов предоставить такую гибкость, это может стать препятствием для дальнейшего сотрудничества в ключевых оборонных проектах.
Жесткая позиция Anthropic
Anthropic, в свою очередь, стоит на этических принципах использования собственной технологии. Компания установила строгие правила, которые исключают применение Claude для автономных систем оружия или широкомасштабной слежки над гражданами без участия человека. Эти условия стали центральным камнем преткновения с военными.
Руководство стартапа не отрицает важности поддержки национальной безопасности, но подчеркивает, что соблюдение этических норм — ключевой фактор в разработке ИИ, особенно когда речь идет о применении технологий в контексте человеческих жизней.
Контракт под угрозой
На кону стоит контракт между Anthropic и Министерством обороны США стоимостью до $200 млн, подписанный прошлым летом. Он предусматривал интеграцию Claude в ряд оборонных систем, но сейчас оказался в подвешенном состоянии из-за принципиальных разногласий.
Высокопоставленные лица в Пентагоне дают понять, что, если условия не будут пересмотрены, власти могут отказаться от сотрудничества с компанией, а также запретить использование её технологии партнерам военного ведомства.
Более широкие последствия
Данный спор отражает более глубокий разрыв между стремлением технологических компаний к контролю над этическими аспектами ИИ и реальными потребностями оборонного сектора, где приоритетом считаются оперативность и универсальность.
Это также поднимает более широкие вопросы о том, кто и как должен определять границы применения мощных ИИ-систем — сами разработчики, государственные учреждения или законодатели.