Министерство обороны США рассматривает возможность прекращения сотрудничества с компанией Anthropic из-за разногласий относительно условий использования ее моделей искусственного интеллекта. Пентагон настаивает на праве применять инструменты для "всех законных целей", включая чувствительные военные сферы. Anthropic отказывается снимать ограничения по использованию ИИ в автономном оружии и массовом наблюдении, сообщает Axios.
Пентагон может сократить или полностью разорвать партнерство с Anthropic после месяцев сложных переговоров, сообщил высокопоставленный чиновник администрации изданию Axios. Причиной стало нежелание компании разрешить использование ее моделей для всех направлений военной деятельности без исключений.
Военное ведомство требует от четырех ведущих лабораторий ИИ разрешить применение их инструментов для "всех законных целей", включая разработку вооружений, разведку и боевые операции. Anthropic настаивает, что две категории остаются закрытыми — массовое наблюдение за американцами и полностью автономное оружие.
[see_also ids="668389"]
По словам чиновника, существует "значительная серая зона" относительно того, что именно подпадает под эти ограничения, и Пентагону неудобно согласовывать отдельные сценарии использования или рисковать блокировкой программ со стороны модели Claude. "Все обсуждается", включая сокращение партнерства или полное его расторжение, отметил чиновник и добавил: "Но им придется найти упорядоченную замену, если мы считаем, что это правильное решение".
Представитель Anthropic заявил, что компания остается "преданной использованию искусственного интеллекта на границе для поддержки национальной безопасности США". Он также подчеркнул, что Anthropic "не обсуждала использование Claude для конкретных операций с Министерством обороны" и не вела таких дискуссий с отраслевыми партнерами, кроме технических вопросов.
Прошлым летом Anthropic заключила с Пентагоном контракт на сумму до 200 млн долларов, а Claude стал первой моделью, развернутой в засекреченных сетях ведомства. ChatGPT от OpenAI, Gemini от Google и Grok от xAI работают в несекретной среде и согласились снять стандартные ограничения для сотрудничества с Пентагоном.
[see_also ids="671648"]
Министерство обороны ведет с этими компаниями переговоры о переходе к засекреченному пространству и продвигает стандарт "все цели законны" для любого использования. По словам чиновника, одна из компаний уже согласилась на эти условия, а две другие продемонстрировали большую гибкость, чем Anthropic.
Anthropic известна принципиальной позицией по использованию и регулированию искусственного интеллекта.
Генеральный директор компании Дарио Амодей призвал мир "немедленно проснуться", поскольку сверхмощный искусственный интеллект может превзойти человеческие возможности уже через один-два года, неся с собой значительные угрозы. Он раскритиковал правительства и техногигантов за игнорирование опасности усиления цифрового авторитаризма ради получения прибыли от индустрии.
Недавно Anthropic также заявила, что выделит 20 миллионов долларов политической группе Public First Action. Таким образом она поддержит американских кандидатов, выступающих за жесткое регулирование искусственного интеллекта и сохранение права штатов на собственные законодательные инициативы в этой сфере.