"Это выглядит не очень хорошо": Сэм Альтман назвал сделку OpenAI с Пентагоном поспешной

Сегодня, 11:10 | Технологии
фото с Зеркало недели
Размер текста:

Генеральный директор OpenAI Сэм Альтман признал, что соглашение с Министерством обороны США было заключено слишком быстро — сразу после запрета использования инструментов другого разработчика Anthropic. В то же время компания уже договорилась о развертывании своих моделей искусственного интеллекта в секретной сети ведомства.

Альтман заявил в соцсети X, что OpenAI стремилась к деэскалации отношений между правительством и технологической отраслью. Он признал риски для репутации компании, но считает партнерство с государством критически важным.

"Это точно было сделано в спешке, и выглядит не очень хорошо", — отметил Альтман, комментируя договоренности с Пентагоном.

[see_also ids="668389"]

По словам гендиректора OpenAI, компания рассчитывала, что соглашение поможет снизить напряжение между правительством и индустрией искусственного интеллекта. Он добавил: "Мы действительно хотели деэскалации ситуации, и считали предложенную сделку выгодной".

Альтман подчеркнул, что в случае успеха OpenAI будет выглядеть "гениями и компанией, которая приложила немало усилий, чтобы помочь отрасли". Однако в противном случае компанию и в дальнейшем будут считать "поспешной и неосторожной".

Компания подтвердила, что достигла соглашения с Министерством обороны США по развертыванию своих моделей в секретной сети ведомства. По словам Альтмана, во время переговоров министерство демонстрировало "глубокое уважение к безопасности и желание сотрудничать для достижения наилучшего возможного результата".

[see_also ids="674210"]

OpenAI отмечает, что основой ее миссии остаются безопасность искусственного интеллекта и широкое распределение его преимуществ. Два ключевых принципа, которых требовала и запрещена Anthropic, — блокирование использования искусственного интеллекта в массовом внутреннем наблюдении и обязательная ответственность человека за применение силы, в частности в автономных системах вооружения — включены в соглашение.

Компания также создаст технические предохранители для надлежащей работы моделей и будет разворачивать их только в облачных сетях. Отдельно будет применяться FDE для поддержки моделей и обеспечения их безопасности.

"Я считаю, что хорошие отношения между правительством и компаниями, которые разрабатывают эту технологию, будут критически важными в течение следующих нескольких лет", — подытожил Альтман.

Еще в начале февраля Пентагон инициировал переговоры с лидерами рынка ИИ с требованием убрать стандартные этические и безопасностные ограничения для инструментов, которые разворачиваются в секретных военных сетях.

Военное руководство стремится использовать искусственный интеллект для планирования боевых миссий и определения целей, настаивая на праве применять коммерческие технологии без барьеров, предусмотренных для гражданских пользователей.

В то же время компания Anthropic вступила в открытое противостояние с Пентагоном, отказавшись снять ограничения на использование своей модели Claude для массового внутреннего слежения и создания полностью автономного оружия. В ответ Министерство обороны США угрожало разорвать контракты, применить Закон об оборонном производстве (DPA) для принудительного снятия лимитов или даже официально признать американскую компанию "риском для цепи поставок".




Добавить комментарий
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введите верный ответ