Anthropic отказывается от строгой политики безопасности ИИ "из-за конкурентов"

Сегодня, 10:16 | Технологии
фото с Зеркало недели
Размер текста:

Американская компания Anthropic объявила о смягчении своей ключевой политики безопасности искусственного интеллекта. Решение объясняют ростом конкурентного давления и отсутствием федерального регулирования в США. Изменения происходят на фоне противостояния с Пентагоном и кадровых потерь в сфере безопасности, сообщает The Wall Street Journal.

Компания Anthropic заявила, что обновляет базовую политику безопасности, чтобы оставаться конкурентоспособной среди ведущих разработчиков ИИ. Ранее она приостанавливала разработку моделей, если их классифицировали как опасные, однако теперь откажется от этой практики, если конкурент выпустит сопоставимую или более мощную систему.

Это решение означает отказ от подхода Anthropic, который в течение последних 2,5 лет представлял разработчика как одного из самых ориентированных на безопасность игроков рынка. Компания сталкивается с жесткой конкуренцией со стороны OpenAI, xAI Илона Маска и Google, которые регулярно представляют новые инструменты без ограничений.

[see_also ids="673612"]

Anthropic также находится в споре с Министерством обороны США относительно использования модели Claude. Ранее компания сообщила Пентагону, что ее инструменты не могут применяться для внутреннего наблюдения или автономного оружия. Министр обороны Пит Гегсет дал компании время до пятницы, 27 февраля, для смягчения политики, иначе она может потерять контракт.

"Политическая среда сместилась в сторону определения приоритетов конкурентоспособности ИИ и экономического роста, тогда как дискуссии, ориентированные на безопасность, еще не получили значимой тяги на федеральном уровне", — говорится в блоге Anthropic.

Пресс-служба компании заявила Time, что новая политика должна помочь работать в условиях неравномерного регуляторного поля и что она не связана с переговорами с Пентагоном. В то же время Anthropic пообещала регулярно публиковать цели безопасности и отчеты о рисках своих моделей с привлечением независимой оценки.

[see_also ids="672237"]

В последние недели несколько исследователей покинули Anthropic и другие ИИ-компании, заявляя, что вопросы безопасности отходят на второй план на фоне привлечения миллиардов долларов и подготовки к IPO. В начале февраля исследователь безопасности Мринанка Шарма сообщил об уходе из Anthropic, написав коллегам, что "мир находится под угрозой" из-за развития ИИ и других опасностей. По словам источников, его решение частично было связано с изменением политики компании.

Anthropic основали в 2021 году после того, как Дарио Амодеи и другие соучредители покинули OpenAI, опасаясь недостаточного внимания к безопасности. В 2022 году Амодей отказался выпускать раннюю версию Claude, опасаясь начала опасной технологической гонки, тогда как OpenAI через несколько недель представила ChatGPT, что заставило Anthropic догонять конкурентов.



Генеральный директор Anthropic Дарио Амодей еще в конце прошлого месяца опубликовал эссе со строгим предупреждением о приближении критически опасного этапа в развитии искусственного интеллекта. По его прогнозам, уже через несколько лет ИИ превзойдет человеческий разум, что грозит миру массовой безработицей, биотерроризмом и небывалым усилением авторитарных режимов. Чтобы избежать катастрофы, разработчик призывает правительства и сами технологические корпорации "проснуться" и взять этот процесс под контроль.




Добавить комментарий
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введите верный ответ