Компании, занимающиеся разработкой передового искусственного интеллекта, не имеют надлежащих планов реагирования на потенциальные угрозы, связанные с созданием систем со способностями, сравнимыми с человеческим интеллектом. Такой вывод содержится в ежегодном отчете Института будущей жизни (Future of Life Institute, FLI), который передает The Guardian.
Согласно данным отчета, ни одна из ведущих технологических компаний, которые исследовались в рамках Индекса безопасности ИИ, не получила оценку выше D по направлению "экзистенциальная безопасность". Оценивались разработчики ведущих нейросетей, таких как Google DeepMind, OpenAI, Anthropic, Meta, xAI, Zhipu AI и DeepSeek.
"Отрасль принципиально не готова к собственным заявленным целям. Компании утверждают, что достигнут общего искусственного интеллекта (AGI) в течение десятилетия, однако ни одна из них не имеет четкого, действенного плана для обеспечения безопасности", - говорится в отчете.
[see_also ids="645332"]
Самую высокую общую оценку получила компания Anthropic - С+, далее OpenAI - С и Google DeepMind с оценкой С-. Ни одна из компаний не достигла уровня, который свидетельствовал бы о достаточной готовности к управлению системами AGI, которые могут выйти из-под контроля или вызвать масштабные последствия.
Профессор Массачусетского технологического института и соучредитель FLI Макс Тегмарк назвал ситуацию тревожной: "Это как строительство гигантской атомной электростанции в Нью-Йорке, и ее открытие уже на следующей неделе, но нет никакого плана предотвратить ее аварии".
В документе отмечается, что новые модели Grok 4 от xAI, Gemini 2.5 от Google и видеогенератор Veo3, свидетельствуют о значительном прогрессе в развитии возможностей ИИ. В то же время это усиливает актуальность вопроса безопасности, ведь компании теперь сами заявляют, что AGI может появиться не через десятилетия, а уже через несколько лет.
[see_also ids="645626"]
Еще один отчет, обнародованный аналитической организацией SaferAI, подтверждает выводы FLI. У компаний, работающих над развитием ИИ, "слабые или очень слабые практики управления рисками", а их текущий подход "неприемлем".
В ответ на отчет представители Google DeepMind заявили, что документ не отражает всего объема их усилий в сфере безопасности. Компания подчеркнула, что применяет "комплексный подход", который выходит за пределы показателей, зафиксированных в исследовании. Также The Guardian обратились за комментарием к OpenAI, Anthropic, Meta, xAI, Zhipu AI и DeepSeek, но ответа еще не получили.
FLI - это некоммерческая организация, занимающаяся продвижением безопасного использования передовых технологий. Оценка нейросетей осуществлялась группой независимых экспертов.
В нее вошли британский специалист по искусственному интеллекту Стюарт Рассел и основательница организации по регулированию ИИ Encode Justice Снеха Реванур.
Ранее упоминали фильм "Джонни Мнемоник" 1995 года как пророческий взгляд на современное техноустройство. Научно-фантастическая лента с Киану Ривзом в главной роли показывала мир будущего с имплантами памяти, цифровыми ассистентами и перенасыщением данными - фантастические темы, которые сейчас стали реальностью.