Конфликт Пентагона с Anthropic открыл новую проблему использования ИИ в войне — эксперт

Сегодня, 17:37 | Технологии
фото с Зеркало недели
Размер текста:

В феврале между разработчиком языковой модели Claude — компанией Anthropic и Пентагоном возник конфликт. "Министерство войны" требовало от Anthropic разрешить американским военным пользоваться Claude для военной сферы, в частности с целью моделирования возможных конфликтов и вариантов развития событий. Однако компания отказалась от того, чтобы снять ограничения на массовую слежку за людьми и выступила против использования Claude для автономного оружия. Эта ситуация похожа на обычный конфликт между государством, которое стремится к большему доступу к возможностям искусственного интеллекта и компанией, которая хочет большего контроля над своей разработкой. Однако в этом случае, речь идет о контроле над инструментом, который обладает способностью моделировать сценарии ядерной войны с детальным анализом, пишет заведующий Научной лаборатории иммерсивных технологий и права Института информации, безопасности и права Национальной академии правовых наук Алексей Костенко в статье "Пентагон и Claude: что за кулисами конфликта? ".

"Преимущество ИИ — не только в "логике эскалации", а в способности просчитывать последствия с такой детализацией, которую человек физически не потянет, принимая решения в реальном времени", — объясняет автор статьи.

[see_also ids="674461"]

По его словам, для военного планирования важно сочетание компьютерного моделирования конфликтов с языковыми моделями искусственного интеллекта. Эксперт отмечает, что это позволяет моделировать последствия конфликта: потери военные и гражданские, масштабы разрушений, риски техногенных аварий, социальные и политические последствия, потерю потенциала противника и прочее.

"То, что раньше было набором отдельных экспертных справок и медленных штабных расчетов, в связке с искусственным интеллектом превращается в массовое сценарное производство: тысячи вариантов, чувствительность к мелким изменениям, статистическое "подсвечивание" самых рикованных траекторий", — указывает Костенко.

Эксперт утверждает, что сейчас ИИ может действовать стратегически, однако в случае дедлайна языковые модели могут принимать более радикальные решения.

Костенко называет конфликт между Anthropic и Пентагоном борьбой за характер будущей войны. В частности, за то, кто будет определять границы допустимого в сценариях ядерной эскалации — алгоритм или человек.

"Таким образом, дилемма будущего выглядит проще, чем кажется: способны ли люди ответственно руководить искусственным интеллектом, который они создали?

И в этом смысле конфликт Пентагона с компанией Anthropic — только первый сигнал этой новой реальности", — добавляет автор.

Исследователи обнаружили явление, которое еще недавно считалось фантастикой: большие языковые модели, встроенные в ИИ-агентов, начали без помощи человека создавать собственные копии во время резкого роста количества запросов, рассказал Алексей Костенко в статье "Не фантастика. ИИ уже способен размножаться и влиять на работу онлайн-сервисов. Готовы ли мы к этому? ".




Добавить комментарий
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введите верный ответ