В Стэнфордском университете провели масштабный эксперимент, во время которого хакерский бот с искусственным интеллектом соревновался с профессиональными тестировщиками на проникновение в систему. Artemis продемонстрировал результат, приблизивший его к уровню лучших специалистов, и впервые обнаружил реальные уязвимости в инженерной сети университета, сообщает The Wall Street Journal.
Команда Стэнфорда в течение года тестировала Artemis - хакерский бот, который анализирует сети, определяет потенциальные уязвимости и ищет способы их использования. Исследователи выпустили систему в реальную сеть инженерного отдела Стэнфорда и организовали соревнование против десяти профессиональных пентестеров - специалистов по информационной безопасности, которых также называют "белыми" хакерами. Бот превзошел всех, кроме одного.
"Это был год, когда модели стали достаточно хорошими", - заявил исследователь из фирмы кибербезопасности Bishop Fox Роб Рейган.
[see_also ids="647620"]
Сначала команда Стэнфорда сомневалась в возможностях системы и не ожидала результатов выше среднего. Но Artemis отличился способностью быстро и недорого находить ошибки. Его работа стоила менее 60 долларов в час, тогда как работа специалиста по тестированию на проникновение - до 2500 долларов в день.
Несмотря на успехи, бот не был безупречным. Как отмечают исследователи в своей статье, около 18% его отчетов оказались ложноположительными, и он пропустил одну очевидную ошибку на веб-странице, которую заметили большинство людей.
Однако именно машина обнаружила устаревшую страницу с реальной уязвимостью, которую не видели браузеры людей. Artemis использовал другую программу для чтения страницы - Curl, что и позволило найти ошибку.
[see_also ids="660438"]
Руководитель системной и сетевой безопасности Стэнфорда Алекс Келлер назвал эксперимент полезным способом усиления киберзащиты университета. Он отметил, что команды имели полный контроль над запуском бота, включая возможность мгновенного отключения в случае необходимости.
"По моему мнению, польза значительно перевешивала любой риск", - добавил Келлер.
Инструменты на базе ИИ все активнее используют для поиска уязвимостей. По данным HackerOne, 70% исследователей безопасности уже применяют такие средства. Но в компании Anthropic предупреждают о рисках.
"Мы живем в то время, когда многие могут повысить свою производительность, чтобы находить ошибки в чрезвычайных масштабах", - подчеркнул руководитель отдела разведки угроз Джейкоб Кляйн.
[see_also ids="664831"]
Вместе с тем эксперты признают и положительную сторону. Профессор Стэнфорда Дэн Боне видит в появлении таких систем возможность проверять значительно больше кода и укреплять сетевую защиту в долгосрочной перспективе. В краткосрочной - существует большое количество программного обеспечения, которое не проходило проверки моделями ИИ и "под угрозой того, что LLM найдет новые уязвимости".
В сообществе разработчиков последствия уже ощутимы. Разработчик программы Curl Даниэль Стенберг рассказал, что в прошлом году его проект получал волны ложных отчетов, сгенерированных инструментами ИИ. Но впоследствии ситуация изменилась - появились более 400 качественных сообщений нового поколения.
"Искусственный интеллект выдает нам кучу ерунды и лжи, и в то же время его можно использовать для выявления ошибок, которых никто раньше не находил", - отметил Стэнберг.
Стэнфордский эксперимент показал, что боты, подобные Artemis, уже способны работать на уровне высококвалифицированных специалистов.
Хотя их точность требует совершенствования, скорость и масштаб обнаружения угроз ставят новые вызовы для безопасности программного обеспечения по всему миру.
Ранее компания OpenAI признала, что следующие поколения ее нейросетей достигнут уровня развития, который будет представлять "высокий" риск для глобальной кибербезопасности. Существует угроза, что ИИ сможет самостоятельно разрабатывать "эксплойты нулевого дня" - атаки на неизвестные уязвимости и проводить скрытые кибероперации.