- Пентестер Роб Шапланд с помощью звонка и дипфейка голоса CEO получил доступ к почте генерального директора.
- Голос CEO был сгенерирован нейросетью на основе открытых аудиозаписей с YouTube.
- Исследователь предупреждает, что ИИ усиливает классические методы социальной инженерии, делая атаки более опасными и реалистичными.
Исследователь в области кибербезопасности Роб Шапланд продемонстрировал уязвимость корпоративных систем защиты, используя комбинацию искусственного интеллекта и классических приёмов социальной инженерии. Целью пентеста стал взлом почты генерального директора компании, что было достигнуто всего лишь с помощью одного звонка в службу поддержки.
Ключевым элементом атаки стало клонирование голоса CEO с помощью нейросети. Для создания дипфейка Шапланд использовал открытые данные — аудиозапись персонажа с промо-видео компании на платформе YouTube. Фрагмент записи длиной около пяти минут был загружен в сервис ElevenLabs, который сгенерировал реалистичную копию голоса, а диапазон около десяти секунд аудио, по словам исследователя, уже позволяет получить убедительный результат.
Далее сгенерированный голос был интегрирован с ChatGPT — искусственным интеллектом для генерации текста, который выполнял роль «диалога» с сотрудниками службы поддержки. Таким образом, звонок проходил в автоматическом режиме, и запрос на сброс пароля был одобрен. Это позволило получить полный доступ к почтовому ящику CEO.
Шапланд обращает внимание, что сочетание ИИ-инструментов и классических методов социальной инженерии значительно усиливает эффективность атак. Он отмечает, что на данный момент индустрия безопасности несколько недооценивает масштабы использования искусственного интеллекта в преступных целях, однако ожидает, что уже в ближайшем будущем ситуация кардинально изменится. В частности, исследователь предупреждает о перспективах появления практически неотличимых от настоящих дипфейков видеоконференций и других сложных форм атак.
Кроме того, исследователь делится практическими примерами своих атак: изучив профили сотрудников в социальных сетях, он создаёт целенаправленные фишинговые письма с вредоносными вложениями, запускающими загрузку вредоносного ПО. Различные биометрические системы распознавания, как отмечает Шапланд, используются редко — компании чаще полагаются на пропуска и карты доступа, которые также подвержены взлому.
В контексте угроз от дипфейков YouTube недавно предупредил авторов контента об атаке, в рамках которой мошенники распространяли видео с синтезированным голосом генерального директора платформы Нила Мохана, якобы сообщающего о новых правилах монетизации. Это подтверждает растущую актуальность проблемы и необходимость усиления мер кибербезопасности в эпоху развития ИИ.
Шапланд подчёркивает, что современное обучение сотрудников кибербезопасности стало формальным и неэффективным, теряя свою практическую значимость. По его мнению, компании необходимо серьёзно пересмотреть подходы к подготовке персонала, чтобы максимально снизить риски успешных сложных атак с применением искусственного интеллекта и методов социальной инженерии.
