Как ИИ помогают хакерам и специалистам по ИБ
В прошлом году хакерам удалось интегрировать системы искусственного интеллекта в схему создания полиморфных вирусов.
Прошедший год в IT-сфере ознаменовал прорыв в технологиях искусственного интеллекта – решения на основе ИИ активно внедряются в рабочие процессы разных компаний. Функции ИИ активно применяются как в общении с пользователями, так и в написании кода. Растет роль решений на основе ИИ и в сфере кибербезопасности – как со стороны обеспечения защиты от атак, так и при их проведении. Поэтому мы решили рассмотреть основные тренды в использовании искусственного интеллекта в подготовке кибератак и их отражении.
Как ИИ применяют злоумышленники
В прошлом году хакерам удалось интегрировать системы искусственного интеллекта в схему создания полиморфных вирусов. Такие вирусы отличаются тем, что каждая их копия имеет уникальный код, что затрудняет своевременное обнаружение таких вредоносных программ. Ведь если каждая копия вируса уникальна, то для него нельзя создать универсальную сигнатуру для базы антивирусной программы, поэтому защититься от его можно только с помощью эвристических алгоритмов. Как недавно показали специалисты компании CyberArk Labs, для создания такого вируса не потребуется даже специализированный ИИ для кодеров – с подобной задачей относительно легко справляется даже чат-бот ChatGPT.
Согласно исследованиям CyberArk Labs, интеграция возможностей ChatGPT в алгоритмы вирусы способна затруднить его обнаружение. Если «классическому» вирусу для получения «обновлений» нужно обращаться к внешним серверам, а загрузка этих «обновлений» происходит в виде бинарного кода, то использование возможностей чат-бота позволяет вирусу получать обновленный код в виде текста. Обнаружить такое взаимодействие эвристическим алгоритмам современных антивирусных программ гораздо сложнее – тем более что интеграция с API ChatGPT появляется у все большего числа прикладных программ.
Еще одну потенциальную угрозу обнаружили сотрудники компании Vulcan Cyber. Известная проблема «галлюцинаций», когда чат-боты рекомендуют пользователям несуществующие библиотеки, потенциально чревата созданием репозиториев таких «популярных библиотек», в которых фактически будет храниться вредоносный код.
Помогает ИИ злоумышленникам и в сфере социальной инженерии. Возможности чат-ботов позволяют генерировать убедительные фишинговые письма. С развитием алгоритмов индивидуальной генерации текстов проблема начинает приобретать угрожающий характер – тем более, что в последнее время злоумышленники все активнее используют специализированные сервисы для генерации фишинговых текстов вроде WormGPT и FraudGPT.
Как ИИ применяют специалисты по кибербезопасности
Широкие возможности ИИ находят свое применение и в «добрых руках». Так, компания IBM уже разработала два сервиса для автоматизированного анализа угроз и расследования инцидентов, а именно QRadar EDR и QRadar SIEM. Аналогичные возможности предлагает специалистам по информационной безопасности и чат-бот Charlotte AI от компании CrowdStrike. Бот может не только проверить информационную инфраструктуру на потенциальные уязвимости, но и предложить план по увеличению степени защищенности или обнаружить в сети потенциально опасные активности.
Нашлось применение искусственному интеллекту и в сфере борьбы с фишингом. Так, алгоритмы ИИ уже позволяют определять потенциально опасную корреспонденцию по набору ключевых признаков (подозрительному адресу, странным ссылкам, потенциально вредоносным вложениям, информации об авторе страницы, признакам автоматической генерации текста письма).