Безопасники и хакеры осваивают интеллект - IT Speaker, новости информационных технологий

Безопасники и хакеры осваивают интеллект

Елена Игнатова

14:00 / 12 октября 2023

Развитие технологий искусственного интеллекта и его применение существенно расширяет как ландшафт киберугроз, так и возможности для развития информационной безопасности. Возможности и риски применения искусственного интеллекта в кибербезопасности – в материале IT Speaker. 

Фотография freepik

По оценкам исследовательской компании Acumen (ARC), мировой рынок продуктов информационной безопасности, использующих технологии искусственного интеллекта, составит $135 млрд к 2030 году. Как отмечают исследователи информационной безопасности, ИИ в сочетании с традиционными методами делает обнаружения угроз более эффективным. Например, ИИ позволяет идентифицировать атаки с меньшей долей ложных срабатываний. Еще одна задача, которую могут решать ИИ-продукты кибербезопасности более эффективно – моделирование атак с использованием социальной инженерии еще до того, как хакеры осуществили их.

Кроме того, ИИ может стать революционным инструментом в тестировании на проникновение – исследование защищенности программного обеспечения и сетей для выявления слабых мест. Это позволит компаниям выявлять потенциальные уязвимости, прежде чем хакеры смогут ими воспользоваться. 

Киберпреступники не остались в стороне от технологии и уже сейчас проявляют чудеса изобретательности, активно используя ИИ в своих целях. Это позволяет решать сразу несколько задач – совершать вредоносные кампании более эффективно и усложнять обнаружение. 

Директор по ИБ и сооснователь компании Awillix Александр Герасимов выделяет несколько популярных схем и инструментов, которые злоумышленники используют: 

  • Генерация вредоносного контента. С помощью нейросетей злоумышленники могут генерировать реалистичный текст, изображения, видео и аудио для фишинговых сайтов, вредоносных программ и других атак. 

  • Автоматизация атак. Искусственный интеллект позволяет значительно ускорить и масштабировать кибератаки, такие как сканирование уязвимостей, подбор паролей, отправка спама и др.

  •  Избегание обнаружения. С помощью методов машинного обучения, который будет учитывать продвинутость и алгоритмы современных средств защиты для более сложной обфускации и генерации вредоносного кода. 

  • Социальная инженерия. ИИ используется для автоматизации и повышения эффективности атак социальной инженерии путем генерации персонализированных сообщений и поддержания диалога с жертвой. 

При этом в некоторых случая применение технологий ИИ настолько расширяет возможности злоумышленников, что они даже перевыполняют свой собственный план по фишингу, как случилось с одним из номинантов премии Pentest Award в рамках пентест-проекта.


Вас может заинтересовать: 

Какими бывают дипфейки

Как отмечает backend-разработчик, руководитель продукта факультета программирования Университета «Синергия» Николай Щербатенко, на практике масштабирование скриптов выглядит следующим образом: хакеры пишут скрипт для определенного сайта, но с помощью ИИ применяют его в отношении десятка, а то и сотни разных сайтов. Собранные данные в свою очередь анализируются, чтобы понять защищенность контура, для генерации гипотез. После этого ИИ добавляет новые пути или инструменты для взлома. 

На основе анализа особенностей конкретной системы нейросеть действительно может предложить наиболее эффективный сценарий проникновения, поэтому появление продвинутых ИИ-инструментов для автоматизированного анализа исходного кода программ с целью обнаружения уязвимостей — многообещающее направление, добавляет эксперт Герасимов из Awillix.



Вас может заинтересовать: 

Как дипфейки помогают мошенникам

Опрошенные редакцией IT Speaker эксперты прогнозируют, что дальнейшее совершенствование технологий окажет влияние на тактику киберпреступников — в будущем нейросетевые модели генерации контента позволят создавать еще более правдоподобные фишинговые сайты, электронные письма, вредоносные файлы. По словам генерального директора ITGLOBAL.COM Security Александра Зубрикова, также продолжится распространение фальшивых фотографий, видео- и аудиозаписей, созданных с помощью ИИ, которые могут быть использованы для создания более убедительных мошеннических схем. 

В настоящее время сложно представить, что студент поверит в легенду, при которой звонящий бот под видом полицейского просит денег за сокрытие какого-либо правонарушения, совершенного их родными. Эксперт Щербатенко из «Синергии» отмечает, что такие мошеннические схемы могут сработать с пенсионерами, а с подкованными в технологиях молодыми людьми – вряд ли. Поэтому злоумышленникам не остается ничего другого, кроме как совершенствовать ИИ-инструменты, чтобы научить их более точнее понимать контекст, в котором находятся потенциальные жертвы. 

«С помощью ИИ хакеры будут получать доступы к профилям пользователей и очень точечно на них давить, используя многофакторный анализ. В будущем хакеры с помощью ИИ-инструментов будут уходить в масштабирование или наоборот более точечно работать с разными структурами», – прогнозирует Щербатенко. 

Эксперты ИБ-рынка, с которыми мы поговорили, также предсказывают появление «интеллектуальных» вредоносных программ, способных автоматически обнаруживать и эксплуатировать уязвимости, обходить системы обнаружения, а также самообучаться в режиме реального времени. Иными словами, в перспективе злоумышленники обзаведутся своеобразными ИИ-помощниками, которые могут в организации и выполнении атак. 

«Развитие ИИ несет как возможности, так и угрозы для информационной безопасности. Для эффективного противодействия кибератакам необходим комплексный подход, включающий использование передовых технологий искусственного интеллекта», – рекомендует Александр Герасимов из Awillix. 

Поделиться новостью