Скам, буллинг и фишинг. Как дипфейки помогают мошенникам - IT Speaker, новости информационных технологий

Скам, буллинг и фишинг. Как дипфейки помогают мошенникам

Наташа Аксенова

12:42 / 02 октября 2023

Фотография freepik

Европейский институт телекоммуникационных стандартов (ETSI) опубликовал отчет об угрозах использования ИИ. В документе описываются случаи мошенничества при биометрической аутентификации, возможные сценарии масштабных дипфейк-атак и их последствия, включая срыв процедуры выборов и развязывания конфликтов. Группа исследователей также предлагает технические и организационные меры по смягчению и избеганию этих угроз. IT Speaker изучил публикацию и поговорил с экспертами в области кибербезопасности и ИТ о методах защиты от дипфейк-атак.

ИИ совершенствуются каждый день, открывая новые возможности, в том числе для мошенников. Если раньше фейки требовали значительного объема ручной работы, то теперь для производства фальшивых мультимедийных данных достаточно пары кликов и нескольких секунд. 

При этом никто не отрицает очевидные преимущества такого рода продуктов. Они позволяют быстро и относительно дешево переводить на другие языки фильмы, образовательные ресурсы, создавать маркетинговые материалы, включая рекламу, а также потенциально способны восстанавливать речь людям, потерявшим голос из-за болезни или травмы. Дипфейки уже становятся трендами digital-маркетинга, и есть предположения, что технология вскоре позволит нам гиперперсонализировать покупки и развлечения — используя виртуальные аватары самих себя, чтобы примерить одежду перед покупкой, или вставляя свои лица в персонажей видеоигр. 

Чаще всего дипфейки создаются посредством нейросетей, которые позволяют автоматизировать процесс. Качественные произведения ИИ достаточно трудно отличить не только глазу, но и машине. Так, генеративные подделки могут как ввести в заблуждение человека, так и обмануть компьютерные системы. Дипфейки обычно представлены в виде видео, изображений, аудио, а также текста. С использованием специальных приложений и инструментов можно создать генеративный продукт как с нуля, доверив весь «творческий» процесс обученной на других произведениях машине, так и на основе синтеза фотографий, видеороликов, звука, голоса и даже  персональных данных (биометрии, отпечатков пальцев). О видах дипфейков и областях их применения мы подробно рассказали в нашем материале.

Сценарии атак


Недавнее исследование специалистов университета Корка Ирландии показало, что дипфейки способны создавать ложные воспоминания. Участникам показали отрывки из реальных фильмов и поддельных ремейков, в некоторых случаях давали текстовые описания. Например, в фильме «Сияние» Брэд Питт и Анджелина Джоли сыграли персонажей, которых первоначально играли Джек Николсон и Шелли Дюваль, а в «Матрице» появился Уилл Смит в роли Нео (в оригинале его играет Киану Ривз). 

Опрос показал, что около половины участников «вспоминали» фальшивые ремейки, поверив в их реальность. При этом текстовые описания несуществующих кинокартин в создании иллюзии действовали также эффективно, как и фейковые видео. Кроме того, многие участники запомнили фальшивый ремейк лучше, чем оригинальный фильм.

Специалисты ETSI в отчете привели классификацию мошеннических атак и манипулятивных схем с использованием дипфейков. 

1. Влияние на общественное мнение

Здесь авторы материала видят экономические, политические и репутационные факторы, что побуждает махинаторов создавать манипулятивные дипфейки. 

Во-первых, ложные публикации способны вложить в уста знаменитостей слова, которые они не говорили. Так злоумышленник может постепенно изменить мнение людей, дискредитировать персону или же продвинуть какие-либо идеи.

Также аналитики считают, что умело развернутая дипфейк-атака может влиять на экономику – например, использоваться для манипулирования ценами на рынках. Даже за короткое время злоумышленники способен заработать или развернуть черную пиар-кампанию против фирмы. Это возможно осуществить в том числе посредством поддельных отзывов о продуктах и услугах, продвигающих одни товары и  «закапывающих» другие. 

Здесь может присутствовать политический контекст – например, влияние на общественное мнение в преддверии выборов. Такие языковые модели, как ChatGPT, могут помочь в ускорении и частичной автоматизации создания убедительного фейкового новостного контента и пропагандистской деятельности. 

По словам специалистов, нейросети также можно использовать для астротурфинговых операций (маскировки искусственной общественной поддержки). Такое обычно практикуется в соцсетях и медиа для создания иллюзии, что большая толпа якобы верит в определенную тему или поддерживает ее. 

Журналисты газеты The Guardian предполагают, что стремительно развивающиеся технологии ИИ и большое количество дипфейков могут повлиять на исход выборов президента США в 2024-м году.

В частности, в последние месяцы созданное ИИ изображение взрыва в Пентагоне вызвало кратковременное падение фондового рынка. Широко распространились сгенерированные ИИ изображения, на которых Дональд Трамп отбивается от полицейских. Национальный комитет Республиканской партии опубликовал рекламу, полностью созданную ИИ, где показаны изображения воображаемых катастроф, которые якобы могут произойти в случае переизбрания Байдена.

С помощью дипфейков создаются и целые конспирологические теории вокруг известных личностей. В частности, фанаты Бритни Спирс не первый год обсуждают версии исчезновения или даже смерти американской певицы, находя в коротких роликах в ее соцсетях загадочные детали. В соцсетях появились уже сотни разборов видео, где с лица артистки слетает фильтр и в кадре появляется совсем другой человек. 

2. Клевета и месть

Дипфейки также могут использоваться на фоне личной неприязни и для сведения счетов. Во многих случаях злоумышленник и жертва знают друг друга, и нападение мотивировано психологическими или эмоциональными факторами. Чаще всего «злодей» распространяет поддельные видео, аудио или текстовые сообщения эротического характера в соцсетях – среди друзей, знакомых или родственников, чтобы испортить репутацию жертвы, устроить кибербуллинг или унизить ее. За услуги по созданию фальшивых видео в даркнете берут от $300 до $20 тысяч. 

3. Социальная инженерия и вымогательство

Психологическое манипулирование людьми и вымогательство ресурсов при данных типах атак может происходить под видом разглашения частной информации, которой не существует в реальности. Кроме того, это могут быть фишинговые атаки, которые в большинстве случаев направлены на то, чтобы их жертвы перешли по вредоносным ссылкам. Злоумышленники могут использовать метод для получения учетных данных для входа или с целью распространения вредоносного ПО. К этому типу мошеннических схем можно отнести и аудиосообщения с синтезом речи и звонки роботов, которые вводят в заблуждение людей минимум десятилетие.

По данным экспертов  «‎Лаборатории Касперского», часто среди объявлений даркнета попадаются услуги по созданию дипфейков для криптофрода (криптостримы или фальшивые розыгрыши криптовалют). В рамках скам-схемы злоумышленники побуждают зрителей переводить им криптовалюту. Для этого мошенники используют фейковые видео со знаменитостями, которые обещают удвоить отправленный им платеж.

Громкой новостью из криптомира стал рассказ PR-директора криптосервиса Binance Патрика Хиллманна, который утверждал, что в 2022 году мошенники сгенерировали дипфейк на основе записи его выступлений и интервью. По его словам, злоумышленники провели серию видеозвонков через Zoom с несколькими представителями криптовалютных проектов, чтобы украсть средства. Однако оценить масштабы мошенничества представителям платформы не удалось, так как переговоры велись через Telegram и LinkedIn. 

4. Атаки на методы биометрической аутентификации

Исследователи ETSI подчеркивают, что дипфейковые атаки зачастую нацелены на удаленную биометрическую идентификацию и аутентификацию (сравнение предоставленных данных с биометрией – отпечатками пальцев, радужкой глаза, геометрией лица и голосом человека). Удаленная идентификация посредством видео используется во многих странах банками для открытия счетов клиентам, а системы распознавания голоса – для транзакций. 

Здесь примером выступает инцидент августа текущего года, когда полиция Гонконга арестовала мошенников, которые использовали поддельные изображения и украденные удостоверения личности для обмана банков. Шесть подозреваемых использовали поддельные документы и сгенерированные ИИ селфи, чтобы подать онлайн-заявку на получение как минимум 20 кредитов. Одна из них была одобрена – злоумышленники получили около $9 тыс. 

Еще одна фейковая афера с использованием видео-дипфейка произошла в мае, когда мошенник использовал маску с изображением директора банка и по видеозвонку уговорил гражданина Японии взять кредиты на покупку компьютерных игр на $216. Злоумышленники могут использовать синтетические лица (полностью сгенерированные ИИ) для сокрытия своей личности или для создания фейковых профилей в социальных сетях. 

Методы борьбы с фальшивоконтентщиками 

Вопрос верификации получаемой информации поднимется довольно давно, и методы проверки достоверности мало отличаются от того, чем занимаются журналисты, работающие с лентами новостей.

Аналитики ETSI предлагает несколько методов по борьбе с дипфейк-мошенниками. Среди них – обучение и повышение осведомленности как сотрудников предприятий, так и общества в целом, а также совершенствование нормативного регулирования, требующего маркировки любых дипфейков. 

Для того, чтобы находить в онлайн-пространстве такие подделки, специалисты предлагают использовать метод медиа-криминалистики или применять системы ИИ, обученные обнаруживать манипулируемый контент.

Некоторые платформы уже тестируют или применяют функцию маркирования фейкового контента. Так, пользователи VK могут примерить на себя маски знаменитостей в редакторе «VK Клипов» и в приложении «Дипфейк». На каждом получившемся видео появляется соответствующая вотермарка.

Руководитель группы защиты инфраструктурных ИТ-решений компании «Газинформсервис» Сергей Полунин выделил два подхода к выявлению дипфейков. 

С одной стороны, есть специальное ПО и инструменты. Они построены на базе технологий ИИ и позволяют обнаруживать около 95% дипфейков. Так, платформа Sentinel помогает европейским ведомствам и предприятиям анализировать данные на предмет ИИ, Microsoft Video Authenticator Tool проводит оценку достоверности мультимедиа, сервис WeVerify с открытым исходным кодом помогает журналистам и общественникам устраивать совместную проверку и разоблачение фейкового контента. 

Кроме того, в анализе информации на подлинность могут помочь глубинные нейронные сети TensorFlow и PyTorch, ПО Deepware, платформы Sensity, Hive и Illuminarty.

С другой стороны, можно использовать косвенные признаки. Например, если вам попадается запись, где человек говорит что-то странное, неестественно и резко двигается, а в его взгляде видно лишь полное отсутствие, то лучше провести фактчекинг – связаться с человеком, его близкими или поискать материал на других платформах.

Однако, как отмечает начальник отдела информационной безопасности «СёрчИнформ» Алексей Дрозд, при качественном исполнении технологии позволяют смоделировать потрясающе реалистичные изображения. 

Поэтому для распознания фейковых изображений специалист советует использовать как главный ориентир контекст. По его словам, только по нетипичным обстоятельствам или абсурду происходящего на экране можно догадаться, что перед нами дипфейк. Чаще всего в содержании изображения будет что-то «скандальное», потому что сама цель подделок – привлечь внимание, вызвать реакцию (шантаж, травля, вымогательство или же просто смех). 

«Самый простой способ это сделать – сыграть на контрасте с привычным контекстом, окружающим объект. Изображена может быть любая нестандартная ситуация. Вспомните Папу Римского в пуховике и бриллиантах или «силовой арест» Дональда Трампа (эти сгенерированные нейросетями фейки завирусились в сети в начале года). Или, например, представьте «компрометирующее» фото вашего знакомого, который никогда не ходил на вечеринки, в антураже сомнительного заведения в маргинальной компании», – рассуждает киберэксперт. 

Он добавил, что аудио- и видео-дипфейки приближаются к тому же состоянию, когда отличить фейк без специальных средств станет невозможно. Порог входа по стоимости и сложности изготовления подделок стремительно снижается, уже сейчас достаточно бесплатных и качественных сервисов. 

Однако, по мнению Алексея Дрозда, сейчас для таких «классических» дипфейков продолжают действовать определенные ограничения. Так, аудио-подделки пока не научились повторять индивидуальные особенности речи – покашливания, одышку, слова-паразиты, специфическую интонацию, эмоции и т.д. 

Собеседник IT Speaker пояснил, что фейк-видео можно распознать по различным «артефактам». Например, у подставленного лица может не совпадать текстура, оттенок, освещенность кожи. Могут «плавать» черты лица, размываться на границе вставки, меняться с подделки на оригинал при смене ракурса или плана съемки. Нейросети могут «додумывать» и искажать мимику где не надо, или будто бы «забывать» про нее, создавая эффект воскового лица. Могут пропадать детали, например, родинки или дужки очков.

«При этом важно помнить, что качественно сделанный дипфейк будет практически лишен таких проблем. Уже сейчас большинство недочетов возможно подловить, только покадрово разбирая видео. Поэтому, опять же, на первый план выходят актуальность и контекст. Если вы видите или слышите что-то нехарактерное для персонажа, это повод насторожиться», – подчеркнул эксперт.

Поделиться новостью