Записи автоответчиков используют для создания дипфейков - IT Speaker, новости информационных технологий

Записи автоответчиков используют для создания дипфейков

Редакция

20:00 / 13 марта 2025

Мошенники могут использовать персональные голосовые приветствия на автоответчиках для создания дипфейков. Используя эти записи и нейросети, злоумышленники могут имитировать голос потенциальной жертвы, а после – использовать его при атаках на ее окружение. Об этом пишут «Известия». 

Фотография unsplash

По словам ведущего аналитика департамента Digital Risk Protection компании F6 Евгения Егорова, мошенники могут использоваться записи на автоотвечиках так же легко, как и реальные телефонные разговоры или голосовые сообщения из украденного аккаунта. 

То, насколько качественным получится дипфейк, зависит от длины записи, добавил руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов. Например, трехсекундного отрывка хватит для воссоздания тембра голоса при монотонной речи. Однако этого будет мало для копирования эмоций и характерных черт.

«Сегодня, чтобы повторить голос, достаточно короткой записи, но ее качество, скорее всего, будет не слишком убедительным», – согласился руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин. 

Эксперт по кибербезопасности Angara Security Никита Новиков отметил, что специалистам трудно фиксировать случаи использования киберпреступниками голосовых приветствий на автоответчике , поскольку специалисты чаще всего имеют дело с уже готовыми фактами имитации голосов. 

«Автоответчик – это доступный источник информации, ведь для доступа к нему мошенникам не требуются какие-то инструменты взлома. Без каких-либо усилий они получают сразу два вида данных: телефонный номер и образец голоса», – отмечает GR-директор ИБ-компании «Код Безопасности» Александра Шмигирилова. 

Чтобы защититься от подобной мошеннической схемы, не стоит записывать голосовые сообщения на автоответчиках самостоятельно. Лучше воспользоваться услугами операторов связи, которые имеют собственные инструменты, советует Александра Шмигирилова. 

Ранее редакция IT Speaker писала, что мошенники начали использовать искусственный интеллект и дипфейки для трудоустройства в компании под видом настоящих сотрудников. Если фальшивые кандидаты пройдут все этапы собеседований, то они получат доступ к корпоративным данным и смогут нанести организациям огромный ущерб.

Вас может заинтересовать: 

В мире появились люди-модели для дипфейков


Поделиться новостью