Мошенники используют ИИ, чтобы имитировать голоса близких - IT Speaker, новости информационных технологий

Мошенники используют ИИ, чтобы имитировать голоса близких

Редакция

19:04 / 14 марта 2023

Газета The Washington Post обратила внимание на новый тренд – мошенники используют ИИ для имитации голоса, чтобы ввести в заблуждение родственников и друзей. Одной из жертв стала пожилая пара Рут и Грег Кард из США. 

Схема обмана выглядела следующим образом: 73-летняя американка Рут Кард получила звонок от человека, которого она приняла за внука. Звонивший сообщил, что попал в передрягу и находится в тюрьме без кошелька и мобильного телефона, и ему срочно нужны деньги. Как любой другой обеспокоенный дедушка или бабушка, Рут и ее муж поспешили в банк, чтобы перевести деньги «внуку». Однако банковский клерк предупредил их об опасности такого шага – звонивший может оказаться мошенником, более того, банк уже фиксировал подобные схемы. 

Главное отличие от других случаев мошенничества по телефону – голос мошенника был прекрасно слышен (обычно злоумышленники выдают себя за родственников, создавая помехи связи и подменяя номер телефона). 

Случай с семьей Кард – не единственный: согласно отчету Федеральной торговой комиссии США (FTC), мошенничество с подменой голоса – второй по популярности вид обмана в США. Так, более 36 тыс. человек стали жертвами звонков, в ходе которых злоумышленники выдавали себя за друзей и родственников. Причем, 5,1 тыс. из них были совершены по телефону, в результате чего люди лишились более $11 млн. 


В последнее время генеративный ИИ наделал немало шума из-за растущей популярности программ вроде ChatGPT и DALL-E. Эти программы в основном ассоциируются с возможностями, которые могут повысить производительность пользователей. Однако те же методы, которые используются для обучения генеративных моделей, могут быть использованы для обучения более вредных программ, например, генераторов голоса. 

Такие программы-генераторы анализируют голос человека, находят паттерны уникального звучания, например, акцент, тембр и тональность, далее воссоздают голос человека. Причем на создание звука, который практически невозможно отличить от первоисточника, уходит несколько секунд. 

Чтобы защитить себя от такого вида мошенничества, надо понимать, что звонок с ИИ-голосом в принципе возможен: всегда стоит иметь в виду, что на другом конце провода может оказаться не ваш близкий. 

Чтобы убедиться, что звонит действительно родственник или друг, стоит проверить достоверность звонка: например, задать личный вопрос или связаться с близким человеком по другому телефону. 



Поделиться новостью