21:00 / 05 мая 2025
Мошенники используют ИИ, чтобы имитировать голоса близких - IT Speaker, новости информационных технологий
Газета The Washington Post обратила внимание на новый тренд – мошенники используют ИИ для имитации голоса, чтобы ввести в заблуждение родственников и друзей. Одной из жертв стала пожилая пара Рут и Грег Кард из США.
Схема обмана выглядела следующим образом: 73-летняя американка Рут Кард получила звонок от человека, которого она приняла за внука. Звонивший сообщил, что попал в передрягу и находится в тюрьме без кошелька и мобильного телефона, и ему срочно нужны деньги. Как любой другой обеспокоенный дедушка или бабушка, Рут и ее муж поспешили в банк, чтобы перевести деньги «внуку». Однако банковский клерк предупредил их об опасности такого шага – звонивший может оказаться мошенником, более того, банк уже фиксировал подобные схемы.
Главное отличие от других случаев мошенничества по телефону – голос мошенника был прекрасно слышен (обычно злоумышленники выдают себя за родственников, создавая помехи связи и подменяя номер телефона).
Случай с семьей Кард – не единственный: согласно отчету Федеральной торговой комиссии США (FTC), мошенничество с подменой голоса – второй по популярности вид обмана в США. Так, более 36 тыс. человек стали жертвами звонков, в ходе которых злоумышленники выдавали себя за друзей и родственников. Причем, 5,1 тыс. из них были совершены по телефону, в результате чего люди лишились более $11 млн.
В последнее время генеративный ИИ наделал немало шума из-за растущей популярности программ вроде ChatGPT и DALL-E. Эти программы в основном ассоциируются с возможностями, которые могут повысить производительность пользователей. Однако те же методы, которые используются для обучения генеративных моделей, могут быть использованы для обучения более вредных программ, например, генераторов голоса.
Такие программы-генераторы анализируют голос человека, находят паттерны уникального звучания, например, акцент, тембр и тональность, далее воссоздают голос человека. Причем на создание звука, который практически невозможно отличить от первоисточника, уходит несколько секунд.
Чтобы защитить себя от такого вида мошенничества, надо понимать, что звонок с ИИ-голосом в принципе возможен: всегда стоит иметь в виду, что на другом конце провода может оказаться не ваш близкий.
Чтобы убедиться, что звонит действительно родственник или друг, стоит проверить достоверность звонка: например, задать личный вопрос или связаться с близким человеком по другому телефону.
Поделиться новостью
21:00 / 05 мая 2025
20:40 / 05 мая 2025
20:20 / 05 мая 2025
20:00 / 05 мая 2025
21:00 / 05 мая 2025
20:40 / 05 мая 2025
20:00 / 05 мая 2025
19:40 / 05 мая 2025