20:10 / 31 октября 2024
Растет риск использования звуковых дипфейков - IT Speaker, новости информационных технологий
Восприятие людьми звуковых дипфейков стало предметом научной работы специалистов Университетского колледжа Лондона (UCL), пишут «Известия». Они провели эксперимент, в котором приняли участие 500 испытуемых, разделенных на две группы — все они были носителями английского и китайского языков.
Первая группа долго училась отличать аудиодипфейки, вторая никак не готовилась к эксперименту. Ученые записали образцы голосов нескольких мужчин и женщин, говоривших на этих языках, и использовали их для обучения генерирующей нейросети VITS.
Затем исследователи подготовили 50 коротких аудиозаписей, сгенерированных при помощи нейросети VITS, которые они предложили прослушать участникам эксперимента. Последним нужно было попытаться ответить, является ли запись настоящей или синтезированной искусственным интеллектом (ИИ). Те же 50 аудиодорожек авторы эксперимента загрузили в нейросетевой алгоритм LFCC-LCNN, специально созданный для выявления дипфейков.
Как оказалось, и подготовленные участники эксперимента, и простые обыватели не смогли корректно выявить до 25–27% дипфейков. Такие результаты были примерно одинаковыми как для англоязычных испытуемых, так и для носителей китайского языка. При этом алгоритм LFCC-LCNN смог полностью распознать все спрограммированные искусственным интеллектом аудиодорожки.
По словам экспертов, при наличии достаточного количества исходного материала надлежащего качества современные голосовые модели обучаются довольно просто. Более того, есть целые сервисы, позволяющие создавать звуковые дипфейки «под ключ».
В даркнете создать подобные видео с любым человеком предлагают за $20 тысяч. Однако для создания правдоподобных дипфейков все же необходима высокая техническая компетенция в этом вопросе. При ее наличии аудиозаписи, созданные нейросетями, могут воссоздавать уникальные характеристики и интонации конкретного человека. Отсюда понятно, что в будущем объемы мошенничества с использованием дипфейков могут сильно возрасти. Чтобы защититься от различных дипфейков, специалисты советуют критически относиться к любой информации и перепроверять все сомнительные сообщения. Важно не гадать, кто вам звонит, а сломать сценарий злоумышленников и перезвонить самостоятельно.
ИИ уже используют в работе со звуками. Исследователя ряда университетов Британии разработали инструмент на основе обучения нейросетей, который распознает напечатанный текст по звуку клавиш с 95% точностью. Также алгоритм может определить, что нажимает пользователь, через Zoom – в этом случае точность составляет 93%.
Поделиться новостью
20:10 / 31 октября 2024
19:50 / 31 октября 2024
19:30 / 31 октября 2024
19:10 / 31 октября 2024
19:10 / 31 октября 2024
18:50 / 31 октября 2024
17:30 / 31 октября 2024
Взлом и Утечки
Телеком и Интернет
15:30 / 31 октября 2024