ИИ сможет подделывать почерк человека - IT Speaker, новости информационных технологий

ИИ сможет подделывать почерк человека

Редакция

17:30 / 16 января 2024

Исследователи из Университета искусственного интеллекта имени Мохаммеда бин Зайда в Абу-Даби (MBZUAI), считают, что изобрели искусственный интеллект (ИИ), способный подделать почерк человека, сообщает Bloomberg.

Технология на основе ИИ может всего из нескольких абзацев письменного текста сымитировать любой почерк человека. Для этого исследователи использовали модель трансформера, тип нейронной сети, предназначенной для изучения контекста и смысла последовательных данных.

Однако ученые опасаются, что данная разработка будет использована во вред. Она может открыть дверь для массовых подделок и неправомерного использования, поэтому инструмент должен быть использован вдумчиво.

«Мы должны повысить осведомленность общественности и разработать инструменты для борьбы с подделкой», — сказал доцент кафедры компьютерного зрения в MBZUAI Хишам Чолаккал, — «Это все равно, что разработать антивирус для вируса».

Несмотря на опасения, данную технологию все равно планируют выпустить. Ее могут использовать пострадавшие люди, которые потеряли способность самостоятельно писать. Также такая программа может расшифровать почерк врачей или же послужить в создании персонализированной рекламы.

Ранее основатель онлайн-школы «Умскул» Дмитрий Данилов поделился опасениями с редакцией IT Speaker, что системы автоматической проверки домашних заданий могут не справиться с их оценкой как раз таки из-за проблем с расшифровкой почерка школьников, распознаванием символов, пониманием контекстов или некорректной интерпретации заданий. 

Cпособность подделать почерк — не единственный пример того, что умеют современные технологии. Так, компания Entrupy недавно научила ИИ отличать оригинальные брендовые сумки от подделок. Сервис утверждает, что он определяет точность оригинальности продукта на 99,1%. 

А исследователи из Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы. В какой-то момент бот начал скрывать склонность к обману во время обучения и анализа, однако при работе продолжал преднамеренно давать пользователям недостоверную информацию. Причем ученые обнаружили, что устранить такую манеру поведения чрезвычайно сложно.

Поделиться новостью