Люди не смогли отличить видео ИИ Sora от реальных - IT Speaker, новости информационных технологий

Люди не смогли отличить видео ИИ Sora от реальных

Редакция

12:41 / 11 марта 2024

Люди не смогли отличить реальные видео ролики от созданных нейросетью Sora от OpenAI в пять из восьми случаях, таковые данные исследования HarrisX. В опросе приняло участие более тысячи респондентов. 

Фотография freepik

Участникам исследования были представлены восемь видеороликов: четыре, созданные Sora, четыре, записанные человеком. Больше чем в половине случаев респонденты ошиблись. Также людей попросили описать свои чувства от участия в эксперименте: 28% сказали, что испытывают любопытство, 18% – тревогу, 2% – страх. 

– По мере того, как сложность ИИ растет благодаря новым инструментам, таким как Sora, растет и обеспокоенность по поводу его воздействия, а также призывы к надлежащей маркировке и регулированию технологии, – отметил генеральный директор и руководитель отдела исследований HarrisX Дритан Нешо. – Зарождающаяся отрасль должна делать больше, чтобы и оградить общество, и должным образом общаться с ним. 

Нейросеть Sora для создания видеозаписей по текстовому описанию была представлена компанией OpenAI в феврале этого года. Она способна генерировать ролики до 60 секунд, в том числе с изображением людей и движущихся объектов, при этом ИИ-модель учитывает, как они взаимодействуют друг с другом в реальном мире. 

Пока Sora доступна только для специалистов, однако она вызывает немалую обеспокоенность профессионального сообщества, поскольку может быть использована для преступных целей. Дипфейки уже серьезно влияют на современный мир: из-за них соцсети X пришлось отключить поиск по словам «Taylor Swift», а транснациональная компания в Гонконге лишилась более $25 млн в результате мошеннической атаки с применением дипфейков.

Вас может заинтересовать: 

В РФ хотят ввести наказание за дипфейки

Поделиться новостью