20:00 / 17 февраля 2025
Люди не смогли отличить видео ИИ Sora от реальных - IT Speaker, новости информационных технологий
Люди не смогли отличить реальные видео ролики от созданных нейросетью Sora от OpenAI в пять из восьми случаях, таковые данные исследования HarrisX. В опросе приняло участие более тысячи респондентов.
Участникам исследования были представлены восемь видеороликов: четыре, созданные Sora, четыре, записанные человеком. Больше чем в половине случаев респонденты ошиблись. Также людей попросили описать свои чувства от участия в эксперименте: 28% сказали, что испытывают любопытство, 18% – тревогу, 2% – страх.
– По мере того, как сложность ИИ растет благодаря новым инструментам, таким как Sora, растет и обеспокоенность по поводу его воздействия, а также призывы к надлежащей маркировке и регулированию технологии, – отметил генеральный директор и руководитель отдела исследований HarrisX Дритан Нешо. – Зарождающаяся отрасль должна делать больше, чтобы и оградить общество, и должным образом общаться с ним.
Нейросеть Sora для создания видеозаписей по текстовому описанию была представлена компанией OpenAI в феврале этого года. Она способна генерировать ролики до 60 секунд, в том числе с изображением людей и движущихся объектов, при этом ИИ-модель учитывает, как они взаимодействуют друг с другом в реальном мире.
Пока Sora доступна только для специалистов, однако она вызывает немалую обеспокоенность профессионального сообщества, поскольку может быть использована для преступных целей. Дипфейки уже серьезно влияют на современный мир: из-за них соцсети X пришлось отключить поиск по словам «Taylor Swift», а транснациональная компания в Гонконге лишилась более $25 млн в результате мошеннической атаки с применением дипфейков.
Поделиться новостью
20:00 / 17 февраля 2025
19:40 / 17 февраля 2025
19:30 / 17 февраля 2025
19:20 / 17 февраля 2025
19:40 / 17 февраля 2025
19:30 / 17 февраля 2025
19:20 / 17 февраля 2025
19:00 / 17 февраля 2025