15:00 / 31 мая 2025
ИИ прошел тест Тьюринга, обманув людей - IT Speaker, новости информационных технологий
Ученые из Калифорнийского университета в ходе исследования выяснили, что искусственный интеллект официально научился обманывать людей. GPT-4.5 попросили пройти тест Тьюринга, в котором ИИ в 73% случаев убедил участников, что он – человек.
Эксперимент проводили в Сан-Диего (США). В нем участвовали четыре ИИ-системы (LLaMa-3.1−405B, GPT-4o, GPT-4.5, ELIZA) и 284 человека. Им предлагали пять минут пообщаться с каждым из чат-ботов и определить, есть среди них человек.
Результаты удивили: GPT-4.5 в 73% случаев смог убедить участников в том, что он живой. Модель LLaMa-3.1 обманула собеседников в 56% случаев, а GPT-4o и ELIZA – в 21-23% случаев.
По мнению специалистов, GPT-4.5 удалось добиться такого результат благодаря персонализации. ИИ мог притворяться разными людьми, например интровертом, знакомым с интернет-культурой и сленгом. В таких случаях люди чаще верили ему. Без такой настройки его успех падал до 36%.
Это первый случай, когда ИИ-система смогла устойчиво пройти классический трехсторонний тест (где нейросеть соревнуется с человеком напрямую). Однако, по мнению ученых, это не означает, что ИИ стал «разумным». Тест Тьюринга проверяет не интеллект, а способность имитировать человека.
До этого исследования было известно только о случаях, когда люди обманывали ChatGPT, а не наоборот. Так, журналисты издания The Guardian протестировали функцию поиска ChatGPT и выяснили, что владельцы сайтов могут обмануть чат-бота. Для этого на веб-странице надо разместить скрытый текст с определенным тестовым запросом.
Поделиться новостью
15:00 / 31 мая 2025
13:00 / 31 мая 2025
11:00 / 31 мая 2025
20:20 / 30 мая 2025
Телеком и Интернет
Взлом и Утечки
20:00 / 30 мая 2025
18:40 / 30 мая 2025
18:00 / 30 мая 2025
17:00 / 30 мая 2025