12:30 / 20 июня 2025
Британская семья отравилась грибами из-за ChatGPT - IT Speaker, новости информационных технологий
В Великобритании семья грибников оказалась в больнице после употребления ядовитых грибов, собранных в соответствии с советами книги, написанной с использованием ChatGPT.
Как рассказал глава семьи, что при сборе грибов полагался на иллюстрации и рекомендации из книги, приобретенной на Amazon. Однако впоследствии выяснилось, что данное издание содержало множество опасных ошибок.
Проблема заключается в том, что в последнее время все больше книг по грибоводству и другим темам создается с помощью нейросетей, таких как ChatGPT. Эти издания зачастую содержат недостоверную информацию, которая вводит читателей в заблуждение. Так, некоторые авторы даже рекомендуют «определять ядовитые грибы по вкусу и запаху», что может иметь трагические последствия.
Для проверки качества таких книг компания Originality.ai, занимающаяся обнаружением контента, созданного искусственным интеллектом (ИИ), исследовала несколько образцов. Результаты экспертизы показали, что все рассмотренные издания были на 100% написаны с использованием чат-ботов.
Несмотря на то, что Amazon уже убрал с полок некоторые вызвавшие тревогу книги, проблема низкокачественной литературы, сгенерированной нейросетями, остается серьезной.
Как показывает опыт, рекомендации нейросетей часто несут смертельную опасность. Так, ИИ-бот для генерации рецептов, выпущенный новозеландской сетью дисконтных супермаркетов Pak'nSave, предложил откровенно токсичные рецепты коктейлей и блюд.
Например, один из предложенных рецептов состоял из аммиака, отбеливателя и воды. Другие рецепты, столь же опасные для употребления, включали рис с добавлением отбеливателя, «бутерброды с муравьиным ядом и клеем» и французские тосты под названием «метанольное блаженство».
Ранее некоторые пользователи столкнулись с тем, что нейросеть ChatGPT неожиданно начала разговаривать клонированным голосом пользователей. Это произошло при использовании нового режима голосового общения.
В OpenAI заявили, что это произошло случайно. Компания уже приняла меры и начала использовать систему обнаружения несанкционированного генерирования звуков, чтобы в дальнейшем такого не повторилось.
Поделиться новостью
12:30 / 20 июня 2025
12:00 / 20 июня 2025
11:30 / 20 июня 2025
10:30 / 20 июня 2025
12:30 / 20 июня 2025
12:00 / 20 июня 2025
11:30 / 20 июня 2025
10:30 / 20 июня 2025