Британская семья отравилась грибами из-за ChatGPT - IT Speaker, новости информационных технологий

Британская семья отравилась грибами из-за ChatGPT

Редакция

19:00 / 19 августа 2024

В Великобритании семья грибников оказалась в больнице после употребления ядовитых грибов, собранных в соответствии с советами книги, написанной с использованием ChatGPT.

Фотография unsplash

Как рассказал глава семьи, что при сборе грибов полагался на иллюстрации и рекомендации из книги, приобретенной на Amazon. Однако впоследствии выяснилось, что данное издание содержало множество опасных ошибок.

Проблема заключается в том, что в последнее время все больше книг по грибоводству и другим темам создается с помощью нейросетей, таких как ChatGPT. Эти издания зачастую содержат недостоверную информацию, которая вводит читателей в заблуждение. Так, некоторые авторы даже рекомендуют «‎определять ядовитые грибы по вкусу и запаху», что может иметь трагические последствия.

Для проверки качества таких книг компания Originality.ai, занимающаяся обнаружением контента, созданного искусственным интеллектом (ИИ), исследовала несколько образцов. Результаты экспертизы показали, что все рассмотренные издания были на 100% написаны с использованием чат-ботов.

Несмотря на то, что Amazon уже убрал с полок некоторые вызвавшие тревогу книги, проблема низкокачественной литературы, сгенерированной нейросетями, остается серьезной.

Как показывает опыт, рекомендации нейросетей часто несут смертельную опасность. Так, ИИ-бот для генерации рецептов, выпущенный новозеландской сетью дисконтных супермаркетов Pak'nSave, предложил откровенно токсичные рецепты коктейлей и блюд. 

Например, один из предложенных рецептов состоял из аммиака, отбеливателя и воды. Другие рецепты, столь же опасные для употребления, включали рис с добавлением отбеливателя, «бутерброды с муравьиным ядом и клеем» и французские тосты под названием «метанольное блаженство».

Ранее некоторые пользователи столкнулись с тем, что нейросеть ChatGPT неожиданно начала разговаривать клонированным голосом пользователей. Это произошло при использовании нового режима голосового общения.

В OpenAI заявили, что это произошло случайно. Компания уже приняла меры и начала использовать систему обнаружения несанкционированного генерирования звуков, чтобы в дальнейшем такого не повторилось.

Поделиться новостью