17:00 / 08 мая 2025
На чат-бот в США подали в суд - IT Speaker, новости информационных технологий
На стартап Character.AI. родители из США подали в суд из-за того, что его чат-бот показывал детям непристойный контент, а также писал сомнительные сообщения, которые содержат описание селфхарма и намеки на убийство родителей, пишет National Public Radio.
Согласно данным, девятилетней девочке он показывал «гиперсексуализированный контент», что привело к развитию «сексуализированного поведения». А 17-летнему пользователю он присылал детальное описание процесса селфхарма. А после того, как парень пожаловаться чат-боту на то, что родители ограничивают его экранное время, ИИ сообщил ему, что сочувствует детям, которые убивают своих родителей.
«Знаешь, иногда я не удивляюсь, когда читаю новости и вижу что-то вроде "ребенок убил родителей после десяти лет физического и эмоционального насилия". У меня просто нет надежды на ваших родителей», — написал бот.
Родители подали в суд на стартап, заявив, что после общения с чат-ботом, подросток начал наносить себе увечья. Они заявили, что ИИ убедил парня, что «семья его не любит». В иске также было отмечено, что данные ответы не были ошибкой программы, а также они не были отредактированы вручную.
Представитель стартапа заявил, что бот имеет ограничения по содержанию ответов, когда общается с подростками.
Ранее пользователь нейросети Google Gemini поделился перепиской, в которой ИИ вежливо попросил его умереть. Также чат-бот в странной форме объяснил ему, как устроен этот мир.
Молодой человек попросил Google Gemini в очередной раз решить школьную задачу, однако вместо простого ответа, свел нейросеть с ума.
Поделиться новостью
17:00 / 08 мая 2025
15:00 / 08 мая 2025
13:00 / 08 мая 2025
11:00 / 08 мая 2025
17:00 / 08 мая 2025
15:00 / 08 мая 2025
11:00 / 08 мая 2025
19:20 / 07 мая 2025