В Мексике создали ИИ-приложение против самоубийств - IT Speaker, новости информационных технологий

В Мексике создали ИИ-приложение против самоубийств

Редакция

16:00 / 16 декабря 2024

Благодаря ИИ-приложению MeMind, которое было создано для предотвращения самоубийств, правительству мексиканского штата Юкатан за два года удалось сократить их количество на 9%, пишет Rest of word.

Фотография unsplash

На полуострове Юкатан было зафиксировано, что количество самоубийств в два раза выше, чем в остальной части Мексики. Для борьбы с этим было запущено специальное приложение на базе искусственного интеллекта в рамках инициативы по охране психического здоровья. MeMind должно повысить осведомленность граждан о психических заболеваниях.

Пользователям приложения, которые впервые заходят, предлагают пройти 15-минутный опрос, после чего ИИ анализирует ответы и присваивает категорию риска. Если оно замечает небольшие изменения в поведении человека, то предупреждает команду MeMind о возможной попытке самоубийства. Кроме этого, за пользователями, которые отнесены к наиболее серьезно категории риска, наблюдают более пристально.

Изначально приложение создавалось для отдельных пользователей. Отмечается, что всего за два месяца работы, команде удалось выявить около 200 пользователей, которые с большей вероятностью могли совершить самоубийство. На данный момент у MeMind более 80 тысяч пользователей.

Разработчики уточняют, что приложение не передает конфиденциальные данные, например, имена или адреса. Кроме этого, информация, предоставляемая правительству Юкатана, представлена в обобщенном виде.

За два года приложение выявило более 10 тыс. человек, которые находятся в группе высокого риска совершения суицида. Благодаря этому получилось предоставить таким пользователям информацию о вариантах лечения, включая терапию и группы поддержки. Кроме этого, приложение фиксирует группы населения, которые чаще или реже его используют.

Планируется, что в MeMind появится функция терапии с помощью чат-бота.

Однако ИИ не всегда помогают людям решить проблемы, связанные с психическим здоровьем. Например, на стартап Character.AI. родители из США подали в суд из-за того, что его чат-бот показывал детям непристойный контент, а также писал сомнительные сообщения, которые содержат описание селфхарма и намеки на убийство родителей.

Согласно данным, девятилетней девочке он показывал «гиперсексуализированный контент», что привело к развитию «сексуализированного поведения». А 17-летнему пользователю он присылал детальное описание процесса селфхарма. А после того, как парень пожаловаться чат-боту на то, что родители ограничивают его экранное время, ИИ сообщил ему, что сочувствует детям, которые убивают своих родителей. 

Поделиться новостью