ИИ найдет опасный контент в Telegram быстрее аналитиков - IT Speaker, новости информационных технологий

ИИ найдет опасный контент в Telegram быстрее аналитиков

Редакция

14:00 / 15 января 2025

Российские специалисты по кибербезопасности обновили ИИ-инструмент под названием Apparatus Sapiens, который теперь может находить преступников в Telegram. Впервые Apparatus Sapiens был представлен еще в 2023 году, однако только сейчас ИИ-сервис научился соотносить вредоносную информацию и ее автора. Об этом сообщили «Известия». 

Фотография unsplash

По словам создателя ПО, в списке потенциально опасного контента могут оказаться любые слова, например, взрыв или поджог. ИИ также оценивает «окрас» сообщения, то есть вызывает оно опасения или нет. Кроме того, Apparatus Sapiens анализирует все публичные сообщений автора, его связи с другими пользователями, относит его к определенной половозрастной группе и региону проживания. 

«С помощью деанонимайзера можно найти данные о 58 млн пользователей Telegram, привязанных к телефонным номерам. Также система проводит мониторинг по 22 млн чатов, в которые входят как публичные сообщества, так и приватные чаты, доступ к которым предполагает переход по ссылке и согласование с администратором. Именно в них чаще всего находятся самые интересные и потенциально опасные вещи», – рассказал эксперт. 

В результате работы деанонимайзера можно узнать мобильный телефон автора, его местоположение и данные о соединении. Если система не выдает точные идентификаторы, то возможна выгрузка всех сообщений пользователя, истории изменений его никнейма, имени и фото. Впоследствии эти данные обрабатываются вручную для установления личности. После чего информация передается в правоохранительные органы в рамках действующих соглашений о сотрудничестве. Дальше они сами принимают те или иные меры реагирования, добавил директор департамента расследований компании T.Hunter Игорь Бедеров. 

Заведующая кафедрой прикладной математики университета «Синергия» Жанна Мекшенева считает, что существует риск того, что такие сервисы начнут использовать злоумышленники. Они смогу т использовать их для преследования или шантажа других людей. По ее мнению, необходимо разработать регламенты и этические стандарты, установить юридическую ответственность за неправильное использование данных. Кроме того, эксперт считает, что для минимизации рисков необходимо ограничивать доступ к таким инструментам. Например, предоставлять его только проверенным организациям и лицам, работающим в рамках закона.

«Основное назначение подобных инструментов – деанонимизация с использованием сбора доступных данных: никнеймов, метаданных изображений, участия пользователя в группах, других сообщений, стикерпаков и тому подобного. Это похоже на работу сыщика, который ищет улики на месте преступления. Нейросеть справляется с этим гораздо эффективнее, чем аналитик, так как может анализировать огромный объем данных. Если к этому добавляется также механизм выявления деструктивного контента на первом этапе, то востребованность сервиса увеличится», – отметил заместитель директора Центра компетенций НТИ по большим данным МГУ им. М.В. Ломоносова Сергей Тростьянский. 

Ранее Telegram опубликовал данные по количеству заблокированных групп и каналов. Их число составило 15,3 млн в 2024 году.Так, за 2024 год было заблокировано почти 702 тысячи групп, которые содержали материалы по теме сексуального насилия над детьми, а также около 129 тысяч групп и каналов, которые были связаны с террористической деятельностью. Было удалено более 100 млн единиц контента экстремистской направленности.


Поделиться новостью