Госсайты начнут закрывать доступ к зарубежным ботам - IT Speaker, новости информационных технологий

Госсайты начнут закрывать доступ к зарубежным ботам

Редакция

14:10 / 03 сентября 2024

Федеральная служба по техническому и экспортному контролю (ФСТЭК России) порекомендовала госорганам закрыть доступ к своим сайтам для иностранных поисковых ботов, таких как GPTBot от американской OpenAI. На данный момент не все ведомства выполнили рекомендации, пишет «Коммерсантъ».

Фотография unsplash

В документе ФСТЭКа говорится, что зарубежные поисковые боты «собирают информацию о существующих уязвимостях информационных ресурсов органов государственной власти РФ и о персональных данных, чтобы использовать их в зарубежных моделях машинного обучения». Для предотвращения сбора этой информации ФСТЭК рекомендует ограничить доступ поисковых ботов к файлам robots.txt веб-сайтов и серверов.

Журналисты «Коммерсанта» выяснили, что ФСТЭК ко 2 сентября не последовала своей рекомендации: в файле robots.txt сайта службы нет запретительной директивы для GPTBot. Также ее нет на сайтах МЧС, Минздрава, Минцифры.

В начале мая похожие рекомендации хостинг-провайдерам рассылал Центр управления связью общего пользования (ЦМУ ССОП) Роскомнадзора. Центр рекомендовал провайдерам ограничить доступ иностранным ботам, в том числе компаний Google, OpenAI и Apple, к российским ресурсам.

«Основная задача таких поисковых ботов — сбор информации о функционирующих и доступных для подключения сетевых ресурсах в интернете»,— говорит руководитель отдела разработки департамента TI (Threat intelligence) экспертного центра безопасности Positive Technologies Андрей Схоменко.

Однако существуют боты, которые целенаправленно сканируют сайты в поисках устаревших плагинов, ошибок конфигурации и незащищенных элементов, таких как формы обратной связи, в которые можно встроить вредоносный код, объясняет руководитель направления защиты на уровне веб-приложений DDoS-Guard Дмитрий Никонов.

Тем не менее риски применения больших языковых моделей и нейросетей для кибератак на данный момент являются «скорее гипотетическими», говорит руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов. 

Ранее редакция IT Speaker писала, что более 40% трафика в Интернете генерируется ботами. При этом 65% таких ботов представляют угрозу для пользователей.

Согласно полученным данным, наибольшую опасность представляют боты-парсеры, которые могут воровать контент для создания фишинговых сайтов. С помощью ботов-парсеров мошенники манипулируют рекламой и продвигают вредоносные веб-страницы, где пользователи рискуют потерять свои конфиденциальные данные.

Поделиться новостью