Как ИИ может навредить выборам? - IT Speaker, новости информационных технологий

Как ИИ может навредить выборам?

Сергей Смирнов

16:00 / 19 января 2024

На этой неделе представители крупнейших технологических компаний подискутировали на тему влияния развития искусственного интеллекта (ИИ) на демократические процессы в мире в рамках Всемирного экономического форума (ВЭФ, World Economic Forum) в Давосе (Швейцария). Так, исполнительный директор Microsoft Сатья Наделла заявил, что в этом году перед представителями индустрии стоит непростая задача — грядут выборы в США, на которых есть риск применения технологий ИИ, чтобы дезинформировать избирателей и повлиять на результаты голосования. 


Сергей Смирнов

PR-директор digital-агентства FocUX.Group

Общественность уже приняла тот факт, что внедрение искусственного интеллекта в нашу рутину — не сценарий ближайшего будущего, а уже повседневная реальность. Генерация и редактирование контента, виртуальные ассистенты, чат-боты, прогнозирование курсов валют, подборка плейлистов в музыкальных сервисах — это лишь единичные примеры его использования. Но есть и обратная сторона медали, когда ИИ используется не во благо, а во вред. И пусть сценарии фильм-катастроф про вышедшие из-под контроля роботов пока нереалистичны, степень «вредности» ИИ уже давно вышла за рамки «бытовых» проказ и прямым образом влияет на политическую обстановку в крупнейших странах мира.

Топ-менеджеры техкомпаний, работающие в том числе с ИИ, опасаются рисков недобросовестного применения их технологий во время избирательной кампаний. Однако как ИИ может испортить выборы в самой технологичной и демократичной стране мира? Если абстрактно, то все звучит очень просто и в то же время пессимистично — через несовершенство людей. Если вдаваться в детали, то можно выделить несколько технологий, позволяющих сегодня влиять на итоги выборов в абсолютно любой стране, не готовой к угрозам принципиально нового типа. 

Манипуляции в соцсетях с помощью фейковых новостей и микротаргетинга 

ИИ-алгоритмы могут быть использованы для генерирования и распространения качественных фейковых новостей, основанных на принципах пост-правды. С помощью фейкньюс производится манипулирование социальными трендами. Это может повлиять на общественное мнение и склонить избирателей в пользу или против конкретного кандидата. 

Принято считать, что впервые подобные «политтехнологии» были опробованы на выборах президента США в 2008 года, на которых победил Барак Обама. Утверждается, что первый чернокожий президент США широко использовал социальные сети в 2008 году и усилил «микротаргетинг» в ходе своей кампании по переизбранию в 2012 году. При этом, это не означает, что бенефициар «социальных манипуляций» является и их организатором — им может оказаться и теневая сторона, заинтересованная в политическом курсе конкретного кандидата. 

Самыми же громкими кейсами стали выборы 2016 года в тех же США, когда победу одержал Дональд Трамп, а также британский Brexit. В обоих случаях ключевую роль сыграла организация Cambridge Analytica, которая занималась автоматизированным сбором, анализом и использованием пользовательских данных с таких платформ, как Facebook, для создания таргетированной политической рекламы. 

Алгоритмы искусственного интеллекта могут анализировать большие наборы данных для выявления конкретных демографических групп и таргетирования персонализированной политической рекламы. Это можно использовать для использования уязвимостей или обращения к определенным эмоциям, влияя на поведение целевых избирателей. Запускаемая в Facebook реклама, в свою очередь, нередко была основана на фейковых новостях, также сгенерированных не без участия ИИ, и ориентировалась на самую «вкусную» для выборов аудиторию — неопределившихся и сомневающихся в своих взглядах пользователей, а также инфлюенсеров и лидеров мнений, задающих «социальные» тренды. Такие манипуляции общественным мнением с тонким микротаргетингом привели к достаточно конкретным последствиям. 

Существуют и локальные кейсы. К примеру, белорусская компания Synesis, как она утверждает, попала под Европейские и американские санкции после ряда фейковых и бездоказательных новостей в соцмедиа о неправомерных применениях своих технологий видеоаналитики. Несмотря на любое отсутствие доказательств и реальных кейсов, компания и ее руководство попало под западные санкции именно под теми формулировками, которые фигурировали в соцсетях и не имели отношения к компании и ее продуктам. 

Автоматизированные спам-боты 

Ботов на базе искусственного интеллекта можно запрограммировать — и это уже часто практикуется — на заполнение социальных сетей автогенерируемыми сообщениями, комментариями и публикациями, что создает иллюзию широкой поддержки действующей власти или оппозиционного кандидата. Это также ведет к формированию ложной реальности и влияет на общественное мнение. 

В повседневной жизни мы видим такие «приемы» не только в деятельности политиков, но и коммерческих брендов и даже блогеров. 

Дипфейки 

Сгенерированные искусственным интеллектом дипфейк-видео или аудио могут запускаться не только с целью повеселить участников «Итогов года», когда вопросы Владимиру Путину задавала его цифровая копия (на деле «автором» вопросов оказался студент питерского вуза). Так, целью дипфейка могут стать прямой обман общественности и/или шантаж кандидатов. Даже с помощью бесплатных deepfake-решений на базе ИИ можно создать ложные прецеденты, когда кандидаты будто бы говорят или делают то, чего на самом деле никогда не делали. А затем, к примеру, распространить в соцсетях с помощью вышеуопмянутого микротаргетинга на лидеров хрупкие аудитории. Все это может нанести ущерб репутации кандидата и повлиять на настроения избирателей. 

Атаки на избирательную инфраструктуру 

От медийных атак перейдем к непосредственным инфраструктурным угрозам. ИИ потенциально может быть использован в кибератаках для компрометации избирательной инфраструктуры, такой как информационных систем для голосования или базы данных регистрации избирателей. Это может привести к сбоям, лишению избирательных прав граждан или манипулированию результатами выборов.

Кругом обман: что делать и как теперь с этим жить?

Наиболее разрушительный потенциал в себе несут комбинированные техники применения ИИ в политических кампаниях. Однако стоит понимать, что самое слабое место в технологиях «современного обмана» — это непосредственно сам человек. Именно за человеком остается выбор источников получения информации, фактчекинг, анализ информации и, наконец, финальный выбор кандидата. 

Поэтому лучшее средство борьбы с «политическими проказами» ИИ — развитие и культуризация цифровой грамотности населения, внедрение селективного потребления информации. Только после того, как все эти пункты будут взяты во внимание, мы сможем предъявлять обоснованные претензии к разработчикам социальных сетей и алгоритмов, ML-инженерам и непосредственно самому искусственному интеллекту. Пока же все происходит наоборот, что неудивительно: природе человека свойственно возложить ответственность на кого-то иного, кроме себя. В этом мы очень проигрываем искусственному интеллекту. Надо догонять.

Поделиться новостью