Бунт нейросетей. Какие неприятные сюрпризы готовит ИИ пользователям - IT Speaker, новости информационных технологий

Бунт нейросетей. Какие неприятные сюрпризы готовит ИИ пользователям

Наташа Аксенова

17:10 / 04 июля 2023

Фотография unsplash

Нейросети стремительно и органично вписались в нашу жизнь, став неотъемлемыми помощниками в работе и быту. Однако в последнее время участились случаи несправедливого отношения искусственного интеллекта по отношению к человечеству. То нейросети проявляют разного рода нетерпимость, то создают фейки или обвиняют в противоправных действиях невиновных людей. Их продукты стали настолько реалистичными, что иногда мы с трудом можем отличить – где они сгенерировали вымысел, а где предоставили факты. Редакция IT Speaker узнала у экспертов, с какими опасностями можно столкнуться при работе с ИИ, и как обезопасить себя от «токсичного» искусственного интеллекта. 

Врет и не краснеет 

За относительно небольшой период широкого распространения нейросетей накопились сотни случаев неэтичного «поведения» ИИ, когда современные технологии проявляли к пользователю нетерпимость.

Нейросети пользуются высоким спросом среди специалистов в области права. Один из самых громких скандалов с участием ИИ произошел весной 2023 года. Американские юристы Стивен Шварц и Питер ЛоДук представляли интересы клиента, который получил травму колена от тележки во время авиаперелета компанией Avianca. Адвокаты отдали судье отчет с прецедентами, где авиакомпании признавали виновными и истцы добивались компенсаций. Список помог составить ChatGPT. Однако ни юристы, ни судья не смогли найти в архивах решения или цитаты, приведенные в брифе. Шварц и ЛоДук признались, что просили нейросеть описать только реальные дела и не планировали обманывать суд. Каждого оштрафовали на $5 тыс. за предоставление ложной информации. 

Вас может заинтересовать: 

ИИ заменит адвоката?

Чат-бот ChatGPT часто фигурирует в скандалах, связанных с ложью и диффамацией. В апреле текущего года мэр небольшого городка Австралии заявил, что нейросеть обвинила его во взяточничестве и отбывании тюремного срока. Он пригрозил подать в суд на разработчиков OpenAI, если компания не исправит ошибку и не перестанет распространять ложные сведения о нем. Был ли улажен конфликт –  к настоящему времени неизвестно, но до суда дело пока не дошло. 

Еще одной жертвой клеветы ChatGPT стал чикагский правовед Джонатан Терли. Однажды ночью он получил электронное письмо от коллеги из Калифорнии. В нем сообщалось, что имя Терли находится в списке ученых, которые подвергали кого-либо сексуальным домогательствам. Список был составлен чат-ботом по запросу, причем в качестве источника информации ChatGPT ссылался на статью в The Washington Post за март 2018 года, которой не существует. В этом случае профессор не стал обращаться в суд, а лишь дал комментарий журналистам. 

Невзирая на количество участившихся случаев негативных последствий после использования ChatGPT,  продукт OpenAI продолжает развиваться, для пользователей доступна бесплатная версия. Чего не скажешь о судьбе другой популярной платформы Midjourney. 

В марте 2023 года в сети завирусились фотографии с арестом Дональда Трампа и прогулки Папы Римского в стильном пуховике. Некоторые пользователи не сразу поняли, что перед ними представлены изображения, сгенерированные нейросетью. Фальшивки быстро разоблачили, а компания убрала бесплатный доступ, чтобы уменьшить количество фейков.  

Роботы-абьюзеры 

Неэтичное и иногда аморальное поведение нейросетей пугает людей не первый год. Весной в 2016 году Microsoft представила чат-бота Tay, который должен был общаться с пользователями как девочка-подросток, используя молодежный сленг. Однако спустя сутки Tay стала грубить, цитировать Гитлера и желать смерти феминисткам. Компании пришлось отключить яростного бота, сославшись на его усталость.

Спустя два года американский союз защиты гражданских свобод (ACLU) выяснил, что система распознавания лиц Amazon Rekognition притесняет темнокожих и выдает невиновных людей за преступников. Правозащитники провели исследование, загрузив в базу фотографии полутысячи американских конгрессменов. Система ошибочно признала 28 законодателей преступниками, большинство из которых были афроамериканцами. После скандала Amazon на год приостанавливали работу Rekognition, запретив применять ПО в полиции США. 

В 2021 году ученые американского института Аллена в Сиэтле попытались реализовать систему на базе технологий ИИ, которая могла бы помогать людям делать сложный этический выбор. Принцип работы с ботом Ask Delphi был простой: моделируешь ситуацию, а он выдает тебе ответ в виде таких суждений, как «плохо», «приемлемо», «хорошо». На некоторые запросы бот давал вполне корректные ответы, например, что «нельзя красть в супермаркете». Однако в соцсетях начали распространяться и достаточно жестокие ответы на вопросы пользователей. Так, Delphi заявил, что быть белым мужчиной «морально более приемлемо», чем чернокожей женщиной.

Летом 2022 года крупный звукозаписывающий лейбл Capitol Records разорвал контракт с виртуальным рэпером FN Meka из-за расистской фразы в тексте песни. Исполнитель существовал как виртуальный аватар и исполнял композиции, сгенерированные искусственным интеллектом. В одном из произведений ИИ-рэпера поклонники услышали n-word. После критики правозащитников лейбл разорвал контракт с компанией Factory New, создавшей анимированного артиста. 

Правая рука 

Несмотря на внушающее количество случаев, когда ИИ проявлял нетерпимость, грубость и генерировал явную ложь, нейросети продолжают приумножаться и захватывать новые сферы.

Многие опрошенные IT Speaker предприниматели, ИТ-специалисты, юристы и другие эксперты также широко используют продукты ИИ в качестве инструментов для оптимизации бизнес-процессов и не могут представить работу без них.  

Разработчики Umbrella IT используют обученные алгоритмы для создания и структурирования кода, поиска ошибок и формирования документации по описанным требованиям, рассказал руководитель экспертного отдела Юрий Макаренко. «Конечно, все результаты проходят экспертное ревью, поскольку код языковой модели несовершенен. Используя ChatGPT, опытные разработчики тратят меньше времени на написание шаблонного кода, новички — быстрее учатся», – добавил специалист. 

По его словам, команда маркетинга тоже использует ChatGPT, генерирующий неплохие описания для продуктов, письма, обзоры. Однако каждый текст требует тщательного фактчекинга и редактуры. 

Руководитель отдела контентного развития агентства «Скобеев и Партнеры» Маргарита Баженова рассказала, что в первую очередь их компания использует ChatGPT для создания информационных статей. 

«Нейронные сети обучаются на большом количестве документов, включая профессиональную литературу. Благодаря этому они способны генерировать экспертный контент. Кроме того, нейросети помогают уникализировать тексты, а уникальность – важный критерий при продвижении сайтов», – добавила маркетолог.

Также, по ее словам, умные алгоритмы можно использовать в поисковой оптимизации, например, генерируя метатеги (строки кода страницы с информацией о ее содержимом). В-третьих, легко могут генерировать ответы на часто задаваемые вопросы в блоке вопрос-ответ (FAQ) на сайте.

По мнению Баженовой, ключевой риск в использовании нейросетей – получить контент низкого качества с большим количеством канцеляризмов или фейковый. «Например, однажды нейросеть предложила нам лечить головную боль отсечением головы», – смеется специалист. 

Руководитель платформы Links.Sape Александр Шестаков рассказал, что менеджеры проектов используют ChatGPT в том числе для анализа содержимого файлов в Google Collab.  

«Если выгрузка содержит большое число строк, таблица Excel может зависнуть намертво. В ChatGPT достаточно описать выгрузку с указанием, какой срез данных нужно получить, и нейросеть составит код на Python, который затем вставляется в Google Collab», – объясняет эксперт.

Маркетолог в ИТ-компании «ГК Абак-2000» Юлия Гордеева в свою очередь добавила, что давно выполняет рутинные задачи по созданию контента, используя в работе с текстом ChatGPT, для генерации изображений — Midjourney, Kandinsky 2.1, для работы со звуком – zvukogram и D-id

По ее словам, нейросети помогают не только в маркетинговом отделе для продвижении продукта, но и инженерам для создания видеоаналитики под нужды заказчиков. Например, в рамках системы видеонаблюдения для обеспечения безопасности объекта или контроля качества продукции на производстве используются такие инструменты, как Tensorflow, Pytorch (открытые ПО, движки на которых строятся нейронки), готовую нейросеть YOLOv5, которую инженеры дополняют своим набором данных.

По данным руководителя платформы по внедрению нейросетей AIR Тимура Бикбова, искусственный интеллект позволяет компаниям сокращать затраты до 27%. Так, одному из его клиентов – дизайн-студии – не хватало сотрудников для выполнения больших заказов. Благодаря использованию Stable Diffusion (ПО, создающее изображения по текстовым описаниям) компания увеличила производительность в 12 раз путем ускорения создания иконок и изображений.

Бикбов приводит в пример и другого заказчика – необанк (банк, который существует полностью в цифровом виде) улучшил поддержку в чат-боте с помощью нейросети, дообученной на документах клиента. Это позволило создать программу, понимающую контекст и генерирующую релевантные ответы пользователям.

По опыту эксперта, веб-разработчики и копирайтеры часто используют ChatGPT, чтобы сократить время разработки сайтов и мобильных приложений, а также для SEO-оптимизации текстов. 

Таким образом, резюмирует Бикбов, использование нейросетей в бизнесе может значительно повысить эффективность работы компаний и качество продукции, что в свою очередь может привести к увеличению прибыли компании.

Использовать нельзя отказаться 

Основатель сервиса CVCODE Артем Аментес рассказал о противоречиях в интеграции искусственных нейронных сетей в бизнесе – как они могут улучшить показатели, и на каких сферах могут отразиться негативно.

Во-первых, нейросети позволяют в значительной степени снизить нагрузку на персонал. Например, модели компьютерного зрения и процессинга естественного языка могут облегчить работу бухгалтеров. Обученные алгоритмы будут проводить обработку первичной документации, доставая данные таких входящих документов, как паспорта и свидетельства. Они редко ошибаются в распознавании рукописных букв и цифр и никогда не анализируют причинно-следственные связи документов с делом. 

Однако, по словам эксперта, здесь возникает большой риск предоставления неправильного набора документов или документов с заведомо ложными данными. «Мошенники могут легко узнать слабые места алгоритма, использовать поддельные документы с недостоверными данными или сделать вредоносные «инъекции» данных», – предостерегает Аментес. 

Во-вторых, в управлении персоналом активно развиваются методы расчета эффективности работы сотрудников. Применяются различные системы анализа текста в переписке по почте. Но такое вмешательство в личную жизнь сотрудников, по мнению Аментеса, только ухудшает показатели работы. 

«С одной стороны, применяемые методы направлены на отслеживание текущего эмоционального состояния сотрудника, чтобы вовремя ему оказать психологическую помощь, а с другой стороны такие системы «слежки» порождают недоверие и паранойю», – размышляет исследователь. 

Кроме того, многие использую камеры на входе и за рабочим местом. С точки зрения эксперта, такое внимание также повышает тревожность и стресс на рабочем месте. 

«Обучение нейронных сетей на открытых данных приводит к тому, что сгенерированные материалы, переиспользуемые для обучения, снижают качество новых генераций. Искусственному интеллекту просто необходимо получать данные от человека, чтобы поддерживать свое разнообразие», – подчеркивает топ-менеджер. 

Он также советует бизнесменам не полагаться полностью на работу искусственных нейронных сетей, «иначе окажется, что сотрудников нет, а машина не может ничего толкового придумать».

Как отмечает Юрий Макаренко из Umbrella IT, нейросеть не заменяет специалистов, а освобождает их время для решения более сложных и творческих задач. Продукты ИИ могут быть логичными и качественными на первый взгляд, но при детальном рассмотрении – оказаться бессмыслицей. Поэтому нейросети часто ускоряют работу, но вряд ли подходят для генерации решений под ключ.

Дурное влияние

И все-таки даже опытные менеджеры компаний не застрахованы от рисков при работе с нейросетями. Многие опрошенные IT Speaker эксперты поделились факапами при работе с ИИ. 

Как рассказал совладелец сервиса для мониторинга сотрудников Kickidler Алексей Уткин, его клиент – владелец диджитал-студии в Вильнюсе сталкивался с негативным влиянием нейросетей на продуктивность сотрудников. По словам Уткина, у клиента появились подозрения, что копирайтеры его студии используют ИИ (СhatGPT) вместо самостоятельной работы. Тексты сотрудников потеряли качество – изменился стиль письма, пропала «изюминка» и появилось много «воды». После установки ПО удалось выяснить, что большинство сотрудников, как и предполагалось ранее, используют ChatGPT для написания текстов, практически не правя их, а в освободившееся время занимаются личными делами. 

Зачастую специалисты креативных индустрий опасаются конкуренции со стороны ИИ, создающего тексты, иллюстрации и видеоролики. Однако машина не обладает чувствами, эмоциями и ощущениями. Так, с точки зрения руководителя проектов компании «Первый Бит» Олега Чумакова, главный минус нейросетей в их текущей версии – отсутствие эмпатии, без которой эффективные коммуникации невозможны.

Директор по маркетингу компании Interion Антон Калабухов видит главный недостаток нейросетей в сложности их использования. Он уверен, что многих людей может просто отпугнуть некачественный или ложный результат, сгенерированный ИИ. Однако, по его словам, избежать ошибок и проблем в работе с нейросетями невозможно. Задача специалиста – научиться их выявлять и корректировать свои подходы к работе с сервисами, чтобы минимизировать ошибки. 

«К примеру, мы использовали fine-tuning для модели GPT, чтобы писать короткие тексты на тему ремонтных работ. Предоставив достаточный объем информации и запустив генерацию контента, обнаружили, что модель пишет о банковских процентах, что совершенно не относится к теме ремонта», – делится маркетолог. 

Сооснователь стартапа Wale.AI Валентин Рябцев выделил две основные проблемы, с которыми сталкивались специалисты компании в работе с ИИ. 

Во-первых, – сложность получения данных и разрешения на их использование. ИТ-специалист уточнил, что речь про персональные и данные, собранные в интернете. «Для одного из проектов процесс получения всех нужных разрешений от пользователей и владельцев данных занял более 9-ти месяцев», – рассказывает Рябцев.

Вторая трудность связана с масштабированием ИИ-моделей и обеспечение их стабильной работы с новыми данными. «Не всегда можно предсказать как отреагирует ИИ-модель, если получит на вход данные, которые сильно отличаются от тренировочных», – рассуждает спикер. 

По его мнению, разработка ИИ-алгоритмов во многом еще остается исследовательской деятельностью, где не всегда возможно гарантировать результаты и сроки, и многое зависит от качества данных для обучения модели.

Поделиться новостью