Ученые нашли, как отучить ИИ запоминать вредный контент - IT Speaker, новости информационных технологий

Ученые нашли, как отучить ИИ запоминать вредный контент

Редакция

16:10 / 25 марта 2024

Специалисты Техасского университета (Остин, США) представили метод, с помощью которого можно удалять нежелательный контент из памяти нейросетей без переобучения модели. Такая технология получила название «машинного отучения». 

Фотография freepik

Сейчас, когда ИИ запоминает и генерирует нежелательный контент, например, изображения насилия или авторские материалы, удалить их из памяти можно только с помощью переобучения модели. Однако ученые Техасского университета разработали алгоритм, который позволяет удалять необходимые фрагменты, при этом не затрагивая «хорошие» данные. Модерацию такого «отучения» осуществляют люди, что дает дополнительную модерацию и повышает качество проверки, а также дает возможность оперативно реагировать на запросы пользователей.

Отметим, что вопрос использования нейросетями авторских материалов – один из наиболее острых в сфере обучения ИИ-моделей. Ранее газета The New York Times подала в суд на OpenAI, заявив, что при обучении чат-бота ChatGPT компания использовала материалы издания, не имея на то разрешения. В OpenAI заметили, что брали открытые данные из интернета, поэтому не обязана платить лицензионные отчисления.

Вас может заинтересовать: 

ChatGPT «поймал глюк»

Поделиться новостью