G7 утвердит кодекс для разработчиков ИИ - IT Speaker, новости информационных технологий

G7 утвердит кодекс для разработчиков ИИ

Редакция

13:30 / 30 октября 2023

Страны-участницы G7 («Большой семерки») разработали кодекс для компаний-разработчиков систем искусственного интеллекта (ИИ), сообщает Reuters. Документ должен стать ориентиром того, как крупные компании должны управлять ИИ для сокращения рисков неправильного использования данных технологий. 

Фотография freepik

Документ из 11 пунктов направлен на продвижение безопасного, надежного и заслуживающего доверия ИИ во всем мире, заявили представители G7. Предполагается, что кодекс обеспечит добровольное управление действиями организаций, разрабатывающих системы ИИ, включая передовые фундаментальные модели и генеративные системы на базе искусственного интеллекта. 

Документ также призывает компании-разработчики принимать соответствующие меры для выявления, оценки и снижения рисков на протяжении всего жизненного цикла ИИ, а также устранять инциденты и случаи неправильного использования после выхода соответствующих продуктов на рынок. 

В итоге компании обяжут публиковать отчеты о возможностях, ограничениях, использовании и неправильном применении систем искусственного интеллекта, а также инвестировать в надежные средства контроля безопасности. 

Напомним, что в состав G7 входят США, Канада, Великобритания, Франция, Германия, Италия и Япония. 

Насчет ИИ переживают не только страны-участницы G7. Так, компания OpenAI (создатель чат-бота ChatGPT) сформировала подразделение по оценке и исследованию моделей искусственного интеллекта на предмет защиты от «катастрофических рисков». Илья Суцкевер, главный научный сотрудник и соучредитель OpenAI, убежден, что ИИ с уровнем сознания выше человеческого может появиться в ближайшие десять лет, и не факт, что этот ИИ будет доброжелательным. 

В то же время группа отраслевых экспертов, включая основоположников соответствующих технологий, лауреатов премии Тьюринга Йошуа Бенжио и Джеффри Хинтона, уверена, что разработчики технологий на базе искусственного интеллекта должны сами нести ответственность за тот вред, который приносят их продукты. Также они считают, что ИИ угрожает стабильности в обществе.

Поделиться новостью