США и союзники подписали стандарт безопасности ИИ - IT Speaker, новости информационных технологий

США и союзники подписали стандарт безопасности ИИ

Редакция

15:13 / 27 ноября 2023

США, Великобритания и более десяти других стран подписали международное соглашение, посвященное безопасности в сфере технологий на базе искусственного интеллекта (ИИ), сообщает агентство Reuters. Разработанный стандарт подразумевает, что ИИ будет создаваться изначально безопасным еще на этапе разработки. Кроме США и Великобритании к соглашению присоединились Германия, Италия, Чехия, Эстония, Польша, Австралия, Чили, Израиль, Нигерия и Сингапур. 

Фотография freepik

По данным документа, компании, занимающиеся разработкой и эксплуатацией ИИ-систем, должны придерживаться стратегий, направленных на защиту пользователей и общественности от злоупотреблений. Содержание документа включает ряд общих рекомендаций, таких как мониторинг ИИ-систем на предмет потенциальных преступлений, защита данных от несанкционированного доступа и тщательная проверка поставщиков ПО. 

Джен Истерли, директор Агентства кибербезопасности и безопасности инфраструктуры США (CISA), подчеркнула значимость международного консенсуса по данному вопросу. По ее словам, впервые так много стран пришли к соглашению о том, что в фокусе разработки искусственного интеллекта должна стоять безопасность, а не только инновационные функции или снижение затрат.  

В документе также рассматриваются меры противодействия угрозам со стороны хакеров. Рекомендации включают выпуск ИИ-моделей только после проведения всесторонних тестов на безопасность. Однако в соглашении не затрагиваются сложные вопросы, касающиеся целесообразного использования ИИ и методов сбора данных. 

В России тоже задумываются об этичном использовании ИИ. Так, в октябре 2021 года крупнейшие российские компании, включая «Сбер» и «Яндекс», подписали кодекс этики в сфере искусственного интеллекта. Кодекс устанавливает общие принципы и стандарты поведения. Его рекомендации рассчитаны на системы ИИ, применяемые исключительно в гражданских (не военных) целях. 

В то же время ведущие исследователи ИИ и руководители технологических компаний опубликовали открытое письмо, в котором предупреждают об опасности искусственного интеллекта, сравнив развитие технологий с ядерной войной и пандемией. Среди подписантов — генеральный директор Google DeepMind Демис Хассабис и генеральный директор OpenAI Сэм Альтман. 

Также Guardian недавно опубликовал интервью с историком и писателем Ювалем Ной Харари. В нем он рассказал о том, что искусственный интеллект может стать причиной нового финансового кризиса, последствия которого будут катастрофическими.

Поделиться новостью