Объединить мировые ресурсы, опыт и знания в деле безопасности ИИ предложили ведущие эксперты

4 ноября

К мировому сообществу обратились ведущие эксперты в области ИИ с предложением объединить мировые ресурсы, знания и опыт в деле безопасности искусственного интеллекта. Инициативу, благодаря которой появилось открытое письмо с призывом заключить международный договор о безопасности искусственного интеллекта, возглавил Толга Билге, британский прогнозист и студент магистратуры по математике в Бергенском университете.

В письме, представленном накануне проведения 1 и 2 ноября 2023 года в Лондоне Международного саммита по безопасности ИИ, заявлено о необходимости разработать и ратифицировать договор о безопасности ИИ, который получит во всем международном сообществе широкое одобрение. Разработать документ должна специальная рабочая группа – ее эксперты предложили создать на Саммите по безопасности ИИ.

«Обеспечение того, чтобы ИИ был безопасным и приносил пользу всем, является не только технической, но и геополитической проблемой. Нам нужно, чтобы великие державы мира, включая США и Китай, отложили в сторону свои разногласия ради человечества и конструктивно работали над созданием надежного набора международных правил, направленных на сосредоточение внимания на этих проблемах», – заявил Толга Бильге.

ИИ может нести серьезнейшие риски, которые необходимо выявить и подготовиться к ним, отметили в комментариях к письму эксперты. По их мнению, нужны исследования для понимания и смягчения проблем безопасности и этики, связанных с ИИ, а также достижение соглашения между странами о контроле и управлении этими рисками, поскольку проблемы ИИ затрагивают интересы каждого человека на планете.

Многие специалисты, включая известного когнитивиста Гари Маркуса, ведущего эксперта в области безопасности и управления ИИ в Китае Йи Цзэна, обладателя премии Тьюринга и пионера ИИ Йошуа Бенджио, члена правления ведущей лаборатории ИИ Anthropic Люка Мюльхаузера и старшего научного сотрудника Google DeepMind и соучредителя Института будущего жизни (FLI) Викторию Краковна, подписали открытое письмо.

Обеспечение доступа к благам ИИ для всех людей и сокращение благодаря исключению бесконтрольного масштабирования возможностей искусственного интеллекта глобальных рисков, которые для человечества представляют системы искусственного интеллекта – главные цели международного договора по безопасности ИИ.

Читайте также