Накануне Международного саммита по безопасности ИИ ведущие эксперты обнародовали открытое письмо

04 ноября, 7:57
IT

Открытое письмо с призывом к мировому сообществу заключить международный договор о безопасности искусственного интеллекта опубликовали ведущие эксперты в области ИИ. Документ представлен накануне проведения первого Международного саммита по безопасности ИИ, который состоялся в Великобритании 1 и 2 ноября 2023 года.

В обращении говорится о необходимости разработать и ратифицировать договор о безопасности ИИ, для чего в ходе Саммита следует создать рабочую группу. Цель соглашения – снижение с помощью предотвращения бесконтрольного масштабирования возможностей ИИ катастрофических рисков, которые системы ИИ представляют для всего человечества, и обеспечение доступа к благам ИИ для всех людей.

Специалисты отмечают, что международный договор должен включать положения о всемирных ограничениях на объем вычислений для обучения какой-либо модели ИИ, создании организации по безопасности ИИ, которая объединит ресурсы, знания и опыт в деле безопасности ИИ, а также комиссии по соблюдению договора.

Письмо подписали научные эксперты, лидеры бизнеса и государственного управления, многие из которых являются членами Консультативного органа высокого уровня ООН по ИИ или входят в число избранных экспертов, приглашенных на Международный саммит по безопасности ИИ. В их числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, известный когнитивист Гари Маркус, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна и другие.

Китайский учёный Йи Цзэн считает: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».