Ведущие игроки в области искусственного интеллекта обещают отключить модели, представляющие невыносимый риск

Важные новости

Лучшие игроки в области ИИ обещают отключить модели, представляющие недопустимый риск

Шестнадцать мировых лидеров в области ИИ, включая Google, Microsoft, IBM и OpenAI, дали новые, но ни к чему не обязывающие обязательства деактивировать свои собственные технологии, если они проявят признаки того, что они приводят к мрачному результату.< /п> <р>Обязательства были подписаны в день открытия Сеульского саммита AI 2024, который пройдет на этой неделе в Южной Корее. Это мероприятие является продолжением прошлогоднего Саммита по безопасности ИИ, на котором 28 стран и ЕС подписали Декларацию Блетчли – общее видение устранения рисков, связанных с ИИ, но без конкретных или практических обязательств.

Впереди По поводу мероприятия этого года премьер-министр Великобритании Риши Сунак и президент Южной Кореи Юн Сок Ёль написали статью, в которой написали: «Темпы перемен будут только ускоряться, поэтому и наша работа должна ускориться».

< р>На саммите в Сеуле был разработан ряд обязательств по обеспечению безопасности передовых технологий ИИ, в рамках которых подписавшие стороны опубликуют основы безопасности, описывающие, как они будут измерять риски своих моделей ИИ. Это включает в себя определение того, в какой момент риски становятся невыносимыми и какие действия предпримут в этот момент подписавшие стороны. И если меры по снижению рисков не удержат риски ниже пороговых значений, подписавшие стороны обязались «вообще не разрабатывать и не развертывать модель или систему».

Среди других подписантов были Amazon, Anthropic, Cohere, G42, Inflection AI, Meta, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI и Zhipu.ai.

Все это звучит великолепно… но детали не отработаны. И не будет до тех пор, пока в начале 2025 года не пройдет «Саммит по действиям в области искусственного интеллекта».

Стороны, подписавшие Сеульский документ, также взяли на себя обязательство объединить свои передовые модели и системы искусственного интеллекта, обмениваться информацией, инвестировать в кибербезопасность и защиту от инсайдерских угроз в целях защиты невыпущенных технологий, стимулировать обнаружение третьими сторонами уязвимостей и сообщать об них, маркировку контента искусственного интеллекта. , отдавая приоритет исследованиям социальных рисков, связанных с ИИ, и использовать ИИ во благо.

Другими словами, «решать величайшие мировые проблемы».

Пресс-релиз правительства Великобритании назвал участников подписания «самыми значительными компаниями в области технологий искусственного интеллекта во всем мире» и отметил, что в нем участвуют представители «двух крупнейших мировых держав в области искусственного интеллекта» – США и Китая.

Во время саммита Юн и Сунак возглавили совещание лидеров, на котором был принят документ, известный как Сеульская декларация [PDF].

«Мы признаем важность совместимости между системами управления ИИ в соответствии с подходом, основанным на оценке рисков, для максимизации преимущества и устранение широкого спектра рисков, связанных с искусственным интеллектом, для обеспечения безопасного, надежного и заслуживающего доверия проектирования, разработки, внедрения и использования искусственного интеллекта», — говорится в документе.

На заседании присутствовали представители правительства – «Большая семерка» плюс Сингапур, Австралия, ООН, PECD и ЕС – наряду с представителями промышленности. ®

Новости сегодня

Последние новости