16 поставщиков технологий согласились ввести ограничения на безопасность ИИ

Важные новости

Обязательства по безопасности ИИ Frontier, обнародованные во вторник в Сеуле, описывают ряд добровольных шагов по снижению рисков, связанных с системами ИИ.

Президент Южной Кореи Юн Сок Ёль (справа) выступает во время виртуального саммита искусственного интеллекта в Сеуле в Южной Корее 21 мая 2024 года. Ведущие мировые компании, занимающиеся искусственным интеллектом, обязались развивать эту технологию безопасно, включая отключение систем, если они могут. ;t обуздать самые крайние риски.

Администрация президента Южной Кореи/AP

Краткое описание:

  • Microsoft, Google, Amazon и 13 других ведущих поставщиков программного обеспечения согласились на Frontier AI Safety Commitments вторник — набор добровольных соглашений, направленных на ответственное развитие технологии.
  • Правительства Великобритании и Южной Кореи объявили об обязательствах во время саммита AI в Сеуле, на котором собрались политики и представители крупных технологических организаций. IBM, Meta и OpenAI также входят в число подписавших соглашение.
  • Поставщики согласились создать и представить структуру безопасности, ориентированную на серьезные риски ИИ, и установить пороговые значения риска, которые заставят поставщиков закрыть модель. Компании планируют опубликовать эти пороговые значения к началу 2025 года во время саммита AI Action во Франции.

Dive Insight:

Надзор за искусственным интеллектом стал глобальной проблемой, учитывая риски, связанные с относительно новой технологией, которая использует данные в качестве топлива. Правительства, обеспокоенные предвзятостью, дезинформацией и кибербезопасностью, усилили меры регулирования.

В дополнение к добровольным обязательствам поставщиков ЕС и 10 стран, включая США, обязались создать глобальную сеть поддерживаемых государством институтов безопасности ИИ, объявили страны во вторник. Сеть будет следовать дорожной карте, установленной Великобританией, которая создала свой собственный институт в 2023 году.

Надзор за ИИ также является приоритетом для законодателей США. Двухпартийная рабочая группа Сената по искусственному интеллекту на прошлой неделе опубликовала долгожданную дорожную карту регулирования искусственного интеллекта — 31-страничный документ, в котором излагаются политические рекомендации по надзору, обучению рабочей силы и разработке стандартов использования искусственного интеллекта.

В США ведущие поставщики программного обеспечения уже подписали под руководством Белого дома добровольное обязательство, направленное на безопасную разработку искусственного интеллекта, в июле 2023 года. 

Технологические гиганты, в том числе Google и Microsoft, вошли в первую группу из 200 участников. Альянс сформировался в феврале и сосредоточился на формировании барьеров ИИ. Группа, называемая Консорциумом Института безопасности ИИ США (AISIC), является частью Института безопасности ИИ США при Национальных институтах стандартов и технологий.

Инициативы по ограничению рисков не замедлили темпы инноваций, поскольку ключевые поставщики продолжают совершенствовать существующие модели и системы. Но меры безопасности, встроенные в пять основных LLM, доступных сегодня, согласно оценке Института безопасности искусственного интеллекта Великобритании, опубликованной в понедельник, неэффективны.

Несмотря на усилия регулирования, руководители предприятий тщательно отслеживают риски, связанные с искусственным интеллектом, в том числе связанные с ними. к генеративному ИИ. Gartner ожидает, что опасения по поводу рисков, связанных с использованием генеративного ИИ, включая судебные иски и нарушение авторских прав, значительно замедлят усилия по внедрению к 2026 году.

Новости сегодня

Последние новости