Мэтт Калкинс сказал, что он работает с законодателями, чтобы помочь сформировать правила, которые потребуют раскрытия источников данных и согласия владельцев авторских прав.
Оливье Ле Моаль через Getty Images
Федеральные правила США относительно ИИ и интеллектуальной собственности остаются неясными, поскольку предприятия добавляют эту технологию во все большее число рабочих процессов. Генеральный директор Appian Мэтт Калкинс хочет помочь закрыть этот пробел.
«Мы недостаточно говорим о вторжении ИИ в личную жизнь и личную информацию, интеллектуальную собственность, и это должно быть частью разговора», — сказал Калкинс CIO Dive.
Руководитель сказал, что он работает с законодателями США, чтобы помочь добавить требования к прозрачности и обучению в предстоящие предложения по регулированию ИИ.
Калкинс включил четыре основных положения в предлагаемые им правила защиты интеллектуальной собственности:
- Все модели ИИ должны раскрывать все источники данных.
- Любое использование ИИ личных данных требует согласия и компенсации.
- Любое использование ИИ персональных данных требует анонимизации и разрешения.
- Любое использование ИИ информации, защищенной авторским правом, требует согласия и компенсации.
Руководящие принципы появились из желания Калкинса повысить доверие к ИИ, что является заметным препятствием по мере продвижения усилий по внедрению на предприятиях. Некоторые коллеги из отрасли также присоединяются к усилиям, например, основатель и генеральный директор ScienceLogic Дэвид Линк.
«Мэтт и я горячо верим, что новые технологии получают либо более быстрое внедрение… либо большее доверие, если мы действительно понимаем источник наборов данных, и я думаю, что это то, чего не хватает», — сказал Линк CIO Dive.
Для ИТ-директоров отсутствие четких правил защиты интеллектуальной собственности создает многосторонний риск. Использование инструмента ИИ без знания его источников данных может открыть бизнес для неизвестных юридических последствий. Непрозрачность также может ограничить понимание организацией того, как вариант использования согласуется с внутренними этическими стандартами.
Клиенты также выразили обеспокоенность по поводу прозрачности моделей ИИ. Согласно опросу Gartner, опубликованному в июле, почти две трети клиентов отвергают использование ИИ в обслуживании клиентов. Отсутствие доверия создало раскол, который представляет угрозу для предприятий.
Zoom и Slack обновили свои положения и условия после негативной реакции на формулировку, которая допускала широкий контроль над данными клиентов для обучения систем ИИ. Некоторые поставщики, такие как Adobe, также скорректировали политику обучения ИИ, чтобы устранить путаницу с владением данными, в то время как другие расширили свой контроль над данными клиентов.
«Основные игроки в области ИИ перегибают палку, используя мелкий шрифт», — сказал Калкинс. «Сглаживаются углы, и доверие теряется в лихорадочной спешке использовать больше информации. Получение всех этих данных ценой доверия — это полная противоположность тому, что мы должны делать».
Укрепление доверия
Текущий законодательный ландшафт вокруг ИИ представляет собой лоскутное одеяло из в основном предлагаемых правил и положений на местном или государственном уровнях. Бюро по авторским правам США опубликовало первую часть своих выводов после более чем года своего расследования политических вопросов, поднятых ИИ, но информация, связанная с правовыми последствиями обучения моделей ИИ, еще не была опубликована. Суды также работают над множеством исков, связанных с авторскими правами и интеллектуальной собственностью, против крупных технологических компаний.
«Я не верю, что текущее регулирование помогает отрасли», — сказал Калкинс.
На данный момент предприятия должны гарантировать, что доверие между сотрудниками и клиентами и компаниями не подрывается.
Более половины предприятий называют нарушение прав интеллектуальной собственности одним из главных рисков генеративного ИИ, но только четверть работают над снижением риска, согласно отчету McKinsey, опубликованному в мае.
Организации, которые сосредоточились на борьбе с риском, работали над созданием более эффективных защитных ограждений интеллектуальной собственности.
Procter & Gamble в прошлом году отдала приоритет усилению мер защиты интеллектуальной собственности перед тем, как развернуть свой внутренний инструмент генеративного ИИ для сотрудников. Вице-президент по ИТ American Honda Боб Брайзендин сказал, что потеря интеллектуальной собственности была одним из первых рисков, которые организация хотела устранить, прежде чем двигаться вперед к планам внедрения.
Поскольку, по данным Capgemini, только 6% предприятий воздерживаются от генеративного ИИ, потребность в четком управлении и практиках, способствующих доверию, имеет решающее значение.
Кэлкинс сказал, что обучение сотрудников также является хорошим местом для начала усилий по смягчению последствий. Если неясно, как модель ИИ получает свои ответы, сотрудники не должны слепо доверять технологии.
Согласно исследованию Gartner, ожидается, что предприятия увеличат расходы на сдерживание нарушения авторских прав и предотвращение потери интеллектуальной собственности в ближайшие два года. Однако эти усилия, скорее всего, повредят рентабельности инвестиций и замедлят внедрение.