Slack меняет язык политики ИИ после негативной реакции пользователей

Важные новости

Компания работает над разъяснением взаимосвязи между данными клиентов и генеративным искусственным интеллектом на своей платформе для совместной работы, учитывая обеспокоенность пользователей.

Логотип Slack отображается на Монитор торгового поста на Нью-Йоркской фондовой бирже 20 июня 2019 года в Нью-Йорке. Компания Slack, принадлежащая Salesforce, обновила свою политику конфиденциальности в области искусственного интеллекта и машинного обучения в пятницу после того, как ранее на этой неделе были обсуждены опасения клиентов по поводу прав на использование данных. Дрю Ангерер через Getty Images

Краткое описание погружения:

  • Компания Slack, принадлежащая Salesforce, обновила свою политику конфиденциальности в области искусственного интеллекта и машинного обучения в пятницу после того, как ранее на этой неделе были обсуждены опасения клиентов по поводу прав на использование данных.
  • «Мы могли бы лучше объяснить наш подход, особенно в отношении различий в том, как данные используются в традиционных моделях машинного обучения и в генеративном искусственном интеллекте», — сказал Slack в пятничном сообщении в блоге.
  • <ли>Платформа для совместной работы заявила, что не разрабатывает LLM или другие генеративные модели с использованием данных клиентов, а также не сканирует содержимое сообщений для обучения моделей ИИ. Slack заявила, что не изменила свою политику или практику, но обновила формулировку, чтобы обеспечить большую ясность.

Dive Insight:

Политики, обеспечивающие широкий контроль над пользовательскими данными, вызывают беспокойство клиентов — и не без оснований.

Компании не хотят, чтобы конфиденциальные внутренние данные подпитывали сторонние модели. По данным августовского опроса Alteryx, в котором приняли участие 300 лидеров в области обработки данных, для организаций, использующих генеративный искусственный интеллект, владение данными, конфиденциальность данных и защита интеллектуальной собственности являются одними из главных проблем.

Slack утверждает, что поставщики LLM никогда не получают доступа к данным клиентов. . Однако неясные формулировки политики могут подорвать доверие клиентов.

«Некоторые члены сообщества Slack попросили внести больше ясности в отношении наших принципов конфиденциальности», — сообщил представитель Salesforce в электронном письме CIO Dive. «Мы обновили эти принципы, чтобы лучше объяснить взаимосвязь между данными о клиентах и ​​генеративным искусственным интеллектом в Slack, и опубликовали сообщение в блоге, чтобы предоставить больше контекста».

По мере расширения внедрения ИИ пользователи более внимательно присматриваются к ним. какой доступ и право собственности имеют поставщики на свои данные.

«То, что компания говорит, что она может делать с вашими данными, и то, что она на самом деле может делать с вашими данными, могут сильно различаться», — Шива Натан, основатель и генеральный директор стартапа по разработке приложений Onymos, говорится в электронном письме. «Модель SaaS уже представляла собой проблему для безопасности и конфиденциальности данных до бума искусственного интеллекта — сейчас ситуация станет намного хуже».

В августе компания Zoom оказалась в аналогичной ситуации, поскольку вокруг ее политических формулировок усилилась критика. и использование данных клиентов. Хотя компания обновила формулировку, исключив определенные данные из обучения ИИ, ряд мероприятий положил начало более широкому разговору о защите данных.

Чтение мелкого шрифта пользовательских соглашений имеет решающее значение при планировании развертывания инструментов ИИ в организациях. Если политика неясна, ИТ-директора и отделы закупок должны чувствовать себя вправе отклонить претензии поставщиков и запросить доказательства.

Новости сегодня

Последние новости