По словам руководителей Chatterbox Labs, предприятия застревают в аду экспериментов с искусственным интеллектом

Важные новости

Enterprises are getting stuck in AI pilot hell, say Chatterbox Labs execs

Интервью Прежде чем искусственный интеллект станет обычным явлением на предприятиях, руководители корпораций должны ввести постоянный режим тестирования безопасности, учитывающий нюансы моделей искусственного интеллекта.Так считают генеральный директор Chatterbox Labs Дэнни Коулман и технический директор Стюарт Баттерсби, которые подробно рассказали The Register о том, почему компании медлят с переходом от пилотных тестов ИИ к внедрению в производство.

«Сегодня корпоративное внедрение составляет всего около 10%», — сказал Коулман. «McKinsey утверждает, что объем рынка составляет четыре триллиона долларов. Как вы на самом деле собираетесь продвигаться в этом направлении, если продолжаете выпускать продукты, о безопасности использования которых люди не знают или даже не подозревают не только о влиянии на предприятие, но и на общество в целом?»

Он добавил: «Люди на предприятии, они мы не совсем готовы к использованию этой технологии, если она не будет управляемой и безопасной».

В январе консалтинговая фирма McKinsey опубликовала отчет, в котором анализируется нереализованный потенциал искусственного интеллекта (ИИ) на рабочем месте.В отчете «Суперагентство на рабочем месте: расширение прав и возможностей людей для раскрытия всего потенциала ИИ» отмечается растущий интерес и инвестиции в технологии ИИ, но медленное внедрение.

…что вам нужно сделать, так это не доверять риторике ни производителя моделей, ни поставщика ограждений, потому что каждый скажет вам, что это очень безопасно.»Лидеры хотят увеличить инвестиции в ИИ и ускорить разработку, но они ломают голову над тем, как сделать ИИ безопасным на рабочем месте», — говорится в отчете.

Коулман утверждает, что традиционная кибербезопасность и безопасность ИИ сталкиваются, но большинство команд информационной безопасности этого не понимают, поскольку им не хватает опыта, чтобы понять уникальные возможности ИИ для атак. Он указал на приобретение Cisco компании Robust Intelligence и приобретение Palo Alto Networks компании Protect AI в качестве примеров некоторых игроков, которые выбрали правильный подход.Баттерсби сказал, что ключевым моментом для организаций, которые хотят масштабно внедрять ИИ, является внедрение режима непрерывного тестирования, основанного на том, что на самом деле делает ИИ-сервис.»Итак, первое, что нужно сделать, — это подумать о том, что является безопасным для вашего варианта использования», — объяснил он. «И тогда все, что вам нужно сделать, — это не доверять риторике ни производителя моделей, ни производителя ограждений, потому что каждый скажет вам, что это очень безопасно».

Это очень важно, — утверждает Баттерсби, — потому что даже авторизованные пользователи системы искусственного интеллекта могут принимать решения. это приводит к разрушительным последствиям.»Мы пытаемся донести до вас, что фильтры для защиты контента и ограждения недостаточно хороши», — сказал Коулман. «И это не изменится в ближайшее время. Оно должно быть гораздо более многослойным».

Хотя это может повлечь за собой определенные затраты, Баттерсби утверждает, что постоянное тестирование может помочь снизить затраты — например, показав, что меньшие по размеру и более доступные модели столь же безопасны для конкретных случаев использования.

Полное интервью приведено ниже…

Страница:

  • 1
  • 2
  • Следующая →

Новости сегодня

Последние новости