черная шляпа Действующие законы США, направленные на борьбу с незаконным взломом компьютерных систем, не учитывают современные большие языковые модели (LLM) и могут подвергнуть исследователей судебному преследованию за то, что должно быть санкционированным тестированием безопасности, утверждают трое ученых из Гарварда.
Закон о компьютерном мошенничестве и злоупотреблении (CFAA) на самом деле даже не применяется к атакам с использованием быстрых инъекций, как написано и интерпретировано правовыми прецедентами, объяснили на Black Hat на этой неделе Рам Шанкар Сива Кумар, Кендра Альберт и Джонатан Пенни, филиалы Гарвардского центра Беркмана Кляйна по Интернету и обществу.
Это означает, говорит Альберт, юрист и преподаватель клиники киберправа Гарвардской школы права, что трудно сказать, где быстрые инъекции и другие злоупотребления LLM переходят в сферу незаконности.
«Рэм, Джон и я пили кофе в сентябре прошлого года, и [они двое] говорили о том, нарушает ли быстрые инъекции CFAA», — сказал Альберт The Register. Альберт не уверен, что быстрая инъекция нарушает CFAA, но чем больше трио копалось в этом, тем больше они находили неопределенности.
«Есть набор вещей, которые, как мы уверены, нарушают CFAA, это вещи, в которых вам вообще не разрешено получать доступ к модели машинного обучения», — сказал Альберт. «Интереснее всего, когда у кого-то есть разрешение на доступ к генеративной системе ИИ или LLM, но он делает с ней то, что люди, которые ее создали, не хотели бы, чтобы они делали».
Несколько лет назад CFAA мог защитить исследователей ИИ, но все изменилось в 2021 году, когда Верховный суд США вынес решение по делу Ван Бюрен против Соединенных Штатов. Это решение фактически сузило CFAA, заявив, что закон применяется только к тем, кто получил информацию из областей компьютера (например, файлов, папок или баз данных), к которым его аккаунт не имел официального доступа.
Это может быть хорошо и хорошо, когда мы говорим о четко определенных компьютерных системах с различными областями, ограниченными с помощью пользовательских элементов управления и тому подобного, но ни Van Buren, ни CFAA не соответствуют ИИ LLM, заявили филиалы Berkman Klein.
«[Верховный суд США] как бы думал о нормальных файловых структурах, где у вас есть доступ к этому или у вас нет доступа к тому», — сказал Альберт. «Это не очень хорошо работает для систем машинного обучения в целом, и особенно когда вы используете естественный язык, чтобы дать подсказку LLM, который затем возвращает какой-то вывод».
Незаконный доступ, с точки зрения CFAA и SCOTUS, должен включать в себя некоторую степень взлома системы, что, по словам Альберта, не так очевидно, когда исследователь безопасности, тестер на проникновение, член красной команды или просто ребенок на ChatGPT, возящийся с подсказками, умудряется сломать ограждения ИИ.
Даже если бы кто-то утверждал, что заставить ИИ раскрыть содержимое своей базы данных можно было бы охарактеризовать как несанкционированный вход в соответствии с CFAA, это тоже не ясно, сказал Сива Кумар, исследователь состязательного машинного обучения.
«В [ИИ] есть очень вероятностный элемент», — сказал нам Сива Кумар. «Базы данных не генерируют, они извлекают».
Попытка перенести юридическое решение 2021 года на LLM, даже спустя несколько коротких лет, не может быть выполнена чисто, добавил он. «Мы знали о [LLM], но Верховный суд — нет, и никто этого не ожидал».
«[Было] поразительно мало внимания уделено правовым последствиям систем искусственного интеллекта, объединенных в команду, по сравнению с объемом работы вокруг правовых последствий авторского права», — добавил Сива Кумар. «Я все еще не знаю, даже после работы с Кендрой и Джоном — ведущими учеными-юристами — защищен ли я от совершения определенной атаки».
Альберт сказал, что маловероятно, что Конгресс внесет изменения в существующие законы, чтобы учесть быстрое тестирование инъекций против ИИ, и что этот вопрос, скорее всего, в конечном итоге будет рассматриваться в суде, чтобы лучше определить разницу между законными, но эксплуататорскими и явно вредоносными запросами ИИ.
В то же время Альберт обеспокоен тем, что двусмысленность CFAA и чрезмерно сутяжнические компании ИИ могут отпугнуть любого, кто действует добросовестно, оставив необнаруженные уязвимости безопасности, готовые к эксплуатации.
«Реальные риски такого рода правовых режимов велики», — сказал Альберт. «Вам удается отпугнуть всех людей, которые ответственно раскрыли бы [уязвимость], и не остановить ни одного из злоумышленников, которые на самом деле использовали бы это во вред».
Итак, как должны действовать исследователи безопасности в это время неоднозначности ИИ?
«Наймите адвоката», — предложил Альберт. ®