Кредит: Pixabay/CC0 Public Domain
Немногие отрасли остаются нетронутыми потенциалом трансформации с помощью искусственного интеллекта (ИИ) — или, по крайней мере, шумихой вокруг него.
Для бизнеса перспективы этой технологии выходят далеко за рамки написания электронных писем. Она уже используется для автоматизации широкого спектра бизнес-процессов и взаимодействий, обучения сотрудников и даже помощи врачам в анализе медицинских данных.
Конкуренция между различными создателями моделей ИИ, включая OpenAI, Meta, Anthropic и Google, продолжит способствовать быстрому совершенствованию.
Мы должны ожидать, что со временем эти системы станут намного умнее, а это значит, что мы можем начать доверять им все больше и больше ответственности.
Тогда возникает большой вопрос: что, если что-то пойдет совсем не так? Кто в конечном итоге несет ответственность за решения, принятые машиной?
Мое исследование изучило именно эту проблему. К сожалению, наши нынешние правовые рамки могут оказаться не на должном уровне.
Кажется, нам удалось избежать катастрофы — пока
По мере развития любой технологии неизбежно что-то пойдет не так. Мы уже видели это на примере Интернета, который принес обществу огромную пользу, но также создал множество новых проблем, таких как зависимость от социальных сетей, утечки данных и рост киберпреступности.
Пока что нам, похоже, удалось избежать глобальной интернет-катастрофы. Однако сбой CrowdStrike в июле, который быстро остановил работу предприятий и многих других служб, стал своевременным напоминанием о том, насколько мы стали зависимы от технологий и как быстро все может развалиться в такой взаимозависимой сети.
Как и ранний интернет, генеративный ИИ также обещает обществу огромные выгоды, но, вероятно, будет иметь некоторые существенные и непредсказуемые недостатки.
Недостатка в предупреждениях, безусловно, не было. Некоторые эксперты считают, что в крайнем случае неконтролируемый ИИ может представлять угрозу «ядерного уровня» и представлять серьезный экзистенциальный риск для человечества.
Одним из самых очевидных рисков является то, что «плохие игроки» — такие как организованные преступные группировки и государства-изгои — используют технологию для преднамеренного причинения вреда. Это может включать использование дипфейков и другой дезинформации для влияния на выборы или для совершения массовых киберпреступлений. Мы уже видели примеры такого использования.
Менее драматичны, но все еще весьма проблематичны риски, возникающие, когда мы доверяем важные задачи и обязанности ИИ, особенно в управлении бизнесом и другими важными услугами. Конечно, не составит большого труда представить себе будущий глобальный технологический сбой, вызванный компьютерным кодом, написанным и отправленным полностью ИИ.
Когда эти ИИ принимают автономные решения, которые непреднамеренно наносят вред — будь то финансовые потери или реальная травма — кого мы считаем ответственным?
Наши законы не готовы
К сожалению, наши существующие теории юридической ответственности могут быть плохо подготовлены к этой новой реальности.
Это связано с тем, что, за исключением некоторых законов об ответственности за качество продукции, современные теории часто требуют наличия вины в результате намерения или, по крайней мере, доказуемой халатности со стороны отдельного лица.
Например, для иска о халатности потребуется, чтобы ущерб был разумно предвидим и фактически причинен поведением проектировщика, производителя, продавца или любого другого лица, которое может быть ответчиком в конкретном деле.
Но по мере того, как системы искусственного интеллекта продолжают развиваться и становиться все более интеллектуальными, они почти наверняка будут делать что-то с результатами, которые, возможно, не были полностью ожидаемы или ожидаемы их производителями, проектировщиками и так далее.
Это «эмерджентное поведение». «может возникнуть потому, что ИИ стал умнее своих создателей. Но это также может отражать самозащитные, а затем и корыстные побуждения или цели передовых систем искусственного интеллекта.
Мое собственное исследование направлено на то, чтобы выявить серьезную надвигающуюся проблему в том, как мы оцениваем ответственность.
< р>В гипотетическом случае, когда ИИ причинил значительный вред, его создатели — люди и корпорации — смогут защитить себя от уголовной или гражданской ответственности.
Они могли бы сделать это, заявив, что ущерб нельзя было разумно предвидеть. ими, или что неожиданные действия ИИ разорвали причинно-следственную связь между поведением производителя и потерями, ущербом или вредом, понесенными жертвами.
Это может быть возможной защитой как от уголовных, так и от гражданских исков. .
То же самое касается и аргумента защиты в уголовном порядке о том, что то, что называется «элементом вины» преступления — намерение, знание, безрассудство или халатность — разработчика системы ИИ не было подкреплено необходимым «физическим элементом», который в данном случае был бы совершен машиной.
Нам нужно подготовиться сейчас
Рыночные силы уже быстро продвигают вперед искусственный интеллект. Куда именно — менее определенно.
Может оказаться, что общее право, которое у нас есть сейчас, разработанное судами, достаточно адаптивно, чтобы справиться с этими новыми проблемами. Но также возможно, что мы обнаружим, что нынешние законы несовершенны, что может добавить ощущение несправедливости к любым будущим катастрофам.
Важно будет убедиться, что те корпорации, которые получили наибольшую прибыль от разработки ИИ, также несут ответственность за его издержки и последствия, если что-то пойдет не так.
Подготовка к решению этой проблемы должна стать приоритетом для судов и правительств всех национальных государств, а не только Австралии.
Предоставлено The Conversation