Кредит: Unsplash/CC0 Public Domain
Хотя большое внимание откровенным сексуальным 'дипфейкам' уделяется знаменитостям, эти несогласованные сексуальные изображения и видео, созданные с помощью искусственного интеллекта, вредят людям как в центре внимания, так и за его пределами. Поскольку модели искусственного интеллекта для преобразования текста в изображение становятся все более сложными и простыми в использовании, объем такого контента только увеличивается.
Эскалация проблемы привела к тому, что Google в конце концов объявила, что будет работать над фильтрацией таких дипфейков в результатах поиска, а Сенат недавно принял законопроект, позволяющий жертвам требовать возмещения ущерба от создателей дипфейков.
Учитывая это растущее внимание, исследователи из Вашингтонского университета и Джорджтаунского университета захотели лучше понять общественное мнение о создании и распространении того, что они называют «синтетическими медиа». В ходе опроса 315 человек в основном посчитали создание и распространение синтетических медиа неприемлемыми. Но гораздо меньше ответов решительно выступили против поиска этих медиа — даже если они изображали сексуальные действия.
Однако предыдущие исследования показали, что другие люди, просматривающие изображения насилия, например, обнаженные фотографии, опубликованные без согласия, наносят жертвам значительный вред. И почти во всех штатах, включая Вашингтон, создание и распространение такого несогласованного контента является преступлением.
«Согласие в разговорах о синтетических медиа, особенно интимных изображениях, является ключевым моментом, поскольку мы ищем способы уменьшить их вред — будь то с помощью технологий, публичных сообщений или политики», — сказала ведущий автор Натали Грейс Бригхэм, которая была студенткой магистратуры в Школе компьютерных наук и инженерии Пола Г. Аллена в Вашингтонском университете во время завершения этого исследования. «В синтетической наготе не тело субъекта — как мы обычно считали — является предметом обмена. Поэтому нам нужно расширить наши нормы и представления о согласии и конфиденциальности, чтобы учесть эту новую технологию».
Исследователи представили свои выводы 13 августа на 20-м симпозиуме по пригодной конфиденциальности и безопасности в Филадельфии. Работа также опубликована на сервере препринтов arXiv.
«В каком-то смысле мы находимся на новом рубеже в том, как нарушаются права людей на неприкосновенность частной жизни», — сказал соавтор Тадаёси Коно, профессор Вашингтонского университета в Школе Аллена. «Эти изображения синтетические, но они все равно похожи на реальных людей, поэтому их поиск и просмотр вредны для этих людей».
Опрос, который исследователи проводили онлайн через Prolific, сайт, который платит людям за ответы на различные темы, предлагал респондентам из США читать зарисовки о синтетических медиа.
Команда изменила переменные в этих сценариях, например, кто создал синтетические медиа (интимный партнер, незнакомец), почему они их создали (для причинения вреда, развлечения или сексуального удовольствия) и какое действие было показано (субъект совершает половой акт, занимается спортом или говорит).
Затем респонденты ранжировали различные действия по сценариям — создание видео, распространение различными способами, его поиск — от «совершенно неприемлемо» до «совершенно приемлемо» и объясняли свои ответы одним-двумя предложениями. Наконец, они заполняли опросы по согласию и демографической информации. Респонденты были старше 18 лет, и среди них было 50% женщин, 48% мужчин, 2% небинарных и 1% агендерных.
В целом респонденты посчитали создание и распространение синтетических медиа неприемлемыми. Их медиана полностью неприемлемых или в некоторой степени неприемлемых оценок составила 90% для создания этих медиа и 94% для их распространения. Но медиана неприемлемых оценок для поиска синтетических медиа составила всего 53%.
Мужчины чаще, чем респонденты других полов, считали создание и распространение синтетических медиа приемлемыми, в то время как респонденты, которые имели благоприятные взгляды на сексуальное согласие, чаще считали эти действия неприемлемыми.
«Было много политических разговоров о том, чтобы предотвратить создание синтетических обнаженных изображений. Но у нас нет хороших технических инструментов для этого, и нам нужно одновременно защищать случаи использования по обоюдному согласию», — сказала соавтор Элисса М. Редмайлз, доцент кафедры компьютерных наук в Джорджтаунском университете. «Вместо этого нам нужно изменить социальные нормы.
Поэтому нам нужны такие вещи, как сообщения с целью устрашения при поиске — мы видели, что они эффективны для сокращения просмотра изображений сексуального насилия над детьми — и основанное на согласии образование в школах, ориентированное на этот контент».
Респонденты посчитали наиболее приемлемыми сценарии, в которых интимные партнеры создавали синтетические медиа людей, занимающихся спортом или говорящих, с целью развлечения. И наоборот, почти все респонденты посчитали совершенно неприемлемым создавать и распространять сексуальные дипфейки интимных партнеров с целью причинения вреда.
Рассуждения респондентов различались. Некоторые сочли синтетические медиа неприемлемыми, только если результат был вредным. Например, один респондент написал: «Это не причиняет мне вреда и не шантажирует меня… [a] пока это не будет распространено, я думаю, что это нормально». Другие, однако, сосредоточились на своем праве на неприкосновенность частной жизни и праве на согласие. «Я считаю неприемлемым манипулировать моим изображением таким образом — мое тело и то, как оно выглядит, принадлежит мне», — написал другой.
Исследователи отмечают, что будущая работа в этой области должна изучить распространенность несогласованных синтетических медиа, конвейеры того, как они создаются и распространяются, а также различные методы удержания людей от создания, распространения и поиска несогласованных синтетических медиа.
«Некоторые люди утверждают, что инструменты ИИ для создания синтетических изображений принесут пользу обществу, например, искусству или творчеству человека», — сказала соавтор Миранда Вэй, докторант Школы Аллена.
«Однако мы обнаружили, что большинство людей считали создание синтетических изображений других людей в большинстве случаев неприемлемым, что говорит о том, что нам еще предстоит проделать большую работу, когда дело доходит до оценки воздействия новых технологий и предотвращения вреда».
Дополнительная информация: Натали Грейс Бригхэм и др., «Нарушение моего тела:» Восприятие несогласованных (интимных) изображений, созданных ИИ, arXiv (2024). DOI: 10.48550/arxiv.2406.05520
Информация о журнале: arXiv Предоставлено Вашингтонским университетом