Новые результаты в исследованиях ИИ: люди едва способны распознавать медиа, созданные ИИ

Важные новости

Новые результаты в исследованиях искусственного интеллекта: люди едва способны распознавать медиа, созданные искусственным интеллектом» /></p>
<p> Визуализация к статье «Репрезентативное исследование по обнаружению человеком искусственно созданных медиа в разных странах». Фото: CISPA </p>
<p>Изображения, тексты и аудиофайлы, созданные с помощью ИИ, настолько убедительны, что люди больше не могут отличить их от контента, созданного человеком. Это результат онлайн-опроса, в котором приняли участие около 3000 участников из Германии, Китая и США. Впервые в крупном транснациональном исследовании изучалась именно эта форма медиаграмотности.</p>
<p>Преподаватель CISPA доктор Леа Шенгерр и профессор доктор Торстен Хольц представили результаты на этой неделе на 45-м симпозиуме IEEE по безопасности и конфиденциальности, который состоялся в Сан-Франциско 20–23 мая. Исследование было проведено в сотрудничестве с Рурским университетом в Бохуме, Ганноверским университетом Лейбница и Берлинским техническим университетом и размещено на сервере препринтов <i>arXiv</i>.</p>
<p>В связи с быстрым развитием области искусственный интеллект, массы изображений, текстовых и аудиофайлов теперь можно создавать всего за несколько кликов.</p>
<p>Профессор д-р Торстен Хольц объясняет связанные с этим риски, по его мнению: «Искусственно созданный контент может быть использован во многих целях. В этом году нам предстоят важные выборы, такие как выборы в Парламент ЕС или президентские выборы в СМИ США, созданные искусственным интеллектом, можно очень легко использовать для влияния на политическое мнение. Я рассматриваю это как серьезную угрозу нашей демократии».</p>
<p>На этом фоне автоматическое распознавание медиа, созданных ИИ, является важной исследовательской задачей. «Но это гонка на время», — объясняет доктор Леа Шенгерр, преподаватель факультета CISPA. «Средства массовой информации, созданные с помощью недавно разработанных методов генерации искусственного интеллекта, становится все труднее распознавать с помощью автоматических методов. Вот почему в конечном итоге это зависит от того, сможет ли человек сделать соответствующие оценки».</p>
<p>Это соображение стало отправной точкой для исследования того, могут ли люди вообще способны идентифицировать носители, созданные ИИ.</p>
<h2>Большинство участников относят носители, созданные ИИ, к искусственным</h2>
<p>Результаты их транснационального межмедийного исследования поразительны. «Мы уже находимся на этапе, когда людям сложно, хотя и не невозможно, определить, является ли что-то реальным или созданным искусственным интеллектом. И это относится ко всем типам медиа: тексту, аудио и изображениям», — объясняет Хольц. </p>
<p>Во всех странах и типах СМИ большинство участников исследования отнесли средства массовой информации, созданные ИИ, к искусственным.</p>
<p>«Мы были удивлены тем, что существует очень мало факторов, которые можно использовать, чтобы объяснить, лучше ли люди распознают средства массовой информации, созданные ИИ, или нет. Даже среди разных возрастных групп и таких факторов, как образование, политические взгляды или медиаграмотность, различия очевидны. не очень существенно», — уточняет Хольц.</p>
<h2>Исследование включает социально-биографические данные</h2>
<p>В период с июня 2022 года по сентябрь 2022 года количественное исследование проводилось в виде онлайн-опроса в Китае, Германии и США. Респонденты были случайным образом отнесены к одной из трех медиа-групп «текст», «изображение» или «аудио», и им было показано 50% реальных и 50% созданных искусственным интеллектом медиа. Кроме того, были собраны социально-биографические данные, знания о средствах массовой информации, созданных искусственным интеллектом, а также такие факторы, как медиаграмотность, целостное мышление, общее доверие, когнитивная рефлексия и политическая ориентация.</p>
<p>После очистки данных осталось 2609 наборов данных (822 из США, 875 из Германии, 922 из Китая), которые послужили основой для анализа. Аудио и текстовые файлы, сгенерированные ИИ, использованные в исследовании, были созданы самими исследователями, а изображения, сгенерированные ИИ, были взяты из существующего исследования. В качестве изображений они использовали фотореалистичные портреты, тексты — новостные сюжеты, а аудиофайлы — отрывки из литературы.</p>
<h2>Отправные точки для дальнейших исследований</h2>
<p>Результаты исследования дают важные выводы для исследований в области кибербезопасности. «Существует риск того, что тексты и аудиофайлы, сгенерированные ИИ, будут использоваться для атак социальной инженерии. Вполне возможно, что следующее поколение фишинговых электронных писем будет персонализировано для меня и что текст будет идеально соответствовать мне», — заявил Шö Нгерр объясняет. Она считает, что разработка защитных механизмов именно для таких сценариев атак является важной задачей на будущее.</p>
<p>Однако в результате исследования также выявляются потребности в дальнейших исследованиях. «Во-первых, нам нужно лучше понять, как люди вообще могут распознавать медиа, созданные ИИ. Мы планируем лабораторное исследование, в котором участники должны будут объяснить нам, как они распознают, создано ли что-то с помощью ИИ или нет. С другой стороны, , нам нужно подумать, как мы можем поддержать это технически, например, с помощью автоматизированных процессов проверки фактов», — заключает Шёнхерр.</p>
<p><strong>Дополнительная информация:</strong> Джоэл Франк и др., Репрезентативное исследование по обнаружению человеком искусственно созданных медиа в разных странах, <i>arXiv</i> (2023). DOI: 10.48550/arxiv.2312.05976 </p>
<p><strong>Информация журнала:</strong> arXiv Предоставлено CISPA Центром Гельмгольца по информационной безопасности</p>
</div></div><div class=

Новости сегодня

Последние новости