Исследователи анализируют характеристики дипфейков, созданных ИИ

Важные новости

Исследователи анализируют характеристики ИИ -сгенерированные дипфейки

Фото: изображение, сгенерированное искусственным интеллектом

Большинство дипфейков (видео с поддельными гиперреалистичными воссозданиями), созданных искусственным интеллектом (ИИ), которые распространяются через социальные сети, изображают политических представителей и художников и часто связаны с текущими циклами новостей.

Таков один из выводов исследования Мадридского университета Карлоса III (UC3M), которое анализирует формальные и содержательные характеристики вирусной дезинформации в Испании, возникающей в результате использования инструментов ИИ в незаконных целях. Это достижение представляет собой шаг к пониманию и смягчению угроз, порождаемых мистификациями в нашем обществе.

В исследовании, недавно опубликованном в журнале Observatorio (OBS*), исследовательская группа изучил этот фейковый контент посредством проверок испанских организаций по проверке фактов, таких как EFE Verifica, Maldita, Newtral и Verifica RTVE.

«Цель заключалась в том, чтобы выявить ряд общих закономерностей и характеристик в этих вирусных дипфейках, предоставить некоторые подсказки для их идентификации и внести некоторые предложения по медиаграмотности, чтобы граждане могли бороться с дезинформацией», — объясняет один из авторов, Ракель Руис Инсертис, научный сотрудник отдела коммуникаций UC3M, где она работает над докторской диссертацией. в европейском общении.

Исследователи разработали типологию дипфейков, которая упрощает их выявление и нейтрализацию. Согласно результатам исследования, некоторые политические лидеры (например, Трамп или Макрон) были главными героями контента, посвященного употреблению наркотиков или морально предосудительной деятельности. Также существует значительная доля порнографических дипфейков, наносящих вред неприкосновенности женщин, в частности, разоблачающих известных певиц и актрис. По словам исследователей, они обычно передаются с неофициальных аккаунтов и быстро распространяются через службы обмена мгновенными сообщениями.

Распространение дипфейков или частое использование изображений, видео или аудио, обработанных с помощью инструментов искусственного интеллекта, является весьма актуальной проблемой. «Такой тип заранее сфабрикованных мистификаций особенно вреден в деликатных ситуациях, например, в предвыборный период или во время конфликтов, подобных тем, которые мы сейчас переживаем на Украине или в секторе Газа. Это то, что мы называем «гибридными войнами»: война Борьба ведется не только в физической сфере, но и в цифровой сфере, и ложь сегодня более значительна, чем когда-либо», — говорит Руис Инсертис.

Приложения этого исследования разнообразны: от национальной безопасности до честности избирательных кампаний. Результаты показывают, что активное использование искусственного интеллекта на платформах социальных сетей может революционизировать способы обеспечения подлинности информации в эпоху цифровых технологий.

Исследование подчеркивает необходимость повышения медиаграмотности и предлагает образовательные стратегии, направленные на улучшение способности общественности отличать реальный контент от манипулируемого. «Многие из этих дипфейков можно идентифицировать с помощью обратного поиска изображений в поисковых системах, таких как Google или Bing. Существуют инструменты, позволяющие общественности за пару кликов проверить точность контента, прежде чем распространять контент сомнительного происхождения. Главное — научить им, как это сделать», — говорит Руис Инсертис.

Он также дает другие советы по обнаружению дипфейков, например, обращайте внимание на резкость краев элементов и четкость фона изображения: замедлены ли движения на видео или есть ли какие-либо изменения лица, диспропорция тела или странная игра света и теней, все указывает на то, что это может быть контент, созданный искусственным интеллектом.

Кроме того, авторы исследования также видят необходимость принятия законодательства, обязывающего платформы, приложения и программы (такие как Midjourney или Dall -e) установить «водяной знак», который идентифицирует их и позволяет пользователю с первого взгляда узнать, что изображение или видео было изменено или полностью создано с помощью ИИ.

Исследовательская группа использовала междисциплинарный подход. , сочетая науку о данных и качественный анализ, чтобы изучить, как организации по проверке фактов применяют ИИ в своей деятельности. Основная методология — контент-анализ около тридцати публикаций, взятых с веб-сайтов вышеупомянутых фактчекеров, в которых этот контент, созданный или созданный искусственным интеллектом, опровергается.

Подробнее : Мириам Гаррига и др., Предложения по искусственному интеллекту, дезинформации и медиаграмотности в отношении дипфейков, Observatorio (OBS*) (2024). DOI: 10.15847/obsOBS18520242445 Предоставлено Мадридским университетом Карлоса III.

Новости сегодня

Последние новости