Дипфейки угрожают предстоящим выборам, но «ответственный ИИ» может помочь отфильтровать их, прежде чем они достигнут нас

Важные новости

Дипфейки угрожают предстоящим выборам, но «ответственный ИИ» мог бы помочь отфильтровать их, прежде чем они дойдут до нас». /></p>
<p> Фото: изображение, созданное ИИ </p>
<p>Ранее в этом году тысячам избирателей-демократов в Нью-Гэмпшире заранее позвонили по телефону. праймериз штата, призывая их оставаться дома, а не голосовать.</p>
<p>Предположительно, призыв поступил не кто иной, как президент Джо Байден. Но сообщение оказалось «дипфейком». Этот термин охватывает видео, изображения или аудио, созданные с помощью искусственного интеллекта (ИИ), чтобы выглядеть реальными, хотя на самом деле это не так. Фальшивый звонок Байдена на сегодняшний день является одним из наиболее громких примеров критической угрозы, которую дипфейки могут представлять для демократического процесса во время нынешних выборов в Великобритании и предстоящих выборов в США.</p>
<p>Сообщается, что дипфейковая реклама, выдающая себя за премьер-министра Риши Сунака, охватила более 400 000 человек в Facebook, а молодым избирателям на ключевых полях предвыборной борьбы рекомендуются фальшивые видеоролики, созданные политическими активистами.</p>
<p>Но на помощь могут прийти технологии, которые соответствует набору принципов, известных как «ответственный ИИ». Эта технология может обнаруживать и фильтровать фейки почти так же, как это делает спам-фильтр.</p>
<p>Дезинформация уже давно является проблемой во время избирательных кампаний, и многие средства массовой информации в настоящее время проводят «проверку фактов» в отношении утверждений, сделанных конкурирующими кандидатами. Но быстрое развитие искусственного интеллекта – и в частности генеративного искусственного интеллекта – означает, что грань между правдой и ложью, фактом и вымыслом становится все более размытой.</p>
<p>Это может вызвать разрушительные последствия, посеяв семена недоверия к политическому процессу и поколебав результаты выборов. Если это останется без внимания, мы можем забыть о свободном и справедливом демократическом процессе. Вместо этого мы столкнемся с новой эрой выборов под влиянием ИИ.</p>
<h2>Семена недоверия</h2>
<p>Одной из причин безудержного распространения этих дипфейков является тот факт, что они недороги и просты в создании, не требуя буквально никаких предварительных знаний об искусственном интеллекте. Все, что вам нужно, это решимость повлиять на исход выборов.</p>
<p>Платная реклама может использоваться для распространения дипфейков и других источников дезинформации. Закон о безопасности в Интернете может обязать удалять незаконную дезинформацию после ее выявления (независимо от того, сгенерирована ли она искусственным интеллектом или нет).</p>
<p>Но к тому времени, когда это произойдет, семена недоверия уже посеяны. посеяно в сознании избирателей, искажая информацию, которую они используют для формирования мнений и принятия решений.</p>
<p>Удалять дипфейки после того, как их уже увидели тысячи избирателей, — это все равно, что накладывать пластырь на зияющую рану — слишком мало, слишком поздно. Целью любой технологии или закона, направленного на борьбу с дипфейками, должно быть полное предотвращение вреда.</p>
<p>Имея это в виду, в США создали рабочую группу по искусственному интеллекту, чтобы глубже изучить способы регулирования ИИ и дипфейков. Тем временем Индия планирует ввести штрафы как для тех, кто создает дипфейки и другие формы дезинформации, так и для платформ, которые ее распространяют.</p>
<p>Наряду с этим действуют правила, введенные технологическими компаниями, такими как Google и Meta, которые требуют от политиков раскрывать информацию об использовании ИИ в предвыборной рекламе. Наконец, существуют технологические решения проблемы дипфейков. Семь крупных технологических компаний, в том числе OpenAI, Amazon и Google, будут использовать «водяные знаки» в своем ИИ-контенте для выявления дипфейков.</p>
<p>Однако есть несколько оговорок. Стандартного водяного знака нет, что позволяет каждой компании разрабатывать собственную технологию водяных знаков и затрудняет отслеживание дипфейков. Использование водяных знаков является лишь добровольным обязательством технологических фирм, и несоблюдение этого обязательства не влечет за собой никаких штрафных санкций. Существуют также умные и простые способы удаления водяного знака. Возьмем случай DALL-E, где быстрый поиск раскрывает процесс удаления его водяного знака.</p>
<p>Кроме того, платформы в наши дни являются не единственным средством онлайн-общения. Любой, кто намерен распространять дезинформацию, может легко отправлять дипфейки напрямую избирателям или использовать менее ограничивающие платформы, такие как зашифрованные приложения для обмена сообщениями, в качестве предпочтительного канала для распространения.</p>
<p>Учитывая эти ограничения, как мы можем защитить наши демократии от угрозы, исходящей от дипфейков ИИ? Ответ заключается в том, чтобы использовать технологии для борьбы с проблемой, которую они создали, разрывая цикл передачи дезинформации через Интернет, электронную почту и платформы онлайн-чатов.</p>
<p>Один из способов сделать это — спроектировать и разработать новый механизм «ответственного ИИ» для обнаружения дипфейковых аудио и видео на этапе их создания. Подобно спам-фильтру, он удаляет их из каналов социальных сетей и почтовых ящиков.</p>
<p>Около 20 ведущих технологических компаний, в том числе Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok и X, обязались работать вместе над обнаружением и противодействием вредоносному ИИ-контенту. Эти совместные усилия по борьбе с мошенническим использованием ИИ на выборах 2024 года известны как Техническое соглашение.</p>
<p>Но это лишь первые шаги. Двигаясь вперед, нам нужны ответственные решения в области искусственного интеллекта, которые выходят за рамки простого выявления и устранения дипфейков и находят методы отслеживания их происхождения и обеспечения прозрачности и доверия к новостям, которые читают пользователи.</p>
<p>Разработка этих решений — это гонка со временем, поскольку Великобритания и США уже готовятся к выборам. Необходимо приложить все усилия для разработки и внедрения эффективных мер противодействия политическим дипфейкам к президентским выборам в США, которые состоятся в этом году.</p>
<p>Учитывая темпы развития ИИ и напряженность, которая, вероятно, будет сопровождать кампанию, трудно представить, что мы сможем провести по-настоящему честные и беспристрастные выборы без них.</p>
<p>Пока не будут введены эффективные правила и ответственная технология ИИ для поддержания целостности информации, старая поговорка о том, что «увидеть — значит поверить», больше не актуальна. Это делает текущие всеобщие выборы в Великобритании уязвимыми для влияния дипфейков ИИ.</p>
<p>Избиратели должны проявлять особую осторожность при просмотре любой рекламы, текста, речи, аудио или видео с политической подоплекой, чтобы не быть обманутыми дипфейками, которые стремятся подорвать нашу демократию.</p>
<p> Предоставлено The Conversation</p>
</div></div><div class=

Новости сегодня

Последние новости