Дипфейки и ИИ в предвыборной агитации в Индии: эксперты опасаются, что технологии могут изменить выборы во всем мире

Поделиться
Дипфейки и ИИ в предвыборной агитации в Индии: эксперты опасаются, что технологии могут изменить выборы во всем мире ИИ может изменить выборы во всем мире © Генерація в Runwayml по запросу ZN.UA
С помощью ИИ политики генерируют компромат на оппонентов.

19 апреля в Индии стартовали выборы в нижнюю палату парламента, которые могут стать крупнейшими в мире. Потенциально, в голосовании примут участие 970 миллионов человека – 12% от населения планеты. Результаты выборов станут известны 4 июня.

Действующего главу правительства Индии Нарендру Моди обвиняют в разжигании розни и усилении репрессий. Его критики утверждают, что победа партии «Бхаратия джаната парти»  на выборах третий раз подряд угрожает демократии в стране.

Но напряженная обстановка на выборах связана и с тем, что оппоненты используют для агитации и пропаганды искусственный интеллект (ИИ). И эксперты опасаются, что вскоре такие технологии могут изменить выборы во всем мире, сообщает «Медуза».

Роль технологий в предыдущих выборах

«Бхаратия джаната парти» (БДП)  использовала ИИ еще на предыдущих выборах в 2014 году. Тогда с помощью технологий создавали персонифицированные обращения к избирателям. С тех пор технологии прочно закрепились в предвыборном арсенале индийских политических деятелей.

Дипфейки стал ключевым элементом борьбы на выборах в законодательное собрание Дели в 2020 году. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари.  

Тогда представители партии обосновали использование технологий тем, что не дискредитировали конкурентов, а пытались донести послание до как можно более широкой аудитории. Но возмущение у общественности вызывал сам факт появления таких видео.

Но после парламентских выборов 2019 года сомнения в допустимости использования ИИ усилились. Это было связано с тем, что оппоненты активно использовали соцсети для продвижения фейков о конкурентах. Тогда исследователи из Microsoft Research пришли к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду».

В заключительные недели перед выборами 2019 году исследователи из Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и манипулировать трафиком в пользу некоторых из участников избирательного процесса. В Facebook также наблюдался наплыв ботов, в соцсети распространялись фейковые фотографии и видео.

Чем отличаются выборы 2024

В этом году манипуляции и распространения фейков вышли на новый уровень. Это стало возможно благодаря развитию технологии генеративного искусственного интеллекта.

«Генеративный ИИ сам по себе не представляет больше опасности, чем боты. Однако теперь мы имеем дело и с ботами, и с генеративным ИИ», - заявила  специалистка в области вычислительных социальных наук Кэтлин Карли.

Генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить большую аудиторию и дольше избегать блокировки.

Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, отмечает, что технологии ИИ никак не регулируются, поэтому выборы могут превратиться в «Дикий Запад».

Как политики манипулируют с помощью ИИ

Использование дипфейк-видео также стало довольно распространенными, их героями становятся даже звезды Болливуда. С помощью ИИ политики также генерируют компромат на своих оппонентов.

Так, в начале марта в Instagram распространили видео с Моди, стилизованным под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Видео сгенерировал ИИ, оно должно было олицетворять роль, которую действующему премьер-министру Индии отводят его сторонники.

По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в Instagram, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем.

Al Jazeera сообщает, что ИИ для агитации пользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. В Instagram и Facebook распространялись изображения политика, который позирует с фермерами и детьми. В подписи к таким фото значилось, что Ганди «сочувствует фермерам и обещает им безоговорочную поддержку».

Одним из главных героев дипфейк-видео также стал Моди. Так, накануне начала голосования в WhatsApp распространились видео с цифровыми аватарами премьер-министра, которые напоминали о том, как много власти сделали для жителей Индии. При этом, Моди на видео обращался к избирателю по имени.

Появлялись видео и с другими членами правящей партии. При этом, они автоматически переводились на один из 10 распространенных в Индии языков.

Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. Он утверждает, что большинство из них просили «о чем-то неэтичном». Один из таких примеров – создание телефонных разговоров, в которых конкуренты якобы признаются в том, что брали взятки и нарушали закон. Были просьбы также поместить лицо оппонента на порнографические фото.

Джандун рассказал о том, что получил 200 обращений, но он и его команда взялись лишь за 14. Вместе с тем, не все специалисты по работе с ИИ столь принципиальны.

Незадолго до выборов в сети распространилось видео со звездой Болливуда Аамиром Ханом. Его цифровой двойник напоминал об обещаниях 10-летней давности, которые не выполнила БДП: сделать так, чтобы на счету каждого индийца оказалось 1,5 миллиона рупий (примерно 18 тысяч долларов). В конце видео дифейк призывал индийцев голосовать за оппозиционеров из Индийского национального конгресса.

Редактор интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, Никхил Паква считает, что в Индии такие технологии могут быть популярны из-за укоренившегося в стране почитания знаменитостей.

Эксперты отмечают, что партии используют ИИ не только для дискредитации оппонентов, но и для продвижения своих идей. Но индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью технологий, но собственные партии оправдывают. По их словам, они используют ИИ просто потому, что это быстро и удобно, а не потому, что хотят обмануть избирателей или оклеветать противников.

По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность».

В предыдущие годы для взаимодействия с электоратом партии полагались на колл-центры с большим количеством сотрудников и волонтеров. Но ИИ позволяет сократить расходы в этой области в несколько десятков раз, а также лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц.

Но противники использования ИИ в выборах убеждены, что потенциальных угроз от технологий больше, чем удобств. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса.

При этом, негативные последствия использования ИИ во время выборов уже видны и в других странах. Так, в прошлом году в Бангладеше неизвестные распространили фото в купальнике представительницы оппозиции Румин Фарханы. Это вызвало недовольство консервативных избирателей.

Жертвой дипфейков стала и президент Молдовы Майя Санду, неизвестные распространили видео, на котором она призывала граждан сплотиться вокруг Партии  социалистов, известной связями с кремлевской «Единой Россией».

Специалисты Microsoft пришли к выводу, что за созданием многих политических дипфейков в разных странах стоят компании, связанные с властями Китая. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США.

Моди предложил помечать видео, созданные с помощью ИИ, особыми плашками, чтобы не путать избирателей. Но пока в Индии, как и в других странах, не существует механизмов, которые позволили бы ограничивать поток видео и фотографий, сгенерированных ИИ.

Напомним, на ZN.UA вышел цикл материалов о том, как активно программы искусственного интеллекта увлекают мир. Государственная политика, законы, суды, юридическая практика, международные организации, высшее образование, медицина, культура и искусство, медиа — все это сферы, которые уже немыслимы без использования ИИ. Каковы риски и обратная сторона технологий? Должны ли государства контролировать эту сферу, и если да, то насколько? 

Об этом в первой и второй частях статьи «Какова государственная политика поддержки развития и сдерживания опасности искусственного интеллекта» рассказывает кандидат юридических наук, адвокат Сергей Козьяков.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме