Электоральная Одиссея-2024. Как искусственный интеллект влияет на президентские выборы в США

Электоральная Одиссея-2024. Как искусственный интеллект влияет на президентские выборы в США
hromadske

Сгенерированные искусственным интеллектом «те самые скандальные фото» с политиками в соцсетях шокируют американских избирателей. В комментариях их ждут тысячи ботов, которые мгновенно разнесут любой фейк и стравят между собой сторонников разных политических лагерей.

Искусственный интеллект все чаще воспринимают как угрозу для демократии и даже подвергают сомнению принципы свободы слова, не предполагавшие засилье дипфейков. Однако по всем негативным проявлениям ИИ остаются незамеченными многочисленные преимущества технологий, которые также используются на выборах. Как искусственный интеллект повлияет на выборы в США? Рассмотрим в данной статье.

ИИ — опасность для демократии?

Выборы в США в 2024 году — первая президентская гонка в стране, которая состоится в эпоху стремительного развития и распространения искусственного интеллекта. Манипуляции в информационном пространстве поставили под угрозу прозрачность и объективность выборов 2016 и 2020 годов. Влияние гораздо более адаптивных и развитых технологий ИИ в 2024 может стать беспрецедентным, создав новые вызовы для избирательного процесса.

Дискуссии по поводу угрозы искусственного интеллекта в очередной раз всколыхнули страну в начале 2024 года, когда представители Демократической партии утверждали своего кандидата на президентских выборах. Хотя в США существует традиция выдвигать на второй срок действующего главу государства, демократы должны были пройти процедуру предвыборов, прежде чем номинировать Джо Байдена.

Тогда же произошел инцидент в Нью-Хэмпшире: тысячам местных жителей позвонили по телефону с просьбой не голосовать на праймериз на следующий день. Дело в том, что по ту сторону трубки был голос, напоминавший президента Джо Байдена — хоть это и не был он.

Байден на тех праймериз все же прогнозированно выиграл, однако обеспокоенность рисками ИИ выросла. Оказалось, что за разработкой дипфейка стоял политический консультант, заявивший, что такой провокацией лишь пытался предупредить об опасности использования искусственного интеллекта, а не повлиять на результат.

Другим скандальным примером стала имитация голоса Камалы Харрис в пародийном предвыборном видео, созданном блогером Mr Reagan: в нем якобы кандидат от демократов рассказывала о себе типичные сплетни, которые обычно распространяют республиканцы. Материал получил еще большую огласку в сети после того, как его распространил Илон Маск. В течение трех дней влиятельный миллиардер и владелец соцсети X не уточнял, что видео является пародией, так что многие люди восприняли это видео серьезно.

Искусные политтехнологи Дональда Трампа смогли даже использовать тему борьбы с фейками в свою пользу, доказав, что иногда можно просто обвинить политического противника в том, что делаешь сам. Кандидат от республиканцев обвинил Камалу Харрис в «дорисовке» толпы на фотографиях с ее митинга в Детройте. Экспертная проверка не выявила использования инструментов ИИ в лагере демократов, но Трамп успешно посеял сомнения в честности кампании Харрис.

При этом сам экс-президент часто прибегает к распространению фейков в соцсетях. К примеру, политик преждевременно заявлял, что получил поддержку всемирно известной певицы Тейлор Свифт. Еще в августе он постил фото, где поклонники суперзвезды пьют кофе в футболках с надписью «Свифти за Трампа». Когда же в сентябре сама Свифт поддержала Камалу Харрис, команда Трампа предпочитала это не замечать.

Есть ли управа на ИИ?

Кандидатам можно упрекнуть, что в их кампаниях использовали фейковый контент. Однако что делать, если они здесь вроде и ни при чем — его просто распространяют сторонники кандидатов, что быстро делает вирусным контент. Так, в марте 2024-го поклонники Трампа распространили десятки сгенерированных фото, где кандидат-республиканец изображен вместе с чернокожими избирателями. Согласно данным BBC Panorama, нет никаких фактов, которые бы напрямую связывали фейки с кампанией Трампа.

Широкая доступность ИИ-генераторов изображений и чат-ботов только увеличивает риски таких манипуляций. Среди компаний, занимающихся генераторами ИИ, нет консенсуса относительно того, какие предохранители должны быть установлены. Например, OpenAI — разработчик сервисов DALL-E и ChatGPT — запрещает пользователям создавать образы публичных лиц, в том числе политических кандидатов. В то же время Grok — новый ИИ-генератор изображений в соцсети X — имеет меньше ограничений.

Угрозу представляют не только сгенерированные фотографии и дипфейки, но и политическая позиция искусственного интеллекта. Скажем, тот же Grok, согласно исследованию Global Witness, по запросу создания беспристрастного сообщения предлагает содержание с явной или скрытой поддержкой определенной политической силы. К тому же он распространяет ложную информацию о сроках голосования. Однако не все чат-боты реагируют таким образом. К примеру, Gemini отказывается отвечать на политические вопросы, перенаправляя пользователей в Google.

Вседозволенности ИИ способствует и отсутствие законодательного регулирования технологии на федеральном уровне. На уровне отдельных штатов — в Калифорнии, Техасе, Миннесоте, Мичигане и Вашингтоне успешно внедрены законы, ограничивающие использование ИИ во время выборов. А вот федеральный законодательный прогресс остается незначительным. Предложения в Сенате и Палате представителей США, направленные на регулирование ИИ в политических кампаниях, так и не продвинулись вперед.

В этом году Федеральная избирательная комиссия и Федеральная комиссия по связи только начали обсуждение о том, кто имеет полномочия регулировать использование ИИ в политической рекламе. В начале августа 2024 года в интервью Wall Street Journal глава Федеральной избирательной комиссии Шон Кукси заявил, что орган не имеет ни полномочий Конгресса, ни технического опыта, чтобы регулировать использование искусственного интеллекта в политических кампаниях. Следовательно, вероятнее всего, до ноябрьских выборов унифицированные правила явиться не успеют.

Искусственный интеллект на помощь выборам

Эксперты Института Алана Тюринга обнаружили, что в 19 из 100 выборов, начиная с 2023 года, было вмешательство искусственного интеллекта. Правда, доказательства не продемонстрировали никаких четких признаков значительных изменений в результатах выборов по сравнению с ожидаемыми показателями политических кандидатов.

Часто инструменты ИИ используются для банального продвижения в соцсетях, без намерения изменить мнение избирателей. К примеру, эксперты предполагают, что фальшивыми изображениями «Свифти за Трампа» команда политика играла с алгоритмами соцсетей: часть фанатов Свифт ожидаемо гневно отреагировала на пост, что лишь увеличило его аудиторию и подняло волну новостей в крупных медиа. Это своеобразный «черный пиар», который в современном мире стал гораздо дешевле именно благодаря генерации контента искусственным интеллектом.

В то же время, исследователи MIT Technology Review пишут, что инструменты искусственного интеллекта могут облегчить процесс массового убеждения лишь в незначительной степени: решающее значение до сих пор имеют другие факторы. Когда люди получают информацию, не соответствующую их убеждениям, это редко приводит к изменениям в политическом мировоззрении. К тому же материалам, созданным ИИ, трудно прорваться сквозь информационный шум и добиться своей целевой аудитории.

Интересно, что ИИ также имеет потенциал для повышения эффективности и точности выборов. Чат-боты, оснащенные искусственным интеллектом, например HelloVote, Vote.org, могут предоставлять информацию в режиме реального времени о местах и процедурах голосования.

Автоматизированные системы делают администрирование выборов более эффективным благодаря быстрому и точному управлению большими массивами данных, что значительно уменьшает количество ошибок, вызванных человеческим фактором. Так, ИИ может помочь избирательным администрациям в подсчете и проверке подлинности бумажных бюллетеней, обработке запросов на документы. Это все в итоге увеличивает эффективность и прозрачность избирательного процесса.

Важно, что ИИ имеет еще потенциал для усиления безопасности киберинфраструктуры. Технологии могут оптимизировать выявление и устранение угроз и повысить эффективность киберработников, беря на себя выполнение рутинных задач.

Хотя искусственный интеллект несет определенные риски для демократических процессов, его непосредственное влияние на результаты выборов ограничено.

Несмотря на то, что использование генеративного ИИ может вызвать беспокойство и усугублять недоверие к информационным источникам, эти угрозы пока что не способны существенно изменить общественное мнение или результаты голосования. Отсутствие регулирования и стандартов может привести к злоупотреблениям, однако эти риски не препятствуют сохранению основ демократических выборов. Следовательно, хотя опасности, связанные с ИИ, существуют, их влияние на выборы остается минимальным.