Эпоха дипфейков: как искусственный интеллект меняет политическую реальность
Феномен дипфейков перестал быть технологической экзотикой. Сегодня он становится фактором, напрямую влияющим на политические процессы и общественное доверие. Заместитель директора Центра политической конъюнктуры Михаил Карягин в колонке для «Актуальных комментариев» предупреждает: ключевой риск — не столько сами подделки, сколько размывание границы между реальностью и вымыслом.
«Если кругом обман, а отличить дипфейк от реальности становится все труднее, то наиболее энергосберегающая стратегия для рядового пользователя — не верить ничему», — отмечает эксперт.
От «плывущих лиц» к полноценным сюжетам
По словам Михаила Карягина, еще несколько лет назад дипфейк был скорее демонстрацией возможностей технологий.
«Генерацию можно было вычислить по множеству признаков. Поддельное лицо “плыло”, голос звучал механически, мимика расходилась с речью, а монтаж выдавал себя при внимательном просмотре», — напоминает он.
Сегодня, по словам эксперта, эта грань быстро стирается. Генеративные модели научились создавать не просто изображения, а полноценные видеосюжеты с синхронной речью, интонацией, жестами и деталями. При этом изменилась не только технология, но и доступность инструментов.
«Изменились стоимость, скорость и доступность производства. Барьер входа снизился: инструменты генерации становятся массовыми пользовательскими сервисами», — говорит эксперт.
Если раньше производство убедительной аудио- или видеоподделки требовало серьезных ресурсов и навыков, то теперь барьер входа значительно снизился. Сервисы генерации изображений, видео и голоса стали массовыми и пользовательскими. В результате, как отмечает Карягин, растет доля ИИ-контента: по разным оценкам, от 21 до 33% материалов на YouTube составляют низкокачественные ролики, созданные с помощью ИИ.
В этих условиях пользователь изначально оказывается в скептической позиции — он не уверен в достоверности увиденного.
Закон не успевает за технологиями
Эксперт обращает внимание и на нормативную неопределенность.
«В России нет никаких норм, которые бы обязывали пользователя или юридические лица помечать контент как сгенерированный ИИ», — отмечает Карягин.
Отдельные платформы вводят собственные инструменты обозначения, но единых обязательных правил нет.
Поправки в избирательное законодательство, запрещающие использование образов реальных или вымышленных людей в агитации, формально затрагивают и ИИ-контент. Однако, как подчеркивает Карягин, специальные нормы, прямо регулирующие дипфейки, по-прежнему отсутствуют.
Идеальная среда — выборы
Карягин прямо называет электоральные кампании идеальной средой для использования дипфейков.
Причин несколько: ограниченное окно времени, эмоциональность кампаний и поляризация аудитории.
«Даже разоблаченный дипфейк может продолжать работать, так как разоблачение будет распространено не на всю аудиторию», — предупреждает эксперт.
В мировой практике уже были подобные случаи: скандал с фейковым голосом Джо Байдена в США, активное использование ИИ-контента в ходе выборов в Индии в 2024 году, а также манипуляции в рамках протестных кампаний.
Кризис реальности
Однако главная угроза, по мнению Карягина, глубже.
«Главный риск дипфейков заключается не в том, что люди поверят каждой подделке. Более глубокий риск состоит в том, что люди перестанут доверять кому-либо», — отмечает он.
Эксперт называет это состоянием «кризисом реальности».
«Если любой аудиофайл может быть синтезирован, любое видео сгенерировано, любая фотография отредактирована, а любой скриншот сфабрикован, то лучше всего не верить никому», — подчеркивает Карягин.
В этом состоянии, по его словам, «достоверность заменяется принадлежностью». Информация оценивается не через проверку источника, а через политическую интуицию — «наши бы так не сделали», «их сторона на такое способна».
В результате проигрывают не только граждане, которым становится сложнее отличать правду от лжи, но и институты. Опровержения избирательных комиссий, решения судов или журналистские расследования могут быть объявлены «сгенерированными». Под сомнение ставится сам механизм доказательства.
Что делать политикам
В этих условиях Карягин выделяет несколько практических выводов.
Первое — скорость реакции.
«Практика показывает, что в борьбе с фейками наиболее важным параметром является время реакции», — подчеркивает он.
Второе — возвращение к офлайн-форматам.
«Видео можно сгенерировать, а факт организации субботника, который видели жители района, будет сложнее», — отмечает эксперт.
Третье — упрощение коммуникации.
«Слишком идеальные предвыборные ролики вызывают больше подозрений, чем “кружок” от кандидата в мессенджере», — пишет Карягин.
По сути, эпоха дипфейков меняет саму природу политической коммуникации. И если раньше опасались манипуляций через фальшивые видео, то сегодня главный вызов — восстановление доверия к самой реальности.