Deepfake-вымогательство: как мошенники создают компрометирующие видео с вашим лицом для шантажа

В 2026 году технология deepfake стала не только популярным инструментом в развлекательных целях, но и опасным средством для мошенничества и вымогательства. Мошенники все чаще используют искусственный интеллект, чтобы создавать реалистичные фальшивые видео и аудио с лицом или голосом человека, а затем шантажировать его материально или психологически. В этом материале «Днепр Оперативный» расскажет, как работают такие схемы, как их распознать, кого чаще всего выбирают жертвой и что делать в случае угрозы.

Что такое deepfake и как он используется для вымогательства?

Deepfake — это технология, основанная на нейронных сетях и искусственном интеллекте для создания очень реалистичных измененных видео, аудио или изображений, которые фактически не происходили в реальности. С помощью таких алгоритмов можно заменять лицо или голос человека на видео или синхронизировать движения губ с другим аудио.

Мошенники используют deepfake для:

  • создания видео с якобы компрометирующим содержанием (например, интимные или незаконные действия);
  • подделки голосового обращения родных для виртуального похищения;
  • фальсификации доказательств в вымогательских сообщениях с угрозами распространения.

Такие видео часто используют для шантажа и вымогательства денег или другой выгоды, угрожая распространить компрометирующий контент, если жертва не выполнит требования мошенников.

Как мошенники создают фейковые видео: технические аспекты

Создание deepfake-видео предполагает сбор исходных данных — фото, видео или аудио цели человека, — которые затем обрабатываются с помощью алгоритмов искусственного интеллекта. Чаще всего используются генеративно-соревновательные сети (GAN), которые обучают один алгоритм создавать фейки, а другой — определять фейки, что делает подделки очень реалистичными.

Эти алгоритмы могут:

  • накладывать лицо и мимику на видео;
  • синтезировать голос, звучащий как у реального человека;
  • комбинировать фальшивый видеоряд с реальным аудио или наоборот.

Кого чаще всего выбирают жертвами deepfake-шантажа

Чаще всего целью мошенников становятся:

  • обычные пользователи соцсетей с открытой личной информацией;
  • публичные лица и инфлюенсеры, из-за их узнаваемости;
  • профессионалы высокого уровня, репутация которых важна для бизнеса;
  • члены семей, когда мошенники подделывают голос или видео родных.

Выбор жертвы часто зависит от доступности личных данных в открытом доступе — это делает профили с большим количеством фото или видео в соцсетях более уязвимыми.

Психологическое давление: почему жертвы платят

Главная опасность deepfake-шантажа заключается в психологическом давлении, которое мошенники применяют:

  • угрозы публикации видео, которое может разрушить репутацию;
  • использование эмоциональной манипуляции (например, «если не заплатишь — видео увидят твои близкие»);
  • ограниченное время на размышления, чтобы не оставить жертве пространства для проверки фактической правдивости.

Из-за страха перед последствиями многие люди могут согласиться на требования, даже если подозревают, что видео фейковое.

Как распознать дипфейк-видео

Даже самые реалистичные deepfake-видео могут иметь признаки подделки. Обращайте внимание на:

  • неестественные тени или освещение;
  • несогласованность в мимике или «мертвый» взгляд;
  • артефакты в области волос или фона;
  • нетипичные движения губ или выражение лица, не соответствующее контексту.

Также существуют специальные онлайн-сервисы для проверки видео на глубокие подделки (например, Deepware.ai, Hive AI Detector).

Что делать, если вас шантажируют deepfake-видео

Если вы стали жертвой или получили шантажистские сообщения:

  1. Не платите деньги и не идите на требования мошенников.
  2. Сохраните все сообщения и видео в качестве доказательств.
  3. Обратитесь в полицию или киберполицию Украины — мошенничество и вымогательство являются уголовными преступлениями.
  4. Сообщите друзьям и родственникам, чтобы они не стали дополнительной мишенью мошенников.

Также ограничьте доступ к вашей личной информации в интернете — это уменьшит шансы на создание фейкового контента.

Юридическая ответственность за deepfake-шантаж в Украине

По состоянию на начало 2026 года в Украине нет отдельной специальной статьи в Уголовном кодексе, которая бы прямо называла «create deepfake» или «deepfake extortion». Однако существующие статьи уголовного законодательства применяются для привлечения мошенников к ответственности, когда deepfake используется как средство для мошенничества или вымогательства (в частности, ст. 190 УК Украины — мошенничество).

Также продолжаются дискуссии и инициативы по усилению ответственности за злонамеренное создание и использование deepfake, в частности внесение изменений в законодательство об искусственном интеллекте, персональных данных и противодействии цифровым угрозам.

В случае подтверждения умысла и причинения значительного ущерба потерпевшему, злоумышленник может быть привлечен к уголовной ответственности с возможным наказанием в виде штрафа или лишения свободы в соответствии с общими нормами уголовного права.

Ранее мы писали, что предусматривает новый закон о виртуальных активах и как легально вывести криптовалюту на карту.

Также мы рассказывали, сколько придется заплатить за срубленную древесину, чем грозит хранение дров без чеков и как законно обеспечить свой дом теплом, не нарушая закон.