Deepfake-вымогательство: как мошенники создают компрометирующие видео с вашим лицом для шантажа
В 2026 году технология deepfake стала не только популярным инструментом в развлекательных целях, но и опасным средством для мошенничества и вымогательства. Мошенники все чаще используют искусственный интеллект, чтобы создавать реалистичные фальшивые видео и аудио с лицом или голосом человека, а затем шантажировать его материально или психологически. В этом материале «Днепр Оперативный» расскажет, как работают такие схемы, как их распознать, кого чаще всего выбирают жертвой и что делать в случае угрозы.
Что такое deepfake и как он используется для вымогательства?
Deepfake — это технология, основанная на нейронных сетях и искусственном интеллекте для создания очень реалистичных измененных видео, аудио или изображений, которые фактически не происходили в реальности. С помощью таких алгоритмов можно заменять лицо или голос человека на видео или синхронизировать движения губ с другим аудио.
Мошенники используют deepfake для:
- создания видео с якобы компрометирующим содержанием (например, интимные или незаконные действия);
- подделки голосового обращения родных для виртуального похищения;
- фальсификации доказательств в вымогательских сообщениях с угрозами распространения.
Такие видео часто используют для шантажа и вымогательства денег или другой выгоды, угрожая распространить компрометирующий контент, если жертва не выполнит требования мошенников.
Как мошенники создают фейковые видео: технические аспекты
Создание deepfake-видео предполагает сбор исходных данных — фото, видео или аудио цели человека, — которые затем обрабатываются с помощью алгоритмов искусственного интеллекта. Чаще всего используются генеративно-соревновательные сети (GAN), которые обучают один алгоритм создавать фейки, а другой — определять фейки, что делает подделки очень реалистичными.
Эти алгоритмы могут:
- накладывать лицо и мимику на видео;
- синтезировать голос, звучащий как у реального человека;
- комбинировать фальшивый видеоряд с реальным аудио или наоборот.
Кого чаще всего выбирают жертвами deepfake-шантажа
Чаще всего целью мошенников становятся:
- обычные пользователи соцсетей с открытой личной информацией;
- публичные лица и инфлюенсеры, из-за их узнаваемости;
- профессионалы высокого уровня, репутация которых важна для бизнеса;
- члены семей, когда мошенники подделывают голос или видео родных.
Выбор жертвы часто зависит от доступности личных данных в открытом доступе — это делает профили с большим количеством фото или видео в соцсетях более уязвимыми.
Психологическое давление: почему жертвы платят
Главная опасность deepfake-шантажа заключается в психологическом давлении, которое мошенники применяют:
- угрозы публикации видео, которое может разрушить репутацию;
- использование эмоциональной манипуляции (например, «если не заплатишь — видео увидят твои близкие»);
- ограниченное время на размышления, чтобы не оставить жертве пространства для проверки фактической правдивости.
Из-за страха перед последствиями многие люди могут согласиться на требования, даже если подозревают, что видео фейковое.
Как распознать дипфейк-видео
Даже самые реалистичные deepfake-видео могут иметь признаки подделки. Обращайте внимание на:
- неестественные тени или освещение;
- несогласованность в мимике или «мертвый» взгляд;
- артефакты в области волос или фона;
- нетипичные движения губ или выражение лица, не соответствующее контексту.
Также существуют специальные онлайн-сервисы для проверки видео на глубокие подделки (например, Deepware.ai, Hive AI Detector).
Что делать, если вас шантажируют deepfake-видео
Если вы стали жертвой или получили шантажистские сообщения:
- Не платите деньги и не идите на требования мошенников.
- Сохраните все сообщения и видео в качестве доказательств.
- Обратитесь в полицию или киберполицию Украины — мошенничество и вымогательство являются уголовными преступлениями.
- Сообщите друзьям и родственникам, чтобы они не стали дополнительной мишенью мошенников.
Также ограничьте доступ к вашей личной информации в интернете — это уменьшит шансы на создание фейкового контента.
Юридическая ответственность за deepfake-шантаж в Украине
По состоянию на начало 2026 года в Украине нет отдельной специальной статьи в Уголовном кодексе, которая бы прямо называла «create deepfake» или «deepfake extortion». Однако существующие статьи уголовного законодательства применяются для привлечения мошенников к ответственности, когда deepfake используется как средство для мошенничества или вымогательства (в частности, ст. 190 УК Украины — мошенничество).
Также продолжаются дискуссии и инициативы по усилению ответственности за злонамеренное создание и использование deepfake, в частности внесение изменений в законодательство об искусственном интеллекте, персональных данных и противодействии цифровым угрозам.
В случае подтверждения умысла и причинения значительного ущерба потерпевшему, злоумышленник может быть привлечен к уголовной ответственности с возможным наказанием в виде штрафа или лишения свободы в соответствии с общими нормами уголовного права.
Ранее мы писали, что предусматривает новый закон о виртуальных активах и как легально вывести криптовалюту на карту.
Также мы рассказывали, сколько придется заплатить за срубленную древесину, чем грозит хранение дров без чеков и как законно обеспечить свой дом теплом, не нарушая закон.