Deepfake-шахрайство: як злочинці імітують голоси ваших родичів, щоб просити гроші

Сьогодні телефонний дзвінок від близької людини вже не є стовідсотковою гарантією того, що ви розмовляєте саме з нею. В Україні набирає обертів новий вид кіберзлочинності — аудіо-діпфейки. Шахраї навчилися підробляти голоси військовослужбовців, волонтерів або просто родичів, які нібито потрапили в біду, з вражаючою точністю. У цьому матеріалі «Дніпро Оперативний» розповість, як не стати жертвою таких зловмисників.

Що таке аудіо-діпфейк і як він працює?

Аудіо-діпфейк (Voice Cloning) — це синтез мовлення за допомогою штучного інтелекту. Алгоритм аналізує інтонації, тембр, паузи, а потім відтворює мовлення так, ніби говорить реальна людина. Якщо раніше потрібно було багато годин записів, то зараз достатньо кількох секунд, щоб ШІ створив переконливу «копію».

Технологія базується на глибокому навчанні: система обробляє запис голосу, формує мовну модель, після чого шахрай просто вводить текст, а програма озвучує його «голосом жертви».

Як шахраї використовують клонування голосу для виманювання грошей

В умовах воєнного стану в Україні шахраї найчастіше тиснуть на найболючіші точки. Основні сценарії:

  • «Родич у госпіталі або в полоні»: ви чуєте знайомий голос, який пошепки або на тлі шумів просить терміново переказати кошти на лікування чи «викуп».
  • «Дзвінок із передової»: шахраї імітують голос побратима чи командира, повідомляючи про термінову потребу в грошах на ремонт авто чи дрон.
  • Фінансові запити через месенджери: після зламу акаунта в Telegram або WhatsApp злочинці надсилають голосове повідомлення (голосову замітку), де «ви» просите позичити гроші до завтра.

Як шахраї отримують голоси ваших родичів

Для створення якісного клону голосу злочинцям потрібен вихідний матеріал. Вони беруть його з:

  • Соціальних мереж: відео в Instagram, TikTok або Facebook. Навіть короткого «сторіз» достатньо для алгоритму.
  • Попередніх дзвінків: зловмисники можуть дзвонити під виглядом соцслужб, опитувань чи банків, записуючи ваші відповіді.
  • Зламаних хмарних сховищ: архівні голосові повідомлення в месенджерах — справжня скарбниця для навчання ШІ.

Як відрізнити штучний голос від справжнього?

Попри досконалість технологій, все ще існують певні «маркери» підробки:

  • Відсутність емоційної динаміки: штучний голос часто звучить занадто рівно або має дивні перепади гучності, які не відповідають контексту розмови.
  • Металевий присмак або артефакти: при уважному прослуховуванні можна помітити легке цифрове «тремтіння» або неприродні паузи між словами.
  • Нездатність відповісти на специфічні запитання: ШІ-клони працюють за скриптом. Якщо ви різко зміните тему або запитаєте щось дуже особисте, зловмисник може розгубитися.

Як захиститися від deepfake-шахрайства

Кіберполіція України та експерти з безпеки рекомендують дотримуватися правил цифрової гігієни:

  • Встановіть «стоп-слово»: домовтеся з рідними про секретне кодове слово, яке знаєте тільки ви. Якщо виникає підозріла ситуація, просто попросіть назвати його.
  • Правило «передзвони сам»: якщо вам дзвонять із терміновим проханням про гроші — покладіть слухавку. Передзвоніть цій людині на її реальний номер, а не через месенджер.
  • Двофакторна автентифікація (2FA): захистіть усі свої акаунти в соцмережах, щоб шахраї не змогли викрасти ваші архівні записи. Детальніше про це розповідає кампанія #ШахрайГудбай від НБУ.
  • Закрийте профілі: обмежте доступ до своїх відео та аудіозаписів у соцмережах для незнайомців.

Будьте уважні: deepfake-шахрайство активно розвивається, тому критичне мислення та цифрова гігієна сьогодні — найкращий захист.

Раніше ми писали, що таке онлайн-грумінг в іграх, де найчастіше виникають ризики та як ефективно захистити дитину.

Також ми розповідали, чи можу працівника звільнити за прогул, який стався через сигнал повітряної тривоги.