МЕНЮ

Deepfake видео обаждания, AI измами, видео фалшификации - MyProject.bg

АНАЛИЗ НА ЗАПЛАХАТА
DEEPFAKE ВИДЕО ОБАЖДАНИЯ

Отваряте Zoom, WhatsApp Video или Microsoft Teams – и виждате лицето на шефа си, на колега или дори на банков служител. Те говорят напълно нормално, жестикулират, а фонът зад тях е автентичният им офис. Искат от вас спешен превод на голяма сума „за тайна сделка“, „за проверка на сигурността“ или „за спешна медицинска помощ“.

Само че никой от тях не е истински. Всички те са AI Deepfake модели, генерирани в реално време. Технологията вече комбинира подмяна на лице (face swap), клониране на глас (voice cloning) и генериране на фон (background AI). През 2026 г. тези измами са една от най-скъпите и най-трудно откриваеми заплахи, таргетиращи предимно корпоративни служители, счетоводители и възрастни хора.

Deepfake Video Threat
Кликнете за преглед
700%+
Ръст на видео измамите
$1.1 Млрд.
Загуби в САЩ за година
€680k
Средна корпоративна загуба
53%
От финансистите са таргетирани
КАК ТОЧНО РАБОТИ
  • Извличане: Хакерите събират публични видеа с висока резолюция на вашата цел от LinkedIn, YouTube или фирмени конференции.
  • Генериране: Използват инструменти (HeyGen, DeepFaceLive), за да създадат дигитална "кукла", която повтаря движенията на измамника.
  • Атака: Изпращат фалшив имейл за спешно присъединяване към Zoom/Teams среща с "шефа" или "колеги".
  • Кражба: Създават изкуствен натиск и изискват спешен финансов превод по време на самия видео разговор.
ЧЕРВЕНИ ФЛАГОВЕ (ПРИЗНАЦИ)
  • Получавате неочаквана покана за видео разговор с изключителна спешност ("сега или никога").
  • Искат финансов превод, достъп до система или пароли по време на самия разговор.
  • Лицето изглежда "твърде перфектно", липсват естествени мимики, мигане или има леки размазвания по ръбовете.
  • Отказват да споделят екрана си или да отговорят на конкретни лични/професионални въпроси.
  • Устните на говорещия не съвпадат напълно с думите, особено когато речта стане по-бърза.
  • Предупреждават ви: "не записвай разговора", "това е строго конфиденциално" и "не казвай на никого".
СТЪПКИ ЗА ПРЕДПАЗВАНЕ
  • Винаги потвърждавайте спешни финансови искания по втори, напълно независим канал (обаждане по телефона).
  • Задавайте лични въпроси по време на срещата, чиито отговори само истинският човек би знаел.
  • Изисквайте движение с ръце – помолете човека да вдигне ръка пред лицето си (това често разваля филтъра).
  • Не кликвайте на линкове за срещи от подозрителни домейни – винаги ползвайте официалното приложение.
  • Въведете строга корпоративна политика за двойно потвърждение (2FA) на всички банкови преводи.
  • Ограничете качването на корпоративни видеа с висока резолюция, които хакерите могат да използват за трениране на AI.
АКО ВЕЧЕ СТЕ ЖЕРТВА
  • Незабавно блокирайте всички засегнати банкови сметки, карти и корпоративни достъпи.
  • Свържете се с банката и вашия IT отдел, обяснявайки, че сте жертва на AI видео измама.
  • Подайте сигнал в ГДБОП на телефон 02 982 22 98 или онлайн на портала cybercrime.bg.
  • Запазете видео записа (ако има такъв), всички получени имейли, скрийншоти и линкове за срещи.