
Діпфейки як інструмент російської пропаганди: як відрізнити правду
Діпфейки як інструмент російської пропаганди. Пояснюємо, як відрізнити реальні фото та відео від тих, які згенерував штучний інтелект.

Топ 5 за 24 години
- Подкасти
- Розмови з ефіру
Діпфейки та російська пропаганда
Альона Нестеренко: Отже, які саме діпфейки ти помічала, які користовують росіяни? Чи вони діють тільки на українців, чи й на міжнародну аудиторію? Мене тут насамперед цікавить дискредитація української влади, тому що ми вже з тобою так чи інакше в наших ефірах говорили про штучний інтелект, і як пропаганда використовує це, але ми тоді акцентувалися на військових, на тому, як росіяни намагаються дискредитувати українську армію.
А зараз хочеться поговорити про владу, тому що я особисто помічала багато фото, відео не зі штучного інтелекту, але такі собі комікси, особливо вони популярні у мережі Х, колишньому Твіттері, де спочатку був Байден, коли він ще був при владі, і там як президент Зеленський із ним зображений, от що ніби отут все йде нам в країну, гроші, платники податків, а ми їх витрачаємо нібито не так, як треба у цій всій маніпуляції, шаржі.
Потім вже Байдена змінив Трамп, я побачила, що такі картинки з’являються вже з президентом Зеленським намальованими і лідерами європейських країн.
Отже, яка зараз ситуація саме в США і як вона змінилася, порівнюючи з 2014 роком, 2022 і от саме наші дні?
Олена Чуранова: Власне, поява штучного інтелекту просто дуже сильно спростила всі ці можливості пропагандистам, всім, хто хоче поширити, нав’язати якісь наративи, хоча підроблені зображення, підроблені відео, вони і до появи, звісно, штучного інтелекту існували, і ще в 2014 році теж бачила купу різних подібних фейків із фото, відео, навіть елементарно.
Якщо хтось пам’ятає, тоді були популярні «демотиватори» так звані у «Вконтакте», який був, на жаль, тоді поширений серед українців, і демотиватори теж використовувалися для того, щоб поширювати такі фейки щодо і політиків, наприклад, і учасників акцій протесту в Україні тощо.
Зображення підроблювали завжди
Тобто, по суті, підроблювали зображення завжди, і в радянські часи. Зображення і відео намагались підробити. Чому? Тому що це такий легший вплив на людину, бо ми за своєю природою звикли вірити в те, що ми бачимо. І якщо ми це бачимо, якщо ми це чуємо власними вухами, то це наша власна, так би мовити, верифікація. «Отже, це правда».
Просто зі штучним інтелектом це ще стало набагато легшим, тому що зараз взагалі такі інструменти, які дозволяють це, вони є дуже доступними, можуть просто тобі написати певний сценарій, так би мовити, промпт описати, що ти хочеш, щоб було на цьому відео, і ці інструменти тобі генерують вже готовий відеоролик.
І те, що ми бачимо, звісно, що змінилось, просто навала, маса такого контенту, який створюється. І, звісно, згадати, з чого починалося, з появою чату GPT, хоча і до нього діпфейки створювалися, але вони були дуже примітивними.
Діпфейки з політиками
Можемо згадати початок вторгнення, найяскравіший приклад був із Володимиром Зеленським. Це прям такий кейс, який показують на будь-якому тренінгу про діпфейки. А ми тепер стали таким класичним прикладом, коли просто взяли відео з Зеленським і наклали маску на обличчя. І людиина проговорює те, що їй треба проговорити.
На той момент це було про капітуляцію, що Зеленський «складає повноваження, Росія перемогла», грубо кажучи. І цей фейк, звісно, він не спрацював, тому що він був дуже примітивним, було дуже видно, як рот, як губи іноді відриваються від обличчя, як це все в дуже поганій якості.
Звісно, коли ми це дивимося на смартфоні, і це було в першу чергу на це спрямовано, ми можемо не звертати сильно увагу на такі речі. Але все одно там навіть через смартфон було видно, наскільки воно неякісне. Потім використовували через оцю маску теж фейк про Данілова, який начебто сказав, що це «Україна організувала теракт у Крокус-Сіті-Холі в Росії».
І теж просто взяли реальне відео і наклали на Данілова цю маску. І теж там було видно, навіть без якихось окремих інструментів, що це підробка, що в нього обличчя неоднорідне. Ну і потім те ж саме використовувалося із Залужним про те, що начебто «армія іде до Києва» і «буде організовувати переворот».
Різні такі речі вкидалися, звісно, росіянами. Вони не спрацьовували, тому що, зокрема, були не дуже гарної якості. Сьогодні, останні роки, коли технології ці дійсно просунулися, ми бачимо, що якість стала набагато кращою, такого контексту стало набагато більше. Не сказати, що він прямо спрацьовує.
Наприклад, остання з таких кампаній — це купа відео про військових з окопів, які начебто розказують, знову ці наративи про ТЦК, про «київський режим» і так далі. Ці відео теж масово закидувалися, але… Успіху не мали.
Тому все одно тенденція йде до того, що просто такого відео буде, і фото таких буде дуже багато. Вони будуть розмувати оцю дійсність. І ще інше таке побоювання, ну не побоювання навіть, дійсно ми бачимо, що це вже використовується, як просто на будь-яку інформацію, яку ти поширюєш, будь-який факт, який ти хочеш заявити, можна дуже легко його спростувати і сказати, що це все штучний інтелект.
І це під час виборів вже деякими політиками за кордоном використовується. Просто дискредитувати опонента, сказавши, що все, що ти поширюєш, це насправді підробка. І людині, яка вірить у свою картинку світу, в якої вже своя бульбашка, своє бачення, вона буде, звісно, вірити своєму політику, а не правді, не фактам.
Тому що всім нам так зручно, на жаль. Тому що це часто історія, коли люди просто шукають не ту інформацію, щоб отримати певну повноту, тобто об’єктивну, а шукають ту інформацію, яка подобається, яка відповідає твоїм поглядам, резонує з ними.
Альона Нестренко: Інститут Інноваційного Врядування за підтримки посольства Великої Британії в Україні свого часу створив посібник, покликаний допомогти творцям контенту, журналістам і користувачам соцмереж. Виявленню та протидії російській пропаганді, особливо в умовах, коли вона поширюється за допомогою штучного інтелекту.
А зараз вони ще готують другий посібник, він скоро вже на підході, і там буде акцент не на журналістах і виробниках контенту, а просто на всіх громадянах. І ми поспілкувалися з Анною Мисишин, СЕО та співзасновницею Інституту Інноваційного Врядування.
Вона розповіла більше про те, як відрізнити ШІ.
Коментар Анни Мисишин
«Щодо виявлення згенерованих фото, відео, голосу, це насправді дійсно критична проблема зараз, тому що ми називаємо взагалі такі кампанії ФІМІ, це Foreign Information Manipulation Interference. Ця кампанія, оскільки її дійсно часто неможливо спрогнозувати, масово поширюється у соціальних мережах.
Дуже часто, можна сказати, жертвами таких кампаній стають органи державної влади, і на це все реагують люди старшого віку і люди, в яких дуже низька медіаграмотність. Чому небезпечні взагалі поширення всіх таких меседжей і відео? По-перше, вони ж поширюються не через традиційні канали, а саме через медіа, через TikTok, Instagram, Facebook, де дуже-дуже швидко поширюється весь контент. Дуже важко взагалі зрозуміти, де згенерований контент, а де справжній.
І часто такі кампанії, якщо ми говоримо зараз про дискредитацію, наприклад, української влади, вони показують, якраз їхня ціль зробити підрив довіри до офіційних джерел та інституцій, погіршити міжнародні відносини, якраз показати Україну в поганому світлі. Ми бачимо, що таких діпфейків багато, починаючи, напевно, з 2022-го року, коли там був діпфейк Зеленського, це перший, я так кажу, найвідоміший.
Основна ціль — дискредитувати саме українську армію.
Наприклад, був в 2024-му році такий діпфейк солдата ЗСУ з синдромом Дауна на передовій, можливо, пам’ятаєте. І ніби вони зняли в окопі, що українські бійці знущаються над товаришем. Це все дуже масово поширювалося.
Пізніше діпфейк відомий Ольги Стефанішиної, що в червні 2025-го року був, де було підроблене відеозвернення, ніби Ольга Стефанішина оголошує про заборону виїзду за кордон українським жінкам 18-27 років. Насправді, відео було справжнє, зроблене з уривків телемарафону, але доріжку повністю замінили технологіями войсклонінгу, клонуванням голосу.
І, дійсно, якщо ми говоримо, яким же чином розпізнавати ці всі діфейки, це, насправді, скажу так, складно, тому що є декілька варіантів, і якщо ми говоримо, наприклад, про основний такий, на якому ми зараз працюємо в Інституті Інноваційного Врядування, ми перевіряємо всі технології, які створені також на основі штучного інтелекту, які перевіряють і визначають, чи відео або фото створене штучним інтелектом.
Але хочу сказати, що поки що, на жаль, немає жодної технології, яка б стовідсотково виявляла фейкове відео або голос, або фото. Із фото трішки легше, бо з відео це набагато складніше. Це такий комплексний підхід.
Ми, звісно, рекомендуємо список технологій, якими варто користуватися. Дуже багато технологій є безкоштовними, наприклад, TinEye, навіть якщо ми хочемо виявити просто фото, чи воно було згенеровано штучним інтелектом, чи це фейкове фото, можна там базово навіть почати користуватися Google Reverse Search. Це просто, в Гуглі можна реверсивний пошук картинок здійснювати.
І, звісно, дуже важливо, це виявляти фейки такі людиною. Є ще алгоритмічне виявлення дезінформації такої, але алгоритмічне виявлення трішки, можливо, якщо ми говоримо про пересічного громадянина, буде там складно. Тому ми завжди говоримо, що треба звертати увагу на, по-перше, джерела публікації, де публікується таке відео, емоційні тригери.
Наприклад, дуже часто, що відео має якісь тригери, типу зрада, катастрофа, тотальний провал. Пізніше в цьому відео або під фото ставлять хештеги, часто, наприклад, тіктоці або в інстаграмі. Так само, ми в цьому плані говоримо вже більше про критичне мислення.
Дуже важливо розуміти більш загально, що дуже часто такі відео генеруються. Треба дивитися на вигляд цього відео, наприклад, часто в ШІ-згенерованому відео ми бачимо нечіткий фон, ми бачимо неточності в обличчі людини, наприклад, синхронізація губ не збігається із тим, що людина говорить. Дуже часто якісь зайві предмети невідповідні можуть бути на фоні, навіть не з цього століття, скажімо так.
Часто дуже «пластмасове» обличчя. Голос синтетичний також можна виявити по тому, що людина говорить дуже несправжньо. Наприклад, те ж відео зі Стефанішиною, картинка виглядала правдоподібною, але голос, яким вона «говорила», був дуже несправжній, фейковий.
Часто взагалі, як такі, і відео, і аудіо перевіряються, потрібно розуміти походження контенту, перевіряти метадані. Але це також складно перевірити, якщо там десь це відео-аудіо було залито в якісь соцмережі, телеграми, або ще десь. Тобто це все потрібна реально робота людей, спеціалістів, і це складно просто людям, які це бачать в соціальних мережах, виявити».
Повністю розмову слухайте у доданому аудіофайлі та дізнавайтеся ще більше!
При передруку матеріалів з сайту hromadske.radio обов’язково розміщувати гіперпосилання на матеріал та вказувати повну назву ЗМІ — «Громадське радіо». Посилання та назва мають бути розміщені не нижче другого абзацу тексту


