Люди переважно завжди сприймають візуальний контент за чисту монету, оскільки вважають, що його дуже важко підробити. Це і є причиною, чому діпфейки, зокрема порнофейки, здатні поширюватися.
Про це в етері Громадського радіо розповіла Тетяна Авдєєва, юристка Лабораторії цифрової безпеки та «Жінки в медіа».
«Основна проблема з діпфейками (причому ми тут говоримо не лише про ті, які є порнографічними чи будь-яким чином стосуються інтимних питань) — вони є небезпечними через те, що у нас в інформаційному середовищі є психологічна звичка сприймати візуальний контент як правдивий».
Інформаційне середовище уже знайоме з дезінформацією в текстовому вигляді. Тому перевірка текстів є вже усталеною практикою останні два десятиліття.
«Відповідно, наше інформаційне середовище досить звикло до дезінформації в текстовому вигляді. Люди почали перевіряти, чи це не вигадка або чи коректно передали цитати, чи щось подібне. Це вже усталена практика, принаймні останні років 20», — сказала Тетяна Авдєєва.
Людям значно важче розпізнати фейк у візуальному контенті, оскільки вони звикли вважати, що його важко підробити. Це часто використовують проти медійних людей, аби знищити їхні рейтинги напередодні важливих подій.
«Коли йдеться про візуальний контент, переважно його сприймають за чисту монету. Тому що фотографії і тим більше відео — це щось таке, що дуже важко підробити. Принаймні, на думку середньостатистичного читача, середньостатистичної читачки. Тут виникає проблема, що виявляється, технології зайшли так далеко, що підробити щось подібне вже можна. І чому це, наприклад, дуже круто працює на активістів, журналістів, активісток, журналісток, політиків і політикинь саме через те, що коли така інформація вкидається, то розраховується час на реакцію. Відповідно, наприклад, це робиться перед виборами. Таким чином, репутація політикинь за кілька днів до виборів буде дуже сильно страждати», — пояснила Тетяна Авдєєва.
Така технологія є ефективною. Спростування будь-якої інформації читає набагато менша кількість людей, порівняни з тими, які побачили самий фейк.
«Навіть статистично спростування до будь-якої інформації читає набагато менша кількість людей, ніж ті, які читають основну статтю, чи основний допуск, чи щось подібне. Тому проблема в тому, що при правильно підібраному часі така технологія працює. Тож, ми стикаємося з проблемою, що у нас починають використовувати діпфейки проти будь-кого саме через те, що поки що така технологія ефективна», — розповіла Тетяна Авдєєва.
В Україні є досить багато інструментів захисту від гендерної дезінформації: як на законодавчому рівні, так і серед практичих заходів, розповідає юристка Лабораторії цифрової безпеки.
«Насправді, інструментів є досить багато. Причому вони, що цікаво, є як законодавчого рівня, наприклад, зміни до профільних законів, зміни до секторального законодавства, яке стосується регулювання медіа, наприклад, контенту і так далі, і тому подібне, до якихось практичних заходів, які стосуються перевірки інформації, яку ми споживаємо, медіаграмотності, того, який контент поширюється».
За євроінтеграційними зобов’язаннями, увесь штучно генерований контент повинен бути маркованим.
«Важливо в українському контексті перш за все згадати, що в нас є євроінтеграційні зобов’язання. Євроінтеграційні зобов’язання передбачають імплементацію більшості європейських регулювань, зокрема, актопростучний інтелект, який прямо передбачає визначення діпфейків і зобов’язує тих, хто поширює такого типу контент, повідомляти користувачів, аудиторію про те, що ця інформація є генерована. Якщо коротко, це вимога маркування такого виду контенту», — пояснила Тетяна Авдєєва.
Також існує акт про цифрові послуги. За ним існує дуже багато вимог щодо добросовісності платформ. Зокрема, щоб платформи обмежували доступ до шкідливого контенту. Наприклад, такого, що може зашкодити дітям. Згідно з цим, порнофейки підпадатимуть під заборону одразу.
«Акт про цифрові послуги. Я думаю, в Україні найпопулярніша тема з цього приводу — це дискусія довкола регулювання Telegram. Насправді Акт про цифрові послуги стосується багатьох інших платформ. Тут є досить багато вимог щодо добросовісності платформ, тобто того, щоб платформи належним чином обмежували доступ до шкідливого контенту. Зокрема, це стосується контенту, який може бути шкідливим для дітей. Тобто сюрприз-сюрприз, порнофейки в нас будуть заборонені відразу, тому що це контент, який напряму шкодить дітям. Навіть не заходячи далі в будь-які там наслідки для репутації, чи для політичного дискурсу чи щось подібне», — розповіла Тетяна Авдєєва.
Крім того, повинне бути регулювання захисту персональних даних. Зокрема, щодо поширення приваних зображень без дозволу особи. Оскільки більшість діпфейків саме це й роблять, пояснила юристка «Жінки в медіа».
«Наступне — це поширення приватних зображень без дозволу особи. Враховуючи, що DSA має досить багато відсилок до GDPR-у, як акту, який профільно регулює захист персональних даних, у нас так само тут виникає питання того, що DSA встановлює додаткові гарантії того, що персональні дані не використовуватимуться незаконно. Відповідно, враховуючи, що більшість діпфейків саме це і роблять, вони підпадатимуть під такий вид діяльності, який є заборонено. Так само є директива про подолання насилля проти жінок та домашнього насилля».
Тетяна Авдєєва зазначає, що в кримінальний кодекс варто внести окрему статтю, яка забороняє поширення інтимних зображень. Не лише генерованих, що є важливо. Йдеться і про реальні інтимні зображення, які поширюють без згоди особи. Саме тому платформам варто належним чином слідкувати за поширенням контенту.
«В Україні, по-перше, дуже давно говорять про те, що потрібно в кримінальному кодексі внести окрему статтю, яка прямо забороняє поширення генеруваних інтимних зображень. Причому йдеться саме без згоди особи. І це не тільки, на мою думку, генеровані зображення, а й взагалі те, що в нас називається «порнопомстою». Тобто коли навіть реальні інтимні зображення поширюють без згоди особи. Для того, щоб, наприклад, помститися внаслідок розриву стосунків чи чогось подібного. Я думаю, тут ніхто не сперечатиметься: назріла необхідність регулювати платформи, встановити мінімальні зобов’язання для платформ спільного доступу до інформації. Тут я говорю про Meta, X, TikTok, YouTube і так далі. Належним чином поведитись з контентом, належним чином слідкувати за тим, щоб політики виконувалися, щоб заборонений контент не поширювався».
Також важливою є відповідальність медіа. Зокрема, їм варто припинити поширювати такий контент. Оскільки медіа часто перепоширюють, наприклад, діпфейки політиків у власних новинних матеріялах. І це лише приносить шкоду, оскільки є методом поширення діпфейків.
«Припинити поширювати такий контент в медіа. Чому це важливо? Тому що, власне, медіа дуже часто при скандальних випадках, наприклад, діпфейк політики чи політика, журналістки і так далі, вони починають робити скріншоти або перепоширювати таку інформацію в власних новинних матеріалах. На практиці це призводить до того, що ефект від такої інформації тільки збільшується і, відповідно, шкода зростає», — сказала Тетяна Авдєєва.