Фактчекерка Юлія Дукач вважає, що є певний позитив у тому, що більшість великих платформ постала перед необхідністю щось робити з дезінформацією, а точніше з неавтентичними інформаційними кампаніями впливу у себе. Наприклад, Meta активно бореться з інформаційними впливами й кампаніями. Наприкінці серпня Meta опублікувала звіт за другий квартал 2024 року, про інформаційні операції, які вони викрили.
«Якщо ми відкриваємо звіт, то бачимо, що серед 7 чи 8 інформкампаній, які вони підсвітили та прибрали зі своєї платформи, більшість — це російські кампанії впливу.
Насправді Meta почала таку діяльність з 2017 року. Серед лідерів цих інформкампаній створення неавтентичних профілів, ботів, реклами — Росія. Слідом за нею йдуть Іран та Китай. Тому що не Росією єдиною, хоча для нас російська дезінформація найбільш актуальна.
МЕТА показує, як Росія створювала кампанію на Грузію, на Молдову, на Францію і на Великобританію, а також для різних країн, в тому числі й для України. Якщо до 2022 року були різні теми цих інформаційних кампаній, то зараз більшість зусиль Росії спрямовані на дискредитацію України й на припинення західної підтримки України. Маленьким виключення є критика протестів в Грузії проти закону про іноагентів», — говорить експертка.
Слухайте також: TikTok обмежує російську дезінформацію за кордоном. Чи дійсно це так?
Вона зауважує, що не варто читати всі коментарі й вірити, що це живі люди. Водночас видалення ботів з платформ залежить від їхньої зацікавленості. Після того, як Twitter купив Ілон Маск, то в соціальній мережі перестали боротися проти тих ботів. Водночас МЕТА за допомогою таких звітів показує, що попри вигоду від ШІ-контенту, платформа успішно виявляє всі впливи та видаляє.
«Штучний інтелект допомагає масштабувати ці інфокампанії, тобто за менший проміжок часу і дешевше робити більше контенту. Тобто, генерувати картинки, генерувати тексти, рекламувати профілі, тексти у Facebook. Але МЕТА каже, що вони з цим борються.
Звичайно, дуже класно було б просто їм повірити, що вони такі молодці та альтруїстично вкладають свої ресурси, в тому числі людські, на протидію дезінформації, яка фактично не приносить їм грошей. Але все ж варто перевірити, бо не всі інфокампанії все ж таки МЕТА блокує успішно. Хоча робить це успішніше, ніж той же колишній twitter, зараз X», — розповідає Дукач.
Вона наводить у приклад свіже розслідування CNN та CIR (Центр інформаційної стійкості). Вони виявили 56 профілів у Х.
Всі облікові записи використовують фотографії красивих молодих жінок — багато з них вкрадені, тоді як інші створені штучним інтелектом. Начебто ці жінки заявляють про свою підтримку Трампа та використовують хештеги, такі як: #MAGAPatriots, #MAGA2024 та #IFBAP (I Follow Back All Patriots). У багатьох випадках CNN та CIR виявили, що зображеннями маніпулювали, щоб додати гасла Трампа та MAGA до одягу без бренду, і все це з підписами, які закликають вийти з голосування.
CNN навіть знайшли цих реальних жінок, які ведуть просто свої Instagram-профілі десь в Нідерландах, Данії й навіть не знають, що їхні фотографії використовуються у Х для того, щоб рекламувати Трампа і закликати всіх за нього голосувати на американських виборах.
15 з цих профілів мали блакитну галочку, тобто вони були ніби верифіковані преміумакаунти. CNN звернувся до Х, відповідь не отримали, але акаунти були видалені до публікації статті.
Фахівчиня розповідає, що американські медіа, які перевіряють технологічний вплив на наше життя, показали, як багато Google-пошук веде на згенерований несправжній контент. Якщо вбити англійською мовою прізвище якоїсь суперзірки й додати «у бікіні» чи «на пляжі», то отримаєте значний відсоток згенерованих картинок.
«Існує ціла екосистема сайтів, які наповнюються згенерованими зображеннями різних зірок на пробіжках, на пляжі, в рекламі одягу. Таким чином вони залучають аудиторію, перегляди й отримують гроші з тієї ж онлайн-реклами.
Штучний інтелект — це не лише про коментарі чи дописи, а це про цілі екосистеми. Американський аналітичний центр, який досліджує дезінформацію, відстежує згенеровані сайти.
Росія створює сотні сайтів, які створені буквально кодом. Тобто не треба навіть людини, крім одного програміста, щоб створити з десяток сайтів. Ви берете просто стрічку основних світових медіа чи українських медіа, додаєте ще декілька медіа, а штучний інтелект переписує новини й публікує на цьому сайті. І ви цей сайт починаєте якось розкручувати, посилатися ботами на нього, а потім ставити потрібні собі новини», — говорить експертка.
Читайте також: Юлія Дукач: 25% українців використовують Тік-Ток, а він — ШІ
Нагадаємо, за словами співзасновниці «StopFake» Ольги Юркової, віру у фейки пояснюють особливостями людської психології. Фейкові новини приваблюють людей своєю новизною. Фейки вирізняються у стрічці новин: провокують набагато більше емоцій. Відомо, що у людини спочатку включаються емоції, а вже потім — інтелект. Оскільки люди нині стали обережніше ставитися до інформації, фейки еволюціонують.
Як уберегтися від фейків читачам Громадського радіо радила Олена Чуранова. За її словами, для цього потрібно перевіряти усю інформацію. А найлегший спосіб не повестися на фейки, зазначила фактчекерка, — це влаштувати інформаційний чекап: перевірити ті джерела, які ви читаєте. І якщо вони поширюють щось сумнівне — просто прибирати їх зі свого простору. Споживайте перевірену інформацію з перевірених, авторитетних медіа.
Попри те, що джерелом отримання новин та інформації українці називають Telegram, 20-30% опитаних не пам’ятають назви жодного Telegram-каналу, на який підписані. Про це повідомив виконавчий директор Київського міжнародного інституту соціології Антон Грушецький в ефірі Громадського радіо.
«По факту» — спільний проєкт Громадського радіо з Texty.org.ua та StopFake, виданнями, які знають, хто і як намагається нас обманути.
Повністю розмову слухайте у доданому аудіофайлі