Сьогодні ChatGPT допомагає брехати в промислових масштабах — ІТ-журналістка
Як штучний інтелект допомагає в інформаційній війні проти України? Розповідає в етері Громадського радіо Надія Баловсяк, ІТ-журналістка, дослідниця, доцентка школи журналістики та комунікацій УКУ.
Топ 5 за 24 години
- Подкасти
- Розмови з ефіру
Про використання ШІ задля пропаганди
ІТ-журналістка Надія Баловсяк розповідає, що раніше для того, щоб створити фейк про «мальчіка в трусіках» треба було найняти акторку, написати їй текст, відзняти це. А зараз для цього потрібен лише компʼютер. Навіть не потрібно програмувати чи мати якісь особливі навички. Лише декілька кліків — і маємо не якісну, але підробку. Ця підробка може бути у вигляді відео чи сайту. Ці речі достатньо автоматизовані та спрощені. Вони доступні та прості у використанні, дозволяють створювати просто нескінченні потоки фейків.
«Кожна технологія, яка з’являється, може використовуватися задля добрих справ, але й поганих також. На жаль, світ не встигає регулювати це все.
Закони чи правила створювались роками, десятиліттями, століттями. Лише півтора року працює ChatGPT, а його вже використовують у фейках, у зламах акаунтів, у виманюванні грошей тощо. Це відбувається дуже швидко. Ми ще не знаємо, як жити з цим інструментом, а він вже використовується зловмисниками», — зауважує Надія Баловсяк.
За її словами, сьогодні ChatGPT допомагає брехати в промислових масштабах.
Читайте також: Юлія Дукач: 25% українців використовують Тік-Ток, а він — ШІ
Про конкретні інструменти
Надія Баловсяк відзначає такі випадки використання генеративно-штучного інтелекту:
- Боти, що просувають проросійські наративи. Вони пишуть коментарі, ретвітять
- Спрощене таргетування фейків на цільову аудиторію.
- Фейкові сайти, що маскуються під відомі ресурси. Візуально він схожий на відомий новинний сайт, на ньому автоматично генерується контент, який потрібний тим зловмисникам.
- Діпфейки з українськими військовими. Створюється відео, у якому військовий розповідає про те, що їх кинули чи як у них немає зброї.
- Фейкороби «рідною» мовою. Штучний інтелект робить переклад на потрібні мови. ШІ робить це досконало та набагато краще, ніж інструменти, які раніше існували. Завдяки цьому ми маємо просто величезні потоки фейків, які не завжди таргетуються на українську аудиторію. Їх часто таргетують на закордонну аудиторію. Таким чином, вони спонукають закордонну аудиторію робити все, аби нам не давали зброї, а політики не підтримували.
Більше про пропаганду та фейки можна дізнатись на Громадському радіо.
Слухайте також: «Усі фейки починаються з Telegram»: як РФ поширює дезу протягом 2 років повномасштабної війни
Додатково про фейки
Нагадаємо, за словами співзасновниці «StopFake» Ольги Юркової, віру у фейки пояснюють особливостями людської психології. Фейкові новини приваблюють людей своєю новизною. Фейки вирізняються у стрічці новин: провокують набагато більше емоцій. Відомо, що у людини спочатку включаються емоції, а вже потім — інтелект. Оскільки люди нині стали обережніше ставитися до інформації, фейки еволюціонують.
Як уберегтися від фейків читачам Громадського радіо радила Олена Чуранова. За її словами, для цього потрібно перевіряти всю інформацію. А найлегший спосіб не повестися на фейки, зазначила фактчекерка, — це влаштувати інформаційний чекап: перевірити ті джерела, які ви читаєте. І якщо вони поширюють щось сумнівне — просто прибирати їх зі свого простору. Споживайте перевірену інформацію з перевірених, авторитетних медіа.
Попри те, що джерелом отримання новин та інформації українці називають Telegram, 20-30% опитаних не пам’ятають назви жодного Telegram-каналу, на який підписані. Про це повідомив виконавчий директор Київського міжнародного інституту соціології Антон Грушецький в етері Громадського радіо.
Повністю розмову слухайте у доданому аудіофайлі
При передруку матеріалів з сайту hromadske.radio обов’язково розміщувати гіперпосилання на матеріал та вказувати повну назву ЗМІ — «Громадське радіо». Посилання та назва мають бути розміщені не нижче другого абзацу тексту