Штучний інтелект використовують, щоб відмивати репутацію героїв журналістських розслідувань — Олег Хоменок

Говорили про те, чи замінять роботи журналістів та як штучний інтелект використовують у створенні фейків.

Ведучі

Вікторія Єрмолаєва

Гостi

Олег Хоменок,

Андрій Яніцький,

Світлана Сліпченко

Штучний інтелект використовують, щоб відмивати репутацію героїв журналістських розслідувань — Олег Хоменок
https://media.blubrry.com/hromadska_hvylya/static.hromadske.radio/2021/07/hr-ne_vedys-2021-07-15.mp3
https://media.blubrry.com/hromadska_hvylya/static.hromadske.radio/2021/07/hr-ne_vedys-2021-07-15.mp3
Штучний інтелект використовують, щоб відмивати репутацію героїв журналістських розслідувань — Олег Хоменок
0:00
/
0:00

Що вже вміють робити комп’ютерні алгоритми та в чому вони навряд зможуть дорівнятися живій людині. Нещодавно відбувся марафон лекцій Ukraine Journalism AI Day про застосування штучного інтелекту в медіа. Цей проєкт — ініціатива керівника Центру журналістики Київської школи економіки Андрія Яніцького.

Вікторія Єрмолаєва: Чи правда, що замість журналістів у майбутньому будуть працювати роботи?

Андрій Яніцький: Я скажу, що це вже сьогодення. Уже зараз роботи допомагають журналістам і деяку рутинну роботу роблять замість них. У The Washington Post писали про місцеві вибори в Америці. Охопити всі дільниці 50 штатів одному виданню ​неможливо, тому штучний інтелект допомагав їм знайти проблемні дільниці. Уже на ці проблемні дільниці їхали журналісти.

У Швеції є видання, які автоматизували новини з фінансових ринків, погоду та спорт. Там, де легко зробити шаблон новини, не потрібно великої творчості, просто підставити курс, додати яким був курс вчора і відповідно — ​знизився він чи ні. Так само спортивні новини. Це вивільняє у журналістів час на більш творчу, людяну роботу.

Роботи замінять тих журналістів, які займаються найбільш автоматичною роботою. Є роботи, які розшифровують, озвучують тексти. Вже є роботи, які в текстовому режимі працюють з українською мовою. Я думаю, рік-два і така професія як шифрувальник аудіо буде не потрібна, оскільки комп’ютерна програма зможе розшифрувати аудіо в текст, транскрибувати швидше і якісніше, ніж людина. Єдине — питання вартості. Поки у нас низька вартість робочої сили, ми будемо наймати людей на таку марудну роботу. Коли ж ми почнемо цінувати людей і платити їм відповідні зарплати, тоді роботи стануть дешевші й швидше замінять такі автоматичні, рутинні операції.

Вікторія Єрмолаєва: Якщо говорити про професійну журналістику, яка має працювати за стандартами, то головне місце тут посідає перевірка фактів. Які небезпечні моменти можуть виникати, якщо цю роботу будуть виконувати роботи?

Андрій Яніцький: Роботи теж помиляються. Можна довірити їм перевірку фактів, але остаточне рішення має приймати людина. Зараз штучний інтелект у такий мережах, як Facebook допомагає боротись з поширенням неправдивих новин, але там працюють і люди. Це симбіоз. Від цього журналістика не зникне, а зміниться.

***
Роботів використовують не тільки для хорошого, а й для того, щоб створювати та розповсюджувати фейки. Говорили про це зі Світланою Сліпченко, заступницею керівника VoxCheck.

Вікторія Єрмолаєва: Як це взагалі працює?

Світлана Сліпченко: Загалом вважається, що найбільш поширена форма використання штучного інтелекту, не стільки для фейків, скільки для поширення дезінформації у найрізноманітніших її проявах. Це такі персонажі, як боти. Це не живі люди, це роботи, які запрограмовані генерувати певний контент і відповідати на коментарі — зазвичай одними й тими ж фразами, які мають транслювати якусь думку. Їх найбільш часто використовують під час передвиборчих кампаній, аби вони формували прихильність до якоїсь партії чи кандидата чи навпаки — ​розпалювали ворожнечу проти інших.

Інший випадок створення фейків штучним інтелектом — це відео або фото, які теж генерують різні нейромережі. В Україні ця технологія не надто поширена, бо досить коштовна. Її використовують, щоб накласти на відео, де людина щось розповідає, зовсім інший текст, інші слова. Найбільш відомий приклад — це відео з Бараком Обамою, який нібито обзиває Дональда Трампа. Якщо ж придивитись, то видно що його рухи губами трохи не потрапляють у ті звуки, які він каже, це трохи видавало цей глибинний фейк.

В українському сегменті Facebook трапився приклад, коли штучний інтелект використали для створення фейку про вакцинацію проти коронавірусу. У Росії в Яндекса є голосовий помічник «Аліса». На відео голосового помічника спочатку запитують — ​«Аліса, що таке пролонгована евтаназія?». «Аліса», як і будь-який інший голосовий помічник, шукає інформацію в інтернеті відповідно до сформульованого запиту. Вона видає користувачу відповідь, що таке пролонгована евтаназія. Друге питання до неї — «Аліса, що таке вакцинація і пролонгована евтаназія?». Вона дає відповідь, яку знайшла у мережі ВКонтакте і каже, що вакцинація це і є пролонгована евтаназія, далі розповідає якісь страшні речі про щеплення. Специфіка в тому, що штучний інтелект навчається відповідно до того, на чому ми даємо йому вчитися. Він буде продовжувати шукати відповідь у тому ж напрямку, бо вважає, що саме це потрібно користувачу. Штучний інтелект не може перевірити правдивість і якість джерел використаної інформації. Отаку розмову, згенеровану зі штучним інтелектом, масово поширювали у російськомовному сегменті, з часом вона мігрувала в український сегмент Facebook, над чим ми уже і працювали.

Нещодавно я також зустрічала статтю про те, що в Росії розробили мережу, яка навчалась на чаті антивакцинаторів у Telegram. Вона почала генерувати різні повідомлення у Twitter у стилі противників щеплень, ковід-дисидентів про те, що щеплення — це вбивство, пандемія планована, нас всіх намагаються зробити рабами й так далі. Подібні фейки на даному етапі виявити досить легко — вони можуть містити помилки у використанні слів у контексті, орфографічні, пунктуаційні помилки. Якщо ж подібні боти контролюються з-за кордону, а працюють на Україну, то можуть банально не правильно перекладати слова з російської на українську, це може бути дослівний переклад.

Окрім ботів у соцмережах є тролі. Це живі люди у яких є робочий день. Вони пишуть дописи на хибні, маніпулятивні теми або відповідають у коментарях. Їх виявити складніше. Загрозою вважається те, що добре навчений штучний інтелект з часом може замінити таких тролів, навчитися вести бесіду у соцмережах чи писати без помилок. Щоб убезпечити себе, варто аналізувати акаунт, з яким ви спілкуєтесь. Якщо це бот або троль, у нього може не бути нормального, живого фото, профіль буде переповнений політичною тематикою або ідеями антивакцинаторська. Не буде інформації про місце народження, роботу і навчання або вона буде дуже узагальнена. Також можуть бути дописи, які з’являються з певною частотою. Є кілька десятків критеріїв, як визначити хто перед вами штучний інтелект, бот, троль чи жива людина, але названі найбільш поширені. Якщо ви впевнені, що це бот або троль, то можете поскаржитись на цей акаунт. Якщо виявиться, що це справді сторінка бота чи троля, то Facebook заблокує цей акаунт.

Зустрілися з непрофесійними діями журналістів? Подайте скаргу через сайт Комісії з журналістської етики.

***

Як зловмисники використовують Google для відмивання репутації? Розповів Олег Хоменок, представник Комісії з журналістської етики.

Олег Хоменок: У робота немає відчуття міри та відчуття етики. Штучний інтелект ще не досяг такого рівня розвитку, коли він може приймати більш-менш усвідомлені рішення щодо, наприклад, порушення етичних стандартів чи приймати рішення, які будуть раціональними. Часто виникають ситуації, коли робот блокує певну інформацію, вбачаючи в ній певні порушення якихось стандартів спільноти.

Наведу як приклад історію, що відбулася у Миколаївському центрі журналістських розслідувань. Досить часто розслідувальні центри чи журналісти публікують інформацію, яка не подобається героям, про яких вони пишуть. У певний час виникла тенденція відмивання свого іміджу, для цього потрібно вилучити з індексації пошуковиків інформацію, яка є негативною або взагалі її видалити. Зловмисники створювали на якихось блогових платформах акаунти, де публікували ту саму статтю, але завдяки маніпулюванню календарем вона виходила на день чи два раніше, ніж насправді. Потім вони генерували скаргу до Google про порушення авторських прав. У Google робот, отримуючи скаргу на те, що хтось порушив авторські права має завдання перевірити коли була опублікована перша інформація. Відповідно, він виключає з індексації статтю, яка носить негативну інформацію, бо не розуміє, що була маніпуляція з даними. Після цієї публікації Google скасував обмеження, що були щодо публікації Миколаївського центру, відновив їх індексацію.

Це відбувалось не лише в Миколаєві, не лише в Україні. Wall Street Journal провели досить ґрунтовне журналістське розслідування того, як зловмисники використовують Google для того, щоб відмити репутацію героїв журналістських розслідувань, яким не подобається те, що про них опублікували в медіа.

Програма виходить за підтримки Комісії з журналістської етики

Повну програму слухайте в аудіофайлі

Підтримуйте Громадське радіо на Patreon, а також встановлюйте наш додаток:

якщо у вас Android

якщо у вас iOS

Коментарi до запису