Що обмежить перший закон про ШІ

Про законопроєкт

Олесь Петрів: Штучний інтелект (ШІ) не є особливим вийнятком серед інструментів. Окрім того, що темпи його поширення можуть бути в десятки, а то і в сотні разів більші ніж будь-якого іншого інструменту, коли-небудь винайденого людством. Вплив на соціум, політику тощо можуть бути доволі непередбачуваними. Для того, щоб ми не опинилися у ситуації, коли вже пізно щось робити, всі серйозно задумалися, який це матиме вплив на соціум і що варто регулювати.

Акт, який прийнято, це насамперед однозначний сигнал усім країнам ЄС і тим, хто розглядає можливість членства. Сигнал щодо того, як потрібно врегулювати своє внутрішнє законодавство так, щоб адаптувати впровадження, використання та контроль за використанням ШІ у своїй країні відповідно до цінностей Євросоюзу. У Китаї, США, наприклад, цінності дещо відмінні. Те, що вважається в ЄС технологіями в червоній зоні, які повинні або бути заборонені, або піддаватися повному контролю з боку великої кількості організацій, у Китаї легальні. Там вони навпаки дуже активно форсяться самою державою. У США, аналогічно.

Заборонити все, зрозуміло, що не можна. Через те, що ШІ — це зброя XXI століття. Результат великого перерозподілу сил буде визначений тим, хто навчиться ефективніше використовувати системи ШІ як зброю, методи контролю над населенням.

США, ЄС, Індія, Китай, Росія мають свої погляди на те, як ШІ має бути імплементований. Україна хилиться в бік європейського бачення. Але для того, щоб це було не просто бажання, треба почати розробляти законопроєкти, які адаптують величезну кількість законів, які вже існують.

Що ЄС категорично не хоче бачити від ШІ?

Олесь Петрів: Наприклад, повністю автоматизовані системи розпізнавання трекінгу людей за допомогою систем Computer vision. Це коли кожна людина 24/7 відстежується або за телефоном, або зовнішніми камерами. Всі її дії звіряються, аналізуються, створюються певні соціальні рейтинги, за результатами яких до людини застосовують санкції або надають бенефіти. Наприклад, у це Китай інвестує мільярди доларів.

Європейське бачення щодо цього є таким, яким точно не хочуть бачити та не хочуть прямувати. Будь-які системи, які потенційно можуть перетворитися в систему спостереження та контролю над персональними даними людей, будуть піддані або забороні, або дуже жорсткому контролю з боку держави та громадських організацій.



Читайте також: Дослідники навчили штучний інтелект переконливо імітувати почерк людини


Що таке емоційний відклик?

Олесь Петрів: Емоційний відклик — це один із найцінніших сигналів, які можна отримати від людини. Збираючи дані емоційної реакції людини впродовж її життя на різні подразники, ми можемо програмувати людину. Можна розробити систему ШІ, яка буде повністю програмувати людину, як робота. Можна програмувати виникнення певних думок, ідей.

Оскільки емоційний виклик — це по суті інтерфейс до програмування людей, на основі подібних даних працює більшість всієї індустрії маркетингу. Системи ШІ неймовірно ефективні в максимізації доволі чітких метричних показників. Автоматизація програмування людей, намагаючись збільшити рівень продажів, наприклад, може призвести до катастрофи, яку ми навіть не можемо уявити.

Емоції — це ресурс. Якщо система може викликати їх у людей, цей ресурс можна направити на досягнення тої чи іншої цілі.


Слухайте також: Як використовують штучний інтелект для розмінування?


«Ми живемо в епоху дезінформації»

Олесь Петрів: Це не майбутнє, це вже відбувається всюди. Люди, які підписані на багато різних Telegram-каналів, кожного дня бачать шторми дезінформації, яка ллється з усіх сторін і кидає емоційно в різні боки. ІПСО приходять з усіх боків.

По суті зараз свідомість людей стала доволі важливим полем бою. Якщо можна зробити так, щоб люди писали у Twitter, не важливо правду чи ні, то так можна досягнути своїх цілей. Росія це використовує вже давно. Це не нове.

Варто одразу перейти до фази прийняття того, що ми живемо в епоху абсолютної дезінформації. Якщо не вірите, зайдіть у Twitter під випадковим акаунтом по випадкових сторінках. Дефолтний стан інформації, яку ви споживаєте в інтернеті, — це брехня. Поки не доведене протилежне.

Як боротися з дезінформацією?

Олесь Петрів: У людини є мозок для того, щоб аналізувати інформацію. Так само у людини є природний імунітет для того, щоб захищатися від певних вірусів і бактерій. Що людство робить, коли стикається з вірусами чи бактеріями, які людський імунітет нормально побороти не може? Люди розробляють вакцини, які дозволяють побороти нову загрозу. Тут аналогічно.

Є системи ШІ, які здатні згенерувати візуальний, аудіальний, текстовий контент, який фактично не можливо відрізнити від реальності. Ті ж самі системи можуть допомогти нам витрачати менше ресурсу для того, щоб аналізувати вхідний потік інформації. Ключова проблема хвиль дезінформації в тому, що затрати енергії одиниці дезінформації набагато менші, ніж затрати людського часу та енергії на те, щоб розрізнити чи то правда, чи брехня.

Наші північні сусіди активно використовують лінгвістичні моделі для аналізу великої кількості даних для дезінформаційних вкидів і аналізу того, що людям «заходить», що більше розхитує соціум тощо. Якщо раніше це робилося «тролями», тобто людьми, то зараз це все поставлено на конвеєр. Один, два data-інженери можуть керувати системою, яка продукує кілотонни контенту, який самоадаптовується. Ми вчимося від цього захищатися.

Завжди в такій грі перевага на боці того, хто використовує технологію у поганому напрямкові. Без використання систем ШІ для захисту ми не справимося. Тут не можна покладатися на інформаційну гігієну, рівень освіти тощо.

Олег Климчук: Ви хочете сказати, що будуть лабораторії, які будуть програмувати системи ШІ на дезінформацію та установи, які програмуватимуть на розвінчання та пошук правди?

Олесь Петрів: Такі лабораторії уже існують. Це уже відбувається. І дуже стрімко.


Читайте також: Штучний інтелект не має повністю заміняти лікаря-радіолога, діагноз ставить людина — співробітниця ЦГЗ 


Нагадаємо, Європейський парламент схвалив законопроєкт щодо регулювання штучного інтелекту. Найближчим часом його маж затвердити рада міністрів.  

Законопроєкт заборонить системи, які

  • маніпулюють людьми, щоб завдати шкоди;
  • сортують людей на основі їхніх біометричних даних (сканування сітківки ока, розпізнавання обличчя, відбитки пальців), щоб зробити висновок про расу, сексуальну орієнтацію, політичні погляди чи релігійні переконання;
  • складають бази даних розпізнавання облич, копіюючи зображення облич з інтернету чи камер відеоспостереження.

Повністю розмову слухайте у доданому аудіофайлі

Теги: