Джерело LB.ua

Масове маніпулювання сектором потенційних виборців, яке стало можливим завдяки штучному інтелекту, несе набагато більш серйозну й відчутну загрозу демократії, аніж фантастичні роботи-вбивці. Інтелектуальні системи мають підривний потенціал, яким полюбляють користуватися не лише авторитарні режими, але й більшість політиків західних держав. При цьому й без того слабкі демократичні інститути країн, що розвиваються, найбільш уразливі у цій ситуації.

А ви вже проголосували за AI?  

Україна, як і багато інших країн, що розвиваються, не має загальнодержавної стратегії формування принципів етичного, соціального та нормативного застосування AI. Це автоматично вводить нас у зону ризику, особливо коли мова йде про ймовірність управління суспільною свідомістю для реалізації особистих політичних амбіцій в ході виборчих процесів. Інтелектуальні технології використовуються політичними суб’єктами для придушення голосів і ідей, формування ідеологічних бар’єрів, а також у соціальних мережах у вигляді спамерських пошукових роботів. Останні можуть, наприклад, забезпечити скоординований протест або надати «прозорості» кандидату, який без подібних махінацій ніколи б не опинився у фаворитах у виборців.  

Боти, по суті, є автономними обліковими записами в соціальних мережах, і запрограмовані на агресивне поширення односторонніх політичних повідомлень для створення ілюзії підтримки. Тактика масових «атак» політичних ботів вже неодноразово застосовувалася у багатьох західних державах, не дивлячись на заявлені принципи «відкритої демократії».  Найбільш масштабними є випадки використання ботів на державних виборах у 2017 році у Великобританії, коли у соцмережах активно поширювалася неправдива інформація про кандидатів на користь ілюзорних переваг найменш популярних претендентів на крісло в уряді. Те саме відбулося під час президентських виборів у США в 2016 році і в ході ряду інших ключових політичних виборів у всьому світі.

Згідно дослідницьким даними, основні методи маніпуляцій за допомогою AI сьогодні такі:

  • Запуск автоматизованих платформ спостереження та відстеження настроїв електорату, а також збір, обробка та використання особистої конфіденційної інформації у розвідувальних цілях;  
  • Поширення фальшивих новин у вигляді аудіо- та відеоконтенту;  
  • Організація автоматизованих, гіперперсоніфікованих дезинформаційних кампаній, коли окремі фізичні особи у несприятливих і нестабільних регіонах отримують повідомлення певного змісту, що прямо впливають на їх поведінку безпосередньо під час голосування;  
  • Автоматизація передвиборних кампаній, що здійснюється шляхом проведення аналізу соціальних мереж за допомогою AI з метою визначення ключових джерел формування поглядів, намірів і пріоритетів виборців;  
  • Здійснення автоматизованих великомасштабних атак на інформаційні ресурси. Як правило, використовуються для збільшення кількості інформаційних каналів (з фальшивою або просто відволікаючою інформацією), що ускладнює отримання правди;  
  • Маніпуляції з доступом до інформації, коли алгоритми кодування змісту медіаплатформи використовуються для управління поведінкою виборців.

Реалії українського політикуму – плідний ґрунт для маніпуляцій за допомогою AI

Україна, як відзначають багато політтехнологів і міжнародних експертів, входить до списку країн, де політичні махінації, особливо під час виборчих кампаній напередодні виборів, застосовуються більш ніж успішно.  

Безумовно, на нинішньому етапі розвитку технологій AI у нашій країні, методи вітчизняних політиків можуть бути не настільки прогресивними, як у тих країнах світу, де техніки маніпулювання електоратом відточені до найвищого рівня. У той же час, це робить наше суспільство ще більш вразливим до ризиків, пов’язаних із неправомірним застосуванням штучного інтелекту: мало того, що подібна тактика сама по собі несе загрозу, так ще й геть відсутнє розуміння наслідків такого втручання в принцип роботи демократичної держави.  

Та ж частина українських виборців, яка все ж скептично ставиться до будь-яких виборчих кампаній, проявляє обережність до політтехнологій, маючи на увазі хіба що можливість підкупу. Що, в принципі, є звичною практикою у нашій країні. Однак, згідно з деякими соціологічними опитуваннями, фактично ніхто з тих, хто доходить до виборчої урни в процесі голосування, по-перше, не може дати чіткої відповіді на питання, що вплинуло на його вибір, а значить, існує ймовірність того, що вибір міг бути скоригований за допомогою медійних або інших маніпуляцій.

Капкан для AI

У країнах, де немає чітко сформованого розуміння можливостей, принципів і ризиків впровадження штучного інтелекту, слід пильніше стежити за розвитком даної сфери, не відпускаючи цей процес у вільне плавання. Вчені, дослідники та розробники інтелектуальних технологій повинні знаходиться під контролем суспільства.  

Країни Європейського союзу свого часу ретельно продавлювали протидію корпоративній  власності, пов’язаної з розробками AI, зміцнюючи офіційні права громадян на свої особисті дані. Такий підхід дозволив істотно скоротити число ризикових ситуацій, пов’язаних із неправомірним використанням конфіденційної інформації, зокрема, з метою політичних маніпуляцій. Україна могла б наслідувати подібний приклад.  

Наукові організації та дослідницькі центри, які у нашій країні переживають не найкращі часи, все ж мають найбільший потенціал для формування дискурсу навколо AI. Першим важливим кроком є ​​визнання – виведення дискусій про можливості та ризики штучного інтелекту у публічні рамки українських реалій запустить тему в маси. Але це не єдине завдання вчених. Вони мають завжди залишатися незалежними й неупередженими у своїй оцінці будь-якого напрямку використання інновацій.  

Формуючи ключовий посил, спрямований на попередження ризикових маніпуляторних засобів залучення AI, зокрема, у політичному середовищі, варто спиратися на такі запобіжні заходи:

  • Децентралізація функції інформаційних систем;  
  • Заохочення участі громадян в інформаційних процесах;  
  • Підвищення прозорості застосовуваних технологій з метою отримання більшої довіри до них;  
  • Контроль ресурсів, які деформують інформацію;  
  • Сприяння поліпшенню функціональної сумісності громадян та інформаційної системи;  
  • Створення цифрових помічників та інструментів координації застосовуваних технологій AI;  
  • Сприяння відповідальної поведінки громадян у цифровому світі за допомогою інформування та просвіти.

Слід пам’ятати, що найближчим часом потяг політичних лідерів до використання методів AI не вичерпається. Це занадто цінний і дієвий метод для успішної реалізації передвиборних кампаній. Проте, саме політики повинні взяти на себе зобов’язання використовувати технології AI відповідально, аби гарантувати, що їхні спроби вплинути на виборців не підривають демократію.

Юрій Чубатюк, президент групи компаній Everest