Аналітика

Штучний інтелект на службі сучасного політикуму: загрози демократичним принципам і необхідність у нових стандартах

~ 5 хв

Україна не має загальнодержавної стратегії формування принципів етичного, соціального, нормативного застосування AI. Це вводить у зону ризику, особливо коли мова йде про ймовірність управління суспільною свідомістю для реалізації особистих політичних амбіцій у ході виборчих процесів

Масове маніпулювання сектором потенційних виборців, яке стало можливим завдяки штучному інтелекту, несе набагато більш серйозну й відчутну загрозу демократії, аніж фантастичні роботи-вбивці. Інтелектуальні системи мають підривний потенціал, яким полюбляють користуватися не лише авторитарні режими, але й більшість політиків західних держав. При цьому й без того слабкі демократичні інститути країн, що розвиваються, найбільш уразливі у цій ситуації.

А ви вже проголосували за AI?  

Україна, як і багато інших країн, що розвиваються, не має загальнодержавної стратегії формування принципів етичного, соціального та нормативного застосування AI. Це автоматично вводить нас у зону ризику, особливо коли мова йде про ймовірність управління суспільною свідомістю для реалізації особистих політичних амбіцій в ході виборчих процесів. Інтелектуальні технології використовуються політичними суб’єктами для придушення голосів і ідей, формування ідеологічних бар’єрів, а також у соціальних мережах у вигляді спамерських пошукових роботів. Останні можуть, наприклад, забезпечити скоординований протест або надати «прозорості» кандидату, який без подібних махінацій ніколи б не опинився у фаворитах у виборців.  

Боти, по суті, є автономними обліковими записами в соціальних мережах, і запрограмовані на агресивне поширення односторонніх політичних повідомлень для створення ілюзії підтримки. Тактика масових «атак» політичних ботів вже неодноразово застосовувалася у багатьох західних державах, не дивлячись на заявлені принципи «відкритої демократії».  Найбільш масштабними є випадки використання ботів на державних виборах у 2017 році у Великобританії, коли у соцмережах активно поширювалася неправдива інформація про кандидатів на користь ілюзорних переваг найменш популярних претендентів на крісло в уряді. Те саме відбулося під час президентських виборів у США в 2016 році і в ході ряду інших ключових політичних виборів у всьому світі.

Згідно дослідницьким даними, основні методи маніпуляцій за допомогою AI сьогодні такі:

  • Запуск автоматизованих платформ спостереження та відстеження настроїв електорату, а також збір, обробка та використання особистої конфіденційної інформації у розвідувальних цілях;  
  • Поширення фальшивих новин у вигляді аудіо- та відеоконтенту;  
  • Організація автоматизованих, гіперперсоніфікованих дезинформаційних кампаній, коли окремі фізичні особи у несприятливих і нестабільних регіонах отримують повідомлення певного змісту, що прямо впливають на їх поведінку безпосередньо під час голосування;  
  • Автоматизація передвиборних кампаній, що здійснюється шляхом проведення аналізу соціальних мереж за допомогою AI з метою визначення ключових джерел формування поглядів, намірів і пріоритетів виборців;  
  • Здійснення автоматизованих великомасштабних атак на інформаційні ресурси. Як правило, використовуються для збільшення кількості інформаційних каналів (з фальшивою або просто відволікаючою інформацією), що ускладнює отримання правди;  
  • Маніпуляції з доступом до інформації, коли алгоритми кодування змісту медіаплатформи використовуються для управління поведінкою виборців.

Реалії українського політикуму – плідний ґрунт для маніпуляцій за допомогою AI

Україна, як відзначають багато політтехнологів і міжнародних експертів, входить до списку країн, де політичні махінації, особливо під час виборчих кампаній напередодні виборів, застосовуються більш ніж успішно.  

Безумовно, на нинішньому етапі розвитку технологій AI у нашій країні, методи вітчизняних політиків можуть бути не настільки прогресивними, як у тих країнах світу, де техніки маніпулювання електоратом відточені до найвищого рівня. У той же час, це робить наше суспільство ще більш вразливим до ризиків, пов’язаних із неправомірним застосуванням штучного інтелекту: мало того, що подібна тактика сама по собі несе загрозу, так ще й геть відсутнє розуміння наслідків такого втручання в принцип роботи демократичної держави.  

Та ж частина українських виборців, яка все ж скептично ставиться до будь-яких виборчих кампаній, проявляє обережність до політтехнологій, маючи на увазі хіба що можливість підкупу. Що, в принципі, є звичною практикою у нашій країні. Однак, згідно з деякими соціологічними опитуваннями, фактично ніхто з тих, хто доходить до виборчої урни в процесі голосування, по-перше, не може дати чіткої відповіді на питання, що вплинуло на його вибір, а значить, існує ймовірність того, що вибір міг бути скоригований за допомогою медійних або інших маніпуляцій.

Капкан для AI

У країнах, де немає чітко сформованого розуміння можливостей, принципів і ризиків впровадження штучного інтелекту, слід пильніше стежити за розвитком даної сфери, не відпускаючи цей процес у вільне плавання. Вчені, дослідники та розробники інтелектуальних технологій повинні знаходиться під контролем суспільства.  

Країни Європейського союзу свого часу ретельно продавлювали протидію корпоративній  власності, пов’язаної з розробками AI, зміцнюючи офіційні права громадян на свої особисті дані. Такий підхід дозволив істотно скоротити число ризикових ситуацій, пов’язаних із неправомірним використанням конфіденційної інформації, зокрема, з метою політичних маніпуляцій. Україна могла б наслідувати подібний приклад.  

Наукові організації та дослідницькі центри, які у нашій країні переживають не найкращі часи, все ж мають найбільший потенціал для формування дискурсу навколо AI. Першим важливим кроком є ​​визнання – виведення дискусій про можливості та ризики штучного інтелекту у публічні рамки українських реалій запустить тему в маси. Але це не єдине завдання вчених. Вони мають завжди залишатися незалежними й неупередженими у своїй оцінці будь-якого напрямку використання інновацій.  

Формуючи ключовий посил, спрямований на попередження ризикових маніпуляторних засобів залучення AI, зокрема, у політичному середовищі, варто спиратися на такі запобіжні заходи:

  • Децентралізація функції інформаційних систем;  
  • Заохочення участі громадян в інформаційних процесах;  
  • Підвищення прозорості застосовуваних технологій з метою отримання більшої довіри до них;  
  • Контроль ресурсів, які деформують інформацію;  
  • Сприяння поліпшенню функціональної сумісності громадян та інформаційної системи;  
  • Створення цифрових помічників та інструментів координації застосовуваних технологій AI;  
  • Сприяння відповідальної поведінки громадян у цифровому світі за допомогою інформування та просвіти.

Слід пам’ятати, що найближчим часом потяг політичних лідерів до використання методів AI не вичерпається. Це занадто цінний і дієвий метод для успішної реалізації передвиборних кампаній. Проте, саме політики повинні взяти на себе зобов’язання використовувати технології AI відповідально, аби гарантувати, що їхні спроби вплинути на виборців не підривають демократію.