
Масове маніпулювання сектором потенційних виборців, яке стало можливим завдяки штучному інтелекту, несе набагато більш серйозну й відчутну загрозу демократії, аніж фантастичні роботи-вбивці. Інтелектуальні системи мають підривний потенціал, яким полюбляють користуватися не лише авторитарні режими, але й більшість політиків західних держав. При цьому й без того слабкі демократичні інститути країн, що розвиваються, найбільш уразливі у цій ситуації.
А ви вже проголосували за AI?
Україна, як і багато інших країн, що розвиваються, не має загальнодержавної стратегії формування принципів етичного, соціального та нормативного застосування AI. Це автоматично вводить нас у зону ризику, особливо коли мова йде про ймовірність управління суспільною свідомістю для реалізації особистих політичних амбіцій в ході виборчих процесів. Інтелектуальні технології використовуються політичними суб’єктами для придушення голосів і ідей, формування ідеологічних бар’єрів, а також у соціальних мережах у вигляді спамерських пошукових роботів. Останні можуть, наприклад, забезпечити скоординований протест або надати «прозорості» кандидату, який без подібних махінацій ніколи б не опинився у фаворитах у виборців.
Боти, по суті, є автономними обліковими записами в соціальних мережах, і запрограмовані на агресивне поширення односторонніх політичних повідомлень для створення ілюзії підтримки. Тактика масових «атак» політичних ботів вже неодноразово застосовувалася у багатьох західних державах, не дивлячись на заявлені принципи «відкритої демократії». Найбільш масштабними є випадки використання ботів на державних виборах у 2017 році у Великобританії, коли у соцмережах активно поширювалася неправдива інформація про кандидатів на користь ілюзорних переваг найменш популярних претендентів на крісло в уряді. Те саме відбулося під час президентських виборів у США в 2016 році і в ході ряду інших ключових політичних виборів у всьому світі.
Згідно дослідницьким даними, основні методи маніпуляцій за допомогою AI сьогодні такі:
- Запуск автоматизованих платформ спостереження та відстеження настроїв електорату, а також збір, обробка та використання особистої конфіденційної інформації у розвідувальних цілях;
- Поширення фальшивих новин у вигляді аудіо- та відеоконтенту;
- Організація автоматизованих, гіперперсоніфікованих дезинформаційних кампаній, коли окремі фізичні особи у несприятливих і нестабільних регіонах отримують повідомлення певного змісту, що прямо впливають на їх поведінку безпосередньо під час голосування;
- Автоматизація передвиборних кампаній, що здійснюється шляхом проведення аналізу соціальних мереж за допомогою AI з метою визначення ключових джерел формування поглядів, намірів і пріоритетів виборців;
- Здійснення автоматизованих великомасштабних атак на інформаційні ресурси. Як правило, використовуються для збільшення кількості інформаційних каналів (з фальшивою або просто відволікаючою інформацією), що ускладнює отримання правди;
- Маніпуляції з доступом до інформації, коли алгоритми кодування змісту медіаплатформи використовуються для управління поведінкою виборців.
Реалії українського політикуму – плідний ґрунт для маніпуляцій за допомогою AI
Україна, як відзначають багато політтехнологів і міжнародних експертів, входить до списку країн, де політичні махінації, особливо під час виборчих кампаній напередодні виборів, застосовуються більш ніж успішно.
Безумовно, на нинішньому етапі розвитку технологій AI у нашій країні, методи вітчизняних політиків можуть бути не настільки прогресивними, як у тих країнах світу, де техніки маніпулювання електоратом відточені до найвищого рівня. У той же час, це робить наше суспільство ще більш вразливим до ризиків, пов’язаних із неправомірним застосуванням штучного інтелекту: мало того, що подібна тактика сама по собі несе загрозу, так ще й геть відсутнє розуміння наслідків такого втручання в принцип роботи демократичної держави.
Та ж частина українських виборців, яка все ж скептично ставиться до будь-яких виборчих кампаній, проявляє обережність до політтехнологій, маючи на увазі хіба що можливість підкупу. Що, в принципі, є звичною практикою у нашій країні. Однак, згідно з деякими соціологічними опитуваннями, фактично ніхто з тих, хто доходить до виборчої урни в процесі голосування, по-перше, не може дати чіткої відповіді на питання, що вплинуло на його вибір, а значить, існує ймовірність того, що вибір міг бути скоригований за допомогою медійних або інших маніпуляцій.
Капкан для AI
У країнах, де немає чітко сформованого розуміння можливостей, принципів і ризиків впровадження штучного інтелекту, слід пильніше стежити за розвитком даної сфери, не відпускаючи цей процес у вільне плавання. Вчені, дослідники та розробники інтелектуальних технологій повинні знаходиться під контролем суспільства.
Країни Європейського союзу свого часу ретельно продавлювали протидію корпоративній власності, пов’язаної з розробками AI, зміцнюючи офіційні права громадян на свої особисті дані. Такий підхід дозволив істотно скоротити число ризикових ситуацій, пов’язаних із неправомірним використанням конфіденційної інформації, зокрема, з метою політичних маніпуляцій. Україна могла б наслідувати подібний приклад.
Наукові організації та дослідницькі центри, які у нашій країні переживають не найкращі часи, все ж мають найбільший потенціал для формування дискурсу навколо AI. Першим важливим кроком є визнання – виведення дискусій про можливості та ризики штучного інтелекту у публічні рамки українських реалій запустить тему в маси. Але це не єдине завдання вчених. Вони мають завжди залишатися незалежними й неупередженими у своїй оцінці будь-якого напрямку використання інновацій.
Формуючи ключовий посил, спрямований на попередження ризикових маніпуляторних засобів залучення AI, зокрема, у політичному середовищі, варто спиратися на такі запобіжні заходи:
- Децентралізація функції інформаційних систем;
- Заохочення участі громадян в інформаційних процесах;
- Підвищення прозорості застосовуваних технологій з метою отримання більшої довіри до них;
- Контроль ресурсів, які деформують інформацію;
- Сприяння поліпшенню функціональної сумісності громадян та інформаційної системи;
- Створення цифрових помічників та інструментів координації застосовуваних технологій AI;
- Сприяння відповідальної поведінки громадян у цифровому світі за допомогою інформування та просвіти.
Слід пам’ятати, що найближчим часом потяг політичних лідерів до використання методів AI не вичерпається. Це занадто цінний і дієвий метод для успішної реалізації передвиборних кампаній. Проте, саме політики повинні взяти на себе зобов’язання використовувати технології AI відповідально, аби гарантувати, що їхні спроби вплинути на виборців не підривають демократію.