Зростання кількості розумних машин і їх здібностей є фактично етапом нової промислової революції. У свою чергу, це означає, що вже в найближчому майбутньому людство зіштовхнеться з неминучими соціальними, економічними та політичними змінами, які будуть пов’язані зі специфікою взаємодії суспільства та AI.  

Багато експертів вважають, що, поряд із глобальними можливостями, штучний інтелект створює не менш глобальні ризики. Більше того, науковий аналіз цих ризиків передбачає, що високий потенційний збиток слід сприймати дуже серйозно, навіть якщо б ймовірність виникнення загрози була низькою.  

У складних системах, де кілька алгоритмів взаємодіють на високій швидкості, вже зараз існує підвищений ризик того, що нові технології AI будуть використані неправильно або зможуть спровокувати несподівані системні збої. Існує також загроза «гонки технологічних озброєнь», в якій безпека інноваційних досягнень буде однозначно принесена в жертву на користь швидкого прогресу. У будь-якому випадку, важливо знати, які цілі або етичні цінності повинні бути запрограмовані в алгоритмах штучного інтелекту, щоб забезпечити людству гарантію того, що ці цілі залишаться стабільними та стійкими до маніпуляцій. А, з огляду на те, що політичний і правовий прогрес, як правило, відстає від технологічного, – велика відповідальність вже зараз лягає на плечі не тільки окремих дослідників і розробників, але й на політиків.

На жаль, дуже часто завищені економічні стимули та вимоги для розвитку нових технологій не дозволяють вчасно прорахувати загрози, так як їх аналіз досить трудомісткий, тривалий і дорогий. У той час, як від початку основною попередньою умовою для розвитку AI по найбільш адекватних напрямках впровадження має стати створення вимог до безпеки цих технологій. І робота в цьому ключі повинна протікати не тільки в колі експертів, а й у  рамках широкого публічного дискурсу.

Шалені алгоритми

Від систем штучного інтелекту, як правило, очікують прозорості в рішеннях. Але без ретельного аналізу та підготовки це практично неможливо: найпростіші моделі можна інтерпретувати, а ось більш складні працюють за принципом «чорної скриньки».  Питання полягає лише в тому, чи довіряти методам, які закладені в AI, його безпосередньому розробнику, адже складно детально розібратися, чому було прийнято те чи інше рішення.

Наші індивідуальні життя та наша цивілізація в цілому все частіше регулюються алгоритмами та штучним інтелектом, який має специфіку для кожної конкретної галузі впровадження. Багато процесів залежать від занадто великих і складних алгоритмів, принципи розуміння яких доступні обмеженому колу людей. Більш того, багато механізмів, відповідно до яких сучасні інтелектуальні системи обробляють дані та згодом приймають рішення, часом не зрозумілі й самим розробникам. Це кидає тінь на безпеку кінцевого результату роботи будь-якої розумної машини, яка спочатку може бути запрограмована на конкретні дії, а за фактом вчинити на власний розсуд.  

Виходячи із сучасної практики, робота найскладніших алгоритмів, здебільшого, протікає без інцидентів, але завжди існує ймовірність занурення всієї системи в хаос.  

Наприклад, у 2010 році в США несподівана «раптова аварія» ледь не обрушила фондовий ринок. Причиною колапсу стало «зіткнення» комп’ютерних алгоритмів, що взаємодіють із фінансовими даними, між собою, в результаті чого вони почали діяти у непередбаченому порядку. Буквально протягом кількох хвилин важливі акції втратили більше 90% своєї вартості, після чого одразу ж до неї повернулися, але інцидент призвів до колосальних штрафів і втрат.  

Якщо уявити собі, що така подія могла б статися, наприклад, у військовому контексті на глобальному рівні, то «повернення до первинних умов» у даному випадку призвело б уже до вкрай сумних і незворотних наслідків. І, тим не менш, історії відомі випадки, коли AI помилявся, будучи задіяним у військових проектах.  

Так, буквально нещодавно група інженерів-науковців розробила на замовлення міністерства оборони США інтелектуальну систему, яка повинна була відрізняти ліс від замаскованих у лісі танків та іншої бронетехніки. Програму, побудовану на нейронній мережі, спочатку тренували, використовуючи спеціально заготовлені фото та відео матеріали. Через деякий час систему неодноразово тестували в реальних умовах під час військових випробувань, поки вона не навчилася давати стовідсотковий результат – усі необхідні об’єкти розпізнавалися безпомилково. Однак, після того, як розробка була передана в експлуатацію в міністерство оборони, її незабаром повернули, так як вона раптово почала видавати «випадкові» результати. Вивчивши ситуацію, вчені з’ясували, що, в ході тестових випробувань, фото танків, які демонструвалися системі, були зроблені у  сонячний день. А фото просто лісу без танків – у похмурий. У підсумку, програма навчилася не просто ідентифікувати та класифікувати об’єкти, але й відрізняти сонячний день від похмурого, реагуючи на відповідні погодні умови, які AI зчитував по контрастним змінам на одержуваних знімках. Звідси й несподівані результати у виконанні поставленого від початку завдання.

Іншим досить відомим прикладом алгоритмічного збою є програма з управління американськими винищувачами: після того, як один із них перетнув екватор, система AI спробувала перевернути винищувач, орієнтуючись на власне «бачення» принципу та  траєкторії його польоту. На щастя, аварійної ситуації вдалося вчасно запобігти.

Для контрасту можна привести ще один приклад – зі сфери медицини, де на технології AI вже не перший рік покладаються великі надії. Не так давно, у спробі створити максимально ефективний і дієвий підхід до лікування пневмонії, група дослідників при медичному університеті Піттсбурга розробила нейронну мережу, яка повинна була правильно аналізувати та зіставляти показники пацієнтів. Систему довго навчали, перш ніж вона не вирішила діяти на власний розсуд: в один момент штучний інтелект почав відправляти додому всіх пацієнтів із пневмонією, у яких при цьому також спостерігалася астма.  Нейромережа припустила, що такі хворі одужують швидше, прийшовши до неправильного висновку, що причина їх швидкого одужання – низький рівень ризику. Хоча, насправді, все було навпаки: такі пацієнти входили до групи надзвичайно високого ризику, тому одразу ж прямували до реанімації, де дійсно одужували швидше, ніж пацієнти без астми, але лише після інтенсивного лікування. Така стратегія ввела систему в оману, в результаті чого та й надалі не бажала визнавати власні неодноразово скоєні помилки, наполягаючи на лікуванні вдома.

Власне, як вже неодноразово відзначали експерти, коли мова йде про системи, що використовують глибоке навчання та нейронні мережі, часто неможливо зрозуміти, чому вони діють саме так, а не інакше. Ніколи не можна бути повністю впевненим у тому, що саме така система знає та вміє. Сам принцип побудови нейронних мереж і систем глибокого навчання робить їх схильними до «особливої» поведінки, і саме з цієї причини арсенал помилок, що допускає AI, зростає.  

Для того, щоб запобігти подібним руйнівним невдачам, здавалося б, найдоцільніше на даному етапі вкладати значно більше ресурсів у безпеку та надійність AI. Однак, як показує практика, нині існуючі економічне та політичне підґрунтя інноваційних розробок сприяють збільшенню самого ринку AI набагато більше, ніж прагненню розробників шукати способи зробити технології безпечнішими для загального застосування.  

І, оскільки з часом AI ставатиме ще більш складною системою, то в цьому випадку він зможе включати ще більше помилок.  Зрозуміло, існує припущення, що, за рахунок свого розвитку, він буде здатний до самооптимізації, але все ж таки ми не можемо бути до кінця впевненими у його остаточній безпомилковості. У будь-якому випадку, навіть зараз неможливо дізнатися, чи являється якийсь певний набір правил для роботи AI безпечним, поки система сама не випробує ці правила на практиці. Будь-яка технологія сама по собі є лише інструментом, важливо те, як ми його використовуємо.

Чотири критерії для побудови AI

При створенні та впровадженні будь-якої розумної системи з кожним разом виникають нові етичні проблеми в суспільстві, так як AI фактично бере на себе відповідальність за прийняття рішень без емоційного підґрунтя. Наприклад, алгоритми, за допомогою яких у багатьох країнах здійснюється кредитний рейтинг клієнтів банків, можуть приймати рішення, які часто дискримінують певні групи населення. Хоча початкова система не була запрограмована на образливі дії.  

Виходячи з цього, експерти виділили п’ять ключових керуючих принципів для побудови нових інтелектуальних систем:

1) Розробка та впровадження AI повинні мати прозорий характер;  

2) Принципи функціонування AI повинні бути зрозумілі, чітко сформовані та надані до відкритого розгляду громадськості;  

3) Алгоритми AI початково повинні бути закладені таким чином, щоб дії системи були безпечні та передбачувані;  

4) Системи AI повинні бути невразливі до маніпуляцій;  

5) Обов’язки, права та вимоги до розробки і впровадження AI повинні бути чітко та завчасно визначені з метою уникнути ризикових ситуацій.

Рекомендації і заходи

1) Відповідальний підхід:

Потенційні переваги AI явно перевершують потенційні недоліки. Для того, щоб закріпити розвиток технологій у безпечному ключі, позбавивши суспільство від упереджень і ризиків, необхідно створювати та зміцнювати діючі законодавчі норми у даному напрямку. Це дозволить створити етичну правомірну середу для розвитку інновацій.

2) Форвардне мислення:

Дослідникам, розробникам і всім учасникам процесу створення та впровадження сучасних інтелектуальних технологій потрібні стимули – не лише у вигляді економічної та інвестиційної підтримки, але й у вигляді політичного та суспільного визнання саме тих розробок, які створюються з урахуванням всіх необхідних заходів безпеки. Для цього знадобиться формування відповідних експертних комісій і органів, і це буде абсолютно нормальним підходом до вирішення існуючих нині проблем щодо загроз і ризиків AI.

3) Прозорість обговорення:

Будь-які переваги та недоліки мають систематично аналізуватися та обговорюватися на політичному рівні. Громадськість, в свою чергу, має право на якісне інформування щодо  кожного аспекту роботи сучасних інтелектуальних систем. Люди не зможуть підготуватися до того, про що у своїй більшості не мають уявлення.

4) Аналіз інформації:

Ефективне підвищення безпеки будь-яких досліджень штучного інтелекту починається з усвідомлення з боку експертів, які працюють з AI, та інвесторів, які вкладають у це гроші.  Інформація про ризики, пов’язані з прогресом в області інтелектуальних систем, повинна бути доступною та зрозумілою для широкої аудиторії. Чим більше аспектів буде враховано та узгоджено, тим менше помилок розробники допустять у найближчому майбутньому.

5) Глобальне співробітництво і координація:

Економічне середовище та військовий сектор створюють певні стимули, які формують сильну конкуренцію та прагнення перевершити будь-які очікування. Як уже згадувалося вище, за таких умов неминуче виникає свого роду «гонка озброєнь», що часто призводить  до неприємних наслідків глобального характеру. І безпека досліджень AI занижується на користь швидшого прогресу. Координація міжнародних зусиль і якісне співробітництво у вивченні принципів і впровадження інноваційних розробок може протистояти цій негативній динаміці. Кооперація повинна стати базисом у формуванні безпечного середовища для застосування систем AI.

6) Дослідження та підготовка:

Для формування етичних принципів роботи AI важливо мати уявлення про те, якими початковими принципами керуються системи штучного інтелекту, приймаючи рішення, і які труднощі вони можуть при цьому відчувати. З огляду на очевидний рівень невизначеності та неузгодженості в області машинного навчання, існує необхідність у просуванні, фінансуванні та координації відповідних дослідницьких проектів (включаючи філософію, неврологію та інформатику).

7) Регулювання:

Враховуючи те, що нейронні мережі можуть не лише навчатися, а й формувати своє бачення ряду процесів, вкрай важливо, щоб дослідження з цих питань здійснювалися під суворим контролем відповідних комісій і органів. Правові рамки повинні бути адаптовані з урахуванням ризиків і потенціалу нових технологій. Виробникам AI слід вимагати більше інвестувати в безпеку та надійність досліджень. І такі принципи, як передбачуваність, прозорість і стійкість до маніпуляцій, повинні бути дотримані, щоб звести загрозу непередбачених катастроф до мінімуму.

8) Фінансування:

Глобальні та ситуативні заходи для підвищення безпеки застосування технологій AI можуть здійснюватися шляхом якісного всебічного дослідження та створення проектів, зосереджених на аналізі та попередженні ризиків. Необхідно розуміти, що на розробку етичних розумних машин потрібно куди більше ресурсів, ніж просто інвестиції та споживчий інтерес. Фінансування відповідних проектів має бути системним.

9) Відмова від заборон:

Потреби сучасного суспільства – потужний стимул для створення нових технологічних рішень, які не враховують потенційні загрози їх застосування.  Однак, банальні заборони на дослідження AI не несуть у собі ніякої доцільності з огляду на те, що, таким чином, вектор їх нецільового використання просто зміститься на країни з більш низькими стандартами безпеки. У такій ситуації потрібен контроль і аналіз, а не відмова й перешкоджання.

10) Освіта:

Абсолютно очевидним є той факт, що дії будь-якої попередньо запрограмованої людиною розумної системи безпосередньо залежать від початкових намірів її творця. Крім того, ймовірність скоєння AI помилки або створення ризикової ситуації кидає тінь на кваліфікацію та професіоналізм розробників. У ситуації, коли інтелектуальні системи здатні формувати загрози сучасному суспільству, слід максимально відповідально підходити до питання навчання фахівців, які згодом зможуть взяти на себе відповідальність за роботу над створенням безпечного AI.

 

Всі права захищено. Жодна частина статті не може бути використана в інтернеті для приватного або публічного використання без обов’язкового активного гіперпосилання на сайт everest.ua.