Рост количества умных машин и их способностей представляет собой фактически этап новой промышленной революции. В свою очередь, это означает, что уже в ближайшем будущем человечество столкнется с неизбежными социальными, экономическими и политическими изменениями, которые будут связаны со спецификой взаимодействия общества и AI.

Многие эксперты считают, что, наряду с глобальными возможностями, искусственный интеллект создает не менее глобальные риски. Более того, научный анализ этих рисков предполагает, что высокий потенциальный ущерб следует воспринимать очень серьезно, даже если бы вероятность возникновения угрозы была низкой.

В сложных системах, где несколько алгоритмов взаимодействуют на высокой скорости, уже сейчас существует повышенный риск того, что новые технологии AI будут использованы неправильно или смогут спровоцировать неожиданные системные сбои. Существует также угроза «гонки технологических вооружений», в которой безопасность инновационных достижений будет однозначно принесена в жертву в пользу быстрого прогресса. В любом случае, важно знать, какие цели или этические ценности должны быть запрограммированы в алгоритмах искусственного интеллекта, чтобы обеспечить человечеству гарантию того, что эти цели останутся стабильными и устойчивыми к манипуляциям. А, ввиду того, что политический и правовой прогресс, как правило, отстает от технологического, – большая ответственность уже сейчас ложится на плечи не только отдельных исследователей и разработчиков, но и на политиков.

К сожалению, очень часто завышенные экономические стимулы и требования для развития новых технологий не позволяют вовремя просчитать угрозы, так как их анализ достаточно трудоемкий, длительный и дорогостоящий. В то время, как изначально основополагающим предварительным условием для развития AI по наиболее адекватным направлениям внедрения должно стать создание требований к безопасности этих технологий. И работа в этом ключе должна протекать не только в кругу экспертов, но и в широко распространенном публичном дискурсе.

Шальные алгоритмы

От систем искусственного интеллекта, как правило, ожидают прозрачности в решениях. Но без тщательного анализа и подготовки это практически невозможно: самые простые модели можно интерпретировать, а вот более сложные работают по принципу «черного ящика». Вопрос лишь в том, доверять ли методам, которые заложены в AI, его непосредственному разработчику, так как сложно детально разобраться, почему было принято то или иное решение.

Наши индивидуальные жизни и наша цивилизация в целом все чаще регулируются алгоритмами и искусственным интеллектом, который имеет специфику для каждой конкретной области внедрения. Многие процессы зависят от слишком больших и сложных алгоритмов, принципы понимания которых доступны ограниченному кругу людей. Более того, многие механизмы, в соответствии с которыми современные интеллектуальные системы обрабатывают данные и впоследствии принимают решения, временами не ясны и самим разработчикам. Это бросает тень на безопасность конечного результата работы любой умной машины, которая изначально может быть запрограммирована на конкретные действия, а по факту поступить на собственное усмотрение.

Исходя из современной практики, работа сложнейших алгоритмов, по большей части, протекает без инцидентов, но всегда существует вероятность погружения всей системы в хаос.

Например, в 2010 году в США неожиданная «внезапная авария» едва ли не обрушила фондовый рынок. Причиной коллапса послужило «столкновение» компьютерных алгоритмов, взаимодействующих с финансовыми данными, между собой, в результате чего они начали действовать в непредвиденном порядке. Буквально в течение нескольких минут важные акции потеряли более 90% своей стоимости, после чего тут же к ней вернулись, но инцидент привел к колоссальным штрафами и потерям.

Если представить себе, что такое событие могло бы произойти, к примеру, в военном контексте на глобальном уровне, то «возвращение к первоначальным условиям» в данном случае привело бы уже к крайне плачевным и необратимым последствиям. И, тем не менее, истории известны случаи, когда AI ошибался, будучи задействованным в военных проектах.

Так, буквально недавно группа инженеров-ученых разработала по заказу министерства обороны США интеллектуальную систему, которая должна была отличать лес от замаскированных в лесу танков и другой бронетехники. Программу, построенную на нейронной сети, изначально тренировали, используя специально заготовленные фото и видео материалы. Спустя некоторое время систему неоднократно тестировали в реальных условиях в ходе военных испытаний, пока она не научилась давать стопроцентный результат – все необходимые объекты опознавались безошибочно. Однако, после того, как разработка была передана в эксплуатацию в министерство обороны, ее вскоре вернули, потому как она внезапно начала давать «случайные» результаты. Изучив происходящее, ученые выяснили, что, в ходе тестовых испытаний, фото танков, которые демонстрировались системе, были сделаны в солнечный день. А фото просто леса без танков – в пасмурный. В итоге, программа научилась не просто идентифицировать и классифицировать объекты, но и отличать солнечный день от пасмурного, реагируя на погодные условия, которые AI считывал по контрастным изменениям на получаемых снимках. Отсюда и неожиданные результаты в выполнении изначально поставленной задачи.

Другим достаточно известным примером алгоритмического сбоя является программа по управлению американскими истребителями: после того, как один из них пересек экватор, система AI попыталась перевернуть истребитель, ориентируясь на собственное «видение» принципа и траектории его полета. К счастью, аварийную ситуацию удалось вовремя предотвратить.

Для контраста можно привести еще один пример – из сферы медицины, где на технологии AI уже не первый год возлагаются большие надежды. Не так давно, в попытке создать максимально эффективный и действенный подход к лечению пневмонии, группа исследователей при медицинском университете Питтсбурга разработала нейронную сеть, которая должна была правильно анализировать и сопоставлять показатели пациентов. Систему долго обучали, прежде чем она не решила действовать на свое усмотрение: в один момент искусственный интеллект начал отправлять домой всех пациентов с пневмонией, у которых при этом также наблюдалась астма. Нейросеть предположила, что такие больные выздоравливают быстрее, придя к неправильному выводу о том, что причина скорого выздоровления — низкий уровень риска. Хотя, на самом деле, все было наоборот: такие пациенты относились к группе чрезвычайно высокого риска, посему тут же направлялись в реанимацию, где действительно шли на поправку быстрее, чем пациенты без астмы, но лишь после интенсивного лечения. Такая стратегия ввела систему в заблуждение, в результате чего та впредь не желала признавать собственные неоднократно совершенные ошибки, настаивая на лечении на дому.

Собственно, как уже неоднократно отмечали эксперты, когда речь идет о системах, использующих глубокое обучение и нейронные сети, зачастую невозможно понять, почему они действует именно так, а не иначе. Никогда нельзя быть полностью уверенным в том, что именно такая система знает и умеет. Сам принцип построения нейронных сетей и систем глубокого обучения делает их склонными к «особенному» поведению, и именно по этой причине арсенал допускаемых AI ошибок растет.

Чтобы предотвратить подобные разрушительные неудачи, казалось бы, целесообразнее всего на данном этапе вкладывать значительно больше ресурсов в безопасность и надежность AI. Однако, как показывает практика, ныне существующие экономическая и политическая подоплеки инновационных разработок способствуют увеличению самого рынка AI гораздо больше, чем стремлению разработчиков искать способы сделать технологии более безопасными для общего применения.

И, поскольку со временем AI будет становится еще более сложной системой, то в этом случае он сможет содержать еще больше ошибок. Разумеется, существует предположение, что, за счет своего развития, он будет способен к самооптимизации, но все же мы не можем быть до конца уверенными в его окончательной безошибочности. В любом случае, даже сейчас невозможно узнать, является ли некий набор правил для работы AI безопасным, пока система сама не испытает эти правила на практике. Любая технология сама по себе является лишь инструментом, важно то, как мы его используем.

Четыре критерия для построения AI

При создании и внедрении любой разумной системы с каждым разом возникают новые этические проблемы в обществе, так как AI фактически берет на себя ответственность за принятие решений без эмоциональной подоплеки. Например, алгоритмы, с помощью которых во многих странах осуществляется кредитный рейтинг клиентов банков, может принимать решения, которые часто дискриминируют определенные группы населения. Хотя изначально система не была запрограммирована на оскорбительные действия.

Исходя из этого, эксперты выделили пять ключевых принципов, которые должны служить руководством для построения новых интеллектуальных систем:

1) Разработка и внедрение AI должны иметь прозрачный характер;

2) Принципы функционирования AI должны быть понятны, четко сформированы и предоставлены к открытому рассмотрению общественности;

3) Алгоритмы AI изначально должны быть заложены таким образом, чтобы действия системы были безопасны и предсказуемы;

4) Системы AI должны быть неуязвимы для манипуляций;

5) Обязанности, права и требования к разработке и внедрению AI должны быть четко и заблаговременно предопределены во избежание рисковых ситуаций.

Рекомендации и меры

1) Ответственный подход:

Потенциальные преимущества AI явно превосходят потенциальные недостатки. Для того, чтобы закрепить развитие технологий в безопасном ключе, избавив общество от предрассудков и рисков, необходимо создавать и укреплять действующие законодательные нормы в данном направлении. Это позволит создать этическую правомерную среду для развития инноваций.

2) Форвардное мышление:

Исследователям, разработчикам и всем участникам процесса создания и внедрения современных интеллектуальных технологий нужны стимулы – не только в виде экономической и инвестиционной поддержки, но и в виде политического и общественного признания именно тех разработок, которые создаются с учетом всех необходимых мер безопасности. Для этого понадобится формирование соответствующих экспертных комиссий и органов, и это будет совершенно нормальным подходом к решению существующих ныне проблем касательно угроз и рисков AI.

3) Прозрачность обсуждения:

Любые преимущества и недостатки должны систематически анализироваться и обсуждаться на политическом уровне. Общественность, в свою очередь, имеет право на качественное информирование о каждом аспекте работы современных интеллектуальных систем. Люди не смогут подготовиться к тому, о чем в своем большинстве не имеют представления.

4) Анализ информации:

Эффективное повышение безопасности любых исследований искусственного интеллекта начинается с осознания со стороны экспертов, работающих с AI, и инвесторов, вкладывающих в это деньги. Информация о рисках, связанных с прогрессом в области интеллектуальных систем, должна быть доступной и понятной для широкой аудитории. Чем больше аспектов будет учтено и согласовано, тем меньше ошибок разработчики допустят в обозримом будущем.

5) Глобальное сотрудничество и координация:

Экономическая среда и военный сектор создают определенные стимулы, которые формируют сильнейшую конкуренцию и стремление превзойти любые ожидания. Как уже упоминалось выше, в таких условиях неизбежно возникает своего рода «гонка вооружений», часто ведущая к неприятным последствиям глобального характера. И безопасность исследований AI занижается в пользу более быстрого прогресса. Координация международных усилий и качественное сотрудничество в изучении принципов и внедрения инновационных разработок может противостоять этой негативной динамике. Кооперация должна стать базисом в формировании безопасной среды для применения систем AI.

6) Исследование и подготовка:

Для формирования этических принципов работы AI важно иметь представление о том, какими изначально принципами руководствуются системы искусственного интеллекта, принимая решения, и какие трудности они могут при этом испытывать. Учитывая очевидный уровень неопределенности и несогласованности в области машинного обучения, существует необходимость в продвижении, финансировании и координации соответствующих исследовательских проектов (включая философию, неврологию и информатику).

7) Регулирование:

В свете того, что нейронные сети могут не только обучаться, но и формировать свое видение ряда процессов, крайне важно, чтобы исследования по этим вопросам осуществлялись под строгим контролем соответствующих комиссий и органов. Правовые рамки должны быть адаптированы с учетом рисков и потенциала новых технологий. Производителям AI следует требовать больше инвестировать в безопасность и надежность исследований. И такие принципы, как предсказуемость, прозрачность и устойчивость к манипуляциям, должны быть соблюдены, чтобы свести угрозу непредвиденных катастроф к минимуму.

8) Финансирование:

Глобальные и ситуативные меры для повышения безопасности применения технологий AI могут осуществляться путем качественного всестороннего исследования и создания проектов, сосредоточенных на анализе и предотвращении рисков. Необходимо понимать, что на разработку этических разумных машин нужно куда больше ресурсов, чем просто инвестиции и потребительский интерес. Финансирование соответствующих проектов должно быть системным.

9) Отказ от запретов:

Потребности современного общества – мощный стимул для создания новых технологических решений, не учитывающих потенциальные угрозы их применения. Однако, банальные запреты на исследования AI не несут в себе никакой целесообразности ввиду того, что, таким образом, вектор их нецелевого применения попросту сместится на страны с более низкими стандартами безопасности. В такой ситуации нужен контроль и анализ, а не отказ и препятствование.

10) Образование:

Совершенно очевидным является тот факт, что действия любой заведомо запрограммированной человеком разумной системы напрямую зависят от первоначальных намерений ее создателя. Кроме того, вероятность совершения AI ошибки или создания рисковой ситуации изначально бросает тень на квалификацию и профессионализм разработчиков. В ситуации, когда интеллектуальные системы способны формировать угрозы современному обществу, следует предельно ответственно подходить к вопросу обучения специалистов, которые впоследствии смогут взять на себя ответственность за работу над созданием безопасного AI.

 

Все права защищены. Ни одна часть статьи не может быть использована в интернете для частного или публичного использования без обязательного активной гиперссылки на сайт everest.ua.

 

Читайте также:

Основные киберугрозы по версии компании Avast в 2019 году

Растущие инвестиции и спрос на AI не делает его безопаснее и не лишает ограничений, которые необходимо преодолеть