Этика роботов: Искусственный интеллект и искусственная этика

В мире, где искусственный интеллект (ИИ) находит применение в самых различных сферах деятельности человека, все чаще возникает вопрос об этических границах и правовых нормах его использования. И чем шире диапазон возможностей ИИ, тем громче звучит полемика на эту тему. О том, как обеспечить этическое взаимодействие между машинами и людьми, рассказывает генеральный директор «Формата кода» Вадим Юсупов.
В Национальной стратегии развития искусственного интеллекта на период до 2030 г., с изменениями, утвержденными Указом Президента РФ № 124 от 15 февраля 2024 г. дается определение: «Искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их»
Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники, утвержденная распоряжением Правительства РФ от 19 августа 2020 г. № 2129-р2, справедливо не разделяет искусственный интеллект (ИИ) и роботов. Поэтому можно дать определение: робот — функциональная конструкция, автономный агент, снабженный инструментальными средствами, управляемыми искусственным интеллектом данного агента. Важно, что в этом определении искусственный интеллект является управляющей частью робота, а инструментальные средства лишь обеспечивают выполнение заданных функций. То есть можно назвать его ИИ-робот.
Говоря об этике искусственного интеллекта (робота), нужно иметь в виду один или несколько типов норм (правил):
— нормы (правила) проектантов, конструкторов, программистов ИИ (прототипы и единичные образцы);
— нормы (правила) производителей ИИ (выпуск серии);
— нормы (правила) поставщиков и продавцов ИИ;
— нормы (правила) собственников и пользователей ИИ;
— нормы (правила), заложенные в ИИ.
Первые четыре группы — правовые нормы (законодательство) и нормы этики человека. Пятая группа правил относится к другой категории. Концепция Правительства РФ устанавливает важное требование: «Развитие технологий искусственного интеллекта и робототехники должно основываться на базовых этических нормах». Возникает вопрос: какие нормы имеются в виду — регулирующие поведение человека (первые четыре группы) или поведение искусственного интеллекта, заложенные непосредственно в ИИ (пятая группа)?
Системы искусственного интеллекта, согласно концепции Правительства РФ, характеризуются «неспособностью непосредственно воспринимать этические и правовые нормы, учитывать их при осуществлении каких-либо действий». Следовательно, в основу действий искусственного интеллекта, по мнению ученых, должны быть заложены нормы, по природе своей напоминающие этические, но это «этика» не людей, а ИИ-робота, т.е. искусственная этика.
Что же такое искусственная этика? Чаще всего, говоря об «этике ИИ» или о «законах робототехники», не проводят различия между нормами закона, нормами этики и техническими нормами (алгоритмами), подразумевая некоторые абстрактные правила. Искусственная этика — набор внутренних (заложенных проектантами) правил (ограничений), за нарушение которых ИИ-робот несет ответственность перед собой. Что означает «перед собой»? Смысл простой: нарушение внутренних (заложенных) правил влечет внутреннюю же реакцию робота на нарушение. Следовательно, этическое поведение (действия) ИИ-робота — режим обратной связи в его управляющем звене — искусственном интеллекте.
Таким образом, этика робота (искусственного интеллекта) — это система заложенных в контур управления ИИ-робота обратных связей (положительных и отрицательных). Внутренние, заложенные в искусственный интеллект правила суть нормативные ограничения действий робота, нарушение которых влечет его самостоятельную реакцию. Но существуют и нормативные ограничения (правила), за нарушение которых искусственный интеллект «ответственен» перед внешним миром (миром людей). И то, и другое — нормативные ограничения поведения ИИ-робота. Выход за эти нормативные ограничения означает, соответственно, «неэтичность» и неправомерность поведения робота — внутренний нормативный сбой ИИ.
В 1942 г. американский писатель-фантаст Айзек Азимов в рассказе «Хоровод» ввел три закона робототехники, которые потом широко использовал в других своих рассказах, объединив их в книге «Я — робот» (1950); затем эти «законы» распространились в фантастической литературе, а сейчас интерес к ним существует у юристов, которые весьма некритично подошли к литературной модели, взяв ее за образец для построения правил для искусственного интеллекта. На них нередко ссылаются и ученые, разрабатывающие другие проблемы ИИ, и даже составители важного государственного документа — Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 г., утвержденной распоряжением Правительства РФ, — тоже ссылаются: в ней перечисляются нормы, очень похожие на знаменитые законы робототехники Азимова, хотя в целом это несколько другой комплекс базовых принципов разработки искусственного интеллекта.
Первый закон. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. Концепция Правительства РФ налагает запрет на причинение вреда человеку по инициативе систем ИИ и робототехники. Видно, что эта норма существенно отличается от первого закона. В самом деле, робот не может причинить вред человеку по собственной инициативе, но может по приказу другого человека, а также может спокойно наблюдать, как человек подвергается опасности.
Второй закон. Робот должен подчиняться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат первому закону. В концепции Правительства РФ аналог второго закона сформулирован следующим образом: «Подконтрольность человеку (в той мере, в которой это возможно с учетом требуемой степени автономности систем искусственного интеллекта и робототехники и иных обстоятельств)».
Третий закон. Робот должен защищать свою безопасность в той мере, в которой такая защита не противоречит первому или второму законам (в концепции Правительства РФ аналога нет). Можно показать, что на метауровне законы робототехники Азимова противоречивы, поскольку основываются на разных ценностных системах. Точно так же входят в противоречие с собой ввиду несопрягаемости ценностных правил и базовые принципы, изложенные в концепции Правительства РФ.
Невозможно получить работающий искусственный интеллект, какую бы искусственную этику мы ни закладывали в него, если предварительно не произведен ценностный, связанный с отношением к добру и злу (т. е. к основам этики) метавыбор между доминирующей этикой предполагаемой рабочей среды разрабатываемого ИИ-робота и альтернативными системами. Поэтому построение искусственной этики посредством поиска, проверенного на полноту и непротиворечивость конечного множества правил, скорее всего, потерпит неудачу, как и попытка имитировать принятие решений человеком.
Люди часто принимают решения нелогично, нерационально и не приравнивая рациональность к логике. Случается, первыми срабатывают инстинкты, чувства и эмоции. Выбор человеком решения зависит от сложного сочетания результатов воспитания, уровня человеческой зрелости, внутренней системы ценностей и выработанных принципов, понимания ситуации и многих других факторов, которые трудно сформулировать и тем более свести к алгоритмам и программным кодам. Компьютеризированный робот оперирует символами (знаками), но не понимает их смысла, потому что смысл не вложен в строки символов, а считывается через человеческое восприятие. Таким образом, разрыв между архитектурой ИИ-роботов, их алгоритмическими ограничениями и потребностями человека в нужных действиях робота за пределами четко определенных и хорошо понятных сред, описанных на языке вычислительных алгоритмов, остается проблемой как с технической, так и с этической стороны.
Тем не менее, большинство возникающих в практике применения ИИ этических проблем решается достаточно простым, но надежным методом — включением человека в цикл функционирования системы. Искусственный интеллект может быстро и эффективно анализировать большие массивы данных, формировать варианты решений и прогнозы, однако окончательное слово остается за человеком. Это гарантирует, что система не выходит за пределы допустимого, а ответственность за значимые действия не перекладывается на алгоритмы. Таким образом, вместо того, чтобы пытаться «научить» искусственный интеллект тонким категориям человеческой морали, достаточно построить процессы так, чтобы ИИ готовил информацию, а ключевые решения принимались человеком. Такой подход одновременно снижает риски и повышает доверие пользователей к системам нового поколения.
Практика показывает, что наиболее успешные проекты в области искусственного интеллекта строятся именно по этой модели — когда ИИ выполняет роль помощника и советника, а человек остается в позиции ответственного субъекта. В нашей компании мы уделяем особое внимание проектированию таких решений. Мы разрабатываем сервисы, где баланс между автоматизацией и контролем специалиста реализован наилучшим образом, что позволяет клиентам не только использовать все преимущества ИИ, но и быть уверенными в его этической корректности.