Сетевой научный журнал "Философские проблемы
информационных технологий
и киберпространства" (ISSN:2305-3763)

Мораль и нравственность роботизированных систем (часть 2)

Мораль и нравственность роботизированных систем (часть 2) 22 Мая 2014

На портале Defense One Патрик Такер (Patrick Tucker)  разместил новость о том, что Отдел военно-морских исследований при ООН выделяет шести американским университетам грант в размере 7,5. миллионов долларов для создания автономной роботизированной системы, обладающей моральными качествами. 

«Несмотря на то, что хотя современные автономные системы выглядят "тупыми" по сравнению с управляемыми экземплярами, сегодня предпринимаются интенсивные усилия по автоматизации всех сфер человеческой деятельности», - высказывается Пол Белло (Paul Bello), директор программы когнитивных исследований при Отделе военно-морских исследований. «Например, в некоторых штатах уже легализованы беспилотные гугловские автомобили. Как ученые мы стараемся предвидеть этические и правовые последствия. Мы хотели бы избежать неожиданностей в какой-либо из военных сфер, где человеческая жизнь находится под угрозой»

 Военным США запрещено использовать смертоносных полностью автоматизированных роботов. (Вот здесь представлен любопытный документ - Распоряжение  Министерства обороны США  по использованию автономных систем вооружения.)  Полуавтономные роботы не могут «выбирать и входить в контакт с единичными или групповыми целями, которые до этого не были предварительно  определены человеком-оператором»  даже в случае, если связь с оператором утеряна. Белло продолжает: «Даже если системы не вооружены, их все же приходится понуждать к принятию морального решения». Например, в случае стихийных бедствий робота можно  заставить  сделать выбор между эвакуацией  персонала или лечением. «Пока мы представляем себе использование  систем в широком спектре услуг – поисково-спасательных и медицинских; мы не можем полностью воплотить идею о неуправляемом роботе».


Некоторые исследователи искусственного интеллекта, а так же исследовательские группы в области машинной этики, поддержали идею гранта. «С появлением беспилотных самолетов, систем распознавания ракет, автономных транспортных средств и т.д., военные смогут  быстро создать системы, которые будут способны принять нравственные решения»,  - говорит  исследователь Стивен Омохундро. «От результатов этих решений будет зависеть человеческая жизнь, поэтому очень важно, чтобы они были сделаны тщательно и с полным знанием возможностей и ограничений соответствующих систем. Военные всегда диктовали "правила войны", а эти технологии только укрепят их позиции».


«Мы говорим о вводе роботов все большее количество контекстов, в которых мы не можем предсказать, что они собираются делать, и с какими ситуациями могут столкнуться. Поэтому им необходимо иметь некоторые моральные качества, для того, чтобы сделать правильный выбор», - говорит Венделл Уоллах , председатель Йельской исследовательской группы в области этики и технологий,  автор книги «Moral Machines».  Сложность таких передовых дронов, как британские самолеты Таранис или Нортроп Грумман X- 47B показывают, что данное направление уверенно развивается. X- 47В, по словам Уоллоха, «огромный, и при этом выполняет многие операции автономно».

Но каким образом можно вложить нечто абстрактное, вроде морали, в кучу транзисторов? Проблема остается открытой и здесь очень важен ограниченный подход. Некоторые виды морали являются базовыми, а как следствие, более подвержены кодированию, чем другие.


«Нравственность сегодня можно поделить на три группы: функциональную, оперативную и полную. Оперативная  срабатывает тогда, когда оператор может определить ситуацию, в которой оказывается робот и запрограммировать соответствующие действия с его стороны. Функциональная срабатывает в тех случаях, когда оператор не имеет контакта с роботом и робот сам должен принимать решения»,  - говорит Уоллох. По данным вопросам  ведутся дискуссии, многие выражают сомнения и критику однако Уоллох утверждает, что у этой проблематики достаточно потенциала, чтобы изменить «ход сражения».


 «Одним из аргументов в пользу таких роботов является то, что они могут  даже лучше, чем люди выбирать определенную модель морального поведения, потому, что в их программе заложено больше вариантов», - говорит Рональд Аркин, эксперт из Джорджии и автор книги «Lethal Behavior». «Это не мое убеждение, что беспилотная система может проявлять моральные качества даже на поле боя, но я убежден в том, роботы могут быть более человечными, чем сами люди», - пишет Аркин в своей дипломной работе . Одной из причин для этого, по его словам, является то, что роботы способны соблюдать  предписанные правила, в то время как люди более противоречивы.


 Эксперт в области робототехники  Ноэль Шарки критикует эту точку зрения. Он весьма критически настроен против вооруженных беспилотных самолетов в целом  и утверждает, что автономным системам нельзя доверить оружие. «Не думаю, что они смогут создать робота, наделенного моральными и этическими качествами», - говорит Шарки, - «для этого им нужно иметь свободу воли, нужно уметь понимать других и знать, что значит страдание. В программе робота могут быть прописаны некоторые правила этики, но этого не будет достаточно. Он будет наделен теми же моральными качествами, что и его создатель».

 «Самым банальным примером является внимание прессы к планированию помощи тяжелораненным солдатам. Вот это хорошо. Я бы забеспокоился, если бы военные развивали смертоносные системы, где решение убить делегирует машина», - говорит Шарки. На этой неделе Шарки и Аркин обсуждают вопрос о том, может или не может мораль быть кодирована. Они нашли ту аудиторию, которая очень трепетно относится  к мысли о наложении моратория на дальнейшее развитие автономных вооруженных роботов.


 Кристоф Хейнс , специальный докладчик по вопросу о внесудебных , суммарных или произвольных казнях  Управления Верховного комиссара по правам человека , призывает к введению моратория . «Существует причина полагать, что государства будут  среди прочего стремиться использовать смертельных автономных роботов для преднамеренного убийства», - сказал Хейнс в своем докладе в ООН в 2013 году.

Политика Министерства обороны в отношении смертоносных автономных роботов довольно шаткая с тех пор, как оно само  может изменить ее в любую сторону, без одобрения Конгресса, лишь  по усмотрению председателя Объединенного комитета и двух его заместителей.  Специалист из  Денверского университета Хизер Рофф  в обзоре  для «Huffington Post»  называет такое отсутствие надзора  «приводящим в замешательство»  и отмечает, что это все   «игра с  автономным оружием, которая не поднялась даже до уровня министра обороны,  не говоря уже о президенте».

 Если ученым удастся доказать, что роботы способны к принятию этических решений, даже в ограниченной форме, они смогут уменьшить рост общественного недовольства и недоверия к вооруженными беспилотными аппаратам, хотя это и не простая задача. «Это очень сложная проблема, и сейчас мы не можем с точностью ничего утверждать»,  - сказал Уоллах .  «Роботы как бытовые, так и в военные, столкнутся с рядом ситуаций, в отношении которых может быть предпринят ряд действий и они должны будут пройти некоторые «экзамены по этике, чтобы  выбрать наиболее подходящие действия в определенной ситуации.  Технологии, которые мы изучаем быстро развиваются, это то же самое, что и Google cars, только в отношении военной техники. Сейчас мы должны понять, насколько безопасны такие автономные системы и принимать соответствующие решения в каких ситуациях они могут быть задействованы»


Ссылка на источник - http://www.defenseone.com/technology/2014/05/now-military-going-build-robots-have-morals/84325/

Возврат к списку