Сетевой научный журнал "Философские проблемы
информационных технологий
и киберпространства" (ISSN:2305-3763)

Мораль и нравственность роботизированных систем (часть 1)

Мораль и нравственность роботизированных систем (часть 1) 19 Мая 2014
В июне 2010 года в Oxford University Press вышла книга Уэндела Уоллаха (Wendell Wallach) и Колина Алена (Colin Allen) "Моральные машины: обучение роботов справедливости и правонарушению" (Moral Machines: Teaching Robots Right from Wrong - русский язык не передает синтаксис оригинального названия и антиномичность терминов). Компьютерам уже доверяют финансовые транзакции, контроль энергоснабжения и управление поездами. Вскоре роботы-соцработники будут ухаживать за престарелыми в их домах и роботы-военные будут сами определять цели и огневую тактику. Авторы данной книги утверждают, что раз роботы со временем будут все больше и больше нести моральной ответственности, то для нашей безопасности они должны обладать способностью к принятию моральных решений. Проведя краткий экскурс в философскую этику и теорию искусственного интеллекта, авторы доказывают следующий тезис: несмотря на то, что полная моральная автономность машин пока недостижима, уже необходимо создавать модели функциональной морали, которая реализует в искусственных агентах некоторую базовую этическую чувствительность. Но стандартные этические теории ("слишком человеческие") здесь не подходят; будут нужны все более социально задействованные роботы. В данной работе утверждается, что уже начались разработки в области построения машин, способных отличить справедливость от правонарушения. "Моральные машины..." - это первая книга, в которой на основании тщательного анализа этики и человеческих способов принятия решений исследуются проблемы создания искусственных моральных агентов. 

Ссылка на источник - http://www.amazon.com/Moral-Machines-Teaching-Robots-Right/dp/0199737975

Возврат к списку