Вину за убийство людей возьмут на себя роботы

В настоящее время успехи в разработке автономных боевых роботов создают новые этические проблемы и ставят вопросы по использованию автоматов в условиях реального боя. Если робот в бою по ошибке или...

В настоящее время успехи в разработке автономных боевых роботов создают новые этические проблемы и ставят вопросы по использованию автоматов в условиях реального боя. Если робот в бою по ошибке или в связи с неисправностью оборудования убьет мирных жителей, кто будет виноват – разработчики, военные, сама машина?

Некоторые специалисты утверждают, что роботы не имеют свободной воли и поэтому не могут нести моральную ответственность за свои действия. Однако психологи из Университета Вашингтона обнаружили, что отношение людей к этой проблеме однозначно и весьма предвзято. Экспериментальные исследования показывают, что люди наделяют роботов ограниченной моралью и легко возлагают вину на машину.

В исследовании американских ученых участвовали 40 студентов, которым надо было за 2 минуты найти определенные предметы в комнате. По условиям приз в $20 получали те, кто находил не менее 7 предметов. Контроль за выполнением задания осуществлял гуманоидный робот Robovie. Студентам сказали, что робот действует автономно, хотя на самом деле им управляли лаборанты из соседней комнаты.

После того, как участники немного пообщались с роботом, начался поиск предметов. Каждый студент нашел минимум 7 предметов, но робот утверждал, что найдено только 5 предметов, а значит денежный приз не положен.

В итоге большинство людей начинали спорить с Robovie, а некоторые даже обвиняли робота в лжи. В опросе 65 % участников заявили, что Robovie виноват в ошибочном ведении счета и несправедливо лишил их денежной премии.

Эксперимент подтверждает тот факт, что люди, взаимодействующие с роботом, склонны возлагать на него ответственность за вред, который он наносит. В данном случае ущерб был финансовым и не опасным для жизни. Тем не менее, эксперимент показывает, как люди реагируют на ошибки роботов. Полученные результаты означают, что по мере совершенствования роботов, люди склонны возлагать на них моральную ответственность, частично снимая ее с оператора и разработчика.

В результате на поле боя роботы получат большую свободу, поскольку моральная ответственность для машины, естественно, ничего не значит. Применение оружия в автоматическом режиме частично снимает груз ответственности с солдата и снижает силу негативной реакции общественности. К сожалению, на практике это будет означать повышенный риск для гражданского населения и неслыханную легкость в решении начать боевые действия. В ограниченном масштабе мы это можем видеть на примере действия американских беспилотников в Йемене и Пакистане.