Статистика


HotLog  
Рейтинг@Mail.ru


Если робот убьет человека, кто будет виноват?
01.05.12 23:05

danger-robots

21 век – век глобальной автоматизации. Самый тяжелый и опасный труд за человека выполняют роботы. Военные действия не исключение, но военные роботы в отличие от производственных и тем более развлекательных роботов способны причинить значительный вред человеку. По этой теме психологи из Вашингтона подняли важную проблему: «Кого считать виновным, если боевая машина в связи с неисправностью оборудования или по ошибки в собственных расчетах причинила вред мирным жителям?» По сути дела круг виновных не особо большой, это:

  • разработчики машины,
  • разработчики программного обеспечения,
  • военные, 
  • собственно сам робот.

 

Роботы не имеют свободы воли, они не могут испытывать чувства, у них нет морали, могут ли они нести ответственность за убийство невинных людей? Как отреагирует общество на такие ошибки боевых роботов? Исследования в университете Вашингтона проводилось, чтобы ответить на эти вопросы. Оказалось, что отношение людей к агрессивному поведению роботов несколько неожиданно и, по сути, не совсем правильное.

 

Для проведения исследования ученые набрали группу студентов и попросили их выполнить задание, которое они получат от робота. Студенты по очереди заходили в комнату с машиной, где получали от нее задание - найти 7 предметов. В случаи выполнения задания студент получал денежное вознаграждение. Все студенты справились с поставленной задачей, но робот отказывался засчитывать положительный результат. Большинство участников начинали спорить, приводить доводы в свою пользу и даже обвинять машину в ошибочных действиях. После эксперимента студенты ответили на несколько вопросов психологов. Из ответов  выяснилось, что 65% участников считают, что робот не правильно вел счет, и как следствие этого виновен в невыдаче денежного вознаграждения.  Иными словами участники эксперимента возложили ответственность именно на робота. Люди сами того не осознавая наделили робота моралью, при этом почти никто не вспомнил ни про разработчиков, ни про программное обеспечение, ни про самих экспериментаторов, а ведь именно последние по сути и были по настоящему виновны. Ученые в самом начале эксперимента, не сказав участникам, сами управляли роботом из соседнего помещения.

 

Этот эксперимент наглядно показывает, что люди не совсем правильно оценивают действия робота. В случае такой оценки почти полностью снимается вина не только с разработчиков, но и непосредственно с тех, кто запрограммировал машину на определенные действия. При проведении исследования студенты лишились вознаграждения всего в 20$, но вместо того чтобы реально обдумать список виновных, они сразу же "набросились" на робота. Насколько усугубиться положение в более неблагоприятных ситуациях? Возможно, наличие боевых роботов позволит государству манипулировать сознанием людей и перекладывать ответственность на роботов в случае больших человеческих потерь. К сожалению, последняя гипотеза уже подтвердилась на примере американских беспилотных летательных аппаратов в Пакистане.

 

Добавить комментарий


Защитный код
Обновить

Популярные статьи

Лечение нарушений психики в скором будущем ляжет на плечи виртуальных психологов – такое предположение сделало оборон...

Злость однозначно плохое явление, и так считает большинство людей. Без злости, жизнь наверняка была бы лучше и добрее...

   

Гостевая книга


Гостевая книга

RSS 2.0 Подписка

BodyLang.ru
НЛП и BG
Теория лжи