Тёплые тренды сезона
Смартфоны и аксессуары
Более 4 миллионов товаров

Статистика


HotLog  
Рейтинг@Mail.ru


Если робот убьет человека, кто будет виноват?
01.05.12 23:05

danger-robots

21 век – век глобальной автоматизации. Самый тяжелый и опасный труд за человека выполняют роботы. Военные действия не исключение, но военные роботы в отличие от производственных и тем более развлекательных роботов способны причинить значительный вред человеку. По этой теме психологи из Вашингтона подняли важную проблему: «Кого считать виновным, если боевая машина в связи с неисправностью оборудования или по ошибки в собственных расчетах причинила вред мирным жителям?» По сути дела круг виновных не особо большой, это:

  • разработчики машины,
  • разработчики программного обеспечения,
  • военные, 
  • собственно сам робот.

 

Роботы не имеют свободы воли, они не могут испытывать чувства, у них нет морали, могут ли они нести ответственность за убийство невинных людей? Как отреагирует общество на такие ошибки боевых роботов? Исследования в университете Вашингтона проводилось, чтобы ответить на эти вопросы. Оказалось, что отношение людей к агрессивному поведению роботов несколько неожиданно и, по сути, не совсем правильное.

 

Для проведения исследования ученые набрали группу студентов и попросили их выполнить задание, которое они получат от робота. Студенты по очереди заходили в комнату с машиной, где получали от нее задание - найти 7 предметов. В случаи выполнения задания студент получал денежное вознаграждение. Все студенты справились с поставленной задачей, но робот отказывался засчитывать положительный результат. Большинство участников начинали спорить, приводить доводы в свою пользу и даже обвинять машину в ошибочных действиях. После эксперимента студенты ответили на несколько вопросов психологов. Из ответов  выяснилось, что 65% участников считают, что робот не правильно вел счет, и как следствие этого виновен в невыдаче денежного вознаграждения.  Иными словами участники эксперимента возложили ответственность именно на робота. Люди сами того не осознавая наделили робота моралью, при этом почти никто не вспомнил ни про разработчиков, ни про программное обеспечение, ни про самих экспериментаторов, а ведь именно последние по сути и были по настоящему виновны. Ученые в самом начале эксперимента, не сказав участникам, сами управляли роботом из соседнего помещения.

 

Этот эксперимент наглядно показывает, что люди не совсем правильно оценивают действия робота. В случае такой оценки почти полностью снимается вина не только с разработчиков, но и непосредственно с тех, кто запрограммировал машину на определенные действия. При проведении исследования студенты лишились вознаграждения всего в 20$, но вместо того чтобы реально обдумать список виновных, они сразу же "набросились" на робота. Насколько усугубиться положение в более неблагоприятных ситуациях? Возможно, наличие боевых роботов позволит государству манипулировать сознанием людей и перекладывать ответственность на роботов в случае больших человеческих потерь. К сожалению, последняя гипотеза уже подтвердилась на примере американских беспилотных летательных аппаратов в Пакистане.

 

Добавить комментарий


Защитный код
Обновить

Популярные статьи

Согласно новым исследованиям, наш мозг достаточно интересным образом обрабатывает фоновую звуковую информацию. Он мож...

Речь пойдет о космических путешественниках. NASA на основе дневников космонавтов, получает представление о эмоциональ...

   

Гостевая книга


Гостевая книга

RSS 2.0 Подписка

BodyLang.ru
НЛП и BG
Теория лжи