strangeraven (strangeraven) wrote,
strangeraven
strangeraven

Машины и мораль

Поскольку сейчас вовсю разрабатывают автопилотируемые машины, то активно обсасывается популярная тема насчет машин и морали. Дескать вот, роботы начнут принимать решения о человеческих жизнях, как же так? Мол как это всё непросто!

На мой взгляд, проблема не стоит выеденного яйца и как раз таки всё очень просто.

Во-первых, машина эта машина и никаких моральных решений она не принимает. Она действует так, как запрограммировали её создатели. Если её запрограммируют ездить и убивать всех человеков, то она будет ездить и убивать всех человеков. Она железная, ей пофиг. А моральное решение на самом деле принимает не машина, а те кто принял правила, по которым она будет ездить.

А правила должны основываться на очень простом принципе: нефиг нарушать ПДД. То есть каждый раз, когда робот поставлен в ситуацию выбора между жизнями людей, он всегда должен выбирать в пользу тех, кто ПДД соблюдает. А нарушители - сами себе злобные буратино. Разумеется, при этом робот все равно должен стараться минимизировать травмы нарушителей, а не просто давить их почем зря. Но при выборе этот выбор всегда однозначен.

Самый распространенный пример: едем разрешенные 60, из-за припаркованной машины неожиданно под колеса выскакивает ребенок. А рядом по тротуару идет бабушка. Затормозить не успеваем, но можно свернуть на тротуар и сбить бабушку. Так кого же сбиваем? Ах, какая сложная моральная дилемма!

На самом деле все очень просто: тапок в пол и вызываем ребенку скорую. Потому что в подобных ситуациях отрицательная обратная связь должна прилетать именно нарушителям ПДД.
Tags: авто, мысля
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 6 comments