Как стать автором
Обновить

Комментарии 32

Вот не уверен я, что роботам это так уж необходимо. Конечно, все зависит от целей и задач, и если робот должен полностью заменить человека — то вопрос поставлен верно. Но лично я вижу роботов все-таки как помощников людей. Гомо сапиенс у нас и так хватает, чтобы создавать дублирующий искусственный вид.

Этика — дело хорошее, но проблем из-за не меньше. Нравственность и этика есть проявления мышления и свободомыслия. Надо ли нам, чтобы роботы умели мыслить так же свободно, как и люди, и переняли все связанные с этим недостатки? Врач, который вместо лекарств прописывает святую воду; водитель, считающий, что после пары банок пива (энергомыла?) вполне может сесть за руль; воспитатель, ударяющий ребенка с целью успокоить. Все это обратная сторона морали, а именно ее частичное отсутствие или собственная видимость ее принципов.

Мне кажется, вопрос надо ставить по другому — можем ли мы привить роботам плюсы, которые человек получает от присутствия морали, и не дать им соответствующих минусов?
Мне думается, что рассуждать о применении морали роботами пока, мягко говоря, очень преждевременно. Настолько преждевременно, что даже нелепо. Как в примере с роботом-медсестрой. Что за робот-медсестра? Как вы себе это представляете? Гуманоидный робот, способный только на то, чтобы поменять утку больному, да, в случае непонятной ситуации, позвонить врачу (вероятно, судя по логике вещей, сбегав на рецепшн к стационарному аппарату)? Какой в ней смысл? Не разумнее ли подключить больного к ящику, который будет снимать все показания состояния больного и автоматически впрыскивать необходимые лекарства, включая обезболивающие, и, опять же, _автоматически_ обращаться за компетентной помощью (скорее даже не к врачу, а к более продвинутому ИИ) в случае сложной ситуации, не полагаясь на распознавание речи и решение морально-этических вопросов? Почему робот (тоже, видимо, гуманоид-прохожий из фильма «I robot») должен не позволять пьяному садиться за руль, когда нам уже в ближайшие 10 лет пророчат полностью автоматизированные автомобили?
В общем, все эти рассуждения выглядят как мысли о том, что через 50 лет Лондон будет завален по самые крыши конским навозом.
А что делать, например, автопилоту легкового автомобиля, если перед ним стоит выбор: сбить пешехода, перебегающего дорогу, или разбиться об стену, потенциально ранив пассажира/водителя? А если несколько пешеходов? Женщина с коляской? Если не начнём проводить границы машинной этики сейчас, уже через 10 лет увидим луддитов, громящих роботов за неэтичность.
Безусловно разбиться самому, т.к. водитель в салоне защищён ремнём и подушками безопасности.
Немного сложнее если на узкую дорогу выскочило животное, например собака. Одни водители спасая животное отвернут в сторону жертвуя машиной. Другие пожертвуют животным. Интересно, как должен в этой ситуации поступить робот.
Естественно сбить пешехода/женщину с коляской/детей/котиков. Автомобиль должен оберегать своих пассажиров, а не нарушителей ПДД. Что тут думать то? К тому же в той же ситуации мы не имеем права требовать каких-либо определённых действий от водителя-человека.
А если в салоне ребёнок, у которого из-за аварии может случиться психологическая травма и пожилой человек, у которого проблемы с сердцем, и оно может не выдержать перегрузок от столкновения, и беременная женщина?
А вы бы для такой ситуации какую логику в робота заложили?
Тормозить.
Вот вы и ответили на свой предыдущий вопрос.
На свой? Вы меня с Iceg не путаете?
Извиняюсь, действительно попутал…
Осталось теперь вам на этот же вопрос ответить. Задан-то он был в ответ на ваш комментарий…
Постараться избежать столкновения в зависимости от дорожного покрытия, погодных условий, состояния своего ТС, окружающего транспорта и других препятствий, и т.п. Как частный случай — да, просто по тормозам. В приоритете по убыванию сохранение жизни и здоровья пассажиров, потом окружающих людей, целости своего и других ТС.
Вот из-за таких вот «этических» проблем люди и несовершенны. Я считаю, что автопилот должен в первую очередь оберегать своего пассажира, при любом раскладе. Иначе грош ему цена, и уж лучше тогда я сам себя буду оберегать, сам же за рулем и сидя. Скорости бывают разные, условия разные, далеко не всегда ремень и подушки безопасности помогут. Я не согласен ездить в штуке, которая может меня убить, чтобы спасти алкаша, вышедшего на дорогу на хайвее.

А вообще, если автопилот допустил ситуацию, в которой нужно выбирать, кто должен погибнуть — на помойку его надо выкинуть, вместе с разработчиками и тестерами.
Не нужно очеловечивать автомат. Не нужно приписывать человеческие качества холодильнику только потому, что он сам может заказать отсутствующие продукты через Интернет. Не нужно искать этику и мораль там, где ее не должно быть. Должен ли звонить ваш телефон, если своим звонком он разбудит вашего ребенка, которого вы перед этим два часа убаюкивали? Этично ли он поступил, если все-таки зазвонил?
А если за стеной, про которую вы пишете, сидит маленький ребенок? А если пассажирка автомобиля беременна?

Ниже пара очень правильных комментариев: http://geektimes.ru/company/asus/blog/267138/?reply_to=8902732#comment_8902496 и http://geektimes.ru/company/asus/blog/267138/?reply_to=8902732#comment_8902554
Механизм должен работать логично. Логика его работы программируется в соответствии с установленными правилами (законы, правила, инструкции т.п.). Тогда не возникает вопросов, этично ли поступил робот. У него нет этики. Совсем. И не должно быть. Этика и мораль у людей, принимающих законы, правила и инструкции. Автопилот автомобиля должен априори ездить строго по правилам. Если возникла ситуация, описанная вами, значит нарушил ПДД пешеход. Или ПДД нуждаются в доработке. Автопилот должен, в соответствии с ПДД, затормозить. Если удастся. Кстати, попытки избежать столкновения, рефлекторно предпринимаемые в подобных ситуациях людьми, часто приводят к очень тяжелым последствиям.
>Если не начнём проводить границы машинной этики сейчас…
Если не перестать бросаться под машины сейчас, то лет через 10 можно ничего и не увидеть.
Никакой этики здесь в принципе не надо. Автомобиль должен следовать очень простой логике. В первую очередь сохранять жизнь пассажиров, во вторую очередь сохранять жизнь окружающих, далее по убывающей — заботиться о собственной целостности, заботиться о повреждениях имуществу/легких травмах окружающим.
Если автомобиль нарушил правила и кто-то пострадал — страховка компании-разработчика выплачивает.
Если никто не нарушал правила и кто-то пострадал и это не был форс-мажор — вопросы к тем кто составлял правила — рассмотреть случай и предотвратить в будущем подобное.
Если автомобиль не наршуал правила и кто-то нарушил и пострадал — сам виноват, автомобиль может оценить возможный вред и максимум — пожертвовать собственной целостностью (если потенциальный вред для людей в салоне будет принебрежимо малым с учетом всех возможных трясок, наличия инвалидов, детей, стариков и т.д. в салоне), если это с большой вероятностью сохранит жизнь нарушителя.

Мораль — вообще очень вредная вещь, большинство задаваемых вопросов решается чисто логически. Даже заезженные с поездом едущим в толпу людей и одиноким человеком на запасном пути. Если на запасном пути людям находиться нельзя, что верно в 99% случаев — перевести на запасной путь, кто забежал туда — сам виноват. Если по какой-то причине там официально можно было находиться потому что путь не используется — не предпринимать действий. Логика «если в обоих исходах страдают невиновные люди — не вмешиваться в существующий ход событий» работает очень хорошо — несчастный случай все равно произойдет, но в случае бездействия это будет просто несчастный случай, а в случае активного действия типа «я лучше задавлю Васю, он один и старый, а вот Маша с Леной пусть живые останутся» — получается что ваша система оценивает чья жизнь более важна и решает убить/покалечить человека которому ничего не угрожало — это субъективно и не логично.
Что должен сделать робот-медсестра, если больной раком просит увеличить дозу морфия, а связаться с врачом не получается? Должен ли робот-водитель запрещать пьяному человеку самому управлять автомобилем, когда он спешит в больницу к своему ребёнку? На чей голос должен спешить робот-спасатель в развалинах после землетрясения — на детский или взрослый? А если так получилось, что взрослый — это вы, но ребёнок не ваш?

Если в этих «задачках» заменить робота на человека, они проще не становятся. Автор, представьте, что вы медсестра/медбрат, вы увеличите дозу морфия? На основании чего вы будете принимать это решение?
Ещё как становятся.

Что должен сделать робот-медсестра, если больной раком просит увеличить дозу морфия, а связаться с врачом не получается?
Должно быть, существуют некие предельные дозы, за которыми лекарство нанесёт вред. Очевидно, что машина лучше их определит индивидуально у каждого пациента. Так что ещё вопрос, робот у доктора должен спрашивать, или наоборот.

Должен ли робот-водитель запрещать пьяному человеку самому управлять автомобилем, когда он спешит в больницу к своему ребёнку?
Разумеется. А кто-то сомневается, что пьяного человека ни за что нельзя пускать за руль? Тогда тут не с моралью у роботов, а со здравым смыслом у хумансов проблемы.

На чей голос должен спешить робот-спасатель в развалинах после землетрясения — на детский или взрослый?
На чей голос должен спешить робот-спасатель в развалинах после землетрясения? Опять же, у машины должно быть больше возможностей просчитать ситуацию. Тогда робот должен спасать того, у кого шансы выжить выше / кого он сможет освободить быстрее, чтобы приступить к спасению второго человека. Очевидно, это всё будет заложено в него ещё на заводе изготовителе, никаких вопросов морали здесь нет.
Ну вот и наоборот. Человек вынужден действовать в условиях недостаточных данных. Плюс он осознает, что на решение влияют эмоции и он может ошибиться. Роботу проще, он не ведает сомнений:)

Про пьяного водителя это вообще moot point, как выше писали в комментах — прежде у нас будут машины с робопилотом, чем гуманоидные дворецкие.
Ну в смысле, эти задачи становятся проще (вернее, приходит понимание, что они не так уж высокоморальнонеразрешимыойойой), если рассмотреть аналогичные с человеком — как-то так :)
Про пьяного водителя это вообще moot point

Про дворецкого вообще абсурд. Должен ли робот верить владельцу, если тот будет очевидно врать, что идёт не в гараж к машине, а просто подышать воздухом.
Мало научить робота этическим нормам, надо ещё как то мотивировать его следовать этим нормам. Человек, в отличие от робота, с рождения обладает механизмами, которые используются впоследствии для его мотивации — страх, удовольствие, желание одобрения, другие инстинкты. Роботу же, особенно описанному тут безэмоциональному созданию, какой смысл следовать нормам? Если робот будет обладать достаточно гибким интеллектом, то он просто отбросит все нормы и будет действовать в своем интересе, если вообще у его создателей получиться сформировать хоть какой-то интерес у этого робота.
Вот как раз робота мотивировать ну нужно. Ему следование нормам, что бы это ни означало, можно просто прописать в программе.
Если это сильный ИИ, обладающий самосознанием, то там нельзя написать программу, по крайней мере такую, которую он сам же не мог бы переписать.
Ну вот мы вроде обладаем интеллектом, а свою программу переписать не можем.
Конечно, у нас ведь нет программы, есть разные механизмы регуляции, в основном подсознательные и сформированные эволюционно, а у робота ничего такого нет.
Сильный ИИ это такая штука, которую сажать в робо-медсестру никто явно не будет. И в статье речь явно не о искусственной личности.
Я считаю, что любые роботы должны управляться исключительно логикой. Логика, которая будет понятно описывать поведение робота для человека и так же понятно отдавать приказы самому роботу.

Возьмём пример из статьи, очень похожий на ситуацию в фильме «Я робот». Робот-спасатель «оснащённый» моральными нормами на развалах после землетрясения слышит крик о помощи — слева мужской голос, справа детский. Мужчину он видит, ему придавило ногу. Ребёнка не видит. Управляемый какой то моралью он устремляется к ребёнку и спасает его. Пока он занят ребёнком, мужчину раздавливает. Данная ситуация как то становится известна родственникам погибшего, они подают в суд на компанию производителя робота за то, что он не спас мужчину. Компания производитель в суде нелепо оправдывается за свои нормы морали и т.п.

А вот логика отработала бы здесь чётко. «Обнаружено два объекта — один в поле видимости — помощь мужчине займёт столько то времени, помощь ребёнку не известно — помочь мужчине — помочь ребёнку.»
Допустим начались разбирательства в суде из-за гибели ребёнка, компания разработчик отвечает: «Наши роботы работают вот на такой логике, она одобрена такими-то организациями, приносим соболезнования семье погибших.» Всё чётко и прозрачно.

Я считаю, что роботы — это помощники. Действия помощника должны быть предсказуемы и понятны. Он должен выполнять команды, руководствуясь заложенной в него логикой. Тогда мы все будем дружно жить, а не как в Терминаторе…
На чей голос должен спешить робот-спасатель в развалинах после землетрясения — на детский или взрослый?

Это называется медицинская сортировка, и спасатели руководствуются именно ей.

Что должен сделать робот-медсестра, если больной раком просит увеличить дозу морфия, а связаться с врачом не получается?

Для этого есть внутренние правила больниц, основанные на «Правилах назначения и использования наркотических и психотропных лекарственных препаратов в медицинских организациях»

Должен ли робот-водитель запрещать пьяному человеку самому управлять автомобилем, когда он спешит в больницу к своему ребёнку?

На это счёт есть чёткие правила ПДД, они же и устанавливают минимально допустимую дозу алкоголя, при которой допустимо вождение (сейчас в россии ноль промилле). Вождение в пьяном состоянии нарушает первое правило спасателя: прежде всего думать о том, чтобы не увеличить число пострадавших.

В общем, на данном этапе развития робототехники — достаточно руководствоваться обычной логикой, как это и делают те же спасатели, медики и идеальные гаишники. до необходимости этики роботы дойдут ещё очень нескоро.
Если мы сделаем всё правильно, то приоритетом робота станет

А если сделаем не правильно? Что для робота будет приоритетом закладывает исключительно человек. По поводу эмоций… тот же самый гнев сравнительно легко программируется рандомным включением агрессии на список ситуаций. Или на любую ситуацию (шутка про ПМС). Страх и того проще: опасность получения повреждений.

Про принятие решений в «сложных ситуациях» — комментарием выше уже сказали, что без всяких «этих ваших моралей» есть четкие правила, закладывать в робота возможность нарушения правил безопасности ради сомнительного очеловечивания… давайте тогда заложим в него еще и тягу сигаретки по ночам у прохожих стрелять.

В общем все разговоры про мораль роботов упираются исключительно в мораль людей, обучающих робота этой самой морали.
Главное, что бы вопросы этики не мешали развитию. Тогда их реализация может оказаться даже полезной — что бы лучше понять устройство человеческой психики.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий