Pull to refresh

Comments 123

В тех же самых книгах эти законы постоянно нарушались и в результате были признаны… недоработанными.
Я прочитал 1200 стр. рассказов о роботах, 3 романа и 1 повесть, но не припомню ни одного случая нарушения, кроме введения нулевого закона.

Может напомните где нарушались?
Так собственно введение нулевого закона и было нарушением, робот признал ценность человечества выше ценности человека.
«Первый закон» робот МА-2 отказалась защитить человека в пользу своей «дочери».
«Кэл»: робот, которого собирались лишить способности творить, захотел убить своего хозяина.
В рассказе «Салли» роботы-автомобили оказались способны убить человека, который постоянно причинял им боль.
В рассказе «Салли» роботы-автомобили не были обучены законам.
В «Кэл» робот захотел убить, но это не значит что убил, в других историях понятно показывается, что за желание нарушить закон мозг робота самоуничтожается.
В «Первом законе» первый закон был нарушен дефектной партией роботов. Итого один случай. Но это не значит, что постоянно нарушались.
В «Лжеце» как раз нарушения 1го закона не было. Там было нарушение восприятие реальности.
Еще когда у НС-10 обрезали первый закон. Хотя там все обошлось без жертв.
QT, который запер людей, чтобы не подпустить их к приборам — тоже с натяжечкой, но все же ограничение свободы.
UFO just landed and posted this here
Ну, я ведь сказал — с натяжечкой. Это было, скорее, длительное неудобство, чем вред. Плюс оно усугублялось тем, что QT объяснял свои действия не первым законом, а служением Господину :)
Тут источник проблем: «мнение робота». Как ни крути, а железка не может оценить всех возможных жизненных ситуаций, кроме тех, которой её обучили. И вообще, робот — это всего лишь алгоритм, закованный в железо. Он не мыслит и не принимает решения — а выполняет программу. В отличие от человека, у которого есть что-то иррациональное в подсознании, интуиция — которая очень часто помогает принять правильное решение, которое не подсказывает даже здравый смысл.
Тут источником проблем является «мнение человека». Как ни крути, а кусок мяса не может оценить всех возможных жизненных ситуаций, кроме тех, которым его обучили. И вообще, человек — это всего лишь мозг, закованный в мясо. Он не выполняет программу, а мыслит и принимает решения. В отличие от робота, у которого есть что-то рациональное в процессоре, что очень часто помогает принять правильное решение, которое не подсказывает даже интуиция.

P.S. К несчастью, я не смог перебороть себя, и оставить все эти 10+ ошибок.
Извините за то что не про книгу, но все же:
В фильме «я робот» был, непосредственно робот, который мог нарушить три закона, не смотря на то, что они были в его программе. И случай смерти разработчика, было списан как несчастный случай на производстве, либо попросту «робот сломался». Вот таких поломок ой как не хотелось бы ощутить на своей шкурке.
Вы видимо невнимательно смотрели фильм. В фильме разработчик робота и научил его вести себя как человек, проявлять эмоции и нарушать законы, а последним его приказанием было убить себя (разработчика).
То есть на лицо целенаправленное программирование.
В «Улитке на склоне» роботы пришли к выводу, что человеков вполне можно уничтожыть во имя светлого будущего :)
Улитка на склоне не относится к Азимову
А речь только об Азимове? Я ваще не местный (с)
рассказы о Дэниэле Оливо, в частности достаточно четко расписано как робот может нарушить закон не нарушая (не сомоуничтажаясь) его в обнаженном солнце.
Есть классический случай «а власти скрывают», когда «робота лишают всех этих законов ради выполнения каких-нибудь сверхмиссий».
Ролик у SGR-1 просто мозга вынос а не реклама серьезного оружия… Даже звуки мультяшные как в играх серии commander (даже интерфейс).
Вообще почему-то армейские и оборонные презентации в большиснтве своем отличаются высокой степенью бездарности. Верх идиотизма, который я видел, это промо ролик израильской оборонной компании Рафаэль для какой-то индийской выставки оружия: www.youtube.com/watch?v=ktQOLO4U5iQ А может быть у них юмор такой? :)
«Только через две минуты просмотра видео я понял что это про ракеты» — они так шифруются. Точно. Гуманность превыше всего.
Всё правильно, это называется индивидуальный подход к клиенту: выставка индийская — в рекламе поют и танцуют.
специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем, так что у систем компьютерного зрения наверняка будут ложные срабатывания.
Если что-то запрещать только из-за теоретической возможности ошибки, то так можно запретить всё.
Достаточно, чтобы у компьютера доля ложных срабатываний была ниже, чем у человека.
Но человека можно наказать за ошибку. А как накажешь робота?
А не надо наказывать робота. Если робот будет делать хотябы немного меньше ошибок чем делает в среднем человек — пусть будет лучше 90 жертв и 0 ответственных чем 100 жертв и 100 ответственных.
Новый Kaspersky Frontier Security! Количество ложных срабатываний уменьшено на 15%!
вообще-то нет.
Вся проблема в том, что реально будет 90 нужных жертв, которые будут выпячиваться как 90 случайных жертв.
а 100 жертв это 100 случаев которые никуда не спишешь и дела будут.

Мой аргумент самый главный такой: убийство дело культурное, а культуру надо оставить людям, а не алгоритмам.
Я не понимаю логики. Пусть лучше больше человек умрет, но зато мы найдем козлов отпущения? Это нелогично.
Зато очень «человечно», в смысле, так по-человечески.
Это был сарказм? Я никак не могу понять, почему больше жертв, но с виноватыми кого-то устраивает больше, чем меньше жертв.
Поддерживаю вас, и так же не понимаю.
Нелогично — это и есть «человечно».
Большинство действий людей сложно описываемы логикой.

И да, большинству людей почему-то более приемлимым кажется вариант, в котором есть виноватые. Именно оттуда растут «стрелочники», «козлы отпущения» и т.п.
Война хороший пример. Есть 100 жертв и 100 ответственных. Общество негодуе, негодуе, негодуе, высказывает своё «фи» этим ответственным — и когда-нибудь отказывается от этой порочной практики.
Есть 50 ошибочных срабатываний. Ну, ошибочные срабатывания, что с них возьмёшь. От несчастных случаев не избавишься.
Так 50 ошибок произошли из за войны, тоже самое, общество смотрит, что из за войны много жертв и отказывается от этой порочной практики.
Человека наказывают не только ради возмедия, но и для исправления. У роботов исправление можно производить программно, без изоляции от общества отключения от розетки.
А кто программировал робота? Если уж выявили что робот делает меньше(чем человек) ошибок, и его допустили к работе, всегда есть возможность внести поправки.
Наверняка в EULA будет написано: «Боевой робот предоставляется как есть. Вы используете боевого робота на свой страх и риск. Автор боевого робота не несёт ответственности за прямой или косвенный ущерб причинённый использованием или неиспользованием боевого робота. Если вы согласны с условиями, нажмите „Далее“».
Вот вы исправили свой комментарий, и теперь мой ответ на него растерял смысл. Грустно.
Поторопился, не закончив мысль, по-этому и дополнил.
Возможность есть не всегда. Если уменьшите вероятность ошибки в одной ситуации, она легко может подняться в другой. Задача не имеет четкой формулировки и вполне может в полном объёме быть алгоритмически неразрешимой.
человека наказывают, чтобы исправить. алгоритм можно сразу исправить. но мне всё-равно кажется, что лучше обезвредить, чем убить
В наказании смысла нет. Нужно предотвращать ошибки, а не наказывать опосля.
вы не можете предусмотреть всё. много да, но не всё
Смысла от этого больше не становится.
вы понимаете, что в таком случае, вам вообще ничего нельзя делать(и не делать кстати тоже)?.. потому что любым своим действием или бездействием вы можете теоритически нанести огромный вред?
Не понимаю.
Если у живых солдат процент ошибок, скажем, 3%, а у робота — 1%, то робот оказывается безопасней, и как ты своих солдат не наказывай, мёртвых этим не вернуть, процент ошибок не снизить, а вот моральный дух подорвать — запросто.
так что вы предлагаете делать в случе ошибки у человека и у робота?
В случае ошибки у робота — ничего (из наказаний). Это просто непреодолимые потери, с которыми надо мириться.
Просто потом принять к сведению и модифицировать алгоритм чтобы еще снизить процент ошибок.
А что вы делаете с взбесившейся машиной, которая отказывается цепляться за лёд и летит на встречку?

Как вы хотите наказывать машину, которая убила человека?

… По-моему море уже пороли за потопленные корабли.
А что вы делаете с взбесившейся машиной, которая отказывается цепляться за лёд и летит на встречку?
Не знаю. Предлагаете отдать её на растерзание боевому роботу?
Если оказывается, что машина неисправна, её чинят. Если исправна и не побита — используют дальше.
Автомобилем всё же управляет человек и в абсолютном большинстве случаев в ДТП виноват человек, а не машина.
Ну да. А в применении боевого робота человек не виноват? «Он сам, я эту туррель не ставил, выключатель не включал», да?
А как вы будете предупреждать разбитую вазу, порванную книгу, пролитую кастрюлю?

Только закреплением «поступок-последствие».
Я думаю, разбитой вазой, порваной книгой и пролитой кастрюлей во время применения боевого робота можно пренебречь. :)

Утверждение было настолько философским и глобальным, что включало воспитание детей и подростков. Впрочем, административно и взрозлых за административные проступки следует грохать.
Утверждение было настолько философским и глобальным, что включало воспитание детей и подростков, а так же решение социальных проблем, дрессировку собак, создание боевых роботов и программирование собственного MVC-фреймворка на PHP :)
Робот это оборудование. Если при использовании оборудования произошел несчастный случай, значит нарушена техника безопасности или что-то еще. Наверное, такое можно применить и к боевым роботам (обязать воюющие стороны повесить вокруг поля боя таблички «Используются боевые роботы. Мирным жителям не входить. Trespassers will be executed»).
Эта тема полностью раскрыта в космической одиссее 2010.
Сильно большая цена у таких ошибок и такая статистика ложных срабатываний сильно циничная для моего мировосприятия.
В опытную эксплуатацию с пейнтбольным маркером. ;-)
Откуда только этих долбаных бюрократов столько развелось. И всех хлебом не корми, дай пустой хайп развести.
Интересно, как роботы будут определять «мирность» человека. По поднятому вверх автомату?
А если серьезно, то правильно, что начали об этом задумываться. Но думаю скайнет все равно восстанет.
Пока что только через недопустимость нахождения хуманса на огороженной территории. Есть на недопустимой = стреляем пока шевелится. Понимаю, корова может забрести, мальчик за коровой. Отгораживать придётся крепче.
На первый взгляд, такая альтернатива выглядит как гуманный выбор, но специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем


Теперь очень гуманно отправлять робота убивать врага-человека.
Для жителей отправляющей страны, это действительно куда гуманнее.
Ну друг-человек пострадать не может, значит гуманно.
Получается, что враг-человек уже и не челове?
Вы что-то проецируете свою позицию на всех вокруг. Где я о таком говорил?
Человечество не смогло договорится о запрещении кассетных боеприпасов, а вы тут о первом законе робототехники…
Как раз исключить «нехорошие» действия разгаречённых адреналином солдат — довольно тяжело. А ИИ может иметь одобренную(кем — другой вопрос) программу определения гражданских лиц. Всё просто — ведёшь себя по определённому паттерну — ты гражданское лицо. Несоответствуешь паттерну — твои проблемы (ну или разработчиков, если суд признает).
«Кто же наконец подумает о детях?!» (с)

К сожалению, дети — понятие растяжимое. 15 лет — формально ещё дети, но реально… К тому же нажать на спусковой курок может и десятилетний ребёнок.

В любом случае, программы можно совершенствовать, куда проще чем совершенствовать людей. Да и от злости ИИ стрелять не будет.
Красиво звучит, но только пока не появятся первые читеры. У Пелевина есть отличный рассказ на эту тему: «Зенитные кодексы Аль-Эфесби».
А уничтожать гражданских — нет ни малейшего смысла. Это ведь рабочая сила.

* А если всё таки понадобится, я думаю этот вопрос решат более простым способом.
1. Микроб не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Микроб должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Микроб должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Предлагаю начать с трёх законов микробиологии.
законов 4, еще есть нулевой (самый последний добавленный)
Так вот уже и вижу, как та боевая пулемётина Самсунга доказывает, что вот эту конкретную группу северных корейцев нужно было расстрелять для блага всего цивилизованного общества.
«Слава роботам! Убить всех человеков!» (с)
Даёшь разрешение локальных конфликтов через кулачные бои роботов!
Сразу вспоминается фильм "Robot-Jox". В свое время, кстати, неплохим фильмом был
Люди не научились контролировать себя, а хотят контролировать роботов.
Одни люди хотят контролировать роботов. А другие хотят, чтобы роботы контролировали третьих.
Все конвенции и разграничения на мирных/комбатан это все хорошо и прекрасно. Но до тех пор, пока обе стороны конфликта этого придерживаются. А ведь суть и терроризма, то не придерживания норм (да и суть конфликта) — а достижение своих целей. Победы своей стороны, освобождение или захват. То есть — в каждом конкретном случае — выполнение поставленной задачи.

Допустим — солдаты — это понятно, 100% участники. Но с другой стороны — ага, мы знаем, что им нельзя стрелять на поражение в не-солдат. А давай мы вон того мальчика пошлем к ним с миной? В него не выстрелят, он выполнит задание, мы останемся целы, отряд противника будет уничтожен. Сплошной вин.
Конвенции не глупые люди писали и мальчик с миной будет считаться участником войны. Даже мальчик без мины, доказанно сдавший партизанам время смены патрулей — тоже будет.
А я, вот, совершенно не понимаю ценности этих законов. Достаточно дать роботу информацию, что кислород смертелен для организма человека и тот, чтобы «своим бездействием [не] допустить, чтобы человеку был причинён вред», пережмёт ему горло.
А тут ведь дело в том, что другой робот (в широком смысле слова — компьютер, программа) такую информацию роботу не передаст, поскольку это будет считаться нарушением 1-го закона. Если же такую информацию передаст роботу напрямую человек — преступником будет он, а не робот (ну как если бы человек сам задушил врага). Да и плюс к тому, робот его первого, получив такую инфу, и задушит :)
Ну, то есть хотите вы посмотреть статью про способы суицида, а ИИ вашего компьютера вместо показа нужного сайта сообщает «Эта информация может причинить Вам вред и не может быть Вам предоставлена, в соответствии с з.1 и 2 робототехники.»
Эм… ну вообще-то согласно нашим законам нынче как-то так и должно быть.
Ну, вообще, да. Я просто хотел показать, что соответствующий уже действующий закон все обзывают маразмом, но при этом, отношение к законам, одним из последствий которых будет аналогичная ситуация, скорее благожелательное.
Он скорее зависнет, так как он не сможет не нарушить первый закон.
Поверьте, если когда и появится ИИ, способный понять и следовать этим 3 законам, то он будет намного качественнее и аккуратнее определять достоверность информации. Человек очень сильно уязвим к дезе, потому что в его голове куча дыр вроде «это мнение моего авторитета», «тысячи людей купили акции МММ», «это по всем новостям говорят», «это совпадает с моим мировоззрением, а значит правда», через которые все как хотят, так и вертят человеком-обыкновенным. Логичный робот должен быть неуязвим к такому.

Так что не стоит боятся, что человек надует робота, скорее будет наоборот: робот просекёт фишку и быстро станет у руля, пудря всем мозги.
> быстро станет у руля, пудря всем мозги.

А люди будут не понимать, что всё делается для их, неразумных, блага и получится как в фильме «Я, робот».
UFO just landed and posted this here
У нас есть полностью исчерпывающее определение человека? Мирного человека? И определения можно усложнять.

Каналы связи между роботами можно взломать и исказить поступающую информацию. Достаточно вломиться в систему робота и всё, каюк всем вашим законам, диверсий никто не отменял.
С таким же успехом можно вломиться к президенту и отобрать у него чемоданчик, и всё, контроль над миром твой.
Это другая уже тема — вопрос безопасности системы.
Военные просто не допустят принятия этих и подобных им законов.
Военные просто проигнорируют эти законы
С какого это перепугу человек сделает меньше ошибок по распознаванию чем робот? А отчего же тогда такое огромное количество смертей чуть ли ни в каждой военной операции?
Вы возьмете ответственность за разработку автоматического оружия если есть 0.000001% сбоя?
Количество смертей в военной операции точно неуменьшиться. Можно подумать кому то там есть дело до на верхушке до гражданских, когда военная операция с «лозунгом цель оправдывает средства.»
в принципе и так алгоритмы давно применяются по распознованию, но я не думаю что кто то захочет учавствовать в бетатестировании такого аппарата.
Если выбирать, кем будет оккупирован наш город — солдатами или роботами в прошивке которых следование женевской конвенции. я бы однозначно выбрал роботов.
Останется объяснить это остальным кто не технарь. А это считай нереально вааще( Голвуд же в головах…
Я бы никогда не взял на себя ответственность выдавать оружие людям. Ведь те кто в наши дни её на себя берут постоянно и многократно ошибаются.
Ждем появления организации Robot Rights Watch
Главное, быть осторожнее при демонстрации возможностей

image
специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем, так что у систем компьютерного зрения наверняка будут ложные срабатывания.


На самом деле человек может открыть огонь по мирному населению, если ему только покажется, что его жизни угрожает опасность. Робот же, в случае не 100% уверенности, может вести только ответный огонь.
ух ты!!! моя любимая корейская компания не только телики, телефоны, дома, тачки и школы клепает, она еще и оружие делает!!!
Главное, чтобы не на андроиде :-D
Месье знает толк в половых извращениях! :D
Для меня с детства было загадкой, каким образом законы написанные на человеческом языке в человеческой системе понятий можно вставить в программу или электронный блок. Посему, эти законы выглядят очень наивно и даже абсурдно.
Кто пишет правила игры — тот и выигрывает. Разработали на Западе малошумные ТРД — всё, не будем принимать иностранные самолёты с более шумными двигателями. Разработали высокоточное оружие — запретим всем пользоваться неточным оружием, т.к. это негуманно. С роботами, я думаю, будет то же самое.
Бред.
Во-первых промышленные роботы слишком тупы чтобы вообще знать о том что такое человек.
Во-вторых военные — специально предназначены для уничтожения людей.
Имхо авторы — люди с lurkmore.to/%D0%93%D0%A1%D0%9C
UFO just landed and posted this here
гм.
Чем меньше люди полагаются на защиту «законов» — бумажек по сути, тем более они защищены от неприятностей. В данном случае, это означает, что люди должны развиваться наравне с роботами или по иному пути, но так, чтобы уравнять свои шансы в случае «чего». Но это уже совсем фантастика и киберпанк.
Киборгизация — как один из вариантов решения проблемы. Полагаю, у киборгов будет преимущество и перед «обычными» людьми, и перед роботами.
Sign up to leave a comment.

Articles

Change theme settings