Как стать автором
Обновить

Комментарии 13

Не статья, а сплошные вопросы с одним и тем же камнем преткновения — проблемой поиска границы между роботом с сильным ИИ и роботом без него или со слабым ИИ. Т.е. робота с сильным ИИ можно будет наделять правами и рассматривать для него вопрос причинения боли и т.п., а для остальных нет смысла (игрушечное ралли не обидится на Вас, если стукнуть его ногой). Критерии сильного и слабого ИИ уже сформулированы. Дело за малым — создать сильный ИИ. А законодательство… Оно всегда чуточку запаздывает, так так строится на полученном опыте. Помнится, когда-то не было статьи за «Создание, использование и распространение вредоносных компьютерных программ», но вирусы уже были. Так что ещё рано законы вводить, давайте сначала ИИ делать.
По поводу ответственности: ИМХО, отвечать должен либо автор ПО, либо лицо, его настраивающее, если его настройка привела к преступлению. Например, наказывать автора вируса, или гэнста, использующего curl для DDOSа по моему мнению == наказывать разработчика программы робо-такси, который не предусмотрел превышения скорости, если клиент умирает, или гэнста, сказавшего роботу-пироману, что «из этого здания все рабочие вышли, можно приступать к сносу».
По поводу пыток и убийства: вот это странный вопрос. Мне кажется роботы должны относиться к пыткам как автор текста уместно вставленной в гоблинский перевод терминатора 3 песни группы Ленинград «А мне всё равно, я сделан из стали — самое страшное, что может случиться — стану тостером» (художественная обработка). Да и зачем пытать? Чтобы выдал инфу с закриптованного винта? Мне кажется, что эта тема должна стать направлением в ИБ — насколько робот устойчив к пыткам. (может ли он оценить риски от выдачи инфы и от того, что сделают гэнста в случае отказа, и главное, смогут ли они это сделать) Моё мнение — пытки с целью получения информации — статья и тема для PHD; пытки просто с целью постебаться — тема для психологов (вопрос собсно в том, будет ли человек пытающий робота применять свои знания на людях. Если да — тоже нельзя).
Насчёт убийства: лично моё как человека мнение: плюс роботов в бессмертии. Давать должны как за порчу имущества+за моральный вред (если робот может страдать). Робот (или его владелец) сможет купить новое тело и залить бэкап из облака.
вопрос собсно в том, будет ли человек пытающий робота применять свои знания на людях. Если да — тоже нельзя
Вы умеете пользоваться кухонным ножом? Умеете, и когда-то в детстве научились. Если вы в будущем зарежете ножом человека (примените умение обращаться с ножом к этому человеку), означает ли это, что вам нельзя было в детстве учиться орудовать кухонным ножом?
Не стоит забывать, что наказания (вообще любые) в человеческом обществе появились не просто на пустом месте, а с целью устрашения. Скажем, методично и последовательно сажая воров, убийц и т.д., мы тем самым говорим другим людям: «будете поступать так же — вас тоже посадим».

Человека перспектива заточения за решетку пугает сама по себе. «Бездушной железке» от самого заточения ничего не будет — он не сойдет с ума от одиночества, он не будет тосковать по лугам и просторам — но такое времяпрепровождение мешает реализовывать принимаемые решения и выполнять задачи. С рациональной точки зрения — уж в чем, а в рациональности машинной логике не откажешь — сознательно делать что-то, за чем последует наказание в виде заточения под стражу или выключения — невыгодно, это препятствует выполнению намеченной задачи.

Конечно, если робот оценит, что его шансы быть пойманным и наказанным в какой-то конкретной ситуации пренебрежимо малы, то он вполне совершит наказуемое деяние. Но ведь и люди поступают абсолютно так же.
Кстати, недавно сериал появился, как раз примерно на тему робоэтики — «Люди».
Технологическое рабство или доминирование — это не доминирование машины над обезьяной, это доминирование более умной (приспособленной, сильной ...) обезьяны на менее умной. Алгоритмы роботам пишут люди, если алгоритмы создают новые алгоритмы — то источником все равно является человек. Так что стоит разобрать подробно только один вопрос — может ли алгоритм стать настолько изощренным что начнет управлять поведением программиста лучше чем он делает сам.
Наше поведение строиться на базе моделей генерируемых мозгом, который в свою очередь получает факты на базе восприятия. Если расширять восприятие или поведение — это не будет потеря контроля. Если расширять мозг, то в какой-то момент алгоритм будет перехватывать контроль почти полностью. И увеличение мощности еще не гарантирует потерю контроля, потому что можно просто считать число пи или майнить, а на поведении это почти не отразится. Поэтому нельзя делать расчеты на базе прогресса в мощности или частоте или количестве обрабатываемой информации. Так как определять сложность алгоритма и степень контроля?
Гуманитарные бредни.

«подвергли бы мучениям тьюринг-полную среду исполнения с программой и данными»?

«Подвергли бы вы пыткам огнём сковородку?»
Зря вы так, это как раз очень правильный вопрос о той грани, после которой что-то, что мы считаем «неживым», становится тем, что мы можем считать «живым» (и о том, где именно эта грань). Вполне легитимная тема для дискуссии.
Если оно крякает как разумное существо, плавает как разумное существо и отвечает как разумное существо, то это и есть разумное существо.

К сожалению, ни один из критериев в настоящий момент для роботов не выполняется, то есть их интеллект не сильно выше микроволновки. Даже у тех, которые через завалы переползают.
Если оно крякает как разумное существо, плавает как разумное существо и отвечает как разумное существо, то это и есть разумное существо.
Да много что попадает под это определение. Даже если взять современного продвинутого чат-бота и всунуть его в человекоподобного японского робота, будет штука, которая выглядит и говорит как разумное существо (хоть мы и будем знать, что на самом деле этот бот тупой).

Я говорю как раз о том, что эта грань может быть размазана — как раз по той причине, что ответить на вопрос «ведет ли оно себя как разумное существо?» затруднительно. Скажем, когда вы спите, персонажи в ваших снах ведут себя в точности так же, как настоящие люди, и выглядят так же, как настоящие люди. Единственное их отличие — они управляются нейронами не в их собственных головах, а в вашей. С другой стороны, что, если человеческий мозг «виртуализует» свои куски для симуляции работы мысли персонажей снов? Или просто просчитывает (незаметно для спящего, в фоне) то, как поведет себя мозг того или иного персонажа? А, следовательно, можем ли мы с уверенностью утверждать, что персонажи наших снов, какими бы ненастоящими они ни были, не являются self-aware?
Персонажи снов скорее всего просто «тупые чат-боты» поведение которых основано только на нашем собственном восприятии этих людей, а мозг наш просто выделяет их паттерны поведения. Другими словами: смысла «эмулировать» мысли и сознания других людей нет.
Пока в роботах есть микросхемы, паяльник и программатор не могут быть орудием пыток. Ведь если интеллект
ИСКУСТВЕННЫЙ, то значит у человека как у владельца данного экзкмпляра остается право его модифицировать под свои нужды.
Пока роботы выполняют действия по программе, а не по собственной воле — наказанию должны подвергаться ответственные лица.
Если простой заводской манипулятор кого-то придавил — обычный случай нарушения техники безопасности со всеми вытекающими.
Если автоматическая охранная система неверно трактовала информацию и кого-то убила — ответственному за эту систему должны предъявить непредумышленное убийство (при условии что он обладал информации о принципе работы системы).
Создатель системы не должен нести ответственность в данном случае, т.к. создателя пистолета при каждом убийстве не сажают за убийство.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий