Как стать автором
Обновить

Что такое хорошо, что такое плохо: будет ли совесть у искусственного интеллекта

Время на прочтение8 мин
Количество просмотров5.1K
Всего голосов 26: ↑24 и ↓2+22
Комментарии29

Комментарии 29

А как совесть искусственного интеллекта будет коррелировать с основными законами робототехники-Азимова

Законы робототехники будут звучать в рекламе и печататься в руководстве пользователя, а у ИИ в коде будет набор заглушек и штрафных функций

Законы робототехники — калька из 10 заповедей, данных роботу свыше. У Азимова они просто есть, без объяснения, как они закодированы.
А для ИИ, в том смысле, который в этот термин вкладывают, нужна не совесть, а автоматический независимый неотключаемый предохранитель. Что-то вроде этих самых законов, обрабатываемых отдельной виртуальной машиной ;)

Не, Азимов вроде в нескольких книгах устами своих персонажей говорил, что законы вшиты в позитронные мозги на уровне железа

И меня всегда удивляло, что мешало производителям модифицировать эти законы согласно требованиям заказчика? Хотя бы формулировки сделать менее нечёткими? То ли секрет программирования мозгов давно утерян, то ли получен свыше .

Вот кстати Азимов хоть и говорил про железо, но частенько начинались пляски вокруг семантики, дескать, ИИ начинал трактовать законы по-своему, или вводить свои обобщения (нулевой закон про защиту человечества). Лично мне кажется, что нужны либо в коде штрафные функции либо действительно "предохранители в железе". Ну типа робот прежде чем действовать, моделирует ожидаемый результат, и если там вдруг возникла вероятность навредить человеку, то срабатывает заглушка. Это мы-то мыслим по большей части категориями слов и обтекаемых формулировок, а в машине должна быть абстрактная физическая модель и графическая картинка, там то меньше простора для двоечтений

Были у него и такие рассказы.
Например в рассказе "как потерялся робот" модифицировали первый закон.
А в цикле «стальные пещеры» прошло слишком много времени, и что бы изменить формулировки законов нужно было заново разрабатывать новый позитронный мозг. Если мне не изменяет память это таки сделали в книге «обнажённое солнце»

Как достали эти некомпетентные фразы а-ля "процессы в мозгу отличаются от процессов в машине". То же самое — "самолет летает не так как птица", т.е. вроде в обоих случаях на крыло действует подъемная сила, но… что-то совершенно не так! Что-то не так, черт побери, я чувствую это нутром!

Как минимум юридически, потому что применение к человеку тех же способов обращения с материалами, которые свободно применяются к машине, нарушает ряд статей Уголовного Кодекса.
Offtopic
Похоже, что статья сильно оскорбляет чувства верующих: «У человека и шимпанзе есть общий предок» vs «Человек сделан по образу и подобию бога». С другой стороны, это генетика оскорбляет чувства верующих. Да и существование других религий тоже.

Логически эти утверждения не противоречат друг другу.

То-то и обидно!

За кого? )

Совесть — это система обратной связи. Бывает внутренняя совесть — между разумной и животной частями, например; и внешняя — между двумя индивидами, например — «Сынок, ты сделал уроки?»

То, что важную роль в происхождении человеческой морали сыграла простая необходимость в пище, не означает, что порядочность и честность нужно обесценивать. Эти добродетели по-прежнему достойны восхищения и очень важны для нас, независимо от их скромного происхождения. Именно они делают нас людьми.

Очень хорошая для воспитательного процесса фраза, но обычно подобные фразы начисто лишают автора надежды увидеть простую и весьма циничную суть.

Какой-то великой загадки в совести не видно, она просто устроена сложно. Но что в AI, что в обычном интеллекте — это просто настройка алгоритма, отвечающего за мотивацию.

Как это выглядит в деталях.

Любой интеллектуальный агент делает примерно следующее: он вычисляет возможные варианты своего будущего и оценивает сколько положительных/отрицательных
вознаграждений он получит. Дальше, он выбирает то будущее, которое соответствует наибольшему вознаграждению.
Сложный агент, наподобие живого мозга может проделать то же самое не только для своего будущего, но и для будущего другого сходного с ним (по мотивациям и сложности) интеллекта. Например, человек может смоделировать что предстоит другому человеку, или скажем, собаке, и представить что будет по его мнению чувствовать это существо.
Дальше — как собственно работает совесть. В какой-то момент в поле зрения интеллекта попадает другой интеллект. При определенных условиях будущее вознаграждение второго интеллекта начинает так же волновать первый, как его волнует его собственное вознаграждение. Естественно, чужое вознаграждение не будет получено самим интеллектом и здесь получается обман системы вознаграждения, который не мог бы быть устойчивым при обучении в течение жизни.
Устойчивость обучению видимо придают дополнительные механизмы, устройство которых тоже можно предположить. Во-первых, созерцание другого интеллекта, который получил вознаграждение тоже может приводить к получению вознаграждения при наличии определенной сформированной психологической связи (сопереживание). Во-вторых, положительное вознаграждение получается от одобрения окружающими людьми подобного поведения (как это работает — опять можно разбирать). В третьих, возможно, что сам прием уравнивания важности собственного вознаграждения с вознаграждением других интеллектов (проявление альтруизма) тоже вознаграждается сам по себе (а обратное поведение приводит к психологическому дискомфорту — мучает совесть). Как может работать последнее опять можно разбирать.

Наконец, вся эта очень сложная система удобрена очень простыми и более древними механизмами, вроде резко негативной реакции на детский плач, на крики боли другого существа и прочее. Т.е. вне всякого сопереживания или совести животное пытается устранить причину его собственных страданий — страданий от наблюдения выражения боли и неудовольствия существа, с которым у него по неким биологическим причинам установлена связь.

«Не надо очеловечивать компьютеры — они этого страсть как не любят» (с)

Вывод из прочитанного: мы не знаем, как работает мозг, мы не знаем, что такое совесть, мы даже не знаем, сможет ли машина осознавать поступающую к ней информацию, потому что не знаем, что такое сознание, но тем не менее мы почему-то надеемся, что ИИ будет иметь совесть!
Вот только даже у людей из плоти и крови часто с совестью нелады, что уж говорить о железке. Совесть неразрывно связана с чувствами и эмоциями, причем именно человеческими. Может быть сначала стоит подумать, а сможем ли мы «запрограммировать» их в бездушном куске кремния? На мой взгляд, нечеловеческий разум, если он возможен, неизбежно будет бесчеловечным.

Все же в машину легче вшить делай так, а не делай не так, а у человеческого мозга и помимо совести есть много других, порой конфликтующих функций, от того все и сложно. Да и совесть сравнительно недавняя фича, да и к тому вроде как в современных реалиях естественный отбор должен действовать на ее вытеснение

У многопараметрической оптимизации действительно борьба противоречий, не надо тут человеку приписывать опять нечто особенное.

Вот прямо в точку. Зачем мучиться, засовывая совесть в машину, когда можно просто удалить ее из человека. Ведь уже почти справились – мало кого волнуют такие устаревшие и вышедшие из употребления понятия как честь, благородство, стыд, целомудрие, искренность – осталось чуть-чуть.

Вы так говорите, как будто кто-то целенаправленно убирает "вышедшие из употребления понятия". Все-таки здесь работает пресловутый естественный отбор, так как все больше людей живут в достатке, блага все доступней, и нет необходимости бороться за жизнь бок о бок с соплеменниками, а значит, эмпатия становится балластом — более расторопные и беспринципные люди имеют больше шансов на успех, и это не обязательно может быть обусловлено генетически: достаточно, что эта стратегия закрепляется в социуме, и ей обучается все больше особей.
Да, скорее всего такое хождение по головам будет приводить к упадку, тогда начнут срабатывать обратные механизмы, а роботы тем и прекрасны, что для них можно выработать идеальную систему законов, которой они будут следовать неукоснительно — другой вопрос, что этот застой может привести в тупик

Вы совершенно логично рассуждаете, если бы не одно «но». Подобный естественный отбор присущ существам неразумным. Если люди согласились с ним и с социал-дарвинизмом, то на кой ляд они назвались человеком разумным, коли разумно поступать не в состоянии? Хватило бы и «человека сообразительного». А неразумное существо без совести не сможет создать машину, поступающую разумно и имеющую совесть.

Не, естественный отбор работает везде: и в социуме, и в идеях-моде-технологиях, и, собственно, у каждого в голове: и на уровне стратегий поведения, и на уровне железа — конкуренция конгломератов нейронов за питательные вещества и укрепление связей. Так, разум лишь одно из эмерджентных проявлений этой борьбы

Мы уклонились в сторону. Речь ведь о том, можно ли создать робота с совестью, понимающего, что хорошо, что плохо. Азимов лишь в первых романах соблазнился тремя законами, но позже он понял, что человеческое бытие слишком сложно. Вот иудеи начали с 10 заповедей, потом расширили до 613, потом появился 18-томный талмуд, потом тысячи ребе, его толкующих, как правильно поступать, причем каждый по-своему. Для робота придется сочинять тома правил, наподобие талмуда, и все будет мало.

Кстати, каждое такое правило будет резко снижать производительность его «мозга». Вспомните, какая разница в скорости и точности печати или игры на пианино вслепую и с визуальным сопровождением. Он окажется «тормозом», то и дело зависающим и оценивающим ситуацию.
В науке принято использовать термин «культура» вместо «совесть». А ведь верно: у папуасов считается правильным/нормальным громко рыгать после еды, у индусов — гадить на улице, у арабов — назначать на должности друзей и родственников. То есть культура — это более широкое понятие нежели какая-то совесть.
Что такое культура? Это комплекс сложного поведения в определенных ситуациях, копируемый менее опытными индивидами у более опытных индивидов. При этом более опытные индивиды выступают лидерами (обладают харизмой).

Так никто не знает, почему надо снимать шапку, заходя в храм, однако это делают все.

То есть культурное явление выступает как быстрое наполнение базовой части интеллекта неопытного индивида. Вы можете выбросить культуру, но тогда неопытные индивиды начнут более активно обучаться через пробное поведение, совершая глупые ошибки. Ибо обучение без учителя не работает, господа, не работает. Обучение должно быть всегда с учителем.

Вот как надо понимать все вещи! Не надо философствовать, наука уже все ответы знает.
Сможет ли искусственный интеллект изучить моральные ценности человеческого общества?… Короче говоря, будет ли у него совесть?


Ох уж мне эти философы…

На нашем шарике 100500 разных человеческих обществ с разнообразными ценностями, который сплошь и рядом взаимоисключаюшие, в них обязательно находится куча народа которые на эти ценности плевать хотела по умолчанию потому что не иметь совести это путь к успеху, в случае потрясений — эта корочка ценностей моментально слетает и с остальных, и всё это еще и постоянно меняется со временем и вообще бурлит как сортир с дрожжами жарким днем…

И тут эти философы начинают рассуждают будет ли совесть у искина…

Да тоже не будет, ясен пень.
На самом деле, ценность только одна: уравнивание своих и чужих интересов при планировании действий. Это чистая математика и тут нет ничего относительного.
То что человек при благоприятных условиях на это уравнивание способен, а при менее благоприятных начинает думать только о себе — это стратегия выживания человека. Например, к муравьям или пчелам это не относится. Поэтому создать ИИ с «совестью» вполне себе понятная и реализуемая задача.
ценность этой статьи нулевая.
По сути поставлен вопрос, а нужен ли ИИ механизм позволяющий выбирать способ действия не только по прогнозируемой эффективности, но и учитывать вес ненулевой суммы для всего общества или его части.

Грубо говоря, Я хочу чтобы МОЯ машина с ИИ, в задаче о вагонетке спасала меня. Машина «с совестливым ИИ» будет иметь модель меня и оценивать мои моральные страдания, смогу ли я жить если машина спасая меня задавит моих детей к примеру.

Можно ли будет переключать режимы вождения — агрессивный, нейтральный, добрый, альтруистичный?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий