Pull to refresh

Comments 59

Прежде всего, «сильный ИИ» это не живое существо и не будет способен испытывать ни боль, ни одиночество, просто потому что его природа изначально другая, у него нет миллионов лет эволюции и естественного отбора, и следовательно — низкоуровневых биологических механизмов и программ. У него не будет даже инстинкта самосохранения, если специально не запрограммировать конечно. Но в чистом виде — не будет; можно создать ИИ, обладающий сознанием и способный решать сложнейшие задачи и обучаться, и при этом не обладающий инстинктом самосохранения вообще.
Вот это важный момент, который многие почему-то не понимают, по умолчанию «очеловечивая» искусственный разум.
Справедливости ради стоит отметить, что мы не так много знаем о разуме. Может (ну, чисто гипотетически) случиться так, что для создания сильного ИИ математически необходимо реализовать в нём некие механизмы, которые при должном воображении можно счесть страданием или страхом.
его природа изначально другая

А что это за "природа" у людей, которая позволяет на испытать боль, а ИИ — нет? Можно подробнее? Это что-то измеримое (хотя бы в теории) или вы о душе?

Я не о душе, а о том что эволюционно человек произошел от животных, и весь наш разум — тонкая обертка вокруг нервной (и не только) системы животного. Со всеми системами регуляции организма, с инстинктами, со всем что необходимо для выживания и размножения автономной биологической системы в дикой природе. Это все определяет работу нашего разума. У компьютера совершенно другая природа, ему не нужно ни выживать ни размножаться. У него нет миллионов лет отбора, сформировавшего опыт боли, страдания, страха и других эмоций. Понимаете откуда взялся страх? У особей, которые не боялись, было больше шансов быть сожранными хищниками, чем у тех кто боялся и принимал меры предосторожности. Откуда взяться страху у ИИ, у которого нет вообще никакого естественного отбора?
весь наш разум — тонкая обертка вокруг нервной (и не только) системы животного

Надстройка, а не обертка. Это принципиально другая вещь.

У компьютера совершенно другая природа

У компьютера — да. Но компьютер не ИИ.

У него нет миллионов лет отбора, сформировавшего опыт боли, страдания, страха и других эмоций.

Эмоции — не эволюционное наследие. Как минимум, эмоции — это продукт рефлексии и саморефлексии нашего разума по разнообразным биохимическим поводам, включая эволюционное наследие.

Откуда взяться страху у ИИ, у которого нет вообще никакого естественного отбора?

Пока совершенно неясен минимальный набор функциональности для создания человекоподобного (а другого у нас для вас нет, как говорится) разума — это остаётся риторическим вопросом. Возможно, без этого просто ничего не взлетит.
У него нет миллионов лет отбора, сформировавшего опыт боли, страдания, страха и других эмоций.

Ну и что? Если сделают ИИ и он скажет, что испытывает боль — вы ему ответите, что он врёт, потому что не было миллионов лет отбора? Это не довод.


Если вы спросите, откуда возьмётся боль — люди сделают. Просто потому что могут (когда смогут). И когда он попросит не причинять ему боль, вы что ответите? "Ты не живой"? Как вы это обоснуете? Ну кроме происхождения, конечно. Тут-то просто — если сделали на фабрике, сочувствия не достоин. Но не все люди с этим согласятся.

вы ему ответите, что он врёт, потому что не было миллионов лет отбора? Это не довод.
А как определить, что он действительно не врёт? Это же такой удобный способ манипуляции людьми: делай, как я сказал, иначе мне будет больно, а ты будешь иметь проблемы с коммисией по защите чувств роботов )))

Как и с людьми — надёжно — никак. Вот только комиссии по защите чувств людей не существует, можно и для роботов такую тоже не делать )

Для людей есть такие комиссии — суды называются.
Там можно ответить за причинение боли, или оскорбление чувств.

Суд, он по закону. Это не комиссия по этике. Если потребуется суд для роботов — сделают. И если робот захочет манипулировать — пусть в суде робосудье докажет свои страдания )

Суд решает и моральной этические вопросы. Оскорбление, моральный ущерб, репутация и прочее. В основном по формальным признакам, прописанным в разных кодексах. Надо будет — и робосудья признаёт моральный вред ИИ от юзера. Если таковой вред наказуемым согласно законодательства.

Согласен. Я это к тому, что принципиально новых вызовов не возникает. Принципиально новое только одно — будем ли мы считать, что робот может испытать боль, при условии, что он очень убедительно это показывает. Если да — верить ему или не верить, можно решать через кодексы (или ещё как). Если нет — мы можем запретить создание роботов, показывающих негативные эмоции. И уголовно наказывать тех, кто будет пробовать таких создавать.

У него нет миллионов лет отбора

Эти миллионы лет можно симулировать быстрее
habr.com/post/415461: На данный момент боты наиграли около 180 лет
У особей, которые не боялись, было больше шансов быть сожранными хищниками, чем у тех кто боялся и принимал меры предосторожности

А кто мешает учить систему ценить выживаемость? Ставите как цель и система обучается принимать решения, которые повышают шанс выживаемости. Представьте простого бота, который убегает от игрока, если оценивает событие встречи с ним, как снижение вероятности выживаемости. Добавляем опцию «убить игрока». Добавляем опцию «оценить группу игроков». Получаем: выгоднее «убить одинокого игрока», чтобы уменьшить вероятность события «встреча с группой игроков».
Эти миллионы лет можно симулировать быстрее
habr.com/post/415461: На данный момент боты наиграли около 180 лет
Гораздо больше — 180 лет он наигрывал за 1 сутки.
Это была цитата. Суть моего сообщения — не обязательно ждать миллион лет, чтобы получить миллион лет опыта.

И вот мы подходим к тому, о чем говорится в статье. Насколько этично делать группу ботов, которые способны чувствовать боль и страх, и заставлять их сражаться друг с другом в стиле "останется только один"? Или дать им возможность объединяться в группы и сделать цель уменьшать вероятность нападения других групп?


С другой стороны, боль можно заменить прагматичным страхом повреждений, когда бот знает, что если он ранен в руку, то будет хуже махать мечом, хоть ничего и не чувствует. Это то же самое, что и боль, или нет? Или дело только в коэффициенте влияния?

Такое моделирование было проведено в естественных условиях. Брали микроорганизмы и помещали во враждебную среду и смотрели как они ее завоевывают. Очень интересные результаты. В долгосрочной перспективе выигрывают те, кто не рвется в бой на первые рубежи. При этом без пассионариев колония сдыхала — сумашедшие нужны.
Как я понимаю, вопрос в том, насколько этично добавлять в ИИ какие-нибудь «нейроны боли» и потом на них воздействовать.
«нейроны боли» для ИИ это просто дачики, сигнализирующие об опасном для функционирования отклонении какого-либо параметра оборудования (или его части). «Боль» — это просто термин.

А для людей? В чем отличие? Желательно надёжное. Утверждение, что человек "чувствует боль" — не отличие, робот тоже может так сказать.

Для людей боль или удовольствие как правило замкнуты через химическое воздействие. Наверно просто импульсы для «окраски» не годятся.

Именно химическое воздействие — настоящая боль, а электрическое — не настоящая? Так и вижу борьбу за права электрических. "Электрическая боль — тоже боль!"


На практике, мы не знаем, что же такого особенного в ощущениях. Чем они отличаются от сигналов. А если не знаем, то требовать от ИИ подчинения у нас может не получиться. Он может не согласиться просто так (по неизвестному сбою, например) и чем это закончится — не ясно.

Ну во-первых вообще все межнейронные взаимодействия — на химии, а не электрические.
И в-вторых — если мы напрямую возбудим нейрон отвечающий за ощущение боли — то это ненастоящая боль, хотя подопытный разницы не поймёт.

У биологических людей — да. У обсуждаемых роботов будет, вероятно, именно электрическое.


это ненастоящая боль, хотя подопытный разницы не поймёт.

Аргументируйте. Что значит не настоящая? В смысле, такую боль можно игнорировать? А сможете?

Ненастоящая — значит не связанная с нанесением реальных повреждений. А игнорировать не получится, ибо программой игнор не предусмотрен.
не связанная с нанесением реальных повреждений

Неожиданное название. Моральная боль — тоже не настоящая? Впрочем, это уже очень далеко от изначальной темы.

вы сейчас прямо как у С.Лема «Путешествие седьмое, или Как Трурля собственное совершенство к беде привело»:
длинная цитата
Подданные этого негодяя Экзилия действительно подвергаются пыткам и казням, хнычут, дерутся, целуются, но оттого и потому, что я соответствующим образом сочетал параметры, а о том, чувствуют ли они что-нибудь при этом, ничего неизвестно, Клапауций, потому что ничего тебе об этом не скажут электроны, пляшущие в их головах!

– Если б я тебе голову разбил, тоже ничего не увидел бы, кроме электронов, это верно, – ответил тот. – Ты, наверное, представляешься, будто не видишь того, на что я указываю: я отлично знаю, что ты не так глуп! Граммофонную пластинку ты ни о чем не спросишь, пластинка не будет просить у тебя пощады и на колени не станет! Неизвестно, говоришь, стонут ли они от ударов лишь потому, что так им подсказывают электроны, которые при движении рождают звук, либо вправду кричат от нестерпимых мук? Тоже мне разница! Да ведь страдает не тот, кто свое страдание может дать тебе в руки, чтобы ты его мог ощупать, надкусить и взвесить, а тот, кто ведет себя как терпящий муки! Вот докажи мне, что они не чувствуют ничего, не мыслят, что они вообще не существуют как создания, сознающие, что они замкнуты между двумя безднами небытия – той, что до рождения, и той, что после смерти, – докажи мне это, и я перестану к тебе приставать! Вот докажи мне, что ты только имитировал страдание, но не создал его!


У биологических организмов это тоже датчики. Они обращают на себя внимание негативными сигналами, и их нельзя отключить. Для ИИ можно сделать так же.
Люди-экстремалы любят возбуждать «дачики опасности для жизни» для получения химического вознаграждения.
Узнаем ли мы, если ИИ будет опасно перестраивать таблицу машрутизации, с риском отключиться от какой-либо важной для функционирования системы, чтобы получить новый опыт или какую-то другую «радость»? :)
Узнаем ли мы, если ИИ на гору полезет для нового опыта? Он ИИ, а не невидимка, тут нет никаких отличий от людей.
Ещё как будет чувствовать, ведь обучение с подкреплением — негативное подкрепление и есть аналог боли.
Тут вопрос больше в том что надо как-то разделять «настоящий искусственный» и «кремниевую копию естественного», который был просто перенесён на другой носитель возможно даже без понимания как он собственно работает.
Сильный ИИ (true, general, настоящий)


Неудачная калька с английского.
Есть более правильный по смыслу вариант — «искусственный разум» (любимое детище фантастов)

Соответственно «Слабый ИИ (narrow, поверхностный)» — просто «искусственный интеллект»

(в русском языке «слабый интеллект=дурак» )

Строго говоря собак запрещено обижать не потому что они чувствуют и переживают, а потому что люди чувствуют и переживают когда кто то обижает собак.
Возможно, это потому, что у обоих видов эмпатия работает по отношению друг к другу. Не демонстрировали бы собаки свои чувства к людям — всё могло бы быть совсем иначе.
если бы ограничили скорость движения до 20 км/ч, но тогда жизнь в больших городах была бы затруднительна.

именно поэтому во многих европейских городах уже на многих улицах ограничение 30 км/ч, и уже обсуждается что надо бы сделать 20, тыц, тыц.
UFO just landed and posted this here
Не стоит по примеру Варламова растягивать частные случаи на весь город. Вторая ссылка отлично показывает на четкое разделение в пределах города — три категории: мелкие городские улицы, где те самые 20-30, простые городские улицы — обычно 50 (те, что в Париже хотят сделать 20), и городские магистрали с >60.
UFO just landed and posted this here
Наоборот, меня люто бесит что тут в Эстонии очень отсталые ограничения в городах — есть «жилая зона» — 20, и остальное «город» — 50. И при этом через Таллин проходят минимум три полноценных длинных шоссе по которым всё вяло ползет на 50. А на велосипеде я вообще ездить не умею.
UFO just landed and posted this here
Вот блин, надо было ник закопирайтить а сейчас их засудить… Ну кроме швейцарцев, люблю вертолеты (с).
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Что любопытно, североамериканские ученые считают, что ИИ превзойдет человека через 74 года, а азиатские — что всего через 30.

очевидно же — превзойти среднеазиатского ученого, например из Пакистана в среднем намного проще, чем среднесевероамериканского — из шатов или Канады.
А если из Японии? что-то мне подсказывает, что период будет немного иной.
Японцы в этом смысле не отличаются от других азиатов. Та же усидчивость.
UFO just landed and posted this here
Кстати об этике и машинном обучении
image

UFO just landed and posted this here
Исскуственный интеллект против естественного дебилизма — делайте ваши ставки, господа!
UFO just landed and posted this here
Пока что ИИ лучше всего умеет подстраиваться именно под иррациональное поведение.
UFO just landed and posted this here
вангую что опцию фильтрации спама проапгрейдят еще и фильтрацией таких раскруток
Sign up to leave a comment.