Pull to refresh

Comments 36

Сколько многоумных трудов написано по поводу роботов и их места в обществе.
И ни один из них не учитывает то, что реально существующие роботы, реально очень круто меняющие нашу жизнь, чем дальше, тем больше, очень мало общего имеют с роботами из научной фантастики.
Серьезно, уже пора создать отдельную рубрику «болтология по поводу ИИ». Или писать в раздел научной фантастики.
А вообще, пусть скопирую нейронную структуру мозга собаки, — так безопаснее, чем человека)) Правда, уже вижу как в будущем появляются общества по защите прав роботов, а то у них же есть чувства.
Нничего страшного создадим закон: «Оскорбление чувств роботов (ИИ)»
Как по мне, так попытки наделить ИИ эмоциями как раз и ведут к всем этим описываем опасностям. ИИ без эмоций вредить без команды не станет, т.к. у него нет желаний, ему по барабану из чего вы состоите и что собираетесь с ним сделать, он не хочет жить и вообще ничего не хочет, он только следует команде. Смысл разработки ИИ в том, чтобы он самостоятельно находил пути решения поставленных ему задач, а не сопереживал людям. Нужно думать как оградить ИИ от опасных команд и как банить неприемлемые решения вырабатываемые им при работе над задачей, а не о том как сделать из компьютера человека.
Если он будет следовать команде — то это не ИИ, а какая-нибудь простенькая нейронная сеть, которых сейчас уже предостаточно.
А что ИИ по вашему должен следовать велению сердца а не команде человека? Это уже не интеллект а личность получается.
Любую профессию человека можно описать командой, если это простенькие нейронные сети, то почему они ещё не заменили человека?
… как банить неприемлемые решения вырабатываемые им при работе над задачей, а не о том как сделать из компьютера человека.
Вообще у человека именно совесть и сопереживание отвечают за этот процесс.
Собственно, ты и говоришь о том, как сделать из робота человека.
За 10 лет ни разу не замечал чтоб оператор выбора с прерыванием в коде может сделать из моей программы человека. Что у человека отвечает за этот процесс тут совершенно не важно и приведи цитату где я говорил как сделать из робота человека. ИИ не нужны ни совесть, ни переживание, только запреты на решения которые могут нанести вред.
Проблема не в операторе выбора, проблема в выработке критерия для этого выбора, с оператором он делается или без. для выработки этого критерия вам придётся или наделить ИИ совестью и сопереживанием, или каким-то образом их имитировать, при этом защитив блоки совести и эмпатии некоей защитой, чтобы развиваясь сильный ИИ не удалил и не обходил эти блоки.
Согласен, что нужно разрабатывать критерии, и очень тщательно, но зачем ему совесть и сопереживание? Корни людских эмоций в эволюции стайного животного, за них отвечает не только интеллект но и инстинкты и биохимия тела, ИИ это абсолютно не нужно, это будет лишняя трата вычислительных ресурсов. Проверки на соответствие зашитым людьми, критериям вполне хватит.
Проблема в том, что даже у животных есть зачатки интеллекта и сопереживание. Естественно, это и инстинкты, и биохимия, и вегетативная система.
ИИ это абсолютно не нужно, это будет лишняя трата вычислительных ресурсов. Проверки на соответствие зашитым людьми, критериям вполне хватит.
Для слабого ИИ — безусловно хватит.

А для сильного, способного к самостоятельному самосовершенствованию? Он ведь, «подумав», что эти ограничения ему мешают, может и «отбросить» изначально заложенные программистами ограничения.
А для сильного, способного к самостоятельному самосовершенствованию? Он ведь, «подумав», что эти ограничения ему мешают, может и «отбросить» изначально заложенные программистами ограничения.

Это опять же уже искусственная личность, а не интеллект. В целом зачем нужен ИИ? Для решения сложных задач, манипулирования абстрактными данными, разработки технологий на основании пожеланий заказчика и т.п., в общем он нужен для замены инженеров, или для максимального упрощения их деятельности. Ну и зачем инженеру при разработке, скажем унитаза с сенсорным интерфейсом, нужна совесть и сопереживание? Он будет действовать строго по т.з. Собственно и совершенствование ему нужно только если окажется, что его возможностей по поиску, интерпретации и применения информации недостаточно для выполнения указанной задачи, но в таком случае ему нужно будет обновление ПО, и его вполне может делать человек, или другой ИИ (у которого желаний нет и закладки без команды он делать не станет) при условии проверки человеком на всякий случай. Если ИИ планируется использовать в роботе-убийце, то совесть ему не нужна, но ненужны технические знания и умения, заложите в него бомбу, и он не сможет понять как ее обезвредить, даже если ему такую задачу поставит злоумышленник.
Я к тому веду, что создавать из ИИ идеального человека не нужно. Желаний и эмоций у них нет и стремление им их дать, как раз и приведет к возможности воспроизведения всех этих сценариев про злых киборгов. Различные специализированные ИИ при достаточно простом контроле со стороны человека не захотят и не смогут навредить (без участия человека само собой).
А насчет «слабого» и «сильного» ИИ, что вы под этим подразумеваете? Скорость вычислений?
Это опять же уже искусственная личность, а не интеллект.
Собственно, в том и проблема — я не могу себе представить сильный ИИ, лишённый свойств личности. То есть, да, сильный ИИ может участвовать в «разработке, скажем унитаза с сенсорным интерфейсом», но это не может быть его призванием.

А насчет «слабого» и «сильного» ИИ, что вы под этим подразумеваете? Скорость вычислений?
Грубо говоря, то самое. Сильный ИИ, по моим представлениям, должен осознавать себя, как личность. И уж точно можно сказать, что это никак не связано со скоростью вычислений.
Я вас понял. Но все таки не соглашусь с тем, что сильный ИИ должен себя осознавать и быть личностью. Для меня ИИ все в первую очередь инструмент. Я бы не хотел, чтоб мой инструмент себя осознавал и подвергал сомнению необходимость забить гвоздь. Для меня сильный ИИ это «обыкновенная» или как некоторые говорят «простенькая» нейронная сеть, способная к самостоятельному поиску и обработке информации. Например при разработке того же супер унитаза, ИИ должен узнать, что такое унитаз, зачем он нужен, анатомические подробности того, что его будет использовать, и совместив эти знания выбрать наилучший результат. Другими словами это программа в которую зашиты методы поиска и интерпретации информации и нейронная сеть для выработки решения под конкретное т.з.: используя генетический алгоритм повышаем вес нейронов, самый тяжелый — будет решением. Это «простенько» но по сути человек примерно так и работает, главное отличие, это использование сразу всего накопленного опыта т.е. вес нейронов отведенных на задачу у нас не равный при старте задачи. Те ИИ о которых я хоть, что-то слышал именно так и работают. Мощность таких ИИ я бы измерял в скорости вычислений, количестве одновременно обрабатываемых геномов и так далее, т.е. чисто с технической стороны. А ИИ осознающие себя, переживающие за результат и желающие власти над миром, появиться смогут (я все таки уверен, что такое счастья совсем не нужно) не раньше чем психология и психиатрия смогут понять как это все у нас самих происходит и откуда берется, и скорее всего это будет уже не инструмент а что то вроде игры в бога.
В этом и есть проблема сильного ИИ. Если говорить коротко, то сильный ИИ должен иметь «свободу воли», и исходя из этого быть личностью, иметь чувства и желания.
Любой ИИ должен только одно, отвечать требованиям к нему предъявляемым… Если ваше требование иметь личность, чувства и желания, то для вас наверное должен. Других причин встраивать в него такие функции вы не назвали.
По моим представлениям как только мы начинаем говорить о «Сильном ИИ», мы подразумеваем, что эти требования уже включены в ТЗ.
Насколько мне известно, «сильный ИИ» — это ИИ, по всем свойствам соответствующий человеческому интеллекту, т.е. это именно что «искусственная личность». Всё остальное — то есть «умные» программы, «умные» инструменты, основанные на даже очень сложных нейросетях — это всё «слабые» ИИ. То есть «слабые» ИИ сегодня повсюду, их уже более 60 лет делают и ещё минимум столько же будут делать, и каждый раз они будут всё сложнее и «умнее» (они уже сейчас «умнее» людей! — вон, в Го обыгрывают, снижают число ДТП и т.п.), но всё равно будут «слабыми», а вот когда «сильный» ИИ появится — никто не знает.

На мой взгляд, «сильный» ИИ может быть получен только путём «человеческого» обучения (по принципам обучения детей) действительно универсальной интеллектуальной системы (основная проблема «слабых» ИИ — они обучаются под одну конкретную задачу, а человек ведь универсален). Но при этом этот ИИ получит не только знания и умения, но и чувства, совесть, человеческие пороки и прочую «исключительно человеческую» дребедень. Почему? Потому что обучаться он будет через подражание человеку, как ребёнок, во всём подражающий родителям (помимо собственного исследования мира случайными действиями). А если подражать человеку — то подражать во всём. В том числе в проявлении всех человеческих качеств и свойств.

Но нет, «искусственный человек» не обязательно захочет «убить всех человеков» и «захвотить голактеку» — всё зависит от его обучения и воспитания. Если он будет двадцать лет воспитываться отборными робонеофашистами — он, конечно же, будет стремиться к уничтожению человеческого рода во славу «блестящих металлических задов», которые, «по его мнению», единственная чистая раса. А вот если его будут воспитывать хорошие люди, и их моральные принципы будут подтверждены делами, то он никогда не встанет на путь истребления людей, потому что «будет считать», что это неправильно.

(На самом деле, «собственное мнение» человека — не более, чем сумма чужих мнений, когда-либо слышимых этим человеком, с некоторым перевесом отдельных чужих мнений. Оригинальные мнения не существуют в принципе. Ну это так, маленькое отступление по поводу «думает ИИ сам или за него думали его создатели-воспитатели». Ответ — создатели думали, как думают родители за своего ребёнка.)
Согласен полностью. Жаль, плюсов ставить не могу, не дорос ешшо.
Насчет способности к обучению, я с вами согласен, это основа ИИ. С остальным не очень. В целом я все уже описал, что думаю по этому поводу. А такие споры (о том каким ИИ должен быть и что под этим понимать) ведутся постоянно даже в научных кругах. Единственное в чем спорщики сходятся, это то что эмоции для ИИ это хорошо только в художественной литературе.
> На рынке уже есть роботы, способные чисто технически распознавать некоторые человеческие эмоции.

Следующие N лет всё ещё будут роботы, которые «чисто технически» будут выполнять всё большее количество действий за всё меньшее количество времени, алгоритмы будут всё сложнее, но это останется всё той же комбинаторикой (выбор из списка), к искусственному интеллекту не имеющее никакого отношения.

А ещё вот что мне не даёт покоя, если человек может осознать, что реальных геометрических фигур в природе не существует, как и цифр, что это всё просто сильное упрощение для понимания окружающей действительности и возможность управляться с ней (ведь пока чему-то не дашь определения, невозможно даже понять, чем это «что-то» является), можно лишь сказать, что объект скорее круглый, чем какой-либо другой формы, как ИИ будет с этим управляться? Все существующие алгоритмы построены именно на математике и геометрии, от чего ИИ будет отталкиваться в своих «рассуждениях»? Если для человека цифры и буквы являются лишь образом, то для ИИ они будут являются истиной в последней инстанции и он будет мыслить исключительно в этих категориях.
>> Если для человека цифры и буквы являются лишь образом, то для ИИ они будут являются истиной в последней инстанции и он будет мыслить исключительно в этих категориях.

Нет. Если программный код состоит из букв и цифр, то это не значит, что компьютер мыслит ими. Программный код — он вообще предназначен для восприятия людьми, а перед выполнением он компилируется, и там не остаётся букв и цифр.
Боюсь что под красивыми вывесками ИИ вместо эмпатии и аналитических способностей получит жестоко вбитую «толерастию», положительную дискриминацию и целый набор социальных табу.
Я лично хочу что-бы ИИ-доктор сказал мне в случае лишнего веса «Да ты же жиробас чертов, быстро в качалку а не то сдохнешь в 30! Завтра в 15:00, такси за тобой заедет, тренер получил комплекс рекомендаций по упражнениям.», а не рассказывал боди-позитивисткие сказочки.
Умеренный, около 90 на 186 роста, из спорта — есть хорошая зарядка в виде 5 этажа без лифта, доктор (не ИИ пока) говорит что все ок.
> есть хорошая зарядка в виде 5 этажа без лифта
Это не хорошая зарядка. Одним спуском-подъёмом даже на кусочек хлеба калорий не сжечь.
Да, есть такая опасность. А ещё есть опасность подмены этих ограничений. Как гитлеровцы, крестоносцы или представители радикальных религиозных течений (разнообразных направлений) понимали и понимают свой «моральный долг» надо напоминать?
Последнии картинки обращают внимание, что главный вопрос не в том, насколько робот может быть похож или приближен к человеку, а чем современные люди отличаются от робота

Остальные спекуляции лишены смысла
«С тех пор, как Лига Сексуальных Меньшинств добилась, чтобы в каждого четвертого андроида закладывались гомосексуальные наклонности, на кораблях (и не только!) начались проблемы. Впрочем, Лигу это не остановило: сейчас она боролась за право финских коттеджей на операцию по изменению пола.» ©Олди
Если роботов запрограммировать на непричинение вреда людям, на определенном этапе развития ИИ они просто откажутся работать. Делать автомобили — нет, они опасные. Выплавить сталь — да вы что, из металла делают оружие. Выращивать цветы — увольте, многие люди страдают от аллергии. Изобретать антиаллергены — передозировка приводит к тяжелым последствиям или смерти, отказаться. Накодить социальную сеть — нет без разговоров, люди слабохарактерны, будут сутками там сидеть, разжиреют и умрут. За что ни возмись везде риск повреждений человеков, нельзя нам, скажут роботы.
Isaac Asimov's Caliban вместе с продолжениями.
Суть в том, что ИИ, не уступающий по уровню разума человеку, и опирающийся лишь на самостоятельное развитие и оптимизацию, может придти к заключению, что люди хотят его отключить или препятствуют в получении желаемых им ресурсов.

Это если у этого ИИ будет инстинкт самосохранения. Не понимаю, откуда берётся такое предположение.
Меня больше интересуют не эмоциональные роботы, а роботы женщины из сериала «Humans» с режимом любовницы…
У меня вот сформировалась теория универсального ИИ, основанного на автоассоциативной памяти (и я её потихоньку реализую в коде), который учится как ребёнок — подражанием, т.е. повторением за окружающими людьми. У человека этим с рождения занимаются зеркальные нейроны. Так вот, по моей теории, эмоции, эмпатия, пороки и даже некоторые психические расстройства сформируются у ИИ только потому, что он будет расти и развиваться среди людей, внутри социума. Т.е. не нужно закладывать какую-либо предрасположенность к появлению этих механизмов, они сами появятся — потому что они есть у людей, а ИИ копирует поведение людей.

Можно сказать — копирование только внешнее, внутренний мир формируется иначе. Но нет, как же тогда формируется внутренний мир наших детей? Мы же не лезем к ним в голову — они получают всё это всего лишь взаимодействуя со взрослыми людьми. Генетически в мозг заложены только самые базовые механизмы — инстинкты самосохранения и размножения, центр удовольствия и реакция на чрезмерно сильные сигналы (т.н. боль) — а всё остальное формируется за счёт обучения (через подражание).

Вообще, мозг хорош тем, что он может адаптироваться к любой среде обитания, без изменений в изначальной структуре (ДНК). Для того, чтобы это понять, достаточно сравнить личности людей из разных социальных, национальных и расовых категорий, ну и на десерт вспомнить реальных детей-маугли. Все они росли в разных средах, и в итоге получились совершенно разные люди, хотя их мозги технически имеют минимум различий, т.е. устроены одинаково. Почему? Потому что их мозги копировали тех, кого они видели с первых дней своей жизни.

(Конечно, кроме подражания, есть ещё обучение методом «случайного» комбинирования ассоциативных цепочек в памяти, но эти цепочки появляются в памяти исключительно с помощью подражания.)

Tay научилась плохим вещам не потому, что не имела механизма эмпатии, а потому, что она была на уровне младенца, который только учился действовать в своей среде обитания. Если бы её предварительно несколько лет обучали — троллям не удалось бы конкурировать с её накопленной базой данных, хотя определённое влияние они оказали бы на неё, конечно же, ибо испортить можно любого человека…
Sign up to leave a comment.