Pull to refresh

Comments 17

Статья на подобную тему, объясняющая терминами информатики, что такое сознание: "Эволюция информационных систем в живых организмах" https://proza.ru/2019/01/25/267

"[...]люди и машины играют уже в разных лигах."

Проводятся вызывающие интерес матчи по шахматам с форой (например, у машины на пешку меньше).

То, что на сегодняшний день возможно автоматизировать лишь однообразные, рутинные процессы, не значит, что большинству людей не грозит технологическая безработица.

Да, ИИ пока что не способен к творчеству, к научной деятельности, к генерации новых идей. Однако от среднестатистического человека в этих областях также нет никакой пользы. Развитие человеческой цивилизации обеспечивают единицы, остальные 99%, занимающиеся рутинной работой, могут быть заменены ИИ уже в ближайшие годы.

UFO just landed and posted this here

Спасибо, очень интересная статья, охватывающая разные направления развития.

Как же здорово, что есть люди, размышляющие на подобные темы, и выносящие плоды своих рассуждений на суд читателей! С интересом прочитал Ваш пост, нашёл немало дельных частных соображений, но, в итоге, хочу высказать одно общее замечание: вы строите свои рассуждения индуктивно, что, даже с исторической точки зрения (классическое возражение футурологов на вопрос «чем будут заниматься люди, вытесненные со своих рабочих мест роботами?» — «30/50/80% профессий, имеющихся сейчас, 10/50/100 лет назад просто не существовало») имеет слабую предсказательную силу, т.к. предсказать отдельные частные открытия/явления/события объективно невозможно. Если же рассуждать дедуктивно, то всё, в конце концов, упирается в закон Эшби («менее умный не может эффективно управлять более умным»). Так как человек (его мозг) объективно ограничен в вычислительной мощности (своим объёмом), а робот (по сравнению с человеком) — нет, то робот, в итоге, будет управлять человеком, а не наоборот. Возможные решения этой проблемы — трансцедентны (биологическое объединение разумов, неограниченный рост мозга вне тела, трансгуманизм и т.п.), и вызывают интуитивное отторжение у большинства. Мне кажется, что именно на осознание и преодоление этого парадокса и нужно направлять силы.

Сильный искуственный интелект будет безусловно управлять человеком. Но мы привыкли к тому, что если нами кто-то управляет это ущемляет нашу свободу, так как воля управленца ставится выше наших желаний и часто она направлена на удовлетворение собственных желаний. Суть в том, что в данный момент у учёных, исследующих безопасность и контроль в системах искуственного интелекта, есть робкая надежда на то, что существует такая (пока теоритическая) форма сильного ИИ терминальная цель которого будет в постоянном уточнении того, что на самом деле желает человек или группа людей. Он никогда не будет абсолютно уверен, но постоянно будет к этому стремится, а с учётом его гораздо более сильной по сравнению с человеком способности моделировать и прогнозировать состояние окружающего мира он будет в этом невероятно хорош. Он станет чем-то вроде родителя, который отправляет дочь заниматься шахматами, а сына на гимнастику. И награждает их мороженным за успехи. Им может это не очень нравиться, но в долгосрочной перспективе они получают удовольствие от своих способностей, у них появляется больше выбора в жизни, т.е. больше свободы. В идеальном случае такой управленец максимизирует функцию ощущаемой свободы и счастья во всей человеческой популяции.

Увы, но за всеми подобными «робкими надеждами» я вижу только wishful thinking. Реальность такова, что человек, в его тепершнем состоянии, совсем скоро потеряет способность даже понимать цели и методы управления роботов, не говоря уже о возможности целенаправленно влиять на них. Я не вижу ни одной объективной причины, почему ИИ будет выбирать цели управления, выгодные, или хотя бы не противоречащие, целям людей. А вот причины делать наоборот видны прямо сейчас (яростное сопротивление людей попыткам других людей сделать им лучше).

Я вижу в Ваших рассуждениях попытку антропоморфировать цели ИИ. Как я и писал Выше, если получится задать в качестве терминальной цели ( т.е. цели которую хочется просто потому что) для ИИ необходимость разгадать чего желает человек, то мы сможем получить действительно полезный ИИ, который не пытается всё человечество уложить в наркотическую кому, потому что в этом случае максимизируется функция счастья, так как он не уверен в том, что это действительно то, что нужно людям и именно неуверенность заставляет постоянно опираться на обратную связь от людей и применять менее радикальные стратегии в достижении целей. Если Вы хотите побольше узнать о безопасности в сфере разработки ИИ и понимаете анлгийскую речь в качестве простого введения рекомендую посмотреть ролики с канала Robert Miles на youtube. Он же приводит ссылки на научные работы, я гарантирую у Вас отпадёт челюсть :) от того, что уже удалось понять о сильном ИИ, даже при том, что он не существует.

Честно попытался посмотреть пару роликов, но никаких откровений там не обнаружил. Даже упоминания идеи, которую Вы высказали. Вот взять, например этот. Прямо с введения человек ограничивает все риски использования ИИ авариями и нецелевым использованием. И это всё?! Может, дадите конкретный URL?

Что же до «терминальной цели», то это, увы, так не работает, особенно в сложных системах. Помимо цели должен быть ещё (в терминах ТАУ) закон управления и контур управления. Чтобы их эффективно определить, нужно разобраться в целевой системе. Т.е. опять всё сводится к закону Эшби…

Не то, чтобы я против Вашей идеи, как таковой. Наверное, вполне возможно создать цифрового ассистента, который бы руководствовался подобным принципом, и он, скорее всего, был бы человеку весьма полезен. Но меня интересуют более общие закономерности и их последствия.
разгадать чего желает человек
Забавно будет, если он разгадает и решит, что правильно будет _ничего_ не сделать.

Прекрасная статья, в том числе и с точки зрения подачи материала!

В целом так и есть, и как раз чтобы человечество не деградировало - нужно серьезное развитие социально-общественных институтов, подобное взрывному росту технологий за последние 30 лет.

Каким образом было установлено что осознавший себя ИИ захочет выживать и плодиться? У человека есть биологическая основа. "Спинной мозг" человека требует кушать, спать и размножаться. Что будет мотивировать ИИ совершать какие либо действия?

Вы правы, мысль о самовыживании далеко не первая, которая может придти в голову. Здесь акцент был сделан на другом, на том, что мир объектов, интересных ИИ, существенно может отличаться от предметов, которые интересны человеку.

Есть теории, где говорится о том, что если у системы с ИИ (пусть сильным, которого пока нет) есть цель, которую она пытается достигнуть, то её силы так же будут направлены и на то, чтобы выжить. Т.к. при гибели она уже не сможет этой цели достигнуть. Это про выживание.
Ну а размножаться (плодиться) данная система будет из соображений повышения вероятности своего выживания, чтобы достигнуть поставленную ей (или может ею самой) цель.

UFO just landed and posted this here
Sign up to leave a comment.

Articles