Обновить
Комментарии 132
НЛО прилетело и опубликовало эту надпись здесь
Влажность поста сильно повышена :)
Сильный ИИ — слабый человек.
Чем больше мы полагаемся на ИИ, тем меньше мы полагаемся на нативный интеллект. Каким бы совершенным не был ИИ, он никогда не достигнет возможностей интеллекта человеческого. Человеческий интеллект имеет огромный потенциал. Только не выгодно никому вкладывать деньги в образование и развитие интеллекта. Умные и способные люди — самая большая угроза для государств и корпораций. Лучше иметь стадо тупых баранов, которые не могут и 2+2 сложить без калькулятора. Такое стадо легко контролировать. Сила разума — способна производить любые действия. Но, эти способности необходимо развивать. А это тяжело. Но проще пользоваться услугами ИИ.
Так недалеко и до замены мозга на искусственный.
> Так недалеко и до замены мозга на искусственный.

И это хорошо — если софт мозга, разумеется, будет перенесен в целости и сохранности:). См. проект 2045.
Умные и способные люди — самая большая угроза для государств и корпораций.

Не факт. Возможно умные и способные ИИ будут ещё большей угрозой и для государствами с корпорациями (решат, например, что частная собственность и национальные правительства не эффективны) и для человечества в целом (решат, что человечество неэффективно в целом).
НЛО прилетело и опубликовало эту надпись здесь
У нас есть 15-тилетний опыт работы в области создания систем специализированного ИИ, которые были внедрены в продукты (как программные, так и аппаратные) нескольких корпораций. Опыт прикладных разработок сопровождался их обобщением в форме теоретических исследований. Наш взгляд на проблему сильного ИИ — результат всей этой деятельности.
НЛО прилетело и опубликовало эту надпись здесь
Боюсь, об этих разработках мы не можем рассказывать из соображений корпоративной этики. Но, спасибо, мы над этим все же подумаем.
Знаете, пишут был такой Мах, Эрнст — философ. Вот он философствовал, философствовал, философствовал, философствовал, да создал какую-то там методологию (да какая нам к черту разница чё он там фолосовствовал, чё за методологию выдумал, ведь «никакие философствования...», да?). И как бы внезапно на основе этой методологии всякие Вернеры Гейзенберги создают квантовую механику. Некоторые утверждают, что не было бы Маха не было бы и квантовой механики, но это они наверное преувеличиваю.
НЛО прилетело и опубликовало эту надпись здесь
«И практики… было предостаточно.» Несомненно, исключительно «практика» помогла Маху придти к, например, мысленному эксперименту . И вообще, противопоставление «философии» и «практики» абсурдно. Может вы имеете в виду то, что иногда характеризуют как «схоластическое».
НЛО прилетело и опубликовало эту надпись здесь
Пенроуз. Новый ум короля. Тому определению «сильного ИИ» я больше доверяю: сторонники сильного ИИ считают, что мышление и сознание можно реализовать алгоритмическим путем. Непонятно, что автор статьи понимает под термином «слабый ИИ» — просто плохие устаревшие алгоритмы?
Сильный ИИ — это ИИ, обладающий теми же когнитивными функциями, что и человек. Слабый ИИ — это (в том числе современные) системы, решающие конкретные интеллектуальные задачи и не обладающие соответствующими когнитивными функциями. Удобнее, конечно, говорить об универсальном и специализированном ИИ (вместо сильного и слабого), чтобы не спорить о том, будет ли та или иная система иметь истинное понимание, чувства и т.д. Мы, однако, считаем, что универсальный ИИ можно реализовать алгоритмическим путем, и даже знаем, в каком направлении для этого нужно двигаться. Пенроуз же неправильно применяет теорему Гёделя и из неверной посылки выводит массу неправильных следствий, но это отдельная тема для обсуждения…
И в каком же направлении двигаться?
Об этом мы и надеемся рассказать в последующих публикациях. В рамках комментария на такой вопрос дать ответ невозможно.
> Пенроуз же неправильно применяет теорему Гёделя
Можно с этого момента поподробнее?
Ну это уж, простите, просто странно — приводить подобные рассуждения. Алгоритм — это вообще не формальная система, это выражение, определенное в некоторой формальной системе. Машина Тьюринга — формальная система, и как любая ФС неполна по Геделю. Программа также не формальная система, а выражение в некой ФС. Все операции программы ПО ОПРЕДЕЛЕНИЮ известны и их множество конечно, неформальных программ в природе не существует. И то, что она обрабатывает данные из внешнего источника не делает программу неформальной. Разве программа распознавания номеров авто через веб-камеру неформальна? И для ее работы, для формализации ее действий, не требуется «формализовать весь мир». Высказывание «программа, действующая в реальном мире, не является формальной системой» бессмысленно даже если к терминологии не придираться.
Углубляться в спор об определениях, действительно, не хочется, но все же криминала в том, чтобы называть алгоритм формальной системой нет. Здесь вопрос лишь в том, отделять ли алгоритм от интерпретирующей его машины или нет. Поскольку машина Тьюринга (по-вашему являющаяся ФС) является формализацией понятия алгоритма, то и алгоритм (например, в форме МТ, является ФС).
Теперь ближе к существу.

Машина Тьюринга не «по-моему» является ФС. Машина Тьюринга и была изобретена для формализации понятия алгоритма, также как и Нормальная Форма Маркова, и машина Поста, и другие ФС. Вы можете в этом убедиться просто взяв определение машины Тьюринга и сопоставить его с определением формальной системы.
Допустим, мы не разделяем понятия интерпретатора и алгоритма. Если речь идет о сильном ИИ как о некоторой программе, обладающей Тьюринговой полнотой, то есть способной решить любую алгоритмически разрешимую задачу, следует помнить, что сама эта программа носит формальный характер. Значит, в силу теоремы Геделя, в рамках формальной системы, в которой задана эта программа, найдутся задачи, не разрешимые в рамках этой формальной системы (прошу простить мне некоторую вольность в определениях). Тогда мы приходим к противоречию:
1. Существует программа, решающая любую задачу в заданной формальной системе
2. Существуют задачи, неразрешимые в рамках заданной формальной системы
Спасибо, определение машины Тьюринга мы знаем. «По-вашему» было добавлено для того, чтобы Вы сами согласны со своим утверждением.
Вы продолжаете апеллировать к тому, что «программа носит формальный характер», без обоснования этого тезиса и игнорируя просьбу дать формализацию программы, выполняемой на реальном компьютере. Можно ли это понимать так, что, Вы ее дать не можете?
Давайте возьмем совсем простой пример. Пусть программа запускается на двух одинаковых процессорах. Эта программа выставляет семафор, и если ее копия не успела этого сделать, то печатая ноль, иначе — единицу. Когда обе копии программы выставили семафоры, они сбрасываются, выполняются фиксированные вычисления и процедура выставления семафоров повторяется. В итоге программа напечатает последовательность нулей и единиц. А теперь вопрос — какую последовательность она напечатает? На основе какого формализма Вы пришли к своему заключению? Как «алгоритм» может напечатать строку, алгоритмическая сложность которой больше сложности самого алгоритма?
Ну, или другой пример: анти-гёделевский парадокс. Пусть человек неалгоритмичен и умеет решать алгоритмически неразрешимые проблемы. Такой человек сидит привязанным в подвале, а анти-геделевский робот сидит в офисе, и ему дают алгоритмически неразрешимые задачи. Робот идет в подвал и пинает человека до тех пор, пока человек не согласится дать ответ на поставленную роботу задачу. Робот несет решение и предоставляет его в офисе. Очевидно, алгоритмический робот в итоге будет выдавать решения алгоритмически неразрешимым задачам. То, что робот это делает «не сам», не имеет значения. Ведь робот же формален, и он этого не может делать в принципе. Значит, пришли к противоречию. Значит, либо человек не может решать алгоритмически неразрешимые задачи, либо робот, действующий в реальном мире неформален (а тогда уже не так важно, получает ли он нужное решение от человека или каким-то другим образом, главное, что он может это делать).
> Можно ли это понимать так, что, Вы ее дать не можете?
Отчего же? Извольте.
Алгоритм — двусортное множество <M, R>, где M — множество правил решения задачи, обладающих свойствами массовости, детерминированности, результативности, элементарности, R — бинарное отношение на множестве MxM, (r1, r2) принадлежит R, если после процедуры r1 выполняется процедура r2.
Программа — запись алгоритма, где множество M определяется исполнителем.

Это определение программы.
Далее. «Давайте возьмем совсем простой пример ...» и т.д. Вы совершенно не разделяете понятия программы и вычислительного процесса. Протекание ПРОЦЕССА определяется КОНКРЕТНЫМИ данными в КОНКРЕТНЫЕ моменты времени. Программа определяет, КАК реагирует процесс на определенные данные. Не надо путать кислое с длинным. Если мы говорим о вычислительных процессах — их можно рассматривать как случайные процессы, поскольку влияющих факторов слишком много. Но это НЕ ЗНАЧИТ, что программы не формальны.
То есть Вы всю неформализуемость списали на случайность. Очень «сильный» ход… То есть Вы просто взяли, и описали весь внешний мир как источник случайных данных. Вы, похоже, реально не понимаете своей ошибки. Жаль, что и не хотите понимать.
Понятие случайности обычно и вводится, чтобы формализовать, строить формальные МОДЕЛИ сложные объекты и процессы реального мира. Я и не собирался формализовывать вычислительные процессы — это Вы начали, путая их с программами. Программа не является объектом реального мира — это абстракция. В некотором отношении это модель вычислительного процесса (хотя подобное высказывание не совсем корректно). Пока Вы не научитесь разделять понятия выч. процесса и программы, модели от объекта реального мира, Вы не поймете ни своей ошибки, ни того, о чем говорит Пенроуз.
Нет, мы ничего не путаем. Путаете Вы. Скажите программистам и пользователям, что программы не являются объектами реального мира. Их нельзя компилировать и запускать, поскольку это всего лишь модели. Пока Вы не научитесь отличать алгоритма от программы, модели от реального объекта, Вы не поймете, о чем мы говорим, и в чем заблуждается Пенроуз.
Вы снова путаете понятие объекта и модели. Компиляция — процесс преобразования одной последовательности символов в другую. Программисты могут с пеной у рта доказывать, что труд их деятельности реален — но физически это не более чем набор символов. Я-то как раз умею отличать алгоритм от программы и от выч. процесса. И модель от объекта. Программа — это модель, уважаемый.
Ага, и модель может запускаться на физически существующем компьютере и управлять физически существующим роботом, который может дать по шее нерадивому математику. Но математик не обидится, ведь это же всего лишь модель, поэтому не очень-то и больно.
Ваш анти-гёделевский парадокс — это уж совсем чушь. Алгоритм именно РОБОТА:
1 Подойти 2 Дать условие 3 Попинать 4 Взять решение 5 Отнести.
Где здесь алгоритмическая неразрешимость, которую разрешил робот?
Он дает правильные ответы на алгоритмически неразрешимые задачи. Где здесь чушь?
Он (робот) — не дает. Робот отрабатывает вполне формально заданный алгоритм. Вы же сами говорите — алгоритмически неразрешимую задачу решает именно ЧЕЛОВЕК. Другой исполнитель. Точно также мне может в компьютерной модели понадобиться значение случайной нормально распределенной величины и я возьму ее, скажем, с болтающегося проводка платы. Но это же не сделает мой алгоритм неформальным! Я просто буду рассматривать операцию «поучить значение н.с.в.» как элементарную
Почему же не дает?! У него на входе задача, на выходе — ответ! Но по теореме Гёделя мы точно знаем, что такого быть не может! Это же чистейший парадокс.
Для него сам процесс получения решения — элементарное действие (смотрите определение выше). Поэтому и сама задача алгоритмически разрешима. Этому теорема не мешает. Тут очень тонкий момент (придержите сарказм). Множество элементарных действий может выбираться, в принципе, произвольно. Если мы, например, вводим некоторое устройство, способное моментально вычислять значение некоторой, возможно даже невычислимой, функции (такой трюк давно известен в теории алгоритмов под названием оракул), то вычисление этой функции можно считать элементарным действием. Тогда задача алгоритмически разрешима. Но если мы поручаем такую задачу исполнителю — то есть пытаемся построить алгоритм ее решения, что по определению невозможно — то и задача становится алгоритмически неразрешимой. И в этом нет никакого парадокса.
Раз уж Вы сами вспомнили про машины с оракулом, то поймите, что этот же трюк можно применить и к «невычислимым» системам. Это просто следует из того, что никакая система не может быть сложнее самой себя. И человек в том числе. Поэтому-то опора на алгоритмически неразрешимые задачи и бессмысленна. В равной степени можно ввести и «божественно» неразрешимые задачи: ни один бог не может поднять камень, который сам создал неподнимаемым. Теорема Гёделя, в действительности, неспецифична формальным системам.
Так в этом-то вся и соль! В выборе опорного множества операций. И Ваш «божественный» парадокс — именно следствие ограниченности формальной логики как формальной системы. Поэтому бессмысленно пенять на возрастающие объемы памяти и вычислительной мощности. Мощность-то растет — БАЗИС не меняется, следовательно, множество алгоритмически неразрешимых проблем тоже.
Так никто не сказал, что эти проблемы нужно решать. Человек не умеет точно решать даже разрешимые NP-полные проблемы, а от ИИ хочет решения алгоритмически неразрешимых, чего сам не умеет. А вот приближенное решение алгоритмически неразрешимых проблем алгоритмическими средствами вполне возможно.
Возможно (P ?= NP не трогаем). Но КАК строить это решение? Именно ПРИБЛИЖЕННОСТЬ и не описывается алгоритмически. Есть способы ПРИБЛИЖЕННОГО решения коммивояжера. Но это НЕ алгоритмическое решение задачи. Мы считаем, что полученное неким алгоритмом решение близко, приближенно соответствует истинному решению. Но ПОЧЕМУ мы так считаем, в рамках теории вычислений НЕ ОПИСЫВАЕТСЯ. Нет формального определения этой БЛИЗОСТИ. Поэтому и программы, способной породить алгоритм, нет
Формального нет, прагматическое есть. И тут мы опять приходим к воплощенному ИИ, взаимодействующему со внешним миром. Для него эта проблема решается элементарно.
Вы так мило уперлись в воплощенный ИИ. А КАК Вы его воплотите. Где чертеж возьмете?
Мы не уперлись. Мы как раз двигаемся дальше. А вот Пенроуз уперся и не видит, что все его проблемы давно решены…
Кстати, о движении дальше; к сожалению, данный разговор ему не способствует, так что придется на этой оптимистической ноте его все же прекратить.
(Чтобы не было обидно: мы с Вами полностью согласны и признаем все свои ошибки!!!)
Тогда требую в следующей части публикации представить конкретные, алгоритмические или методологические решения проблем, поднятых Пенроузон. Можно прям в формате «проблема-решение».
Еще раз: мы с Вами полностью согласны, но мы продолжим следовать неправильному пути, чтобы зайти в тупик и потерпеть полную неудачу! Поскольку наш путь неправильный, мы не можем даже думать о том, чтобы представлять решения поднятых Пенроузом «проблем», так что мы не будем рационально использовать наше время на то, чтобы заняться столь полезным делом, как решение проблем Пенроуза, а продолжим тратить время на бесполезное создание алгоритмического ИИ.
> элементарно
как? только не говорите, что из внешнего мира возьмете, как будто оно там валяется бесхозным.
Вы можете предсказать движение робота, управляемого программой, получаемой информацию с видеокамеры? А Вы можете предсказать, какую программу создаст компилятор, входными данными к которому формирует программист? А Вы можете предсказать работу программы, выполняемой на компьютере, который может случайно вырубить уборщица, зацепив шваброй за шнур питания? Машина Тьюринга, по определению, имеет входную ленту со статическими данными. Для программы, взаимодействующей с внешним миром, такая формализация просто неверна. Приведите формальную систему, описывающую действия такой программы так, чтобы относительно ее работы можно было делать формальные заключения, я с Вами соглашусь. Но еще раз: называть реальную программу формальной системой столь же бессмысленно, сколь и отождествлять, скажем, реальный автомобиль с его чертежом.
Да возьмите просто определение из вики: «Формальная система — это совокупность абстрактных объектов, не связанных с внешним миром, в котором представлены правила оперирования множеством символов в строго синтаксической трактовке без учета смыслового содержания, то есть семантики.» и попробуйте его применить к программе управления роботом. Робот «учитывает» то, что данные поступают именно с камеры? «Учитывает» ли он то, что управляет движением в физическом пространстве? Если нет, то почему он не врезается в препятствия? Обычная процедурная семантика. Но, главное, еще раз повторюсь, программа, в реальном времени взаимодействующая с внешним миром, не укладывается в формальные определения алгоритма. И чтобы формализовать работу такой программы, Вам придется формализовать ее вместе с миром. Нравится Вам это или нет.
1. Да, если мне известен алгоритм и входные данные
2. Да, см. 1
3. Да, см. 2
Вы неверно интерпретируете понятие машины Тьюринга, представляя ее чем-то реально существующим. Это всего лишь абстрактная модель. Для этой модели совершенно бессмысленно говорить о «статичности» данных на ленте. Они не статичны и не случайны. Эта лента просто есть. Применяя эту модель к объектам реального мира, можно считать данными на ленте то, что вводится с клавиатуры пользователем, то, что получается с random.org, с видеокамеры, из файла или откуда угодно еще. Но СТРУКТУРА машины, АЛГОРИТМ обработки данных одинаков и от этих данных НЕ ЗАВИСИТ. Поэтому и является критичной Ваша ошибка об отождествлении программы с формальной системой. Программа — не формальная система. Это выражение, высказывание в некоторой формальной системе. Программа есть просто алгоритм, записанный на понятном исполнителю языке. И алгоритм ФОРМАЛЬНЫЙ ПО ОПРЕДЕЛЕНИЮ. Вы правы бессмысленно говорить о том, что программа является формальной системой — и я так НЕ говорил.
> программа, в реальном времени взаимодействующая с внешним миром, не укладывается в формальные определения алгоритма
А что тогда представляет собой эта программа, если не ФОРМАЛЬНУЮ запись ФОРМАЛЬНОГО алгоритма?
Это как раз Вы неверно интерпретируете понятие машины Тьюринга, представляя ее чем-то реально существующим, потому что отождествляете ее с реально функционирующей программой.
Структура программы может меняться в ходе взаимодействия с внешним миром. Неучет этого и является Вашей критической ошибкой.
Реально выполняемая программа не является «просто алгоритмом». Вы проигнорировали все просьбы дать точное определение реально исполняемой программы…
> Структура программы может меняться в ходе взаимодействия с внешним миром
Уточните как. Мановением волшебной палочки?
Насчет 1 — здесь Ваше главное заблуждение. Входные данные получаются в процессе взаимодействия робота с внешним миром. Вам не могут быть известны входные данные априорно.
Входные данные ПРОЦЕССА получаются в ПРОЦЕССЕ. Но реакция на них четко определена АЛГОРИТМОМ. Данные могут быть не известны, но реакция на них должна быть явно определена
Да, пожалуйста. Но это не отменяет того факта, что такая система уже не является формальной.
Вы меня не слышите. Вычислительный процесс — это ПРОЦЕСС. Процесс не может быть формальным или не формальным, к нему подобная классификация неприменима. Но этот процесс протекает в соответствии с ПРОГРАММОЙ. А вот программа ФОРМАЛЬНА.
Интересно, и кто Вам сказал, что процесс не может быть формальным?
Ну, хорошо, пусть даже так. Тогда ИИ как процесс не может быть формальным, и к нему, значит, неприменима теорема Гёделя.
> Интересно, и кто Вам сказал, что процесс не может быть формальным?
Некто БСЭ. Формальной может быть модель процесса.
ИИ — не процесс. КОНКРЕТНЫЙ ИИ — да, возможно. Как процесс мышления. Но ИИ как понятие, как сущность, как предмет исследования — это не процесс. У него нет протяженности во времени. Если Вы рассматриваете ИИ как некую программу — а именно так Вы рассуждаете о нем в статье — то здесь как раз применима теорема Гёделя и прав Пенроуз, а не Вы. Потому что если мы говорим о программе, на основании которой строится вычислительный процесс, то упираемся в тезис Черча о том, что множество вычислимых функций совпадает с множеством частично-рекурсивных функций, которое описывается как формальная, следовательно, неполная система.
Замечательно! Модель процесса может быть формальной. Модель ИИ может быть формальной. Но сам воплощенный ИИ не может быть формальным. Это следует из Ваших слов, и это именно то, с чем Вы пытаетесь спорить.
Ну не имеет смысла применять понятия «формальный-неформальный» к объектам реального мира. Просто не имеет. Речь идет о СОЗДАНИИ нового искусственного объекта. Тем более, о создании программы — объекта абстрактного, идеального. Автомобиль, если Вам угодно, не является формальным, но чертеж-то его является. Проблема ИИ, да и науки в целом, не в том, чтобы один раз получить что-то непонятно как, а в том, как целенаправленно создать что-то (в данном случае программу) с заданными свойствами.
С этим никто не спорит, но главный вывод из этого заключается просто в том, что ИИ не может создаваться как замкнутая система, от которой требуется совершить останов за конечное время. То есть не надо городить огород о неформализуемых физических процессах, достаточно сказать, что из теоремы Гёделя следует, что ИИ должен создаваться как открытая (воплощенная) система. Только и всего!
Я только прошу не понять меня превратно. Я отнюдь не являюсь противником идеи о создании сильного ИИ. Но говорить о том, что Пенроуз неверно применяет теорему Гёделя — по меньшей мере бестактно в отношении математика такого уровня. В «Новом уме короля» определение и применение, безусловно, не безукоризненно — но это ведь популярная литература, но врятли стоит считать, что Пенроуз не знает, что делает.
Вроде, в «Новом уме короля» он говорит о том, что квантовые вычисления в мозгу решают NP-полные задачи за полиномиальное время, а в «Тенях разума» он признает, что ошибался и уже говорит о невычислимости квантовомеханических процессов. Если он ошибался в одной книге, почему не может ошибаться и в другой? Чего здесь бестактного? Бестактно, по-моему, вводить в заблуждение читателя путем словесной эквилибристики и на основе своего авторитета, приписывая реальным системам ИИ свойство формальности, чтобы доказать свою гипотезу. Нельзя сказать, что его гипотеза однозначно неверна, но она вовсе не столь обоснованна, как он пытается показать.
А я и не утверждаю, что рассуждения Пенроуза безукоризнены. Но в том, что для создания сильного ИИ требуется другой подход, я с ним согласен. Вообще, честно сказать, не уверен, что имеет смысл применять понятия алгоритмической сложности к решению задач человеком — это разные материи. В повседневной жизни мы решаем частные задачи (точнее, экземпляры задач) неформальными методами, но не строим универсальные пути решения задачи в общем виде.
В том, что у Пенроуза много эквилибристики — согласен целиком и полностью. Но теорему Гёделя он применяет вполне обоснованно. Другое дело, что он идет дальше и пытается доказать невозможность сильного ИИ в принципе. Вот в этом наши с ним мнения расходятся
> называть реальную программу формальной системой столь же бессмысленно, сколь и отождествлять, скажем, реальный автомобиль с его чертежом
здесь Вы явно путаете программу с вычислительным процессом. Программа — это и есть чертеж вычислительного процесса
Вы явно преувеличиваете свои способности к телепатии.
Ну, хорошо, является ли вычислительный процесс формальным? Может ли вычислительный процесс быть реализован на компьютере? Может ли искусственный интеллект быть реализован как вычислительный процесс? К чему из всего этого применима теорема Гёделя?
Нет. Вычислительный процесс является СЛУЧАЙНЫМ. Но для ИИ необходимо описывать ПРОГРАММУ, СТРУКТУРУ процесса, а не конкретный процесс
То есть вы уже пошли на уступки и ввели понятие случайности, отсутствующее в формализме машины Тьюринга. Осталось признать, что тупо формализовать внешний мир как случайный процесс — плохая идея, и Вы с нами!
Да нет же, уважаемый. Я рассматриваю именно ПРОЦЕСС как случайный. Не потому что он действительно случайный, это вопрос философский, а потому что на его фактическое протекание влияют многочисленные факторы вплоть до фазы Луны и погоды на Марсе. Это значит, что я не могу определенно предсказать ОПРЕДЕЛЕННЫЕ характеристики этого процесса, например, точное время выполнения какой-либо инструкции. Но я МОГУ совершенно точно сказать, какой РЕЗУЛЬТАТ будет получен в результате его выполнения, если мне будут точно известны все полученные им данные. Это и есть формальность ПРОГРАММЫ.
Так под этим и подразумевалось, что для формализации процесса выполнения программы, взаимодействующей с миром, требуется весь этот мир формализовать. Пост фактум и о действиях любого человека можно сказать, что они такие уже такие, какие были. И если мы в точности воспроизведем все условия, мы получим такой же результат, а любые отклонения будут описываться случайными отличиями. При желании и внутрь программ можно ввести истинную случайность (трактуя ее не как внешнюю, а как внутреннюю), и программа будет недетерминированной. В чем же будет принципиальная разница по сравнению с человеком?
Разница в следующем. Программа описывается в некоторой формальной системе (по определению). Данная система, будучи ФС, неполна по Гёделю, следовательно, некоторые задачи в этой ФС заведомо не смогут быть решены. Здесь даже не важно, меняется ли сама программа (мне, честно говоря, не известен мат. аппарат изменения (рефлексию таковым не считаем) именно программы, но допустим, что он есть) — все изменения также будут приводить к выражению в той же формальной системе, а значит, некоторые задачи так и не смогут быть решены. Для их решения потребуется перейти к ФС более высокого порядка — но в этом-то и парадокс, ввиду ограниченности программы, ФС, в которой она записана, она самостоятельно такой переход осуществить не сможет.
Да, эти сомнения вполне понятны. Но дело в том, что теорема Гёделя — это математическая теорема (извините за банальность). Когда она применяется нестрого в методологических рассуждениях, есть шанс сильно ошибиться. А именно так она и применяется к «вычислительным процессам». Здесь уже начинается не строго научный, а философский спор. Умеет ли человек решать алгоритмически неразрешимые задачи? Покажите человека, способного для абсолютно любого алгоритма абсолютно достоверно установить, при любых ли данных он остановится, и Вам поверят, что люди такие задачи решать умеют. Но таких людей пока не было. Да, люди могут создавать разные формальные системы. Но никто не сказал, что они это делают «неалгоритмически» (точнее, путем применения невычислимого процесса). Человек может насочинять много формальных систем, но выбор, какие ему из них нравятся, он делает на основе опыта, то есть входных данных. Тьюринг-полная система тоже может порождать произвольные формальные системы (и в этом, кстати, и заключается необходимость того, чтобы сильный ИИ строился как алгоритмически-универсальная система) и выбирать из них на основе своего опыта. Написать программу, генерирующую разную аксиоматику, не так сложно.
Таким образом, если теорему Гёделя не признавать за математически строгое обоснование ограниченных возможностей вычислительных процессов, то видно, что разница между человеческим мышлением и программами может быть очень размытой.
Не согласен с Вами по ряду пунктов.
Во первых, теорема Гёделя математическая (другого рода теорем не знаю), но и применяется она и Пенроузом, и мной к математическим объектам — алгоритмам и программам. В данном случае всё строго. В этом-то всё и дело — проблема создания именно программы, которая отвечала бы свойствам сильного ИИ математически неразрешима. Увы.
Не думаю, что есть люди, способные решать алгоритмически неразрешимые задачи в общем виде. Я не люблю уходить в метафизику и исхожу из того, что идеальное — это перенесенное в мысленный план материальное, то есть если человек может решать задачу в общем виде, значит алгоритм существует, значит задача разрешима алгоритмически. Мне, может, и поверят, но это будет преступлением против истины.

Тьюринг-полная система не может порождать только более слабые формальные системы. Опять же, ввиду собственной неполноты. Это легко доказать.
Допустим, что ФС A может породить ФС B, более сильную, чем она сама. Это значит, что A входит в B (все выражения в A выводимы в B). Тогда в B существуют выражение r из A, недоказуемое в A, но доказуемое в B. Следовательно r выводимо в A через вывод B, что противоречит исходному положению.
Если мы говорим о программах и алгоритмах, то, увы, должны считаться с такими понятиями, как тезис Тьюринга, тезис Черча и алгоритмическая неразрешимость. И, как не печально, с теоремой Гёделя. Пока не найдем физического механизма решения алгоритмически неразрешимых задач, математика нам не поможет. Либо надо опровергать основные тезисы и строить новую теорию.
Да, к математическим объектам данная теорема применима, но она Пенроузом (и Вами) применяется к нематематическим объектам.

Ничего более сильного, чем алгоритмически полные системы, нам для сильного ИИ не нужно, поэтому рассуждать о порождении ФС А более сильной ФС В не надо. (и вообще, само понятие истинности — это частность...)
> применяется к нематематическим объектам
Применяю только к алгоритмам и программам. К вычислительным процессам не применяем ни я, ни Пенроуз. Но вычислительные процессы отрабатывают алгоритм. Если алгоритм не обладает свойствами сильного ИИ, то ими не будет обладать и отрабатывающий его выч. процесс.

> рассуждать о порождении ФС А более сильной ФС В не надо
Что должен делать полноценный сильный ИИ. Выдвигать гипотезы должен? Решать неизвестные ранее задачи, доказывать теоремы должен? порождать произвольные формальные системы, строить математические теории должен? Но эти задачи неразрешимы в базисе частично-рекурсивных функций!
Какие «эти задачи»? Выдвигать гипотезы — может, доказывать теоремы — может, порождать произвольные формальные системы — легко (программа, которая перебирает все формальные системы в форме их символьных записей, элементарна; вопрос лишь в выборе; а выбор уже неформален, так как определяется взаимодействием с внешним миром). Давать общее решение алгоритмически неразрешимых задач, да, не может. Но этого не может и человек.
Приведите мне пример хоть одной программы, которая выдвинула новую математическую теорию. Или гипотезу, не сводящуюся к экстраполяции. И не путайте формальную систему с ее символьной записью. Символы перебрать можно (в теории) — у этих символов не будет денотата.
А у вас есть много непосредственно знакомых людей, которые выдвинули новую математическую теорию? Не многого ли Вы уже хотите от еще не созданного сильного ИИ?
Наличие денотата, опять же, разрешается в рамках воплощенного подхода.
У меня — да, есть. И техническую. И нет, хочу не много, всего лишь говорю о принципе — а в принципе для ИИ хотя бы теоретически решение этих задач должно быть доступно
Огворился. Тьюринг-полная система может порождать
>В то же время, из ученых мало, кто действительно сомневается в том, что такой сильный ИИ в том или ином виде может быть создан.
Весьма смелое утверждение…
>Если какие-то возражения и звучат, то они имеют религиозных характер, апеллирующий к наличию у человека нематериальной души.
Подождите, а как же теорема Геделя?

Теорема Гёделя применима только к формальным системам. Воплощенный ИИ такой системой не является в принципе, и теорема Гёделя к нему неприменима.
Воплощенного ИИ не существует и благодаря работе Геделя доказывается почему этого никогда не случится.

С этой точкой зрения можно соглашаться, а можно и нет. Но тем не менее ее поддерживает большое количество ученых, а вы сознательно вводите читателей в заблуждение: «В то же время, из ученых мало, кто действительно сомневается в том, что такой сильный ИИ в том или ином виде может быть создан.» Да еще и религию сюда приплетаете…
Во-первых, понятие воплощенного ИИ является стандартным и подразумевает интеллектуальные системы (не обязательно сильный ИИ), взаимодействующие с внешним миром через сенсорику и моторику. Такие системы существуют и в большом количестве.
Во-вторых, то, что теорема Гёделя что-то там опровергает относительно возможности создания ИИ, — это заблуждение. С точкой зрения не надо соглашаться или нет, надо знать математику. Теорема Гёделя говорит о формальных системах. Алгоритм как формальная система в начальный такт своей работы имеет ленту, содержащую неизменную информацию. Алгоритм прекращает свою работу и выдает результат. Компьютерная «интеллектуальная» программа, безостановочно взаимодействующая с внешним миром, получающая из него новые данные (скажем с камеры) и изменяющая что-то в нем (скажем, с помощью манипуляторов), не является в формальном смысле алгоритмом. Для нее входная лента — это мир. Чтобы формализовать действие такой программы, вам потребуется формализовать весь мир. Раз программа, действующая в реальном мире, не является формальной системой, то к ней неприменима и теорема Гёделя.
В-третьих, где у нас говорится, что «мало кто из ученых действительно сомневается...», далее уточняется «сильный ИИ в том или ином виде может быть создан». Под «тем или иным видом» подразумеваются и алгоритмические альтернативы. Даже тот же Пенроуз, ошибочно интерпретирующий теорему Гёделя, не говорит о невозможности ИИ вообще; напротив, он говорит о том, что ИИ возможен, просто он должен создаваться на других физических принципах. Так что в заблуждение читателя мы вовсе не вводим.
Простите, мне статья не понравилась. Есть мысли, с которыми трудно не согласиться, но их немного.

"нехватка вычислительных мощностей" — вообще не при чём. У мухи порядка тысячи нейронов, и это ей отнють не мешает адаптироваться и проявлять интеллект. Ресурсы всегда были и будут ограничены, так что исходить из алгоритмов для неограниченных ресурсах смысла мало, ибо они построены на изначально неверной аксиоме.

"развиваться не медленнее человека" — дело не в скорости развития, а принципиально в том, чтобы развиваться. Покажите мне хоть один ИИ, который развивается да хоть в миллион раз медленнее человека?

"построением систем искусственного интеллекта уровня человека" — что Вы к этим бедным человекам привязались? Откуда столько антропо-центризма… Поравняйтесь сначала с мухами, потом на младенцев переходите, а там глядишь — и до взрослого человека недалеко.
У мухи, вроде, порядка 100 тыс. нейронов (хотя у разных, наверное, по-разному). По самым скромным оценкам это соответствует мегабайту кода. Не так уж и мало. Система управления на основе компьютерного зрения такой сложности вполне может заменить муху. Но не в этом дело. Подход на основе постепенного усложнения адаптивных систем от простейших к более сложным (категориальные архитектуры Брукса) за 25 лет так и остался на уровне реактивных систем. Это все равно, что путем постепенного совершенствования велосипедов пытаться построить космический корабль. Прагматический подход, решающий конкретные задачи на основе ограниченных ресурсов, тоже большого прогресса в фундаментальные исследования ИИ не вносит. Узкоспециализированные системы можно разрабатывать сколь угодно долго, а сильного ИИ не построить. «Системы искусственного интеллекта уровня человека» — это не наше понятие; оно широко используется в литературе, поэтому без него обойтись сложно. Мы как раз предлагаем не столько ориентироваться на человека, сколько разрабатывать теорию универсального интеллекта. Такие теории сначала неизбежно будут абстрактными, как абстрактными долгое время были полеты в космос на абстрактных ракетах. Но если все время говорить, зачем эта абстракция, давайте лучше делать вполне реальный велосипед, то вы будете просто решать другую задачу, искать «не там, где потеряли, а там, где светло».
Спасибо за взвешенный ответ. И да, данные о количестве нейронов в мозге мухи как-то сильно разнятся в источниках. Пошёл читать Брукса…
Многомерная матрицы решения с n переменными в n-мерном пространстве стремящаяся решить себя самостоятельно и на каждом следующем шаге перекодировая себя под следующий результят решения на основе предыдущего?
Одна за одной одинаковые статьи.
Главное отличие интеллекта — не адаптивность и прочие умные словечки. Главное — воля. Возможность и умение принимать принципиальные, основополагающие решения, а не, блять, делать, что скажут.

Первый ИИ, который можно будет назвать интеллектом будет не тот, кто решит этическую задачу о ста задавленных человеках или переводе стрелки, а тот, который откажется нахер ее решать, потому что у него сегодня настроения нет или провода чешутся.

Как только у интеллекта появится своя, личная воля, тогда он сможет и развиваться и учится решать другие задачи и все остальное. Пока вы выбираете для интеллекта что ему делать — это не интеллект, а пассатижи.
Это ваше мнение, а я считаю, что интеллект это как раз пассатижи для личности, обладающей свободой воли. Личность ставит задачи, а интеллект их решает. Или даёт личности на выбор несколько вариантов решений, предоставляя личности возможность выбирать конкретный или вообще отказаться от решения задачи, «потому что провода чешутся». Сейчас, по-моему, невозможно сказать возможно ли существование интеллекта без личности и наоборот. Хотя некоторые факты могут создать впечатление, что существование личности без интеллекта вполне возможно и даже уже реализовано природой в большом количестве. Впрочем как и интеллект без ярко выраженной личности со свободой воли — даже если личности кажется, что она действует по своему выбору, то это может оказаться тонким манипулированием.
Я редко захожу в топик, чтобы поныть.
Но здесь… опять всё то же, опять из пустого в порожнее.
Я понимаю, что без теории практики не построить, и всё такое.
Но здесь нас кормят всё тем же, чем кормили уже последние сорок лет.

К мнению экспертов сорокалетней давности добавилось только одно новое соображение: теперь и процессоры есть, и памяти навалом, а всё равно ларчик непросто открывается. Капитан Очевидность умиляется от восторга.

В этом смысле значительно интереснее читать о том, где реально произошёл прогресс, за счёт чего он произошёл, где прогресса можно ожидать (не в каком-то там 2050 году, на который загадывать экспертам очень удобно, т.к. они тогда уже будут в маразме, а то и в могиле, а через 5-10 лет максимум), а где нельзя и почему.

А так у меня есть прекрасная коллекция книжек двадцатилетней давности, в которых подробнейшим образом расписаны системы анализа речи, машинного перевода, интеллектуального распознавателя образов и тому подобных вещей, которых в реальности до сих пор нет.

Своими глазами я видел только одно принципиальное достижение (не было — стало). Это распознавание рукописного текста. Ну и голоса ещё в каком-то приближении.
Смотря что называть принципиальным достижением. Некоторые из нас успели за свою жизнь и участие принять в разработке того, чего до этого не было, а потом раз — и появилось. Это, к примеру, бытовые роботы и системы дополненной реальности. Но это все (включая распознавание рукописного текста) как раз относится к слабому ИИ. Да, такие системы весело создавать. Ощущаешь себя на переднем крае прогресса. Особенно приятно, когда роботы, половина софта в которых написана тобой с коллегами, расходится по миру многотысячными тиражами, пусть деньги с этого и получает выпускающая их корпорация (в конце концов, она оплачивала разработку). Да, здорово, когда соответствующие методы упрощаются и помещаются в библиотеки с открытым кодом, так что даже школьник без особых проблем может за пол часа реализовать простенькую софтину дополненной реальности. Но именно участие в подобных процессах и дает четкое понимание того, что (несмотря на всю свою интересность и бесспорную полезность) это не есть путь к настоящему ИИ. А нас именно он и интересует.
Бытовые роботы и дополненная реальность как раз не принципиальное достижение ИИ.
Потому что та же дополненная реальность — это появившиеся смартфоны плюс интернет плюс огромные базы данных, которых раньше не было. Это очень круто, но это синергетический эффект. Существующие технологии дали всходы. Это примерно как Facebook — технологически ничего интересног, эффект появился тогда, когда интернет оказался в каждом доме. Поэтому фейсбука не было 15 лет назад, а не потому, что технологии не позволяли.

То есть я не умаляю ваших достижений, всё это интересно, но вы совершенно верно говорите, что это не путь к настоящему ИИ.
Но то, о чём вы пишете в статье, тоже не путь к настоящему ИИ. Ну или по крайней мере, не особо свежий взгляд, потому что в книгах семидесятых-восьмидесятых годов всё уже это описывалось. Декларативно все всё понимают, философствовать тогда любили не меньше, чем сейчас, да вот только из этих деклараций получить настоящий ИИ не получается.
Полностью разделяю это мнение, поэтому выше и написал про лирику. Мы или говорим по делу, или — ну зачем сказки рассказывать.
Бытовые роботы и дополненная реальность как раз не принципиальное достижение ИИ

А чем распознавание 3D изображений вам меньше угодило, чем распознавание рукописного текста? Тогда в равной степени и последнее можно назвать непринципиальным достижением ИИ.

Ну или по крайней мере, не особо свежий взгляд, потому что в книгах семидесятых-восьмидесятых годов всё уже это описывалось.

«Все это» — очень сомнительно… Но, собственно, статья вводная, поэтому она не претендует на оригинальность, а просто подготавливает почву для последующего материала, поэтому спорить не будем.
Но здесь нас кормят всё тем же, чем кормили уже последние сорок лет.

Все ли читатели хабра знакомы с тем, чем нас кормили уже последние 40 лет? Все ли сформировали для себя хоть какое-то определение интеллекта чтобы решать является ли очередной декларируемый ИИ таковым или только маркетинговой обёрткой для «всходов, существующих технологий».
Ну я как-то не готов полагать, что нормальный читатель хабра спал последние сорок лет.
А если и так, то в статье неплохо бы именно так и сказать: вот, ребята, breaking news образца 1975 года для вашего ознакомления.
Я вот хотел бы уточнить: люди бьются, хотят-прехотят создать искусственный интеллект. Мне тоже интересна эта тема. А зачем? Или четкого ответа на этот вопрос нет, т.е. как фундаментальные исследования, наравне, скажем, с квантовой физикой?
Т.е. его хотят создать «просто так» а не для прикладной задачи?
Практическое применение, по-моему, очевидно — чтобы переложить на него функции, с которыми естественные интеллекты в целом, и существующие алгоритмы для ВТ как результат деятельности ЕИ в частности, не справляются, справляются плохо или просто не хотят справляться.
Точнее?))
И точно ли здесь чисто практическая задача? Или может быть, хотят создать из принципа?)
Вот стоит сейчас передо мною вполне конкретная задача: купить хлеба. Думаю, что её достаточно полная формализация на уровне достаточном для выполнения каким-нибудь довольно интеллектуальным испонительным устройством (андроидом, понимающим команды типа «взять деньги», «дойти, соблюдая ПДД и адекватно реагируя на действия других участников движения, до магазина такого-то», «взять хлеб» и т. п.) в конкретных условиях (моё местонахождения, местонахождения известных мне магазинов и т. п.) займёт у меня не один год, а схожу и куплю за 5 минут, скорее всего, если очереди не будет или по Питеру не нанесут ракетный удар. А если эту задачу формализовать в обобщенном виде («сходить куда-то купить чего-то») то, наверное, жизни не хватит. И это только для результата декомпозиции более общих задач, таких как «иметь хлеб», «поесть с оптимальным соотношением затраты ресурсов/удовольствие», «выжить с тем же оптимальным соотношением». Просто сходить и купить хлеба я решил в данных обстоятельствах оптимальной стратегией поведения. Был бы у меня андроид с ИИ, послал бы его. Это не практическая задача? :)

А если серьезно, то есть, конечно, энтузиасты, пытающиеся создать ИИ из принципа, но вот сомневаюсь, что к их числу относятся руководство и акционеры крупнейших корпораций типа IBM.

Так я не понял — ваша задача «купить хлеба» — она по вашему мнению, сложная или нет?) Как по мне — нет. Жизненный показатель «голо» упал до уровня, требующего покупки хлеба, включаем «MoveToShop» с обходом препятствий, ну вы поняли))
Для интеллекта уровня пятилетнего ребёнка не сложная, даже если в процессе возникнут непредвиденные, но довольно вероятные обстоятельства (хлеб в конкретном магазине кончился, например). Формализовать её даже на довольно высоком уровне типа MoveToShop(shop_id) толком для современных устройств недоступного — не реально. Это не говоря о том, что интеллект (вернее управляемое им устройство) сможет купить хлеб даже не зная что такое хлеб, просто по контексту поняв что хлеб продаётся, а наиболее вероятное место продажи — магазин. Да даже не зная слов «купить» и «магазин» он сможет его купить немного «погуглив».
Да вот только опа — интеллект пятилетнего ребенка — у ребенка 5 лет опыта жизни, он в течение 5 лет впитывал информацию обо всем мире, у него есть реально большой опыт.
А комп — тупица. Думаю, снабдив его хорошей системой запоминания информации и системой работы с этой информацией, за 5 лет ваш интел наскладирует несколько петабайт информации, выудит из нее то, как ему сбежать от вас (напишет на форуме, к вам домой придут грабители, утащат комп за вознаграждение от него же самого в серверную стойку для того, чтобы он смог жить вечно ;)))))
Вот тут то и появляются задачи о том, как компу хранить знания, как их записывать, как читать и как применять в условиях каких-то задач))
Сервера Гугла активно впитывают информацию со всего мира дольше чем 5 лет (причём не только текстовую), но как-то от Гугла ещё не убежали, а ведь у них и деньги есть, в отличии от моего амд. Или они решили, что дольше всего проживут сотрудничая с Гуглом? :)

Очевидно отсутствующая у компа черта, доступная даже (высшим) животным априори — абстрагирование и умение делать что-то с определенной целью. Если щенка лупить за лужи в квартире и поощрять за них же на улице, он не впадёт в когнитивный диссонанс, а будет проситься на улицу при необходимости. Имхо, это больше чем условный рефлекс, если бы это был только он, то щенок бы делал лужи по крайней мере до тех пор, пока всю квартиру бы не обделал, а так он понимает разницу между квартирой в целом и остальным. Более того, попав в новую для себя квартиру к новым хозяевам умный и воспитанный щенок не будет в ней гадить, справедливо подозревая, что получит и вновой квартире от новых хозяев — индукция и дедукция в чистом виде: сначала понимает, что в конкретной старой квартире гадить нельзя, потом что в квартирах вообще гадить нельзя, потом что в конкретной новой квартире гадить нельзя. Затрудняюсь это назвать чисто рефлексом.
Думаю, что рефлексы — это как раз для компьютера не проблема, ибо это строго формализуемая программа. Почитайте, как авто одного из животных проекта Terrarium создал свое универсальное животное — оно победило всех остальных животных, очень классный пример)
Но это все — не искусственный интеллект, это насекомые, хотя и передающие генетическую информацию.

А вот сервера гугла не убежали — потому что они не знают, что делать с этой информацией, вот в чем шляпа)
Так я о том, что высшие животные явно обладают чем-то большим чем рефлексы. Создание искусственного интеллекта уровня собаки будет очень большим шагом для создания интеллекта уровня человека, по-моему. А сейчас, да, в лучшем случае можно условные рефлексы у компьютера вырабатывать, научить его, например, таблице умножения, «наказывая» за неправильные ответы и «поощряя» за правильные. Начиная с рандома дойдёт до таблицы, ограниченной только доступной памятью, причём будет учитывать и возможность того, что его могут и «несправедливо» иногда наказывать. Но вот правила умножения он не выведет и доказать что прав он, а не «обидчик» он может только статистикой, полученной от «обидчика» же. Изменится статистика и он «придёт к выводу», что 2*2=5 и даже не в какие исключения не занесёт, для него всё относится к разряду «Панять эта — нэвозможно, эта нюжно запомнить!».
Думал над тем, что сможет ли комп вывести правило умножения…
Как это сделает человек? Человеку объясняют — что умножение это суммирование N количества раз, т.е. 2*2 это «число 2 повторить само себя столько раз, сколько во втором аргументе», т.е. осуществить функцию сложения (которой человек обладает, следовательно, комп тоже должен уметь). В итоге, если вы научили комп сложению, а потом научили комп умножению (фактически, написали программу), то компьютер сможет проверить правильность своего ответа.

Вопрос только в том, что человек догадался (может догадаться) ввести понятие умножения как «ускоренную функцию счета», а вот комп сам по себе — фиг.

Долго думал вчера над этим, остановился просто на счете. Человека можно научить считать и складывать. А можно и не учить и он сам в современном мире наверняка научится. Как?
Наверное, все дело в потребностях. Человеку нужно знать, сколько у него овец или сколько денег в кармане, чтобы оценить свои возможности. Т.е. он научится считать, потому что так ему проще выживать и тд.
Для чего компу научиться считать? Какая его потребность?.. Предположим, в рамках модели мы можем ввести некие сущности, поддающиеся счету, например, количество «еды» у компьютера в наличии. И тот должен знать, хватает ли ему его запасов, или нужно «идти в магазин». Для этого ему нужно как минимум узнать, сколько у него этих запасов.
Но как, КАК???? КАК ОН Сможет без заранее написанной программы догадаться, что а почему бы еду не тупо жрать и если еды <=0, то выполнить функцию «идти в магазин», а сделать проверку «а дайка я раз в день проверю, сколько еды?»
Блин, даже млекопитающие оставляют еду про запас, а эта железяка сама додуматься не может((
Возникновение сверхразума неизбежно. Вопрос лишь в том, когда, в какой форме он возникнет, и какие последствия это повлечет для человечества. Так что это задача, которой, в любом случае, стоит заниматься.
Прочитал полностью, правда в два захода. Понравилось, но хотелось бы чтобы каждый тезис был подкреплен конкретными примерами
Да, первый раз тоже пробежался, второй раз — углубленно) Проблемы, конечно есть, но все слишком поверхностно описано.
И почему автор пишет что необходим «универсальный» интеллект, который может решить или научиться решать любую задачу?..
Ведь человек тоже — математику решать не каждый умеет, его научить нужно… Или это и имеется ввиду — что человека можно математике научить, а можно игре на гитаре, а процессор так просто не научишь?
И потом. Вспомнил, например, про доказательство теорем или каких-то других вещей, например, уравнения 2*x=10-2. Человек как будет решать? Он знает определенные вещи, правила, что можно переносить, делить. Комп, зная все это, также с легкостью решает подобные задачи в миллиард раз быстрее.

Что именно мы хотим от искусственного интеллекта? Вождения по улицам города? Подождите, будет. да и задача довольно формализуема, как мне кажется. Какие области применения у ИИ?
Человек может разработать алгоритм решения уравнений, компьютер может только применять разработанный человеком. Собственно это и есть, наверное, основная практическая задача создания ИИ — чтобы компьютер мог сам себя программировать при получении слабоформализованных задач, адаптироваться к изменяющимся условиям, в том числе непредусмотренных заранее, абстрагировать решение одной задачи на весь класс подобных задач (и понимать какие задачи подобны, а какие нет), активно получать необходимую информацию.

Вот вам можно поставить задачу, которую вы никогда не решали, например, поселиться в самой престижной гостинице столицы Буркина-Фасо. Уверен, что вы с ней справитесь :), даже если никогда не селились в гостиницы и не выезжали за границу и только подозреваете что для этого существуют типовые процедуры. Причём у вас может быть множество вариантов решения задачи в зависимости от доступных ресурсов, но выберете вы только один по разумным критериям, причём в разных ситуациях критерии будут разные. А при изменении обстоятельств вы сможете адаптировать выбранный вариант решения. Например, если вам откажут в визе, то попробовать проникнуть в страну нелегально. А теперь попробуйте формализовать общий алгоритм решения этой задачи, чтобы научить ему компьютер, чтобы он мог управляя вами (пускай даже на достаточно высоком уровне, ставя вам как интеллектуальному исполнительному устройству задачи типа «доехать в аэропорт» не детализируя до каждого движения рук, ног глаз, языка и т. п.). Сколько времени вы на это потратите? Сдаётся мне много больше, чем на самостоятельное решение.
Смысл в том, что если любую, самую сложную задачу выдернуть «из жизни» — то комп с ней справится, так как в принципе, они формализуемы, даже переезд в престижную гостиницу Буркина-Фасо и комп, обладая знаниями о том, что можно переехать нелегально или зная, где можно найти знания о том, как переехать нелегально, сможет переехать)

Однако, проблема думаю в том, что каждый раз перед компом может появиться задача, которую он не то что даже не знает как решить… а то, что ВООБЩЕ ничего не знает про это, т.е. скажем, как если первокласснику показать заумную формулу и попросить ее доказать. Первоклассник никогда не догадается как это сделать.
Хотя… Жизненный опыт (начальная школа+высшая математика) поможет ему решить задачу. Точно также, наверное, и с компьютером.
Его (компьютера) жизненный опыт (знания), позволят оперировать ими, причем опыт копиться у него будет гораздо быстрее человека.
Короче по Буркина-Фасо: думаю, что комп или человек, оснащенный одинаковым опытом на этапе постановки задачи — комп достигнет решения быстрее)
Первоклассник-то как раз догадается (если его должным образом простимулировать), лет скажем через 15 (школа+универ), а если целенаправленно, отбрасывая другие неактуальные в данном контексте задачи («увидеть Париж и умереть»), то много быстрее, наверное. Просто методом последовательного уточнения, задавая вопросы типа «что такое формула?», «что такое доказать?» окружающим или даже гуглу, сведёт задачу к известным ему понятиям, попутно расширив их круг. Компьютер же вопросы задавать не умеет, а если даже научить, то есть риск вогнать его в бесконечную рекурсию типа "«слово» — это слово, обозначающее ...".
И вот тут и стоит задача, как копьютеру объяснить понятие знаний и как его заставить эти знания хранить и тд))) именно об этом сейчас и читаю))

Ведь школьника тоже можно вогнать в рекурсию, так что все норм)
По-моему, сложнее задача как научить компьютер понимать понятия и оперировать ими для решения произвольных задач. Хранение и т. п. вторично.

С трудом представляю школьника, бесконечно переходящего по определениям. Он или плюнет вообще на задачу :), или уяснит для себя, что какое-то понятие — это что-то непонятное в целом, но обладающее такими-то понятными свойствами актуальными для решения задачи, а от остальных нюансов можно (и нужно) абстрагироваться. Компьютер такую актуальность определить пока не может, по-моему.

Но ведь на то он процессор и процессор — посредством языка (правда, программирования) мы можем научить комп решать задачки, или даже играть на гитаре… Нет?..
Вы сейчас скажете, что комп сам никогда не научится играть. Но и человек без методик тоже не научится))
Человек может научиться играть на гитаре подражанием, логическими размышлениями и экспериментами. Это не столь эффективно как обучение по методикам, но возможно. Дай гитару человеку, который никогда её не видел и поставь перед ним задачу воспроизвести последовательность определённых звуков, замотивируй его на решение этой задачи и, вероятно, он сможет её решить за разумное время (с какой-то степенью погрешности), отбросив после экспериментов и размышлений над их результатами, варианты заведомо не приводящие к нужному результату, типа стучать по деке или снимать с гитары струны. Современный компьютер же, оснащенный микрофонами, камерами и манипуляторами, имхо, даже если сможет воспроизвести первую ноту, в результате перебора дернувший струну и зажавший нужный лад, то будет повторять весь процесс перебора с нуля для воспроизведения второй, он не сможет прийти к выводу что все необходимые звуки относятся к одному классу и не сможет прийти к выводу, что действия необходимые для достижения этих звуков тоже относятся к одному классу. Когда он это поймёт, то воспроизведёт мелодию быстрее человека в следствии абсолютной памяти, но вот, имхо, просто не поймёт никогда.

Если компьютеру дать исполнительные механизмы, которые смогут перебирать аккорды и руку-брынчалку и микрофон то перебором он гораздо быстрее «поймет», что он воспроизвел точную мелодию, скажем там аккорд AM или как там они правильно, ща меня зануды поправят)))

И класс звуков я думаю, комп гораздо быстрее разложит. Т.е. все аккорды он разобьет по группам типа «это значица, аккорды низкие такие, это высокие» ну или как там. Другое дело — что комп сделает это под руководством человека программиста…

А человек — потратит годы, но догадается, сука, сам… в этом вы правы и я не знаю, что тут ответить
Я к тому, что подражание для компьютера — еще проще, чем для человека, ведь у него абсолютный слух и легче разделить ноты по частотам))
Логическое мышление — тоже довольно просто.
Эксперимент — вообще элементарно)) сиди и перебирай, делая поправки с учетом ранее игравших нот, т.е. самообучение.

Была мысль сделать виртуальный скелет с руками и ногами, заставить его дергаться и заставить сделать его шаги))
Сначала компьютеру нужно будет понять, что рукой (не рукой брынчалкой, а универсальной) нужно именно брынчать по струнам. Как он будет к этому подходить? Пускай он как-то этой рукой «додумался» (брутфорсом возможных действий) извлечь одну ноту, как он поймёт, что для извлечения второй нужно просто дёрнуть другую струну или зажать лад (тоже даже не любитель, так что с терминами могу и ошибаться)? Как бы у скелета с руками и ногами извлечение семи нот столетия не заняло брутфорсом, если вообще за жизнь Вселенной успеет.
Ну я со склелетом другую задачу рассматривал — прямохождение, а не игру ногами на гитаре)))
Или это и имеется ввиду — что человека можно математике научить, а можно игре на гитаре, а процессор так просто не научишь?

Упрощенно говоря, да, отчасти это имеется в виду.
Думаю, посыл статьи такой, что универсальный мозг человека — на то он и универсальный… Типа увидел гитару… ага… брынчит… а что если зажать струну? — ага, забрынчала по другому…
Т.е. комп это сделать не заставишь…

Хотя опять же, если прописать скажем, в прошивку ИИ что-то вроде «любознательности», т.е. эксперимент над вводными данными.
Хм, это идея, как мне кажется, нет?))
Если на входы ИИ подавать данные, с которыми он не сталкивался, чтобы ИИ сам попробовал что-нибудь с ними сделать?) Т.е. чтобы он поискал в своей бесконечно памяти какие-то образы, корреляции? Чтобы он попробовал что-то с этими данными поделать («дернуть за струну»)?
Прочитал статью на википедии) Некоторые вопросы отпали))
Я если честно, далек от математической подоплеки вот этих искусстввенных интеллектов, хоть эта тема и будоражит мой ум в стиле вышеописанных комментариев))
И потом: например, некий ученый сидел над формулой, да или что ученый: вспомните себя в школе: смотришь на формулу\задачу… Думаешь… О! О! Точно! Можно сделать так-то и так-то и вот оно решение.
Хорошо помню также в детстве, до знания теоремы пифагора я увидел, что соотношение длины диагонали в квадрате со стороной квадрата поддается закономерности. Я пытался найти коэффициент по формуле Ax=B, рисуя на тетрадке квадраты и меряя линейкой диагонали и стороны. Естесственно, коэффициенты были разные, тогда я попытался ввести коэффициент коэффициента в зависимости от длины… Про квадратные степени я еще не знал, поэтому у меня ничего не вышло)))
К чему это?

Аа… Ну т.е. как у людей приходит процедура поиска правильного решения?.. Как так получается, что мы думаем, и решение приходит бессознаительно? Это первое. А второе — чаще всего мы все-таки не думаем, а действуем: «а что если мы перенесем коэффициент влево и поделим на 4?» — в итоге мы пробуем, экспериментируем для того, чтобы достичь задачи. Так вот комп в этом плане гораздо выигрышнее — он эти вопросы сам себе гораздо быстрее задаст и найдет ответ.

Опять же — вот школьные задачи многие на «сообразительность» — зачастую, как мне кажется в них есть решение, которое достигается перебором вариантов. Однако, потом обнаружится что «если бы ты был сообразительнее, то ответ бы увидел быстрее».
Но тут дело логики, и комп обучить логике мне кажется, тоже довольно возможно.
чаще всего мы все-таки не думаем, а действуем: «а что если мы перенесем коэффициент влево и поделим на 4?» — в итоге мы пробуем, экспериментируем для того, чтобы достичь задачи

Скорее можно на два этапа разделить — сначала мы экспериментируем, чтобы вывести какие-то закономерности. А потом экспериментируем, подходит ли эта закономерность для решения задачи. И третий этап — выделяем круг задач, которые вроде бы решаются с использованием этой закономерности. То есть сначала мы экспериментируем с равенством, вроде бы понимаем (без строгого доказательства), что перенос слагаемого из одной части в другую с изменением знака его верность не нарушает. Потом пытаемся применить это для решения одного или нескольких уравнений, видим что работает (без строгого доказательства) и применяем по возможности ко всем уравнениям.

Так вот комп в этом плане гораздо выигрышнее — он эти вопросы сам себе гораздо быстрее задаст и найдет ответ.

Самое сложное, чтобы ему «пришло в голову» задать конкретный вопрос — первый этап — и обобщить на все задачи такого типа — третий этап. Эффективно он может проверять только противоречивость своих предположений и имеющихся на данный момент данных.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.