Как стать автором
Обновить

Комментарии 108

Эта спекуляция на ИИ действительно давно надоедает.

Давно надо было уже собраться и опубликовать стандарт уровней ИИ, от простого автокликера до сложного ИИ, способного к абстрактному мышлению.
После чего было бы проще «IBM разработала обновление к Ватсон, которое переведет его в категорию ИИ-12».
Потому что маркетологи всегда говорят правду.
Давно надо было уже собраться и опубликовать стандарт уровней ИИ, от простого автокликера до сложного ИИ, способного к абстрактному мышлению.

И как это решит проблему? Позволит компаниям выпускать больше инфоповодов с ИИ теперь ещё и разных уровней?)
Типичный заголовок «Headhunter запустил систему рекомендаций вакансий на основе искусственного интеллекта».
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Нет, этого недостаточно.

Пожалуйста приведите ссылку на классификацию ИИ, которая была бы принята хотя бы несколькими странами, ведущими разработки ИИ.

Слова «слабый и сильный» ИИ не значат практически ничего вообще. Откуда я знаю, что вы подразумеваете под этими словами, может быть это одинаковые по разумности, один запущен на домашнем целероне, а другой на кластере из ксеонов. Или у одного память 1 гб, а у другого 100 терабайт. Или все-таки дело в алгоритмах?
НЛО прилетело и опубликовало эту надпись здесь
" Сильный ИИ это искусственный разум — компьютерный алгоритм по возможностям не уступающий человеческому разуму. Т.е. подобный компьютер можно поставить хоть водителем авто, хоть пилотом самолёта, хоть президентом страны."

А что такое компьютер, который можно поставить пилотом самолета (я вас удивлю, но такие были даже 50 лет назад), пилотом авто (я вас удивлю, но сейчас таких много), но вот президентом страны еще не ставили? Это сильный ИИ?

Другими словами, все что вы написали — никак не помогает классифицировать — где сильный, а где слабый ИИ, а также что именно это означает.

Программно-аппаратный комплекс, который без внесения в него изменений может выполнять любую работу выполняемую человеком.


я вас удивлю, но такие были даже 50 лет назад

Вы серьёзно, что-ли?


Тогда вытащите автопилот из самолёта, подключите его к автомобилю, и попытайтесь куда-нибудь доехать, не используя руль. Или притащите его на встречу с избирателями, и подождите пока он изложит свою программу.

Странная у вас логика.
Да, автопилот, который мог полностью самостоятельно поднять, провести и посадить самолет, был испытан 50 лет назад. Вы описали, что сильный ИИ это тот, который сможет это сделать.

Да, его нельзя было взять и поставить в машину, но в принципе только очень немного денег будет стоить взять автопилот самолета и автопилот от Теслы, поместить их в один ящик, и маленькое if/else будет и самолеты летать и машины рулить.

Уточните, что такое президент — изложить свою программу сможет любой бредогенератор. Еще и не каждый поймет что это такое.

Я вам пытаюсь сказать, что ваши критерии — никуда не годны для вменяемого определения уровня ИИ.
И вообще, достаточно сложно создать набор тестов таким образом, чтобы по нему мерять уровень ИИ, поскольку можно просто написать программу, которая рассчитана проходить именно эти тесты.

Ваши рассуждения имели бы смысл, если бы для создания сильного ИИ нам был бы нужен компьютер вручную запрограммированный, чтобы отличить сильный ИИ от слабого. Да, для программирования такого компьютера понадобилось бы строгое формально определение сильного ИИ.


Но нафига нам такой компьютер нужен? Нам нужен сильный ИИ, а не классификатор типов интеллектов. Различить бредогенератор и потенциального президента сможет большинство людей без всяких компьютеров. Чтобы проверить, что ИИ может выполнять любые задачи, доступные человеку, достаточно проверить это экспериментально, давая задачи, набор которых не был известен конструкторам ИИ.


Утверждать, что сильный ИИ — это не ИИ, потому что он формально не верифицирован на соответствие строгому формальному определению сильного ИИ, это примерно как утверждать, что люди не могут ходить, потому что нет строгих формальных определений понятий "нога", "ходить" и т.д.

Вы сами себе противоречите.

Грудной ребенок тоже неспособен толкнуть речь президента, водить самолет и автомобиль. Да даже многие взрослые на это не способны, при этом все они обладают интеллектом.

Классификация нужна. Чтобы убрать спекуляции термином, потому что сейчас ИИ называют все подряд. И с какой стати нам нужен сильный ИИ? Нам нужен помощник, на которого можно сгрузить работу.
Нам не нужен ИИ, который решит что он в нас не нуждается, и возможно применит меры чтобы мы ему не мешали.
Нам не нужен ИИ, который будет умнее нас, и при этом будет брать за это деньги как за личность, а не только за электроэнергию. Иначе он будет богаче нас и намного. И в конечном счете придет к мнению выше.

И да, различить бредогенератор и потенциального президента не может подавляющее количество населения на планете.

Грудной ребенок не обладает интеллектом в том смысле, который мы обсуждаем. Некоторые взрослые тоже. Это не мешает экспериментально определить наличие интеллекта в обсуждаемом смысле.

Различить бредогенератор и потенциального президента сможет большинство людей без всяких компьютеров.

Вот тут вы ошибаетесь…
Отличная статья, спасибо за перевод ;)

Все именно так. Громкими словами вроде «ИИ» — сейчас модно пиариться и привлекать инвестиции.
> Это просто программы.

Не верно. Современные системы с обучением отличаются заметно от классических «просто программ». Суть в том, что даже их программисты не знают, как работают эти системы и какие будут давать ответы на конкретные вопросы.

Обычная программа — это белый ящик для программиста, он может посчитать результат алгоритма на бумажке. Так и делают, когда занимаются тестированием, кстати.

Обучаемая система — это чёрный ящик. Непредсказуемый и непонятный. Программист может вполне отвечать за поведение белого ящика, но кто будет отвечать за поведение чёрного? Особенно если этот чёрный ящик кого-нибудь задавит.
Я например не знаю что мне выдаст оператор rand(int). Я изобрел ИИ?

Вообще говоря, знаете. Потому что чтение исходников никто не отменял. Иначе любой софт можно назвать ИИ — ведь офисный пользователь тоже не знает, что там внутри творится.

Вы изобрели чтение из файла. Что в файле написано — то и будет выдаваться. Очевидно, знание о работе программы — это не магическое знание выходных данных, которое оно даёт, а знание зависимости между входными и выходными данными.
Так и делают, когда занимаются тестированием, кстати.

Посчитайте мне на бумажке, пожалуйста, сортировку массива из 1 миллиона элементов на бумажке. Очень сомниваюсь, что при тестировании этого алгоритма Вы будете делать именно так.
«Обучаемая система» обычно просто сложнее необучаемой — хотя простые обучаемые алгоритмы вполне на бумажке рассчитать можно. Потому в данном случае черный ящик или белый определяется нашей способностью его осознать, а не принципиальной возможностью этого. В статье как раз и говорится, что у сегодняшних программ нет воли, эмоций и желаний, а есть детерминированный алгоритм, пусть и очень сложный).

Детерминированный алгоритм не исключает возможности существования воли, эмоций, желаний и даже субъективной свободы выбора. Точнее нет общепризнанных доказательств обратного.

Я вам посчитаю на бумажке сортировку из двадцати элементов. Потому что больше не надо, чтобы понять как работает алгоритм и работает ли. Если нужны более детальные исследования — можно сделать 3-4 разных реализаций проверить на бумажке, а потом тестировать сравнением друг с другом.

Более того, такие простые вещи как сортировка массива, можно не только посчитать на бумажке для маленьких размеров, но и доказать на бумажке для произвольных входных данных.

> детерминированный алгоритм, пусть и очень сложный

В случае обучаемых систем есть ньюанс. Алгоритм оказывается зашит не в килобайты кода, а в гигабайты данных. И вторая штука человеком не познаваема. А значит он не может предсказать работу алгоритма и отвечать за его результаты.
Я вам посчитаю на бумажке сортировку из двадцати элементов.

Алгоритм оказывается зашит не в килобайты кода, а в гигабайты данных.

А я посчитаю вам на бумажке самообучающуюся нейронную сеть из 3х нейронов с байтами данных. Почему для «традиционного алгоритма» Вы считаете достаточным понимать его работу на маленьком объеме данных и смасштабировать на большой, а для нейронной сети нет?
Проект над которым я работаю содержит мегабайты кода — вполне детерминированного, но также не познаваемого человеком в силу его размеров и сложности. Почему за него я отвечаю, а за нейронную сеть отвечать не должен? Мое мнение — если хочется использовать нейронные сети в критических для жизней областях, то разработчик несет ответственность за корректность их работы. Значит, нужно развивать методы, которые позволят доказать корректность нейронной сети и предсказать результаты его работы.
> Почему для «традиционного алгоритма» Вы считаете достаточным понимать его работу на маленьком объеме данных и смасштабировать на большой, а для нейронной сети нет?

Потому что перехода количества в качество не наблюдается. Плюс, смотрите второй пункт — сортировку можно доказать математически. То бишь, это задача «хорошая» и проверять её легко. А некорректные задачи — сложнее.

Опять же, как я указал — можно написать 4 разных алгоритма, проверить вручную на малых данных, проверить взаимным соответствием на больших. Проверить две разные нейронные сети на взаимное соответствие не возможно, они по определению выдают разные результаты.

> Проект над которым я работаю содержит мегабайты кода — вполне детерминированного, но также не познаваемого человеком в силу его размеров и сложности.

Большие проекты, действительно, не познаваемы в одиночку, но команда может в них разобраться. Особенно если код пишут так, чтобы в нём было удобно разбираться. Что происходит очень часто, а остальные случаи требуют рефакторинга. Как раз потому, что программист(ы) должны понимать, как работает программа, и почему она может не работать.
Сортировка это и правда очень простая и тривиальная задача, которую можно доказать математически. Однако математическое доказательство правильности алгоритма в общем случае — такая же нерешаемая задача, как и для нейронной сети. Но на самом деле мы начали не с математического доказательства, а с предсказуемости и ответственности за результат.

И вот тут ключевой момент в том, что не имеет значения — это нейронная сеть или любой другой алгоритм (кстати, нейронная сеть это тоже алгоритм). Имеет значение только то, учитываются ли для принятия решений внешние данные. Нейронная сеть, обученная заранее и не обучаемая в процессе эксплуатации, будет предсказуема так же как и алгоритм. Но если в алгоритме стоит рандом или принимаются неопределенные внешние результаты — его работа так же не предсказуема. Теперь вопрос к программисту — зачем он применил рандом или любые другие методы, работу которых он не может гарантировать? Значит должен нести ответственность, либо находить другие средства для решения задачи.
> не имеет значения — это нейронная сеть или любой другой алгоритм (кстати, нейронная сеть это тоже алгоритм)

Формально — тоже алгоритм. Просто иногда, следуя формальностям, можно утерять здравый смысл. Формально всё это алгоритмы. Формально тьюринг полнота едина для всех. Никакой формальной разницы нет. Только практика отличается от формализмов, есть детали, легко усвояемые человеком, и трудно формализуемые.

Например, формально ассемблерный текст является исходным кодом. На практике, оказывается что от исходного кода ждут чего-то большего. Когда мы говорим «программа с открытым исходным кодом», мы имеем в виду не дизассемблированный бинарник, а доступный код на языках высокого уровня. Причём не обфусцированный, с оставленными комментариями и документацией.

А попробуйте формально задать отличие от обфусцированного исходного кода от необфусцированного. Не слишком-то у вас получится. А неформально — получается очень даже неплохо. Необходим некоторый уровень «качества» кода, под которым подразумевается способность стороннего человека понять этот код и модифицировать.

Нейронные сети, даже замороженные в некотором состоянии, невозможно никак понять. Да это код, алгоритм детерминировано задан, но он сверх-обфусцирован, в нём нельзя разобраться. Предугадать его поведение тоже.

А вот вручную написанный код другой, в нём подразумевается возможность чтения алгоритма в первую очередь человеком и только во вторую очередь машиной. Даже если там есть недетерминированность, её тщательно ограждают и исследуют.

Например, для алгоритмов вводится понятие производительности в худшем случае и в среднем. Функциональное программирование добавило сложностей, и они отразились в теории, добавив понятие амортизированной сложности.

Другой пример — это вычислительные алгоритмы. Почти все они дают приближённый ответ. Но при этом для каждого алгоритма считается остаточный член — возможное отклонение от истинного значения. Это стандартный элемент анализа алгоритмов.

Так во всём — человек стремится подчинить природу своему знанию. В том числе природу написанных им алгоритмов. А с нейронной сетью так не выходит. Нельзя сказать, что человек сдался — проводятся исследования о том, как построить нейронные сети, способные аргументировать свои решения, ищутся способы сворачивать сложные вычисления в понятные термины. Но пока безуспешно. Пока всей нейронные сети — это чёрный ящик.
Вы слишком категоричны.
Уже есть методики, которые позволяют заглянуть внутрь нейросети и увидеть что-то осмысленное. Например, я читал статью о том, что программист определил, какой конкретно нейрон сети активизируется, когда она видит человеческое лицо на фотографии.

Хорошо известен проект, когда нейросеть заставили на исходное изображение накладывать свои ассоциации относительно его элементов.
Были статьи о том, как нейросети, обученные для классификации изображений, заставляли генерить картинку, которая по её мнению максимально соответствует какому-то классу, и так можно было увидеть, какие признаки она выделила в качестве характерных для данного класса.

Я убеждён, что мы мало знаем о том, что происходит в нейросети только потому, что пока прагматическая ценность этого мала. Практикам в этой области мало интересно, как думает нейросеть, пока она выдаёт приемлимые результаты на тех задачах, где их применяют.
А те, кому этот вопрос интересен, почему-то более склонны беспредметно дискутировать в интернетах, вместо того, чтобы заниматься практическими исследованиями и разробатывать инструментарий для заглядывания внутрь НС.

Но как только возникнут задачи, где реально нужно понимать и контролировать ход мыслей ИИ, начнёт развиваться и инструментарий.
Согласен.
Я вообще считаю, что в критических задачах (где на кону стоят жизни) должна быть ответственность. Нельзя возложить ответственность на алгоритм, то есть ответственность должен нести его разработчик или хозяин. Если вдруг мы придём к тому, что нейросеть совершенно абсолютно невозможно контролировать, то остается 2 варианта:
— найти методы, которы позволят утверждать, что риск её применения допустим (это звучит цинично, но люди уже гибнут на дорогах, и еслу будут гибнуть мньше — то уже хорошо).
— не использовать нейросети вообще.
А говорить «оно вроде работает, но отвечать я не могу и не буду» — это не вариант.
Программисты не могут прогназировать вывод нейронной сети, так просто как исходниками другой программы лишь по одной причине — сложность функции. Современные нейронные сети — это по сути методика, которая позволяет сделать программу способную самоотладиться (найти нужные коэфиценты). Не больше не меньше. Каждую нейронную сеть можно заменить очевидным алгоритмом на языке программирования (более эффективным). Но с точки зрения бизнеса, проще сделать нейронную сеть и пусть благодаря методике обучения она сама себя доводит до кондиции, чем потратить кучу человеко-часов и денег чтобы реализовать тоже самое но уже алгоритмически с помощью кода.
В большинстве случаев системы, заявленные, как ИИ, не осознают себя, не разумны, не обладают волей и не могут удивлять. Это просто программы.

А есть меньшинство случаев, в которых системы это умеют? :)
они ещё умеют намеренно проваливать тест Тьюринга, поэтому мы до сих пор не в курсе их существования.
Надо сделать, как в Mass Effect: все, что обрело самосознание или хотя бы может это сделать — это искусственный интеллект (AI), остально — виртуальный ителлект (VI). У них там нет проблем с разделением и терминологией.
Именно так и нужно! После прохождения этой трилогии в моем сознании четко поселилось это разграничение. И коробит каждый раз когда говорят об ИИ, когда это самый что ВИ.
Я не играл в Mass Effect, поэтому у мня сразу возник вопрос — было ли там дано определение самосознание и критерии, по которым можно определить его наличие?

А то в дискуссиях об ИИ постоянно всплывают слова «самосознание», «свободная воля», «индивидуальность», «личность» и тп, но при попытке прояснить термины выясняется, что каждый вкладывает в эти слова что-то своё. И в разных интерпретациях смысл может отличаться кардинально.

В трилогии ИИ имел возможность в процессе своего функционирования набирать опыт и действовать от него. ВИ же не способны выйти за рамки изначально предписанных правил и действуют строго по заложенным алгоритмам, не имея возможности их модификации.

Так ЕМНИП — сильный ИИ/слабый ИИ.

Обладает ли самосознанием интеллектуальный агент, имеющий информацию о том, что если возможное состояние мира включает повреждение или отключение вот этой вот коробки с электроникой, то в этом состоянии невозможно выполнить никаких действий?


Или самосознанием обладают только интеллекты, ведущие себя как люди в состоянии бодрствования?

Только увидев статью, подумал как раз об этом.

Первый день нам было интересно с ним как с младенцем, но к концу дня это уже был подросток
За третий день он вырос до профессора МТИ
Пятый день принес множество уникальных открытий. в том числе защиту для ИИ от саморазвития
На вторую неделю общение прекратилось… нет он не перестал с нами разговаривать… просто мы перестали его понимать

Это очень исковерканная фраза про ИИ из какого-то кино. Но для меня это стало определением ИИ
нет он не перестал с нами разговаривать… просто мы перестали его понимать

Стал таким умным, что потерял способность объяснить чем занимается. По-моему, противоречие.


Объяснить свои мыслительные процессы он может быть и не сможет, но уж использовать свой гигантский интеллект, чтобы подготовить хорошо понятный синопсис того, зачем он вставляет деталь А в отверстие Б, не должно представлять для него проблемы.

Может ли быть так, что ИИ начал к тому времени оперировать столь сложными терминами, что на объяснение смысла каждого человеческим языком ушли бы месяцы, а то и годы?

Если этот ИИ занимается чем-то, имеющим отношение к физической реальности, то он будет вынужден выполнять некоторые последовательности действий (эксперименты), для проверки своих предположений.


Он вполне сможет сказать что-то вроде: "я проверяю такие-то гипотезы, для этого я делаю то-то, если гипотеза А верна, то результат такой-то, ..." и т.п. Гипотезы с высокой колмогоровской сложностью маловероятны, поэтому врядли ему придётся объяснять их месяцами.


Оперирование очень сложными терминами относится скорее к мыслительным процессам ИИ, о которых я написал, что их он может и не сможет объяснить.

Я вижу, Вы явно не читали «Солярис» Станислава Лема. Иначе бы не делали такие предположения о простоте и понятности экспериментов. И о том, что ИИ будет их объяснять.

Солярис — это конструкт, созданный Лемом, чтобы показать — а вот может быть такая здоровая и сложная штука, которую мы не сможем понять (собственно непознаваемость преподносится как факт: исследовали, исследовали, но ничего не выисследовали, были такие-то технические трудности, преодолеть не смогли, почему — неизвестно).


Здесь речь идёт о ИИ, который создан людьми для решения человеческих задач.

уровень знаний создателей не позволял понять, что он им говорит
а для него это уже были элементарные вещи и он их объяснял своим языком, считая а че тут непонятного?
Неверное определение же. Какой-нибудь "Ургук Крушитель" с компьютерным мозгом, интеллектом продвинутого неандертальца и его же способностями к обучению имеет полное право называться "сильным AI".
В отличии от IBM Watson, хотя тот и рак определяет лучше человека, и на викторинах участвует и много чего еще.

Наверное в словосочетании "искусственный интеллект" деалется упор на второе слово.
Но часто ли встречается в жизни естественный интеллект.
Поэтому не следует ожидать от программ ИИ уровня Эйнштейна
Они, как люди, в массе простоваты, туповаты, недалеки и даже ошибаются

Опять каша с англификацией. В советской НТ-терминологии всегда было чёткое разделение на ИИ и ИР. Которое при заимствованиях потерялось к 2000-м годам. Сейчас пришло второе присшествие тех же терминов уже в виде неуклюжих «слабый ИИ» и «сильный ИИ».


Если бы продолжали пользоваться старой, устоявшейся в русском языке терминологией, поводов для спора было бы намного меньше.

Согласен.
ИИ — интеллект способный на простейшие функции. Способный к обучению и принятию решений. Это кремниевое/цифровое животное.
ИР — осознавший себя ИИ. По сути кремниевый/цифровой человек.

Спасибо, а-то я пропустил момент когда ИР стал называться ИИ, а ИИ "прграммой автоматизации"

В статье отражается традиционный парадокс, базирующийся на том, что понятие интеллекта якобы можно зафиксировать. Интеллект, на самом деле — непознаваем по определению. Всё, что можно объяснить — не считается требующим интеллекта. Потому все достижения ИИ необходимо исключать из понятия «И».

С человеческим разумом ведь аналогичная операция проходила неоднократно:
— умеет читать — умный. Вычеркнуто
— умеет умножать — очень умный. Вычеркнуто.
— игра в шахматы — занятие для умных. Вычеркнуто (как вследствие того, что стали проигрывать компам, так и вследствие того, что повышение уровня информированности показало, что чемпион мира по шахматам вовсе не обязательно умён).
… и так далее, список того, что когда-то служило явным признаком ума, а сейчас перестало быть таковым, весьма широк.
Мне кажется, тут есть ещё одна проблема. У нас нет приятного к использованию термина, говорящего, что компьютер разбирается в окружающем мире.

У меня собака способна аккуратно открыть пластиковую баночку с остатками мясного соуса. Она знает, что внутри невкусной баночки есть что-то вкусное и его надо открыть.

Это не интеллект. Но если мы научим робота каким-то волшебным образом:
— понимать, что ему что-то протягивают
— опознать, что внутри этого есть искомое
— захватить и перенести это в другое место
— открыть его
— извлечь содержимое
— прийти за добавкой к тому же человеку, что и дал это в первый раз, даже если человек в другой комнате

… то газеты будут будут говорить про Сильный Интеллект.

А это всего лишь собака.

При этом задача взаимодействия с окружающим миром не решена до сих пор, хотя есть какие-то робкие подвижки.

Но решение этой задачи — это же не задача интеллекта.

Как такая задача называется?
Это не интеллект

Да ну?

В моём представлении «интеллект» подразумевает что-то, близкое по уровню к человеку. Собака (пусть и умная) — не его носитель. Если же мы говорим про «опасности ИИ» в контексте «научились тому, что умеет собачка», то я не вижу повода для дискуссии. Опасности собачьего интеллекта для выживания человечества несколько преувеличены.

А как ты определяешь "близость к уровню"? Собака, вон, даже речь в некоторых пределах способна понимать.

Я проверял как собака понимает речь. Довольно умная собака, способная понять «тебе туда не надо», «фу», «брось», «ко мне» и т.д. Если заменить слова на цифры — выполняет совершенно так же. То есть командуешь «33», а он к тебе подходит. «Пять» — и собака останавливается.

Так что важна интонация, а не слова.

А близость к уровню я объясняю на способности объяснить что-то. Если мы начнём разбираться что такое «объяснить» и и что такое «знание», то мы быстро попадём эпистемиологическую трясину.
С животными все сложно. И с командами тоже. У человеков тоже вон много лет для отдачи команд используются невербальные вещи. Свисток у боцмана на кораблях. Свисток арбитра в футболе. «Ё&*$#@&!*@&!!!» в армии. И в общем достаточно легко заметить, что первый уровень реагирования — на громкость и высоту звука, а уже потом на интонацию вообще и на голос, а еще дальше идет разбор что именно сказали. И, зачастую, разбор «что именно сказали» начинается уже после того, как человек начал выполнять команду.
А по поводу интеллекта животных — чем дальше, тем больше подтверждений, что он есть. Просто у них приоритеты другие, интересны им другие вещи и еще и эволюционно приспособлены они к разным вещам. Как тут недавно про гиббонов было, что ставили эксперименты по использованию приматами инструментов в качестве показателя ума. И выяснили, что гиббоны тупы непроходимо. Потом выяснилось, что это экспериментаторы, оказывается, не совсем умны — гиббоны, оказывается, живут в «подвешенном на ветку» положении. И все, что не подвешено на ветку просто игнорируют.
Мы же говорим не о командах, а об о объяснении. С помощью мата и громкости нельзя объяснить новую идею. Только отдать команду или подавить сопротивление.
С помощью мата и громкости нельзя объяснить новую идею.

Расскажите это майору, который у нас занятия на военной кафедре вёл.
«Аналогичный случай был в нашей деревне». После месяца сборов две сотни студентов-математиков «из интеллигентных семей» прекрасно объяснялись на матерном, и прекрасно усваивали информацию, сообщаемую нашими полковниками на матерном.
Опять же, как показывает опыт общения человека с собаками, даже без формального понимания человеческой речи, собаки осваивают весьма нетривиальные модели поведения. Элементарный пример — собаки поводыри. Они умеют удивительнейшие вещи. Включая способность на пешеходном переходе оценить опасность ситуации и принять решение, идти или не идти.
Кстати, как-то однажды, лет тому уже много назад, ехал я по серой ветке от каховки на север. И вот на Нахимовском Проспекте заходит в вагон собака дворняга. Проходит к двери напротив, устраивается там и типа спит. На Менделеевской встала, подошла к двери посмотрела на станцию, так же на Савеловской. Потом на Дмитровской уже прям ждала, когда двери откроются, тут же рысью на эскалатор. И, что еще интересно, на Нахимовском проспекте собака зашла ровно в ближайшую к эскалатору дверь поезда…
И как, идея сложная? Не могу себе представить объяснение того, что такое ядро отображения, или множественное наследование посредством мата и криков. Я могу себе представить маты и крик во время объяснения, но лишь как помеху. Как средство донеселения — нет.
А зачем знать, что такое множественное наследование или ядро отображения, когда нужно радиостанцию развернуть, настроить и связь с соседом установить?
То что собака понимает интонацию не отменяет того, что она может понимать именно слова. Попробуйте положить в угол мяч, какие нибудь игрушки и палку, а потом с одинаковой интонацией попросить собаку принести мяч и палку — она принесет то, что её просят.
Это — интеллект. Не существует, на самом деле, исключительного с резкой границей человеческого разума, «вот тут интеллект, а тут — нет».
Проявления разумности, очевидно, достижение, доступное большинству (если не всем) млекопитающим и птицам (а, может, и динозаврам как предшественникам птиц). Показывается это как раз приведённые Вами примеры и множество и множество прочих.

Дальше вступает в силу классический переход количества в качество. Число разумных эпизодов, их длительность и связность растёт и растёт, пока у человека (и, возможно, у его предков и вымерших родственников) не сливается в единый процесс. В какой именно точке произошло это слияние aka появление разумного существа — думаю, установить невозможно.
Вот я научил компьютер по резкому крику выключаться. Это интеллект? А ещё я научил собаку по резкому крику останавливаться и бросать ту гадость, которую он решил съесть. Это интеллект?

А ещё я научил камень падать вниз, если у него нет опоры. Это интеллект?

Если мы говорим об «искуственном интеллекте» уровня собаки, то я уверен, что его можно написать без каких-то прорывных достижений. Просто очень обширный и сложный алгоритм, поддерживающий множество состояний и условий.
Если мы говорим об «искуственном интеллекте» уровня собаки, то я уверен, что его можно написать без каких-то прорывных достижений.


Как показывает практика — пока нет. Роботизированный автомобиль пока не умеет с достаточной степенью уверенности распознать опасность и не выезжать на перекресток при наличии опасности. А собака-поводырь — это делать может. Стабильно. Многократно. Обеспечивает выживание «пассажира». Вообще, собака-поводырь — это очень сложная и умная штука. Умеет кучу вещей, которые пока недоступны «роботам», включая поиск маршрута и ориентирование на местности при отсуствии карты и связи со спутниками GPS/ГЛОНАСС.
С другой стороны роботы куда лучше прокладывают оптимальные маршруты, могут учитывать строительные работы по ходу маршрута и т.д.

Специфичные навыки животных не являются чем-то невероятным к реализации. Локальные оптимизации могут долго удивлять, но происходящее в процессе не такое уж «невероятное» и «непонятное».
1. Уже писал, что всякое достижение в области интеллекта немедленно перестаёт считаться интеллектуальным. Так что ответ на Ваши вопросы очевиден.
2. Где Вы нашли камень, который до обучения не падал, потеряв опору? Если есть ещё один — не портите, это же даже не нобелевка, покруче будет.
3. Иногда собаки в конкретных ситуациях ведут себя умнее людей, так что ваша уверенность, что можно такое написать без прорывных достижений, мне кажется необоснованной.

У людей просто нет четкого понятия. Сильный\слабый ИИ — довольно кривые определения, разделение по "самосознанию" еще более кривое.


Если глянуть в вики, то там такие


признаки сильного ИИ
  • Принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности;
  • Представление знаний, включая общее представление о реальности;
  • Планирование;
  • Обучение;
  • Общение на естественном языке;
  • И объединение всех этих способностей для достижения общих целей.

А так же дополнительные:


  • Сознание: Быть восприимчивым к окружению;
  • Самосознание: Осознавать себя как отдельную личность, в частности, понимать собственные мысли;
  • Сопереживание: Способность «чувствовать»;
  • Мудрость.

Возможно, все сорта ИИ можно классифицировать так:


image


То, что у нас есть — это слева на оси абсцисс.


Некий гипотетический супер-ии, которого многие опасаются, включая Хоккинга, Маска и прочих, описанный таким образом:


Первый день нам было интересно с ним как с младенцем, но к концу дня это уже был подросток
За третий день он вырос до профессора МТИ
Пятый день принес множество уникальных открытий. в том числе защиту для ИИ от саморазвития
На вторую неделю общение прекратилось… нет он не перестал с нами разговаривать… просто мы перестали его понимать

это самый правый верхний угол диаграммы, высокие интеллектуальные способности + самосознание.


Но, ИМХО, возможно существует ИИ, который обладает высоким интеллектуальным потенциалом без самосознания. Именно такой ИИ нужен цивилизации (из мечтаний о технологической сингулярности). Но остается открытым вопрос — что такое (само)сознание и возможен ли такой тип ИИ, или он автоматически приводит к зарождению (само)сознания?


Вопрос

А есть ли самосознание у человека? Почитаешь различные современные теории от психологии и задумаешься...


image

Есть, есть. Независимо от природы феномена — самосознание вполне наблюдаемый феномен, не сводимый (теми же психологами) к определенной совокупности других. На этом вообще много спекуляций, побольше чем на ИИ. Начиная с вопроса шкалы осознанности разных животных, которую вряд ли кто-то смог бы однозначно выстроить.
> что такое (само)сознание и возможен ли такой тип ИИ, или он автоматически приводит к зарождению (само)сознания?

Мышление, демонстрируемое обычным человеком в повседневной жизни (как говорил Марвин Минский, тот уровень интеллекта, который нужен для понимания, почему можно потянуть что-то за веревочку, но нельзя ей что-либо толкнуть) — уже предполагает рефлексию, самоконтроль, чтобы отследить, когда вы заходите в тупик и нужно сменить подход. И часто для этого приходится всерьез размышлять как над ошибками в своих действиях, так и над ошибками в своем мышлении. Что это, как не самосознание? Оно не зарождается автоматически благодаря высокому интеллектуальному потенциалу. Оно его реализует.
уровень интеллекта, который нужен для понимания, почему можно потянуть что-то за веревочку, но нельзя ей что-либо толкнуть) — уже предполагает рефлексию, самоконтроль
Совершенно не очевидно.

Для решения таких задач робот может знать о своих исполнительных механизмах, но не о процессоре.

Сильно упрощая, рассмотрим программу, решающую уровни в Sokoban. Она может получить новое знание — вывести теорему, что если ящик загнать в угол, то уровень провален. И оптимизировать решения, используя это знание, искать разные подходы и стратегии. Совершенно не обязательно понимать, что за пределами этого виртуального поля с ящиками есть что-то ещё, осознавать себя, как разум, существующий над этой игровой доской.
В приведенной цитате речь идет не о решении механической задачи путем проб и ошибок, а об ответе на вопрос «почему?». Не загонять ящик в угол — важное частное правило. Почему так нельзя делать? Правильный ответ — стоящий в углу ящик невозможно толкнуть. Сможем ли мы его получить, или получим что-то вроде «когда ящик оказывался в углу, игра всякий раз была проиграна»?

Человеку для его исключительной гибкости, адаптивности понадобились рефлексия и самосознание. Лишенные же этих свойств животные такой приспособляемости не проявили — как и созданные до сих пор машины. Поэтому как раз сомнительно, что без них она возможна.

> Совершенно не обязательно понимать, что за пределами этого виртуального поля с ящиками есть что-то ещё

Пионеры ИИ создали программы, успешно манипулирующие кубиками в виртуальном и реальном пространстве, около полувека назад. Кубиками успех этих программ и ограничился.
Лишенные же этих свойств животные такой приспособляемости не проявили — как и созданные до сих пор машины
Логика на уровне:
— Птицы летают, у птиц есть перья. Значит, летающую машину надо делать с перьями.
Или
— Математики решают квадратные уравнения, но ежедневно принимают органическую пищу. Значит, создание машины, решающей уравнения, начать надо с конструкции желудка.

Пионеры ИИ создали программы, успешно манипулирующие кубиками в виртуальном и реальном пространстве, около полувека назад. Кубиками успех этих программ и ограничился
А потом они создали ещё 100500 систем, успех которых был выше, но при этом им не пришлось программировать самосознание.

Я не спорю, что самосознание ценная вещь. Вопрос в том, какие должны быть интеллектуальные задачи, которым было бы оно необходимо. Я считаю, это только задачи уровня самостоятельной постановки целей для себя, когда машина должна существовать и развиваться без внешнего управления. А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».

Правильный ответ — стоящий в углу ящик невозможно толкнуть. Сможем ли мы его получить, или получим что-то вроде «когда ящик оказывался в углу, игра всякий раз была проиграна»?
Разумеется, нет. В системе даже нет такого понятия — толкать. Зато там будут другие понятия, которых нет у людей. Например, логический вывод из 16 посылок как одна единица смысла. Человек его сможет разобрать за полдня умственного труда, но скажет — это не логика, это перебор вариантов. А для ИИ такой вывод будет элементарным, как для человека «Если А, то Б. Имеется А. Значит — Б».

Просто такая позиция — как у плохого экзаменатора. Вот я ожидаю ровно такой ответ, как в учебнике, если объяснение другое (хотя и не лишённое практического смысла) — двойка.

Если бы мы хотели, чтобы компьютеры хотя бы считали, как люди, мы бы сделали их десятичными, а не двоичными. Но зачем, если для наших задач и так хорошо.
А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».

:-))) Вам всё никак не удаётся прочесть до конца комментарий, на который вы отвечаете. Попробую еще раз: «В приведенной цитате речь идет не о решении механической задачи путем проб и ошибок, а об ответе на вопрос «почему?»». Собака на вопросы не отвечает.

Я не спорю, что самосознание ценная вещь. Вопрос в том, какие должны быть интеллектуальные задачи, которым было бы оно необходимо. Я считаю, это только задачи уровня самостоятельной постановки целей для себя, когда машина должна существовать и развиваться без внешнего управления.

Любая поставленная задача требует самостоятельного разбиения на подзадачи (по крайней мере если вы не хотите сами его выполнять — а именно от этого мы хотим уйти). Для этого машина должна иметь представление о своих возможностях. Также для успеха нужно уметь оценить время, за которое она сможет задачи выполнить.
Если успешное выполнение задачи оказывается невозможным, машине нужно уметь найти проблему в своих рассуждениях, которые к этому привели, и попробовать другой подход.
Всё это не требует самосознания. Это и есть самосознание. Просто не нужно видеть в нем нечто магическое.

Если бы мы хотели, чтобы компьютеры хотя бы считали, как люди, мы бы сделали их десятичными, а не двоичными. Но зачем, если для наших задач и так хорошо.

Ирония в том, что для наших задач так не хорошо, поэтому когда вы работаете с числами в областях, любящих точность (например, финансовой), вы должны помнить, что в Java и C# следует просто использовать тип decimal, а в JavaScript идти на дополнительные ухищрения с пересчетом сумм в самую мелкую единицу и хранением как целые числа.
Любая поставленная задача требует самостоятельного разбиения на подзадачи
Хорошее объяснение. С этим я согласен.
Да, и кстати:
Для решения таких задач робот может знать о своих исполнительных механизмах, но не о процессоре.

Ему, вероятно, и не требуется знать, как регистры процессора выполняют элементарные операции.
Мы ведь можем существовать, не зная, как работают клетки нашего тела. Более того, и большая часть работы мозга от нас скрыта. Даже механизмы, мотивы принятия важнейших решений — выбор спутника жизни, пристрастия в работе, в еде — часто остаются неизвестными.
«А задачки типа «толкать или тянуть» и собака решает. Она при этом не размышляет как: «Я собака, я в теле собаки, поэтому верёвку толкать лапами нельзя, её надо тянуть зубами».»


Напишете на коленке ИИ, который выполняет хотя бы это — чтобы ваш робот мог тянуть или толкать?

Потом посмотрим, как он отреагирует, если я предложу потолкать, потянуть

веревку, кусок мяса, щенка, деревяшку, железку, кактус, солнечный зайчик
на ровном месте, над лужей, на лестнице, на льду

Потом решим, размышляет собака или нет.

P.S. У всех животных есть интеллект. Они еще не дошли до создания абстрактного словаря (и то, у дельфинов и китов что-то намечается), чтобы общаться чем-то большим, чем выражение примитивных эмоций. Но по сравнению с компьютерными программами — они — реально разумны.
Но по сравнению с компьютерными программами — они — реально разумны.

Очень точно подмечено.

Когда я слышу про небывалые успехи в области ИИ, робототехники, у меня возникает вопрос: а где же домашние робопитомцы — аналогичные котятам и щенкам, кошкам и собакам по поведению, отношению к людям, доступные по цене? Как сможет ИИ полностью заменить человека в ближайшем будущем, если он до сих пор не смог заменить даже животных?
Пока человеки не разберутся сами, что есть разум и как он функционирует — ни о каком ИИ речи быть не может. Да и фетишь на искусственный разум, способный к созиданию и развитию мне откровенно непонятен. Зачем нужен ИИ? Людям нужны искусственные рабы, на которых можно взвалить обеспечение жизнедеятельности для высвобождения времени в пользу чистого творчества и праздности. Зачем людям искусственные рабы с осознанием собственного Я, с эмоциями и амбициями? Разве что для войны машин и людей. Ну еще комплекс Бога почесать: «смотри, мы тоже так можем!».
А реально людям нужны логические автоматы с высокой скоростью принятия точных решения на основе точных знаний и качественного анализа. Не нужен нам никакой искусственный разум, секс-куклы с сознанием 10-летней развратной девочки или искрометно шутящие кибер-таксисты.
Людям нужны искусственные рабы, на которых можно взвалить обеспечение жизнедеятельности для высвобождения времени в пользу чистого творчества и праздности

Гораздо проще использовать для этого людей. Половина населения планеты всё ещё пальцем подтирается и читать-писать не умеет. Есть низшие расы, есть бесполезные нации, все они могут быть использованы для этих нужд и предварительно стерилизованы. И в бога поиграть и пожрать вкусно.
Думаю ИИ в первую очередь нужен для создания какого-то совершенно нового вида оружия, которое изменит баланс сил на планете.
Гораздо проще использовать для этого людей.
Проще — да. Но дороже.

Кормить, обеспечивать сном и гигиеническими процедурами. Долго обучать каждый экземпляр, чтобы получить более полезные функции. Прогнозировать необходимую численность на много лет вперёд.

Намного дешевле использовать программы, которые легко копировать и запускать ровно столько экземпляров, сколько сейчас нужно.
Проще — да. Но дороже.

С чего бы? На данный момент в Африке и ЮВА есть больше десятка стран, где за цену средненького двухпроцессорного сервера можно получить 100-500 человеко-лет рабочей силы. Самовозобновляющейся, (от части) самообучающейся, самостоятельно обеспечивающей себе условия для жизни и пропитание.
Более того, такая рабочая сила активно используется не очень легальными организациями, например, в качестве самообучающегося суперкомпьютера по разгадыванию каптч. И это очень даже окупается!
Это от безальтернативности, потому что не готова технология. Как только технология появляется, люди проигрывают в стоимости владения.

Или вы предлагаете отказаться от автомобилей и запрячь рабов в тележки? Дешевле выйдет?
Может, лучше использовать определение «программа, способная к самооптимизации»?
gcc что ли?
разве он сам себя оптимизирует? Через какие промежутки времени он выдаёт свои новые оптимизированные версии?
gcc работает тогда, когда ей сказали. Можно вполне себе представить программу, которая собирает perfdata и пытается loop-unroll и другие фичи в горячих местах и, наоборот, -Os в местах, которые редко используются.

Но задача оптимизации не является задачей какого-либо интеллекта, потому что любая оптимизация — это всего лишь поиск экстремумов функции. Задача невероятно сложная, но она сложна и для компьютеров, и для людей, так что считать её признаком интеллекта — ошибочно (а если вы думаете, что люди хороши в задачах оптимизации… Удачи с составлением школьного расписания).
Задача зрения, например, не осуществляется самим человеком. Точно также и оптимизация, используется как основа, но не осознанно, а как базис. Использовать в данном случае функцию А или сгенерировать функцию В, которая «лучше». Быстрее, экономичнее, лаконичнее, логичнее — каждый раз это «лучше» другое.
Помнится раньше, лет 25 назад, было както так, каждая последующая базируется предыдущей

система первого уровня — база данных — тексты, ключевые слова, в миру поисковые системы.
второго уровня — база знаний — из текстов выделяются «знания», далее — смыслы, и хранятся уже они, поиск тоже по смыслам, в миру экспертные системы.
третий — манипуляция смыслами — смешивание, разделение.
четвертый — «верификация» смыслов — проверка на согласованность
пятый — создание новых смыслов.

ИИ как раз начинается с пятого уровня.

Сломались (тогда) на экспертных системах — высокая трудоемкость ручного выделения смысла из текста, ну или набивание его с нуля человеком, понятное дело пытались статистически, прогоняя кучи текстов, но низкое качество результата не позволило взлететь. Были только очень узкоспециализированные системы.
К сожалению, SLY_G весьма часто тащит на гт всякую фигню, в которой ничего не понимает.

Сложившаяся терминология такова, что ИИ — это
1 алгоритм и/или устройство, который может действовать «разумно» в рамках задачи. Напр. бот для игры, или ocr.
2 совокупность методов создания таких алгоритмов. Напр. поиск в дереве игры, нейросеть, svm, байесовский классификатор.
3 направление науки, которое занимается разработкой и использованием таких методов.

Не надо выдумывать всякие ВИ из массэфекта и роботов, которые «сознают себя как люди», и обзывать их истинным ИИ. Есть устоявшаяся терминология, и согласно ей ИИ не обязан быть разумным. Он просто должен работать на данной задаче, и чтобы он делал это хорошо, приходится использовать какой-либо из методов ИИ.
Не надо выдумывать всякие ВИ из массэфекта и роботов, которые «сознают себя как люди», и обзывать их истинным ИИ. Есть устоявшаяся терминология, и согласно ей ИИ не обязан быть разумным. Он просто должен работать на данной задаче, и чтобы он делал это хорошо, приходится использовать какой-либо из методов ИИ.


Проблема в том, что маркетологи (того же Watson например) закладывают смысл системы с самосознанием, имитируют осознанные диалоги и т.п. Экспертность системы ассоциирующаяся с разумной машиной эксплуатируется среди технически неподготовленных масс населения.

Это не отменяет того факта, что нейросети эффективно выполняют свои задачи в определенных прикладных областях.

С другой стороны, журналисты/другие маркетологи используют распиаренный образ ИИ для своих решений «поилки для канареек с ИИ на трех нейронах».

Выходит что одни люди делают систему похожей на сильный ИИ когда он таковым не является, а другие люди просто эксплуатируют образ ИИ для создания инфоповодов/продвижения своей продукции. Первые развивают систему, чтобы она была похожа на сильный ИИ, а вторые заменяют слово «нейросеть» на фразу«ИИ».

Таким образом образ сильного ИИ является идеалом, который поддерживается в обществе. В связи с этим появляются завышенные ожидания, а на самом деле существуют в лучшем случае похожие по поведению системы (есть некоторый смысл социального взаимодействия с человеком), а в худшем случае ВеликийЗамечательныйПрограммныйПродукт(с ИИ), к которому прикрутили нейросеть для выбора оптимального голубого цвета кнопки «Рассказать друзьям».

Термин ИИ неизбежно несет разочарование в несоответствии ожиданиям, поэтому поднимается вопрос о различных оговорках как сильный-слабый ИИ и т.п.
Приведу отрывок из книги «Искусственный интеллект. Современный подход. Рассел С., Норвиг»:
"… трактовки идеальной концепции интеллектуальности, которую авторы настоящей
книги предпочитают называть рациональностью. Система является
рациональной, если она «все действия выполняет правильно», при условии, что система
обладает знаниями о том, что является правильным."
т.е. искусственный интеллект рассматривается в качестве рационального интеллекта. И по мнением авторов интеллектуальность определяется способностью планировать будущее.
А чего никто не вспомнил, что в английском языке AI несет совсем другой оттенок, нежели русский «искусственный интеллект»?
А пендосском есть 2 похожих слова: intellect и intelligence.
Первое — это умение (способность) управлять своим разумом и эмоциями. То о чем писали в статье: непредсказуемость, самоосознание и т.д.
Второе — умение использовать накопленную информацию и решать задачи.
Термин AI как раз содержит второе понятие. Современные программы как раз это хорошо умеют делать, они собирают информацию из БД, датчиков или как-то еще и могут применять их в новых ситуациях. Это artificial intellegence в чистом виде.
А вот говорить об artificial intellect, если по Поперу, то не научно. Мы никогда не поймем что такое ЕСТЕСТВЕННЫЙ ИНТЕЛЛЕКТ, чтобы оценить получилась ли его искусственная копия (см. «философский зомби», «китайская комната» и т.д.).
Все эти «философские зомби» и «китайские комнаты» суть профанация. В этих концепциях изначально постулируется непознаваемость интеллекта (просто потому что), при чем неявно, а сами эти мысленные эксперименты строятся чтобы доказать ее же, т.е. непознаваемость интеллекта (сознания).
В принципе верно, хотя и там есть ньюансы, вот например выгрызено из википедии по статье AI «As machines become increasingly capable, mental facilities once thought to require intelligence are removed from the definition. For instance, optical character recognition is no longer perceived as an example of „artificial intelligence“, having become a routine technology.[3] Capabilities currently classified as AI include successfully understanding human speech,[4] competing at a high level in strategic game systems (such as Chess and Go[5]), self-driving cars, intelligent routing in content delivery networks, and interpreting complex data.»

То есть пока распознавание изображений было на слабом уровне его называли AI, и так действительно было, задача зрения и распознавания считалась отличным примером потому что являлась сложной для машины но очень простой для человека. Отсюда возникли все эти капчи. Но стоило области развиться и стать «рутинной» и оно уже не AI а просто алгоритмы. Хотя сложность систем распознавания изображений не уменьшилась а очень даже увеличилась, и научно и алгоритмически и по потребляемым мощностям. Но это уже не «магия» а «рутина» и все, уже не интеллект. Когда разспознавание речи или автоуправляемые автомобили станут рутиной они тоже потеряют статус AI. Где логика? ее нет. Вернее логика в том что все что мы пока не можем но очень хотим и что может человек — это AI, как только сможем и станет обыденностью — уже обычная программа. AI (и ИИ) не научный термин а психологический и социальный, как это не абсурдно.

Я согласен с статьей, от термина надо отказываться, но не потому что мы не можем четко классифицировать то что мы называем ИИ и определить критерии уровней и в принципе границы ИИ. А потому что это не нужно. Просто не нужно и даже мешает. Загоняет в рамки, в шаблоны мышления.
Интеллект сугубо человеческое понятие, придуманное человеком и для человека. Теоретически нет ничего что мешало бы существованию развитой цивилизации не обладающей созданием. Не говоря уже о том что сознание это вообще узкая внутренняя фишка человека и нет его четких критериев, и не будет. Внутренний диалог? ну тогда система из нескольких подсистем общающаяся по API между собой обладает сознанием. И я не утрирую. Диалог есть и он внутренний.
Все остальные свойства иннтеллекта тоже при желании можно натянуть на любые сложные системы, но не нужно.

Мы любим очеловечивать не человеческое, ругаемся на глючные программы, разговариваем с компьютером или автомобилем, одеваем собачек в одежду и тапочки. Делаем то что совершенно не нужно этим системам и животным. Для большинства людей ИИ это веселый андроид который ведет себя как человек.

Но нам не нужны веселые андроиды, вернее они очень нишевой продукт. Нам не особо нужен и всемогущий универсальный интеллект который может сделать все что может человек и еще лучше. Нам нужны системы распознавания изображений, анализа речи и данных, самоуправляемые автомобили, роботы способные действовать в нужных условиях но адаптироваться под ситуации и обучаться на них и многое другое. Это РАЗНЫЕ продукты, не нужно из загонять в рамки классификаций придуманных для людей и очеловечивать их. Как делают это «эксперны по ИИ» и остальные люди. Их просто нужно делать, и их делают. Это инструменты а не дети.
Даже если случиться такая беда и мы случайно или намеренно создадим то что мы сейчас назваем сильным ИИ, с чего мы взяли что он будет похож на человека по способу мышления, решению задач и «сознанию»? Скорее всего не будет, если конечно не создавать специально еще одного «человека». Задача создания сильного ИИ имеет только одно прикладное значене — изучение человеческого интеллекта и расширение наших знаний о возможных вариантах устройства «интеллекта» (ну нет другого термина вот и использую). Хорошая задача, но пока рановато и не имеет ничего общего с ожиданием многих людей о всемогущем боге который поведет человечество к процветанию и сингулярности.

"«антропные вычисления» – это программы, которые должны вести себя, как люди, или взаимодействовать с ними" — в принципе хорошо, четко отделяем веселых андроидов и электронных ассистентов в эту категорию, все остальные программы с обучением занимаются своим делом и не машут флагом ИИ, «сильный ИИ» называем «проектами по изучению мышления» а термин ИИ (сильный и слабый) вообще забываем оставляя в фантастике чтобы не пудрить себе и другим мозги. Ну маркетологам можно еще оставить, им можно, надо же что-то загадочное и трендовое писать в рекламе и прессе.
Но нам не нужны веселые андроиды, вернее они очень нишевой продукт. Нам не особо нужен и всемогущий универсальный интеллект который может сделать все что может человек и еще лучше. Нам нужны системы распознавания изображений, анализа речи и данных, самоуправляемые автомобили, роботы способные действовать в нужных условиях но адаптироваться под ситуации и обучаться на них и многое другое. Это РАЗНЫЕ продукты, не нужно из загонять в рамки классификаций придуманных для людей и очеловечивать их.

О, это напоминает былинные рассуждения боссов из IBM конца 70-х: «Кто может захотеть купить домашний компьютер? Едва ли он кому-то понадобится!» :-)))
Хух, а я думал много математики будет в следуюющем проекте связаном с ИИ
Термин это ярлык, который можно прикреплять к разным явлениям. Исходя из этого, термин не может потерять смысл, он может быть размыт, потерять ясность, однозначность трактовки разными людьми.

Термин «интеллект» давно не имеет такой ясности даже в приложении к человеку, в отрыве от искусственных систем. Есть множество родственных терминов, границы между которыми размыты, зависят от субъективной трактовки: эрудиция, осознание, сознание, разум, мудрость.

Интеллект подразумевает лишь одно из качеств психики. Спорным является вопрос отнесения исключительно к интеллекту способности к оперированию абстракциям, способности к обучению, способности к постановке целей и планированию действий для изменения условий.

Появление AI, частично решающих отдельные задачи, не размывает термин, напротив — позволяет задуматься над его уточнением и приближает к пониманию того, как функционируют головы людей.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Изменить настройки темы

Истории