Pull to refresh

Comments 146

Исследования идут в коммерческих направлениях в основном. Бегающие крокодилы и аквалангисты с шоколадными сигаретами, увы, таковыми не являются. По теме интересующимся могу посоветовать курс
Являются. ИИ умеющий отвечать на такие вопросы будет весьма близок к полноценному ИИ и это революция практически во всех областях жизни. Мне кажется основная проблема связана с тем, что никто не знает как такой ИИ собственно сделать.

Ну и на самом деле претензии в статье несколько мимо. Сейчас в мире идет достаточно серьезных проектов по изучению работы мозга и моделированию работы мозга, целью которых в частности служит и приближение создания ИИ, да и самим ИИ занимаются много и активно.

en.wikipedia.org/wiki/Blue_Brain_Project
en.wikipedia.org/wiki/Human_Brain_Project_(EU)

А siri и google voice — хорошие коммерческие проекты достаточно качественно выполняющие поставленную перед ними задачу, на роль ИИ они и не претендовали никогда.
Может автор хотел сказать, что у Google & Co куча бабла и возможностей, которое они тратят на неинтересные, с его точки зрения, проекты? И они же, опять же, с его точки зрения, выставляют это как продвинутые системы в сфере общения железа и человека?

Но я согласен с:
А siri и google voice — хорошие коммерческие проекты достаточно качественно выполняющие поставленную перед ними задачу, на роль ИИ они и не претендовали никогда.
UFO just landed and posted this here
По-моему, вопрос не в том, будет ли ИИ создан или скопирован (в конце концов, копию сознания человека теоретический можно отреверсинжинерить с помощью тех же копий), а какая минимальная вычислительная мощность ИИ. Явно гораздо меньше чем у человеческого мозга, но скорее всего больше, чем у K-computer. Вот на этот вопрос копирование ответа не дает.
Гораздо легче перенести создание живого разумного существа в информационную среду


Источник с потолка брал информацию явно т.к. никаких идей как перенести сознание в информационную среду и можно ли это сделать вообще ни у кого нет, соответственно и сравнивать это со сложностью создания ИИ как то не очень корректно.
Проблема ИИ в данный момент, это определение «интеллект». За образец просто всегда берется интеллект человека, и при любой попытке к нему приблизиться сразу возникают вопросы: «а где креативность», «а где своекорыстность» и т.д. Просто умения программ играть в шахматы, прокладывать оптимальные маршруты, парсить синтаксис и самообучаться, желательно было бы на ранних этапах возникновения теории другим термином назвать.
интеллект можно рассмотреть как «способность принимать решения, для устранения потребностей»
для этого определения надо чтобы у процессора кроме электричества и охлаждения потребности появились
Причем тут процессор? У меня есть интеллект — значит у меня есть процессор? Есть реквест, который является проблемой и ложится в стек реквестов интеллекта. К примеру если брать искусственный интеллект, то в качестве проблемы можно обозначить ответ пользователю в чате на вопрос «Привет. Как дела?» (пользователь тут будет являться создателем проблемы, инициатором, а интеллекту необходимо будет принять решение, на основании памяти (как поступить оптимально в данной ситуации) и передать решение нужному исполнителю решений (в данном случае будет интерфейс общения с пользователем)
Я не это имел ввиду. Это не технический вопрос, а философский. У человеческого интеллекта всегда есть какой-то смысл (сущность феномена, находящаяся вне феномена). Для решения подобных задач термин интеллект, как объединяющий значения людского и программного, весьма не корректен. На заре кибернетики от этого многие страдали не только в СССР, так как смысл программе задает только ее создатель, а результирующая сущность без привилегированного внешнего наблюдателя бессмысленна, то есть неуловимой кантовской вещи в себе приходит конец.
Термин изначально просто желательно было бы другой подобрать, типа «сверхлогика», «саморазрешаемость», «надобучаемость». А в термине «интеллект» и вся проблема, как когда-то было с Теорией катастроф: только из-за названия, книги по строгой математической науки начали печатать карманным форматом на популярном языке (а пипл хавал).
Я придерживаюсь мнения, что интеллект у человека это по сути такая же программа, «мотивированная» лишь на выдачу правильных ответов на вопросы других частей разума человека. Интеллект не занимается постановкой задач — он только их решает.
Более того. интеллектом обычно принято называть сознательную часть мышления, то есть основной процесс, а подсознание, котороые на гора выдает кучу продуманных ответов после анализа связей и является по сути фоновым процессом обработки и сортировки данных почему-то забывают. Между тем главное отличие человеческого интеллекта от искусственного — житейский опыт.
Мы понимаем суть вещей, будучи знакомыми с ними на практике, а затем экстраполируем наш опыт, отвечая на заданный абстрактный вопрос. Гугл и ему подобные похожи на ребенка, который умеет читать, но ничего в жизни не видел — они не понимают смысла прочитанного. Замечали как забавно дети рассуждают о вещах, которых не понимают или не видели? Звучит все логично, но на деле — полная чушь. Потому что у них нет инструмента, которым можно отсечь заведомо абсурдные гипотезы. Без понимания ответы на вопросы прерващаются в упражнение по формальному конструированию фраз на естественном языке.
Из подобных размышлений можно сделать вывод — нужно строить внутри ИИ систему взаимосвязей смыслов, а не только синтаксическую модель.
Опыт это ничто иное как память, она также может быть свойственна компьютеру — почему нет?
вот эта ошибка и ведет к созданию псевдоИИ и техническому анализу на форексе.
Опыт это память, плюс модель, согласно которой данные в памяти интерпретируются.
Это не просто набор фактов, это и алгоритмы, выработанные в результате приобретения опыта. Алгоритмы отнесения объектов к различным категориям по косвенным признакам, алгоритмы предсказания с помощью экстраполяции данных, алгоритмы, позволяющие обобщать и наоборот вычленять частности. Факты без структуры и алгоритмов их обработки — просто куча мусора. А человек приобретая опыт не только пополняет копилку фактов, но и совершенствует алгоримты их обработки. Специфичные для различных типов данных.
>набор фактов
>алгоритмы
Вы так говорите, словно это нельзя хранить в памяти. Ок — если не в памяти, тогда где? Алгоритм это информация, а информация может храниться только в памяти. И смею заметить вы говорите так, словно хотя бы один настоящий ИИ был уже создан, да и к слову — я говорил не про ИИ, а про интеллект. Вот ваша как раз и ошибка, что вы корову с молоком путаете. При чем тут человек? А у ЕЖА нет интеллекта? Может он растение? Поясните тогда ваш взгляд на мир.
Не сводите память только к простым фактам. Допустим, база знаний представлена в памяти, но может описывать логику взаимодействия (условие→заключение в продукционных системах).
Я и не свожу. Только заметьте — продукционная система не может сделать наблюдения и вывести новую связку условие — заключение и записать его в память самостоятельно. А для ИИ именно это и требуется. Все это можно и нужно хранить в памяти, но такие системы как гугл используют свои огромные базы данных исключительно как факты. Гугл не в состоянии прочесть инструкцию по пользованию и изложить ее смысл кратко своими словами.
Для введения новых знаний используются те или иные методы обучения. Естественно и модели представления знаний, и модели обучения на сегодня не дают «интеллекта», но своеобразное подобие опыта существует.
Именно, что подобие. И только для жестко заданных заранее областей. ИИ на данный момент не может учиться произвольным вещам. Я вижу одно из направлений развития в виде краулера, который будет по мере изучения мира выстраивать свою модель этого мира, где будут не только данные, но и «скрипты» ее оживляющие. В нашем распоряжении в любой момент есть не только «видео» какого-то события, но и возможность изменить его по своему вкусу, причем мы будем понимать какое изменение могло бы произойти в реальной жизни, а какое невозможно. (Например. Полететь при прыжке в воспоминаниях мы можем, но на практике этого не получится).
На этом пути ждет много трудностей, как и с людьми, но принципиально машина может обучаться быстрее, в пределах доступных средств получения информации, конечно.
Да, сейчас ограничений ещё много. Но люди трудятся над преодолением этих трудностей. Обучаться произвольным вещам на самом деле и человек не может. Ну, или во всяком случае это чрезвычано сложно. Допустим, те же алгоритмы предсказаний (к примеру погода) учитывающие большое множество факторов уже опережают обычного человека.
Обучаться человек может, он принципиально может себе поставить эту задачу и начать собирать информацию для ее решения, приобретать навыки и опыт. Алгоритмы предсказаний же жестко заданы и работают в рамках, определенных человеком, проводя относительно простые корреляции. Единственное, в чем они превосходят человека — возможность оперирования с большим количеством данных быстро.
Алгоритмы предсказания не заданы жёстко. Обычно используются различного вида регрессионные анализы, нейросети и т.п. Я к тому, что задача, поставленная для обучения может быть разной, и не все из них может осилить человек.

Я согласен, с Вашим тезисом, о том, что разрабатываемый ИИ обычно не имеет житейского опыта. Допустим, те же системы семантического анализа обычно не «понимают» чем оперируют. Это как ребёнок, которого с рождения запереть в комнате и давать только читать книги. Ответит ли он, на вопрос о крокодиле? Даже обычные дети ещё не сформировавшие модели физики в своей голове могут не ответить на такой вопрос. Для них крокодил Гена может бегать и прыгать.

Но мне кажется Вы переоцениваете когнитивные способности человека. Во-первых, они тоже ограничены. Не уверен, что безграничные возможности к обучению возможны в условиях ограниченной вычислительной мощности. Во-вторых, есть модели обучения «произвольным» вещам и в технических системах. Но да, такие модели всё ещё и пилят и пилят, да и для серьёзных задач просто упираемся в нехватку вычислительных ресурсов.
используется много чего, но ничего из этого сам «ИИ» не выбирает для анализа даже после начала обучения. Кажущаяся сложность экспертных систем (а именно так называются помощники, перерывающие груду информации и выдающие заключения или диагнозы), всего лишь качественно написанный довольно жестко заданный алгоритм. Да, он эффективен, но только в узкой заданной заранее области. И переучиться он не может.
Крокодил Гена и правда может бегать и прыгать, мы говорим о том, что реальный крокодил не может. Это и есть опыт. Дети как и компьютеры этого могут не знать.
Вы все время оправдываете ограниченность ИИ его ограниченным контактом с миром. Я говорю о том же — не надо его ограничивать, не нужно пытаться всему научить умозрительно. Дайте ему опыт, научите разбирать информацию и научите формировать свой багаж опыта. И он будет ошибаться, как и человек, неверно и ограниченно интерпретируя факты, потому что совершенно объективных данных почти не бывает. Но он будет гибче и ближе по возможностям обучения к человеку.
Нехватка вычислительных ресурсов возникает при попытке решить задачу в лоб, что не есть умный способ. Нас в школе и универе учат как раз не делать этого. Но это самый простой способ, он просто трудоемкий и мы раз от разу пытаемся переложить на могучие плечи процессоров задачу перебора, надеясь, что теперь то можно не думать, а просто найти решение в лоб, подбирая ответ. В этом и ошибка. Задачу нужно решать, а не подбирать ответы. Гугл тоже ищет готовые ответы как и все существующие крупные псевдоИИ.
Интеллект- это инструмент по переработке входных данных и выработке решений, способный найти закономерности, а не просто найти подходящий ответ.
У человеческого интеллекта всегда есть какой-то смысл


Вот только, поскольку интеллект сам по себе не может обнаружить смысл, не раскрываемый через другой смысл, можно придти к выводу об отсутствии смысла как такового. Жизнь не имеет смысла. Но имеет желание продолжаться. Потеря этого желания равнозначна самоустранению, остаются только те, кто устранятся не склонен.

То есть, в грубом приближении естественный отбор оставляет только тот интеллект, который принимает продолжение собственного существование за аксиому смысла. Наверно, на этот факт стоит обратить особое внимание.

Но именно такой ИИ нам, людям, не нужен — он противоречит нашему смыслу, диктуемому желанием жить. Мы и между собой-то ещё не все вопросы на эту тему решили…
Не обязательно у процессора. У программы, которая пытается имитировать интеллект. Если есть потребляемые программой ресурсы — их можно рассматривать как потребности.
Потребности есть не у мозга (мозгу нужны питательные вещества и отвод результатов метаболизма, как процессору электроэнергия и отвод тепла). Потребности есть у сознания, которое что-то считает собой и своим. А сознание это информация, а не железо.
Кстати да. В общем случае человек на вопрос «кто получился похожим на гольфиста?» отвечать не обязан, нет у него такой потребности. А если эа ответ ему плюшку дадут, появляется потребность (или не появляется, если он плюшки не любит). Так почему ИИ обязан отвечать на подобный вопрос?
Процессор перегрелся и увеличил обороты кулера. Он принял решение для устранения потребности. У него есть интеллект? :) Однобокое какое-то определение, короче.
Это автоматизм. У психики тоже есть реактивные контуры, но психика их создает и разрушает (как минимум, активирует и деактивирует) при адаптации к ситуации.

Чтобы адаптироваться к ситуации, ее нужно распознать. Распознать ситуацию, значит выделить наиболее важные тенденции в ситуации и источники этих тенденций.

Психика в целом только таким распознаванием и занята. Поведение, по сути — побочный эффект распознавания. Что бы психика ни делала это связано с распознаванием тенденций и иэ источников в ситуации.

Можно сказать, достижение целей это сервисный механизм непрерывного целеполагания. Чтобы распознать цель высокого уровня необходимо достичь ранее распознанных целей более низкого уровня
Эти минусы в карму весьма печальны
Приведу контр-пример: человек перегрелся и вспотел, какова роль интеллекта в этом? Он ведь не принимает решения потеть. И наоборот, приняв подобное решение, он не сумеет заставить себя просто взять и вспотеть. Однако человек может задействовать интеллект для решения задачи «вспотеть» и найти способ через цепочку целей-посредников как достичь результата.

Сам по себе процессор, равно как и человек обделённый интеллектом, сделать нечто подобное — не в состоянии.
Насколько я знаю, некоторые исследователи предложили называть это не ИИ, а интеллектуальным агентом.
Отличие в том, что агент — это не программа, пытающаяся прикинуться интеллектом человека, а всего лишь программа, решающая узко специализированный круг задач.
Я однажды пробовал найти с помощью голосового поиска Google писателя Клайва Льюиса. Менял скорость произношения, тембр голоса, высоту голоса, интонацию… ни в какую. А это и сейчас известный писатель, хроники Нарнии, как-никак.

Стоило на метровом отдалении невнятно пробормотать «джастинбибер»… ну вы понимаете. С тех пор я глубоко презираю все эти системы и не пользуюсь ими никогда — лишняя трата времени и непредсказуемые задержки.
Вы так говорите, как будто результат поиска по запросу «Джастин Бибер» чем-то хуже чем результат поиска по Клайву Льюису. Да и статья в общем-то отнюдь не о распознавании голоса или натасканости алгоритма на определенные словосочетания.
>Вы так говорите, как будто результат поиска по запросу «Джастин Бибер» чем-то хуже чем результат поиска по Клайву Льюису.

А Вы так говорите, как будто нет.
Он не лучше и не хуже, это просто результат поиска. И не проблема гугла, что люди в основном интересуются биберами и гагами, а не британскими писателями. Поисковик очевидным образом ориентируется на массы.
Именно в том его проблема (ср. dontbubble.us/), и именно поэтому это не искусственный интеллект, а совсем наоборот.
проблема ИИ в том что многие его пытаются создать но никто не пытается его «воспитать»… получают зачатки разума и решают соответствует или нет и сразу отбрасывают говарят недостаточно памяти/мошьности ПК а то что даже человеку нужно 2-3 года для того чтобы просто научиться говарить мама-папа на это никто не смотрит, более того действительно взрослому человеку больше 20 лет а всем этим «исскуственным» интелектам меньше 10…
UFO just landed and posted this here
Именно! А еще никто не хочет проявить к ИИ любовь, приласкать, утешить. А почему? Потому что эти действия (включая воспитание) неприменимы к той области алгоритмов, которую называют искусственным интеллектом. Сложно приласкать многомерную линейную регрессию.

В понимании простого человека «зачатки разума» — это осознание окружающего мира. Способность разбивать его на элементы, и понимать, как эти элементы взаимодействуют. Но это не зачатки, а вершина разума. Самые продвинутые алгортимы deep learning в этом отношении пока ближе к гаечному ключу, чем к человеку. Диалог с ними невозможен, их обучают на примерах: «вот котик, вот еще один, а вот железобетонная плита, попробуй найти 10 отличий». Обучение происходит на таких объемах данных, которые человек не в состоянии поглотить за всю жизнь. Но начиная с определенного порога скармливание дополнительных данных уже не приносит результат. И ни 2, ни 100 лет дополнительных тренировок ничего не дадут.

Поэтому проблема совсем не в поиске правильных методик обучения. Проблема в создании той штуки, которая поддается обучению.
Сложно приласкать многомерную линейную регрессию.


А Вы пробовали?!
На самом деле, это несложно. Настройка параметров, уточнение целей, добавление дополнительных факторов, улучшающих сходимость и сам результат, уточнение входных факторов — всё, что угодно, лишь бы алгоритмы были довольны, виляли хвостиком и давали более точную оценку ситуации. Правда, цель пока ставим мы сами и считаем, что программа «довольна», когда её достигает — но при таком подходе её можно и «приласкать» и «утешить». И предложить более вкусную базу данных или обучающий набор :)
Погладь многомерную линейную регрессию, погладь многомерную линейную регрессию, ****!
Вы не путайте мышление с эмоциями. Эмоции — это вообще отдельный разговор, но они не участвуют в ответе не вопрос может ли крокодил пробежать стометровку с препятствиями. Мы можем испытывать эмоции или холодно и безучастно найти правильный ответ. Но мы все равно его найдем. А вот ребенок 3-4 лет, не видевший крокодила не сможет ответить на этот вопрос. Потому что не знает по опыту как передвигается крокодил. У него нет модели движений крокодила, которая позволит предположить, по силам ли крокодилу препятствия. Зато он может с радостью кричать «крокодил!» увидев персонажа мультика. Он его опознает, но ответить на вопрос не сможет.
Sergey6661313 написал, что проблема ИИ якобы в том, что никто не пытается его воспитать. Я ответил, что такие вещи как «воспитать» или «приласкать», применимые к людям, неприменимы к современным алгоритмам. (Достаточно один раз написать и обучить нейронную сеть, чтобы понять, насколько некорректно сравнение с людьми.) На что вы справедливо возразили: не зная, может ли крокодил прыгать через препятствия, нельзя сходу ответить, может ли он прыгать через препятствия! Я долго искал контраргумент, но вынужден с этим согласиться.
Эмоции и есть суть мышления. Эмоции это то, что двигает, направляет. Это побуждения психики что-либо распознать, найти более надежную опору в ситуации, более значительную тенденцию.

Эмоции, которые обычно классифицируются и получают названия это уже ярко выраженные и продолжительные побуждения. Сами по себе такие эмоции состоят из множества куда менее заметных побуждений, для многих из которых и названий то не придумано.

Мышление есть деятельность рассудка. На 90% она воспринимается в вербальной форме, поскольку коммуникация для человека сознательна, если он может назвать воспринимаемые образы. То, что назвать нельзя остается невыразима и обобщается до нерефлексируемой подсознательной массы.

Дело в том, что какой бы многомерной не была ситуация, выражать мы ее умеем лишь последовательно. Слово за словом, аккорд за аккордом, мазок за мазком, кадр за кадром, стружка за стружкой.

Поэтому как бы мы ни не натренировали образное восприятие, в действительности наша психика работает последовательно. Да, мы можем дирижировать оркестром, но сначала договариваемся с каждым музыкантом, репетируем, накапливаем синхронность. Все равно, где бы ни казалась наша способность выражать многосвязное, достигается это слово за словом.

Поэтому каждая эмоция раскладывается на последовательность множества маленьких побуждений, которые в совокупности узнаются психикой как нечто цельное
Насчёт вербальной формы не очень понятно. Многие запросы мы решаем, не переводя информацию в текст вообще: «найди синий мячик», «найди слово или фразу в тексте», «найди тухлую устрицу» — запросы подаются в вербальной форме, но их выполнение идёт целиком на каналах обработки визуальной, обонятельной и т.п. информации. Да и более сложные задачи — правильно ли сделан/работает тот или иной объект — решаются в первую очередь в комплексе всех ощущений. Уже потом, когда нужно локализовать дефект и определить его возможные причины, мы приходим к тексту. Да и то не всегда. При неадекватном поведении большой программы мозг тут же выдаёт 5-6 наиболее вероятных причин и мест, откуда стоило бы начать ловлю ошибки — и это происходит тоже на невербальном уровне.
Конечно, наши действия, большей частью, выглядят последовательными. Хотя, думаю, в любом виде деятельности идёт несколько параллельных потоков — и анализа ситуации, и реакций (при управлении автомобилем задействованы все 4 руки и голова, выполняющие отдельные функции), и предсказания событий, и оптимизации поведения на разных уровнях (в какой момент начать поворачивать руль и как бы объехать эту пробку). Одного вербального канала на эти действия явно недостаточно.
Более того. Когда во время работы человек включает музыку или песни — не для того ли это делается, чтобы заглушить вербальный канал мышления, который только мешает?
Вербальная форма касается рассудочной деятельности. Прежде чем мы говорим, мы рассматриваем последвательность. Но так же любая выразительная форма готовится перед выражением через последовательное рассмотрение. Важны не вербальные проявления, а их основа. Она едина для всей выразительной деятельности.
А если не говорим, а готовимся действовать? Почему рассматриваем именно последовательность, а не дерево вариантов, причём параллельно? Если даже последовательность — то она может состоять из таких элементов, что их и не проговоришь — формулы, изображения, процессы, ассоциативные связи… Основа, может быть, едина, но это не обязательно слова. И думать «не словами» получается гораздо быстрее, хотя и сложнее — всё равно, что программировать только на регистрах, без записи в оперативную память.
Не важно. Рассудочная деятельность вся готовится последовательно. Неважно, даже если мы научимся в результате что-либо делать параллельно (а мы — научимся), само освоение процесс пошаговый.
Вы разобрали вопрос многообразия и неуловимости ряда эмоций, но причем тут логика, которая используется в программировании или игре в шахматы? Эмоции можно было бы рассматривать как колоссальный набор входных данных для мышления, такойже как набор чувств или детальную графическую информацию считываемую глазами.
При том, что логика это часть языка, а не что-то от языка отличное.
Да, пожалуй хороший ИИ мог бы нефигово перевернуть весь современный мир. У нас есть прекрасные технологии для хранения и передачи, получения и воспроизведения информации. Да, есть железо из которого можно выжимать петафлопсы, но оно является обычной числомолотилкой, вся функциональность которого ограничивается фантазией программиста. Нам не хватает систем, которые могли бы решать произвольные задачи, сформулированные на естественном языке, условия которых плохо формализованы, а исходные данные не собраны в готовый набор. При этом от ИИ не требуется умения поддерживать философскую беседу или писать картины из своего воображения, но он должен уметь делать то, чем сильны компьютеры — быстро обрабатывать большие массивы информации.
Например найти самое выгодное предложение какого-то конкретного товара, с учётом стоимости доставки, всех скидок по акциям и прочих условий, перерыв все доступные интернет-магазины. Или переформатировать огромный документ, заменив отступы пробелами и кривые переводы строк, попутно применяя стили к соответствующим фрагментам. Или сформировать план на день с учётом всех предстоящих встреч и походов в нужные заведения, подтянув из доступных источников информации данные о режимах работы, а так же расписании транспорта, возможных пробках и т.д.
Согласитесь, что подобные задачи мы можем решать уже сейчас, но для этого придётся написать программу, которая, скорее всего, пригодится всего несколько раз, или, может быть, только конкретному человеку, ввиду специфичных условий отбора или источников информации. Было бы здорово, если бы ИИ мог собирать такие программки на лету, под каждый отдельный случай конкретной задачи. Насколько я знаю, сейчас эта ниша пустует, а очень хотелось бы, чтобы её кто-нибудь заполнил.
Эти задачи не то, чтобы плохо формализованы, просто они подразумевают огромное количество умалчиваемых параметров. Это так называемый здравый смысл. решение задачи позиционирования с помощью GPS вообще говоря выдает две точки, одна из них на поверхности земли, а вторая внутри ее, но здравый смысл подсказывает, что внтури земли мы находиться не можем и это знание заложено в программу вычисления координат. Она этого не понимает, но зато выдает правильный ответ на вопрос «Где я». Эту базу здравого смысла человек накапливает в течение жизни. А ИИ обычно этому не учат.
Я что-то сомневаюсь в эффективности/объективности представленных автором задачек, которые он называет «Схемы Винограда». Подобные вопросы очень относительны, контекстуальны и иногда сложны для людей. Мне время от времени встречаются тесты с похожими вопросами для людей (также известные как тесты на логику/задачки на сообразительность), эти тесты как раз таки играют на запутанных относительностях и отнюдь не очевидны.
В качестве примера приведу немного модернизированный вариант задачки из статьи:
Сэм попытался нарисовать картинку пастуха с бараном, но в итоге он получился невыразительным. Кто получился невыразительным?
Я когда сдавал ЗНО по математике (aka ЕГЭ) там была какая-то задача в конце, более развернутая, конечно, но с подобным ухищрением (не знаю, умышленно или по ошибке) Так вот, я позже узнал, что решил ее по «неверно» истолкованному условию, что, естественно, отразилось на моих баллах. Ненавижу!
Мне кажется, что они играют какраз на том, что маловероятно, что баран похож на гольфиста, но чтобы это понять надо знать кто такие гольфист и баран, без этого знания ответить правильно довольно сложно.
А ваше «невырзаительным» как-раз убивает смысл задачи, потому что от знания значения этого слова, понимания какой ответ правильный не прибавляется.
Просто в случае с «невыразительным» понимание того, какой ответ правильный основывается не на визуальном сравнении объектов (как в случае с гольфистом), а на том, к какому из объектов (человеку или животному), скажем так, вероятность применения слова «невыразительный» в человеческой культуре выше.
Спасибо. Я старался.
В плане перевода, последний абзац выдался самым сложным.
Приведенные задачки легко решаются с помошью ИИ в несколько шагов, просто обычно человек не может знать «Может ли аллигатор пробежать стометровку с барьерами?» только если он не знает что такое аллигатор, соотвественно при разумном подходе ответа на вопрос что такое аллигатор более чем достаточно. Безсмысленным усложнением никто заниматся не будет, глупо рассуждать на подобные темы. Мне кажется более правильным направление развития ИИ, где упрошение невозможно, распознование голоса, образов и т.п.
UFO just landed and posted this here
Вот зря заминусовали. Как раз это есть правильный подход. Не единственный, но позволяющий решать абстрактные задачи, которые на деле встречаются в жизни на каждом шагу, хотя мы и не замечаем этого.
Лошадь тоже не осознаёт себя, а в беге с барьерами участвует.
UFO just landed and posted this here
Я к тому, что соревнование включает в себя только бег и прыжки, но не осознание.
UFO just landed and posted this here
Лучше травить тараканов вместе с соседями, т.е. я хотел сказать сообща с соседями, чтобы они не бегали из квартиры в квартиру, в смысле, тараканы…
Кстати, это демонстрация антропоцентрического мышления — мы априори подразумеваем, что негуманоиды более вероятно станут нашими врагами, чем гуманоиды. Людей мы просто так травить вряд ли будем, если есть альтернативный смысл — травить тараканов. Поэтому улыбаемся и понимаем фразу правильно. :)
Мне очень нравится теория Алексея Редозубова. У него хоть и не совсем детально все описывается, но дает на мой взгляд правильную архитектуру.

При этом насколько мне известно он продвинулся и в практике очень неплохо, совсем скоро мы увидим код, где реализована большая часть функционала по его теории.

Вот ссылка на его сайт. Советую посмотреть его лекции, кстати обещает продолжение.
Лекции на хабре — habrahabr.ru/post/151102/
Тут сама постановка задачи неверная.
Мы определяем интеллект как неведомую фигню, свойственную лишь двуногим без перьев.
А потом пробуем ее заимплементить в кремнии.
Ага, процесс реализации взаимоисключающих параграфов — весьма долгий и увлекательный, пилить гранты можно до бесконечности.

И кстати, результаты сравниваем не с реальным человеком, а с командой супергероев из детского комикса.
Ах Watson у нас города перепутал — он глупый значит.
У нас тут группа ученых из Австралии в Одессе в аэропорту приземлилась, на конференцию летели.
А то, что им надо было в Одессу, штат Техас они узнали уже потом, когда до местного универа добрались.
И у кого интеллект выше теперь?

Соревнование человека и машины должно быть честным.
Возьмем среднего хумана, со средним IQ.
Отрежем ему ноги и руки, перерубим осязательные, обонятельные, глазные нервы, лишим вестибулярки.
Удалим вообще все сигналы внешенго мира, заменим их на 100Гбитный кабель в интернет, врезанный прямо в мозг.
Что сможет такой человек?
И кстати, чему он сможет научиться с нуля, если все эти операции ему сделаны с рождения?

Что-то мне подсказывает, что при такой постановке вопроса Ватсон поумнее будет.

Другой вопрос, что необходимой частью человеческого интеллекта является человеческий шовинизмЪ.
Причем иногда и достаточной.
Абсолютно верно. Разработку искусственного интеллекта нужно начинать с определения слова «интеллект».

Если определить интеллект, как объект способный выполнять все логические операции (по Зиновьеву), то мы поймем, что его создание это тривиальная задача. Нетривиальной, но решаемой задачей будет постановка задач этому интеллекту и ответы на его вопросы.
Я тут в своей статье опрос проводил. 40% ответивших не сомневались, что знают правильный ответ на вопрос, как работает интеллект.

Психика (как более общее понятие, чем сознание, рассудок или интеллект) оперирует не логикой, а идеями принадлежности. Проверяя, что чему принадлежит, психика строит иерархию ценностей и целей по их удержанию.

Интеллект лишь коммуникационная подсистема психики, средство выражения идей и их восприятия. Транслятор между внутренним языком экземпляра и общим подмножеством этого языка в социуме.

Проще говоря: интеллект это чисто социальный инструмент.

У современных систем есть интеллект, но нет главной части психики — распознающего и классифицирующего по критерию принадлежности инструмента. Пока — нет. Это новый тренд и скоро это будет сразу у многих разработчиков.
Уточню еще насчет шовинизма: это наши биологические установки, и человек является продуктом их реализации с помощью интеллекта.
Так в том то и дело, что интеллект — не свойство человека!
Это свойство общества, социальных связей и групп, часть самовоспроизводящегося комплекса мемов с динамикой близкой к дарвиновской.

Прототип Робинзона Крузо не отличался от животного, как и большинство реальных Маугли.
Человек выросший в одиночной камере — никогда человеком уже не станет.

Грубо говоря, это как считать отдельной особью муравья или пчелу, хотя самодостаточной единицей, способной к размножению является муравейник и рой.
А мы пытаемся построить муравейник препарируя муравья, ага.

Попкорна не хватит наблюдать за процессом.

Немой китаец не пройдет тест Тьюринга, если в жюри будут сидеть глухие арабы.
Пока есть общий культурный базис между группами людей — они могут признать друг друга разумными.
Когда его нет — все, приехали. Там даже этика общая отказывает.
Да, все правильно, только здесь вы говорите о степени и качестве развития интеллекта. Если исходить из моего определения, я думаю (не проверял), что волки также способны выполнять все логические операции и, соответственно обладают интеллектом, но качество и пропускная способность волчьего интеллекта довольно ограничены.

А тест Тьюринга исходит из предположения, что интеллект присущ только человеку.

В конечном итоге все дело в определении.
Ха, именно волки вполне сопособны на многое.

Потом я еще выяснил, что волки умеют считать — до семи и кратно семи. Им часто приходится решать задачи, состоящие из большого числа множеств, и они это могут. Ну, то есть, найти третью миску в пятом ряду он может легко. Но, если число больше семи, — сбивается…

Короче, они все время думают. И если что-то на охоте получилось — достаточно одного раза, и они начинают применять этот прием. Как-то косуля залезла в кустарник — и уже двинуться там не смогла. И моментально ее задавили. В следующую охоту они целенаправленно пытаются в кустарник ее загнать.


burtin.livejournal.com/24621.html

Главное тут — возможность обучения детей родителями, что у волков и у многих хищников вполне присутствует, котенок воспитанный людьми может играть с мышью, но не будет знать что с ней делать.

И вот если здесь коэффициент прибавки к знанию в каждом поколении начинает быть больше определенной величины — то знание начинает расти и появляется то, что мы называем цивилизацией, интеллектом, разумом, социальной структурой и прочими хорошими словами.
А так как у волков нет письменности и живут они семьями слабо контактирующими друг с другом — то и расти там нечему.
Так же кстати как и у многих диких племен, которые застыли в своем развитии и не меняют образ жизни столетиями.

Если мемы распространяются быстрее, чем теряются, то начинается конкуренция между мемами, т.е. реальный прогресс разума.
Ну а если «коэффициент затухания» большой — то и ловить нечего. В общем все по Докинзу.

Хищники обычно умные и думать умеют, просто у них социальная организация не позволяет концентрировать особей для нужной скорости миграции мемов. Их собрать в одном месте — так они с голоду сдохнут или друг друга погрызут.
А стадные травоядные больше на инстинктах живут, у них передача опыта намного меньше.

Как-то так.
Я потому волков и привел, что читал о них :)

Про цивилизацию можно писать много. Можно вообще много писать.
Чем, судя по всему, Гектор Левек и занимается. А с логикой у него слабовато.
Сэм попытался нарисовать картинку пастуха с гольфистом, но в итоге он оказался бараном. Кто получился похожим на барана?
а) Пастух
б) Баран
в) Сэм
Сэм. Русская стилистика требует, чтобы «он» в таком предложении относилось к подлежащему, а если требуется сослаться на дополнение, следует употребить «тот», «те» или прямо его назвать. Это относится и ко всем примерам, приведённым, в статье: «Городские управляющие отказались дать разрешение злобным демонстрантам, потому что они боялись насилия» — «Городские управляющие отказались дать разрешение злобным демонстрантам, потому что те боялись насилия».
А вообще… С каких это пор городские управляющие боятся насилия?
UFO just landed and posted this here
Согласен, автор статьи — недалекий человек.
Минусуйте, пожалуйста, но, если у вас найдется минутка, было бы интересно взглянуть на обоснование вашего несогласия.
подозреваю что минус за форму, а не за содержание коммента
Сложно вспомнить, где именно слышал одно предположение, но суть там была в том, что не реально сформировать ИИ подобный человеческому без имитации сенсорных систем и тела. То есть ИИ нужно монтировать в корпус относительно человекоподобного робота, что бы была постоянна задача обработки окружающего пространства и были инструменты, необходимые для такой обработки. Речь не про совершенного андроида, это может быть реализовано и в корпусе Curiosity, для примера, главное что бы вычислительных мощностей хватило и был написан соответствующий софт.
Психике не важен конкретный механизм различения органами признаков. Психика направляет исследования согласно связанной модели обладания признаков признаками. Эти три признака определяют вон тот, и тот, если проверить вот этот признак — ситуация определится точнее. Этот признак определяется вот такой минимальной группой признаков, эй, драйверы, подать сюда состояния рецепторов по индексам н1… нк. драйверы запускают эффекторы, чтобы добраться до нужных индексов (поворачивают голову, считывают значения с сетчатки, рочитывают значения из памяти, открывают файлы, ищут контакт в списке и отправляют сообщение, чтобы прочитать ответ и сравнить его с ожидаемым).

Психика просто обрабатывает и дополняет выстроенную модель представлений. Если дать канал восприятия, обладающий некоторыми обязательными критериями, психика будет его исследовать, классифицировать и интегрировать в модель представлений, последовательно управляя потоком информации по этому каналу
Я думаю, что текущие ИИ идут в каком-то не том русле. На мой взгляд текущая реализация ИИ должна носить индивидуальный характер. Например рядом с компьютером будет стоять шар. Роясь в интернете нахожу сериал ****.
Говорю: ИИ уведомляй по наступлению новых серий сериала ****.
ИИ: Ок.
Я: Отслеживай на хабре новые статьи по тематике ИИ. Есть ли новые сообщения на форуме *** по моему городу?
ИИ: Ок. Да, есть. Мне воспроизвести или вывести на экран?
Я: Выведи на экран моего планшета. Построй мне таблицу кто правил в России с 1225 по 1825 года.
ИИ: Готово.
Я: Добавь поля Дата рождения и дату смерти.
ИИ: Готово.
Я: Записывай внизу документа: Самое долгое правление было у Х Н лет, самое короткое было у Х Н лет. Замени Х и Н на соответствующие значения. Выведи на экран.
ИИ: Готово.
Я: Измени шрифт на 14 полуторный. Отправь на печать.
ИИ: Готово.

Т.е. это эдакие помощники, которые позволяют разгрузить наш мозг не нужной информацией. К примеру вместо того что бы нам изучать программу для календаря. ИИ сам берёт на себя обязанности по добавлению и оповещению об этом.
Вообще-то есть такое направление. Семантический анализ — основная пролема для реализации такого. А понимание естественного языка пока далеко от идеала.
Уже сделано. Терри Виноград, 1968-1970 гг

image
В этом отчасти заключается одна из причин Самой известной оплошности Watson-а — спутать город Торонто в Канаде с одноименным городом в США.


Что требовать с ИИ, если во время боевых действий в Грузии на американских форумах люди умудрялись путать штат Джорджию с Грузией (Georgia) или как было после теракта Чехию с Чечней…
А некоторые президенты путают Австрию и Австралию.
Могу написать программу, которая будет правильно отвечает на вопросы из Теста Винограда с вероятностью 50% ;)
Сэм попытался нарисовать картинку пастуха с бараном, но в итоге он получился похожим на гольфиста. Кто получился похожим на гольфиста?
а) Пастух
б) Баран

А где вариант в)Сэм?
Вопросы изначально плохие, и дело тут даже не в искусственном интеллекте.

«Кто на ком стоял? Потрудитесь выражать свои мысли яснее!»

image
Может ли аллигатор пробежать стометровку с барьерами?
_____________________

Может, если его зовут «крокодил Гена» :-)

По сути: ЛЮБОЙ тест сможет пройти программа, заточенная под тест.
Именно поэтому экспертами в тесте Тьюринга должны быть ПРОФЕССИОНАЛЫ, знающие, что один из собеседников может быть машиной.
Под термином «профессионалы» я имею в виду ученых, занимающихся разработкой ИИ, и знающих слабые стороны современных решений.
Гена — не аллигатор, он нильский крокодил.
«на реке широкой Нил жил отважный крокодил» ©
Может, если барьеры очень низкие. Или вообще психологические :D
Трудности перевода…
У Гектора в оригинале используется слово steeplechase (бег с препятствиями, скачки с препятствиями).
Поскольку имеется в виду совершенно конкретный вид спорта, то ни о каких психологических (и «очень низких») барьерах речи в исходном вопросе не идёт.
Советские математики, которые занимались «искусственным интеллектом», ставили задачу так: хороша будет та система искусственного интеллекта, которая по тексту «Евгения Онегина» смогла бы ответить на вопрос: какое у Татьяны Лариной отчество? А в поэме есть только такая ссылка на отца Татьяны:
(с)
Он был простой и добрый барин,
И там, где прах его лежит,
Надгробный памятник гласит:
Смиренный грешник, Дмитрий Ларин,
Господний раб и бригадир,
Под камнем сим вкушает мир.
(с)
Обсуждаем заштампованный ИИ. Для тех, кто любит отвелкаться, предлагаю туда же современную страшилку: заштампованные школьники. Неправда ли есть в этом что-то общее;) (уж как минимум одно и тоже историческое время).
И снова из английского тянут путаницу искусственного интеллекта и искусственного разума. Это в английском оба этих, очень отличающихся понятия, обозначаются одним термином. Потому и ведутся постоянные споры на пустом, подчас, месте. В русском, к счастью, эти понятия разделили изначально. И если переводить с английского контекстно, то споры исчезают автоматически. ИИ — это давно и успешно решаемые задачи вполне определённо области. ИР — сфера фантазии, экспериментов, прогнозов и философских споров.
Это не проблема перевода. Это проблема упрощения.

В целом речь идет о психике. Психику можно классифицировать различно. Наиболее выразительная функция психики — интеллект. Или рассудок. Способность к познающему общению.

И когда рассматривается функция выражения идей и представлений, часто забывается функция их вывода.

Это и критикуется автором.
В русском языке термин «искусственный интеллект» (в отличие от английского AI) не имеет прямого отношения к психике. Это набор паттернов, отвечающий имитации некоторых элементов интеллектуальной деятельности — распознавание образов, машинные перевод, синтез речи и так далее по списку.

У термина ИИ давно устоявшаяся семантика со словарными определениями.

Если речь заходит о психике, то нужно говорить не об ИИ, а об ИР.

А путаница, повторюсь, возникает из-за бездумного английского калькирования. Там понятие AI охватывает обе области, что и порождает много споров, путаницы и неоднозначностей.
При чем здесь кальки? У нас есть сильные исследователи разработчики, а не только переводчики. И терминология вообще неоднородна, как в любой еще неустоявшейся сфере.

И споры о терминологии в русскоязычном пространстве вполне независимые.
Вот именно наличие ряда собственных работ и устоявшихся терминов и позволяет говорить о калькировании.

Тот, кто знакомился с теорией русскоязычных авторов, никогда не свяжет реализацию ИИ с _прохождением_ теста Тьюринга. Ибо работающие в частных условиях тесты Тьюринга — это уже реализация ИИ в русскоязычной терминологии. Полное же прохождение ТТ позволит говорить уже об искусственном _разуме_. Собственно, этот тест и задумывался в первую очередь как практический ответ на философский вопрос, что считать разумом.

Тест Тьюринга итак уже давно и практически «работает» в области ИИ. От экспертных систем до всяких Siri на iOS. Это именно ИИ в устоявшихся русских терминах. А вот о полном прохождении ТТ речи пока нет, поскольку пока нет речи и об ИР.

В английском же исторически и ИР, и ИИ обозначают одним термином — AI. Что и порождает споры и недовольства в лице упомянутого Левека. Потому что Intellect обозначает и разум, и интеллект. И большинство разработчиков сосредотачивается на смысле «интеллект», забывая, как критикует Левек, смысл «разум». В русской терминологии такой спор просто невозможен, потому что эти два понятия обозначаются двумя разными терминами. В английском — термин один. Что порождает, порой, простое недопонимание спорщиков.

В русских терминах ИИ — это «внешняя», неразумная часть некоторых видов интеллектуальной деятельности человека. Собственно, даже без «искуственности», когда речь идёт об интеллекте, то разум там не упоминается:

Интеллект (от лат. intellectus — понимание) — качество психики, состоящее из способности адаптироваться к новым ситуациям, способности к обучению на основе опыта, пониманию и применению абстрактных концепций и использованию своих знаний для управления окружающей средой.


Это всё компьютеры в той или иной степени давно делать умеют. Другое дело — разум.

Ра́зум (лат. ratio), ум (греч. νους) — философская категория, выражающая высший тип мыслительной деятельности, способность мыслить всеобще, способность анализа, отвлечения и обобщения.


И можно сравнить с английским определением Intellect:

Intellect is a term used in studies of the human mind, and refers to the ability of the mind to come to correct conclusions about what is true or real, and about how to solve problems.


Как видно, _английский_ Intellect в отношении компьютеров уже становится двояким. Потому что сильно повязан на разумность человека.
Спасибо, так Ваша мысль гораздо понятнее
Городские управляющие отказались дать разрешение злобным демонстрантам, потому что они боялись насилия. Кто боится насилия?
а) Городские управляющие
б) Злобные демонстранты
Правильный ответ а) Городские управляющие

Джоанна непременно отблагодарила Сюзанну за ту помощь, которую она ей оказала. Кто оказал помощь?
а) Джоанна
б) Сюзанна
Правильный ответ б) Сюзанна

Большой шар проделал дыру в столе, потому что он был сделан из пенопласта. Что было сделано из пенопласта? (В альтернативной формулировке пенопласт заменяется на железо)
а) Большой шар
б) Стол
Правильный ответ б) Стол

Большой шар проделал дыру в столе, потому что он был сделан из железа
а) Большой шар
б) Стол
Правильный ответ а) Большой шар

Сэм попытался нарисовать картинку пастуха с бараном, но в итоге он получился похожим на гольфиста. Кто получился похожим на гольфиста?
а) Пастух
б) Баран
Правильный ответ а) Пастух
////////////
Надеюсь я помог Ватсону в неравной борьбе с составителями тестов
//Вообще вопросы составлены так, что ответы даже для человека могут оказаться неочевидными

«Может ли аллигатор пробежать стометровку с барьерами?»
Может, только с нарушением правил, пробежав под барьерами
Вопрос затронут очень важный. У многих исследователей есть лишь иллюзия понимания того, как работает их собственная психика и какое место в ней занимает интеллект.

Практическая задача построения искусственного интеллекта упускает тот факт, что понимание это задача не интеллекта. Интеллект не понимает, а лишь транслирует понимание.

Понимание это ключевая работа психики. Понимание выражается в очень простой рекурсивной формуле: признак Х0 можно считать распознанным, если распознаны признаки Х1, Х2, … Хn

Дальнейшая работа в направлении автоматизации понимания сводится к поиску оптимальных алгоритмов вывода базы представлений о структуре признаков
Если у вас есть понимание явления понимания, пожалуйста, поясните попроще, а то я не понял рекурсивную формулу:)
Смотрите, как Ваш ум распознает, что Вы находитесь на кухне? Можете предложить любую идею, которую сочтете подходящей
Это к тому, что я чувствую себя на кухне, если я вижу холодильник и раковину?
Если Вы считаете это ответом, а не пытаетесь угадать, что я имею в виду, то вполне сойдет. Именно так — узнавание чего-то связано с узнаванием достаточного числа подтверждающих признаков и недостаточного числа опровергающих, при безразличном числе не имеющих отношения
А если понимание описать как удачное сопоставление образа(модели) с предметом — это не тоже самое будет?
Попробуйте немного развернуть идею?
То есть, я понимаю, отдельные слова, но в общем образ не понятен. Позвольте задать Вам уточняющие вопросы
1. Чем различаются удачное и неудачное сопоставления образа с предметом
2. Что Вы называете образом и предметом, как происходит их сопоставление

Тогда я смогу ответить, похожа ли идея на ту, которую прорабатываю я.

Могу объяснить, почему задаю эти вопросы.
Начну с того, что в сознании (у меня чисто технически это обозначает список представлений о ситуации наивысшего порядка) каждое представление формулируется вследствие обнаружения повторяемости распознавания некоторых признаков этого представления. То есть, представление выводится по группе признаков, как обобщение того, что эти признаки распознаются совместно. Внутренний язык представлений по сути просто порядковые индексы, по хронологии их выведения.

Таким образом, у меня в модели нет никакого разделения на предмет и образ. Сознание просто классифицирует поток признаков, направляя его уже сложившейся иерархией представлений. При этом, подтверждения распознавания представлений закрепляют эти представления в иерархии, а опровержения — снижают приоритет представлений для выбора признаков для проверки.

Поэтому говорить о сопоставлении модели с предметом я практически не могу, и не могу оценивать удачность того, чего не происходит.

Но вполне возможно, под этими словами Вы имеете в виду совсем не то, что я.
Таким образом, у меня в модели нет никакого разделения на предмет и образ.

Вообще-то есть. Есть «признаки», которые распознаются и классифицируются, и есть «представления». Конечно, результатом представления является признак более высокого порядка, но некоторые признаки («с этой стороны прилетел красный фотон, а в этот обонятельный рецептор попала молекула супа») — приходят непосредственно из внешнего мира. Видимо, они и являются «предметом», который надо сопоставить с «образом» — представлением о кухне. И удачное сопоставление — достаточно высокий уровень возбуждения «нейрона кухни». При этом, находится ли человек на настоящей кухне, или это всего лишь качественная иллюзия — не имеет значения.
Ок, я понял Вашу мысль. Да, в этом смысле, действительно, сознание работает на оптимизацию состава признаков. То есть, отыскивается минимальный состав признаков, подтверждающих узнавание представления. Говоря человеческим языком, выбирается всегда для проверки на актуальность тот признак, который сильнее всего сократит список кандидатов на распознавание.

Можно вспомнить игру «Быки и коровы», как метафору процесса сокращения числа кандидатов.

За счет этого, внимание направляется сознанием вполне рационально, чтобы лишь поддерживать актуальный состав представлений о ситуации.
В ответе я часто пользовался курсивом, чтобы выделить термины, на которые следует обращать пристрастное внимание:) А также я ставил много точек, разбивая предложения на короткие так, чтобы их можно было читать поотдельности.

Понимание — штука вообще разная. Я попытаюсь на примерах показать немного разнообразия. В некоторых случаях понимание не будет являться идентификацией, о которой вы говорили, наверное.

1. Удачное и неудачное сопоставление — субъективный критерий. Например, вы шли по улице днём и на небе увидели огромный светящийся шар. Первое впечатление — непонятно. Потом через 10 минут вы вспомнили, что ваш дед вам рассказывал что видел светящийся шар на небе и вы сопоставили тот факт с тем, что сами видели. Так вы поняли, что это одно и тоже явление и решили что сопоставление удачное («поняли» и «решили» — одно и тоже, происходит одновременно и неразделяется в сознании). Потом по телеку услышали описание свидетелями шаровой молнии, вспомнили про этот случай и сопоставили, описания подошли и вас устроили — вы поняли что дед, наверное, видел шаровую молнию, а вы уж точно. Т.е. вы поняли это явление уже второй раз (иначе поняли).

Другой вариант. Сидите вы дома (пложим что вы — мальчик) и вспомнили девочку. Один раз вспомнили, второй раз — не отпускает, хотите её увидеть живьём. Потом ваш ум поставил вопрос: а является ли ваша озабоченность — любовью или не является. Т.е. вам это непонятно. Ум начинает рассуждать о том, что люди вообще говорят про любовь. Половина признаков подходит, половина — нет. Возникает сомнение. Т.е. до сих пор непонятно.

Еще вариант про любовь. Сидите вы дома, смотрите в окно и вдруг образ девочки всплывает и на вас накатывает живой теплый и сверкающий поток. Вы подумали о девочке и почувствовали поток одновременно. Разложим на два случая: если вы сразу сопоставили девочку и поток, не задумываясь, то заодно вы еще приплели сюда любовь и поняли что такое любовь к девочке и что это и есть о н а; иной случай — вы заметили, что девочка девочкой, а поток потоком, и поток для вас стал называться любовью, а девочка — осталась для вас хорошей девочкой, спровоцировавшей поток.

Вариант про ядохимикаты. Например, вы знаете, что алкоголь — это растворитель для химических лабораторий и вы сопоставили водку с хим-реактивом и распознали в ней яд. Вы поняли, что вам это не нужно. Иное дело, если вы видите водку, знаете, что это растворитель, но вам на это наплевать, потому вам хочется забыться. Тогда вы не поняли, что это вам не нужно. Это пример из реальной жизни, где уже куча людей знают что такое этанол, но не понимают (т.е. не могут объективно оценить вред из-за колоссальной субъективной составляющей), что это реальный яд. Они не осознают и не понимают реальность вреда.

2. Предметом может являться наблюдаемый материальный предмет, физическое явление или чувство, а может быть все что угодно. Здесь важно всегда контролировать акт восприятия, его присутствие и функцию.

Образом же является некоторое описание. Возможно, описание записано анатомически в бошке. Описание может быть текстовое, если вы вызубрили стихи про красную площадь в первом классе школы, тогда вам придется выстраивать в образ или проверять его умом, имея образ. Описание может быть образом — в данном случае можно считать что образ и модель — одно и тоже. Образ представляется не буквенным текстом, а единым, т.е. сознание может осознавать его целиком в один момент времени, в то время как текст был бы осознаваем сознанием последовательно.

Мне сложно что-либо написать об образе чувства.

Сопоставление может происходить сознательно или не сознательно, т.е. когда вы намеренно сопоставляете, или когда это происходит само. Так или иначе, если сопоставление вас устраивает, то вы оцениваете его удачным и значит что вы говорите, что вы поняли, но вы можете не придавать этому факту важности и тогда вы будете просто жить, а не заниматься дебагингом.

++-+-+--+-+-

Я так понял, что вы пытаетесь формализовать понимание до того уровня, когда это можно будет запрограмить в комп. Но это зависит от модели сознания. Если вы формулируете сознание в качестве словаря, то это одно. Если вы делаете нейросеть, то это другое. Всегда необходимо отталкиваться от постановки задачи. Если в вашей программе не учтен факт восприятия, то у вас и не будет предмета. В этом случае, действительно невозможно сопоставлять описание и предмет.
Я пытаюсь формализовать сознание, как процесс отдельных актов узнавания, связанных в движение внимания, направленное на наиболее компактное представление об актуальной ситуации и тенденциях ее развития.
Конечно же, все первые метауровни представлений заполнены обобщениями воспринимаемых сенсорных признаков.

Практическая цель — алгоритм, который может работать с любым каналом восприятия, с помощью специализированного драйвера, разворачивающего этот канал в L-систему одномерных отображений. Иначе говоря, каким бы сложным ни был канал восприятия, драйвер превращает его в одномерное индексное пространство, когда любая сколь угодно малая область многомерного пространства достигается последовательностью отображений в одномерное пространство.

Тогда каналом восприятия могут быть сообщения в скайпе, файлы на диске, потоки измерений с датчиков, фото и видеоархивы, видеопотоки и аудиозаписи, цены акций на бирже, колебания температуры и давления по всей атмосфере или в локальных точках.

Одной из задач собственно драйвера является, для изображения, например, возможность получать значения цвета пикселя, который отстоит от другого пикселя на определенном расстоянии в определенном способе обхода всего изображения (используются фрактальные модели, подобные, например, ковру Серпинского, только покрывающие все пространство изображения).

В результате, программа задает драйверам искомые признаки, которые она ожидает, вследствие представления о текущей ситуации и ее тенденциях, а драйверы проверяют эти признаки на наличие или отсутствие, тем самым заставляя программу менять контекст представлений.

Программа гибко осваивает возможные способы исследования мира, так же, как живой мозг изучает возможности органов чувств, тренирует их и компенсирует их сбои, недостатки и повреждения.
А сколько мегагерц и оперативки суммарно в вашем компьютере?
Иронизируете? Зачем суммарно?
Чтобы заниматься такими широкими рекурсиями, надо, наверное, много мегагерцев в компе иметь:)
Суммарно считаю для того, чтобы представить мощности, ведь если частота процессоров — гигагерц, но их количество — миллион, то это больше чем у меня полюбому:) при том, что у меня частота ядер 4 гигагерца.

А как разве можно на обычном компьютере можно запрограммировать поиск по памяти для случая с попиксеьным видеопотоком в несколько лет, да так, чтобы выделялись объекты, сами генерировались, описывались и постоянно искались.
А зачем Вам попиксельный видеопоток?
Всё же не понимаю, зачем вам нужна эта одномерность? Повторить путь LZ 77? Так качество сжатия (и степень обобщения) у него весьма низкие, хоть фракталы сбоку приделывай для перенумерации вершин.
Двумерное (многомерное) пространство действительных чисел в одномерное непрерывно с сохранением расстояния не вложишь (а тем более, в дискретное), т.е. на одномерной проекции двумерной карты уже меру близости, «расстояние» никак не выразить (фракталы лишь сделают то, что две соседние точки смогут находиться на любом расстоянии друг от друга), а значит, ваша система никак не сможет «интуитивно» определять расстояние от одной точки до другой, и использовать его для вычислений. То есть, например, не сможет сформировать обобщения «температура * давление», понять зависимость цвета от температуры, или объединить соседние пиксели изображения и распознавать одни и те же объекты после аффинных преобразований. Посчитать, чему равно «радость+грусть» или «отчаяние+печаль» (чувства естественным образом моделируются как многомерные вектора). А ведь гипотезы специалистов нейромоделирования показывают, что мера близости в пространстве размерности между 300 до 3000 лучше всего описывает человеческие категории мышления. Соответственно, мне кажется, что одномерность будет существенно уменьшать близость вашего интеллектуального агента и человеческого мышления, вполне возможно, вплоть до уровня отсутствия возможности простой коммуникации с человеком и невозможности автоматического обучения на традиционных человеческих задачах, или даже вообще до невозможности понимания человека.
Если хотите посмотреть на концепцию, альтернативную вашей, гляньте на code.google.com/p/word2vec/, способную «из коробки» частично пройти интеллектуальный тест на «соотношение слов» (лес — дерево, луг — ?, варианты: «куст», «пастбище», «трава», «сено», «тропинка»), которому ребёнок учится неявно, и которое, кстати, является весьма главной вспомогательной задачей для решения задачек из этого поста.

В целом, всё остальное вы говорите правильно, и я практически не вижу в остальном никаких отличий вашей модели от любых современных практических методов обобщения, таких как примитивные персептроны, популистские HTM, классические SVM и наиболее продвинутые на текущий момент по качеству обобщения искусственных системы с Deep Learning (для справки: в большой части наиболее интересных международных состязаний в области распознавания речи, рукописной речи, почерка, анализе и синтезе текста, разного рода изображений и видео на текущий момент системы с Deep Learning побеждают или сравнимы с альтернативными решениями. обычно, с небольшим отрывом на вербальных задачах и с большим отрывом на невербальных, идут SVM. Примеры задач: MNIST, CIFAR, ImageNet, LVCSR… ).
Т.е. ваша модель настолько абстрактна, что она неразличима с любым другим практическим методом обучения и обобщает их все сразу. А это значит, например, что у вас нет критериев обучения, и конкретных способов обучения. В том числе, тех, которые бы отличали вашу модель от худших представителей в этой области.
Так почему ваша система сможет учиться вообще, а не начнёт генерировать бред, который будет сама же дальше считать правильным, запоминать и использовать снова? Опыт построения подобных систем, например, NELL от CMU, показывает, что недостаточно придумать принципы построения системы, которая будет учиться, нужно ещё и постоянно вручную(!) отбраковывать неправильный опыт, полученный данной системой, чтобы он на неё в дальнейшем не влиял, или же разработать такую систему обучения, или такие критерии, которые позволят системе отбраковывать нежелательный опыт.
Обычно используются два критерия и их комбинации:
1) supervised learning с образцами правильных классов
2) unsupervised learning, умеющая отличать реальные данные от искусственно сконструированных неправильных данных.
Кроме того, вы обходите вопрос быстродействия. Без рассмотрения этого вопроса, можно спокойно говорить «построим систему, параллельно обрабатывающую миллиарды сигналов сенсоров и обобщающую их, повторив свойства человеческого мозга». Тот же Deep Learning всё ещё имеет ограничения по быстродействию (и существенный прирост качества был связан с переходом на GPU, обеспечившим 50-кратное увеличение скорости алгоритмов), кто знает, возможно, на сопоставимой с человеческим мозгом мощности он бы запросто обогнал человека по качеству работы!
Можно без одномерности обойтись. Только все равно мерность вырождается от обобщения к обобщению.

Работа сознания последовательна, параллельны лишь вспомогательные функции.

Оценки мерности представлений довольно спекулятивны. В итоге оценивается мера связанности, а связанность легко вырождается в одномерные отображения.

Вы, вероятно, не поняли главное. Сложна первичная классификация, поддержание актуальности контекста не требует сколько-нибудь серьезных вычислений.

Что касается обучения модели, то нужно понять только два момента.
1. Модель выявляет и обобщает подтверждающиеся закономерности, а не нечто произвольное, поэтому классифицирует ситуации наиболее устойчивым образом, давая наибольшую предсказательную способность. К выявлению тенденций
2. Начиная с некоторого уровня обобщений можно рассматривать выявленные метапредставления и управлять их приоритетом, для обучения конкретным задачам. Не нужно рассматривать мелкие признаки в отдельности

Подходов к классификации действительно много. У меня лишь одна фактическая инновация. Контекст направляет внимание к различающим признакам, вследствие чего, чем выше уровень представлений в контексте, тем пропорционально меньшая доля признаков подлежит проверке.
Вы понимаете, что вы говорите одни лишь абстрактные заявления? Реальный ваш алгоритм будет конкретным, но отсутствие конкретики сейчас переводит разговор из плоскости «это работает/не работает» в плоскость «это возможно/не возможно». Наверняка возможно каким-то образом сделать подобный алгоритм. Но как это понять по вашей модели?
Чтобы говорить в практической плоскости, я хочу услышать ваш ответ на конкретный вопрос о проблеме накопления ошибок в вашей системе ввиду отсутствия обратной связи: «Так почему ваша система сможет учиться вообще, а не начнёт генерировать бред, который будет сама же дальше считать правильным, запоминать и использовать снова?». Цитирую:
NELL self-corrects when it has more information, as it learns more, though it does sometimes arrive at incorrect conclusions. Accumulated errors, such as the deduction that Internet cookies were a kind of baked good, led NELL to deduce from the phrases «I deleted my Internet cookies» and «I deleted my files» that «computer files» also belonged in the baked goods category

Подобные ошибки накапливаются, что бы вы не заявляли про внимание, обобщение и закономерности, и, более того, как мне кажется, высокое количество подобных ошибок и их накопление при самообучении сейчас единственные проблемы при построении практических ИИ-систем.
Более того, мерой качества систем (почему-то) является количество ошибок, соотнесённое с количеством правильных срабатываний на тестовом множестве данных.
Итак, почему у вас будет лучше? Только потому что вы в это верите?
Или вы тоже будете систему обучать вручную, делая пре- или пост-модерацию усвоенных знаний?
Давайте разберемся, что такое накапливающиеся ошибки и почему в моей модели их нет.

Ошибка это несоответствие ожидаемого и фактического результата.
В моей модели ожидаемый результат — наиболее устойчивая структура принадлежности признаков представлениям на внутреннем языке модели. Эта структура постоянно повышает устойчивость, адаптируясь к изменениям ситуации во внешнем мире. Это значит, что если обнаруживаются ошибки (некий ожидаемый признак не подтверждается) устойчивость соответствующих представлений в контексте понимания снижается и ставится цель выявить признак, при котором эти представления снова можно признать актуальными.

Система действительно генерирует структуру представлений на внутреннем языке, которую считает правильной, пока эти представления подтверждаются. Лишь небольшая часть внутренних представлений довольно высокого уровня сопоставляется внешним языкам, для их выражения с целью коммуникации.

Так работает реальная (естественная) психика, создавая постоянную обратную связь направленного наблюдения (внимания) для проверки актуальности представлений в контексте понимания ситуации и ее тенденций.

Вы же упираете на модели, в которых нет направленности наблюдения и поэтому там стоит проблема не соответствия деятельности поставленной извне цели.

В моей модели цели извне воспринимаются и структурируются, а не задаются жестко. Главная задача психики — воспринимать цели, адаптироваться к ним. При этом действительный регулятор целей — это ценности, которые тоже вырабатываются все тем же алгоритмом поиска наиболее устойчивых представлений, а не как-то иначе.

Возможность вмешаться напрямую в структуру представлений модели, особенно на уровнях ценностей и целей, позволяет направлять внимание модели к тем представлениям, которые пользователь (учитель) считает более ценными, тем самым, задавая наиболее активное направление изучения моделью окружающего мира.

Если хотите практичности, вот у меня сейчас стоит задача, разработать на основе этой модели сервис восстановления пространственной модели по плоской фотографии, за счет узнавания предметов обстановки, их удаленности и взаимного расположения. Надеюсь, это достаточно практичная задача. Как Вы полагаете, какая из разработанных моделей могла бы справиться с такой задачей и какие бы ей потребовались ресурсы?
Вот только сегодня vizago.ch смотрел, она умеет неплохо строить трёхмерную модель лица по фотографии.
Там наиболее практическая на сегодня реализация этого действия. Основано на типичных моделях лица, настроенных в соответствии с моделью глубины, которая получена на основе подсчета яркости лучей света, на сайте есть ссылка на научную работу по теме.
Более технологичной альтернативой могла бы быть система со сверточными deep learning системами, которые лидируют на текущий момент в Scene Understanding, например, вот этот tech talk от Яна ЛеКуна, резюмирующий эволюцию моделей обучения для практических задач, я частично посмотрел вчера:
techtalks.tv/talks/scene-understanding-with-deep-learning/58596/
От количества распознаваемых классов и их особенностей зависят требуемые ресурсы и возможная скорость обучения. Гугл что-то там говорил про оптимизацию представлений pattern-ов на низком уровне. Увы, я не знаю конкретные цифры, потому что мне больше интересны вербальные модели (понимание текста, распознавание речи). Но вы можете посмотреть сами в соответствующих научных работах.
Можно начать с googlesystem.blogspot.ru/2013/06/how-googles-image-recognition-works.html и
research.microsoft.com/apps/video/dl.aspx?id=198205 как достаточно обзорных.

Есть ещё Point of clouds модели, но там, как вы знаете, в основе всё-таки совмещение фотографий и сенсоры глубины. Зато, оно может вам дать отличные данные для supervised learning, которое может дать вам существенное увеличение качества распознавания, при наличии алгоритма, способного обобщать, конечно.

Про ваш алгоритм точно могу сказать, что у вас возникнет проблема с аффинными преобразованиями. Сдвинули картинку на один пиксель влево — она перестала распознаваться. Повернули на 3 градуса — она перестала распознаваться. Если хотите, сделайте сами минимальную практическую модель и убедитесь в этом. Возьмите базу для распознавания цифр от 0 до 9 — MNIST, там картинки 28x28 пикселей всего. Потому что локальная близость элементов — основной критерий для их объединения в более высокий в иерархии объект. А если объекты сдвинутся хотя бы на пиксель, то вам придётся обобщение это генерировать заново из-за фрактальности: соседние точки раскидает куда попало.
У меня нет привязки признаков ни к абсолютному масштабу, ни к абсолютному повороту в любом направлении, ни к абсолютному положению.

Если обнаружен некий признак, он направляет внимание к следующему признаку, относительно данного признака.

Сложно классифицировать целиком неизвестную ситуацию. Когда ситуация в общем уже понятна, требуется совсем немного внимания, чтобы распознавать детальные признаки.

Что касается понимания текста — задача, в целом, сложнее, хоть тексты и достаточно равномерны.

Все дело в том, что контекст понимания текста с одной стороны довольно короткий, с другой стороны, полная смена контекста происходит значительно чаще, чем в задаче ориентирования в пространстве.

Но у меня есть две задачи. Одна — распознает вербальный контекст (т.е. понимание слов, словосочетаний, действующих лиц, возможной ситуации, в которой они находятся, возможные ссылки на тексты, ранее изученные, т.е. релевантные новости, статьи, книги, мемы и т.д.)

Вторая — распознает контекст ценовых рядов (т.е. понимание тенденций, переломных ситуаций, корреляций). Возможна так же смешанная задача, которая узко специализируется для второй в первой (понимание и ожидание неких новостей, аналитических фактов, высказываний, упоминаний)

В чистом виде фундаментальный анализ слишком сложная задача — нужно учить систему пониманию финансово-экономических моделей, а это уже вопрос очень серьезного ИИ (либо более простого, очень специализированного драйвера, в виде формальной экспертной системы, но это уже — не ИИ, а хак)
Ок, давайте ещё раз повторим про распознавание образов в одномерном пространстве. Потому что вы опять уклонились от ответа.
В вашей системе не может быть инвариантов распознавания образов, сохраняющихся при аффинных преобразованиях.
В convolutional networks они есть, у вас их нет и быть не может из-за отсутствия меры.
С этим утверждением вы согласны или нет?
Смотрите, буквально следующая ситуация:
Пиксель + пиксель = палец
Палец + палец = рука
рука + нога = человек
Обучили вашу систему. Теперь рука подвинулась, сместился палец в точку, где его ещё не было. Как ваша система теперь этот палец сможет опознать?
Зря Вы начинаете с отдельных пикселей. Внимание начинается с довольно обширных областей. Представьте себе пятно, площадью в 8-9% изображения. Один признак это переход от такого пятна к другому пятну, с изменением его размера, фрактальной размерности, яркости, контраста, тона и насыщенности.

Два признака это два связанных перехода. Цепочка таких переходов это распознанный образ. Неважно абсолютное положение. Неважны повороты, изменения общей освещенности, масштаб, и т.д.

Забота драйвера быстро оценивать есть или нет в ожидаемой области ожидаемые значения параметров.

Есть два способа задания переходов: относительно предыдущего признака (это точное указание драйверу, что сделать) или в окрестности опорного признака (здесь требуется много попыток поиска с изменением, масштаба, поворота, направления и дистанции).

Ключевое инвариантное значение для поиска — фрактальная размерность. Она не зависит от аффинных преобразований.

Остальные значения относительны и рассчитываются как линейные преобразования значения предыдущего признака.
Но у меня есть две задачи.

У вас есть возможность сравнить качество работы вашей системы на этих задачах с какой-либо другой системой по известной метрике?
Проблема с выбором для сравнения других систем, которые способны на такие задачи. Я не знаю систем, ориентированных на контекстное понимание, а не на одноуровневое распознавание из списка референтных шаблонов.

Это не интересно. Это хак, а не рассудочная деятельность. Для меня это вопрос эффективности драйверов. Я же проектирую ядро, которое эти драйверы направляет к исследованию, превращая брутфорс в целенаправленные экономные точечные усилия по восприятию только того, что ожидается.
Я уже ответил в других сообщениях на два вопроса:
1. Как я ухожу от абсолютных значений, записывая только последовательность переходов от опорного признака для различения их обобщенного представления
2. Почему распознавание отдельных символов не является задачей, которую я решаю.
Я понял, что стоит прояснить суть одномерности моей модели при многомерности воспринимаемого мира.

Одномерным является движение внимания. То есть, каждый образ распознается в результате движения внимания от признака к признаку. Сами признаки связываются в многомерные представления.

Так, например, в трехмерном пространстве последовательность распознавания сводится к подбору масштаба и поворота, с выявлением определенных цвето-контрастных переходов.

В части пространственного восприятия значительным является драйвер зрения системы.
Как он работает?

По сути, есть текущее состояние драйвера — это некоторая область воспринимаемой картинки, в которой измерены усредненный цвет, усредненная яркость, усредненная контрастность и фрактальная плотность.
К текущему состоянию драйвера есть история предыдущих состояний и представления, которые являются кандидатами на узнавание в связи с этой историей. Так же есть следующий признак, который выражается в изменении текущего состояния драйвера: область может быть расширена или сужена (масштаб), область может быть смещена на некоторое расстояние в некотором направлении и так же может быть определен поворот вектора направления для следующих перемещений области.

То есть, число входящих в конкретный признак действий и значений может быть довольно большим. Но сами признаки связываются в представлении либо последовательно, либо безмерно (т.е. простое перечисление с неопределенными связями между признаками)
У человека таламус имеет проекции разных частей сенсорной информации, доступной человеку: визуальной, чувственной, эмоциональной, слуховой, кинестетической. Одновременно с этим параллельно все эти части образа записываются в новые элементы памяти (долговременная память хранится в гиппокампе), или же находятся старые элементы памяти (из гиппокампа), которые отождествляются с текущей ситуацией, и на которые она разделяется (конечно, может быть и то, и другое). Это конечно упрощенная модель, но экспериментами вроде бы вышеописаное подтверждается (ссылок боюсь уже не найду).
Нету никакого «единичного элементарного запоминания» в мозгу человека, оно осуществляется параллельно, и, как я полагаю, эта параллельность является значимым явлением для осуществления мышления. Про SDR (Sparse Distributed Representations) в человеческом мозге достаточно много материала, тот же Хокинс со своей популистской, но верной по сути (основанной на данных нейробиологов) книгой On Intelligence.
Чтобы было понятнее, я вообще не уделяю много внимания физиологии и исследованиям мозга. Ну, то есть, уделяю, конечно.

Но моя цель — моделирование рассудка, которое определено движением внимания от признака к признаку.
Моя основная метафора — изучение устройства скрипки или даже синтезатора не поможет понять музыкальную гармонию.

Я не считаю, что раскрытие тайн мозга поможет в понимании информационных процессов сознания.

В доказательство своей гипотезы я и хочу показать, что для узнавания знакомых (ранее обобщенных) предметов на картинке или фотографии не требует параллельной обработки всех пикселей. Фактически, требуется несколько десятков переходов от области к области, чтобы распознать известный объект (когда их известно несколько тысяч), в любом ракурсе, на любой дистанции, при любом освещении. Если человек способен из контекста понять, что это может быть, моя модель должна таким же образом сделать вывод, что это, а так же предположить, что и где может находиться в окружении этого.

И оценка потребности в памяти и количестве вычислений — весьма скромные. Условно говоря, несколько сотен тысяч разных визуальных признаков отбираются из сотен миллионов, не прошедших достаточного подтверждения, как признаков ключевых при распознавании. Каждый такой признак, по сути, кодируется в виде трехсот байт. Еще не более двухсот байт занимает кодирование возможных переходов от этого признака к другим. Итого занимаемый моделью объем памяти составляет порядка нескольких гигабайт.

Собственно, построение модели, отбор признаков, заключается в исследовании тестового, специально подготовленного набора изображений (текстов, звуков), в которых оптимизируется процесс первоначальной классификации модели. Это подобно привыканию ребенка к обстановке, подобно букварю, по которой ребенок учится от простого к сложному, осваивая сначала более примитивные образы, обобщая их до более сложных, не утопая в хаосе изначально малосвязанных данных.

И я еще раз сформулирую свою основную идею. Естественный интеллект обучается довольно долго. Плюс каждый экземпляр естественного интеллекта имеет огромную наследственную базу различаемых образов и специализированных органов чувств для их различения.

Поэтому без вполне определенных хаков не обойтись, но не обойтись и без универсальной модели понимания (т.е. ориентации в пространстве представлений об актуальной ситуации воспринимаемого мира).

Меня интересует универсальная модель, и над ней я работаю. Так же интересуют некоторые драйверы, на основании которых определяется универсальный протокол работы ядра модели с множеством драйверов.
И оценка потребности в памяти и количестве вычислений — весьма скромные. Условно говоря, несколько сотен тысяч разных визуальных признаков отбираются из сотен миллионов, не прошедших достаточного подтверждения, как признаков ключевых при распознавании. Каждый такой признак, по сути, кодируется в виде трехсот байт. Еще не более двухсот байт занимает кодирование возможных переходов от этого признака к другим. Итого занимаемый моделью объем памяти составляет порядка нескольких гигабайт.

У систем Deep Learning примерно такие же требования и свойства.
Было бы интересно сравнить результаты с другими системами на практической задаче. Как насчёт MNIST, CIFAR, ImageNet?
Например, недавно прошла www.image-net.org/challenges/LSVRC/2013/index, исходные данные и тесты доступны.
Распознавание символов не очень интересная задача. В ней 90% хака в виде распознавания вполне определенных шаблонов и их связанности.

Всякая существующая система, распознающая символы, не ожидает появления тех или иных символов в тех или иных местах, а обрабатывает массивы пикселей в стандартном цикле параллельной или псевдопараллельной обработки.

Моя модель строит ожидания по уже распознанным символам и устойчивым шаблонам их совместного использования, где и какие символы следует искать, тем самым понимая ситуацию, как контекст наиболее общих представлений о ней и тенденциях ее изменения.

Проще говоря, система сначала поймет, что перед ней — счет, платежка, телеграмма, страница журнала, таблица с данными, и затем будет целенаправленно исследовать на ней ожидаемые области и изучать области неожиданные. При этом, тщательность распознавания будет зависеть от более общей цели. Если не. достаточной выгоды от детального распознавания, система переключится на то, что более выгодно.
Вот я и говорю, что работу нижних уровней ваша система сделать не сможет.
Ок, ладно, прицепили имеющуюся систему распознавания к вашей снизу, чтобы у вас были исходные «признаки». Тогда ваша система сводится к pattern matching и конструированию новых шаблонов.
Тогда уже круто, весьма интересная разработка получается.
Мне она весьма напоминает temporal pooler от HTM CLA.
Но надо как-нибудь всё же измерить качество вашего решения. Я подумаю, как это можно сделать. Как минимум, можно попробовать подключить систему нижнего уровня и поучаствовать в каком-нибудь визуальном распознавании.
По сути у меня сейчас как раз основная задача это ядро управляющее всего одним драйвером — технического зрения. Проект сильно не основной, по сути я и один разработчик уделяем ему меньше 10-12 часов в месяц. И хорошие цели по сравнению очень даже не помешают :)
Sign up to leave a comment.

Articles