Как стать автором
Обновить
62
0
Дмитрий Лобашевский @0decca

Пользователь

Отправить сообщение
Генетическое программирование является тьюринговски полным.
Другой вопрос, что там своих проблем хватает.
Однако сам факт что природа основывается на них привлекает к ним внимание.
У меня как раз больше аргументов против.

Я считаю что логика (т.е. логика первого порядка на ZFC базе) мягко говоря непрактична.
Однако Ленатовские программы были относительно успешны.
Он соединял логически непротиворечивые островки знаний (микротеории).
И мне кажется что конечная система могла бы иметь вид набора таких микротеорий плюс статистическая функция выбора и сшивки таких теорий.

Человек, кстати тоже имеет такую «кусочно-непрерывную» организацию знаний. В детстве мама говорит нам что драться не хорошо, а в школе наоборот доказывают экспериментом полезность агрессии.
В результате дома и в школе ребенок применяет разные стратегии, гарантирующие ему вознаграждение, продолжая эту линию во взрослом состоянии.

Но если говорить о машине Геделя, то я бы смотрел немного шире.
В описании используются термины «доказательство». Но если мы, например, работаем с вероятностями, то можно доказывать что данная стратегия работает не всегда, а в большинстве случаев (статистические кванторы, если вы читали такую древность как lib.mexmat.ru/books/55118).

И доказательство может выглядеть не как абсолютная гарантия полезности (как в машине Геделя), а как более высокая вероятность.
Разумеется такое направление не соответствует определению машины Геделя в точности.
Но мне кажется полезным развитием концепции — использование статистических техник в условиях нехватки ресурсов и времени, и использовании логики для систематизации полученных знаний.

Еще один плюс машины Геделя — ее рефлексивность.
Живые системы имеют гораздо большую степень свободы в области самомодификации и самонаблюдения чем искусственные.
Как я писал в комментах ранее, я занимался искусственными иммунными системами, там рефлексия практически абсолютна, вплоть до скоростной подстройки генома на лету.
Рефлексивные системы относительно плохо исследованы, а в практическом программировании прямо запрещены.
Но мне кажется, что искать надо именно в этой области.
Поэтому я, кстати и упоминал Learning Classifiers System — это очень ранняя разработка, современник генетики, однако обладающая высокой степенью рефлексии.

Имхо проблема агентов в меняющейся среде не сильно коррелирует с универсальным решением задач.
Здесь речь идет скорее об оптимальном использовании ресурсов, критичных для агентов.
Например система с поддержкой дрейфа концепции может иметь разное характерное время реакции, и, следовательно, адаптируясь к медленным изменениям среды не сможет быстро перестроится при резких изменениях, будет более точной и глубокой, но и более инерционной.
Т.е. мы получаем дополнительную степень свободы, которая впрочем тоже может быть оптимально определена из наблюдений этой окружающей среды.

Вообще когда мы говорим о доказательствах в области теории алогитмов, надо понимать, что большинство из них — это подсчет количества ангелов на кончике иглы. Фундаментальные вопросы связаны с бесконечностью языков, неограниченностью времени вычисления и приводят в большинстве случаев к канторовским множествам.
Пример — супер-тьюринговская машина, реализующая парадокс Зенона.
:-)

В реальном мире не существует бесконечных языков. Есть только конечные способы их конструкции.
Более того, не существует парсеров бесконечных языков, везде ограничение по глубине рекурсии.
Работая же в поле ограниченных конечных данных, мы уходим от многих проблем, порожденных трансфинитной аксиоматикой, например проблема останова Тьюринг-машины с конечной памятью и конечным временем вычисления — в принципе не стоит, нет такой проблемы.
Это тоже надо принимать во внимание.

Чем мне нравится подход в машине Геделя — изначальная ориентация на ограниченность ресурсов.
Я не считаю, что это конечная точка развития, но направление достаточно интересное.
И имхо если заменить поиск доказательства на статистику и расслабить требования к доказанному — эта штука будет намного полезнее на практике.
Достаточно сложно описать не раскрывая сущность данных и аналитики.
Как показательный пример подобного поведения я могу привести такую вещь из химии как реакция Белоусова-Жаботинского.
Авторы этой работы не могли опубликовать ее 8 лет, просто потому что эксперты в журналах не могли поверить в автоколебательные процессы на практике.
И смотрели на авторов как на Петриков.

Я отнесся к экспертам как к черному ящику. Т.е. для измерения функции отклика сначала пропустил через них небольшой массив случайных данные.
И сделал обычные измерения качества на реальном датасете, на рынок не выпускал, слишком дорого было бы.

На случайных данных большинство вердиктов лежали в красной зоне, что было вполне ожидаемо, так я прикинул ошибку экспертов.

Цвет вердикта (не данных) я определял просто — опросом и наблюдением за действиями эксперта.
Красная зона считалась если эксперт давал быстрый негативный вердикт без глубокого анализа.
В таких случаях он обосновывал вердикт одним единственным критерием — вот здесь так, а так нельзя.

Причем на вопрос — а почему нельзя? — следовал недоуменный взгляд и попытки обоснования типа
1. Потому что так нельзя
2. Потому что и так видно
3. Потому что так принято у нас
4. Здравый смысл подсказывает
5. Ты не специалист, не понимаешь

Если эксперт смотрел на данные, и начинал полную процедуру проверки, грузил инструментарий и вообще обрабатывал данные более часа — его вердикт считался из зеленой зоны. Независимо от того был он позитивным или негативным.

Существует область быстрых вердиктов.
И область негативных вердиктов.
В той задаче они пересакались не менее чем на 95%.
Я вообще не вспомню ни одного быстрого позитивного вердикта, максимум что я мог получить — «интересно, надо посмотреть поглубже». И вердикт переходил в зеленую зону.

Пересечение двух областей и давало красную зону для отдельно взятого эксперта.
А объединение красных зон всей экспертной группы создавало непробиваемую стену.

Это вполне понятный результат, цена ошибки была достаточно высока в той задаче.
Однако даже в случае с симметричной функцией потерь быстрые вердикты в большинстве случаем негативные.

Интересно провести нормальный человеческий эксперимент с замером, контрольной группой и оценкой пересечения.
прошу прощения, объединил с предыдущим комментарием,
habrahabr.ru/post/149291/#comment_5065050
Заготовка есть, но не хочется сырую статью кидать. А между заказами надо быть внимательным, иначе непонятно где буду кормиться следующий год.

Кроме того там тоже много философии — меня как раз интересовала теория опасности, алгоритмы — это сырое.
Полностью рефлексивный взгляд на систему, которая обеспечивает целостность себя и защищает от любой внешней угрозы — он очень интересен.
Но там кроме философии пока ничего нет.
Увы.

Вот ряд ссылок, но они как раз на алгоритмы.

web.ist.utl.pt/~gdgp/VA/ais.htm
www.dangertheory.com/
Здесь libtissue
www.cs.nott.ac.uk/~jpt/software.html

Вроде некоторые алгоритмы уже в weka попали.

Книжка по иммунокомпьютингу.
lib.mexmat.ru/books/9203

Но это все пена, т.е. работы было проделано очень много, не вопрос, но рабочих продуктов очень мало и в основном в очень узкой сфере.
Как я писал в исходной публикации — это точка зрения технаря. Т.е. человека которому платят за конкретный законченный продукт.
Соответственно оплата производится за определенные характеристики продукта — вполне себе объективные.

Именно поэтому разделение на слабый и сильный ИИ мне кажется очень непрактичным. Когда дело доходит до рынка — никто не будет платить за холодильник, охлаждающий ниже температуры тела человека. Никто не купит машину, разгоняющуюся выше скорости человека.
Везде где техника наступала — человек переставал быть мерилом всех вещей.
Именно поэтому я считаю что «сильный» или «слабый» ИИ — это вопросы философов.
Не производителей и инженеров.

И если заказчик хочет от меня антивирус — то я должен обеспечить ему допустим XX% детекции при 0.XX% false positive rate на стандартном тестовом сете.
Если заказчик хочет детектор дорожных знаков, то мы берем стандартизированный датасет и получаем YY% детекции при 0.YY% FP.
Т.е. любая задача в технологии должна быть сведена к числам на стандартных данных.

Просто чтобы любой мог взять моего конкурента и увидеть там меньше или больше.
Просто чтобы клиент знал что его не надувают.
Нужна точка отсчета. И точка отсчета должна быть объективная и воспроизводимая.
Иначе каждый конкурент будет подбирать свои выгодные себе условия.
И каждый производитель будет показывать свои цифры, которые на самом деле ничего не значат.

И вот получается что ни для какого ИИ таких показателей нет.
Тест Тьюринга — субъективен по определению, более того, я не уверен, что он вообще может называться ИИ. Т.е. для Тьюринговского ИИ такая тестовая оценка в принципе невозможна.
Для Геделевского ИИ можно наработать достаточно плотный массив данных для проверки.
Но его пока нет.

И даже Шмидхуберовской машине Гёделя (которая отчасти сомнительна) потребуются многие миллиарды лет, чтобы научиться решать даже не очень сложные задачи.


А сколько лет потребуется машине Тьюринга с бумажной лентой для расчета корня уравнения четвертой степени?
Мы говорим о концепции и классах эквивалентности.
Реализации могут быть разные и совсем не совпадающие с классической.
Learning classifier systems в теории были не сильно хуже машины Геделя. И даже на практике работали кое-где. Но для них не было такого математического обоснования, это просто подсмотренное у природы.

Любой универсальный решатель имеет индуктивное смещение

Хм, а можно ссылку на это?
Я всегда считал что Колмогоровская сложность наблюдаемой среды однозначно определяет такие вещи.
Или вы имеете в виду чисто логические средства, без статистических?

Если какой-то решатель чуть лучше в одной среде, то он будет чуть хуже в другой среде.

NFL теорема, не всегда правда применимая.

Ни один решатель не обладает преимуществом над другими на классе всех возможных сред.

А я вот думаю что С4.5 будет по крайней мере не хуже подбрасывания монетки в любой среде.
И индуктивного смещения, что характерно, не требует.

PS
Я обязательно посмотрю сайт вашей группы, достаточно интересно пообщаться с людьми занимающимися этим вопросом с другой стороны.
Я просто не уверен что успею, я сейчас заканчиваю одну работу и начинаю новую, поэтому могу что-то писать.
И как только начнется работа — мне будет сложно продолжать коммуникации или писать статьи, просто по нехватке времени.

В AIS действительно значимых алгоритмов мало. Но зато там есть Danger Theory. И вот эта концепция мне кажется важнее всех алгоритмов.
Было очень много работ по artificial immune systems, как модели сложной взаимодействующей и эволюционирующей системы.
Собственно я сначала планировал написать статью по ним, я работал в этой области, но понял что это будет статья не для хабра а для журнала страдающих бессонницей.

Но там основной подход — именно моделирование природы.
Имхо если бы сто лет назад начали моделировать лошадь — мы бы не ездили на автомобилях. Копировать биологию интересно для понимания, но не для конечной реализации — пользователи не поймут.
Кроме того современное состояние AIS — это попытка построить модель левого копыта, там все очень фрагментарно.

Опять таки, хотя сложность иммунной системы сравнима со сложностью мозга, — это не интеллект.

Интересный эксперимент был у John Koza по самоорганизациии из Тьюринговского газа — кусков лисп-программ. Программы самостоятельно эволюционировали до сексуальной репродукции, подтвердив что основной инстинкт является основным даже на LISP.

Но это опять таки имеет больше отношение к самоорганизации, абиогенезу и приспособляемости. Интеллект там не появляется.

Были древние, периодически всплывающие learning classifier systems на генетике.
Но это тоже сложно назвать интеллектом.

А вот в социальных взаимодействиях появляется много интересного.
Модель стада травоядных, например начинает демонстрировать коллективное поведение при появлении хищника.

Мое мнение, что интеллект — это социальный эффект. Без окружения интеллект не разовьется и не проявится — маугли или робинзон подтверждают это. И, следовательно, надо исследовать прежде всего социальные связи и ритмы (передающие немалое количество скрытой информации).

Имхо здесь могли бы быть интересны модели типа cooperators/defectors/punishers (agent-based model), но они слишком примитивны в текущем виде.

И если по aLife достаточно много информации и экспериментов, то с подобным способом эволюции AI я не сталкивался.
Причина — ожидаемая затратность расчета.
Необходима коэволюция каждого организма и эволюция всей социальной группы.
Не факт что генетика потянет, она тяжеловатая.
Но попробовать было бы интересно.

Я могу накидать ссылок по теме, но тут тем очень уж много.
Оверфит практически не зависит от признаков, он зависит от классификатора использующего эти признаки.
В крайнем случае он может зависеть от количества признаков, но количество ограничивается селективностью фильтра FCBF — он отбирает лучшие атрибуты с минимальной взаимной информацией.

Я собственно сам так делал и никакой перетренировки не наблюдал, тестил на 4-folds — все было в порядке.
SVM, decision tree и random forest не давали оверфита даже если количество атрибутов было в два раза больше чем количество сэмплов.
Да, действительно, у меня уже было 29М теггированных объектов, так что было где разгуляться, и проблема переходила в класс supervised.
И создавать сотни тысяч аттрибутов на 10-15К документов выглядит бессмысленно, по крайней мере на первый взгляд.
Хотя тут есть варианты, я микротестирование делал на песочнице из 100 файлов исходников, классифицируя их на C и Р-файлы. Работало неплохо, там атрибутов 20 оставалось после фильтрации.
:-)

Плюс мне дали неплохое время на R&D перед продакшн, что редко бывает.

В любом случае есть еще такой метод, по моему опыту N-граммы произвольной длины несут огромное количество информации.
Может кому-то пригодится.
Возможно вопрос глупый.

Но так как ссылка на статью заканчивается на слеш, то переход вида a href="#anchor" не работает, а скрипт пихать в чужой сайт как-то не комильфо.
Как вообще здесь решается такая проблема?
Даже Эйнштейн не может решить любую потенциально решаемую задачу.
Например ответить на вопрос, текст которого требует двести лет на зачитывание.
Мы ограничены чисто количественно.

Кроме того я не знаю кто бы поставил такой эксперимент с блондинкой — с данной категорией людей есть намного более интересные занятия.
:-)
А почему не использовать все возможные N-граммы произвольной длины с частотой выше определенной?
Извлечение всех N-грамм из корпуса сводится к задаче сортировки, затратной конечно, но в принципе решаемой и однократной.
Получаем большое (очень большое) количество бинарных (или ординальных) атрибутов.
Далее фильтруем по FCBF с редукцией подстрок.
Если задавать небольшое количество атрибутов на выходе FCBF, то можно и SVM, если их очень много, то там random forest отлично работает.
Который в отличие от SVM использует не все атрибуты, а только те что нужны.
Соответственно и классификатор на RF получается очень быстрый и эффективный.

Я так делал практически, не в области NLP, но для корпуса в несколько терабайт.
Результаты были весьма неплохи.
По некоторым вещам я бы поспорил, по некоторым бы согласился.
Хотя я боюсь мы вышли бы за формат хабра.

Я прагматик, и то, что не может быть реализовано или то, что бесполезно — для меня не существует, как проблема ангелов на кончике иглы.
И с этой прагматичной точки зрения создание копии сознания в виде китайской комнаты малоинтересно.
Провести реверс-инжиниринг сознания таким подходом не получится — китайская комната это черный ящик по определению.
А просто сделать поведенческую копию ради копии — зачем?

Это к «попытке построения полностью эквивалентной работы ЦП», своего рода виртуальной машины сознания, если я вас правильно понял.

>Нативно мы не способны через форму чувственного опыта определить наличие какого-либо еще сознания извне. Наше «Я» одиноко по определению, наше «Я», под которым в данном случае я подразумеваю сознание, не имеет эмпирических данных о существовании иных себе подобных форм.

Это хороший вопрос.
По моему мнению мы имеем в нашем распоряжении очень мощный инструмент. Мы можем наблюдать себя.
Кроме того мы можем наблюдать других. И можем наблюдать себя реагирующего на наблюдение других и других наблюдающих нас. Т.е. мы можем выводить общие модели поведения для себя и для других людей, абстрагируясь уровнем выше и создавая идею абстрактного класса — человека.
Человек асоциальный, как Робинзон — не совсем человек, он неполноценен не только социально, но и интеллектуально.
Мы живем в окружении себе подобных и из всех объектов окружаего мира другие люди (а также их изображения, слова, и просто воспоминания о них) представляют если не большинство, то близкое к этому значению.
Сколько раз вы видели сон в котором не было бы других людей?

И вот по моему мнению источник разума именно тут, в социальности и рефлексии, а не в свойствах мозга.
То что мы называем цивилизацией — это в большинстве своем эволюция мемов, которая невозможна без некоторого отождествления себя и других.
И если вспомнить о роли зеркальных нейронов в развитии человека (роли гипотетической сегодня, но все же...), то мой взгляд кажется по крайней мере обоснованным.

Имхо основная точка — это рефлексия индивидуума в обществе, королевство движущихся зеркал.
Борхесовская game with shifting mirrors.

попробую здесь, но сильно не бейте, это все личный опыт.

Про нерациональность поведения людей написано много, кое-что из написанного я дал в ссылках в конце исходного поста.
Я не являюсь специалистом по психологии, поэтому возможно, все последующее не выдержит критики специалистов.
Но из личного опыта могу сделать вот такие выводы:

Мышление в виде комбинации паттернов является более экономным, чем рациональное. И требует меньше времени для принятия решений.
В бытовой сфере оно господствует — любой индивидуум, считающий себя уникальным и разумным венцом творения, реагирует абсолютно одинаково и шаблонно — если ему наступить на ногу в общественном транспорте.
С поправкой на общую культуру ограничивающую использование ненормативной лексики.

Хуже становится когда такие реакции поднимаются на уровень менеджмента, где риски выше. Я думаю каждый найдет в своей истории примеры реакции менеджера на аналогичные события, разумеется не связанные с общественным транспортом.

Последний мой эксперимент в этой сфере был связан с динамикой вердиктов экспертных групп — взрослых ответственных людей, получающих деньги за свою работу.

Эксперимент не был формализован и проводился лишь для доказательства собственного мнения, т.е. не было контрольной группы, не было доверительного интервала, правильное оформление требовало большого количества ресурсов и нескольких независимых компаний для наблюдения, потому я все это пропустил.

Исходные предположения были следующими.
В корпоративной культуре предполагается что стандартный сферический менеджер в вакууме должен стремиться к увеличению прибыли компании или хотя бы собственной.
Однако наблюдения показывают что в большинстве случаев это не так.
Средний менеджер стремится к минимизации личных рисков.
Этот факт достоин отдельного обсуждения, которое мы пока пропустим.

В рамках данных предположений была сформулирована гипотеза о сообществе экспертов, включающая в себя следующие пункты:

1. Для каждого эксперта существует область его компетентности, в которой он практически и на личном опыте наступил на все грабли.
Заявленная область компетентности эксперта однако шире, и включает в себя информацию, не проверенную им лично, а полученную из других источников — книжек, коллег или просто собственной фантазии.
2. Области реальной компетентности разных экспертов не совпадают, чем больше несовпадение тем выше эффективность группы или область покрытия.
3. Если эксперт оценивает что-то внутри своей зоны компетентности (зеленой зоны) — он обычно прав.
Если эксперт оценивает что-то вне своих практических знаний (красной зоны) — он попадает пальцем в небо.
4. В процессе минимизации личного риска любой эксперт более рестриктивно оценивает события в красной зоне. Чем более успешен и известен эксперт — тем больше он выстраивает ограничений в красной зоне.

Грубо говоря эксперт имеет в голове карту. На этой карте есть области которые он обошел сам и проверил и есть граница за которой написано «здесь живут драконы».
И если его спросить об красной зоне — средний эксперт ответит одним словом — «НИЗЗЯ!!!».
Хотя это и неправда.
Причем этот шаблон абсолютно иррационален и часто лежит в области страхов.

В зеленой зоне для быстрого вердикта эксперт применяет ряд шаблонов, которые в общем неплохо описывают предметную область. Если эксперт говорит «да» в зеленой зоне — ему можно верить. Если он говорит «нет» в красной зоне — верить ему можно только как генератору случайных чисел.

В сообществе экспертов область с драконами уменьшается, однако возникает область ада. Та, где все эксперты начинают кричать «нет» согласованно и ссылаясь друг на друга.

Увидеть наяву такое поведение можно просто почитав книги специалистов по программированию — чем выше уровень гуру, тем больше там запретов.
Однако эта девиация к программированию не имеет отношения — это общий шаблон.

Теперь суть эксперимента.
Будучи руководителем лаборатории ИИ в фирме NoName Inc моя команда сделала некоторый продукт SomeProduct.
До нас бизнес процесс выглядел просто — территориально разделенные эксперты из многих стран оценивали некоторые генерируемые данные и выносили вердикты. Данные считались обработанными если не менее трех экспертов выносило согласованный вердикт.
В большинстве случаев эксперты согласованно утверждали невозможность использования конкретного блока данных. Ссылаясь на опыт, на литературу, на публикации и на здравый смысл. Однако в реальности они просто перед рассмотрением данных применяли к ним набор шаблонных фильтров. И если хоть один из них срабатывал — данные заворачивались.

Мы сделали систему которая автоматически выбирала весь спектр возможных данных, доступных для использования.
Попытка пропустить их через экспертов приводила к тому, что 90% их браковалась.

И тогда мы сделали систему которая выводила автоматически ценность данных, и запустили в production.
И выяснилось что большинство негативных паттернов были ничем не подтверждены.
Позитивные паттерны — срабатывали.
Негативные — как когда.

Причем если бы мы сделали экспертную систему (как изначально хотел заказчик), данные из красной зоны были бы потеряны навсегда.
А статистика дала возможность выбирать результаты там, где их просто никто до нас не искал.
Результат был очень показателен.
Мы проанализировали негативные шаблоны предварительной оценки, которыми пользовались эксперты.
Ни один из них не оказался абсолютным. Для каждого из них был контрпример, сгенерированный нашей системой и прошедший последний тест — на реальном рынке и в реальном мире.

Другой пример — эта статья.
Я сначала послал ее в корпоративный блог компании (где я дорабатываю последние недели). Для превью я отослал ее по обычному маршруту. Т.е. группе экспертов родной фирмы. Эксперты мурыжили ее неделями и написали что по их мнению статья наберет много отрицательных отзывов на хабре.
Почему?
Потому что негативный паттерн сильнее, он включает в себя риски конкретного эксперта.
А в результате статья набрала больше плюсов чем большинство постов компании из корпоративного блога.

Негативная ориентация экспертных групп — это большая проблема, но корень ее как раз в шаблонном мышлении.
Когда эксперт в качестве префильтрации применяет последовательно набор шаблонов — ничего другого не может получиться.
И чем дольше существует эксперт — тем жестче ограничения и толще колючая проволока на границе красной зоны.

Знание этого факта добавляет множество возможностей.
Пока сам не превратился в эксперта.
:-)
Хм, попробую, но это много букв.
Можно даже вынести в отдельный пост, но боюсь он там будет выглядеть весьма взрывоопасным и провокативным.

Я приготовлю текст и подумаю куда его постить — сюда или отдельно.
Если отдельно — то здесь кину ссылку.
Это разделение в другой плоскости.
Хотя можно сказать что Геделевский ИИ — это предельно сильный ИИ.
В то время как Тьюринговский — слаб по определению, слишком умная честная машина тест Тьюринга не пройдет т.к. будет отличаться от среднего человека.
Разве что научится создавать имитации индивидуальностей под конкретное жюри, адаптируясь к диалогу и показывая себя глупее чем она есть.
Попросить ее честно вычислить корень надцатой степени из факториала 1000 минус один или факторизовать число — не пользуясь посторонними инструментами — и все.

А новости конечно в сообщении нет, о чем я и написал в начале, мне данное разделение казалось достаточно самоочевидным достаточно давно.
Самое интересное что таки да, уже оказался. И это подтверждается не только теорией бихевиористской экономики.
Я даже пару экспериментов провел на живых экспертных группах, думал потом морду набьют по результату.
:-)
>Можете записать тест Тьюринга в какой-нибудь формальной системе? Сомневаюсь.

const int IS_HUMAN 1

Expert experts[EXPERT_SIZE];

Object object=! IS_HUMAN;

int verdict=0;

for(size_t i=0;i<EXPERT_SIZE;i++)
verdict+=experts[i].getVerdict(object);

printf("%s\n",verdict>=0? «fail»: «pass»);

Не вижу вообще проблемы пока мы используем экспертов как атрибуты классификатора.

>Относительно всех этих критериев. Это критерий чего?
Критерий задачи. Это задача которая решается.

Мне не нужно делать estimate_true_AI(???)
Я пишу об IRL задачах и способах их решения. Например с помощью AI.

>Оптимизирующийся солвер — он к чему тут?
Очевидно к теме статьи. Которая в том числе и про оптимизирующиеся сольверы.

>Кстати, у этой «модной» концепции в википедии всего одна строка.
Это неудивительно.
Universal AI там вообще редирект.
Очевидно что модность тенденции имеет смысл только в контексте референтной группы. И очевидно что Вики в список источников данной референтной группы никак не входит.

Информация

В рейтинге
Не участвует
Откуда
Одесса, Одесская обл., Украина
Дата рождения
Зарегистрирован
Активность