Комментарии 14
Спасибо не жду продолжения.
идея то понятная и простая такие "модели" придумывают с 60 годов прошлого века.
даже делают из в виде кода.
но пока что-то сдвигов нет.
Разве что немного не дотягивают технологии, которые сейчас развиваются сами знаете как. Почему бы не начать проектирование уже сейчас?
Много чего не хватает.
но давайте по конкретному предложению из статьи.
для упрощения скажем что все данные кодируются в разреженном векторе размерности 10^3.
в реальном мире вектор будет много больше по моему мнению.
Как вы собираетесь в модели сравнивать "почтальона" и "таксиста", а главное какая полезная информация может возникнуть в результате этого сравнения.
к примеру резонансно или нет в вашей же терминологии.
Тоесть отбрасываете сложность и сводите все к елиничным факторам.
при этом теряя любую возможность возникновения "эмерджентных" явлений.
ну чтож удач.
для себя я отбрасываю идею как "бесперспективную"
Вы, пожалуйста занимайтесь, не собираюсь отговаривать ни в коем случае.
Конкретно для меня данный формат не представляет интереса.
Рекомендую поискать и почитать статьи по world representation.
На реальных данных крайне сложно различить человека от кишечной палочки.
Проблема в сложности кластеризации при высокой мерности.
Я не говорю уже о том как такую базу данных заполнять консистентно автономными агентами.
Я эту тему активно уже несколько лет не ковыряю.
Если вдруг получится что-то годное к использованию, буду очень рад.
Насколько смог понять, вы берёте некий конечный базовый набор признаков, в вашем случае — слова. Из этого базового набора делаете выборки/описания и создаёте из них новые уникальные признаки. И так далее. Признаковое «поле» не фиксировано и постоянно растёт. В итоге получаете граф, где вершина — это описание, оно же базовый или комплексный признак, а рёбра — связи с вершинами из описания.
Далее берёте пару вершин, которые есть просто бинарные вектора, и находите расстояние Хэмминга, после чего огрубляете результат до трёх уровней. И, собственно, на этом самом интересном месте смысл далее происходящего для меня теряется. Можете объяснить для чего искались пересечения векторов описаний? Что дальше с ними делать-то?
Можете объяснить для чего искались пересечения векторов описаний? Что дальше с ними делать-то?
Как раз о том что с этим делать дальше, опишу уже в след. статьях. Мне не хватает сил всё вместить в одну статью, и так выделяю на неё 1 день. В кратце — в итоге, интеграл из «пересечений векторов описаний» и есть тот самый «почтальон», каждый такой объект состоит из сотен тысяч и миллионов пересечений, что даёт индивидуализированность проявления. Если отбросить внешний вид, чтобы не мешал, а понять саму суть, начинку, то внутри это набор из программных паттернов, представьте себе обрывок любого действия, допустим 3 секунды как вы кушаете яблоко, вот из таких «склеек» и состоит любой объект и личность. Извиняюсь за спонтанное пояснение, подробнее я опишу в след. статье.
В кратце — в итоге, интеграл из «пересечений векторов описаний» и есть тот самый «почтальон», каждый такой объект состоит из сотен тысяч и миллионов пересечений
Это то, что я выше «перевёл» на формальный язык. Всё просто. Объект представляется вектором признаков: 01000111000110. Это то, к примеру, с чем работают нейро-сети со своего появления.
Структура описания мира, которую вы привели, как уже заметил nad_oby, известна с 60-х годов. Но выжать из неё что-то стоящее за полвека не смогли. Буду ждать вашу следующую статью.
Погружение в Глубину: Как реализовать настоящую свободу выбора в цифровом мире