Pull to refresh

Comments 44

Повышенная няшность глаз.
Я было подумал, что Сяо Сяо Ли — не сотрудница, а результат применения байесовских алгоритмов:)
Не удалось осилить до конца Горбаня, какая область нейронных сетей интересует автора?
Меня скорее заинтерисовали работы Миркеса, а так я давно страдаю своими гибридными нейронами.
Фотка старая… Я ее видел года 2 назад. Так что, время в MS не пошло ей на пользу.
И Вообще… Без фото, но с парой-тройкой формул статья смотрелось бы НАМНОГО лучше.
Да, формул явно не хватает(
UFO just landed and posted this here
За фотосет — спасибо
Теперь все совсем понятно.
Да ладно! О_О
G3N1USS выше привел ссылку на ее профиль в майкрософте. Там фигурирует та же фотография, но очень маленькая.
Нет-нет, меня смущает колоссальная разница между фото в посте и фото девушки в профиле. Как-то так.

Ну и как потом такую контрастированную сеть превратить в «прозрачную» формулу?
Схема нейросети без маловлияющих связей и является схемой искомых логических связей.
А если на каждый нейрон связей не более 2-3 то она еще и легко воспринимается на глаз для человека.
Эмс. И что такое вообще контрастирование? Статья воспринимается, как набор терминов. Можно было просто дать ссылку на книгу и сказать: читайте там. Остальной текст ни к чему.

И про китаянку тоже муть какая-то написана. Фильтр Байеса известный алгоритм, чего его разрабатывать-то? Или она сидит и обучает его? :) Круто, тогда. У меня есть персональная Xiao в ноутбуке — он, ведь, сам обучается спам от неспама отличать.
Фильтр Байеса — статистический анализ по сути.
Да не. Речь просто о том, что как можно разрабатывать то, что уже разработано?
Ну может усложняют схему расчета? Добавят там тервер и т.п.
UFO just landed and posted this here
UFO just landed and posted this here
Процедура контрастирования основана на принципе исключения связей с минимальным влиянием на результат до тех пор, пока сеть не потеряет способность с нуля обучиться поставленной задаче.

В следующий раз важное буду выделять болдом и не буду вставлять фото няшных девушек.
Нет. Фото няшных девочек можно… Но форматирование текста — жесть.
Надо было вставить несколько маленьких поясняющих картинок или формул в текст для зрительной разбивки.
А не две огромные картинки ни о чем в начале и конце.
Нет. Фото няшных девочек можно… Но форматирование текста — жесть.
Надо было вставить несколько маленьких поясняющих картинок или формул в текст для зрительной разбивки.
А не две огромные картинки ни о чем в начале и конце.
Кстати, девушка весьма крутая, если по статьям судить… Правда печально, что сложность работ со временем падает :( Но всё равно, НяяЯЯяяЯяя :)
Если статья про Ии, то почему фотка Харухи а не Юки?
Ибо прошел слушок, что Судзумию косплеит девушка, приложившая руку к Баесовским спам-фильтрам, так что очень даже релейтед.
весьма грамотно разместили фотку сферической анимешницы.
и статью все прочитали, и внимание привлеклось.

но что такое контрастирование из статьи всёравно не понятно.
В статье есть предложение «Процедура контрастирования основана на принципе исключения связей с минимальным влиянием на результат до тех пор, пока сеть не потеряет способность с нуля обучиться поставленной задаче.»

Просто фото девушки вам помешало
выражение «основана на принципе» делает этот принцип необходимым, но не делает достаточным.
(«решение системы уравнений основывается на определении детерминанта» не означает, что детерминант является решением системы уравнения)
указанная вами фраза не является определением процедуры контрастирования.
в частности, не понятно, происходит ли переучивание при удалении каждой связи, всех связей одного нейрона, или одного слоя.
Разбейте текст на абзацы, неудобно читать же.
Архитектура нейронных сетей штука мутная, и волнует исследователей очень давно.
Из того, что мне попадалось наиболее интересным является автоматический подбор параметров нейронной сети с помощью других алгоритмов. См. к примеру, вот эту работу: Automatic generation of a neural network architecture using evolutionary computation. Есть даже целая книга с этим же заголовком.
Спс. скачал, читаю.
Мне кажется, «нейронными сетями» вы называете один только многослойный персептрон. Это смелое обобщение.
Кроме того, совсем непонятно, как требование к количеству входов обеспечивает логическую прозрачность. Скажем, если представить МГУА как нейронную сеть, то у каждого нейрона будет не более двух входов. По вашему принципу, куда уж прозрачнее. Однако никто почему-то не считает МГУА методом добычи знаний.
по вашей же ссылке с вики

GMDH is used in such fields as data mining, knowledge discovery, prediction, complex systems modeling, optimization and pattern recognition.
Спасибо, я это писал. Вы таки считаете, что то, что вы описываете — это data mining? И что data mining — это «добыча знаний»?
Оке, а knowledge discovery тада что?
В двух словах — поиск корреляций. Да какая в сущности разница, что. Просто утверждение, что выделив аргументы с наибольшим весом, мы сделаем систему «логически прозрачной» — это по меньшей мере необоснованно, и просто немного странно по отношению к тем, кто этим уже занимался.
Sign up to leave a comment.

Articles