Как стать автором
Обновить
4
0

Пользователь

Отправить сообщение
Зачем языку, программы на котором нередко исполняются в средах где не требуется GUI встроенные средства для графики?
В отличие от многих новых языков перед С++ проблема привлечения новых пользователей стоит не так остро, поэтому особо снижать порог вхождения не требуется.
Для «простых смертных» есть куча других языков, которые сознательно стараются упростить процесс разработки (порой, правда, ценой производительности/гибкости/узкой специализации)
Ну судя по тестам по ссылке все относительно неплохо для молодого языка. С потреблением памяти больших проблем быть не должно, по идее — в rust нет gc.
Ну и ИМХО, синтаксис Rust слишком уж С-подобный, можно было и полаконичней
Придется набивать выборку с фотографиями таких существ. И подозреваю, что с этим могут быть проблемы)
Совсем не обязательно. Одна модель локализует людей (и если она хорошо обучена, то котов она воспринимать не будет), вторая локализует котов (и если хорошо обучена, то людей или, скажем, камни/растения/рисунки на заборах, она за котов не будет воспринимать).
Если условия использования модели таковы, что очень часто в кадре коты и люди одновременно, то да, много примеров кот+человек в выборке будут плюсом.
2 классификатора, один для человеков, другой для котов, в зависимости от выхлопа классификаторов — принимаем решение
Не совсем понял, как используется forest у автора, но насколько я помню, у алгоритмов на основе деревьев решений вполне себе «естественная» поддержка мультиклассовой классификации, без использования one-vs-all
И чем же JS лучше остальной кучи языков c компиляцией в native?
Ага, понял, спасибо)
Про 1200-слойную сеть я помню, в статье вроде писали что у них наступило переобучение
Я безумно извиняюсь за некоторый оффтоп, но не могу не задать вопрос
Есть ли какое-нить доступное объяснение, почему «классические» (не residual) глубокие сети с ростом числа уровней начали давать худший training error?
Если ф-ия выпуклая, то нам не обязательно определять область поиска решения — глобальный минимум и так один, и мы к нему рано или поздно придем.

За пример спасибо — первый раз вижу чтобы ГА применяли к чему-то более-менее полезному (правда компетенции чтобы оценить качество решения у меня нету =( )

На счет того, что ГА единственный вариант для случаев когда мы не можем нормально анализировать целевую ф-ию — не согласен.
Есть же целая куча derivative free оптимизаций — всякие Particle swarm optimization, CMA-ES, etc
1) Что значит дать более надежные гарантии?
2) Разве из этого вытекает, что подобное правило справедливо для ГА?
Ну и если у меня есть гладкая ф-ия потерь (которая меняется незначительно от вариации аргумента), разве не проще использовать градиентные методы первого/второго порядка, которые имеют намного лучшую сходимость по сравнению с ГА?
Ну вот использовать ГА для обучения тех же нейросетей это не очень хорошая идея (для большинства случаев) — обучение будет происходить очень медленно, и нет гарантии что будет найден локальный минимум.
И почему важно чтобы " функция приспособленности набора генов с изменением каждого гена менялась бы «вероятно незначительно»"?
А если не секрет, то где?
Ну почему же никакой, вон, нейросети и в Го играют, и картиночки успешно распознают.
ГА слабы в большинстве задач, это да
А что не так? ГА просто один из способов решения задачи оптимизации, нейросеть просто способ аппроксимировать ф-ию.
А есть доказательства того, что вариант сюжета с «матрицей в матрице» это не выдумка фанатов, а действительно оригинальный сюжет?
А возможность поставить несколько «реакций» будет?
12 ...
15

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность