Pull to refresh

Comments 16

Что за дебильное выражение «грокаем»? Неужели в великом и могучем нет его аналогов?

Не люблю тех, кто узнает редкое слово и начинает им чваниться. Видно же, что чванится. Ему говорят «ой, что ты чванишься?!», а он чванится.


— рома гений (@Hromtastic) 11 сентября 2017 г.
Почему-то вспомнился когдатошний WoW с его Пандарией и местные приматы-хозены с их «бортельным шнуропсом». Те тоже «грокать» любят.
Хайнлайн имеет какое-то отношение к русскому языку? Сепулируешь на Хайнлайна?
В данном случае аналоги то может и есть но они не несут того же смысла. Потому что выражение — прямая отсылка на одну (видимо не читанную) книгу Хайнлайна и там оно — подано как заимствование и по тексту — переводить… нельзя без потери большей части смысла. В русском переводе — to grok именно что переведено как «грокать».
Или это отсылка на отсылку в названии другой книги издательства «Грокаем алгоритмы. Иллюстрированное пособие для программистов и любопытствующих», автор Бхаргава Адитья.

Почему именно на эту книгу отсылка? Этих книжек "Грокаем то да сё" вагон с тележкой уже напечатано.

Грокая куздра штеко будланула Арулкумаран
Редкая птица долетит до середины Днепра?
А кто знает, почему заморозили проект Torch (на Lua)?
C первого взгляда как то нелогично работает loss. Непонятно, где он привязывается к нейросети. Такое ощущение, что как-то висит в воздухе и вдруг ты должен вызвать loss.backward(). Ожидал что-то типа model.backward(loss);
Есть такое дело, я когда с этим столкнулся тоже сначала выпал в осадок. Но потом когда осознаешь что target и predict это намного больше чем просто набор данных, все встает на свои места :)
кроме этой нестыковки, все остальное вызвает восторг,
особенно, когда loss можно умножать на -1, что крайне нужно в обучении с подкреплением
Я бы не сказал что это не состыковка, с точки зрения программирования как раз то все ок. Передаем не сами данные а ссылку на объект и наш loss уже с этим объектом работает. Тут дело привычки
Сетевая инициализация обычно распространяется на переменные членов, слои, в которых содержатся обучаемые параметры и, может быть, на отдельные обучаемые параметры и необучаемые буферы.

Какой-то странный перевод фразы


Network initialisation typically includes member variables, layers which contain trainable parameters, and maybe separate trainable parameters and non-trainable buffers.

Я бы перевёл как "Инициализация сети обычно содержит её (сети) переменные, слои, в которых есть обучаемые параметры, и, может быть, отдельные обучаемые параметры и необучаемые буферы". Или даже "при инициализации объекта сети создаются переменные-члены, слои,… ".


Также упоминаются какие-то "сетевые модули", которые, наверно, всё-таки "модули сети".

Sign up to leave a comment.