Как стать автором
Обновить

Книга «Глубокое обучение с fastai и PyTorch: минимум формул, минимум кода, максимум эффективности»

Время на прочтение14 мин
Количество просмотров10K
Всего голосов 10: ↑10 и ↓0+10
Комментарии6

Комментарии 6

Так себе реклама. Даром, что бесплатная.

Вложение сущностей не только уменьшает потребление памяти и ускоряет нейронные сети в сравнении с быстрым кодированием

Что-то кажется что у вас проблемы с переводом. Мне пришлось гуглить статью Guo & Berkhahn (и о которой речь идёт чуть ниже) чтобы понять, что что «быстрое кодирование» это one-hot encoding. Что-то я подозреваю, что не мне одному.

Слушайте, хороший русский язык: орфография, синтаксис и лексика, что здесь, на Хабре, редкость... 👍 )))

Оригинальное издание 2020-го года. Для данной предметной области это уже давно.

Не уверен, что следовало переводить "embedding" как "вложение". Кажется, что англоязычный вариант более привычен.

Уважаемые коллеги из издательства! Вы когда-нибудь видели, как сейчас выглядит ваш предпросмотр книги на мобильном? Это же даже не издевательство...

Зарегистрируйтесь на Хабре, чтобы оставить комментарий