Комментарии 6
Так себе реклама. Даром, что бесплатная.
Вложение сущностей не только уменьшает потребление памяти и ускоряет нейронные сети в сравнении с быстрым кодированием
Что-то кажется что у вас проблемы с переводом. Мне пришлось гуглить статью Guo & Berkhahn (и о которой речь идёт чуть ниже) чтобы понять, что что «быстрое кодирование» это one-hot encoding. Что-то я подозреваю, что не мне одному.
Слушайте, хороший русский язык: орфография, синтаксис и лексика, что здесь, на Хабре, редкость... 👍 )))
Оригинальное издание 2020-го года. Для данной предметной области это уже давно.
Не уверен, что следовало переводить "embedding" как "вложение". Кажется, что англоязычный вариант более привычен.
Уважаемые коллеги из издательства! Вы когда-нибудь видели, как сейчас выглядит ваш предпросмотр книги на мобильном? Это же даже не издевательство...
Книга «Глубокое обучение с fastai и PyTorch: минимум формул, минимум кода, максимум эффективности»