Как стать автором
Обновить

Комментарии 7

Все же не хватает в R хорошего нативного deep learning фреймворка: reticulate + keras больше напоминают костыль.
Не хватает, но в R-keras критических ограничений по сравнению с python-keras в общем-то и нет. Необходимость самому писать колбэки и реализовывать современные архитектуры за костыли не считаю, поскольку на питоне их пишут такие же юзеры точно таким же образом.
То есть не хватает именно хорошего фреймворка — порта pytorch, или даже сразу fastai.

А чем pytorch лучше? Я где-то видел статистику использования фреймворков, он там второй после кераса, вроде бы.

Лаконичнее и монолитнее, что ли. В keras все нестандартные штуки, начиная с кастомных функций потерь, делаются посредством вызова функций бекенда — как правило, это tensorflow. В pytorch все прозрачнее. А fastai добавляет сверху набор эвристик и хорошо подобранные значения параметров по умолчанию, по крайней мере для наиболее типичных задач.

Понятно. Под keras если даже я не могу на 100% реализовать что-то кастомное, я ищу питоновскую реализацию, а код транслируется 1 к 1 с небольшими синтаксическими правками. А вообще много примеров на rstudio. И надо немного питоновские структуры данных знать, хотя бы листы. Работа по портированию keras а большая… mxnet просто убивал отсутствием документации, многих стандартные вещи приходилось просить у разрабов на гитхабе. Считаю, хорошо, что есть то, что есть.

Мне, например, так и не удалось реализовать Attention layer на R + R6: появлялась абсолютно неинформативная ошибка, связанная с особенностями передачи объектов в python, и по которой я так ничего толкового и не нашел. Так что «порог вхождения» по сравнению с python будет повыше.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий