Pull to refresh
25
0
Fedor Malyshkin @fedor_malyshkin

Java/Scala developer

Send message
Так и есть. И в документации про это явно написано (про засыпание ч/з 30 минут). Решается изменение типа dyno (опять же в доке написано)
Не делал побуквенное сравнение, но чертовски похоже на medium.com/jeremy-gottfrieds-tech-blog/tutorial-how-to-deploy-a-production-react-app-to-heroku-c4831dfcfa08 2018-го года. Но наверное все элементарные руководства похожи как братья близнецы :)
У Яндекса всегда классные видео — особенно серия Мобилизация. Но можно как-то к видео на youtube прицеплять ссылки на эти и аналогичные статьи (являются хорошим дополнением к видео)?
Откровенно говоря — просто не обратил внимания, когда первый раз услышал. Думаю, что Moxy не заменяет архитектуру приложения, лишь унифицирует и упорядочивает часть UI+Business, не вводя других требований к архитектуре, например в части зависимостей уровней.

Из того, что прочитал про Moxy сразу понятно, что разработку UI она сильно облегчает жизнь, но (IMHO) скрывает часть Android за своим собственным жизненным циклом: на моём уровне изучения Android я бы этого не хотел :)
Касательно плагина «Android Wifi ADB»: кто-то может пояснить зачем вообще, что-то отдельное. Если в большинстве телефонов возможно включить приём команд adb-демоном через опции. И на машине разработчика выполнить «adb connect host:port»?
Ранее был опыт с работы с ним. Однако его поддержка новых продуктов не на высоте, хотя стабильность и низкие требования к ресурсам нареканий не вызывает. По тексту я уже писал, что к Telegraf придётся вернуться.
Полностью согласен. Continuous Queries вместе с Retention Policy даёт возможность хранить данные за почти произвольный период. Однако нужно решить как долго хранить и что. Для незнакомых с CQ и RP: Разные метрики нужно downsampl’ить по разному – где-то подойдёт среднее, где-то максимум. Я сейчас просто удаляю данные старше 2-х недель без downsamplin’га.
Ничего плохого не хочу сказать про статью, но интересующимся Dagger лучше обратить внимание на серию статей от Евгений Мацюк (@xoxol_89)
Есть истинна в этих словах. Но сборка продукта системой сборки (а так же его тестирование и доставка) не всегда предполагают работу с только файлами — это могут быть и сетевые сервисы (FTP, HTTP), и сервисы ОС (docker например), и взаимодействие с облачными сервисами, а это становится для make не простой задачей (но не невыполнимой).

Полагаю свой скрипт сборки с сохранением функционала я мог бы реализовать на ant, но зная про gradle — стоило бы?
Люблю неоскорбительный сарказм :) Можно конечно и так прочитать. Однако смысл был в том, что бы убедить разработчиков использовать VCS (а таких которые не используют его в разработке есть. их работа это боль и они этого не видят), причём с пояснениями ПОЧЕМУ. Всунуть в 2 предложения это было выше моих сил.

В других гит-хостингах есть аналог «Deploy Keys»?
Делать твиттер из Хабр конечно не планирую, но слепить все моменты в одну мега-статью будет негуманно для читателей. Писать её я буду месяца 2-3 и при этом сильно уменьшу вероятность, что её дочитает кто-то до конца.
Одно могу сказать, что комбинированные посты точно будут.
Мне одному кажется, что www.hackerrank.com (или маршрут до него) ужасно провисает?
Отбой. Если кому интересно Яндекс некоторое время назад опубликовал исходные тексты tomita парсера (http://github.com/yandex/tomita-parser). Надо признать кода очень много и изучить его работы изнутри будет достаточно интересно, но касательно заданного вопроса вывод такой: используются данные из mystem и достаточно большое кол-во правил (код на C++).
В документации (в разделе про выделение ключевых слов) есть упоминание про алгоритм выделения ФИО. Можно узнать, на базе чего он основан (о ключевых моментах реализации)?
Вопрос по практическому использованию парсера: ф-л программы очень богатый, как и сам язык — соответственно для создания реальных наборов грамматик для жизненных ситуаций (которые (грамматики) д.б. достаточно большими) необходимо что-то вроде среды разработки/отладки. Тот ф-л отладки, что есть в распространяемой сборке совсем небольшой. Есть ли такой продукт внутри Яндекса? МОжно посмотреть хотя бы на скриншоты?
Вопрос по практическому использованию парсера: ф-л программы очень богатый, как и сам язык — соответственно для создания реальных наборов грамматик для жизненных ситуаций (которые (грамматики) д.б. достаточно большими) необходимо что-то вроде среды разработки/отладки. Тот ф-л отладки, что есть в распространяемой сборке совсем небольшой. Есть ли такой продукт внутри Яндекса? МОжно посмотреть хотя бы на скриншоты?
Постараюсь посмотреть в ближайшее время видео по представленной ссылке, но похоже у меня немного другое понимание факта, извлекаемого парсером. В разрабатываемых прототипах факты, извлекаемые из предложения «Мэр города Саратов 22 июня посетил для открытия выставки местного художника краеведческий музей города» были чем-то вроде «ДолжностноеЛицо», «ПрибылКудаТо», «ОргМероприятие», «Дата», которые после этого можно было связать в некие связки «Кто-Где-Когда» как раз с помощью парсинга 2-го уровня.
В Вашем варианте под фактами, извлекаемыми на 1-м уровне, понимаются такие результаты как уже «Кто-то посетил Что-то», получаемые с помощью достаточно широкого набора правил. Верно?
Можно конечно выполнить ещё более высокую абстракцию, типа «парсер результатов анализа парсера», но это уже что-то на уровне фактов-смысла, а не синтаксиса-морфологии. При этом возможность четкого декларативного описания подобных вещей мне представляется достаточно сложным вопросом. Или это был достаточно механический, статистический способ решения на базе машинного обучения?
Всегда было интересно узнать, а так же подчерпнуть новых идей из реально существующих проектов. Были ли у Яндекса публикации по данной тематике или есть возможность указать материалы, лежащии в основе данной вышестоящей системы?

Information

Rating
Does not participate
Location
Россия
Registered
Activity