У Яндекса всегда классные видео — особенно серия Мобилизация. Но можно как-то к видео на youtube прицеплять ссылки на эти и аналогичные статьи (являются хорошим дополнением к видео)?
Откровенно говоря — просто не обратил внимания, когда первый раз услышал. Думаю, что Moxy не заменяет архитектуру приложения, лишь унифицирует и упорядочивает часть UI+Business, не вводя других требований к архитектуре, например в части зависимостей уровней.
Из того, что прочитал про Moxy сразу понятно, что разработку UI она сильно облегчает жизнь, но (IMHO) скрывает часть Android за своим собственным жизненным циклом: на моём уровне изучения Android я бы этого не хотел :)
Касательно плагина «Android Wifi ADB»: кто-то может пояснить зачем вообще, что-то отдельное. Если в большинстве телефонов возможно включить приём команд adb-демоном через опции. И на машине разработчика выполнить «adb connect host:port»?
Ранее был опыт с работы с ним. Однако его поддержка новых продуктов не на высоте, хотя стабильность и низкие требования к ресурсам нареканий не вызывает. По тексту я уже писал, что к Telegraf придётся вернуться.
Полностью согласен. Continuous Queries вместе с Retention Policy даёт возможность хранить данные за почти произвольный период. Однако нужно решить как долго хранить и что. Для незнакомых с CQ и RP: Разные метрики нужно downsampl’ить по разному – где-то подойдёт среднее, где-то максимум. Я сейчас просто удаляю данные старше 2-х недель без downsamplin’га.
Есть истинна в этих словах. Но сборка продукта системой сборки (а так же его тестирование и доставка) не всегда предполагают работу с только файлами — это могут быть и сетевые сервисы (FTP, HTTP), и сервисы ОС (docker например), и взаимодействие с облачными сервисами, а это становится для make не простой задачей (но не невыполнимой).
Полагаю свой скрипт сборки с сохранением функционала я мог бы реализовать на ant, но зная про gradle — стоило бы?
Люблю неоскорбительный сарказм :) Можно конечно и так прочитать. Однако смысл был в том, что бы убедить разработчиков использовать VCS (а таких которые не используют его в разработке есть. их работа это боль и они этого не видят), причём с пояснениями ПОЧЕМУ. Всунуть в 2 предложения это было выше моих сил.
Делать твиттер из Хабр конечно не планирую, но слепить все моменты в одну мега-статью будет негуманно для читателей. Писать её я буду месяца 2-3 и при этом сильно уменьшу вероятность, что её дочитает кто-то до конца.
Одно могу сказать, что комбинированные посты точно будут.
Отбой. Если кому интересно Яндекс некоторое время назад опубликовал исходные тексты tomita парсера (http://github.com/yandex/tomita-parser). Надо признать кода очень много и изучить его работы изнутри будет достаточно интересно, но касательно заданного вопроса вывод такой: используются данные из mystem и достаточно большое кол-во правил (код на C++).
В документации (в разделе про выделение ключевых слов) есть упоминание про алгоритм выделения ФИО. Можно узнать, на базе чего он основан (о ключевых моментах реализации)?
Вопрос по практическому использованию парсера: ф-л программы очень богатый, как и сам язык — соответственно для создания реальных наборов грамматик для жизненных ситуаций (которые (грамматики) д.б. достаточно большими) необходимо что-то вроде среды разработки/отладки. Тот ф-л отладки, что есть в распространяемой сборке совсем небольшой. Есть ли такой продукт внутри Яндекса? МОжно посмотреть хотя бы на скриншоты?
Вопрос по практическому использованию парсера: ф-л программы очень богатый, как и сам язык — соответственно для создания реальных наборов грамматик для жизненных ситуаций (которые (грамматики) д.б. достаточно большими) необходимо что-то вроде среды разработки/отладки. Тот ф-л отладки, что есть в распространяемой сборке совсем небольшой. Есть ли такой продукт внутри Яндекса? МОжно посмотреть хотя бы на скриншоты?
Постараюсь посмотреть в ближайшее время видео по представленной ссылке, но похоже у меня немного другое понимание факта, извлекаемого парсером. В разрабатываемых прототипах факты, извлекаемые из предложения «Мэр города Саратов 22 июня посетил для открытия выставки местного художника краеведческий музей города» были чем-то вроде «ДолжностноеЛицо», «ПрибылКудаТо», «ОргМероприятие», «Дата», которые после этого можно было связать в некие связки «Кто-Где-Когда» как раз с помощью парсинга 2-го уровня.
В Вашем варианте под фактами, извлекаемыми на 1-м уровне, понимаются такие результаты как уже «Кто-то посетил Что-то», получаемые с помощью достаточно широкого набора правил. Верно?
Можно конечно выполнить ещё более высокую абстракцию, типа «парсер результатов анализа парсера», но это уже что-то на уровне фактов-смысла, а не синтаксиса-морфологии. При этом возможность четкого декларативного описания подобных вещей мне представляется достаточно сложным вопросом. Или это был достаточно механический, статистический способ решения на базе машинного обучения?
Всегда было интересно узнать, а так же подчерпнуть новых идей из реально существующих проектов. Были ли у Яндекса публикации по данной тематике или есть возможность указать материалы, лежащии в основе данной вышестоящей системы?
Из того, что прочитал про Moxy сразу понятно, что разработку UI она сильно облегчает жизнь, но (IMHO) скрывает часть Android за своим собственным жизненным циклом: на моём уровне изучения Android я бы этого не хотел :)
make
не простой задачей (но не невыполнимой).Полагаю свой скрипт сборки с сохранением функционала я мог бы реализовать на
ant
, но зная проgradle
— стоило бы?В других гит-хостингах есть аналог «Deploy Keys»?
Одно могу сказать, что комбинированные посты точно будут.
В Вашем варианте под фактами, извлекаемыми на 1-м уровне, понимаются такие результаты как уже «Кто-то посетил Что-то», получаемые с помощью достаточно широкого набора правил. Верно?