Как стать автором
Обновить

Комментарии 9

ну все таки в spark 2.х они выкатили совершенно другие api под стриминг и по хорошему надо именно на них надо тестировать. то что было в 1.6 у них не позиционируется как стриминг.
Я согласен что надо на новый спарк переходить. Но не соглашусь что 1.6 — не позицианировался как стриминг
Еще не выкатили, это альфа
У нас в конторе как message broker используют AWS Kinesis.
Сначала на php пилили под него консьюмера (паблишер на Scala написан), получилось черти что. Потом ребята на Scala перепилили.
Я вот только до сих пор понять не могу, зачем для обычных сообщений (json), где немного данных, был выбран Kinesis с которым заморочек немерянно (или я просто его совсем не понял).

Может кто-то статью про Kinesis напишет?
О том для чего его стоит использовать, для чего не стоит. Его плюсы и минусы. Ну и личный опыт.
Было бы очень интересно почитать.
Попробуйте сами разобраться с Kinesis на досуге. Потыкайте его палочкой, а потом статейку напишете. Получите сразу +100500 опыта и почета ))
А flink не рассматривали?
Нет, к таким эксперементам, пока мы не готовы )
Есть ещё такой способ — вычитывать данные с помощью KafkaUtils.createRDD, а офсеты хранить самостоятельно. Если есть возможность сохранить данные и офсеты одной транзакцией, то получается Exactly once.
Да, это выход.
Но это уже будет не стримминг
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории