Pull to refresh

Куда сходить: ближайшие бесплатные мероприятия для айтишников в Москве (14–18 января)

Reading time 4 min
Views 2.8K


Мероприятия с открытой регистрацией:



* Ссылки на мероприятия работают внутри поста



AI & Mobile

14 января, 19:00-22:00, Вторник

Приглашаем на митап про искусственный интеллект, его применение на мобильных устройствах и важнейшие технологические и бизнес тренды нового десятилетия. В программе интересные доклады, обсуждения, пицца и хорошее настроение.

Один из докладчиков — пионер внедрения новейших технологий в Голливуде, Белом Доме; его книгу «Augmented: Life in the Smart Lane» упомянул как одну из любимых настольных книг президент Китая в своём новогоднем обращении.



NeurIPS New Year Afterparty

15 января, начало в 18:00, Среда

  • 18:00 Регистрация
  • 19:00 Открытие — Михаил Биленко, Яндекс
  • 19:05 Reinforcement learning на NeurIPS 2019: как это было - Сергей Колесников, Tinkoff
    С каждым годом тема обучения с подкреплением (reinforcement learning, RL) становится все горячее и хайповее. И каждый год компании DeepMind и OpenAI подливают масла в огонь, выпуская нового superhuman performance bot. Есть ли за этим нечто действительно стоящее? И каковы последние тренды во всём RL-многообразии? Давайте выясним!
  • 19:25 Обзор работ NLP на NeurIPS 2019 - Михаил Бурцев, МФТИ
    Сегодня наиболее прорывные направления в области обработки естественного языка связаны с построением архитектур на основе языковых моделей и графов знаний. В докладе будет представлен обзор работ, в которых эти методы используются при построении диалоговых систем для реализации различных функций. Например — для общения на общие темы, повышения эмпатии и ведения целеориентированного диалога.
  • 19:45 Пути к пониманию вида поверхности функции потерь - Дмитрий Ветров, ФКН НИУ ВШЭ
    Я обсужу несколько работ, в которых исследуются необычные эффекты в глубинном обучении. Эти эффекты проливают свет на вид поверхности функции потерь в пространстве весов и позволяют выдвинуть ряд гипотез. Если их подтвердить, можно будет более эффективно регулировать величину шага в методах оптимизации. Также это позволит прогнозировать достижимое значение функции потерь на тестовой выборке задолго до окончания обучения.
  • 20:05 Обзор работ по компьютерному зрению на NeurIPS 2019 - Сергей Овчаренко, Константин Лахман, Яндекс
    Мы рассмотрим основные направления исследований и работы в компьютерном зрении. Попробуем понять, все ли задачи уже решены с точки зрения академии, продолжается ли победное шествие GAN во всех областях, кто оказывает ему сопротивление и когда уже произойдёт unsupervised-революция.
  • 20:25 Кофе-брейк
  • 20:40 Моделирование последовательностей с неограниченным порядком порождения - Дмитрий Емельяненко, Яндекс
    Мы предлагаем модель, способную вставлять слова в произвольное место генерируемого предложения. Модель неявно учит удобный порядок декодирования, основываясь на данных. Лучшее качество достигается на нескольких датасетах: для машинного перевода, использования в LaTeX и описания изображений. Доклад посвящён статье, в которой мы показываем, что выучиваемый порядок декодирования действительно обладает смыслом и специфичен для решаемой задачи.
  • 20:55 Reverse KL-Divergence Training of Prior Networks: Improved Uncertainty and Adversarial Robustness - Андрей Малинин, Яндекс
    Ensemble approaches for uncertainty estimation have recently been applied to the tasks of misclassification detection, out-of-distribution input detection and adversarial attack detection. Prior Networks have been proposed as an approach to efficiently emulate an ensemble of models for classification by parameterising a Dirichlet prior distribution over output distributions. These models have been shown to outperform alternative ensemble approaches, such as Monte-Carlo Dropout, on the task of out-of-distribution input detection. However, scaling Prior Networks to complex datasets with many classes is difficult using the training criteria originally proposed. This paper makes two contributions. First, we show that the appropriate training criterion for Prior Networks is the reverse KL-divergence between Dirichlet distributions. This addresses issues in the nature of the training data target distributions, enabling prior networks to be successfully trained on classification tasks with arbitrarily many classes, as well as improving out-of-distribution detection performance. Second, taking advantage of this new training criterion, this paper investigates using Prior Networks to detect adversarial attacks and proposes a generalized form of adversarial training. It is shown that the construction of successful adaptive whitebox attacks, which affect the prediction and evade detection, against Prior Networks trained on CIFAR-10 and CIFAR-100 using the proposed approach requires a greater amount of computational effort than against networks defended using standard adversarial training or MC-dropout.
  • 21:10 Панельная дискуссия: «NeurlPS, который слишком вырос: кто виноват и что делать?» — Александр Крайнов, Яндекс
  • 21:40 Afterparty



R Moscow Meetup #5

16 января, 18:30-21:30, Четверг

  • 19:00-19:30 «Решение эксплуатационных задач с помощью R для чайников» — Константин Фирсов (АО «Нетрис», Главный инженер по внедрению).
  • 19:30-20:00 «Оптимизация товарных запасов в retail» — Генрих Ананьев (ПАО Белуга Групп, Руководитель направления автоматизации отчётности).
  • 20:00-20:30 «BMS в X5: как сделать business-process mining на неструктурированных POS логах средствами R» — Ролдугин Евгений (X5 Retail Group, Руководитель управления инструментов контроля качества сервисов), Илья Шутов (Медиа-тел, руководитель направления data science).



Frontend Meetup в Москве (Гастромаркет Балчуг)

18 января, 12:00-18:00, Суббота

  • «Когда стоит переписать приложение с нуля, и как убедить в этом бизнес» - Алексей Пыжьянов, разработчик, Сибур
    Реальная история о том, как мы разобрались с техдолгом самым радикальным способом. Расскажу о том:
    1. Почему хорошее приложение превратилось в ужасное легаси.
    2. Как мы приняли непростое решение всё переписать.
    3. Как мы продали эту идею владельцу продукта.
    4. Что получилось в итоге из этой затеи, и почему мы не жалеем о принятом решении.

  • «Vuejs API mocks» — Владислав Прусов, Frontend developer, AGIMA



Тренировки по машинному обучению в Авито 2.0

18 января, 12:00-15:00, Суббота

  • 12:00 «Zindi Sendy Logistics Challenge (rus)» — Роман Пьянков
  • 12:30 «Data Souls Wildfire AI (rus)» — Илья Плотников
  • 13:00 Кофебрейк
  • 13:20 «Topcoder SpaceNet 5 Challenge & Signate The 3rd Tellus Satellite Challenge (eng)» — Ilya Kibardin
  • 14:00 Кофебрейк
  • 14:10 «Codalab Automated Time Series Regression (eng)» — Denis Vorotyntsev


Tags:
Hubs:
If this publication inspired you and you want to support the author, do not hesitate to click on the button
+8
Comments 6
Comments Comments 6

Articles