Комментарии 10
Спасибо большое за статью, интересный подход!
Ошибки с аналитикой опасны тем что они не видны сразу и обнаруживаются только через месяц-другой когда маркетинг анализирует собранные данные.

Действительно, интересная у вас реализация, даже интересно попробовать применить такой метод в своем проекте.


Но есть вопрос. Если я правильно поняла, что у вас используется общий буфер обмена.
Получается, что я не смогу запустить на CI параллельно несколько симуляторов и проверять разные сценарии, ведь события смешаются и будут фейлы.
Как-то можно будет фильтровать? Вводить в ивенты идентификаторы симуляторов и выбирать по ним? Как вы решаете подобную задачу?

Мы не запускаем UI-тесты параллельно. Если у вас обычные UI-тесты выполняются параллельно, то UI-тесты на аналитику надо запускать отдельно и последовательно.

Я делал подобное, но с возможностью гонять на большом количестве симуляторов. Скоро буду выступать на конференции с докладом по этому вопросу. После анонса могу выложить ссылочку на неё.

Очень круто и вовремя. Как раз предстоит задача — подключать метрики)))
Посмотрел документацию метрики, через API можно дергать отчеты. Таким образом со стороны метрики можно подстраховаться и мониторить после релиза основные критически важные показатели.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.