Как стать автором
Обновить

Как мы превратили «статистическую аномалию» в сервис: новый уровень хранения в облаке

Время на прочтение5 мин
Количество просмотров4.4K
Всего голосов 28: ↑27 и ↓1+26
Комментарии5

Комментарии 5

Видео в конце просто позорное. В первом тесте 1000 иопс и 99-ый персентиль задержки — 17 мс, во втором тесте 1500 иопс и 99-ый персентиль задержки — 11 мс. В тексте статьи вы хвастаетесь менее чем 1 мс задержки и под 50 000 иопсов.
Вывод: видео явно не соответствует статье.

Ну в команде на 16 секунде видно, что там как раз и задается скорость в 1500 IOPS.


Что, впрочем, не отменяет того, что видео с переключением на все маркетинговые 50К+ иопсов выглядело бы намного уместнее.

celebrate, Dim0v

Коллеги, у всего есть своё объяснение :)

Тест с переключением с 1000 IOPS на 1500 сделали просто потому, что это тест именно на переключение IOPS с помощью API, и было важно показать что это происходит в live-режиме, мгновенно. Если нужен тест на 50k IOPS — дайте некоторое время, и мы запишем его. А если нужно, то и дадим тестовую учётку в Облако, чтобы Вы проверили сами.

17 мс задержки — недоглядели :)

Но и этому есть объяснение — если запускать fio на полную мощность, бенчмарк «упрется» в ограничение со стороны гипервизора (и, соответственно, ограничения которые мы задали в консоли Облака), и задержка будет выше, т.к. ОС «ждёт» пока диск позволит записать еще. Если в тесте fio поставить ограничение на пару IOPS меньше (через --rate_iops, например), чем само ограничение — задержка будет как в SLA.
celebrate, Dim0v

Исправляемся, видео с изменением 25000 -> 50000 IOPS, latency на 50000 ~0.6 ms (1.3 ms на 25000 — троттлинг со стороны гипервизора, о чем я говорил выше):

Задавать можно все, что душе угодно, но в 2020 году хвастаться 17 мс задержки при 1000 иопс (даже при размере блока 64к) — это как-то неприлично.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий