Pull to refresh

Comments 21

Графики где? Где сводные таблицы? Где аналитика?
Портянка сырых данных — это не аналитика, это я вообще не знаю что.
Аналитика в выводах в соответствии с поставленной целью. Таблица да, нужна, но её вставить сюда нетривиально.
один из вариантов:
1. график и таблицы делаем в Excel
2. снимаем и обрезаем (PrintScreen + Paint)
3. вставляем картинку в пост
Спасибо за совет. Сделал.
Добавил сводную таблицу. Можете посмотреть более наглядно.
А где данные из (Чтение: iodepth=1024, bw=4528.8KB/s, iops=1132, avg= 894.10 msec)
Вставил. Видать где-то затерялось по ходу написания статьи.
У меня тут сейчас как раз по этому методу тестируется ioDrive2 1,2Tb и полка HP P2000 12х146@15k RAID10 :)
Было бы интересно узнать результаты. Мог бы их вставить в текст. Думаю нет необходимости тестировать сразу все 1,2 Тб для такого накопителя. Результат будет схожим, как и за 30 секунд.
Я буквально на днях консультировался с amarao, по его совету — SSD тестирую около получаса, т.к. в пике у него значение на много выше (хотя так сходу могу уже сказать что значения там очень даже вкусные :)). Данные просто так отдать мне, к сожалению, не даст руководство, так что буду писать отдельную статью и по полке и по иодрайву.
Чтобы понять, упираетесь ли вы в процессор или в память в тесте с ram-диском, попробуйте увеличить размер блока в несколько раз.
UFO just landed and posted this here
Вы считаете, что надо было также расписывать, как по указанной ссылке, если до начала тестирования не было уверенности, что методика вообще покажет верный порядок цифр а целью статьи было как раз-таки убедиться в её верности?
Да и не претендовала статья на серьёзные измерения — иначе для чего надо было бы менять SD-флешки или CD-ROM? А нужно это было чтобы понять, стоит ли сравнивать разные накопители этим методом и каких цифр вообще ожидать. Все «неожидаемые» цифры как раз приведены в выводах.
UFO just landed and posted this here
Методика не придумана, а взята из другого поста и об этом прямо указано. О верности методики говорят логичное изменение цифр при тестировании (к примеру размер очереди всегда негативно сказывается на задержках и увеличении IOPS), а также соизмеримость с общеизвестными данными о производительности.

Я понимаю понятия, которые используются в тесте. Единственное, я спросил как представить в реальной жизни размер очереди. Ну для примера где она находится — в ОС или на самом накопителе, какова её длина для разных типов накопителей и на что это влияет «в реальной работе». Цифра latency взята из поста на который приведена ссылка в начале статьи. В то же время появляется вопрос — 10 мс оказалось недостаточно даже для дисков 7200 об/мин enterprise на чтение — насколько верно эта цифра выбрана?

Вы привели ссылки с целью показать, как должны проводиться серьёзные измерения, но при этом не учитываете тот факт, что в данном тесте протестировано 9 накопителей и если разрисовывать их графиками как в ссылках, то это будет портянка на два дня чтива. Хорошо, 30 секунд недостаточно. Для SSD, к примеру. А для RAM-диска чем мало время? А для SD-карт?

Да, я измерил производительность накопителей при искусственных условиях. Этого требовала поставленная цель. Не было целью описать, как накопители поведут себя в реальной работе где бы то ни было. Если Вы прольёте свет на все эти вопросы — это будет только плюсом.
Хорошего дня!
Для RAM-диска достаточно несколько секунд теста, т.к. у него константные показатели. У магнитных дисков так же (если исключить разницу между short hand областью и остальным). У SSD, SD, usb-flash, аппаратных рейдов с wb и т.д. нужно длительное тестирование для того, чтобы пробить все уровни локальной оптимизации всплесков.

Откуда данные? Эксперименты. У забытого на неделю на тесте HDD показатели не поменялись. У SSD показатели явно падают в течение нескольких часов с момента начала теста.
Спасибо за совет. Дополнительно провёл тест этого же SSD в течении 10 часов вместо 30 секунд. В результате показатели IOPS и bw снизились более, чем в 2 раза (см.update).
UFO just landed and posted this here
UFO just landed and posted this here
Результаты теста с 30с временем выполнения для SSD не применимы.

Причина — специфичное поведение алгоритма housekeeeping'а. Когда идёт всплеск нагрузки, он его обрабатывает быстро, а потом «доделывает» в бэкграунде.

Самым ярким примером являются злосчастные 320ые SSD'шки от интела. Если их поставить в fio, то в начале на случайную запись там будет порядка 2000 IOPS, а спустя 2 часа теста — 400.

И это суровая реальность. Минимальный срок тестирования скорости для SSD — хотя бы час. (Особенно, если вы эту SSD хотите использовать непрерывно больше часа в продакте). При этом желательно наиболее выдающиеся показатели (1-2 строки) проверить хотя бы часа 3 на тему «не снижаются ли показатели во времени».
Да, ещё. Я не до конца уверен, но на lwn писали об исследованиях производительности флешек и карт памяти (не путать с ssd-дисками) — там проблема в том, что ftl (трансляции) в них оптимизируют под fat32 и даже используют чипы разной производительности для области FAT (которая часто меняется мелкими блоками) и остальной области (где пишут обычно большими блоками и последовательно).

Вот ссылка для начала чтения: lwn.net/Articles/528617/ (сама статья и всё по ссылкам)
Sign up to leave a comment.

Articles