Комментарии 21
Графики где? Где сводные таблицы? Где аналитика?
Портянка сырых данных — это не аналитика, это я вообще не знаю что.
Портянка сырых данных — это не аналитика, это я вообще не знаю что.
+16
Аналитика в выводах в соответствии с поставленной целью. Таблица да, нужна, но её вставить сюда нетривиально.
-1
Добавил сводную таблицу. Можете посмотреть более наглядно.
0
А где данные из (Чтение: iodepth=1024, bw=4528.8KB/s, iops=1132, avg= 894.10 msec)
0
У меня тут сейчас как раз по этому методу тестируется ioDrive2 1,2Tb и полка HP P2000 12х146@15k RAID10 :)
0
Было бы интересно узнать результаты. Мог бы их вставить в текст. Думаю нет необходимости тестировать сразу все 1,2 Тб для такого накопителя. Результат будет схожим, как и за 30 секунд.
0
Я буквально на днях консультировался с amarao, по его совету — SSD тестирую около получаса, т.к. в пике у него значение на много выше (хотя так сходу могу уже сказать что значения там очень даже вкусные :)). Данные просто так отдать мне, к сожалению, не даст руководство, так что буду писать отдельную статью и по полке и по иодрайву.
0
Чтобы понять, упираетесь ли вы в процессор или в память в тесте с ram-диском, попробуйте увеличить размер блока в несколько раз.
0
НЛО прилетело и опубликовало эту надпись здесь
Вы считаете, что надо было также расписывать, как по указанной ссылке, если до начала тестирования не было уверенности, что методика вообще покажет верный порядок цифр а целью статьи было как раз-таки убедиться в её верности?
Да и не претендовала статья на серьёзные измерения — иначе для чего надо было бы менять SD-флешки или CD-ROM? А нужно это было чтобы понять, стоит ли сравнивать разные накопители этим методом и каких цифр вообще ожидать. Все «неожидаемые» цифры как раз приведены в выводах.
Да и не претендовала статья на серьёзные измерения — иначе для чего надо было бы менять SD-флешки или CD-ROM? А нужно это было чтобы понять, стоит ли сравнивать разные накопители этим методом и каких цифр вообще ожидать. Все «неожидаемые» цифры как раз приведены в выводах.
0
НЛО прилетело и опубликовало эту надпись здесь
Методика не придумана, а взята из другого поста и об этом прямо указано. О верности методики говорят логичное изменение цифр при тестировании (к примеру размер очереди всегда негативно сказывается на задержках и увеличении IOPS), а также соизмеримость с общеизвестными данными о производительности.
Я понимаю понятия, которые используются в тесте. Единственное, я спросил как представить в реальной жизни размер очереди. Ну для примера где она находится — в ОС или на самом накопителе, какова её длина для разных типов накопителей и на что это влияет «в реальной работе». Цифра latency взята из поста на который приведена ссылка в начале статьи. В то же время появляется вопрос — 10 мс оказалось недостаточно даже для дисков 7200 об/мин enterprise на чтение — насколько верно эта цифра выбрана?
Вы привели ссылки с целью показать, как должны проводиться серьёзные измерения, но при этом не учитываете тот факт, что в данном тесте протестировано 9 накопителей и если разрисовывать их графиками как в ссылках, то это будет портянка на два дня чтива. Хорошо, 30 секунд недостаточно. Для SSD, к примеру. А для RAM-диска чем мало время? А для SD-карт?
Да, я измерил производительность накопителей при искусственных условиях. Этого требовала поставленная цель. Не было целью описать, как накопители поведут себя в реальной работе где бы то ни было. Если Вы прольёте свет на все эти вопросы — это будет только плюсом.
Хорошего дня!
Я понимаю понятия, которые используются в тесте. Единственное, я спросил как представить в реальной жизни размер очереди. Ну для примера где она находится — в ОС или на самом накопителе, какова её длина для разных типов накопителей и на что это влияет «в реальной работе». Цифра latency взята из поста на который приведена ссылка в начале статьи. В то же время появляется вопрос — 10 мс оказалось недостаточно даже для дисков 7200 об/мин enterprise на чтение — насколько верно эта цифра выбрана?
Вы привели ссылки с целью показать, как должны проводиться серьёзные измерения, но при этом не учитываете тот факт, что в данном тесте протестировано 9 накопителей и если разрисовывать их графиками как в ссылках, то это будет портянка на два дня чтива. Хорошо, 30 секунд недостаточно. Для SSD, к примеру. А для RAM-диска чем мало время? А для SD-карт?
Да, я измерил производительность накопителей при искусственных условиях. Этого требовала поставленная цель. Не было целью описать, как накопители поведут себя в реальной работе где бы то ни было. Если Вы прольёте свет на все эти вопросы — это будет только плюсом.
Хорошего дня!
0
Для RAM-диска достаточно несколько секунд теста, т.к. у него константные показатели. У магнитных дисков так же (если исключить разницу между short hand областью и остальным). У SSD, SD, usb-flash, аппаратных рейдов с wb и т.д. нужно длительное тестирование для того, чтобы пробить все уровни локальной оптимизации всплесков.
Откуда данные? Эксперименты. У забытого на неделю на тесте HDD показатели не поменялись. У SSD показатели явно падают в течение нескольких часов с момента начала теста.
Откуда данные? Эксперименты. У забытого на неделю на тесте HDD показатели не поменялись. У SSD показатели явно падают в течение нескольких часов с момента начала теста.
0
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Результаты теста с 30с временем выполнения для SSD не применимы.
Причина — специфичное поведение алгоритма housekeeeping'а. Когда идёт всплеск нагрузки, он его обрабатывает быстро, а потом «доделывает» в бэкграунде.
Самым ярким примером являются злосчастные 320ые SSD'шки от интела. Если их поставить в fio, то в начале на случайную запись там будет порядка 2000 IOPS, а спустя 2 часа теста — 400.
И это суровая реальность. Минимальный срок тестирования скорости для SSD — хотя бы час. (Особенно, если вы эту SSD хотите использовать непрерывно больше часа в продакте). При этом желательно наиболее выдающиеся показатели (1-2 строки) проверить хотя бы часа 3 на тему «не снижаются ли показатели во времени».
Причина — специфичное поведение алгоритма housekeeeping'а. Когда идёт всплеск нагрузки, он его обрабатывает быстро, а потом «доделывает» в бэкграунде.
Самым ярким примером являются злосчастные 320ые SSD'шки от интела. Если их поставить в fio, то в начале на случайную запись там будет порядка 2000 IOPS, а спустя 2 часа теста — 400.
И это суровая реальность. Минимальный срок тестирования скорости для SSD — хотя бы час. (Особенно, если вы эту SSD хотите использовать непрерывно больше часа в продакте). При этом желательно наиболее выдающиеся показатели (1-2 строки) проверить хотя бы часа 3 на тему «не снижаются ли показатели во времени».
+1
Да, ещё. Я не до конца уверен, но на lwn писали об исследованиях производительности флешек и карт памяти (не путать с ssd-дисками) — там проблема в том, что ftl (трансляции) в них оптимизируют под fat32 и даже используют чипы разной производительности для области FAT (которая часто меняется мелкими блоками) и остальной области (где пишут обычно большими блоками и последовательно).
Вот ссылка для начала чтения: lwn.net/Articles/528617/ (сама статья и всё по ссылкам)
Вот ссылка для начала чтения: lwn.net/Articles/528617/ (сама статья и всё по ссылкам)
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Публикации
Изменить настройки темы
Меряем производительность накопителей или снова про IOPS