Comments 40
У меня тормозит браузер + IDE. В IDE работать можно только приняв дозу успокоительного.
Имхо, для десктопных приложений корректная работа с IOPS не должна рассчитывать только на NVMe.
Ну уж в ноут-то можно поставить SSD. Это десктопы ретрограды вроде меня набивают многотерабайтниками на все слоты и порты, а в ноуте у SSD минусов нет.
Я ПК то стационарный собираю кнопками в интернет магазине.
Но в целом, когда в очередной раз всё колом встает, я склоняюсь к мысли, что возможно стоит поставить туда SSD =)
Впрочем, судя по переписке — это странно? Он у меня больше для игр\видосиков был взят в своё время, с этими задачами он справляется до сих пор.
Грузить ОС с HDD в 2020 это очень странно. Если совсем нету 5 тысяч рублей, я не осуждаю, но если хоть где-то завалялись, то SSD — самый нужный и самый заметный апгрейд из всех возможных.
Дело не только в старте ОС, но и в запуске программ, переключении режимов в этих программах, общей отзывчивости системы.
Я недавно год пропользовался ноутом с HDD (да, тоже со спящим режимом), прежде чем дошли руки апгрейднуть. Я знаю, о чём я говорю.
Единственный реальный кейс, когда разница ощутима — чортовы исходники и все эти оптимизации для поиска по ним =)
За 10 лет вы ноут ни разу не обслуживали?
Там же могут и диск заменить.
Боюсь спросить — в машину бензин заливаете, пепельницы высыпаете или меняете авто при переполнении? )
И если лет 10 назад я без зазрения совести советовал даме на удалёнке открутить то-то и то-то в её ноуте, после чего вставить в свободное гнездо платку, что мы ей прислали, то сейчас, увы, иногда и сам по часу разбираю особо «удачные» модели ноутов.
У меня два десятилетних Acer. Один "тонкий" (что даже RJ45 "раскладной"), второй — "толстячок". У обоих, для замены HDD надо последовательно: снять клавиатуру, отсоединить экран, разъединить корпус (на защёлках), отсоединить с десяток шлейфов от системной платы (на толстячке ещё и видеокарту демонтировать), извлечь системную плату из нижней половины корпуса — и только тогда откроется доступ к диску. Когда менял HDD на SSD, был близок к тому, чтобы попытаться разыскать авторов конструкции для эмоционального объяснения их неправоты.
Не стоит забывать ещё и про облака, где IOPS-ы масштабируются в зависимости от размера диска. На тысячах IOPS новые красивые API превращаются в тыкву.
А что если размеры буферов на файлы просто уменьшать? В конечном итоге, вовсе не обязательно читать 4кб, на 1кб данных. ОС считывает данные по кластерам, кластер при форматировании можно установить и в 1кб и в 512 байт. Если работает кеш, то размер кеша тоже можно установить в минимум. Дисковый кеш ОС вообще можно отключить. Это даст прирост на описываемых вами задачах с произвольным доступом без изменения архитектуры?
Я правда сам не понимаю почему так(т.е. USB3 флешка работает быстрее) но эта данность времени.
docs.microsoft.com/en-us/azure/virtual-machines/disks-types#disk-size-1
А вот что творится в слое виртуализации — про это я точно не скажу, особено учитывая, что в облаке все должно быть сильно оптимизировано в сторону снижения затрат.
Зато могу сказать про результат: сервер Exchange, который на земле неплохо живет и на обычных HDD на 7200 оборотов (в том числе и на виртуалке) — лишь бы они были отданы ему в эксклюзиве — в VM на Azure официально требует Premium Storage (т.е. вирутальные диски на базе SSD).
лишь бы они были отданы ему в эксклюзивевот видимо поэтому в облаке и требует SSD, т.к. хранилища шаредные, «отдать в эксклюзив» не получится.
А дедупликация — это отличное средство для преобразования последовательного доступа в произвольный. И на HDD это критически замедляет скорость чтения/записи.
Azure/AWS/GCP и не пытаются дать максимум производительности IO. Ну т.е. "неплохо бы", но не главный приоритет. Им нужна доступность и надёжность, масштабируемость и максимальная совместимость, желательно недорого — за это реально платят клиенты. А максимизация производительности явно конфликтует с нагруженной виртуализацией.
для примера посмотрите на скорости SSD дисков в Azure.не стоит забывать, что апгрейд хранилки для небольшой фирмы — это купить пусть даже 20 дисков, вкрутить их настроить доступ недолго. Апдейт для Azure — это несколько датацентров сразу, чтобы предложить потом клиенту другой уровень услуги, фиг с ним с деньгами — это просто физически небыстрое дело!
В большинстве случаев стандартных API достаточно, но в статье речь идет о том, как поступать, когда они становятся узким местом производительности.
с задержками, измеряемыми в единицах микросекунд
нет. для optane это десятки микросекунд, для nand (не важно nvme или sata) типичная задержка чтения около 100 мкс.
del
PS: Смешно наблюдать как чуть выше чувака всем хабром убеждают поставить SSD, и как он отчаянно под всеми предлогами отбивается от благодетелей, бггг.
Зачем вы его убеждаете, ему не надо, это ж очевидно )))
Если что — сам владелец 10-летнего Vaio vcpf223fx который как раз живёт на древнем же SSD.
PPS: OP пропустил важную вещь: Optane мог использоваться не как диск, а в качестве «расширителя» основной DRAM. Когда-нибудь техногии дойдут до прямого мэппинга сторажей в адресное пространство — тогда и будет круто.
Спасибо за минус на ровном месте, ага.
прекратили выпускать десктопные optane. серверные живее всех живых, скоро обещают новую версию.
OP пропустил важную вещь: Optane мог использоваться не как диск, а в качестве «расширителя» основной DRAM. Когда-нибудь техногии дойдут до прямого мэппинга сторажей в адресное пространство — тогда и будет круто.
вообще-то оно уже есть, nvdimm называется (в том числе и на optane)
Современные накопители очень быстры, но плохие API это не учитывают