Как стать автором
Обновить

Комментарии 224

НЛО прилетело и опубликовало эту надпись здесь
Не совсем так. Для пользователя есть три типа карт. Если карта влезает в слот — значит она работает. Тут все просто.
Не просто для разработчика изделия, где этот слот стоит. Изволь вытянуть туда все интерфейсы, которые подразумевает данный ключ. Для реально мелкой электронники (карманной и меньше) — это уже проблема. Да и для ноута. Даже неработающий интерфейс снижает время автономной работы. А если сюда добавить еще и чехарду с длинной карт то становится совсем грустно.
Если карта влезает в слот — значит она работает.
Есть m.2 без поддержки сата, есть m.2 без поддержки nvme.
Подтвердите пунктом спецификации? Автомобиль тоже может ездить на трех колесах. А в отдельных случаях даже на двух. И без тормозов. И поворотники не сильно нужны. Если такой вариант автомобиля вас устраивает (это ж экономия!), то и славненько.
Беда лишь в том, что производители не имеют права продавать автомобили без тормозов и поворотников.
У меня есть ноутбук MSI PS63, у него два m.2 слота. Один с поддержкой NVMe/SATA, а второй только SATA. Вот спецификации на сайте. Правда я не пытался в SATA-only слот вставить NVMe накопитель. Считаете, разъем не позволит?
Запросто позволит. Просто работать накопитель не будет.
Да… Я, вообще-то не про спецификацию производителя оборудования. Я про «PCI Express M.2 Specification» конкретно про раздел «3. Electrical Specifications». И даже еще конкретнее «3.1. Connectivity Socket 1 Module Interface Signals», «3.2. WWAN/SSD/Other Socket 2 Module Interface Signals» и «3.3. SSD Socket 3 Module Interface Signals». Это аргумент. Остальное — домыслы производителя.

Впрочем, впрочем…

5.3. SSD Socket; Socket 3 (Mechanical Key M)
This Socket pinout and key are only intended for SSD devices. The Host I/Fs supported are PCIe with up to four lanes or SATA. The state of the PEDET pin (69) will indicate to the platform which I/F of these two is actually connected.


Но именно это и требует того, чтоб система могла поддерживать ОБА интерфейса и переключаться между ними в зависимости от воткнутой карты.

Аналогично для
5.2.2. Socket 2 Pin-Out (Mechanical Key B) On Platform

— WWAN can make use of USB2.0, USB3.0, PCIe (up to two Lanes), or SSIC host I/Fs. The actual implemented I/F is identified through the Configuration pins state (1 of 16 states) on the Module side...


Вот они 16 вариантов. Но опять — хост должен уметь все. И решать который нужен исключительно в зависимости от воткнутой карты.

Из этой канвы выбивается только Socket 1. Вот у него
I2C (or USB or UART(2))

(2) Function to Host I/F allocation is a preferred example. Alternative function to Host I/F allocations are possible if using the Host I/Fs supported in the pin-out and in agreement between Customer <-> Vendor


А то, что Microstar позволяет себе вольно относится к реализуемым спецификациям… Одна из причин, по которым я отдаю предпочтение другим производителям. Если есть хоть малейшая возможность так сделать.
Я что-то не совсем понимаю, где «supported are PCIe… or SATA» превращается в требование поддержки обоих интерфейсов. «or» обычно переводят немного по другому.
Там SATA перескается по ногам с 4-lane PCIe. Потому AND невозможно. Или одно, или другое. Но так как что именно реализовано на данной карте кодируется PEDET (нет под рукой спецификации, но условно земля — PCIe, питание SATA). Т.е. сначала хост должен прочитать состояние вывода 69, а потом задействовать тот или иной интерфейс. Но так как состояний два, то и интерфейсов должно быть два (хотя активен в определенный момент времени один).
У меня тоже нет спек, потому как не готов их покупать, а за так не раздают. Так что могу полагаться только на цитаты.
Я в общем-то не сомневаюсь, что из-за мультиплексирования использовать одновременно все возможные интерфейсы не получится. Но и требования их обязательного наличия из приведенных цитат все же не следует.
Ну ок, «can make use» можно посчитать, что хост должен предоставить любой из упомянутых.
Ну как не следует. Если требуется, что в зависимости от цвета предъявляемой посетителей карточки вы обязаны ему отдать или яблоко (если красная) или грушу (если синяя). Чтоб соответствовать этому требованию у вас должны быть и яблоки и груши (AND). А так как карточка не может быть одновременно красной и синей, то клиент получил или яблоко или грушу (OR). Проще я уже не могу. Переформулируйте.
Переходим на детский уровень? Ладненько.
Тут (в цитатах) нет ни про «обязаны», ни про «AND». Вы можете получить яблоко или грушу, в зависимости от цвета предъявленной карточки. Но груш нет. Если на синюю карточку выдать яблоки, это нарушение правил. Будет ли нарушением не выдать грушу — не понятно.
Будет. Во всяком случае я не видел в спецификациии легитимной возможности не выдавать запрошенный интерфейс. И, если предельно честно, буду сильно рад если меня поправят. Это бы сильно упростило мою работу. А прочтение спецификации «как удобнее» — так это к китайцам. Плохой пример для подражания на самом деле.
Если требуется, что в зависимости от цвета предъявляемой посетителей карточки вы обязаны ему отдать или яблоко (если красная) или грушу (если синяя).
Не видим что бы это можно было так перевести.

Если совсем упростить. Охранник (м.2) поддерживает проезд (работу) синих (пси) ИЛИ белых (сата) машин. С помощью глаз (пина 69) он может определить цвет подъехавшей машины.

Тут нет обязанности поддерживать проезд тех и других машин. Тут нет обязанности пропускать машины обоих цветов.

Более того, чисто по фразе которую Вы отквотили, скорее можно сделать вывод, что реализация должна быть только одного из интерфейсов, т.к. там не сказано or/and, там четко сказано or. Но этот нюанс может зависеть от контекста.
Теперь я наконец понял как появляются китайские кварцевые часы с десятью стрелками. Три из которых действительно показывают часы, минуты, секунды, а остальные приделаны для понта. Действительно — никто ж не обещал что они будут работать. И как делаются некоторые программы. Вроде и вполне вебе релиз, но выбираешь пункт меню, а там выскакивает окно «Не реализовано».

В контексте разработки электроники, а равно реализации стандартов, обычно ВЕСЬ заявленный функционал должен быть выполнен. Если только в тексте четко и не двухсмысленно не написано — реализация того или другого не обязательна и выполняется по согласованию. В случае с PCIe я такое видел только про Soсket 1 и интерфейсы I2C/USB/UART. Так что считал и считаю что переходники типа выложенного, слоты с урезанной функциональностью (пусть об этом и написано в инструкции) — это приколы вендоров. И, по большому счету, даже маркироваться «PCI Express M.2» не имеет права, а должна представляться в каком-нить достапамятном стиле «abibus», «nice» или тому подобном.

По сути появление (и активное использование) таких переходников и слотов в пользовательской электронике говорит лишь о том, что разработчики спецификации перестарались. Как в свое время перестарались разработчики USB сказав, что до энумерации устройство может потреблять не более 10mA. И только после — до 500. Те, кто этому четко соответствовал не работают практически ни с одним устройством. Но при этом требование это в 2.0 вроде фигурирует. По PCIe ситуация дурная. По спецификации всегда работает ОДИН интерфейс, но никто не знает какой именно из ДВУХ будет задействован в следующий момент (или при следующем включении). В итоге хост просто обязывают поддерживать оба (или превращаться в китайские часы — там стрелки тоже ничего не ломают, но абсолютно бесполезны). С другой стороны, плодить еще один ключ идея так себе. Потому выбор переложили на пользователя. Хочешь — бери дорого и правильно, не хочешь — есть дешевле, но с оговорками. Раз пользователь выбирает дешевое — значит оно было востребовано больше.

С моей позиции вопрос денег вторичен. Мне не нравится тот факт, что я вынужден резервировать место и питание под неиспользуемый интерфейс. А у меня батарейка. И ограниченные габариты. И масса. Хуже того — в моем случае гарантированно не используемый, ибо изделие под пломбой и вскрытию после сборки не подлежит. Но писать в своей документации «только SATA» или «только PCIe» (а равно создавать сложности закупщикам накопителей) кажется неправильным.
Теперь я наконец понял как появляются китайские кварцевые часы с десятью стрелками.
В нашей трактовке написанного лишних стрелок как раз не было бы.
А вот в Вашей трактовке получился бы телефон с 5 симками и телевизором и радио и перцовым баллончиком, потому что в спецификации было указано «или 4 доп. сим слота или телевизор или радио или баллончик»:)

В контексте разработки электроники, а равно реализации стандартов, обычно ВЕСЬ заявленный функционал должен быть выполнен.
Апелляция к «обычно» когда есть четкая документация это подозрительно. А дальше что? Давайте реализуем 12в вместо 5в, т.к. обычно делали так?
Для чего вообще по Вашему в английском языке используется слово ИЛИ?

Еще пример попроще.
В ноутбук производитель может установить амд ИЛИ интел процессор, по спецификации. Тип слота на мат. плате указывает какой ставить. :- полная аналогия того, что написано в спеках тут.
И тут приходит разработчик, видит два ключевика — интел и амд и реализует установку туда ОБОИХ процессоров потому что ОБЫЧНО он реализовывал ВЕСЬ заявленный функционал, не обращая внимания на синтаксические конструкции в которых тот упомянут, в частности слово «ИЛИ»:)
Вы сознательно перегибаете палку? ОБЫЧНО — это значит ПРАВИЛЬНО. Изделия проходят сертификацию. Контролирующий орган будет требовать четкого ее исполнения. На на любую не реализованную функцию будет требоваться четкое и непротиворечивое утверждение в спецификации.

В спецификации четко написано — на контакт разъема ДОЛЖНЫ быть выведены интерфейсы PCIe (up to 4 lanes) и SATA. При этом SATA и PCIe lane 1 выводятся на одни и те же контакты, а с каким конкретно интерфейсом работать решает карта и о своем решение сигнализирует используя контакт PEDET. Но о каком ИЛИ там речи нет. Хост ОБЯЗАН поддерживать оба интерфейса. А вот конкретная карта по (понятным причинам) может ИЛИ один ИЛИ другой интерфейс. И соответственно хост с конкретной картой работает ИЛИ одним ИЛИ другим интерфейсом. Если производитель не выводит оба интерфейса на разъем он однозначно и сознательно нарушает требование спецификации.

Если Вас устраивает покупать продукцию такого производителя — да на здоровье. Это Ваш выбор. Только не надо винить в своих проблемах авторов спецификации. Они как раз сделали все, чтоб ЛЮБАЯ карта (соответствующая спецификации) с нужными ключами работала в ЛЮБОМ (соответствующем спецификации) хосте. Если карта или хост не соответствуют спецификации, то это проблема карты или хоста. И тех, кто СОЗНАТЕЛЬНО производит (и покупает) не соответствующее стандартам оборудование.

К слову, спецификация довольно легко гуглится и находится. Не самая актуальная, но тем не менее вполне соответствующая реальному состоянию.
спецификации четко написано — на контакт разъема ДОЛЖНЫ быть выведены интерфейсы PCIe (up to 4 lanes) и SATA.
Но о каком ИЛИ там речи нет.
Вы в ходе обсуждения привели цитату из спецификации
The Host I/Fs supported are PCIe with up to four lanes or SATA

Никаких других цитат из спецификации относящихся к именно этому вопросу Вы не приводили.
НЛО прилетело и опубликовало эту надпись здесь
Я, из корпоративной солидарности, не могу негативно отзываться о работе коллег. Тем более не могу обобщать.
НЛО прилетело и опубликовало эту надпись здесь
Беда в том, что я не знаю кто больше «наговнокодил». Авторы спецификации или производители плат. Боюсь здесь мы наблюдаем ту самую «невидимую руку рынка».

Авторы спецификации заботились о пользователях, производители плат о прибыли. Производители накопителей порадовались возможности писать крупно FAST M.2 NGFF SSD мелки шрифтом дописывая, что вот этот экземпляр — он SATA и FAST только в сравнении с вращающимися дисками. Тем более, что по сути это решение уже присутствовало на рынке в виде mSATA. Тут производители плат сообразили, что два M.2 лучше чем один, так почему не воспользоваться этим? Попутно родился класс эникейщиков, которые успешно разрешаю проблему пользователей «хочу быструю систему, но боюсь покупать. Дорого — а вдруг не подойдет» за мзду небольшую.

И всех такой расклад устраивает. Вон в комментах ропчут на авторов спецификации — мол не хорошие люди, не могли по людски сделать. Только они-то совершенно не при делах. ОНи все сделали правильно. Правда, судя по всему, слишком сложно. По мне нужны были три ключа — для SATA, для PCIe и для Wireless/GNSS/Other. При чем первые два могли быть комбинированнными.

Потому я воздержусь от обобщений и резких высказываний.
писать в своей документации «только SATA» или «только PCIe» (а равно создавать сложности закупщикам накопителей) кажется неправильным.
В спецификации написано «The Host I/Fs supported are PCIe with up to four lanes or SATA.», вот Вы и реализуете «сата или пси».
Если бы было написано «The Host I/Fs supported are PCIe with up to four lanes and SATA. » тогда надо было бы поддерживать оба.
В спецификации написано «The Host I/Fs supported are PCIe with up to four lanes or SATA.», вот Вы и реализуете «сата или пси».

И все четыре линии PCI, ни одной меньше, ведь в спеке есть цифра 4, остальное — детали. Простите что влез в вашу дискуссию и не удержался ;)
НЛО прилетело и опубликовало эту надпись здесь
А у моей материнки если в М2 воткнуть mSATA то перестаёт работать одно SATA гнездо (и в мануале это написано). Если воткнуть PCIEx тогда SATA гнездо работает. Учитывая, что там всего 6 гнёзд, а мне надо 7 — это печально (у предыдущей было 8 прямых SATA, без костыльных контроллеров).
НЛО прилетело и опубликовало эту надпись здесь
Это ещё что. Вот у моей материнки, если в М.2 воткнуть PCIEx, перестают работать два SATA-гнезда. А если SATA — то только одно.
Потому что на три М.2 и шесть SATA выведены одни и те же 12 линий. (И ещё 2 SATA есть через дополнительный чип.)
НЛО прилетело и опубликовало эту надпись здесь

Вероятно Dell и Asus тоже не те ребята, как и Microstar, что у них только один слот m2, как правило, работает через sata, остальные — только с накопителями nvme. Даже если, в спецификации было написано иное, хотелось-бы увидеть поддержку на таком уровне для потребителей, которой нет.
Тогда о чём мы спорим?)

И у них разные ключи. Если ты как производитель ставишь универсальное гнездо (без ключей) то изволь развести туда все возможные интерфейсы.
Сегодня Plug in play нарушают все кому не лень. Даже USB кабели сегодня не только порой частично не совместимы, но ещё могут повредить оборудование.
Т.е. Plug'n'Play всё больше оправдывает своё альтернативное название Plug'n'Pray?
НЛО прилетело и опубликовало эту надпись здесь
Никак (скорее всего). Но именно по этой причине я и говорю — главная головная боль не пользовательская. Она разработчика системы. Как сделать так, чтоб оно работало.
По хорошему, тут на плате должен быть PCIe хаб и мост PCIe-SATA. Так того требует спецификация.
То, что данное творение китайско-индусской братии спецификации не соответствует это проблема творения, а не спецификации.
Я сейчас разрабатываю изделие и серьезно думаю на тему использования этого форм-фактора. Вы не представляете как силен соблазн пойти этим путем. Но умение читать спецификацию целиком, а не выборочно (где тебе выгодно) и есть главное отличие инженера от халтурщика-самодельщика. Программмистов, к слову, тоже касается.
Разработчики вот, уже сделали. Теперь это пользовательская головная боль.

Знакомый как раз недавно вообще умудрился вставить обратной стороной новенький M.2 NVMe накопитель в старый USB-M.2 SATA переходник, не заподозрив ничего странного — сказал «было туговато, ну он же новый». Фото показывал, беглым взглядом и не заметно, но присмотревшись видно что вырез под ключ тесно прижат к выступу одной стороной, а с другой — зазор.

У меня знакомый с такими же словами molex перевернутым вставлял в диски =)

Пользователи бывают двух типов: или умные, или сильные.
USB-C — туда же, кстати.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
через 50 лет переполнение счётчика секунд.

Какие 50 лет? Ближайший конец света на январь 2038 года назначен (https://en.wikipedia.org/wiki/Year_2038_problem)
НЛО прилетело и опубликовало эту надпись здесь
Ближайший конец света на январь 2038 года назначен


А с 2031 уже все хорошо, проблему решили?
(закрывая книгу Excel)
НЛО прилетело и опубликовало эту надпись здесь
Вот и думай почему


Вероятно, что производитель рассчитывал на максимум десятилетний срок использования девайса и дал календарь с большим запасом.

Помнится мне, была такая программа Sidekick for Windows, где-то во времена 95 винды — так там тоже далеко в будущее не заглядывали.

На этот баг натыкался, в гугловом продукте. Из-за бага время жизни кэша устанавливалось до 2038 года. По итогу падали все приложения которые пытались залезть в кэш(который теоретически раздельный, но видимо внутри общий)

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Я всё никак не доберусь до оптанов, но на топовых NVME ситуация крайне любопытная. Они делают производительность реально на грани возможностей процессора/памяти по обработки их, и выглядят как сказка.


Но! В среднем. На nvme всё равно можно словить медленную запись в десятки милисекунд. Ситуация стала сильно лучше по сравнению с тем, что было 4 года назад (когда я бодался с одним вендором за пиковые задержки в 1500мс+), но это всё равно не оперативная память по производительности.


Ну и износ, помните про него.

Ну и износ, помните про него.

В чисто бытовых условиях я тоже в свое время боялся износа, и купив 256Гб SSD, решил, что максимально обезопашу его от "лишней" записи. Обезопасил. Теперь на дворе 2021 год, мой SSD за 10 лет выработал 10% ресурса по SMART, но 256Гб SSD в 2021 году уже и не настолько и нужен. Удобнее купить хотя бы терабайтный.


И я вот сижу и думаю — много бы для меня поменялось, если бы он выработал 50% ресурса, а не 10%? Да и то, даже по пессимистичным прикидкам, 50% он едва ли бы выработал, скорее около 30%.

Вы пропускаете заголовок. С точки устройства хранения ресурс не является критическим. Однако, если вы начнёте использовать SSD (в любом формате) как замену памяти, то все ресурсы устройства испарятся в единицы недель. Вы просто не представляете себе интенсивность обмена данными между оперативной памятью и процессором — там речь идёт о десятках гигабайтов в секунду. Каждую секунду, когда процессор занят. Такая нагрузка снесёт ресурс даже SLC, не говоря про TLC/QLC.

Так никто в тексте и не говорит о нынешних технологиях: делается оговорка, что СЛЕДУЮЩИЕ поколения SSD можно будет использовать как память, то есть, предполагается что разработка будет идти не только по пути увеличения быстродействия, но и по пути увеличения ресурса. Ну и возможно какие-то оптимизации со стороны операционных систем должны будут подтянуться.
Только такое дело, оператива тоже на месте не стоит. Где показывали, что для неё придумали, внезапно, свой аналог MLC, за счёт которого можно фактически удвоить пропускную способность при той же частоте, записывая/считывая 2 бита в 1 ячейку.
Оперативе бы латентность снизить. Бич DRAM. А то все остальные показатели за последние лет 20 улучшились на порядки, и только латентность изменилась максимум раза в три.

Латентность DRAM — порядка 10 нс. Латентность доступа к памяти в процессорах — порядка 70 нс. Мне кажется, узким местом здесь является не DRAM как технология, а процессорная архитектура.

НЛО прилетело и опубликовало эту надпись здесь

Да, у Intel дела с этим получше. Но это топовые результаты, в основной своей массе будет ближе к 50–70 мс у Intel и 70–80 мс у AMD.

10нс — это в какой ситуации? Там же тайминги «чуть» сложнее.
А процессору — ещё кучу кэшей надо проверить, прежде чем в память полезть.
10нс — это в какой ситуации? Там же тайминги «чуть» сложнее.

CAS Latency как основной тайминг — время между передачей памяти команды на чтение и получением первого бита.


А процессору — ещё кучу кэшей надо проверить, прежде чем в память полезть.

Вот именно. Поэтому вклад латентности DRAM в общую латентность доступа к памяти не так уж и велик.

CAS — это если страница уже открыта, или я вечером пятницы всё перепутал?

Да, если открыта. Иначе добавляется ещё столько же времени на активацию строки. Все равно это суммарно меньше, чем полное время задержки доступа к памяти со стороны процессора.

Я имел ввиду именно время доступа процессора к памяти, а не детали, где он там образуется — в чипе DRAM или где-то ещё. Главное, что долго.

Тем не менее, говорить про «лучший случай когда страница уже открыта» — неправильно. Когда говорят про HDD, почему-то всегда оценивают в предположении, что ему ещё оборот вертеться и головку через всю поверхность переносить. Так и латентность DRAM нужно вычислять в предположении, что страница нужная не открыта. И никак вы меньше 50 нс на практике не получите.
НЛО прилетело и опубликовало эту надпись здесь

Ну вот почему у Intel задержка доступа к памяти ~50 нс, а у AMD порядка ~70 нс? Куда эти 20 мс теряются?


Отмечу также, что есть ещё HBM, GDDR — это всё та же DRAM, то почему-то более эффективная для определённых задач.

ЕМНИП контроллер памяти у Intel традиционно лучше. Ещё FPU.
Куда эти 20 мс теряются?

На infinity fabric и общение с IO ядром. У АМД другой интерконнект со своими преимуществами и недостатками.

Но эти внутренние задержки никуда не денутся, даже если задержка самой памяти будет нулевой.

И? Память в любом случае во многие разы медленнее, чем обращение к кэшам. Именно поэтому одна из самых важных оптимизаций это уменьшение кэш промахов. Можно получить прирост в десятки раз чисто за счет этого.

Для нынешних SMP архитектур прироста в десятки раз не будет, особенно с тенденцией к росту числа процессорных ядер. Доступ к общей памяти не очень хорошо масштабируется, и при росте нагрузки задержки будут увеличиваться (loaded latency).


Память в любом случае во многие разы медленнее, чем обращение к кэшам.

Обращение к L3-кэшу — порядка 40 циклов (Intel, AMD). Это около 8–10 нс. Ускорения в разы добиться, в принципе, можно, в десятки раз — уже нет.

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Латентность DRAM — порядка 10 нс.

Лучшее время переключения на другую строку на DDR4 — 37.5 нс. У "бюджетных" модулей сильно больше. По DDR5 данных нет, но улучшений там вроде не обещали.

НЛО прилетело и опубликовало эту надпись здесь

Следующее поколение за MLC какое было? TLC. А за TLC какое было? QLC. А за QLC, видимо, PLC, которое даст 20% прироста ёмкости, но снизит надёжность.


Если вы предполагаете, что надёжность будут увеличивать — это интересная гипотеза, требующая основательных доказательств.

Главная проблема QLC — скорость, кажется, а не что-либо другое.
Так и скорость тоже падает с каждым поколением. QLC уже вплотную приблизилось к показателям обычных HDD на некоторых нагрузках. Дальше только хуже и SLC/MLC кэши будут спасать от этого недолго. То, что ресурс намного хуже, это само собой разумеющееся. С учетом, для какого рынка QLC предназначен, это не особо проблема. Домашние компы, архивное хранение или какой-нить tiered storage — скорость и ресурс тут особо не важны. Зато HDD полностью вытеснены будут.
архивное хранение

Архивное хранение на SSD? Проще сразу удалить файлы, заодно и сэкономить на диске.

Да, на этот рынок в том числе нацелены QLC. Если вы намекаете на холодное хранение, то достаточно будет периодически давать на них питание, либо вообще не выключать.

Архивное хранение может быть и на внешнем диске. Не будет успевать он регенерировать ячейки за то короткое время, которое он подключен к питанию.

Значит будут держать включенными постоянно, это вопросы решаемые. Движение индустрии в эту сторону очевидно. Достаточно немного погуглить. Появление QLC сразу породило интерес в эту сторону. Диски медленные и с малым ресурсом, но этот ресурс не тратится при чтении. Плюс минимальное энергопотребление. Идеальный вариант для архива и прочих нагрузок на чтение. В отличие от HDD, у которых и надежность ниже, и механика трудится даже при чтении.
Я, вот, совершенно с вами согласен.
Использую массив QLC SSD в качестве последнего слоя для хранения холодных данных. А перед ним небольшой массив быстрых SSD в качестве кэша с очень сильно отложенной записью на QLC.
Раньше вместо QLC использовались 2.5" HDD. С тех пор, как заменил на SSD (год назад), — ни одного отказа или URE, а ресурса записи QLC хватит «лет на 100».
Быстрые SSD с большим ресурсом записи на MLC/TLC, которые используются в качестве горячего кэша, — летят гораздо быстрее. Их лет на 10 хватит по расчетам, не больше.
Ну только насколько я вижу всё равно удельный гигабайт QLC заметно дороже, чем HDD. Боюсь условный PLC достигнет HDD по цене, но только качество будет как у USB флешек.
То что происходит в оперативке и не надо вытаскивать на flash.
flash просто должен стать еще одним уровнем кэша.
В чисто бытовых условиях я тоже в свое время боялся износа, и купив 256Гб SSD, решил, что максимально обезопашу его от «лишней» записи. Обезопасил. Теперь на дворе 2021 год, мой SSD за 10 лет выработал 10% ресурса по SMART, но 256Гб SSD в 2021 году уже и не настолько и нужен. Удобнее купить хотя бы терабайтный.


Кому как повезет.
У меня вышло из строя уже 4 штуки 256 Г SSD.
Не дешевые поделки, брендовые.
Эксплуатация обычная домашняя.

Дык скоропостижно померли или именно выработали ресурс?
Обычные HDD тоже прекрасно "внезапно" накрываются.

Дык скоропостижно померли или именно выработали ресурс?
Обычные HDD тоже прекрасно «внезапно» накрываются.

Никто не говорит, что они должны быть вечными.
2 года при обычном домашнем использовании — это как? Скоропостижно или выработали ресурс?
2 года при обычном домашнем использовании — это как? Скоропостижно или выработали ресурс?

Не знаю. Вы же в курсе, что SSD пишут в SMART-переменные, сколько там у них циклов записи прошло? И что любой приличный софт вам покажет, сколько % от заявленного производителем ресурса записи еще осталось? Что у вас показывал SMART перед тем, как оно померло?

«Выработали ресурс» — это означает, что ячейки памяти умерли от перезаписи.
Конкретно это обсуждается в ветке.
А не общую способность того или иного девайса жить.
Всё остальное решается использованием более качественных комплектующих. А ресурс ячеек нельзя изменить в рамках одной технологии.

"Более качественных комплектующих" — это каких? Я из этих соображений 8 лет назад не поскупился, купил один из самых дорогих на тот момент SSD от Intel. Год назад он просто взял и внезапно сдох, естественно сполной потерей данных. До момента подыхания всё было идеально, никаких нареканий на качество работы, смарт идеальный. А при следующем включении компа он просто не определился.


Мне, как пользоваиелю, абсолютно наплевать, где там у него какой ресурс выработался. Мне важно, что у меня были потеряны данные. При этом у меня подыхали ХДД два раза за мою жизнь, и оба раза без последствий, так как механика в них помирает постепенно, оставляя кучу времени на то, чтобы спокойно всё забэкапить. Вы можете сказать, что у ХДД тоже может внезапно сдохнуть контроллер. Но во-первых, мне такое ни разу не встречалось за два десятка лет и сотню ХДД, а во-вторых, в этом случае можно найти диск донор и переставить контроллер с него, даже самостоятельно. С ССД такой фокус не пройдёт.

НЛО прилетело и опубликовало эту надпись здесь
а все остальное менялось за это время? может просто проблема не в SSD, а в БП или МП
C каким диагнозом «вышло из строя уже 4 штуки 256 Г SSD»?
НЛО прилетело и опубликовало эту надпись здесь

БП часто накопители убивает (бьются таблицы из-за пульсаций, насколько понимаю)

Нередкий перегрев контроллера также ничем хорошим не чреват.
НЛО прилетело и опубликовало эту надпись здесь
К примеру, полное шифрование диска сильно увеличивает износ. Недавно при дешифровании (штатном, зная пароль) диск просто умер, выработав остатки ресурса. Диск использовался в офисных задачах, ничего серверного. Запас нужен.
К примеру, полное шифрование диска сильно увеличивает износ. Недавно при дешифровании (штатном, зная пароль) диск просто умер
Вот это, кстати, странно.
Т.к. вообще по идее современные диски всё время шифруются, просто если шифрование на них не включено, то это прозрачно происходит.
Поэтому непонятно зачем в принципе «перешифровывать» весь диск при включении или выключении шифрования.
НЛО прилетело и опубликовало эту надпись здесь
Данные на микросхемах флеша в SSD «скремблируются», но не с целью скрыть данные от подсматривания. Физика носителя такова, что лучше бы биты 0 и 1 равновероятны, а есть такая теорема, что если поXORить любые данные с данными, в которых 0 и 1 равновероятны, то и в результате будут равновероятны. «Хороший» поток, с которым XORить данные, в SSD генерирует ГПСЧ, часто это AES в режиме счётчика, и в сущности получается, что данные зашифрованы.

Так что надо бекапы SSD делать. Восстановить данные не удастся, даже если получится считать микросхемы флеша — без контроллера там ничего не разберёшь.

Тем не менее, на интерфейс контроллер выдаёт «чистые» данные, про шифрование ни слова.

Существуют так называемые FDE (full disk encryption) носители, и HDD, и SSD, где, грубо говоря, ты можешь задавать ключ шифрования из ОС. Но это надо доверять производителю носителя, что там нет закладок, а это вопрос серьёзный, поэтому вменяемые люди используют шифрование средствами ОС.
Но это надо доверять производителю носителя, что там нет закладок, а это вопрос серьёзный, поэтому вменяемые люди используют шифрование средствами ОС.

Доверие ОС тоже вопрос весьма серьезный и неоднозначный.
НЛО прилетело и опубликовало эту надпись здесь
Хм, прикольное узнал, я только не пойму…
Если 0 и 1 должны быть равновероятны в целях минимизации износа памяти, то зачем AES, если можно по очереди давать для xor-а, сначала 010101… а потом 101010…?
Это, к примеру, позволило бы восстановить данные с диска со сгоревшим контроллером
Да очень просто. Вышеупомянутая теорема работает (т.е. даёт гарантии) только для случайных данных. AES в режиме CTR или GCM даёт вычислительно неотличимые от случайных, что считается достаточным (хотя, по правде, про это в теореме ни слова). То, что предложили вы, заведомо не является случайными данными, никаких гарантий.

А именно AES видимо потому, что он весьма аппаратно эффективен и есть куча готовых IP блоков с его реализацией, да ещё часто владельцы IP сами и выпускают контроллеры (Intel).

Чета я не видел потребительских sed дисков… Может они конечно существуют, но в другой реальности…

Интеловские SSD с шифрованием. Именно из потребительского сегмента.

Подскажите модель пожалуйста. Ибо сам интел пишет о том, что sed тока в линейке DC.

Нам казалось что у многих давно уже есть, в т.ч. у хдд даже.
Из потреба — самсунг 850 ево — потребней некуда habr.com/en/post/319054

+у Самсунга похоже и все последующие шифруют, используем 960 Evo и 970 Evo Plus с sedutil

НЛО прилетело и опубликовало эту надпись здесь

в РФ их ввезти проблема. И слава богу). Ибо проблем больше, чем выгоды от использования.

К примеру, полное шифрование диска сильно увеличивает износ.

За счёт чего? С точки зрения накопителя абсолютно ничего не меняется, разве что записанные нули не будут таковыми — некоторые накопители используют это как хинт для трима, но если использовать трим то и это несущественно.

Возможно потому, что перешифрованные данные на выход выдают больше измененных байт, чем обычные
Так если просто менять ключ шифрования, это перешифровывать весь носитель, т.е. перезаписать целиком. Записать ровно 1Тб на 1Тб SSD. Это довольно «дорогая» операция для флеша. Не то, чтобы очень сильно изнашивает, но заметно.
Да. Но если нужно сменить только пароль, менять ключь не нужно.
Не очень понимаю смысл такой операции. Если, скажем, пароль скомпрометирован, то и мастер-ключ через него мог утечь → перешифровывать всё.

Если не скомпрометирован, то какой прок от смены пароля, получить ещё один образ мастер-ключа, теоретически увеличив шансы на взлом шифра, с которым сам зашифрован мастер-ключ, особенно если вдруг в шифре найдётся уязвимость типа такой?
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
А теперь я думал, что мы говорили про смену пароля, который шифрует мастер-ключ, VS перешифровку всего диска. И я обосновывал позицию, что «просто сменить пароль» — либо недостаточно, либо вредно.
Почему недостаточно? Мастер ключ и пароль пользователя никак не связаны. Мастер ключ обычно лежит на диске и зашифрован посоленным паролем пользователя. Чтобы узнать мастер ключ надо чтобы и диск утек, и пароль пользователя. В этом случае ничего уже не поможет.
Не знаю, не могу объяснить теоретически, поэтому описал весь случай — утверждение не голословное, а на конкретном примере. Диск работал исправно, и на штатном процессе расшифровки VeraCrypt диск сдох.

Скорее всего он сдох по другим причинам, не связанных с шифрованием, потому что с точки зрения диска разницы нет, а VeraCrypt пишет ровно столько же данных сколько писалось бы без шифрования.


К тому же, по одному случаю судить несколько преждевременно.

Ну может и так. Я не спец в этом, просто привел конкретный случай. Кстати, пользуясь случаем — что вместо VeraCrypt можно сейчас использовать? Чтобы без танцев с UEFI типа подписывания сертификатами?
Вы про бытовые сценарии, а тут речь про серверные.
Где запросто бывают терабайты записи в час — на 1 ноде/машине.
Говоря понятным для коллег языком — бывает не только 1 DWPD, а и 5, 10 и более. Ситуация «10 и более», понятно, требует решения и оптимизации как на уровне софта, так и на уровне железа.
В общем, проблема износа для NVMe SSD более чем актуальна — за счёт в разы бОльших скоростей неоптимальный код выжрет их ресурс во столько же раз быстрее, нежели аналогичный по ресурсу SATA/SAS SSD.
В дистрибутиве unRAID Docker-контейнеры хранились в loop-файле на BTRFS, без noatime, на порядок усиливая запись: 141 ТБ за 296 дней.
forums.unraid.net/bug-reports/stable-releases/683-docker-image-huge-amount-of-unnecessary-writes-on-cache-r733/?do=findComment&comment=11233
Ситуация стала сильно лучше

КМК в консьюмерском сегменте "лучше" закончилось в районе Samsung 970 Pro. Это был чуть ли не последний консьюмерский NVMe SSD на MLC, а нынче уже всё на TLC. PCIe 4.0 дает прирост, но скорость TLC его нивелирует.

Всё там нормально, буферизация и заточки под конкретные задачи позволяют эво+ к примеру часто быть быстрее прошки. Другое дело, я не могу себе представить, где дома такие скорости нужны — как минимум, помимо того, чтобы прочитать или записать надо с такой скоростью ещё чем-то обработать, а во-вторых что за задачи такие...

Другое дело, я не могу себе представить, где дома такие скорости нужны


Например, при открытии папки с несколькими десятками фото в формате bmp большого размера — для того, что бы увидеть все превьюшки достаточно быстро (Samsung 950 PRO MZ-V5P256BW) а не ждать несколько минут (860 EVO 1TB (MZ-76E1T0B) или десятков минут (WD4001FAEX)
НЛО прилетело и опубликовало эту надпись здесь

Да ну? Это ж сложно. Куда проще каждый раз перечитывать файл заново.

Может просто кешировать превью?


Программа очистки диска выносит этот кэш вместе со всем остальным.
А чистить иногда надо, иначе свободное место закончится очень быстро.
НЛО прилетело и опубликовало эту надпись здесь
Можно установить диск побольше.


Там выше указана модель диска (860 EVO 1TB (MZ-76E1T0B)
Больше — с удовольствием бы, но пока дорого.
НЛО прилетело и опубликовало эту надпись здесь
Если нет, я бы вставил обычный жёсткий или SATA SSD под не критичные тяжёлые файлы.


Это как раз SATA SSD.
Речь о том, что NVMe SSD (Samsung 950 PRO MZ-V5P256BW) делает указанную операцию намного быстрее его и это хорошо заметно в «домашнем» применении.
НЛО прилетело и опубликовало эту надпись здесь
PCIe 4.0 дает прирост, но скорость TLC его нивелирует.

А так ли нужна эта скорость? При обычном бытовом использовании вы вряд ли почувствуете разницу между каким-нибудь SATA-II SSD и Samsung 970 Pro, хотя скорость отличается на порядок. А всё потому, что основной прирост в отклике системы и программ происходит не за счёт быстрой линейной скорости чтения-записи, а за счёт случайного доступа, который даже у SSD нижнего ценового диапазона на пару порядков быстрее, чем у HDD.


Также у SSD большого объёма (1ТБ и больше) со скоростью всё в порядке даже у TLC-моделей.


P.S. Себе в ноутбук я выбирал SSD не по параметру "быстродействие", а по параметрам "нагрев" и "энергоэффективность". И по этим параметрам Samsung 970 Pro был отметён почти сразу же. Взял в итоге недорогой терабайтник без буфера. Полностью им доволен.

А так ли нужна эта скорость?

Под скоростью я подразумевал скорость случайного доступа наравне с линейной.
Между SATA SSD и NVMe разница на практике ощущается (загрузка ОС, запуск софтин, которые читают кучу мелких файлов), хоть она и не такая разительная, как между HDD и SSD.

Я вижу разницу в скорости только при гибернации (о переходе из выключенного состояния в рабочее за 5 секунд с медленными SSD можно только мечтать), в остальных случаях для меня видимой разницы нет.

Я переехал с древнего intel 520 sata на 970 evo plus в качестве загрузочного диска. Разницы не заметил. Синтетика, конечно показывает, что последний сильно быстрее, но я этого не ощущаю в каждодневном использовании.

А так ли нужна эта скорость? При обычном бытовом использовании вы вряд ли почувствуете разницу между каким-нибудь SATA-II SSD и Samsung 970 Pro, хотя скорость отличается на порядок.

Ну вот между сатой и NVMe я разницу прям таки чувствую невооруженным взглядом. Между быстрым и медленным NVMe — уже нет. Между 970 Pro и 970 Evo — вообще только приборами.

Скажу за сервер, SAS vs SATA SSD — небо и земля. А вот NVMe (U.2) от SAS SSD наощупь уже не сильно-то и заметна разница; но тут, возможно, дело в контроллере, в который они подключены.

А на десктопе я особо разницы в производительности межу HDD и SATA SSD не вижу.

Позавчера принесли комп со сдохшим носителем, Intel 540-й серии. Неудачная серия была, они дохли как мухи, но этот оказался долгожителем, аж 2.5 года прожил. Первый раз в жизни я увидел протёртый до дыр SSD. Но не в этом дело, а в том, что какой-то умник вот так наслушался хайпа вокруг SSD и додумался поставить его в систему телефонии для записи телефонных разговоров! А там производительность нужна мизерная, зато хотелось бы подольше жить без обслуживания, а это HDD.

Не надо верить в рекламу. Новые технологии — это хорошо, но нельзя же так.

Ну это вы странные модели смотрите. SATA vs SAS не сильно отличаются. Есть несколько ключевых отличий в районе лучшей очереди команд и дуплексе, но в целом не критично. А вот топовые NVME — это другой разговор (буквально рядом у меня открыт рабочий документ, в котором мы пытаемся выжать больше 1M IOPS на raid10 из NVME, каждая из которых фигачит 500k+ fsync=1 iops'ов на запись). 500k, карл! На таких скоростях уже всё остальное начинает провисать. А 500kIOP x 4k blocksize — это 2GB/s между прочим, так что sas нервно курит в углу.

SATA: Samsung 860 EVO vs SAS: Samsung PM1643, HBA похожие (оба вариации LSI MegaRAID).

Ну и третий, который NVME, WD Ultrastar DC SN640. Он явно быстрее SASовского, но не так, чтобы прям вау офигеть как быстро стало.

Вообще-то сравнение нечестное, все машины там разные, но я говорю, по ощущениям, наощупь. С этим 860-м вообще какая-то хрень, почему-то тормозит в линуксе как сатана.

У меня на берчмарках лежит Intel DC P4610 (точнее, его делловский ребрендинг). Оно просто несравнимо с всем, с чем я имел дело в HBA-шинах (sata & sas).


А умные люди рассказывают про Samsung 980-pro-pcie-4-0, который ещё шустрее, и целится в район миллиона иопсов с одной железки.

А смысл сравнивать консьюмерский (да еще EVO серия, где экономия на всем чем можно) и корпоративный ссд? Я подозреваю, что разница в скорость обусловлена в первую очередь этим, а не интерфейсами, между которыми давно практически никакой разницы нет.
НЛО прилетело и опубликовало эту надпись здесь
И достигается такое обычно отключением всех ОС кэшей и планировщиков IO. Все запросы уходят напрямую в контроллер диска.
НЛО прилетело и опубликовало эту надпись здесь
Почему? Любой нормальный SSD эти буферы и так имеет (dram-less диски говнище дешевое), или речь о чем-то другом.
НЛО прилетело и опубликовало эту надпись здесь
dram-less диски говнище дешевое

Не соглашусь. В ноутбук я себе поставил именно такой. Одна из причин — у него тупо ниже энергопотребление. А вместо DRAM достаточно SLC-кэша.

Я больше за серьезные нагрузки. В ноут понятно все что угодно влезет. А в серверы такие вроде никто даже не осмеливается.

Это я просто сагрился на слово "говнище".
Правильно — "нишевой продукт".

Бытовое использование разное бывает. У кого-то бытовое — это открыть фейсбучек. А у кого-то — архив фоток. И там скорости решают (потому что влияют на секунды до появления всех превью).

В случае архива фоток узким местом будет скорость декодирования JPEG, но уж никак не скорость SSD.

Вы уверены? jpeg поддерживает progressive, т.е. для превью не нужно декодировать весь файл. Во-вторых, на условном 12-ядерном amd у нас весьма и весьма приличный запас по числодроблению. Даже если один тред обрабатывает "всего лишь" 100Мб/с, 12 тредов — это 1.2GB/s — сильно за пределами SATA.

Даже если один тред обрабатывает "всего лишь" 100Мб/с

Один из самых быстрых кодеков libjpeg-turbo на более-менее современном процессоре выдаёт порядка 150-200 Мпикс/сек в многопотоке — это ~10 фотографий в секунду, или порядка 50–100 мегабайт в секунду. Видите: ничто никуда по скорости SSD не упирается.


Да, возможно быстрое чтение JPEG с пониженным в 8 раз разрешением, но я не думаю, что оно будет настолько быстрее, чтобы упираться в скорость интерфейса.

В каком многопотоке? Есть некоторая разница между 4 ядрами и 12. Кроме того, не jpeg'ом единым жив архив фотографий. RAW-файлы запросто под сотню мегабайт на фотку могут быть.

В каком многопотоке?

Порядка 6–8 потоков.


RAW-файлы запросто под сотню мегабайт на фотку могут быть.

Мы именно об архиве фотографий говорим? Я уж молчу про то, что вычисление thumbnails — это обычно разовая операция.


Кстати, в случае RAW обычно рядом имеется его же полноразмерная версия в JPEG, просто потому что так удобнее.

… которую надо выковырять из raw-файла. Короче, sata интерфейс уже не адекватен производительности и параллельности процессоров. (Это мы ещё не обсудили проблемы задирания latency у параллельных запросов в sata по мере роста saturation у интерфейса).

вот-вот, а в SAS такого задирания не происходит, к слову о том, почему он на ощупь быстрее

У вас какое-то магическое представление о sas. Там внутри примерно так же всё. Чуть-чуть лучше с дуплексом, но сам протокол не сильно лучше.


Возможно, у вас остались хорошие впечатления от sas ssd, потому что они дороже и туда быстрее память ставят. Ну и сама sas быстрее, но не радикально.


В сравнении с этим pci-e даёт latency классом ниже, плюс глубину очереди почти неограниченную, плюс большое количество очередей.

НЛО прилетело и опубликовало эту надпись здесь
Это он поддерживает, а фотки-то реально хранятся в таком формате? Скажем, камера выдаёт превью внутри равок в прогрессиве? Моя не выдаёт прогрессив ни там, ни в CAMJPG, проку-то с того, что jpeg это поддерживает.

В любом случае, если это progressive jpeg, то файл целиком читать уже не нужно, т.к. все необходимые данные находятся в самом начале файла, и скорость чтения снова не является ограничивающим фактором.

Топовые самсунги (и не только?) хитро переконфигурируют пустое место под SLC (для принятия буффера на запись), а потом в бэкграунде его в TLC переконверчивают. Алсо, TLC — это благородный вариант, потому что половина рынка уже QLC.

Сейчас все SSD так делают.

Я всё никак не доберусь до оптанов
Поторопитесь, а то и не доберётесь. Intel сворачивает линейку Оптанов для потребительского рынка, оставят только серверные.

Я знаю, именно они (серверные) меня и интересуют. Для десктопа оно не даст эффекта из-за медленности приложений. Чтобы быстрый накопитель в потолок уткнуть приходится запускать по 20-30 независимых процессов в параллель. На десктопе такое малореалистично.

Как вариант можете поднять softlayer сервер почасово, там есть P4800x(на серверах с GPU ставится)
Ну так потребительские только 32 и 64гбайт.
Естественно, идет речь о серверной линейке.

А что у меня в компе тогда стоит на 120 гб?

А я не знаю. Таких оптанов не было.
Были 16+100. Но это не оптан, это SSD с оптан-кешем. Смысл его тестировать.
Какая модель?
Похоже, с тех пор, как вы интересовались оптанами, Интел запустил ещё несколько линеек.
Я вот тоже помню, что были только серверные SSD и карликовые кэши для гибридизации с блинным диском. А сейчас посмотрел — там уже четыре линейки, добавились уже известные вам готовые гибриды из оптанового кэша с традиционным SSD и — то самое, о чём идёт речь — оптановые SSD нормального размера для домашнего использования. Те самые, которые только что перестали выпускать.

Будущее за мемристорами обещали лет 10 назад. Когда память будет одновременно и процессором.

глаз режет ТТН, ведь SSD же!
(еше и вдобавок ко всему, неочевидно тэтээн это или титиэйч в статье)

Смешались в кучу кони, люди…
U2, M2, SATA, разные (68/80 пин) SCSI, pci-e, Mini-pci-e, Express-card — разъёмы.
NVMe, ahci, ide, scsi — протокол
Pci-e, внезапно снова scsi, sas, sata- интерфейс


То есть на m2 мы хоть ethernet можем привести (ну а что, паяльник у нас есть, а дурная голова рукам покоя не даёт), sas интерфейс может по себе пропускать sata протокол, а scsi у нас вообще в разном физическом исполнении был (хотя логически совместимый)


А pci-e ssd к тому же не всегда NVMe, было время они дисковым контроллером прикидывались

А pci-e ssd к тому же не всегда NVMe, было время они дисковым контроллером прикидывались

Да, у меня вот до сих пор OCZ RevoDrive X2 прекрасно работает.

Для m.2 даже видеокарта есть — ASRock Rack M.2_VGA
Какая угодно видеокарта
image
Без претензии к переводчику, хорошая работа. Про оригинальную статью:
Optane появился уже давно. Практически одновременно с NVM-E SSD на обычном NAND. Если он до сих пор не победил NAND во всем, то тут явно есть причины.
Для NVM-E форм-фактора:
  1. Закрытость технологии. Эту память может производить только Интел.
  2. Цена. Она гораздо (на порядки) дороже за единицу объема.
  3. Баги в CPU, вроде SPECTRE. Фиксы и исправления для этих багов напрямую влияют на производительность подсистемы NVM-E значительно (в несколько раз) сокращая преимущество Optane памяти перед NAND на практике.

Для NV-DIMM еще плюсом:
  • Вендор-лок и недоступность технологии для других платформ.
  • Последние неурядицы Intel на рынке процессоров.
  • Принесение в жертву пропускной способности/скорости оперативной памяти. Если у вас два канала оперативки, установив в один их них NV-DIMM вы уменьшите пропускную способность оперативки в два раза. Справедливо и для серверов, у которых бывает до 8ми каналов. Далеко не везде такая жертва оправдана, потому, применимость NV-DIMM ограничена. Если бы Intel увеличила в два-четыре раза количество каналов памяти в процессорах при релизе этой технологии, — все могло бы быть по другому.

После прочтения статьи складывается впечатление, что это все технологии будущего. Когда как, на деле, это достаточно старые «нишевые» технологии, которые не взлетели, и, выше, скорее всего, в ближайшее время не взлетят…
«Optane появился уже давно.… Если он до сих пор не победил NAND...»
Optane же всё, серверные линейки в том числе.
По ссылке только про десктопные написано. И то, обещают, что продолжают работать над ультрабучным накопителем. Откуда про серверные инфа?
ЕМНИП попадалась в других новостях, могу ошибаться.

По первому пункту — вообще-то у микрона топовый серверный ссд на 3dxpoint, они вместе эту технологию разрабатывали

НЛО прилетело и опубликовало эту надпись здесь
Оно ведь у m.2 на одной плате с контроллерами и всеми основными устройствами, что наверняка лучше, чем у ssd через сата шнурок и питанием по отдельной линии от БП, который зачастую не очень хорошего качества.

С чего бы это питание на материнской плате было лучше, если блок питания исходно швах?
Материнская плата питание берет от того же блока питания.
А индивидуальные силовые элементы на материнской плате идут только для процессора и памяти.
На материнской плате скорее даже хуже будет питания из-за множества тонких токопроводящих дорожек соседствующих друг с другом, нежели питание по сравнительно толстенькому кабелю напрямую от блока питания.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Я не знаю, как это касается контроллера и прочего добра, но для проца-то материнка вроде стабилизирует и контролирует питание. Если касается — может быть и лучше, нет?

(ещё раз скажу, что это предположение, потому что я искренне не шарю в деталях схемотехники материнок)
НЛО прилетело и опубликовало эту надпись здесь
Кстати, покупая USB to NVMe на AliExpress обращайте внимание, что выбор товара не только по цвету\типу корпуса, а также по протоколу NVMe и NGFF (даже, если вы искали NVMe). Это как раз на тему разных ключей «b» и «m».
p.s.
" ORICO LSDT M.2 NVME Enclosure USB C… "
(1)NVMe 10Gbps Model
Only support NVME PCI-E protocol M key/M+B Key SSD, with 15cm type-c to type-c cable and 15cm type-c to usb3.0 cable.
(2)NGFF 5Gbps Model
Only support NGFF SATA protocol B key/M+B Key SSD, with 15cm type-c to USB 3.0 cable.
НЛО прилетело и опубликовало эту надпись здесь
Именно, поэтому его и берут часто по ошибке.
Оглядываясь назад на десятилетия развития вычислительной техники, видно, что различие между памятью и накопителями существовало всегда.

Лет 30 назад мне в руки попалась книженция от Intel. Мол, вот сейчас, буквально через пару лет мы наконец-то выпустим на рынок память по новой технологии Flash, которая полностью заменит ОЗУ! Мол, больше не нужно будет задумываться о потере данных при выключении питания и о сохранении документов!

А постепенно прояснилось, что флеш и изнашивается что-то быстро, и медленноват он, и физический интерфейс к нему как-то неудобно строить, то, сё…

Это было двадцать пять-тридцать лет назад. Как видим, ничего не изменилось, прогнозы всё те же, только набившее оскомину слово «флеш» заменили на новомодное NVMe.
Мне вот не понятно, почему нельзя скрестить SSD и RAM на одной плате, добавив туда ионистор (может пару независимых трактов питания для резерва и может еще и маленький li-on), который при пропаже питания делает перенос данных на flash патчингом по журналу? Да сейчас в SSD есть RAM буфер, но почему не взять и сделать основным хранилищем RAM, который по объему равен Flash и в тех редких случаях, когда сервер обесточивается или ресетится синхронизировать flash с RAM.
В основном, конечно, это для серверных применений, тогда мы получаем кучу преимуществ:
— отсутствие проблемы лимитированного количества циклов записи
— можно применять чипы и производственные мощности дешевой RAM предыдущего поколения, которая уже не годится для своего прямого назначения и не востребована рынком, зато цена за 1гб ниже, например как сейчас DDR3, что расширяет для производителя срок службы технологии и повышает окупаемость мощностей.
— минимизация износа flash памяти, особенно для серверных решений (так как flash бы использовалась только при shutdown и запланированных синхронизациях)
— рост производительности IO на порядок — DDR3/4 все таки быстрее Flash SSD, для баз данных это бы означало, что производительность недалеко от in-memory баз, но при этом энергонезависимая.
— можно применять flash более дешевую, с меньшим количеством циклов записи
На полноразмерной PCI плате можно натулить немало так чипов RAM даже DDR3 и выйдет весьма существенные объемы в единицы TБ.
Мне вот не понятно, почему нельзя скрестить SSD и RAM на одной плате,

Можно, но будет дорого. Вся суть иерархии памяти в разделении по объему, скоростям и цене. Штабель DDR объёмом в терабайты будет дорогим сам по себе, кроме дороговизны за байт, он будет потреблять много энергии, что тоже дорого.
Для серверных накопителей это копейки (посмотрите цену на серверные SSD), к тому же нужно учесть, что рост производительности и отказоустойчивости (упразднение деградации flash) снижает потребность в репликах (что тоже деньги и потребление) и проблемы их синхронизаций, и стоимость их обслуживания. Очевидно, прямое назначение- высоконагруженные базы данных, то есть таких серверов в серверной немного на фоне, и то дополнительное потребление на перезаряд DDR3 не являлось бы каким то заметным недостатком. А если подойти к проектированию с умом, можно было бы включать банки RAM по требованию с каким то механизмом маппинга и уплотнения адресного пространства.
Если прикинуть стоимость 1тб DDR3, себестоимость которых бы снижалась после утрате актуальности и наличия множества невостребованных производственных мощностей, то выходят совсем уж небольшие цифры, если взглянуть прямо сейчас на китайские мелкооптовые цены на чипы taobao- 5$ за 8гб чип, то есть 800гб всего 500$, но при крупном опте с завода вероятно еще меньше. Ну выйдет 800-1000$ за 1Тб RAM/SSD — это страшные деньги для серверных решений?
это страшные деньги для серверных решений?

Вы ж не голые чипы будете ставить, контроллерчик ещё для управления этой связкой потребуется (который не факт, что существует в природе, возможно его ещё проектировать придется и программировать), плата, разводка, труд и прочее. Т.е. итоговый ценник далеко не 500 баксов будет, готовый продукт дороже, чем сумма его комплектующих.

Далее, цену на электричество, потребляемое DDR, не забудьте включить. Из-за электричества стоимость эксплуатации вашего зверя существенно выше, чем обычного флэш ssd и соответствует прочим решениям на базе RAM. А с высоким энергопотреблением, глядишь ещё и не в каждый сервер впишетесь. В общем, сходу вопросов много.
Было, не взлетело.
Не стали покупать.
en.wikipedia.org/wiki/RAM_drive#Dedicated_hardware_RAM_drives
Говорят, с надежностью были проблемы.
Собственно Optane подешевле Ram будет и надежнее.
Дак 15+ лет назад оно и в принципе не могло взлететь, flash есть уже давно, но SSD взлетели на массовый рынок совсем недавно, по все тем же причинам, а гибрид ssd тем более должен появится позже. Такая технология появилась слишком рано для своего времени на дорогой и относительно примитивной элементной базе. А так, какой DevOps бы отказался от SSD, который не изнашивается от записи и работает на порядок быстрее, пусть и на порядок дороже?
НЛО прилетело и опубликовало эту надпись здесь
посмотрите NVDIMM
Батарейки были на старых RAID. А в целом, во времена царствования 1С приходилось подымать RAM диски, чтобы все летало, особенно перепроводки.
Кому нужны RAM диски — они их используют, бэкапятся на ходу и т.п.
Кому нужны RAM диски — они их используют, бэкапятся на ходу и т.п.

Ну RAM диски, особенно программные (т.к используют дорогую память сервера, а не дешевую прошлых поколений), это костыль, дабы обойти узкое место в IO. Есть те, кто откажется от «лишней» серверной производительности без плясок с бубнами, так как с их точки зрения это обычный SSD? Нет, просто это упирается в деньги. Ну и ионисторы более подходящее отказоустойчивое решение.
Серверное оборудование питается через ИБП, ионисторы — не нужны.
Это несвязанные вещи. Любой BSOD системы, внезапная смерть аккумуляторов или ИБП под нагрузкой (а вероятность их отказа гораздо выше чем выделенной слаботочной цепи), и все, данные улетели период с последней синхронизации, что может быть и несколько дней. Да и когда синхронизировать? При переходе на ИПБ? Не подходит- данные могут еще добавиться. В конце заряда ИБП? Рискованно- может внезапно отрубится, если аккумуляторы несвежие и проблемные. Накопитель должен быть автономным, лишнее звенья увеличивают вероятность отказа.
Присоединяюсь к предыдущим комментаторам. Мне кажется, что статья или как минимум заголовок кликбейтные. В заголовке написано о «стирании разницы», при этом ничего не написано о главной проблеме гипотетического использования SSD в качестве RAM — ограниченном ресурсе перезаписи. И если для swap я ещё могу с трудом поверить, что благодаря редкой (по сравнению с чтением) записи SSD не сдохнет слишком быстро от наличия swap на нём, то для «настоящей» RAM я не вижу никаких причин считать, что запись происходит относительно редко и что такой SSD не умрёт в считанные недели.
Память на магнитных сердечниках 64×64 (4 кБ) [пользователь closegl утверждает, что тут ошибка, и имеется в виду 32×32, 1 кБ ]
Не, ну ферритовых колечек точно 4096 (сетка мелких проводов 64х64, распаяны по 32 с каждой стороны платы).

Правда врезка — лажа, кроме сетки, есть несколько служебных проводов, так-что сквозь каждое колечко проходит больше двух проводов.
Причём памятью всегда служили энергозависимые устройства типа SRAM или DRAM.
Странное предложение прям сразу под фотографией модуля ОЗУ на ферритовых сердечниках, который энергонезависим.
Не, ну ферритовых колечек точно 4096 (сетка мелких проводов 64х64, распаяны по 32 с каждой стороны платы).

Непосредственно подсчитать по фото — в каждом ряду по 32 кольца, и 32 ряда. И 32 провода с каждой из 4 сторон — если вы думаете, что там они все внутри этой платки уходят на общий ноль, то это явно не так. Скорее в одном режиме подаётся плюс слева и ноль справа, а в другом — ноль слева и плюс справа. Ну и аналогично для вертикальных.


так-что сквозь каждое колечко проходит больше двух проводов.

Три. Вертикальный, горизонтальный — и один считывающий. Но он тонкий, могли удалить при ретушировании (не понимая его смысл).

Непосредственно подсчитать по фото — в каждом ряду по 32 кольца, и 32 ряда.
Разрешение низкое (размер кольца ≈6 пиксел, сливаются), провода строк и столбцов надо считать, а их подходит с каждой из четырёх сторон по 64 провода (32 припаяны к дорожкам лицевой стороны, 32 к дорожкам обратной стороны).
… могли удалить при ретушировании (не понимая его смысл).
Врезка вообще синтезированная и, по-моему, не способная к работе, принципиально.

В большом масштабе, что б кольца более менее было видно (размер кольца ≈13 пиксел):
image

Из лота CDC 6600 64X64 (4 KB) https://www.worthpoint.com/worthopedia/vintage-control-data-cdc-6600-64x64-1803079799, точно такая же микросхема, что и на фото из статьи.

Таки да, согласен. Исходное в статье как-то сильно пережато.
На этом ещё и считывающие провода отлично видны.

Правда не очень понятно, зачем им 8 линий запрета. Возможно, я ещё слишком молод для этого знания?
С разнообразием nvme дисков сам столкнулся недавно. Попал ко мне маленький nvme диск от toshiba. Реально по длине около дюйма (2232). Ни в 1 порт я его не мог пристроить, т.к. крепежные винты на мат.платах и в лаптопах расчитаны на 2280/2260/2242. И разъем как правило устроен так что плата не фиксируется в нем в рабочем положении и диск стоит под углом около 30 градусов к плоскости мат.платы. Пробовал приклеить на добротный двухсторонний скотч, но через неделю с BSOD-ом отвалился (температурный рендж не способствует надежному креплению). Выходом стало пристройка диска в Dell LAtitude. Там диск фиксируется только за счет самого разъема M2 (без всяких винтов). Вот так.
Крепёж, штука ценная, лучше не терять. Штатный крепёж штатного диска Lenovo E590 при снятой крышке/радиаторе SSD отсека диска.
image
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации