Как стать автором
Обновить

Комментарии 40

Спасибо за статью! Был бы рад прочитать аналогичный материал на тему разновидностей оперативной памяти, перспективах и ценообразующих факторах.
У вас все интереснее и интереснее. Так держать!
Ну не знаю, вот я ожидаю что после 3д нанд цена за гигабайт начнет хоть немного, но снижаться. Пока правда предпосылок для этого нет…
Мне кажется производители накопителей нарочно держат планку высокого гига на SSD, чтобы выжать все соки из обычных винтов. Хотя это всего лишь мое мнение.
Ну, учитывая, что производители SSD в большинстве своем довольно слабо связаны с производством обычных винчестеров (производят какие-то микросхемы наверно, но вряд ли это основная статья дохода), а связаны скорее с производством оперативной памяти, мне кажется, что вы ошибаетесь. Скорее всего они стремятся «выжать все соки» из новой технологии и получить максимальные прибыли.
Интересно, спасибо! Полагаю в Trion 150 поставили контроллер от тошибы вместо бейрфут чтобы снизить стоимость накопителя
Там фисон перемаркированный.
Интересно, а нельзя ли достичь скоростей SSD на обычных магнитных дисках? Использовать не одну считывающую-записывающую головку, а десятки (или сотни?) неподвижных? Расположить их на «мосту» от центра диска до края в шахматном порядке, чтобы перекрыть все дорожки и исключить потери времени на позиционирование? Использовать для такого «моста» технологии выращивания кристаллов для процессоров, чтобы получить считывающие-записывающие головки требуемых размеров? Возможно ли такое воплотить с помощью современных технологий миниатюризации?
Тут как с троллейбусом из буханки. "… Но зачем?"
Головки современных HDD и так делают при помощи фотолитографии — как микросхемы. А выгода от параллелизма головок теряется, начиная от числа головок >2. Имеется в виду 2 блока головок на разных сторонах диска.
Ну в предлагаемом (чисто теоретическом) варианте выигрыш был бы и существенный. Tagat же предлагал накрыть неподвижными головками вообще все дорожки разом. (как разница между лазерными и светодиодным принтерами)
В результате бы поимели:
— сокращение времени поиска до 0 (т.к. двигать головки в поисках нужной вообще не нужно — достаточно электронике выбрать нужную из массива, какая будет считывать), осталось бы только время задержки равное в среднем половине оборота диска. Что равно минимум двукратному увеличение скорости со случайным доступом
— при нормальной реализации алгоритма read ahead (который и так в дисках имеется, нужно только модифицировать), кратный рост скорости линейного чтения — при запросе какого-то куска данных, можно заранее сразу читать следующие дорожки идущие за считываемой другими головками и потом отдавать эти данные уже из буфера(кэша). Ну а если не понадобится(алгоритм ошибся) — просто выкинем из кэша эти данные.
— полную ликвидацию шума от головок при поиске данных (знаменитый треск/хруст головок)
— снижение энергопотребления и нагрева — при активной работе, на привод головок довольно существенная часть энергии уходит
— упрощение механической части диска и повышение надежности

Но на практике никто такого делать не будет, т.к. на современных дисках дорожек на одном блине уже не сотни, а больше сотни тысяч. Поэтому даже если бы получилось создать подобную мега-головку с >100 тыс каналов, способную считывать любую дорожку без механических перемещений, то она получилась бы настолько дорогой что никому даваемые ею преимущества оказались не нужны.
Если проводить аналогию с оптическими дисками, в которых штраф на перемещение головки ещё больше чем у винчестеров, то вот: http://www.ixbt.com/storage/kenwood-truex.html
Не взлетело, потому что это всего-лишь костыли и проблему, де факто — не решают.
Я все равно не понимаю:
«Очевидно, по сравнению с обычными жесткими дисками NAND — настоящий прорыв, но и у нее есть свои проблемы и недостатки. Да, NAND имеет огромные перспективы в плане емкости накопителей, однако цена за гигабайт оставляет желать лучшего. Вряд ли в ближайшее время по этому параметру удастся «поймать» жесткие диски. „

Ведь для производства жесткого диска требуется куда большее количество операций, механическая сборка, заполнение инертным газом, чем для изготовления SSD, для которого требуется просто закрепить микросхемы памяти на плате и установить в жесткий корпус при помощи четырех винтов. Понятно что основная стоимость — это сами чипы памяти, но как мне кажется их цена искусственно поддерживается производителем выше, чем цена на обычные жесткие диски
разница в стоимости завода по производству. и эта стоимость высока. часть цены по созданию производственной линии включено в стоимость чипа и пока чипы не окупят стоимость завода, никто снижать цену не будет (если не фактор конкуренции). заводы по производству HDD окупили себя уже 10 раз, а заводы по SSD скорее всего ещё нет. как эти деньги вернутся, так они начнут более охотно снижать цену.
P.S. я использую слово завод как некоторую условность, а не как реальное производственное помещение.
«инертным газом» заполняются только новомодные гелиевые диски, в остальных просто обеспыленый воздух, который через хитрый воздуховод(а то и просто дырку с фильтром) сообщается с окружающей средой с целью выравнивания давления
Как написали выше, есть отлаженные десятилетиями бизнес процессы, конвейеры и станки, что позволило отбить инвестиции на производственные мощности. SSD тоже будет снижаться в цене, но со временем. Первые 3.5 HDD тоже были дорогими.
Интересен вопрос с надежностью (ходя слухи что плохо).
Могу ли я записать видео с фотками и положить в шкаф на пару-тройку лет?
CD/DVD-R стираются, давно перешел на жесткие диски. С ними от лежания в шкафу пока ничего не произошло.
Я не готов, и нет знакомых кто бы пробовал так сделать с современными объемными SSD.
слухи что плохо

Пост geektimes ("все плохо") — https://geektimes.ru/post/250406/ "Отключённый промышленный твердотельник может потерять данные за неделю" (atomlib, Редактор Geektimes, 14 мая 2015 в 21:22), по альтернативной интерпретации некоторых слайдов презентации
http://web.archive.org/web/20141031164835/http://www.jedec.org/sites/default/files/Alvin_Cox%20%5BCompatibility%20Mode%5D_0.pdf


PCWorld с пояснениями от автора (Alwin Cox, Элвин Кокс) той презентации
http://www.pcworld.com/article/2925173/debunked-your-ssd-wont-lose-data-if-left-unplugged-after-all.html — слайды показывают что будет с SSD после его износа и хранении после этого при повышенных температурах:


It was intended to help data center and enterprise customers understand what could happen to an SSD—but only after it had reached the end of its useful life span and was then stored at abnormal temperatures. It’s not intended to be applied to an SSD in the prime of its life in either an enterprise or a consumer setting.…
Even a worn-out SSD would still go a year without data loss, according to the original presentation, and that’s while being stored at 87 degrees Fahreneit the entire time.…
Smith and Cox said the intent of the original presentation was to illustrate a worst-case scenario. What if the truck with the SSDs from the data center broke down, in the Arizona desert in July, on the way to the archiving center?
чем крупнее техпроцесс, тем меньшее влияние оказывают температуры, ЭМИ и прочие лежания на полке.
Хотя в принципе и современный SSDшник может в прохладном шкафу пролежать несколько месяцев с минимальным риском потери данных. ПОтом нужно будет его подключить, конечно, чтоб он поработал некоторое время, и можно обратно на полку.
Пока что между всеми преимуществами SSD и пользователями лежит основной экономический барьер — цена. Пока флэш-накопители не станут так же доступны рядовому покупателю, о массовом замещении речи быть не может.
Небольших объемов они не очень уж и дорогие, под систему поставить можно (даже нужно, низкая производительность hdd сводит на нет производительность остального железа). А хранить данные на ssd не вижу смысла, для этого hdd есть.
Цена уже нормальная и доступная, особенно после скачка доллара, когда HDD подорожали вслед за долларом, а цена SSD практически не изменилась.
Ну и надо понимать что далеко не для всех дисков важен быстрый доступ и куча IOPS, поэтому в большинстве случаев нужен небольшой SSD под горячие данные — система, файл подкачки, профили пользователей, БД.
А остальные данные которые больше хранят, чем работают с ними вполне неплохо размещаются на HDD.

Современный SSD под систему размером 120-240Гб стоит 4-10тыс, вполне доступно рядовому пользователю.
И сейчас уже можно говорить о массовом замещении.
Только вы забываете что к этому доступному диску за 4 тыс большинству все равно придется придется докупать жесткий диск.
И эти 4 тыс вы заплатите по сути за то, что б у вас система грузилась на минуту быстрее. Да и файлы подкачки и БД, вроде как противопоказаны SSD дискам,.Так как там идет постоянная перезапись данных…
По мне так я найду более приличное приложение таким деньгам.
вы утрируете. не только система грузится быстрее, но и все остальное работает значительно быстрее, особенно это заметно на тяжелых приложениях типа браузера или photoshop
Хм, браузер стал уже тяжелым приложением??? А насчет фотошопа, да тут верю что будет быстрее, но многие ли реально работают с фотошопом? Что б его так загрузить.
эннадцать вкладок с Javascript (тут все зависит от объемов кода, конечно) ставят в тупик даже современную офисную машинку, однако. А если в фоне крутится еще что-то, работающее с диском (торрент, например), а оперативки немного, то серфинг превращается в лагающее издевательство над собственными нервами.
Ну а еще просто бывают страницы, которые весят по 100-200 метров…
«чтобы заставить ждать CPU» — так CPU к диску вроде как не обращается.
Адресное пространство процесса отображается на страницы по 64кб, и поддержание актуальности в памяти их кэша лежит на ос, равно как и кэширование чтения/записи диска.
Поправьте, если ошибаюсь.
В современном компьютере чтение с диска и запись на него идет без участия CPU, напрямую. Однако это не значит что CPU не ждет данных с диска.
Кэш пустой — процессор простаивает ожидая данных.
Конечно. Принципиальное значение ssd исключение задержек доступа к записи в блочном устройстве -диске.
Правильнее было сказать, не cpu, а программа ожидает.
Не все можно загрузить в DDR (даже сейчас) и некоторые активные приложения ждут именно диска. Вспомнить загрузку уровней в играх или сохранение большого макета в 3d приложении. Сейчас это занимает намного меньшее время даже для HDD чем во времена 200х когда 80ГБ диски с 7200 оборотов были в новинку, или за 80 проводными IDE коннекторами охотились :)
Конечно, еще и создание и управление метаданных на диске, что так же требует времени. Причем файловая система ничего о диске не знает.
Почти все правильно, только у MLC ресурс 10к только у первых поколений был, а те на которых построены массовые SSD — 2-3-5к, чаще 3.
У TLC соответственно 5к вы не найдете никогда, чаще 500-1000 циклов.
Не совсем так. 10к это чистый ресурс ячеек, а вот 3к это уже реальный ресурс.
В процессе работы контроллера данные часто перемещаются с одной ячейки на другую, даже если вы их не трогаете.
Производители заявляют о ресурсе перезаписей для MLC, например, 3000 циклов. Для ssd объемом 480GB это 1440TB. Но гарантия при этом дается только на 72TBW. Вопрос вот в чем, эти 72TB включают в себя «усиление записи»? В программе CrystalDiskInfo у меня отображается 23TB хост записей на диск. Усиление записи включено в эти 23TB?
Смотря что там конкретно написано. Host Writes обычно НЕ включают усиление записи, а показывает сколько всего данных подлежащих записи получил контроллер снаружи (от ОС).
Бывает в Смарт параметрах еще указывается total NAND writes — этот показатель уже включает все. А поделив одно на другое можно как раз получить «коэффициент усиления».

Часто он не обозначен, и в одной из «vendor specific» или reserved полей сидит. У Kingston например в атрибуте №233 (или E9 в HEX) записано.
А вот интересно, нельзя ли сделать такой контроллер, который бы поддерживал деградацию типа записи в ячейки TLC -> MLC -> SLC?
Ведь как понимаю, проблема в том, что схема перестаёт надёжно различать различия в уровнях напряжения в ячейке.
Вот тут бы и уменьшить их количество…
Думаю, можно. Этакий ExSMART. Но боюсь, невыгодно производителям. Если такой диск выпустят, многие озадачатся вопросом — «О! А что, так можно было?» и вспомнят гигабайты невовремя пропавших данных…
Вроде бы уже были такие разработки и образцы контроллеров для интерпрайз решений. Правда не с целью продления срока службы старого диска с уже подходящим к концу ресурсом, а часть места (состоящего из одинаковых микросхем флеша!) изначально размечалась как SLC, а часть как MLC. И SLC область контроллер использовал для хранения наиболее часто перезаписываемых данных.
Фисоновские (и не только) контроллеры так делают с MLC. Часть памяти отводится под псевдо-SLC-кэш, а когда место заканчивается, то ячейки переводятся обратно в MLC-режим.
Во-первых даже относительно древний по нынешним временам Barefoot 3 и Marvell9174 используют для быстрой записи часть памяти в режиме псевдо-SLC (это когда в каждую ячейку мы пишем вместо двух бит один — биты из одной ячейки разнесены по соседним страницам, то есть пишем только нечетные страницы), затем когда пользователь дает диску отдохнуть, неспеша переносит данные в другие ячейки в обычном режиме.
Многие современные контроллеры даже в обычных USB/SD накопителях тоже используют такой режим.

Насчет надежности — если слегка погуглить про ECC в флеш-накопителях, то можно найти статьи возрастом уже под пяток лет, где производители обсуждают вариабельный ECC, то есть при износе памяти увеличивать процент страницы, отведенный под корректирующий код, с соответствующим уменьшением пользовательского пространства, но компенсируя старение памяти.

Кстати, старение памяти проявляется не как увеличение количество ошибок после записи, а как быстрое стекание заряда, то есть потерю данных от простого лежания в ящике. Выглядит это так: берем изношенную микросхему, припаиваем на плату с контроллером USB, запускаем софт MP, по результату — рабочая флешка, дефектов найдено минимум (единицы). Заполняем флешку файлами — все пишется и читается без проблем. Откладываем ее на недельку в ящик. Включаем — уже еле читается, либо даже не определяется компьютером. Отпаиваем микросхему NAND, читаем программатором, смотрим что там по коррекции ECC — получаем жуткую картину на границе корректирующей способности кода — заряд из ячеек стёк.

Именно поэтому у современных дешёвых SSD на TLC памяти производитель в даташите мелким шрифтом пишет что срок гарантированной сохранности данных до 3 месяцев (при износе).
Зарегистрируйтесь на Хабре , чтобы оставить комментарий