Как стать автором
Обновить

Комментарии 76

> IOPS… TBW… DWPD…

А есть параметр, характеризующий гарантированное время хранения неизменяемых данных (например, на накопителе, мирно лежащем на полке)?
О нем стыдливо умалчивают.
Насколько я понимаю, этот параметр сильно зависит от количества перезаписей ячеек. Т.е. записанные впервые данные, к примеру, могут храниться лет 10-20 (если ячейка — SLC), после тысячной перезаписи срок может измеряться десятками месяцев, если не меньше.
Нет, он зависит от техпроцесса — чем меньше физический размер ячейки, тем меньше хранится информация из-за токов утечки и паразитных наводок.
Логично предположить, что от износа зависимость тоже есть.
в гораздо меньшей степени. Ячейки, конечно. деградируют, и разница в сроке хранения, конечно, будет между ячейками со 100 и с 5000 перезаписей, но бОльшее влияние все-таки оказывает температура и техпроцесс.
Техпроцесс и тип ячейки имеет определяющее значенине на кол-во циклов — максимальное, какое ячейка может выдержать за весь срок службы.
А вот на пассивное хранение данных без перезаписи — уже использованое кол-во циклов перезаписи (определяющее износ) и температура. Причем износ даже больше чем температура (если она в пределах допустимых границ остается естественно). Разница в сроке хранения данных при тех же те техпроцессе, типе ячеек и температуре хранения первых но на 1х циклах (новый носитель) и и циклах ближе к концу расчетного ресурса примерно на порядок: несколько месяцев против нескольких лет.
Собственно прогнозный ресурс так и определяют — как некую условную границу, после которой утечки заряда из-за износа ячеек становятся "неприлично" высокими, что дальшнее использование уже становится не безопасно для сохранности данных.
записанные впервые данные, к примеру, могут храниться лет 10-20

Только, если заморозите жидким азотом и будете хранить в нём. Тут была история про ноутбук забытый на даче — хватило одного, отнюдь не африканского лета, чтобы всё стёрлось.
Азот не нужен — нужен новый диск и просто прохладное место.
А в ноутбуке значит диск уже старый был. Старый не в смысле устаревшая модель, а "изношенный". Разница между совсем новым диском и старым (подходящим к концу ресурса) по сроку сохранности данных может превышать 10 раз. И для старых(изношенных) действительно может падать всего до нескольких месяцев с момента последней перезаписи/обновления информации. А для новых — счет идет на годы.
Если же новый на SLC ячейках, да в прохалодном месте — и больше 10 лет пролежит. Правда где этот новый SLC взять? Их уже практически не выпускают, а то что выпускают специализированные решения с адскими ценниками обычно.
Хочу такой красный «ТАМ-ТАМ» как на последней картинке
На eBay сейчас есть такая голова в виде банки для ручек-карандашей. Искать по словам "kingston redhead". Правда, цена такая, что я уже не хочу такое.
Хм… Вот "сегодня эта самая головка работает даже не в вакууме, а в гелии" — а был ли кто-то из дисковых накопителей, который был вакуумирован? Это в любом случае не "винчестерская" технология, без газа закон Бернулли не работает…
Кстати, что происходит с гелиевым винчестером при разгерметизации? Аэродинамика должна катастрофически нарушиться, т.е. из-за изменения газовой среды, при полной исправности остальных компонентов (открыл-закрыл крышку), получаем не работающий винт. А повреждения не возникают? Гелиевый винт контролирует состав газовой среды в гермозоне вообще?
Давление да, по его изменению в принципе возможно определить разгерметизацию.
Если оно заметно выше внешнего — да. Но получается, с объемом гермозоны винта, что малейшая неплотность приводит к выходу из строя, утечет на раз.
Собственно, есть стратегия защиты оборудования от внешней среды, полагающая, что полностью избавиться от щелей и неплотностей невозможно, потому надо защищаемый объем наддуть азотом и пусть где-то чуток подтравливает наружу, но внутрь-то точно ничего не заползет. Только там объемы побольше на несколько порядков и еще баллон для компенсации утечки частенько стоит в уголке...
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Была статья от фирмы восстанавливающей данные SSD. Они писали, что у некоторых производителей замена контроллера — тоже не помогает.
Только вот скорость I/O у SLC печальная, а то самое соотношение на 3 порядка хуже чем у HDD и вряд ли в ближайшее время изменится.
Стоит у меня в домашнем сервачке-роутере один из первых серверных SLC, на 32гБ, фирмы transcend. И я не могу сказать, что скорость печальная, на мой взгляд весьма и весьма веселая.
Тут в чем фишка. Были бы ссд-шки на SLC дешевыми, объемными и с надежными контроллерами, которые живут хотя бы 5-7 лет, они бы свою нишу нашли бы. Бесшумные ПК, например. "Бесшумный" (в смысле требований к СО) и недорогой процессор найти нынче не проблема, оперативка не шумит, мать — тоже. БП небольшой мощность вполне может быть пассивным — 60-100Вт по крайней мере, в ноутбучном формате вполне пассивны и даже притока воздуха не имеют. Да что там, даже видеокарта в таком процессоре будет довольно мощной, чтобы позволить несложные 3д-игры типа гонок 3-5 летней давности, стратегий и аркад. А вот с хранилищем инфы засада — тут или хоть и тихий, но все-таки шумящий жестак и извращения с виброизоляцией, либо не слишком емкий или ОЧЕНЬ дорогой SSD с высокой скоростью доступа (которая и близко не нужна! Ну зачем даже для BD-рипов скорость чтения с диска выше ~100-150мбит\сек???). Либо флешка — которая медленнее даже ноутбучного диска, и в случае объема гигов эдак в 200 стоит как крыло самолета.
Достаточно было бы случайного чтения мегабит 100-150, последовательного — 200, I\O на уровне 5-7 тысяч… Ну и срок жизни контроллера, как я уже говорил, довести до приемлемых цифр лет в 5-7 хотя бы. Почему-то на жестаках это получается — у меня до сих пор имеется живой диск самсунг на 120Гб, которому уже лет 9, и 7 из них он работал в режиме 8\5, ~240 дней в году, получается ~13,5 тысяч часов. Хрустит-гремит-тупит, но электроника в прекрасном состоянии.
С другой стороны, огромный ресурс TLC-чипов позволил бы пользоваться диском, вообще не задумываясь об оптимизациях, подсчетах, лайфбарах и тримах. И совершенно на любой ОС, хоть под ДОСом.
И если бы вся эта радость стоила хотя бы 7-10 центов за гигабайт (т.е. условно-доступные 70-100 у.е. за 1Тб), было бы замечательно.
с надежными контроллерами, которые живут хотя бы 5-7 лет

Увы, надёжность SSD сильно зависит от активности использования :(

Если, один раз записав больше не трогать, но держать винт подключённым, то он и 10 лет проживёт.
А если активно использовать постоянно перезаписывая, то он быстро сдохнет :(

И самое обидное:
— в качестве обычного хранилища файлов, на обычном компьютере — скорость SSD не так уж критична
— высокая скорость SSD — очень пригодилась бы для SWAP-файла Windows, но он, увы, быстро сдохнет в таком режиме :(
я не зря сказал о технологии SLC со скоростями пониже, чем у других вариантов SSD, но зато живучестью на два порядка выше. Все упирается в контроллер. 4 диска мертвых в личной статистике, и на всех лайфбар показывал от 60 до 80%, а контроллер взял и сдох. Вот он, основной виновник всех бед.
Может контроллер просто стоит дублировать?
Да, как по мне хорошая идея… В реализации трудновато конечно будет… Но вот система с двумя контроллерами, каждый обрабатывает половину потока и в случае поломки одного скорость просто падает в два раза, но скачать все ещё можно. О, подождите, это же раид1 ) не совсем, конечно, но принцип похожий. В раиде два контроллера и два массива, а тут сделать. 2 контроллера и один массив
Так то, если нужен тихий и ёмкий винч, то можно взять 2,5 дюймовый, ноутбучный. Они довольно тихие и почти ничем не уступают "большим братьям".
Не соглашусь, ноутбучные гораздо медленее (у меня "синий" ВД в ноуте и зеленый 3.5" в компе, так зеленый со всеми "оптимизаторствами" энергопотребления и то оказывается шустрее по скорости доступа и чтения\записи. Полноценный 3.5" диск для стационарника раза в полтора шустрее хорошего ноутбучного.
И отнюдь не тихие. В ноуте просто их не слышно за кулером обычно. В моем старом нетбуке в прохладном помещении кулер иногда выключался, и было четко слышно, как шуршит винч и щелкают головы… не считая вибрации на корпусе )
Но в целом, конечно, пока это единственный выход, если нужно хранить 300-1000гб занедорого в домашнем формате.
Был у меня ноут, lenovo flex 10, там стоял пень с пассивным охлаждением. Так винчестера слышно вообще не было. Только если поднести его к уху, на расстояние примерно 20 см, то можно было уловить щелчки и работу движка.
Там правда 5200rpm было, может из-за этого.
Но мне кажется, что бесшумные(или скорее безвентиляторные) компьютеры, создаются сугубо для офисных задач, чтение интернетов, просмотра фильмов и прочего подобного.
Там скорость доступа и чтения/записи играет вторичную роль.
на данный момент на полностью пассивный охлад можно даже домашний сервер повесить вполне. Мощности процессоров позволяют.
Для фильмов в 2к, например, требуется довольно шустрый дисочек — битрейт достигает 200мбит и выше. В то же время крутить такой фильмец может довольно скромной мощности и ТДП процессор, какой-нибудь кор5 последнего поколения с ограничением теплопакета в 35Вт.
Вот и выясняется, что даже полноценный HDD столько не факт что выдаст, если в системе висит еще что-то, тот же торрент на загрузке-отдаче. Будут фризы-тупняки-скрипы-шуршание голов. Ноутбучный так вообще повеситься может, у меня бывают затыки даже на обычном FullHD, хотя проц всего на 35-40% занят.
в общем, скорость чтения и низкое время доступа не помешало бы.
Бесшумные диски мне не встречались… Но у меня ОЧЕНЬ чуткий слух, правда… :) возможно. даже самый тихий диск для меня будет шуметь
В сегменте «для домашнего использования» щеголять нужно именно ценой и ёмкостью. Объема записи в несколько десятков терабайт системному диску хватит на многие-многие годы. Не уверены? Тогда возьмите Самс 850, который гарантирует 75 и 150 Тб в зависимости от емкости.

Вы же привели пример окирпичивания, когда накопитель не успел записать и пол терабайта. Очевидно, что циклы перезаписи тут ни при чем.
Да. Тут при чем — детские болезни контроллеров, таких как у вышеупомянутого SF2281, когда он: а) может сам себе выстрелить в ногу, убив прошивку без стороннего вмешательства; б) может уйти в sleep и не выйти оттуда даже после ребута. У HDD таких болезней нет уже очень давно.
Ну стоит и учесть, что требования к контролеру на SSD намного больше, чем к жёсткому. Когда к жесткому не обращаются, он может спать, а SSD делает намного больше.
Несколько десятов ТБ это совсем не много для современных активно используемых ПК.
У меня к примеру сейчас проверил — 34 ТБ "хост записей"(он всегда больше чем пишет ОС и прикладное ПО) за 2 года если верить показаниям SMART. Ничего особенного вроде не делал, чтобы SSD нагрузить.
ОС — win7 x64. Своп и темпы тоже на SSD — а где им еще быть? SSD и нужен для подобных вещей — файлов ОС, свопа, папок временный файлов и разных кэшей/буферов. Ну еще требовательную игрушку поставить можно, если владелец игрок. Все остальное лучше, надежнее и дешевле на HDD хранить.
Хотя вру — еще кэш FF(основной браузер) на маленький RAM диск вынесен. Без этого еще по несколько ГБ в сутки добавлялось бы к расходу ресурса.
Хорошо диск на "старых" MLC чипах (5000 циклов записи), так что по-идее еще довольно долго должен прожить в таком режиме если контроллер не подведет.
А вот новые на TLC c типовыми 1500 циклами, что-то даже не хочется покупать. Ну либо нужно переплачивать за больший(и пока особо не нужный) объем, чтобы эти циклы размазывались по большему кол-ву блоков флэша и общий ресурс (в ТБ) получился приличный.
Лучше часы указывать. У вас получается порядка 45 Гб/сутки, если к примеру за 15 часов, то это по 3 Гб/час, что примерно вдвое больше среднего показателя.

Наблюдения бизнеса:

>> Инженеры Samsung подбирали размер буфера, анализируя нагрузку на диск у «обычных пользователей». Как выяснилось, они в среднем пишут 1.17GB в час, причем у 90% фокус-группы записывалось менее 3GB в час.

Наблюдения собственные:

1) Средний показатель — это около 1-1.5 Гб/час. Это для системы из коробки. Кто игры кладет или софт часто переустанавливает — у того 2+. Полагаю, что и виндовые автоапдейты могут поддать жару бессмысленными перезаписями всего и вся.

2) У «опытных» пользователей, которые вручную или с помощью того же MiniTweaker выключают в семерке дефрагментацию системных файлов при загрузке, файл гибернации, автосоздание точек восстановления (ну раз их не возможно создавать на другом томе), очистку свопа при выключении, и которые не занимаются непрерывным перекраиванием системы и софта, объемы записи и вовсе смешные — порядка 0.25-0.50 Гб/час. При чем, бОльшую часть этого объема записи осуществляет, как вы верно заметили, браузер.
У меня вот на данный момент пока что 650 Гб и 1500 часов (но это ниже среднего). Своп, временные файлы — это понты, насколько я смог заметить. В основном спамит FF.

3) Если не высчитывать почасовой объем, а спрашивать друг друга «Сколько у тебя уже SSD? А сколько записало?», то ответы: 1-2 года, записало 1-2-3-5 Тб. Т.е. ваши 34 Тб за 2 года — это не просто рекорд среди «мною опрошенных», это НЕДОСЯГАЕМЫЙ никем из моих знакомых (и мною тоже) рекорд. Причем, большинство знакомых используют автоапдейт винды, хром, ну а ОС — от семерки до десятки — разнобой. Не заморачиваются циклами и терабайтами, простые пользователи.

4) Ну и чисто логически сложно представить 45 гиг чего именно я буду ЕЖЕДНЕВНО впечатывать в системный SSD.

— Так что, вы определенно попадаете в 10-проентное (а то и в 5-процентное) меньшинство ))
И вам всячески будут советовать более дорогие, но и более надежные модели. EVO 850 на 256 гиг с гарантией 150 Тб — определенно ваш выбор (при том, что он — НЕ дорогой, нормальная цена вполне). А вот для подавляющего большинства устройств (причем, в первую очередь ноутов и планшетов) — этого минимум на 10 лет хватит. Мне — так и вовсе на пол века, если конечно я не найду необходимость что-то критически важное и объемистое круглосуточно спамить с предсказуемой скоростью (т.е. по каким-то причинам для такого треша не подойдет HDD). А я пока что таких задач в быту не встречал.
В часах показывает если опять же смарту верить
09 Power-On Time Count 0 82 82 15981 OK: Всегда пройдено
Похоже на правду — на ночь обычно не выключается, так что это похоже на 2 с небольшим хвостиком года с ~90% аптайма по времени.
Или 2,1 Гб/час — т.е. выше среднего, но те чтобы сильно.
Кстати только что понял что заявленный производителем (кстати как раз Kingston статью которого мы комментируем) TBW = 32 ТБ я как раз недавно превысил. Чуть меньше чем за 2 года из 3 лет официальной гарантии. Видимо они при назначении TBW такими же как у вас расчетами для "сферического в ваккууме домашнего пользователя" руководствуются. SMART правда это никак на это превышение не реагирует и показывает "уровень здоровья" (по ресурсу) еще выше 80%.
Samsung 850 EVO.
Куча софта, постоянный браузинг, открыто 3 браузера с кучей вкладок. — 1300GB траффика и 1600 часов работы.
Комп рабочий, работает круглые сутки не выключаясь, постоянная установка обновлений и прочее. Своп включен на этом же диске, восстановление системы — тоже включено. Недавно был полный апргрейд 10ки с одного на другой билд, на диске прибавалось 50 гиг при этом.
Не ценой и ёмкостью нужно щеголять, а количеством циклов перезаписи
Я до сих пор удивляюсь, почему SSD развивают только в одну сторону.
Почему нет дешевых, пусть и медленных SSD для холодного хранения данных с малым циклом перезаписи?
Я бы не откозался от SSD, сравнимого по цене с 4TB HDD, пусть и с очень малым количеством перезаписи и скоростью чтения\записи 100-150\50-100 МБ\сек
Размер меньше, практически не требуют охлаждения(в отличии от моих 10 HDD), не боятся вибраций, надежнее (в теории, так как нет механики)
Вот куда мне 1-2-3 ТБ SSD со скоростями в несколько ГБ\сек?
Уменьшение ресурса с ростом обьема блоков — закономерно и неизбежно.
Каждая новая технология дешевле предыдущей, за счет роста размеров блоков.
Каждая ячейка в блоке отдает/принимает заряд неравномерно, когда разница зарядов в одном блоке превышает некую границу — блок читается с ошибкой.
Чем больше битов хранят в ячейке — тем уже граница. Чем больше ячеек в блоке — тем быстрее одна из ячеек блока пересекает границу.
К слову, битый блок восстанавливается простым обнулением зарядов. Т.к. ячейка — это конденсатор, ее заряд обнуляют самопробоем при нагреве до 400-600 градусов. Микросхемы могут содержат нагреватель в подложке, который время от времени их сбрасывает, восстанавливая ресурс. Например вот: https://geektimes.ru/post/161125/
Впрочем это было известно еще давно — возможно военные и наса давно используют нечто подобное.
К счастью эта печальная тенденция постоянного падения ресурса неплохо компенсируется быстрым ростом объемов SSD.
Конечным пользователям SSD же не особо важны сами циклы (сколько тысяч раз можно перезаписать каждую конкретную ячейку в микросхемах из которых этот SSD собран), а интересует допустимая интенсивность записи на диск в ГБ/сутки и его общий ресурс — в ТБ за весь срок службы. А при наличии "умного" контроллера выравнивающего запись эти параметры пропорциональны произведению кол-ва циклов на объем диска. И если первое постоянно снижается, зато второе так же постоянно растет.
Было бы здорово, если бы чипы памяти были легко-съемными, например на микросхемных площадках, и в случае выхода чего-то из строя, контроллер бы сигнализировал где именно сбой, и что нужно поменять. Я уверен что такое возможно, и относительно просто сделать.

Впрочем о чем это я? Маркетинг же. Клиента надо заставить вернуться в магазин Kingston'а с сотней баксов, а не на рынок за микрухой Micron за бакс :)
Почему-то сразу вспомнилось вот это поделие сумрачного гения Дядюшки Ляо.

Вот ему такого функционала точно не хватает. :-)
Кстати, у меня похожая платка (только на 2 флешки и без всяких раидов, ну и размером очень скромная — по ширине разъема и длиной сантиметров 5,5-6 всего) лежит дома, досталась в довесок к нетбуку б\у шному. Довольно неплохое решение, когда нужен небольшой объем памяти, низкое энергопотребление и невысокая цена. В ней стояло две microSD флешки через адаптеры на SD, одна на 8гб, вторая на 4, в системе виделось в итоге десять с хвостиком. Хватало для урезанной винды, браузера и пары офисных программ, и еще в запасе было с гиг.
Скорость, конечно, так себе — бук из гибернации выходил около минуты и над крупными файлами задумывался (флешки были самые дешевые, класс4 от дяди Ляо). Но зато на батарее жил ~6 часов, а когда поставил в него жестак — стал жить около 4-4,5.
Но адаптер переваривал флешки до 32Гб и показывал довольно неплохую скорость на хороших флешках трансенда (тест на компе через кардридер давал 28мбит чтение, на адаптере 24,5 мбит, запись 22 и 22 соответственно), я свою с фотоаппарата ставил для проверки. Теперь подумываю встроить нетбук в автомобиль и поставить ему пару флешек на 32Гб недорогих в качестве хранилища и системного диска + одна флешка через кардридер. Предвосхищая вопросы — с кардридера грузиться не умеет. а через USB скорость низкая, порядка 10-12мбит даже на USB3.0 флешках дорогих, которые выдают по 50-100мбит.
Ради интереса пробил цены на Али — 28 долларов за адаптер из видеообзора выше. Если к нему докупить 10х32 class 10 карт памяти от трансенд, например (они стоят в рознице порядка 9 долларов) и обеспечивают скорость чтения до 60 мбит\сек и примерн остолько же на запись — получится не слишком-то быстрый SSD на 320Гб (по факту где-то 290) и ценником в ~110 долларов. Примерно столько же стоит фирменный SSD на 250гб, только вот там модули заменять нельзя… )
Хотя непонятно, конечно. как быть с равномерностью записи данных и надежностью самих флешек.
p.s. если брать карты на 64Гб, то картинка будет примерно такой же в плане финансов — флешек примерно на 160 долларов + 30 у.е. адаптер, в итоге 190 баксов за 580 Гб информации. SSDшки такого объема стоят сопоставимо, около 150-250 у.е. за диск на 480-512гб, домашне-офисный сегмент.
НЛО прилетело и опубликовало эту надпись здесь
Внезапная смерть и у HDD бывает. Обычно SSD переходят в режим read-only — инфу снять можно при этом.
Ну и бэкап никто не отменял
Хм. А почему до сих пор никто не запилил soft-ssd? Сама архитектура на это намекает.
Кэш в ОС, контроллер — драйвер, на плате в идеале остается только массив памяти.
Не вся память умеет работать с serial-шинами, потребуется дешевый хаб, на который вешается память.
Цена и сложность резко падает, надежность и универсальность растет: это просто кусок памяти, блочное устройство, его можно представить как полноценный диск, как часть другого диска, и вообще как угодно, хоть подключить к soft-raid.
Распределение записи — по случайному закону с равномерным распределением, гарантируется равномерный и одинаковый износ, и не нужна хранимая статистика. Пропадают статические данные — все ячейки перезаписываются, статичные данные мигрируют по массиву по мере записи. Исчезает проблема с недостатком места, с неравномерным износом части массива — работает весь массив. Двойная запись дешевле неравномерного износа.
Счетчик жизни не нужен — драйвер сканирует новые массивы, формируя лист бэдов для себя, который со временем и пополняет. Для целей перепродажи — отдельную eeprom, куда скидывать выработку ресурса, запрещая отматывать назад.
Служебные сектора превращаются в служебные файлы, записываемые стандартным образом, на любой диск.
Преобразование адресов — на фс. На фс же гарантия персистентности данных — журналы в фс. Корректность записи микробуфера контроллера гарантирует конденсатор на планке.
Драйвер общий, несколько планок воспринимает как один большой массив памяти — можно прозрачно обьединять массивы.
Восстановление при повреждении контроллера — простая перепайка, контроллер простейший, ничего не хранит.
В итоге приходим к архитектуре RAM — просто планки памяти фиксированного размера, не содержащие ничего лишнего. Пользователь сам набирает нужный обьем энергонезависимой памяти, сам его бьет на разделы, сам организует удобную дисковую архитектуру любой конфигурации, и все это — программно, без каких-либо железных ограничений.
Может однажды на материнках под такие модули появятся отдельные слоты, либо их можно будет пихать в слоты оперативки. Ну а пока ничего лучше PCIex под рукой нет.
первая же ошибка чтения докажет всю несостоятельность такого подхода,
Каким образом?
во первых понадобится гонять результат АЦП по шине к процессору(объём передаваемых данных уже на этом этапе перевышает объём считываемых данных, где будет вычислять контрольная сума, ошибка вызовет многократное чтение "забивание" шины и многократную нагрузку на процессор, + не забывайте что это драйвер, а драйвер в монолитном ядре требует переключение процессора в привилегированный режим( как ни как по шине общаемся), что ещё больше снижает быстродействие, получаем PIO в чистом виде — хотите хардкора поставьте PIO
Дальше ещё веселее контроллер всё равно понадобится — надо преобразовывать систему команд из шины в сигналы для микросхем, но избавившись от кеша, таблиц и прочего сильного удешевления — не получим( процессор + прошивка в контроллере стоит порядка бакса).
Скажем так, SSD — это не только скорость и отсутствие движущихся частей.
Это еще и ATA-интерфейс с поддержкой набора NCQ-команд, поэтому собственно эта железка будет работать и на суперсовременном компьютере, вчера сошедшем с конвейера, и на древнем i386 DX под управлением MSDOS (если конечно найдем PCI-переходник на SATA, но это уже сопутствующие затраты).
***
В вашем суждении есть одна неточность:
> Кэш в ОС,
В какой такой, простите, ОС ?) У нас еще нет ОС, у нас есть железка, и установочная флешка с Windows 7 (которая насколько мне не изменяет память — даже на другую USB-флешку отказывается ставиться).
Тащемто любой планировщик — покруче этого NCQ. И ssd не адресуется на прямую, и не имеет головок чтения/записи.
Про совместимость — PCI/PCIex. Можно оба на одной плате, с двух сторон.
Про ОС — так soft-ssd. К тому же новое железо с efi вообще софтовое — до ОС может отработать что угодно, в том числе любой драйвер. А старое железо — можно подсунуть спец.загрузчик.
Семерка ставится куда угодно — vhd.
Вот именно поэтому, SSD и совместим с любыми конфигурациями, и любыми ОС. NCQ не крут. Но он стар.

Не совсем понимаю, что в вашем понимании «soft-SSD», и зачем оно.
SSD — это УЖЕ мини-компьютер, содержащий свои внутренние блочные устройства, подключенные по своей шине, и взаимодействующий с внешним миром через систему ATA-команд. Ну иногда содержащий на себе ATA-контроллер на шине PCI, что вовсе не отменяет факта взаимодействия через ATA. Можете даже светодиодиком поморгать, не подключая его к компьютеру.

А софтовый SSD у нас уже есть — это NAND-память любого девайса, будь то планшета, или недокомпьютера вроде Cubietruck. Она подключена с помощью выделенной шины процессора, и управляется более-менее программно. Используется тот же самый физический носитель, что и в классических SSD.
Но несмотря на это, работает намного медленнее этих самых классических SSD, и очень быстро деградирует. И именно потому что работа этой штуки — на совести драйвера, который в случае OpenSource, работает как «не нравится, вас никто не заставляет этим пользоваться, пользуйтесь другой реализацией».

Я вам больше скажу, вы можете взять Raspberry PI, и эмулировать с помощью ее GPIO подключение к SATA-порту компьютера. А если на компьютере есть SPI, то можете и SPI'ем побаловаться. Это не сложно. Но незачем. И медленно.

Вам на закусь: https://pp.vk.me/c633226/v633226443/1d66e/v2h62C2z_JY.jpg
Так вроде даже здесь, на хабре, анонсировали новые твердотельные технологии хранения информации, которые сметут границу между дисками и памятью? Сочетая в себе их соответствующие преимущества.
Или все так далеко, и это проблема не технологическая, а чисто коммерческая?
Коммерческая. Там новый тип памяти запилили, даже два: ReRam с потенциально бесконечным ресурсом и скоростью оперативки, в 2008, который обещали в 2012, но Rambus (патентный тролль) перехватила и заморозила, и вроде магниторезистивная память, которую вроде интел презентовала, и обещали в этом году — эта скорее всего выйдет после DDR4, только сливки снимут.
К тому же АМД выкатила HBM — технологию 3D компоновки, значительно увеличивающую обьем памяти при той же площади плат, и потенциально через несколько лет эта память переедет на процессор.
В общем прогресс тут идет, и большими шагами.
Вот-вот, технологии не являющиеся критическими и жизненно важными, типа оборонных, развиваются и внедряются в соответствии с экономическими условиями. Первоочередными являются вопросы экономической эффективности.
При освещении в сми технических строн новшеств замалчиваются экономические и маркетинговые аспекты. В общем это понятно. Чудовищные затраты на разработку и запуск в серию предшествующих разработок должны, через "необходимо", быть возмещены.
Можно предположить, что технические проблемы уже решены, и обсчитана затратная сторона.
«Конечно, с годами механика усложнилась и сегодня эта самая головка работает даже не в вакууме, а в гелии» — Потрясающее изречение в технической статье. Это же не блог школьника, да?
Я помню, еще во времена диалапа, модемы были довольно дорогими устройствами и настоящий фурор произвели модемы, в которых не было своего контроллера с прошивкой — функции прошивки были вынесены в драйвер. Это позволило сильно снизить стоимость всего устройства. Нечто похожее происходило с принтерами и raid-контроллерами (software raid).
Как думаете, стоит ли ожидать подобного и с ssd дисками?
Они произвели фурор до тех пор, пока их не потрогали ручками, и не начали плеваться. Эвон какая невидаль, мой Windows 98 нашел неизвестное устройство, требует драйвер, и предлагает мне выйти в интернет, чтобы поискать этот драйвер. С Линуксами тех годов все еще хуже было.
Плюс ко всему, на нестабильных телефонных линиях (а таких наверное 90% на планете Земля), связь постоянно обрывалась, сказывалось отсутствие аппаратного реалтаймового DSP.
Программный рейд, сами понимаете, работает как говно, и крашится так же само безвозвратно.

Так что мне страшно представить что будет с SSD, если их сделать программными.
Да и незачем. При современной стоимости микроконтроллеров в 1-2 бакса, особо SSD-шник это не удешевит, зато снизит скорость, убьет совместимость, упростит работу вирусне.

Гораздо более лучшая идея, научиться делать очень очень энергоэффективную ОЗУ (уже вроде есть наработки) и рядом с банками памяти размещать небольшой аккумулятор (а лучше два, взаимозаменяемых), которого хватит скажем, на 2 года сохранности данных.
Убьем одним выстрелом двух зайцев — забудем о лимите перезаписи, увеличим скорость на много, и сделаем диск динамическим, поскольку при добавлении модуля памяти (если железка будет позволять это делать) — контроллер будет рапортовать реальные данные по объему, а не зашитые в него заранее. Ляпота в общем.
Реализации RAID 7.X — сплошь программные, и запросто переплёвывают всякие хардварные решения.
Не переплевывают.
Впрочем давайте определимся, что такое «программный» RAID? Так или иначе запросы обрабатываются программой. Но имея в виду «аппаратный RAID» мы подразумеваем, маленькую программу на килобайты, которая находится в маленьком ПЗУ маленького микроконтроллера, и заточена на вполне определенные действия, и практически неспособна «повеситься».
Программный RAID обрабатывается на уровне ОС, соответственно нигде кроме нее не работает, привязан к фичам этой ОС (и багам кстати тоже), соответственно работает медленнее, поскольку реализовывается при помощи того же CPU который помимо всего, обрабатывает ваши вкладочки в Google Chrome, рендер в 3dMax, да и в принципе неспособен загружать эту ОС без дополнительных костылей.
С SSD — то же самое. Гораздо проще, быстрее, надежнее, подать NCQ-очередь в интерфейс и забыть о ней. В свою очередь, контроллеру проще настроиться только на обработку очереди и выдачи ответа, чем заниматься не нужной фигней, из-за которой он часто будет во фризе, да и вообще зависнуть может.
Бегло перечитал. И я надеюсь, вы не серьезно:

> Intel Xeon E5-2660v2, 24 Гб памяти + контроллеры LSI SAS HBA 9207-8i
> 77,4 (MBps, запись 4к блоков)

Они там реализацию на bash писали что ли?

А если без шуток, то они не переплюнули хардварные решения. Расширили — да. Ценой цены.
контроллеры там для работы с SAS дисками,
типичная скорость работы харда — для 4к блоков 10-50 мб, и при последовательной записи это никак не перешагнуть — не параллелится- размер блока на харде и так 4к.
именно что переплюнули хардварные решения начинают жутко тормозить когда отваливается диск, или надо делать ребилд массива, они добились того что при ребилде никакого падения скорости нет.
Ну скажем так, аппаратные решения от NetApp не тормозят. И стоят соответственно.
Решение приведенное по ссылке — не совсем «честный» программный рейд, поскольку он построен на отдельном девайсе, еще и нефиговой такой конфигурации. Я бы назвал его скорее «навороченным аппаратным RAID».

Так или иначе, они взяли за основу готовую ОС не реального времени, с готовым ядром и его вызовами, а чтобы нивелировать высокую латентность и простои системы IO из-за планировщика задач — используют 10-тиядерный х86 с 25 Мб кеша.
Наверное 75% того, что делает прошивка в аппаратных массивах, они возложили на плечи готового софта.

Знаете, это как неудачная логистика транспортной компании, которая вместо того чтобы оптимизировать пути следования своих грузовых автомобилей — решила нанимать самолет, в 100 раз дороже, зато быстрее и эффективнее.

Ребята молодцы, если нашли способ впаривать ЭТО, но поймите, что вы не доказали что ПРОГРАММНЫЙ RAID БЫСТРЕЕ, вы всего лишь привели пример линейной зависимости быстродействия программного RAID от скорости ПК на котором он работает ;)
вычисления которые нужно проводить при ребилде массива + ещё и чтение и чтобы без потери скорости очень даже не маленькие они упёрлись не в простой, а в скорость работы SSE инструкций. Хотел было посчитать сколько каких операций надо на это дело но столкнулся с тем, что не до конца понимаю работу кодов рида-соломона. а разбираться на ночь глядя чёт не охота.
Вся современная ОЗУ объёмом от гигабайт — динамическая, с периодическими рефрешами. Среднее энергопотребление маленькой планки памяти порядка 20 мА, т.е. для хранения информации в течении 2 лет понадобится «небольшой аккумулятор» ёмкостью порядка 350 А*ч, это минимум сотня самых ёмких аккумуляторов размера 18650. И чем больше объём памяти, тем больше затраты энергии на рефреш.
Для этого есть стандартные дрова и спецификации, которых серьезные фирмы придерживаются. Вон камеры логитека до сих пор можно воткнуть в любую ОС без дров — они отрабатывают на стандартных, по спекам. А тот же школогениус без дров нигде не работает — нарушили спеки, сэкономили на сжатии.
Просто не бери школожелезо, и весь вопрос.
С принтерами та же хрень — HP работают везде, Epson — нет.
Это вы так думаете. Вы говорите «стандартные дрова» а подразумеваете «дрова под Windows», и это не есть «стандарт», это есть монополия.
Спецификации здесь не помогут. Ну сделаете вы принтер, ну выложите вы спеки, и молодцы. Никто не купит у вас этот принтер, пока вы сами не выложите под него драйверы. Сделаете только под Linux, и покупать его будут только линуксятники. Сделаете под популярные ОС — и обеспечите этому принтеру популярность.
Есть базовые методы, которые в принципе придуманы давно, на которых основана работа всех популярных девайсов: Ethernet, ATA, UVC и многие другие. Ваша GTX260 под DOS тоже будет показывать видео. А вот как только шаг вправо-шаг влево — появляются нестандартные решения, пропихнуть которые в мейнстрим может и не получиться. Даже при условии если спеки на них будут в открытом доступе.
Программная реализация принципов работы SSD — просто не имеет смысла, хоть и очень легка в реализации, cпеки ATA — в открытом доступе, его запросто можно программно эмулировать. Спеки шин — тоже.
Только тормозить эта хрень будет нереально (кстати так же как и Winмодемы тормозили сами, и тормозили ПК). Вы сами можете воочию увидеть как «реализация RTM через жопу» мешает работе — на примере Raspberry PI — попробуйте комфортно поработать, если что-то копируете по сети. А ведь это еще даже не софтовая реализация, это всего лишь «Ethernet over USB».
А главное, что овчинка выделки не стоит. Прошивка — одна на все устройства. Сам микроконтроллер стоит копейки. Впаять его можно за минуту, даже в домашних условиях при наличии паяльной станции. И можно отнести поломанное ЭТО — продавцу по гарантии, и не услышать в ответ «Почистите куки / Поменяйте браузер / Переустановите Windows итд».
Имхо, программная реализация SSD — НЕ НУЖНА.
Думаю нет, резко снизится надежность и скорость работы. В случае принтера и модема ошибки не влияют по сути на устройство. Soft-raid обычно хуже встроенного. Контролер по сути небольшой специализированный компьютер, в котором и память и процессор имеются. Эмулировать его средствами ОС не выгодно.
Угу, смахивает по «эффективности» на программный рендер в сравнении с аппаратным.
Кстати хороший пример вы воткнули в процессе сарказма.
Майнинг (по сути рендер) биткоинов на специализированной платформе (которая жуть какая тормознутая в повседневных задачах) не зря работает намного эффективнее, чем на ПК ;)
Напротив, скорость даже подрастет — исчезнет лишнее звено в цепочке. Дрова же оверхеда не дают, они ничего сложного не делают, просто указывают механизму DMA по какому адресу сложить данные, это один лишний запрос в памяти перед записью 4кб блока.
Звено останется, просто всё, что делал раньше контролер придется делать системе на ЦП, что к этому не приспособлена. Не зря везде есть термин хардварное ускорение, так как ЦП может делать в принципе всё, но специализированный быстрее и эффективнее.
Дрова оверхеда может и не дадут (хотя тут можно поспорить, ибо у процессора инструкций поболее будет).
А вот с процессорным временем будет посложнее. Микроконтроллеры не зря работают в жестком реалтайме, при чем иногда даже этого недостаточно, и приходится добавлять некоторые высокоскоростные буферы на несколько десятков кадров, дабы информация не потерялась если лагает микроконтроллер.
Не совсем понятно, как процессор заставить обрабатывать ЭТО в многозадачной среде. Простите, но у вас либо IO будет жутко лагать, или отзывчивость системы будет падать в моменты чтения\записи (а это почти всегда).
Создатели всяких локеров и троянов-шифровщиков были бы счастливы.
о-о-о-о...!!! софт-модем… сколько воспоминаний о этом нереальном геморрое…
Особенно пользователей впечатляла метода дозвона, когда по прерыванию ВСЕ процессы замораживались, пока шла процедура ре-инициализации релюшки…
Эти забавные кваканья в колонках при проигрывании музыки, замерший курсор мыши… непредсказуемое поведение софта…
А эти забавные глюки, когда драйвер подтекал, и необходимо было перезагружаться… а некоторые модемы ещё и сами были нестабильны в работе, и на 5-10 попытке дозвона висли наглухо. О...! 20 перезагрузок за полчаса…
А эта своеобразная «любовь» драйвера и модема как железки… или «любовь» драйвера и какого-то софта… эх…

Я бы не рискнул пользоваться такой штукой, рискуя записать гигов 20 фоток «в никуда» из-за глюка в памяти.
Как то столкнулся с программным рейдом на java с одним винтом. Было весело.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий