Pull to refresh

Comments 45

приводы, стриммеры, принтеры и даже сканеры (LPT порт был слишком медленным для работы цветных сканеров высокого разрешения).

Что значит даже? Для полиграфистов года эдак до 1997 SCSI только со сканнерами и ассоциировалась :)
Да, я помню как я не мог на работе поменять винду 98 на 2000, потому что к компьютеру надо было подключать скази сканер, а драйвера не было. Потом все таки нашел дрова и поставил вин 2000.
Интересно, можно ли использовать SCSI-сканер как загрузочное устройство? Живо представил себе альбом загрузочных открыток
мы когда-то думали о передаче данных через связку принтер+сканер+ридер. ну так, чисто поржать
SAS при особом умении можно использовать для передачи данных ;))
мы про это году в 2003 думали :)
Очень низкие задержки и широкая полоса — 24Гбит/с в каждую сторону. Но нужно писать свои драйвера.
Рука автоматически потянулась за распознавалкой QR-кодов в телефоне. Но, ведь, не сработает же. А жаль. :)
Угу, судя хотя бы по надписи "© Vladimirovich, Штурман" в правом нижнем углу.
Самый что ни на есть оригинал. Обратите внимание на знак © в левом нижнем углу.
Пишут, что способные видеть 3D-рисунки видят на этом «загрузочном листе» фигуру Гейтса.
Нет, Гейтса там нет. Как и парусника в фильме «Mallrats» :)
95 вроде так бутали
А FibreChannel до сих пор стоит эпических денег, несколько килобаксов за 16-портовый коммутатор.
Я так подозреваю, что там все завязано на патенты и лицензирование, и поэтому вход на этот рынок очень дорог. Уже имеющиеся игроки рынка работают только на enterprise-сегмент.

Я давно в этот рынок не заглядывал, может, уже появились какие-то SMB-решения на FC? Или SMB достаточно iSCSI?
SMB и на iSCSI неплохо живет, учитывая, что 10G сейчас уже себе может даже некрупная компания позволить, не что что провайдер. Ну а поверх него уже может жить хоть ZFS, хоть NFS, хоть вообще какое-нибудь мелкомягкое хранилище.
10GbE всё же дороговат, врядли в SMB готовы отдать 400к за один коммутатор.
Какие еще 400к? DGS-3420-52T 62 352 руб. по яндексу (он еще и офисную сетку разрулит). Плюс SFP плюс карточки… Даже так выйдет ну 200к, ну 250. Если компания дозрела до 10G, то это вполне подъемные деньги
DGS-3420-52T — гигабитный.
Впрочем, к нам уже доехали Dell PowerConnect 8132, стоящие чуть около 10 килобаксов. Но всё равно это намного дороже SAS, а если на нём собирать ещё и офисную сетку, то нужен второй для фейловера.
Есть коммутаторы SAS. Как раз для веб и смб.
В отличие от LSI, всегда плотно работавшей с OEM-каналом

Угу:
image
«Интенсивность запросов изображения превысила допустимый лимит. Изображение временно отключено».

Radikal.Ru не подходит для употребления на Хабрахабре. Используйте Habrastorage, или TinyPic, или какой-нибудь другой хостинг картинок, не имеющий ограничений по числу зрителей их.
Да я в курсе, ещё бы хабрасторадж перестал играть в несознанку и стал меня узнавать…
Скорее всего у вас не передается заголовок Referer, включите для домена «habrahabr.ru» чтобы отдавался Referer, т.к. habrastorage.org/ подключает js «habrahabr.ru/whoami/», а там отдается код только если есть заголовок «Referer: habrastorage.org/»
Уговорил наконец Хабрасторадж похостить мне картинку

Хотя она уже всё равно никому не нужна =\
Да, а сейчас HP контроллеры не у нас OEM-ит. Только HBA.
Кстати о птичках: P400 и P800 можно под обычный LSI перешить?
Мне пока никто не рассказывал. Супермикру успешно перешивают.
Эх, на параллельном SCSI можно было делать такие замечательные кластера для нищих. На SAS уже не сделаешь так…
Ждите, скоро сделаем. Июль этого года.
Если вы о передаче данны через SAS, то это уже было давно. Посмотрите патч IP over SCSI.
Я же про несколько другое — общая шина для разнесенных дисков.
Я про замечательные кластеры для нищих. Это будет называться Syncro CS. Два рейд-контроллера со специальной прошивкой в разных серверах подключенные к одному JBOD по SAS. И поверх всего этого безобразия Windows или RH-Linux. Оно? Я планируют статью про это написать.
10 лет назад это решалось просто.
1 На SCSI контроллерах устанавливались разные id (пусть 4 и 5) и отключались терминаторы
2 Контроллеры (каждый стоит в своём компе) соединялись стандартным SCSI шлейфом через внушений разъём который расположен на планке крепления платы.
3 Диски тоже имели разные id (пусть 3 и 6) и подключались шлейфом к внутренним разъёмам контроллеров.
4 Если диски не могли автотерминироваться то еще навешивались терминаторы.
В итоге получали схему (скобками обозначены компы)
(T<->3<->4)<-ext->(5<->6<->T)
Ву-аля!
Ни каких прошивок и даже лишнего железа окромя одного шлейфа… Кластер поддерживался для примера под NT4 Life Keeper.
Единственный недостаток что нельзя ни чего разбирать на ходу. И расстояние не слишком больше можно было делать между узлами. А так выключил узел включил узел все работает.
Предполагаю, что ни RAID ни writeBack кэш не работали. Сейчас все красивей будет. И луны можно будет делать и выделенные и шареные.
У меня до сих пор, с 2005 года, работает сервер с RAID контроллером на чипсете LSI53C1030. А вы говорите история ;)
8 лет для железа — это уже дедушка ;))) долгих лет :))
У меня был старый-старый 1gb/s storage от LSI когда я админом работал. И Xyratex FC тоже 1gbit/s с полноразмерными 3.5'' дисками FC если кто знает что это такое. То есть они в два раза толще были чем стандартные 3.5''.
Но почему он продолжает жить? сата 600 намного дешевле при условии что медленней ненамного
UFO just landed and posted this here
Sign up to leave a comment.

Articles