Как стать автором
Обновить

Комментарии 97

Берем ДНК человека, переводим в цифру и загружаем в ПеКу => Хаттабыч во плоти.
}{отт@бь)ч В оригинале было так.
В такую ПЕККУ?
http://ru.clashofclans.wikia.com/wiki/%D0%9F.%D0%95.%D0%9A.%D0%9A.%D0%90
Фига себе у чувака с 1-го видео комп. 40 процессорных ядер на одной машине и какое-то космическое количество оперативы. Конечно, на таком карт-ридере данные с ДНК неплохо расшифровываются :)
через десять лет такая мощность будет в каждых часах
*смотрю на бенчмарки Sandy Bridge от 2005 года *
*смотрю на бенчарки Kaby Lake 2017 года*
ну хз, за 12 лет не так и выросла производительность.
Оооо… Бэнчмарки от 2005 года на архитектуру 2011?
2005 год — это эра Prescott. Производительность выросла в разы — пропорционально количеству ядер. Не считая расширений наборов команд.
Оооо… Бэнчмарки от 2005 года на архитектуру 2011?
2005 год — это эра Prescott.
да кого вообще волнует архитектура, это большинству вообще не интересно.

Производительность выросла в разы — пропорционально количеству ядер
Всё еще повседневные приложения не используют все ядра.
Скорость исполнения инструкций повседневных приложений может и выросла в раза два, не более, если судить например по скорости билда MS VS, но не в десятки раз как нам втирает «закон» Мура.

Производительность под какие то специфические приложения может и выросла в десятки раз.
Во-первых, кого вообще интересуют повседневные приложения? Производительность выросла в десятки раз, а то, что «повседневные приложения» ее не хотят или не умеют использовать — это не проблема вычислительных систем. У меня, например, сборка мира идет в 8 потоков и грузит мой i7 на 100% или близко к тому.
Во-вторых, мне гораздо интереснее, как товарищ видел бенчмарки 2005 года на архитектуру 2011.
Я тридешник и вот лично для меня скорости выросли даже не в десятки раз, а больше. В 2005 у меня был еще гигарцевый Дюрон от АМД и 256 мег памяти.
Сейчас у меня i7 на 6 ядер(и 12 потоков) с частотой 3,6 и 16 гиг оперативки.
Тогда мне отрендерить картинку 1024х760 была мукой на час.
Сейчас я за 20 минут рендерю А3 формат.
И это если смотреть только через призму процессорной мощности.

А если взять видекарты то там рост в тысячи раз. Кроме умопомрачительных игр, теже видеокарты сейчас можно использовать для рендеринга, так вот то что я рендерю на своем процессоре А3 формат 20 минут, на одной GTX 1080 я отрендерю минуты за две.
По себе людей не судят.

Это я к тому, что априори кастрированный Duron на гигагерц — это начало нулевых, а не 2005. 256 мегабайт памяти — тоже ни разу не 2005 год.

Короче, равнять в лоб рендеринг на топовой видеокарте с рендерингом на офисном полукамне — отдаёт чем-то не совсем приятным.
ну припустим в 2006 у меня был двухядерный пень на 2.4 и 2 гига памяти, но особо это не меняет картину.
И мы тут не про камень говорим а про прогресс, вычислительная мощность это не только процессор это разные ее части, суперкомпьютеров собраных на видеокартах довольно много и занимаются они колоссальными просчетами. Не учитывать и эту сторону развития нельзя.
Я не знаю от лица какой группы лиц вы сейчас говорите что вы обсуждаете в ней, но здесь, вроде бы, обсуждается тезис того, что через десять лет в абстрактных часах будет 256 гигабайт оперативной памяти (зачем?) и 40 вычислительных ядер (для чего?).

Опять же, я лишь заметил, что ссылаться на собственный опыт „у меня было” — вообще некорректно, т.к. по вашему ответу мне можно сделать вывод, что за год объём памяти вырос в восемь раз, а тактовая частота — в пять. Хотя это чушь собачья.
Закон Мура ничего не говорит о производительности. Он говорит об экспоненциальном росте количетва транзисторов.
НЛО прилетело и опубликовало эту надпись здесь
Как же испохабили слово гуманитарий…

Раньше, гуманитарий это был человек, который знал (хорошо) несколько иностранных языков, отлично разбирался в литературе, мог сходу выложить аналитику текста по грамматике и по семантике. А сейчас — прям ругательство какое-то.
ОК, за 6 лет получается. Не так сильно и выросла.
За 5 лет — (янв.2011, i7-2920XM — май 2016, i7-6950X) количество ядер выросло от 4 до 10, т.е., в 2.5 раза. Теперь берите эти же 10 ядер и умножайте на 2.5 * 2.5 (5 лет + 5 лет). Сколько ядер получили?

Человек, конечно, несколько утрировал, но по сути он прав. В 1991 году я трогал руками Искру-1030 с ее 512 оперативки и думал, как хорошо было бы иметь такую гору памяти (в сравнении со спектрумом). В 95 году я, с 4Мб оперативки, читал журнал мурзилку (Компьютерру, что ли), которая говорил — для запуска новой версии автокада для тестирования надо минимум 16Мб, а для простых проектов — уже 32Мб, и не представлял, как же получить эти 16Мб. В 2000 я уже доставлял вторую планку на 128Мб. Так вот мощности компов что 91, что 95, что 2000 уже вполне умещаются в кармане в виде телефона и во всяких смарт-часах. Через несколько лет удивление от увиденных 40 потоков вычислений сменится пренебрежением.

Очень сомневаюсь, что через несколько лет… Везде есть предел, когда дальше просто нерентабельно. В 90-х и 2000-х тактовая частота росла экспоненциально, и вы также полагали, что через несколько лет мы не будем удивляться 10Ггц? Но мы от них так же далеко как и 10 лет назад. Тоже самое и с ядрами. До 2009-2011 росло довольно быстро, но последние 3-4 года ничего почти не меняется (имею в виду пк). В общем вряд ли в ближайшие 5-10 лет 40 ядер станет обычным делом...

В 2000-м я продавал компьютеры и полагал, что этот бизнес просуществует еще пару-тройку лет, после чего наступит насыщение рынка. Не наступило. 650МГц, которые у меня были на тот момент, хватало практически на любые задачи, не было потребности в 10ГГц. Сейчас потребность есть, ее решили просто — взяли 6 ядер по 3.5 ГГц — вот тебе и суммарная производительность на уровне 10ГГц на одно ядро. Да, есть физическое ограничение. Будем думать, каким грязным хаком его обойти.

Что касается «не меняется». Какой самый распространенный интерфейс для SSD был три года назад? Какой сейчас? Насколько GF 1080 мощнее и экономичнее 980? В последние пару лет активизировались технологии виртуальной реальности. С совершенствованием технологий будет возникать потребность в новых вычислительных мощностях для массового рынка как минимум для того, чтобы обеспечить такое же качество картинки, которое имеем сейчас, на оба глаза. 4 года назад я гордо сообщал, что у меня 100Мбит безлимитного интернета и первый вопрос был — а зачем тебе так много? А сейчас я думаю, не переключиться ли на более быстрый тариф. Все должно развиваться параллельно, постепенно.

В общем вряд ли в ближайшие 5-10 лет 40 ядер станет обычным делом...

10 лет — это огромный срок для наиболее востребованной отрасли человеческой жизни, коей на текущий момент (несомненно для меня) является вычислительная техника. Гадать можно сколько угодно — возьмут и реализуют обещанные оптические процессоры и будут смеяться на нашими 6-ю ядрами — ведь гораздо эффективнее одно ядро с частотой 40ГГц. Но то, что изменения будут и будут значительные — я могу гарантировать. Не верите? Давайте проверим…

Полностью оптический компьютер или квантовый у нас дома через 10 лет? Люди склонны завышать ожидания от технологического развития. Помню после просмотра фильма 5-ый элемент, я думал лет через 20-30 так и будет: машыны будут летать и т.д.


Кремниевым полупроводниковым процессорам еще есть куда развиваться. Например кеш памяти — думаю за этим следующая гонка производителей процессоров. 10-16 ядер по 4-5 Ггц с кешем 1Гб и оперотивкой 64-128 Гб ну и видюхой какой-нибудь HBM4 — таким я вижу обычненький пк через 10 лет. И этого будет достаточно. Зачем больше то? Для чего?

Человек, ты совсем не способен читать буквы?
Гадать можно сколько угодно — возьмут и реализуют обещанные оптические процессоры

Где написано про «Полностью оптический компьютер или квантовый»? Более того, это одно из предположений. Не получится оптические — реализуют другие. «То, что изменения будут и будут значительные — я могу гарантировать». Для чего больше чем 64 Гб (это, кстати, то, над чем я думал 3 года назад — не смог установить больше 32 ввиду ограничений чипсета) — я тебя уверяю, придумают.

Тем не менее даже до электронно-оптического процессора в наших пк еще далеко. Да и не особо нужно. Так как это слишком дорого, даже для коммерческих целей. Дешевле будет перейти на производство 5нм процессоров. О начале новой эры и технологиях будущего слышу уже много лет. На хабре в заголовках каждую неделю начинается новая эра. Когда пк позволят играть с погружением в виртуальную реальность, с разрешением 4к, 100fps, с хорошей глубиной цветов и тд. — это будет предел для пк. Куда мощнее если человек не способен будет увидеть разницу? Так же как разрешение экранов подошло к пределу. Эдакая технологическая сингулярность наступит лет через 10-15.

Человек, ты способен понимать буквы? Оптический процессор, еще какой-то новый процессор — это предположение!
Гадать можно сколько угодно

Сколько еще раз тебе повторить? Ты привязался половине предложения, забыв про его начало. Когда пк позволят игратьс разрешением 4к, тогда пойдут к 8к, к увеличению количества полигонов, к обсчету каждого листика на дереве итд. Ты думаешь что, достигли 4к ультра-супер-пупер и все, остановили разработки? Ха-х.
Никто не говорит о новой эре. Прогресс от 8080 до Katmai — это новая эра? Прогресс от Katmai до Core2duo — новая эра? От Core2duo до i7 — новая эра? Нет никакой новой эры, есть развитие. И на текущий момент я вижу, что микропроцессорная техника развивается наиболее интенсивно. 40ядер — новая эра? Тебе на видео показали, что 40 ядер — текущая реальность, о какой новой эре ты говоришь.

Посмотрим через 10 лет :)

От intel 4004 до нынешних процессоров — всё одна эра кремниевых полупроводниковых процессоров. Новая эра — это новый тип: оптический, квантовый, биологический или еще какой-нибудь.


4к потом 8к, а дальше 16к? Вы 4к шлем одевали? Возьмите телефон с разрешением 4к и попытайтесь разглядеть там пиксели. Без лупы никак. Поэтому вы не увидите разницы между 4к и 8к. Предел человеческого глаза 350-400 dpi ( точно не помню — гуглите сами). Ну и обсчитали вы каждый листочек на дереве, а дальше что? Всё! До такой графики и осталось лет 10. И с ней справятся всё теже электронные пк, и без 40 ядер.


Я говорю про рентабельность. 40 ядер, оптический или квантовый компьютер — никогда не понадобится обычному пользователю (для игр, сёрфинга, просмотра кино..) пк дома. Поэтому и производить их массого никто не будет. Кому надо тот и сейчас воткнёт себе и 80 ядер, и тонну оперативки — это и ежу понятно. Просто обычным делом — это не будет. Через 10 лет точно. Готов поспорить.

У меня все хорошо со зрением. Я вижу разницу между FHD и 2k телефоном. Телефон 4к, к сожалению, в руках не держал. В VR BOX отлично вижу пиксели на телефоне 2k. Не просто вижу, а отлично вижу, с непривычки они даже раздражают. Т.е., если мы говорим о 4к на один глаз, то на два глаза надо 8. И то, на 4к/глаз, подозреваю, пиксели будут отчетливо видны. 4k шлем — это какой? Окулус я надевал, разрешением не интересовался. Пиксели видел. Далее мы берем панель с диагональю 6 метров (стена комнаты) и делаем такое разрешение, чтобы с метра изображение на стене выглядело красивым. Сколько точек надо? Вам не нужна такая игрушка? И мне не нужна, а наши дети будут убеждены, что без сменных обоев жить нельзя.

Сколько листочков обсчитывает современный движок? А тот гипотетический движок из будущего будет обсчитывать каждый листочек, учитывая не только динамическое освещение, но и силу ветра, массу листка, упругость веточки, и то, что один листочек закрывает другой.

А про «никогда» — это вы правильно заявили. Люблю такие заявления. Сразу вспоминаются «цитата» от БГ про 640к…

Новую эру предсказываете Вы. Я заявил прямо: " Через несколько лет удивление от увиденных 40 потоков вычислений сменится пренебрежением". Поищите. Все остальное с моей стороны: «Гадать можно сколько угодно». Прогресс будет и я это знаю. Не может не быть. Куда расти (хотя бы с точки зрения реалистичности компьютерных движков) точно есть.

VR-шлемы с системой отслеживания движений глаз. Пусть даже 8к. Все равно предел есть и он близок. Я не говорил, что рости уже совсем некуда, пока есть, но лет через 10-15 уже будет некуда. Именно в персональных компьютерах, самых обычных пользователей. Про другие ничего не говорю — там понятно всё будет развиваться. И квантовые и биологические. Для того же ИИ.


В общем до встречи через 10 лет. Покажете мне свой 6-метровый телек с разрешением 32к.

Не понял где это там видно. Но вообще 2е видео с декодированием архива из днк-кода сделано на MacBook Air с процессором 2.2GHz Intel Core i7 и 8 ГБ памяти. Заняло это 9 минут.
Кодирование (создание архива) в отличии от классических архивов наоборот быстрее чем распаковка — 2.5 минуты на том же ноутбуке.

А 40 поточная машина это сервер Amazon Cloud на котором они разные варианты кодирования тестировали, чтобы быстро сразу кучу вариантов перебрать и сравнить.

Можно такой же в аренду дистанционно всего от 0.5$/час работы взять: m4.10xlarge = 40 потоков, 160 ГБ памяти
Вот интересно, если взять какую-нибудь «природную» ДНК и попытаться прогнать её на распознавание, что получится… И увидим ли мы «комментарии» в коде?
Индусский код там будет, да и сложно будет воспроизвести среду программирования для ДНК языка.
Там будут те же самые ноли и единички, которые без ключа не расшифровать (даже если бы и было что).
Дык сделали уже — «Геном Человека». «Комментариев» не обнаружили. Тут вся проблема в «распознавании». Что распознавать? Что искать?
Если не увидим, это не будет означать ничего. Исполняемый код — не то место, где логично искать комментарии. За редкими исключениями вроде известного «Лёха, Лёха, ты могуч».

Наоборот. Накодить троянчик в ДНК, засунуть в клетку и поместить в питательную среду. И посмотреть что вырастет.

/* A eti geny nado by ubrat nahren. Archangel Gavriil */
НЛО прилетело и опубликовало эту надпись здесь
В каком-то фильме про супермена в нём так закодировали жителей всей его планеты…
ага, или ходячие флешки. А так, да, тема обширная, как для серьёзных мыслей, так и для каналов типа РенТВ или СТС
Надо поздравить хабравчан-авторов Колибри. Их операционка все-таки вошла в историю, пусть и не так, как они могли предполагать :)
Она и по-другому вошла в историю. Её железнодорожники применили для скоростной обработки видеопотока. Не помню, с какой именно целью, что-то из области дефектоскопии.
Если не ошибаюсь, для дефектоскопии контактной сети.
Вспомнил, именно так.
Какой смысл записывать KolibriOS, потом считывать ее и запускать на виртуальной машине?
Ну я еще могу понять, зачем связываться с «реальными» данными, а не нагененрить их рандомно (может так они проверяют надежность записи данных с определенной энтропией). Но запускать OS на виртуальной машине? Зачем? Это единственный способ убедиться, что прочитанные данные те же что были записаны? Какой-то дешевый пиар.
Чтоб журналистам понятнее было
НЛО прилетело и опубликовало эту надпись здесь
Одинаково. Интересы обывателей гораздо обширнее котиков и фермеров.

Я б не сказал дешёвый. 9 килобаксов, однако :)

Было бы интересно использовать днк некоторого организма в качестве ключа шифрования…
Так используйте, в чём проблема? Геномы доступны (23214 штуки на сегодня)! Но зачем?
image Глянь как Яндекс.переводчик перевёл… протИстуют…
Вот и приоткрылся смысл существования жизни…
Интересно, а так что то кодируя в ДНК, есть какая то возможность что сгенеренный ДНК в конце вырастит в что ядовитое или зубастое и потом расплодится и убьет человечество… ну типа не получится какой то злой вирус или микроб?
Во первых там живого организма вроде как нет, во вторых там вероятность думаю примерно такая же как создать компьютерный супервирус стуча по клавиатуре головой.
То есть вероятность есть…
Что-то там было про обезьян и пишущую машинку…
Жать что пока нельзя реализовать идею о генной памяти.
Когда у человека уже будут после рождения и по мере развития в голове появляться необходимые знания.
Которые уже неактуальны.
99.9 процентов — этого явно недостаточно. Интересно, какой алгоритм коррекции ошибок они использовали (если использовали) и каков характер ошибок (если выпадает целый монолитный кусок данных, например, то это уже проблема).
если выпадает целый монолитный кусок данных, например, то это уже проблема

почему же? Достаточно коды коррекции равномерно по всему геному размазать, типа как RAID5 работает.
Ну я ж не говорю «нерешаемая проблема» :) Просто интересно, что они делали и что еще предстоит сделать для получения достаточной надежности.
НЛО прилетело и опубликовало эту надпись здесь
Ну так вопрос как раз в том, использовали ли они коррекцию ошибок. Т.е. если они использовали какой-либо алгоритм и в итоге всё равно получили 99.9 процентов либо 99.9 — это просто надежность чтения. После перечитывания мне показалось, что коррекцию не использовали, но кто знает.
Там же написано, что для кодирования информации использовали фонтанные коды
Это не система коррекции ошибок, а кодирования, позволяющая считывать данные в произвольном порядке мелкими кусками. Но за счет избыточности (примерно 10% — 1.6 бит полезной информации на 1.8 бит «сырых» данных) количество ошибок снижается где-то на порядок.
«Аппаратный» уровень ошибок(непосредственно чтения) проскакивает на видео и есть в оригинальной статье — около 1-3% нуклеотидных последовательностей прочитано с ошибками и забракованы.

Но помимо этого у них и система коррекции ошибок была — по 2 байта (16 бит) избыточной информации на каждый пакет из 32 байт полезных данных (Код Рида-Соломона). За счет них все файлы были восстановлены со 100% точностью, несмотря на аппаратный уровень ошибок в несколько %.

Agilent Technologies in Santa Clara, California, synthesized the strings and shipped them back to the researchers, who were able to reconstruct all of the files with 100% accuracy.

In practice, decoding took ~9 min with a Python script on a single CPU of a standard laptop (movie S1). The decoder recovered the information with 100% accuracy after observing only 69,870 oligos out of the 72,000 in our library (fig. S10). To further test the robustness of our strategy, we down-sampled the raw Illumina data to 750,000 reads, equivalent to one tile of an Illumina MiSeq flow cell. This procedure resulted in 1.3% oligo dropout from the library. Despite these limitations, the decoder was able to perfectly recover the original 2.1 Mbytes in 20 of 20 random down-sampling experiments. These results indicate that beyond its high information density, DNA Fountain also reduces the amount of sequencing required for data retrieval, which is beneficial when storing large-scale information.


Откуда журналисты взяли 99.9% не понятно. Наверно как обычно бредят.
Спасибо за пояснение. Безусловно, я мог найти эту информацию самостоятельно, но как-то хотелось её увидеть в статье)
Вот здесь я просто не могу не процитировать Уоттса, меня подмывает. :)

Nowadays it seemed like half the technical data on the planet were being stored genetically. Try sequencing a lung fluke and it was even money whether the base pairs you read would code for protein or the technical specs on the Denver sewer system.
А что по поводу размагничивания хранения данных в ДНК? Через 10 лет прочитается?
По мнению исследователей, ДНК – идеальная среда для хранения, поскольку она ультра-компактная и может сохранять свои свойства сотни тысяч лет, если обеспечить соответствующие условия хранения. Об этом свидетельствует недавнее восстановление ДНК из костей 43-тысячелетнего предка человека, найденного в пещерах Испании.
Как я понял, восстановили многократно повторяющуюся цепочку, а не уникальный контент, сохраненный в множестве цепочек...?
Вообще, белки же разлагаются со временем?
ДНК — не белок. Всё разлагается со временем.
Многократно повторяющуюся это потому что перед чтением ее размножают. (ПЦР реакция)

А так изначально была только одна копия, которую синтезировали по сгенерированной цифровой последовательности и передали на обратную расшифровку. Точнее в образце было 72 тыс. коротких кусочков ДНК по 200 пар оснований в каждом, при минимально необходимом количестве для хранения такого объема информации около 50 тыс. подобных кусочков.
НЛО прилетело и опубликовало эту надпись здесь
Если эта опасная технология станет дешёвой и распространиться, то любой желающий террорист сможет записать код вируса. А вирусу для заражения достаточно одной лишь ДНК.
Для этого, нужно долго учиться… любому желающему террористу бомбу сделать проще… или готовыми вирусами воспользоваться.
Собственно говоря, за исключением ретровирусов, вирусу для заражения не нужно ни одной ДНК.
По просьбе уважаемого Idot публикую наш диалог в личке.
@Idot: А что мешает при общедоступности технологии напечатать «ретровирус»?

Я: Да и обычный РНК-вирус вроде ничто не мешает.
За исключением порога входа в профессию, конечно. Я не то, чтобы спорил с вашим утверждением: оно мне не очень нравится, как идея — но пока аргументов против у меня не набирается. Я скорее поправлял фактологию.

Idot: А зачем «вход в профессию»?
Что воспользоваться пишущим DVD не нужно быть ни программистом, ни сисадмином, ни электронщиком. Необходимо и достаточно где-нибудь скачать вирус и отправить на запись.

Я: Кажется, один аргумент у меня нашелся. Нынешняя ситуация вполне позволяет примерно каждому получить и применить довольно много весьма неприятных химических веществ. Лично я в школьные годы из интереса синтезировал иприт (и потом долго думал, как его надежно и безопасно разложить — придумал таки). Тем не менее, никакого массового применения ХО мы не наблюдаем. Чуть ли не единственный случай у меня на памяти — это теракт в токийском метро.
Биологическое оружие, как показала практика, в частности японская во Второй Мировой, менее эффективно, и плюс к тому гораздо сложнее в обращении. Выше шанс поражения самого террориста, и много тяжелее добиться эффективного распространения. Вирусы вообще нужно приводить в довольно определенное состояние, свое для каждой категории, чтобы они смогли кого-то заразить, а не сгинули бесследно и бесполезно.

Idot: Дело не в эффективности, дело в доступности. Если из-за распространения такой технологии синтезировать вирус станет проще, чем достать компоненты для пояса шахида…
Вирусу (как минимум, подавляющему их большинству) кроме ДНК/РНК нужна ещё и белковая оболочка — капсид. Без капсида вероятность попадания ДНК в клетку минимальная. Но да, эта проблема решаема: никто не мешает синтезировать белки по уже существующей ДНК.

К тому же, доступность технологии, скорее всего, будет взаимозависима со сложностью откатить изменения. Легко создать вирус, но и антивирусный препарат (вектор, выпиливающий вирусный код из клеток, или натренированные имунные клетки) тоже будет, скорее всего доступен.
Рабочий вирус (имеется ввиду биологический, а не компьютерный в виде простого файла) по этой технологии в принципе не создать.
Тут информация хранится в виде коротких огрызков ДНК по несколько сотен пар оснований, а не в виде целой ДНК. Такого количества даже один приличный белок закодировать не хватит, не говоря уже о целом организме.
Простейший вирусы используют хотя бы несколько десятков белков и имеют генетический код в десятки тысяч пар оснований.

И для хранения информации сильно наращивать длину одиночного куска не имеет смысла — это обходится дороже (синтез сложнее) и увеличивается вероятность ошибок.
Наверно данные, записанные таким способом очень удобно потом копировать, поместить в бактерию, она все размножит. А копирайтеры будущего будут писать вирусы, которые ищут не лицензионные данные и удаляют их.
Для копирования ДНК цепочек давно изобрели ПЦР
И в этой работе они ее испытали — информация нормально считывается и после многократного копирования при помощи ПЦР.

Это страшный сон копирастов, у них нулей на калькуляторе не хватит считать «упущенную выгоду»:
Intotal the nine step amplication process has the potential to create 300 * 25^9 *2 = 2.28 quadrillion copies.
Интересно, какая скорость считывания/записи?
Скорость секвенирования ДНК. Медленно, короче говоря.
Нужно, наверное, привинтить какой-то интерфейс к рибосомам. :) Без средств быстрого чтения эта технология вряд ли выйдет за пределы лабораторий.
Но звучит многообещающе.
так рибосома тоже не ахти какая быстрая…
Рибосома занимается сборкой молекулы. Если похожая штуковина будет просто преобразовывать считанный код в электрический сигнал, дело пойдет намного быстрей.

Рибосома занимается синтезом белков — трансляцией. И скорость такого синтеза весьма невысокая, максимум пару десятков аминокислот в секунду. То есть синтез даже небольшого белка занимает минимум несколько секунд. Это примерно 20*5 бит/с — очень медленно. И этот процесс тоже происходит с ошибками.

Ну, там на «пропускную способность» влияет то, насколько быстро подцепится т-РНК с нужной аминокислотой.
А что-то я упустил, каким образом авторы пакуют 1.6 бит на нуклеотид? Это алгоритмовая упаковка нового фонтана...?
На пару нуклеотидов, которая в теории может хранить 2 бита информации (т.к. может принимать 4 разных варианта состояний).
На практике получили почти 1.6 бита на пару из 2 бит теоретического предела.
Да, спасибо, это я не внимательно спутал входной поток информации и выносимый алгоритмом. Вначале показалось, как здорово они ужали фонтанный алгоритм, что на него 0.2бита приходится..., потом я понял, что речь об общем потоке.
Скоро ГМО продукты будут снабжаться встроенными в ДНК рекламными роликами биотех компаний.
А на фермерских будет красоваться гордая надпись «Без рекламы!»
Тоже встроенная.

Вспомнился старый рассказ, кажется Курта Воннегута.
Там двое ученых (М и Ж) живущие в разных, сильно конфликтующих между собой странах, каждый в своей сверхсекретной лаборатории без доступа к сети переписывались кодируя сообщения в мусорную часть днк гриппа и ожидая пока штамм с сообщением дойдет до другой страны.
Потом они решили завести ребенка и М закинул в вируса код своей днк в качестве сообщения.

С восьмым марта вас!
Леонид Каганов, «Письмо Пауле»
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории