Pull to refresh

Comments 120

Первое поколение, в котором используют иммерсионную литографию, было почти завершено.

Не верится. Это можно было бы продать или пустить в работу. Думаю, это "почти" настолько большое "почти", что денег давать никто не захотел.

Там ещё проблема в том, что пока они это делали, крупнейший клиент (AMD) успел уйти к конкурентам, а продолжать вваливать сотни миллионов в разработку, которая никому не нужна — это действительно неправильно.

А к каким конкурентам? К Самсунгу? Если у них 7нм в более готовой стадии — тогда логично. А если нет — то 7нм это круче всего, что есть на рынке (коммерчески доступного), как это может быть никому не нужным? Или я чего не догоняю просто?

А что к TSMC ушло? Графические чипы (GPU) они и так с древних времен у них всегда заказывали. Еще когда GPU были ATI, не AMD.
А процессоры (CPU, APU) вроде никуда от GF не уходили.
Разве что SoC в частности кастомные чипы для игровых приставок уплыли.
А, ну т.е. это только речь о планах на следующие поколения чипов.

Тогда тут совершенно не ясно где курица, а где яйцо: толи GF сворачивают работу из-за ухода крупнейшего клиента(заказчика), толи это AMD уходит к TSMC из-за того, что GF все никак не может 7 нм родить.
Они то с учетом тесных связей между компаниями(когда бывшей вообще одним целым) о проблемах/внутренних планах знали наверняка за долго до того, как это было публично озвучено.
Всё так. Окончательные образцы в кремнии Zen 2 уже есть. И, видимо, они с TSMC.

Могу лишь предположить, что GF сроки завалила и AMD приняла решение переметнуться целиком. И GF пришлось сворачиваться из-за потери заказов.
Вспоминается одна психологически-экономическая задачка: проектируем самолет стоимостью, условно, 100 млн долларов. Уже потрачено 90, когда выясняется, что конкуренты нас опеределили: их продукт заведомо лучше и как минимум не дороже, и, главное, уже готов. Имеет ли смысл завершать разработку?

Нормальному человеку жалко потраченных средств и сил, но единственно выгодное решение — срочно закрыть проект, а оставшиеся деньги пусть на что-то, что принесет прибыл, в отличие от…

Не верно. Текущие разработки пойдут в следующие разработки. Если конечно нет идеи все продать и уйти на пенсию. TSMC как мне кажется не справится с выпуском нужного кол-ва кристаллов для видеокарт и ЦП и кучи других заказов.

Значит сможет лицензировать техпроцесс.
UFO just landed and posted this here

Но это не переводит все деньги в убытки. Иначе эти 90 млн. просто выкинули на ветер. Нужно использовать все, что можно из новых наработок. Вплоть до выкладывания таки оставшихся 10 млн. Нужно все считать, нет единого решения на все случаи.

Нормальному человеку жалко потраченных средств и сил, но единственно выгодное решение — срочно закрыть проект, а оставшиеся деньги пусть на что-то, что принесет прибыл, в отличие от…


В общем случае данное утверждение неверное, и как раз таки основанное на ошибочном психологическом восприятии. В подобной ситуации надо осознать что 90 млн УЖЕ выкинуто. Их нет и они не будут компенсированы.
Но при этом так же надо осознавать, что начиная с этой точки, стоимость разработки вашего продукта равна 100-90=10 млн, т.е. меньше в 10 раз. Либо вы инвестируете 10 млн и получаете продукт, либо не инвестируете и не получаете. Уже профуканные 90 млн — это просто некий исторический факт не имеющий отношения к дальнейшим инвестициям. И вопрос на который надо ответить — в том, будет ли отдача от этих вложенных 10 млн выше инвестиций (т.е. выше этих 10 млн, а не исторических 100). Если выше — то разумеется надо эти 10 млн тратить, ибо это будет прибыльно (или, что то же самое, это сократит потери ваших 90 млн на величину прибыли от этих вложенных 10 млн). А разработать продукт за 10 млн или за 100 млн — это очень большая разница, сильно влияющая на дальнейшую ценовую политику по этому продукту, и соответственно на объемы продаж и маржу. Если проинвестировав 10 млн (и таки доделав продукт) вы с них потом заработаете скажем 30 млн, то тем самым полные потери проекта будут сокращены с 90 до 70 млн, что очень даже хорошо.
Согласен, любые инвестиции оцениваются в сравнении с другими вариантами. Тут предполагалось, что отдачи совсем не будет, ибо конкуренты займут рынок
И надо учитывать, что заявления конкурентов о готовности продукта и его характеристиках тоже могут оказать ложными, как раз чтобы вынудить вас свернуть проект.
Немного не в тему, вспоминается история разработки Starcraft-а, когда близы на демо у конкурентов увидели изометрию в стратегии, и решили сделать так же у себя срочно. Как оказалось, у конкурента ничего рабочего не было по итогу, но Starcraft уже переписали (и не зря)
Имеет ли смысл завершать разработку?

Правильный ответ: в условии задачи недостаточно данных для принятия решения. Следующий вопрос — сможет ли конкурент удовлетворить весь спрос и полностью охватить рынок, пока не выйдет наш продукт? Чаще всего на этот вопрос отвечают «нет». Далее, можно ли внести в разработку изменения, несколько увеличить срок и удорожить её, но на выходе получить иной продукт, который будет несколько выше классом, чем у конкурентов, и который можно будет продать с «люксовой» наценкой? И так далее. Стратегий масса, и «похоронить проект и зафиксировать убытки» — это самая крайняя из них.
По оценкам аналитиков стоимость разработки 7-нм технологии составляет примерно 270 млн долларов

Примерно как один голливудский фильм.

На самом деле стоимость разработки 7-нм технологии на порядки больше, а в оригинале говорится, что 271 млн долларов — это разработка какого-нибудь чипа, который будет выпускаться по данной технологии. Такой перевод.
Дада, это плохой перевод. Разработка технологии стоит десятки миллиардов долларов.
UFO just landed and posted this here
Вы так говорите, как будто голливудские фильмы чем-то хуже айфонов и криптомайнеров, в которые идут 7 нм технологии.
UFO just landed and posted this here
UFO just landed and posted this here

Придётся забросить Java и .NET с их виртуальными машинами под виртуальными машинами и снова вспоминать FORTRAN, COBOL, BLISS, С и ассемблер :)

Java и .NET давно не являются виртуальными машинами, они выполняют процесс компиляции (JIT). Android вообще компилирует AOT.
Точно так же как обычный разработчик С++ напишет на ассемблере то, что работает так же по скорости как и C++, без премудростей ускорения.

В теории звучит красиво, на деле — тормоза.

На деле писал алгоритмы просчета маршрутов получил на Intel Java 7 сравнимую скорость с С++, а без достаточных оптимизаций С++ компилятора и кода вообще хуже. Начал разбираться как так, тут native, а тут Java. Оказалось вычисления были сравнимы по операциям, а вот память выделять было лучше большими кусками, что и делает Java. На ARM разница было до 10 раз, а на x86 openjdk разницы почти не было.

История не о том, что на С++ нельзя написать супербыстрый код, а о том, что при сравнительных трудозатратах получается абсолютно сравнимый и приемлимый вариант. А учитывая кол-во выстрелов в ногу в С++ и управления памятью, трудозатраты на С++ всегда больше.

В любом случае на практике native работает быстрее, что видно на примере тех же мобильных платформ.


Кстати я C++ не упоминал:)

Я же и говорю на моей практике нет, мобильные платформы не в счет. За те же 20 Openjdk прошла огромный путь оптимизаций, мобильному Android еще очень далеко до openjdk
Не правильно считаются трудозатраты, кодеров то подсчитали, а теперь давайте подсчитаем затраты пользователей этого продукта.
Примерно как один голливудский фильм.

Это да даже как-то маловато по деньгам.
Тогда у Apple легко хватит денег на 7 и на 5 нм.
Если брать WiKi то шаг кристаллической решетки кремния а = 0,54307 нм.
Как думаете какой ТП станет коммерчески не выгодным 5 нм?
Судя по новостям 7 нм уже на самой грани.
придётся забросить Java и .NET с их виртуальными машинами под виртуальными машинами и снова

И еще пару раз под виртуальными машинами ) плюсам контенеры всякие )
Хотя будут как АДМ клепать мелкие кристаллы по 7 нм. И лепить их в нужном количестве.
Вроде АМД говорили что будем кристалл из двух 6 ядерных блоков.
12 ядер. ) *4 = 48 на проце.
Выше уже отметили — в оригинале это стоимость разработки одной модели конкретного чипа для производства по 7нм технологии.
In total, the average IC design cost for a 16nm/14nm chip is about $80 million, compared to $30 million for a 28nm planar device, according to Gartner. In comparison, it will cost $271 million to design a 7nm chip, according to the firm.


Стоимость смены самой технологии производства (разработка соответствующих процессов и необходимого для их проведения оборудования) еще несколько поколений назад была на порядок больше (~ несколько миллиардов долларов), и примерно на 2 порядка больше проектирования конкретного чипа по тем технологиям.
Данных по 5-7 нм. тех процессам не видел, но судя по тренду роста затрат речь идет о вложениях от 10 миллиардов долларов и выше.
уменьшать разрешающую способность все равно придется
Повышать? Чем ниже разрешение, тем «толще» линия.
Не «методом литографии», а «методом фотолитографии».

Не «элементы вытравливаются на кристалле с помощью света», а «электронная схема создаётся на кристалле с помощью света и светочувствительных химических веществ». Травление — кислотой (или щёлочью).

«Долгое время эта тенденция (на уменьшение техпроцессов) оставалась справедливой» — это закон (эмпирическое правило) оставался справедливым.

Иммерсионная фотолитография: от англ. immerse — погружать в жидкость. Вместо линз и воздуха используются линзы и жидкость.

Не «более глубокие УФ-диапазоны», а глубокий ультрафиолет, переходящий в мягкий рентген.

Не «уменьшение размеров кристалла плохо сказывается на его охлаждении», а рост плотности теплового потока плохо сказывается на возможность его охладить (переносимая энергия в единицу времени на единицу площади).

Не «EUV-литография генерирует слишком много дефектов при производстве чипов», а «при использовании фотолитографии в глубоком УФ процент выхода годных изделий остаётся низким».

Не «менее 5-нм», а «менее 5 нм» — без тире.

«в TSMC — тоже занимающейся производством полупроводников» — ага, один из основных мировых производителей полупроводниковой продукции оказывается тоже ими занимается.

«Как мы уже говорили, дороговизна перехода — одна из причин, почему GlobalFoundries свернули свои проекты. И по мнению Gartner, она является основной» — нет, не это. Основная причина — сворачивание научных разработок по физике в бывших лидерах — СССР и США. Китай ещё не полностью замених их в этом вопросе. В США политики предпочитают покупать голоса избирателей льготами, а производством руководят «эффективные менеджеры», которые порезали расходы на НИОКР ради собственной годовой премии.

Пока что в ближайшем будущем переходят на 7 нм только TSMC и Samsung.

Фотолитография в глубоком ультрафиолете
Электронная литография
Ионно-лучевая литография
Рентгеновская литография

Желающие могут перевести такие статьи, как приведённые ниже — пользы будет больше, чем от имеющейся:
Extreme ultraviolet lithography
Multiple patterning
Не «элементы вытравливаются на кристалле с помощью света», а «электронная схема создаётся на кристалле с помощью света и светочувствительных химических веществ». Травление — кислотой (или щёлочью).

ИМХО, правильнее будет «рисунок топологии электронной схемы будущего чипа формируется на поверхности кристалла с помощью света и светочувствительных химических веществ».
Про травление уже говорил ниже. В остальном всё по делу.
Основная причина — сворачивание научных разработок по физике в бывших лидерах — СССР и США.

С чего бы? GF прямо сказали что им арабы отказались оплачивать банкет.
К тому же уже сделаны тест чипы на 3нм у IMEC. Видимо научные разработки СССР им были совсем не нужны.
Травление — кислотой (или щёлочью).

Справедливости ради, не всегда — Dry_etching

Не «EUV-литография генерирует слишком много дефектов при производстве чипов», а «при использовании фотолитографии в глубоком УФ процент выхода годных изделий остаётся низким».

Проблема комплексная. В низком проценте выхода годных кристаллов может быть виноват и сканер, который делает маску, и оборудование, которое осуществляет etching/deposition.
Когда говорят, это виновата EUV литография, обычно имеют ввиду, что сканер не mass-production ready. Другими словами он делает нормально, но медленно. Первый EUV сканер ASML поставила в Intel аж в апреле 2017. Большой шаг, кстати. С тех пор Intel и ASML тестируют и допиливают.

Главная надежда на EUV еще и потому, что старые ухищрения вроде OPC и Multiple_patterning для повышения точности печати маски постепенно перестают работать ниже 10nm. Для EUV они (почти) не нужны из-за того, используется лазер с длиной волны 13.5nm вместо 193nm, как в предыдущих. Именно поэтому, должна уменьшиться стоимость разработки нового чипа.

Одна из основных проблем с EUV — низкая энергия лазера долетающая до фотомаски, приходится держать «долгую выдержку», а попытки повышения мощности вызывают такой каскад инжереных проблем, что несколько книг можно написать.

TSMC — тоже занимающейся производством полупроводников

Тоже повеселило… Это как сказать, что GM тоже производит автомобили.
Справедливости ради, не всегда — Dry_etching

Справедливости ради, классическое проявление как раз и производится щелочными растворами разными. Dry etching — это процессы травления слоёв структур будущих чипов по маске, сформированной процессами фотолитографии. У вас же по ссылке именно это и описано:

Dry etching is used in conjunction with photolithographic techniques
Вопрос:
Если энергия лазера низкая, какие препятствия стоят перед использованием для тех же целей нескольких лазеров?
Насколько помню, именно так возможно вытравливать элементы размером меньше, чем ширина лазерного пучка — берём батарею лазеров низкой энергии, фокусируем в точку, в точке получаем достаточную энергию излучения для вытравливания. В некоторых материалах, к тому же, получаем малые потери энергии луча при прохождении среды (то есть, можно травить внутри объёма).
Нет возможности хорошо фокусировать несколько лазеров в нужной точке?
Речь идет не о вытравливании (etching), а о создании фотомаски на подложке. Нужно «просто» посветить лазером через «трафарет», чтобы светочувствительный материал затвердел в нужных местах.
Думаю, что идея использовать много лазеров вместо одного рассматривалась и хотя я не специалист в железной части, но насколько знаю, сами лазеры и дорогие, и сложные и большие. Их сейчас делает только ASML.
Там в качестве активного тела испольуется плазма олова. Микрокапли олова летят в специальной камере, испаряются и ионизируются с помощью первого лазерного импульса и с помощью второго накачиваются энергией и потом переизлучают желанные 13,5nm. Я даже не представляю сколько такой источник стоит долларов и сколько потребляет энергии.
По поводу фокусировки, там не совсем в точке надо фокусировать, там есть 'окно', которое надо освещать как можно более равномерно. Фокусировать много лазеров на общую плоскость так, чтобы освещенность была равномерной это вообще не просто.
Ко всему прочему, для света 13.5 нет прозрачных материалов, поэтому там все построено на отражении… Что дополнительно съедает энергию.
Я понимаю разницу между поляризационным высвечиванием и, собственно, вытравливанием — спрашивал я как раз про создание маски, просто выразился неверно.
Под самой методикой я имел в виду модификацию двухфотонной литографии, и спрашивал исключительно в контексте аргумента к энергии луча, как основной проблемы EUV.

Если правильно понимаю из ответа, то главная проблема — стоимость, и, может быть, энергоёмкость.
Я под выход 10-нм десктопных чипов (пониженное тепловыделение при повышенной производительности) уже и самый топовый пассивный кулер для нового процессора купил, и самый топовый пассивный кулер для видеокарты и даже блок питания с пассивным режимом работы. А выход всё откладывается, откладывается, откладывается.

Мне кажется, по закону Мерфи, 10-нм чипы выйдут ровно через месяц после того как я устану ждать и соберу новую систему на будущем 14-нм i9-9900 :(

Перейти с 14 на 7нм это примерно тоже самое, как перейти со 100 до 50нм. Разница в 2 раза. В прошлом на это потребовалось около 10 лет. А еще я помню, лет 10 назад утверждалось, что кристаллы с менее 10нм техпроцессом производить не удастся. И тогда начали искать замену кремнию. Помню графену пророчили высокое будущее. Жаль, что все заглохло.

Не заглохло, но исследования пока на уровне производства отдельных транзисторов и простых микросхем даже в РФ (из того, что я слышал лично), как дела вообще обстоят: не знаю, но что-то ещё делается. Интерес упал скорее из-за того, что преодолели очередной непреодолимый рубеж техпроцесса.

А еще я помню, лет 10 назад утверждалось, что кристаллы с менее 10нм техпроцессом производить не удастся.
Так и не удается) Если строго подойти к старому определению проектных норм, а не к маркетинговому буллшиту про 10-7-5 нм, то проектные нормы 7 нм TSMC на самом деле где-то в районе 40 нм находятся.
проектные нормы 7 нм TSMC на самом деле где-то в районе 40 нм находятся.
А вы не знаете случайно, в двух словах, что они сейчас называют 7 нм? Я предположу что раньше это было отношение длины на кол-во транзисторов, а сейчас, возможно, поперечный размер проводника между транзисторами.
Хотя 2 нм, наверное даже для проводника слишком тонко. Неужели маркетологи сейчас вообще ни на что физическое не опираются?
А вы не знаете случайно, в двух словах, что они сейчас называют 7 нм?
Случайно знаю. Раньше «проектнми нормами» называли минимально возможный топологический размер, который обычно совпадал с минимальной длиной канала транзистора. Потом уменьшать длину канала стано невозможно по физическим причинам (электроны начали пролетать из истока в сток насквозь, без взаимодействия с каналом), а красивые цифры инвесторам показывать все равно приходилось. Плюс в какой-то момент начали появляться FinFET, в которых длина канала не прямо зависит от литографии.
В итоге никакого физического смысла в цифре названия техпроцесса нет уже несколько лет как, это просто условная система нумерации поколений. По факту например, у Самсунга в 7 нм и 5 нм сами транзисторы будут одинаковые, а все изменения коснутся других частей технологии.
Число, которое указывается в проектной норме техпроцесса — это минимальная длина канала транзистора для данного техпроцесса. Например, для проектных норм, допустим, 40 нм, минимальная длина канала транзистора составит те же 40 нм. Однако, по этому же техпроцессу 40 нм в топологии схемы могут использовать транзисторы и «пожирнее» — 65 нм и т.д. Самые маленькие транзисторы используют, в основном, в блоках логики микросхем (чтобы работали быстрее), остальные элементы могут быть выполнены по более толстым нормам (в пределах разумного, конечно же).

По поводу того, какие уловки используют для преодоления барьера при уменьшении проектных норм, немного написано в статье amartology. Но я бы также с удовольствием послушал его более развёрнутый комментарий на эту тему :)

P.S.: Эх, опередили меня.
Я и опередил. Не знаю, насколько комментарий выше может считаться развернутым, но если действительно интересно, я могу даже наверное написать статью о том, какого на самом деле размера эти 7-10 нм.
Пишите, конечно! Тема интересная.
Да, интересно было бы прочесть!
Присоединяю свой голос к желающим.
Вроде бы размер норм близок к длине затвора транзистора. Ширина проводника примерно в 4 раза больше.

Сейчас это вроде размер затвора транзистора, если не путаю.
Учитывая успехи в посттоении экспериментальных мономолекулярных элементов (вроде про работающий диод что-то было), при такой оценке можно говорить в теории и о 2 нм техпроцессе, особенно если рассматривать не ширину, а толщину затвора.

если рассматривать не ширину, а толщину затвора.

Делать затвор тоньше перестали еще на 45 нм, когда туннельный эффект через SiO2 начал приводить к тому, что транзисторы из MOSFET стали превращаться в JFET. Тогда в ход в затворах вместо SiO2 пошли соединения гафния (high-K диэлектрики), из которых затвор можно сделать толще, предотвратив туннелирование.
Но вообще с точки зрения маркетинга идея богатая, можно 180 нм переименовать в 10 нм)
Не требовалось.
В реальности 100 нм ==> 50 нм перехода правда не было, но например очень близкие реальные 130 нм ==> 90нм ==> 65 нм гораздо быстрее проскочили, чем за 10 лет:
130нм освоили в 2001м году, а в 2004м уже были первые чипы на 65нм. Или если по выходу серийной массовой продукции — то 2002 и 2006 годы соответственно. Т.е. всего 4 года.

Ну или 90 нм ==> 45 нм, примерно те же 4-5 лет на переход, а не 10+.

И это были те же самые уменьшения ровно в 2 раза (или в 4 раза если по площади элемента). Причем в отличии от текущих маркетинговых попугаев это было реальное уменьшение размеров практически всех элементов в 2(4) раза!
Точно не помню про переход с 100 до 50, это я так сказал, для ровного счета. А вообще, у меня в 98м году был P2 на 180нм, а в 2008 стояла карта 8800gtx с 90нм чипом. Ну не 10 лет, а 7-8.
а в 2008 стояла карта 8800gtx с 90нм чипом

Ну то просто карта такая. Процессоры-то в 2008-м Интел уже по 45 нм выпускала.
P2 скорее всего на 250 нм был (ядро Deschutes). 180 нм только самые поздние мобильные версии P2 выпускались и они попозже появились, а в обычных компах только с P3. Которые изначально тоже на 250 нм технологии производились — ядро Katmai и только потом были на 180нм переведены уже в 2000м году — ядро Coppermine.

Ну а карта просто по несколько устаревшему (на тот момент) процессу. У того же Intel еще аж 2006 году уже вышли серия процессоров Core 2 изначально производившихся по на 65нм технологии.
Т.е. в рамках одной компании(Intel) и одной продукции (CPU)
1997 — выход P2 на 250нм
2006 — выход Core 2 на 65 нм
Тут почти 4 кратное уменьшение норм меньше чем за 10 лет.
работу систем ИИ, МО, 5G-сетей и IoT
Что такое МО?
Разрешите «вопрос на понимание»: в начале статьи написано — «Производитель получает возможность увеличить быстродействие микросхемы, оставив её размеры на прежнем уровне.» Быстродействие увеличивается за счёт того, что уменьшается длина проводника между слоями? То есть электрический сигнал быстрее проходит?

Полагаю, потому что можно засунуть больше исполнительных блоков в тот же физический размер.
Если бы сигнал ходил быстрее — повышали бы частоту, а с этим есть проблемы.

Быстродействие микросхемы в целом увеличивается за счет роста количества транзисторов,
а быстродействие отдельных элементов может стать даже хуже из-за того, что растет влияние паразитных емкостей, сопротивлений и индуктивностей соединений. Если раньше транзистор для переключения заряжал затвор следующего транзистора и немного паразитных емкостей, то сейчас он заряжает длинную линию связи со следующим элементом и, на сдачу, сам следующий элемент.
А с частотами какая проблема? Больше 10-ти лет назад были 3ГГц+ процессоры — так они там и болтаются.
С частотами проблема такая, что зарядка паразитных емкостей межсоединений занимает много времени и тратит много энергии. Для того, чтоб разгонять те процессоры до 3 ГГц, делали конвейер на 20+ ступеней, чтобы за один такт делались очень маленькие и поэтому очень быстрые вычисления. Но эта концепция дошла до логического предела, поэтому потом произошло резкое падение частоты за счет упрощения конструкции ядра с одновременным размещением на кристалле нескольких ядер.
10 лет назад у Pentium 4 были частоты под 4 ГГц. Официально максимальная частота 3.8 Ггц, но разогнать можно было и чуть больше. Сейчас 5 ГГц, причем вполне официально. Core i7-8086 при загрузке одного ядра имеет частоту в 5ГГц. Прирост частот все же есть, пусть и не столь значительный.
Самое смешное то, что в топе разгона до сих пор тусуются Celeron D 352 и FX8350
тут надо отделять технологии от маркетинга — в погоне за гигагерцами приходилось делать длинные конвееры, и в какой-то момент оказалось что повышение частоты и удлинение конвееров не повышает производительности. к тому-жэ в на этом этапе гонки в конвеер была заложэна фундаментальная уязвимость с подменной данных.
В принципе, практически в каждом комментарии ругают перевод (и небезосновательно), но я не мог не зацепиться:
Однако Дэвид Хемкер (David Hemker), старший VP в компании Lam Research, производящей полупроводники

Lam Research — компания, которая занимается изготовлением оборудования для производства полупроводников.

Тема микроэлектроники сама по себе сложна для восприятия обычному обывателю, а с таким подходом к публикации статей и подавно. Не надо так.
Поэтому в будущем мы определённо увидим применение этим технологиям, только этот момент может наступить немного позднее, чем предполагалось изначально.

Вынесет всё — и широкую, ясную
Грудью дорогу проложит себе.
Жаль только — жить в эту пору прекрасную
Уж не придется — ни мне, ни тебе.

Н.А. Некрасов
Когда я был молодым, а компьютеры были 486-ми, в каком то умном журнале я читал, что технологический предел составляет примерно 35 нанометров. Меньше сделать невозможно. Что изменилось?
Многое. Появились новые материалы (в частности, High-K диэлектрики), а транзисторы стали непланарными. Последние лет пятнадцать ученые только и занимаются тем, что ищут способы обойти этот технологический приедел)
Давно интересует вопрос, можно ли с современной литографией (или не очень современной, но с энергоэффективным техпроцессом) уйти в настоящее 3д (объемные схемы расположения транзисторов, что должно также сократить среднюю длину проводника — в конце концов мы уже не на плоскости) и получить эдакий кубик сантиметр на сантиметр, работающий на 50-100-200МГц в котором миллион вычислительных ядер связанных сетью (так называемая Сеть-на-кристалле, NoC)?
Технологически это очень сложно. Точнее, в принципе реализуемо (флэш-память тому пример), но неразумно дорого. Но по этому пути уже частично идут — при помощи 3D-интеграции и TSV. Вот тут я немного писал об этом. Связывать вообще все и везде не надо, можно делать сверху вниз только какие-то магистральные шины, а локальные. Собственно, большинство современных высокопроизводительных схем так и сделаны сейчас, только немного не в тех масштабах, о которых вы говорите.
Кроме того, от кубика в кубический сантиметр (или кубический дециметр) довольно тяжело отводить килоВатт тепла)
Кроме того, от кубика в кубический сантиметр (или кубический дециметр) довольно тяжело отводить килоВатт тепла)
А я потому и упомянул частоты 50-100-200МГц, с ULP техпроцессом скорее всего получится <15Вт на кубик. ЕМНИП техпроцессы с минимальной утечкой до сих пор 130-65 нм… хотя они и в работе не особо жрут тоже.
Это не кубик будет скорее всего, а что-то с медной сердцевиной.
Это вопрос тепловыделения, на низких (до пары сотен мегагерц) частотах и низком напряжении чипы могут быть очень холодными.
Тогда расскажите, какой смысл делать много чипов на низкую частоту, когда можно сделать один на высокую? Физику не обмануть же, у вас есть энергия на логическое переключение, и если для решения вычислительной задачи вам нужно сделать Х переключений, то нет разницы, на скольких чипах и с какой частотой вы их сделаете.
если для решения вычислительной задачи вам нужно сделать Х переключений, то нет разницы, на скольких чипах и с какой частотой вы их сделаете.
Маленький прикол — эффективность процессоров падает с ростом частоты (так как ради повышенной частоты повышают напряжение, а от него потери зависят квадратично)
Если бы сейчас могли упихать миллион-другой ядер в кристалл — пихали бы, особенно в специальные устройства. Видеокарты тоже уперлись в кристалл, поэтому если раньше он топтались в догигагерцовом диапазоне, то сейчас начали из него выходить — не могут наращивать ядра, так приходится наращивать частоты.
Есть и огромная разница — низкочастотные чипы намного эффективнее в плане кол-ва операций / Вт мощности или Дж потраченной энергии.

Именно поэтому мощные процессоры для серверов или суперкомпьютеров делают много-многоядерными, но относительно низкочастотными. И одна из причин превосходства GPU над CPU по эффективности вычислений. А любители практикуют downclock+undervolt вместо разгона чипов для долгоиграющих задач, когда вычисления идут 24х7.

Естественно все на классах задач который эффективно могут разбиваться на нужное кол-во выч. потоков. Если задачу невозможно разложить подобным образом, то особых альтернатив высокой частоте и разным «хакам» типа сильно спекулятивного исполнения нет.

В научных исследованиях вообще экспериментируют с совсем низкими частотами и рабочими напряжениями или даже несинхронными чипами не имеющими какой-то конкретной частоты и достигают выигрышей в энергоэффективности вычислений на несколько порядков.
В научных исследованиях вообще экспериментируют с совсем низкими частотами и рабочими напряжениями или даже несинхронными чипами не имеющими какой-то конкретной частоты и достигают выигрышей в энергоэффективности вычислений на несколько порядков.
И иногда при некоторых условиях достигают)
Практически все, что реально можно использовать в прикладных задачах, уже реализовано, инженеры гигантов рынка не просто так свой хлеб едят. В том числе переход с длинных конвейеров и больших частот в Pentium 4 на разумно низкие частоты и многоядерность в Core.

Скорее гиганты рынка наоборот склонны допиливать однажды удавшуюся технологию, а вот реальных инноваций они не любят из-за высокого технологического риска.

Ну и как раз там где энергию считают — уже сейчас используют меньшие частоты и большее кол-во ядер именно для прикладных задач: типовые для мощных серверов и суперкомьютеров в 1.5-3.5 ГГц, против 3.5-5 ГГц для «потребительских» процессоров.

Например недавний лидер (1 место в мире в 2016-2018 годов) среди самых мощных суперкопьютеров использовал процессоры работающие на частоте всего 1.45 ГГц: www.nextplatform.com/2016/06/20/look-inside-chinas-chart-topping-new-supercomputer

В общем так уже сейчас разменивают меньшее потребление энергии на ед. выполненных расчетов в обмен на удорожание и усложнение чипа. Или в эконом. терминах — снижают эксплуатационные расходы(на энергию и охлаждение в основном) за счет увеличения капитальных.
При длительных высоких нагрузках это окупается.

В научной части это тоже не голая теория, если планы не порушатся, то некоторые из следующих рекордных суперкомпьютеров будут работать на основе процессоров с рабочими частотами даже ниже 1 ГГц, но при этом обладать рекордным количествами выч. ядер и демонстрировать новые рекорды по энергоэффективности.

Возвращаясь к исходному вопросу — про «настоящие 3D процессоры» — такие были бы востребованы даже при работе на очень низких частотах и напряжениях (и как следствие с небольшим удельном тепловыделении, позволяющим снять большую часть проблем с охлаждением в объеме).

Не в потребительском ширпотребе конечно, но для серьезных задач.
3D чип можно сделать слегка пористым и продувать охлажденным (просто холодным, не жидкий) водородом или гелием под давлением (Несколько МПа).
Если будет необходимо, расположить максимальное количество ядер, максимально близко к друг другу. Вполне возможно так и сделают.
Можно линии питания полыми делать — так или иначе они будут толстыми, токи ведь хорошие идут. Хотя, чисто теоретически DC/DC можно тоже внутрь чипа спрятать, как Intel одно время делало.
Можно, но надо учиться прокачивать через кристалл жидкий гелий. Иначе не снять тепло.
UFO just landed and posted this here
Если сравнить процессоры 3930K и 7800X, разница в техпроцессе чуть больше чем в 2 раза 32нм против 14нм, а энергопотребление одинаковое (130W против 140W), учитывая что частота у последнего на 10% выше
В ASIC-майнерах для биткоина DragonMint от Halong Mining используется 10-нм техпроцесс.В асиках B2 от GMO Internet 7-нм техпроцесс, прием предварительных заказов на B2 стартовал 6 июня, первые устройства, как ожидается, поступят покупателям в октябре.
С точки зрения ценовой политики японское устройство оказывается более дорогим: $1999 за B2 против $837 Antminer S9 с 16-нм чипами. При энергопотреблении 1950 Вт производительность B2 составляет 24TH/s, в то время как у Antminer S9 этот же показатель составляет 14TH/s, при его энергопотреблении 1200 Вт.
По сравнению с B2 на 7 нм, устройство с 16-нм техпроцессом стоит в 2,39 раз дешевле, уступает в производительности в 1,71 раз, при этом кушает в 1,6 раза меньше электроэнергии. 7 нанометровая овчинка выходит слишком дорогой и выделки при текущих рыночных ценах на биткоин не стоит.
Хотя как некий технологический прорыв безусловно интересно
Цены на ASIC это маркетинг чистой воды. Никак не связаны с себестоимостью, а лишь с предпологаемым профитом.

Кстати говоря, S9 в специальной жидкости разгоняется до 19ТH при росте потребления 2100 Вт.
Какими будут процессоры Intel Core следующего поколения впринципе понятно уже сейчас.
Возьмут нынешнее 8-е поколение Coffee Lake — сменят жвачку на припой — и вуаля. -20 по цельсию при тех же частотах и напряжении — новое поколение!

(гугли скальпирование процессоров если не понял что я такое несу)

Ну и, разумеется, для проформы добавят какую-нибудь marketing-инструкцию по типу MMX-2020, чтобы не сильно бугуртили.
UFO just landed and posted this here
Значит пошли на помойку и забрали обратно, т.к. Core i9-9900K уже показали с припоем
Скорее топовые потребительские чипы просто перевели на окончательную сборку на одной из линий использовавшихся для серверных процессоров.
Из которых припой никуда и не уходил.

По результатам гугления Skylake-X(LGA2066) и Skylake-SP(LGA3647 Xeon) без припоя.
Так что на помойку сходить пришлось.
Есть очень простой способ решить проблему низкого выхода.
А именно-матрица.
Матрица это тип мультипараллельных вычислительных систем где данные передаются от процессора к процессору так же как внутри процессора между более простыми компонентами программы нежели процессы причем у каждого своя шина памяти, минуя память все буферизации кроме аппаратного планировщика. Фактически только язык Occam умел с ними работать. При таком подходе и хорошо составленном программном обеспечении, увеличение количества процессоров ведет к пропорциональному увеличению быстродействия.
Хотя разработка ПО отпугнула многих.
Но зато получается что если сделать процессор с минимальной производительностью и минимальной ценой, то поставив больше процессоров можно получить большею производительность.
Но интересно было то что попытавшись разработать самый простой и процессор с налучшим показателем цена/производительность он почему-то получился в несколько раз быстрее тогдашнего i386 при меньшей цене.
(Увы фирма InMOS разработчик таких процссоров разорилась несмотря на 200 миллиардов фунтов правительственных денег по ценам второй половины 1980-х годов.)
Но попытки воссоздать матрицу производились и позже, причем попытались не устанавливать многоядерные процессоры с предсказанием ветвлений и крайне сложными суперскалярными схемами. А простыми схемами, просто много работающих параллельно.
При попадании производственного дефекта на один из процессоров, его можно просто игнорировать не загружая в них ПО. А если на кристалле микросхемы несколько сотен процессов, то даже десяток негодных и схема может быть вполне пригодной для эксплуатации.
Мало того простота электрической схемы и логической модели процессоров позволяет их довольно легко отлаживать к тому же разгонять на очень большую частоту, особенно при низких температурах.
Такой подход применяла некоторая организация с начальством которой я недавно рассорился.
То, что Вы описываете, в СССР 60-х называлось однородными вычислительными структурами и моделью коллектива вычислителей. Здесь уже было все: децентрализация, асинхронность, близкодействие… А в конце 70-х знаменитый ученый Карвер Мид (один из тех, о ком почему-то не пишут на хабре) указал на матричный подход для борьбы со сложностью в рамках СБИС-технологий. Далее были систолические массивы, массивы волнового фронта. Синхронные и асинхронные варианты… Вплоть до проектов AsAP и SEAforth, с коллективами которых Вашему покорному слуге когда-то пришлось иметь дело :) Сегодня этот подход снова популярен в виде реконфигурируемых/dataflow крупноблочных структур. Подобные проекты есть у Xilinx, Google, Intel.
Карвер Мид (один из тех, о ком почему-то не пишут на хабре)
А почему о Карвере Миде должны писать на хабре? Хабр — это ЖЗЛ? И кто те другие ученые, о которых пишут на хабре?
Я написал свое сообщение с целю стимулировать поиск информации читателей о Миде. Возможно, кто-нибудь напишет и заметку в контексте истории и перспектив СБИС-технологий. Ведь знание соотв. истории важнее, чем часто себе представляют. Оно расширяет горизонты, дает возможность ввести в оборот множество забытых идей, не позволяет превратиться в узколобого профессионала, который «все знает». Лучше держаться подальше от подобных знаек!

А с какой целью написали сообщение Вы?
С целью узнать, почему вы упомянули именно Карвера Мида, а не, к примеру, Жана Эрни или Юлиуса Лилиенфельда.
Физики, которых Вы упомянули, безусловно внесли свой вклад в развитие микроэлектроники. Мид отличается от них тем, что он не только физик. Первый учебник по СБИС, первые инструменты автоматизации их проектирования (включая подход кремниевой компиляции) — это тоже он.

Здесь можно посмотреть его послужной список: www.carvermead.caltech.edu/research.html

Обратите также внимание на эту статью 77 года: ai.eecs.umich.edu/people/conway/VLSI/BackgroundContext/Sciam/SM.SciAm77.pdf
На мой взгляд многие ее положения актуальны до сих пор.
200 миллиардов фунтов правительственных денег по ценам второй половины 1980-х годов

Прям таки миллиардов? За эти деньги можно было всю кремниевую долину купить в 80х.

Но попытки воссоздать матрицу производились и позже, причем попытались не устанавливать многоядерные процессоры с предсказанием ветвлений и крайне сложными суперскалярными схемами. А простыми схемами, просто много работающих параллельно.

Слышали про GPU? ;-)
А так же FPGA и такие разработки как IBM TrueNorth и Intel Loihi
При попадании производственного дефекта на один из процессоров, его можно просто игнорировать не загружая в них ПО.

Все современные процессоры примерно так и устроены) Запасные строки и столбцы кэш-памяти, отключенные дефектные ядра в младших моделях, GPU из сотен или тысяч простых спецвычислителей.
Еще раз, пожалуйста сформулируйте, в чем в итоге новизна и неортодоксальность описанного вами подхода?
а когда упрутся в принципиальный рубеж уменьшения технологии?
неужели до Ван-дер-Ваальса дойдут?
«элементы вытравливаются на кристалле с помощью света». Поправьте, пожалуйста. Элементы вытравливаются в травильном растворе, а при помощи света закрепляется фоторезист на тех участках, где стравливать поверхность не надо (либо наоборот, в случае инверсного фоторезиста), который затем смывается с незасвеченных участков и уже потом кристалл вытравливаются.
Выше уже поправили несколько раз, да и у вас не совсем корректно.
Сначала формируют маску:
  1. нанесение фоторезиста — наносим на подложку (пластину) светочувствительный материал;
  2. экспонирование — засвечиваем через маску (фотошаблон) необходимые элементы топологии кристалла на фоторезисте;
  3. проявление — удаляем незаэкспонированные участки фоторезиста с использованием проявителя — вещества, которое смоет незавсеченные участки фоторезиста;
  4. дубление — «запекаем», «подсушиваем» фоторезист, чтобы он стал более твердым и выдержал последующие обработки по маршруту изготовления кристаллов.

Здесь я не указал некоторых нюансов аля предварительной обработки подложки перед нанесением фоторезиста, всякие поддубливания и т.д. для того, чтобы было более понятно и не перегружено. Пункты выше — типовой процесс формирования маски фоторезиста на поверхности подложки.
Про фоторезист
Инверсный фоторезист — такого понятия нет, насколько мне известно. Перепутали с позитивным и негативным фоторезистом (еще есть и смешанный тип, когда один тип фоторезиста можно превратить во второй путем проведения доп. обработок).

В дальнейшем подложка со сформированной фоторезистивной маской подвергается другим обработкам:
  • химическое (жидкостное) травление — как уже понятно из названия, травление каких-либо участков поверхности подложки, не закрытых фоторезистивной маской различными кислотами;
  • сухое травление — травление различных пленок в разнообразных ионизированных газах и их смесях (проще — в плазме. Dry etching, RIE (Reactive-ion etching)). Опять таки, процесс травления осуществляется только на участках, не закрытых фоторезистом;
  • ионное легирование (ионная имплантация) — введение в поверхностный слой подложки различных примесей для формирования областей с различной проводимостью (n, p и их вариации). И снова, примесь при легировании попадает только на свободные от фоторезиста участки подложки (на других участках примесь просто не «прострелит» фоторезист).

Три данных пункта — вариации формирования различных элементов топологии схемы кристалла ПО МАСКЕ(!) фоторезиста. После выполнения данных операций фоторезист удаляют, производят хим. обработку подложек (мойка, сушка и т.д.) и дальше по кругу (цепляя на этом круге и другие операции), до победного конца — готового кристалла.

Надеюсь, у меня получилось более-менее просто и понятно, вкратце, объяснить процесс переноса рисунка с маски (фотошаблона) на подложку (пластину) и получение нужных элементов схемы кристалла. А то прочтя статью можно подумать, что в производстве микросхем задействована одна только фотолитография. Стоп, там же именно так и написано!

Sign up to leave a comment.