Как стать автором
Обновить

Новый закон Мура и причем здесь фотоника?

Время на прочтение 18 мин
Количество просмотров 4.7K
Ранее мы разобрали использование технологий нанофотоники в глубоком обучении и как благодаря им увеличивается производительность вычислительных систем на программно-аппаратном уровне.

Выносимая к обсуждению тема обновления закона Мура с помощью нахождения более сложных зависимостей эволюции вычислительных систем, сегодня хорошо разбирается именно исследователями в области технологий плазмоники и нанофотоники.

Важно: большинство ссылок, приводимых в статье ведут к материалам на английском языке. Отечественных исследователей фотоники в России не так много, а те, что есть предпочитают публиковаться на английском.

Для дополнительного изучения темы на досуге за чашечкой чая предлагается прослушать доклад Дмитрия Федянина — одного из ведущих отечественных исследователей по применению технологий нанофотоники в вычислительных системах.


Дмитрий Федянин — старший научный сотрудник МФТИ.

А далее мы разберем интересную статью, в которой группой авторов предлагается крайне оригинальная концепция метрики роста производительности, альтернативная классическому закону Мура. Идея созрела благодаря анализу природных физических ограничений в существующих технологиях работы ядер процессоров, а также подтверждаемых сегодня экспериментально перспектив новых систем на базе нанофотоники.

Непрерывно выдвигаемые современной индустриальной системой требования к повышению эффективности вычислений и пропускной способности связи привели к тому, что полупроводниковые технологии в их текущем состоянии достигли своего предела. Это привело к появлению новых технологий, способных превзойти традиционные решения. Речь идет о фотонных препроцессорах или ускорителях, электронно-фотонных гибридных схем и нейронных сетях. Однако усилия, предпринятые для описания и прогнозирования эволюции производительности вычислительных систем, не позволяют точно предсказать и тем самым объяснить фактически наблюдаемый темп развития; то есть все предлагаемые показатели в конечном итоге отклоняются от траектории их развития через несколько лет после того, как они были первоначально предложены. Это несоответствие требует уравновешенной метрики, которая включал бы в себя целостный набор движущих сил эволюции вычислительных систем.

Оригинальная концепция новой метрики под названием Capability to Latency-Amount-Resistance (CLEAR) была предложена международным коллективом исследователей (Shuai Sun, Vikram K. Narayana, Mario Miscuglio, Lionel C. Kimerling, Tarek El-Ghazawi, Volker J. Sorger). По мнению авторов статьи (см. здесь) эта метрика охватывает динамику изменений скоростей синхронизации, энергоэффективности, масштабирования физического размера вычислительных машин и экономических затрат. По мысли авторов, CLEAR — единственная на сегодняшний день метрика, которая корректно описывает историческое развитие вычислительных систем. Даже при разных вариантах и взаимных технологических сочетаниях, CLEAR соответствует наблюдаемой постоянной скорости роста, включая предлагаемые для реализации в будущем доминирующие технологии вычислительных систем (прогноз). CLEAR предстает перед читателями как руководство для количественного прогнозирования роста производительной эффективности вычислительных систем в данный момент времени и будущем.

Несмотря на то, что в целом эволюция вычислительной производительности постоянно увеличивается, наблюдаемая скорость производительности устройств на основе существующей полупроводниковой индустрии, заметно замедляется, особенно это заметно на 14-нм технологии (см. здесь и здесь). Это обусловлено как природными физическими ограничениями, так и растущими экономическими издержками непрерывного процесса промышленного производства чипов.

По этим причинам, закон Мура как роудмап полупроводниковой промышленности неоднократно пересматривался с целью устранения этих препятствий (см. здесь). Аналогично, динамика развития (зависимость от времени) других соотношений физических величин, таких как показатель эффективности использования вычислительной мощности (закон Куми) или показатель вычислительной мощности, выводимый из соотношения потребляемой энергии, размера и стоимости (закон Макимото), в итоге все-равно отклоняется по сравнению с наблюдаемым темпом развития технологии (рис. 1) – выбранная в показателе функция от времени (например, многоядерность, стоимость изготовления) на практике не может обеспечить экспоненциального роста.

Например, производительность процессора, состоящего из N ядер по-прежнему ограничена соотношением 1/((1-p)+p/N), где p представляет собой уровень параллелизации (см. здесь). Поэтому отслеживать эволюцию производительности вычислительных систем становится все сложнее, если использовать только закон Мура (или другие существующие метрики прогнозирования), в котором для описания производительности вычислительной системы используется только один или несколько движущих факторов (см. здесь). Кроме того, преимущества различных реализаций аппаратного обеспечения (например, электрические, оптические) изменяются со временем по-разному, что еще больше затрудняет эволюционное прогнозирование.

Например, интегрированная фотоника и, возможно, плазмоника могут расширить определенные каналы связи на плате или даже на кристалле. В результате будут значительно смягчены проблемы рассеивания тепловой мощности, а также расшириться полоса пропускания данных с возможностью преодоления барьера электронной цифровой эффективности с помощью таких концептуальных подходов, как спектральное уплотнение каналов (WDM), оптического углового момента или более высоких форматов модуляции, таких как поляризационная амплитудная модуляция (например, QAM), где одновременно используется фазовая и амплитудная поляризация (см. здесь и здесь).

Касаемо компромиссов с другими технологиями, то один электронный транзистор с технологическим узлом 14 нм занимает площадь на 3 порядка меньше, чем кольцевой модулятор фотонного микродиска, однако фотоника обеспечивает взаимосвязь на уровне канала без емкостных проводов зарядки/разрядки, хотя и является синергетической по отношению к вышеупомянутым уникальным характеристикам, которые поддерживают скорость передачи данных до уровня Тбит/с (см. здесь).

image
Рисунок 1.Характер развития вычислительных систем, начиная с 1946 года и до наших дней, можно представить в виде четырех различных показателей: (а) закон Мура — опирается на рост количества компонентов на кристалле, измеряемых в единицах численного количества транзисторов; (б) закон Куми — отражает энергоэффективность на единицу вычислений, бит/(с*Джоуль); (в) показатель Макимото, включающий в себя «интеллект», мощность, размер и стоимость системы – измеряется в единицах MIPS/(Вт*мм3*$); и (г) показатель CLEAR, определенный в уравнении (4) и учитывающий задержку системы в дополнение к показателю Макимото, а также экономические издержки, связанные с внедрением новой технологии: MIPS/(с*Вт*мм3*$). Данные Photonic CLEAR построены на основе прогноза Intel по кремниевой фотонике. Пунктирные линии представляют линейное соответствие (в логарифмическом масштабе), основанное на начальной скорости роста, с ежегодным удвоением производительности.

По представлению авторов, 5-факторный показатель CLEAR (название которого представляет аббревиатуру Capability-to-Latency-Energy-Amount-Resistance) на сегодняшний день является наиболее достоверным для описания эволюции производительности вычислений на всем известно историческом периоде, начиная с самого начала появления вычислительных технологий в 1940-х гг. и вплоть до настоящего времени. Этот показатель охватывает как физические, так и экономические факторы, связанные с темпами развития различных вариантов вычислительной техники. Таким образом, CLEAR может использоваться в качестве независимого от той или иной технологии количественного показателя, поскольку он включает как фундаментальные физические, так и экономические зависимости.

На основании наблюдений и анализа авторы делают два ключевых вывода:

  • динамика эволюции вычислительных систем характеризуется постоянным ростом, в то время как ставшие уже традиционными выше рассмотренные показатели отклоняются от своей первоначальной скорости отслеживания;
  • интегрированная фотоника (или любая другая появляющаяся технология в целом) может заменить текущую доминирующую технологию только в том случае, если ее общие характеристики (т.е. значение CLEAR) находятся на уровне (или выше) линии тренда постоянного эволюционного роста.

Эволюция вычислительных систем


Основные движущие силы


Развитие фундаментальной физики, управление технологиями полупроводников и экономические издержки требуют постоянных изменений и адаптации в целях поступательного развития технологий вычислительных систем. С момента основания индустрии полупроводников, закон Мура несколько раз менял факторы, лежащие в его основе: от подсчета транзисторов индустрия разворачивается (Первый переход) к занимаемой площади и масштабированию транзисторов из-за ограничений размера кристалла и роста общей системной сложности (см. здесь).

Второй переход произошел, когда тактовая частота нащупала границы из-за ограничений рассеивания плотности мощности, описанных законом масштабирования Деннарда (см. здесь). Поскольку масштабирование транзисторов приближается к фундаментальным физическим пределам, количество транзисторов на данный момент продолжает увеличиваться за счет параллелизма, реализуемого в многоядерных и массивно параллельных гетерогенных архитектурах. Это, усиливает узкое место в интерконнекте, в результате возникает необходимость отключения определенных областей чипа («темный кремний»). Таким образом, скорость роста изменилась с первоначального удвоения каждые 12 месяцев до примерно 24 месяцев в настоящее время.

Недавно появилась новая движущая сила из совершенно другой области, которая влияет на эволюцию вычислительных систем и представляет собой интегрированную фотонику и гибридизированную нанофотонику, где маршрутизация светового сигнала выполняется пассивными интегрированными фотонными компонентами, тогда как электрооптические активные компоненты усиливаются новыми решениями:

  • реконфигурируемые материалы;
  • сильные взаимодействия света с веществом, такие как плазмоника или фотоника ENZ (epsilion-near-zero), вместе обеспечивающие канал передачи данных и пропускную способность, превосходящие обычную электронику на двух уровнях: микросхема и ядра (см. здесь).

Для таких новых технологий просто подсчет количества компонентов на кристалле или масштабирования занимаемой площади и стоимости в качестве отдельного показателя невозможен, поскольку он более точно не отражает фактического изменения производительности. Также большую роль оказывает тенденция появления других технологий, например применяемых в оптической связи, в которых множество сигналов с разными длинами волн упаковываются в один и тот же физический канал и, таким образом, улучшается использование аппаратного обеспечения. Это является существенным фактором при оценке производительности системы. Следовательно, требуется целостный показатель, который учитывает множество движущих сил, чтобы обеспечить точное сравнение вклада различных технологических решений для развития вычислительных систем.

Единый показатель эволюции вычислительных систем


Чтобы получить независимый от технологий показатель, авторы собирали данные о производительности десктопов, ноутбуков, мобильных устройств, серверов, рабочих станций и суперкомпьютеров с 1940-х и сопоставляли их с традиционными показателями (Рис. 1).

В частности, закон Мура принимает количество транзисторов как единственно достаточный фактор (уравнение 1), в то время как закон Куми опирается уже на два фактора: энергия и количество вычислений, тем самым подведя основания под показатель, измеряемый в бит/(с*Дж) (уравнение 2). Миллионы команд в секунду (MIPS) на единицу измерения размера-стоимости-мощности известны как показатель Макимото, определяемый уже как 4-факторный показатель (уравнение 3).

Закон Мура = Количество Транзисторов [кол-во шт.] (1)

Закон Куми = Вычисления/Энергия [бит/(с*Дж)] (2)

Показатель Макимото = Интеллект/(Размер*Стоимость*Мощность) [MIPS/(мм3*$*Вт)] (3)

Значения этих трех показателей показывают сходную модель роста: растущий тренд хорошо отслеживает их исходные данные, но только в течение ограниченного периода времени, и в конечном итоге отклоняется от них. Это говорит о том, что факторы, взятые в них за основу, не смогли полностью уловить фактическую движущую силу, которая доминирует в эволюции вычислительных систем.

Анализ линий тренда на рис. 1 показывает, что количество транзисторов первоначально (1950–1960-е годы) хорошо отражает закон Мура о двукратном ежегодным росте (пунктирная светло-зеленая линия, рис. 1). Однако масштабирование энергоэффективности (т.е. закон Куми) стало доминирующим фактором в течение следующего периода (1960–1970-е годы), поскольку простое добавление большего количества транзисторов ограничено размером и сложностью микросхемы. По этой причине закон Мура начал отклоняться от тенденции 2X/год, в то время как закон Макимото все еще сохранял свои первоначальные темпы роста. Начиная с конца 1970-х годов факторы, как размеры, так и масштабирование мощности постепенно достигают предела из-за проблем с заметно усложнившимися процессами производства, утечкой энергии и рассеиванием тепла. Вместе с появлением параллелизма (то есть многоядерных процессоров) и экономическим масштабированием на рынке, показатель Макимото, в итоге, также отклоняется (начиная с 1978 года). Пунктирные линии, показанные на рис. 1, представляют начальные прогнозы роста производительности по каждому закону. Эти линии тренда показывают, как каждый дополнительный фактор, введенный соответствующими законами, влияет на собственную исходную метрику прогнозирования, показанную как отклонение от исходного прогноза. Рассматривая эту тенденцию как теоретический верхний предел скорости развития технологии, теперь можно понять, действительно ли «заявленный» тренд является «фактическим» или нет. То есть, является ли действующий закон причиной замедления развития технологий, или же начинают доминировать новые факторы производительности.

Таким образом, на сегодняшний день не существует четкого известного показателя, который может:

  • объяснить последние изменения в производительности;
  • предоставить руководство по прогнозированию производительности в будущем.

Внедренный авторами показатель CLEAR включает в себя факторы производительности из множества технологических вариантов, которые включают как физические, так и экономические ограничения. Главное утверждение авторов заключается в том, что факторы, составляющие CLEAR, выбираются не случайно, а являются фундаментальными для технологических и экономических трендов:

CLEAR = Способность/(Задержка*Энергия*Количество*Сопротивление) [[MIPS/(с*Вт*мм3*$)]] (4)

или в оригинале:

CLEAR = (Capability )/(Latency*Energy*Amount*Resistence) [[MIPS/(с*Вт*мм3*$)]]

Авторы, сформулировав формулу для показателя CLEAR, определяют постоянную скорость роста в течение всей эволюции вычислительных систем, охватывающей рост производительности на 4 порядка за семь десятилетий. Более того, фактическая наблюдаемая скорость развития постоянно держится на уровне двукратного роста каждые 12 месяцев. Этот 5-факторный показатель определяется на основе концепции производительности и стоимости. CLEAR может применяться на уровне устройства, схемы и системы.

Например, на системном уровне CLEAR структурирована следующим образом:
Способность C — это производительность системы, определяемая произведением миллионов инструкций в секунду (MIPS) и длины команды;
минимальная Задержка L относится к тактовой частоте и ограничена временным окном между двумя соседними тактовыми циклами;
Энергия E представляет собой уровень энергопотребления для работы такой системы в целях получения определенной мощности, выраженной в единицах ватт;
Количество A представляет пространственный объем (то есть физический размер) системы и является функцией размерности процесса;
Сопротивление R количественно определяет экономическое сопротивление принятия рынком новых технологий. Базово авторы берут экономическую модель, основанной на кривой опыта Boston Consulting Group (BCG), которая объясняет взаимосвязь между совокупным производством и удельной стоимостью (см. здесь).

Авторы выводят линейную зависимость между логарифмической шкалой единицы цены и времени, далее подтверждают эту зависимость, сопоставляя исторические данные (см. здесь и здесь) с CLEAR.

Авторы отмечают, что метрика MIPS в качестве показателя производительности заменяется метриками, такими как операции с плавающей точкой (FLOPS), из-за ее восприимчивости к базовому набору команд. CLEAR применяется к различным архитектурам процессоров на протяжении истории, для которых другие метрики производительности недоступны в известных наборах тестов производительности (например, SPEC или LINPAC). Однако, чтобы сделать MIPS репрезентативной метрикой производительности, авторы взвешивали (то есть умножали) каждую инструкцию по ее длине, тем самым давая относительную общую метрику в единицах бит/с.

Тренды развития вычислительных систем


После сравнения всех четырех показателей, показанных на рис. 1, мы обнаруживаем, что, когда показатель включает в себя более релевантные факторы, его начальная точка отклонения от исходного тренда наступает позже. В отличие от CLEAR, который показывает точное соответствие данных во всем. Таким образом, эмпирически обнаруживаем, что производительность вычислений постоянно растет с фиксированной скоростью примерно с ежегодным двукратным увеличением и не зависит от технологий. Тестируя новые вычислительные машины, например на основе интегрированной фотоники, как предсказывает IBM (см. здесь), мы обнаруживаем, что такие технологии действительно могли бы продолжать эволюционный тренд развития с ежегодным двукратным ростом (красные звезды на рис. 1).

Кроме того, можно обнаружить, что относительное отклонение от линии тренда 2Х/год можно использовать для классификации показателя вычислительной системы. Например, дополнительные накладные расходы (т.е. физический размер, параллелизм, охлаждение, низкая экономия на масштабе и производственные затраты) на суперкомпьютеры показывают их худшие значения CLEAR по сравнению со всеми другими типами компьютеров, такими как ноутбуки и мобильные устройства, несмотря на их более высокую производительность (пунктирные кружки, рис. 1 в, г). Высокий параллелизм многоядерных технологий, используемых в суперкомпьютерах, подвергается сомнению из-за отдачи от вычислений к энергии, описанной в законе Амдала (см. здесь). Несмотря на то, что суперкомпьютеры обеспечивают производительность в режиме petaflop, вся инфраструктура напоминает компьютерную инфраструктуру пятилетней–тридцатилетней давности, что ставит под сомнение будущее для ее масштабирования.

Анализ CLEAR


Чтобы получить более детальное представление об относительном воздействии каждого из 5 факторов CLEAR, авторы разложили показатель на отдельные факторы, противопоставив один другим, чтобы выявить фактические движущие силы во времени.

Комбинации факторов, использованных на рис. 2, представляют собой C против LEAR, CLE против AR и CLEA против R (рис. 2, C = способность, L = задержка, E = энергия, A = количество, R = сопротивление). Кроме того, показана исключающая скорость C' по сравнению со всеми другими факторами, поскольку единственным фактором масштабирования в первые годы полупроводниковой промышленности является количество компонентов на кристалле. Важно отметить, что относительные положения каждой точки данных более важны, чем точные значения как по осям X, так и по осям Y, и, таким образом, обе оси нормализованы к единице, что позволяет сравнивать каждый случай.

Поскольку синие и красные заштрихованные области представляют линейный рост и насыщающие области соответственно, легко обнаруживаются последовательные сдвиги поворотной точки вправо с увеличением числа рассматриваемых факторов для оси X (то есть относительного времени). Чтобы понять это, факторы на оси X можно рассматривать как движущую силу показателя, в то время как значения на оси Y обозначают фактические условия отслеживания рассматриваемых движущих сил. Следовательно, линейная область означает, что факторы на оси X все еще доминируют в развитии технологии, в то время как движущая сила технологии начинает переходить на другие факторы при входе в область насыщения. Этот результат совпадает со сделанным наблюдением, что эволюция вычислительной системы всегда растет с этой постоянной скоростью, и расхождение с показателем происходит только тогда, когда появляются другие движущие силы.

1
Рисунок 2. Анализ движущей силы CLEAR.
Показатель CLEAR разбит на четыре группы, каждая из которых состоит из двух частей: коэффициент, демонстрирующий факторы на пути развития технологий (ось X), и раскрывающий фактор, который показывает способность отслеживания выбранного фактора или комбинации факторов (ось Y). Результаты показывают, что более позднее отклонение от нормированного развития наблюдается, когда учитывается больше факторов для описания производительности вычислительных систем. (а) Исключающая Скорость C ’ против Задержки-Энергии-Количества-Стоимости (LEAR); (б) Способность C против Задержки-Энергии-Количества-Стоимости (LEAR); (в) Способность на Задержку-Энергию (CLE) против Количества-Стоимости (AR); (г) Способность на Задержку-Энергию-Количество (CLEA) против Стоимости R. Оси X и Y нормализованы до единицы для лучшего сравнения. Линейный рост и области насыщения покрыты синими и красными тенями соответственно.

Применение CLEAR


Важно, что способность беспрепятственно отслеживать эволюцию различных технологий позволяет CLEAR прогнозировать будущее технологическое замещение и определять стандарт для будущей технологии, включая их гибридизацию, например, между электроникой и фотоникой (см. здесь,тут, вот тут и здесь).

Смена технологий


Фотонный интерконнект внутри кристалла недавно показал высокую емкость передачи данных, (превосходящую обычные электрические интерконнекты) при гибридизации с активными плазмонными устройствами (см. здесь). Хотя оптическая маршрутизация данных воспринимается как возможное решение для устранения узких мест связи между вычислительными ядрами и обычно используется в центрах обработки данных и суперкомпьютерах, интегрированная фотоника еще не внедрена в массовый потребительский сектор. Поначалу это кажется удивительным, поскольку предыдущие исследования предполагали превосходные характеристики фотонно-плазмонной гибридизации. Таким образом, возникает вопрос, почему интегрированная фотоника не используется в продуктах массового рынка?

Чтобы ответить на этот вопрос, сравним CLEAR для электронных связей с гибридными фотон-плазмонными связями в зависимости от времени эволюции и расстояния распространения сигнала (рис. 3). Здесь манипулирование светом осуществляется с помощью плазмонных «активных» строительных блоков (источник, модулятор, детектор, переключатель) (см. здесь и здесь), тогда как распространение света обрабатывается фотоникой низких потерь на базе кремниевых или нитрид-кремниевых платформ. Сравнивается электроника с таким вариантом плазмон-фотонного гибрида, потому что разделение активной и пассивной функциональности в гибридной плазмон-фотонике приводит к более высокой производительности (то есть, более низкая задержка, более высокая пропускная способность, более низкая функция энергии на бит). Полученные кривые поверхности показывают, что CLEAR электроники и плазмон-фотоники имеют линию безубыточности (пересечение поверхностей, рис. 3), которая масштабируется как по времени, так и по расстоянию распространения сигнала. Интересно, что даже сегодня, электроника по-прежнему опережает фотонику при размерах чипа = 1 см на длине передачи информации. Поэтому электроника до сих пор коммерчески используется на кристаллах, в отличие от фотоники. Инвестиции и разработки в электронике за последние полвека, таким образом, создали технологическую устойчивость (барьер входа) для других технологий. Такое масштабирование привело к тому, что транзистор стоит всего одну миллиардную стоимости фотонного устройства или еще меньше (см. здесь).

2
Рисунок 3.Сравнение показателей CLEAR электрического (синий) и гибридного фотон-плазмонного (красный) интерконнекта на кристалле в зависимости от длины связи и времени развития технологии. Размер чипа = 1 см, длина связи и год написания статьи (2019) обозначены красным. Были развернуты следующие модели; а) модель пропускной способности, основанная на количестве транзисторов и оптических устройств на кристалле, которую можно рассматривать как первоначальную модель закона Мура; б) модель энергоэффективности на основе закона Куми, который ограничен пределом Ландауэра kB*T*ln(2) ≈ 2.75 зДж/бит, (kB — постоянная Больцмана; T — температура); в) модель экономической устойчивости, основанная на моделях технологического развития до 2019 года, согласно которой стоимость электронного канала составляет менее одной миллиардной или одной миллионной стоимости гибридного канала; г) модель параллелизма (после 2006 года), описывающая многоядерную архитектуру и ограничения «темного кремния» в электрическом интерконнекте. Желтая точка расположена на пересечении двух технологий в период 2019 года, когда технология Hybrid Plasmon-Photonics только достигла размеров чипа и начинает демонстрировать лучшую производительность показателя CLEAR на кристалле.

По мере совершенствования технологии и производственных процессов расстояние безубыточности «производительность за одну цену» (т.е. CLEAR) для передачи небольшого количества информации сокращается в силу более плоской кривой стоимости электроники по сравнению с фотоникой, причем последняя следует степенному закону во времени. Более того, стоимость начинает расти с масштабированием плотности электрического интерконнекта, связанным с дополнительными издержками в силу фундаментальных физических проблем на транзисторных узлах менее 10 нм (см. здесь). В отличие от этого, гибридный фотон-плазмонный интерконнект в настоящее время дорогостоящ пока в силу только начавшегося масштабирования, которое является целью консорциума Американского института по производству интегрированной фотоники (AIM Photonics). Масштабирование теперь возможно в результате недавних достижений в нанофотонике; концепция усиления взаимодействия света с веществом позволяет создавать компактные по длине волны в оптоэлектронных устройствах с преимуществами высокой энергоэффективности и высокой скорости работы из-за низкой электрической емкости (см. здесь). В результате, дистанция безубыточности между электроникой и гибридными фотон-плазмонными технологиями, как ожидается, будет дополнительно сдвигаться на более короткие расстояния по мере движения по временной шкале. Например, кремниевый фотонный чип на основе CMOS, продемонстрированный IBM еще в 2015 году, близок к области безубыточности (см. здесь). Интегрированная фотоника сможет заменить электронику только если скорость ее CLEAR-производительности сможет догнать общий эволюционный тренд вычислительных систем.

Выводы


Как мы увидели из приведенных выше рассуждений, CLEAR можно рассматривать как универсальный технико-экономический показатель не только из-за его широкой иерархической применимости (устройства, интерконнект, системные уровни), но также из-за его способности адаптироваться к конкретному технологическому применению. Например, для гибридизации сети внутри кристалла. CLEAR можно не только использовать в качестве показателя эффективности для прогнозирования эволюции технологической платформы, но также можно сравнивать общую способность технологической платформы (платформ) при различных условиях применения путем добавления весовых показателей к каждому коэффициенту в уравнении (4).

В этой первоначально предложенной метрике CLEAR все пять факторов линейно влияют на значение CLEAR, однако для конкретного приложения, которое критически зависит от конкретного фактора (или комбинации факторов), каждый фактор в CLEAR может быть взвешен по-разному. Чтобы обеспечить сопоставимость, даже среди таких «настроенных» метрик, может потребоваться обеспечить такие условия, чтобы сумма всех коэффициентов равнялась 5, аналогично нормализации к единице, такой как интеграл волновой функции в квантовой механике. Например, система портативных устройств может иметь строгие ограничения по энергии (E) и пространственному объему (A), что приводит к метрике CLEAR C0.8L0.8E1.2A1.2R для такой технологии. Действительно, было бы интересно сравнить тренды из различных настроенных метрик с возможностью прогнозирования технологий в будущем.

Кроме того, мы можем воспринимать будущие каналы связи или сети динамически реконфигурируемыми, позволяя микросхеме изменять свою идеальную рабочую точку в зависимости от текущего приложения, нагрузки, режима питания и т.д. Такие приложения, управляемые динамическими данными систем (DDDAS) востребованы из-за их комбинированной способности обработки когнитивной информации. Ожидается, что адаптация компьютерных систем к множеству ограничений будет иметь синергию с появляющимися системами теории информации, такими например как, нейроморфные и резервуарные вычисления, где адаптация и настройка «весов» обеспечивают работу машинного обучения, арифметику систем исчисления остатков или даже встроенной кремниевой фотоники оптических вычислений (см. здесь, тут, здесь и здесь).

Стоит также отметить, что, как это и случилось со всеми предыдущими показателями эффективности прогнозирования производительности технологических платформ, CLEAR может в конечном итоге начать отклоняться от своего первоначального тренда, когда в новой технологии будут использоваться более уникальные физические особенности. В настоящее время в CLEAR адекватно охватываются все доминирующие факторы производительности в современных технологиях, что позволяет на точном уровне прогнозировать эволюцию вычислительных систем на момент написания статьи.

Таким образом, CLEAR может быть не только инструментом для картографирования и прогнозирования перспектив, но и может проложить путь к аппаратным «умным» и когнитивным компьютерным платформам управления, где компромиссы между производительностью и стоимостью пересматриваются и оптимизируются в режиме реального времени.

В итоге, CLEAR можно рассматривать как новый закон Мура, который целостно отражает тенденции развития технологий различных уровней иерархического применения.
Теги:
Хабы:
Если эта публикация вас вдохновила и вы хотите поддержать автора — не стесняйтесь нажать на кнопку
+9
Комментарии 3
Комментарии Комментарии 3

Публикации

Истории

Ближайшие события

Московский туристический хакатон
Дата 23 марта – 7 апреля
Место
Москва Онлайн
Геймтон «DatsEdenSpace» от DatsTeam
Дата 5 – 6 апреля
Время 17:00 – 20:00
Место
Онлайн