Как стать автором
Обновить

Аппаратные компоненты бортовой МПС унифицированного ударного истребителя F-35

Время на прочтение 10 мин
Количество просмотров 9.6K
Всего голосов 25: ↑18 и ↓7 +11
Комментарии 45

Комментарии 45

Действительно-ли беспроводная NoC может быть выгодна? На мой взгляд — проще пробросить на эти 3..5 мм [много]гигабитный Ethernet, чем лепить повсюду антенны (хоть микро, хоть даже нано) и бороться с помехами от близлежащих широкополосных цифровых блоков.
Может дело в весе? Знаете сколько весит метр витой пары? А если она шилдованная? А если для самолета? А если их много? Думаю вопрос надо рассматривать через призму решаемых задач, если они могут быть решены через NoC, без потери скажем так «качества», то почему бы и нет?
А может для передачи данных между вычислителями использовать оптику?
а преобразовывать сигнал вы чем будете)? на каждую линию оптики, вам надо добавить 2 конвертера. Тем более, что оптика очень требовательна к качеству разъемных соединений, если мы говорим о GOF. Пластиковое оптическое волокно не требовательно, но по нему не прокачаешь больше 100мб/с, да и то не далеко(( Тем более что оптика достаточно хрупкая весч для использования в самолетах, и остается вопрос виброустойчивых коннекторов. Плюс ко всему размеры. Сравните военные образцы многопиновых медных разъемов и оптических.
Тем не менее, оптика и в авионике, и в космосе для бортовых сетей или уже используется, или готовится к использованию в ближайшем будущем. Гуглить по запросу SpaceFibre.
Проект реализовывался международной кооперацией, в которую входили: Университет Данди (Великобритания), ФГУП «НИИ «Субмикрон», Санкт-Петербургский государственный университет аэрокосмического приборостроения, НПЦ «Элвис» (Российская Федерация), фирма «Астриум ГМБХ» (Германия). Результатом работы явилась разработка проекта стандарта, получившего название SpaceFibre. Данный стандарт подразумевает использование как волоконно-оптических линий связи, так и медных твин-аксиальных кабелей. Поддерживается агрегация нескольких (до 4) линий связи в один канал. При технической скорости передачи информации в линии до 6,25 Гбит/с обеспечивается передача до 5 Гбит/с полезной информации на линию, или до 20 Гбит/с на канал, содержащий 4 линии


Но к концепции Network on Chip это все не имеет отношения, потому что она on chip. Суть идеи там состоит в том, чтобы снабдить накристалльные IP-блоки интерфейсами, сходными с обычными сетевыми и позволяющими на кристалле работать с высокими уровнями модели OSI.
Да, я с вами полностью согласен, даже держал такие (авиационные оптические) разъемы в руках.
К сожалению мне не хватает знаний, чтобы даже теоретически представить как это сделать(((: «снабдить накристалльные IP-блоки интерфейсами, сходными с обычными сетевыми и позволяющими на кристалле работать с высокими уровнями модели OSI», но звучит круто.
Относительно недавно принятый стандарт ARINC818-2 очень широко использует оптические каналы для передачи данных. Предпосылками для его принятия как раз и были те проблемы, которые, частично, описаны в статье.
То есть непосредственно с волокном проблемы решены, а с приёмопередатчиками вопрос тоже особо нет.
Спасибо, надо почитать.
Исходя из контекста — ни о каких метрах речи нет. Речь о Network-on-Chip, т.е. в пределах кристалла или гибридки. Единицы мм, как я и указал. И коллега amartology поддерживает.
Возможно KarevAnton поддался на «модно-молодёжно»?
Ну в статье же сказано беспроводная) Я тоже повелся. Наверно в оригинале звучало как-нибудь типа «cableless» кабелей/проводов же нет))
Наверно в оригинале звучало как-нибудь типа «cableless»
В оригинале ни слова нет на этот счет, я проверил. Автор просто на ровном месте придумал это «беспроводное».
Коллеги, amartology – прав. У меня в статье действительно была ошибка (сейчас я её исправил), связанная с моим недопониманием концепции NoC.

Вот оригинальный кусок текста, отталкиваясь от которого я рискнул предположить, что сеть там беспроводная: «The NoC approach has a clear advantage over traditional buses for nearly all criteria, most notably system throughput». «Hierarchies of crossbars or multilayered buses have characteristics somewhere in between traditional buses and NoC; however, they fall far short of the NoC with respect to performance and complexity».

Рецензент технического журнала, в котором эта статья изначально публиковалась, – ошибки не заметил. А amartology не только указал на неё, но и доходчиво объяснил, в чём тут суть. За что ему большое спасибо. Кому интересно, вот его объяснение (из нашей с ним переписки):

Сеть в NoC есть, но она не беспроводная, а проводная. Повышение пропускной способности делается архитектурно, а не за счет отказа от проводов. Штука в том, что в современных микросхемах сколько угодно сложная логика – компактнее и удобнее межсоединений. Поэтому ничего не мешает делать какие угодно контроллеры, которые будут лучше и быстрее широких параллельных шин, на которых много лет держалась индустрия. Реализовать внутри кристалла беспородную сеть в теории можно, но антенны там будут по микроэлектронным меркам гигантские. На кристалле организована сеть, которая физически устроена точно так же, как обычная шина (многоуровневая металлизация), но за счет другой архитектуры получается добиться большей производительности.
В принципе, концепты беспроводных NoC существуют, см. главу 13.2 RF/Wireless Interconnects книги Sudeep Pasricha, Nikil Dutt — On-Chip Communication Architectures: System on Chip Interconnect:
Frequency division multiple access (FDMA), code division multiple access (CDMA), or a combination of the two (FDMA/CDMA) can be used to achieve simultaneous communications in RF/wireless interconnects. In an FDMA interconnect, frequency bands of I/O channels can be allocated between 5–105 GHz with a bandwidth of approximately 5–20 GHz in each channel and sustaining a minimum data rate of 5–40 Gb/s depending on the modulation scheme.
Так NoC проводная, она внутри кристалла/корпуса микросхемы же, сделана из дорожек металлизации. Я вообще не понимаю, с чего автор статьи взял слово «беспроводная». В процитированном первоисточнике [7] ничего про беспроводность не сказано, что полностью разумно, потому что быстрее металлизации внутри кристалла в теории может быть только оптика, а таких технологий пока что просто нет.
Спасибо, а то у нас уже дискуссия намечается)
Что такое МПС? Это международные платёжные системы или министерство путей сообщения?
Автор, Вы сможете прочитать внутренний документ Сбербанка текст с аббревиатурами, которых никто не расшифровывает, а Вы их не знаете?
Справедливое замечание. Добавил расшифровку в аннотацию.
Ctrl+F «радиация»: ноль результатов.
Ctrl+F «нейтроны»: ноль результатов.
Быстрая гуглежка показывает, что в реальности на F-35 стоят в Integrated Cope Processor, разумеется, никакие не Intel Core i7, а вполне себе PowerPC производства NXP can на проектных нормах 90 нм КНИ, зато с высокой устойчивостью к воздействию нейтронов при атомном взрыве и к вторичным нейтронам от космической радиации.
Коллега, насколько мне известно, на борту F-35 функционируют сразу несколько процессоров, от разных поставщиков. Потому что в системах, к которым предъявляются повышенные требования на отказоустойчивость, вводится функциональная избыточность, – чтобы одну и ту же задачу на борту потенциально могли выполнить несколько разных устройств. Причём требование избыточности таково, чтобы дублирующие элементы были разработаны альтернативными производителями и имели альтернативную архитектуру. Благодаря этому вероятность одновременного выхода из строя оригинала и дубликата – снижается. Бьюсь об заклад, что вам, как разработчику электроники для космоса, это всё известно лучше чем кому-либо другому.
Что касается защиты от нейтронов и радиации, то в ней ведь не только процессор нуждается, но и вся остальная электроника, которой F-35 напичкан до предела, поэтому куда логичней защитить корпус истребителя, а не отдельные компоненты его начинки. А заодно и пилота защитить. Есть там в корпусе такая защита или нету, – не знаю, потому как не изучал этот вопрос подробно. Лично пои познания относительно защиты F-35 от неблагоприятных воздействий со стороны окружающей среды ограничиваются его подсистемой VRAMS («интеллектуальная система информирования о рисках, связанных с опасными для оборудования манёврами»). В рамках неё защита от радиации и нейтронов не предусмотрена, но возможно она реализована в каком-то другом слое защиты. По крайней мере это было бы логично.
на борту F-35 функционируют сразу несколько процессоров
Это как раз очевидно, я просто привел пример того, как оно устроено на самом деле и почему. Если у вас есть пример того, где именно в F-35 стоит Intel Core — буду благодарен.

куда логичней защитить корпус истребителя, а не отдельные компоненты его начинки
Это логично, но невозможно, потому что корпус самолета из метрового слоя воды в оболочке из графита не очень получится. Поэтому и надо защищать начинку.
Осмелюсь влезть в вашу дискуссию. Странно, что в статье упоминается «ширпотреб», который вряд ли на МКС сможет работать. Про ECC — важнейший компонент, тоже не упоминается, а без этого прошивка не долго проработает. Лично в моё поле зрения попадала продукция micro-rdc.com, PowerPC, 1986В е8T. SpaceWire вроде в моде для больших потоков данных с датчиков/камер.

Гм, а зачем метр воды? Я бы вполне рассчитывал на что-то типа антинейтронного надбоя (на наших танках такой был когда-то).

Полиэтин с примесями бора, он же антинейтронный надбой — это поглотитель медленных нейтронов, актуальный для атомной бомбы. Для атмосферных нейтронов с более высокими энергиями нужен еще замедлитель, чтобы поглотитель начал работать. На АЭС для этой цели используется вода. Более того, она и низкоэнергетические нейтроны поглощает (с чем на АЭС надо бороться, например, используя тяжелую воду вместо обычной), то есть прямо всем хороша. Да и про метр я наврал, воды надо всего сантиметров пятнадцать, это ничего по сравнению с двумя метрами свинца. Правда, надо будет как-то решать проблему перегрева)

А так да, куда логичней защитить корпус истребителя, а не отдельные компоненты его начинки.

Также полиэтиленовый антинейтронный надбой очень хорошо горит.
Само собой, защита от атмосферных явлений — история отдельная. Я говорил сугубо о защите от ядерного взрыва, где вода не нужна. Тут дело в том, что защита от атмосферных явлений в любом случае стоит в повестке всякого разработчика авионики, а вот от ядерного взрыва — не у всякого. Тем более, что от характерного для взрыва мощного потока нужно защищать не только и не столько электронику. И тут надбой как раз помогал бы, если бы не был так тяжел. Горючесть как раз представляет собой не такую большую проблему ИМХО, тем более, что добавки помогают, а широкая общественная надбоебоязнь скорее проистекает из популярных в последние два десятилетия рассказов из серии "… как руками без кожи защелку искал командир...".
НЛО прилетело и опубликовало эту надпись здесь
Он не очень тяжелый. Топлива просто можно взять поменьше )))
Пример в виде камеры Adlink как то не уместен. Эта камера для машинного зрения в АСУТП, а в военной технике используются немного другое оборудование.
Так ведь на западе военная техника — очень либеральна (если так можно выразиться). Вот вырезка из «Global Horizons // United States Air Force Global Science and Technology Vision. 3.07.2013» — относительно того, какое оборудование используется в военной технике:

Все компоненты, из которых состоит современная американская военная техника – 1) либо изготовлены на заказ, 2) либо кастомизированы из доступных коммерческих продуктов, 3) либо представляют собой коробочное коммерческое решение. При этом во всех этих трёх случаях производители, либо отдельных компонентов, либо всей системы в целом, – имеют сомнительную родословную, которая как правило берёт своё начало за пределами страны. В результате есть риск, что в каком-нибудь из звеньев цепи поставок (которая зачастую по всему миру растянута) – в программно-аппаратный компонент встроят бэкдор или малварь (либо на программном, либо на аппаратном уровне). Кроме того, известно, что американские ВВС используют более 1 миллиона контрафактных электронных компонентов, что также увеличивает вероятность появления на борту вредоносного кода и бэкдоров. Не говоря уже о том, что контрафакт это как правило некачественная и нестабильная копия оригинала, – со всеми вытекающими.
Конечно можно использовать в некоторых случаях коммерческие решения. Даже термин есть для таких случаев — Commercial Off-The-Shelf(COTS). А ещё нужно, при выборе такого решения, «включать» голову.
В России с этим вообще беда. До недавнего времени можно было использовать компоненты Xilinx, TI и прочих Teledyne. Теперь — только отечественное ;), например лицензионные ARM (НИИЭТ, ЭЛВИС и др.), берущие начало… Есть отечественные FPGA. А вот микросхем памяти типа DDR3 нет и еще много чего нет.
Вот так у нас в Ростехе с либеральностью.
Есть отдельные критические области, где гарантировано отсутствие «закладок». Там и сейчас производятся и используются аппаратно-программные «мастодонты», но их вес не позволит им подняться в воздух.
А вот микросхем памяти типа DDR3 нет и еще много чего нет.
Все силы ушли на десяток разных микропроцессорных и микроконтроллерных линеек, не до памяти)
«Много чего» все хотят, но никто не хочет давать денег на разработку, даже на то, что, в отличие от DDR3, можно нормально производить на имеющихся в России технологиях.

Ну, лицензионных армов шиш да ничего в сравнении с "совсем почти своими" реализациям MIPS (кстати не знаю, у Элвиса она насколько "своя" — Панчул говорил, что они ядро купили, но не сказал, какое именно). Так что все не так и страшно с этими лицензиями, если бы конечно не тот факт, что, да, все силы ушли на процессоры.


А насчёт Теледайна — и чем же это его продукция теперь заменяема?

По teledyne, могу сказать только про твердотельные реле (например sc75-2sh). Ничем они напрямую не заменяются, т.к. там защита + статус срабатывания. Есть наши оптроны, но в них нет защиты по току, и макс. ток в 2 раза меньше.
Элвис ВМ14Я, из его мануала:«2-х ядерный когерентный кластер ARM Cortex-A9 MPCore c SIMD сопроцессорами NEON, два DSP-ядра, совместимых с DELcore, аппаратно-программный графический акселератор MALI-300»
Вот-вот, это как раз один из немногих примеров.
Вы и количество АРМов недооцениваете (Миландр, НИИЭТ, Элвис, Модуль и это, кажется, не все), и «свои реализации почти МИПС» в последнее время стали лучше и разнообразнее.
Одно изделие у НИИЭТ, одно у Элвиса — внезапный отзыв лицензий у них хозяевами IP вряд ли скажется на военной аппаратуре как-то критично, поскольку упомянутые изделия кмк не имеют пока особенно широкого применения в этой области. С Миландром конечно хуже, у них целая линейка и все «в ходу», но мне показалось, что у них какая-то хитрая схема лицензирования IP (судя, например, по тому самому «RISC-ядру», которое потом оказалось совместимым с M1). Вот про Модуль я просто забыл, каюсь — у них много АРМов, всяких разных, и все их изделия «в ходу», так что если вдруг и их решать «захуавеить», то возможны проблемы.
Я правильно понимаю что теперь программисты будут:
1. Сначала программировать кастомную логику, порты и прочую периферию.
2. потом прописать конфигурации для типовых дизайнов FPGA
3. потом писать новый компилятор, который сможет раскидывать код между PLA/FPGA/GPU/CPU (c учетом описанных ранее конфигураций и прошитой логики) и туллкит для управления всем этим

и вот потом можно будет наконец написать программу под этот конкретный зоопарк устройств, в которой сможет появиться эта синергия?

Т.е. получаем наборную HW платформу и под каждую такую платформу пишем компилятор и тулкит (наверно это можно автоматизировать частично). Но вот программистом таких систем я не позавидую — каждый новый проект — новый зоопарк тулкит и новая программная среда.
По поводу пункта 3, задача автоматической «раскладки» на девайсы вроде ещё не решена в полной мере. Есть пару реализаций OpenCL (у Intel и у Xilinx), которые делают примерно то, что вы описали, но даже они далековаты от идеала. Вряд ли каждая команда будет делать такую работу заново и самостоятельно.
В софте от Xilinx-а сделано проще (для SoC-ов «Zync» где ARM-ядра и FPGA соединены AXI-шинами).
1) Пишется С-код, компилируется под ARM (крутится всё на bare metal или даже на каком-нить linux-е).
2) Выбираются (программистом, на основе профилирования) функции, которые надо перекинуть в FPGA и на них «ставится галочка».
3) Софт синтезирует HDL-код FPGA-ускорителей для этих функций и заменяет в С-коде их вызовы на интерконнект (DMA через AXI) с соответствующими ускорителями.
Это идеальное описание. А на практике:
  • надо писать код, который планируется переместить в железо, с разными ограничениями
  • нужно выполнить много итераций синтеза, прежде чем получится что-то хорошее по степени параллелизации/задержкам/занимаемым ресурсам FPGA
  • в итоге софт будет мучительно долго делать place & route для FPGA-части и с большой долей вероятности не сможет поместиться в нужный размер или достигнуть нужной частоты

И вся эта деятельность подразумевает, что условный программист таки умеет в HDL и мыслит в аппаратных категориях, пусть и избавлен от необходимости самому писать HDL-код.
Но само направление движения вполне правильное на мой взгляд. Жаль только, что Xilinx, судя по всему, закроет это направление и оставит только альтернативный вариант с взаимодействием процессорной и FPGA-части через одно место OpenCL, для которого больше ограничений и телодвижений.
Впрочем, нет ничего идеального в нашем мире.
Есть еще такие проекты, в которых используется связка CPU — FPGA, соединенная, например через EMIF. Тогда разработчики (программист и HDL-инженер), сообща решают кто и что будет реализовывать, и каков интерфейс между программой и жесткой логикой. В некоторых случаях, для расширения функционала, при ограниченности ресурсов FPGA, может использоваться загрузка различных проектов в FPGA во время работы.

GPU скорей всего скоро выпрут отсюда. Останутся только FPGA + CPU.

По плотности FP-операций на квадратный миллиметр кремния вряд ли что-то может победить GPU. Даже если представить себе FPGA, в который будут добавлены аппаратные элементы для FP-операций, там слишком большой оверхед всяческих коммутационных матриц и логики. Так что сомнительно, что GPU куда-то выкинут. Разве что отрежут ненужные элементы типа растеризаторов, но сам вычислительный массив в своей области применения заменить нечем.

Хочу спросить вот что — а каков основной посыл статьи для целевой части местной аудитории?

Биткоины скоро станет майнить проще и дешевле.

Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории