Как стать автором
Обновить

Комментарии 502

А не стратегия ли win-win между программистами и аппаратчиками, когда на всё более быстрое железо, выпускается всё более медленный софт (Word 2016 запускается столько же времени, сколько Word95 на компьютере в 500 раз слабее)?
P.S. Привет Electron в Skype…
image
В далеком далеком прошлом ;) нажатие на кнопку формировало картинку на аппаратном уровне. не нашел схемы более низкого уровня ;(
А сейчас цепочка событий распухла до неприличия.
Клавиатуры (блютуз). Буквы в юникоде с модификаторами направления и прочим.
Отрисовка на виртуальном видеоадаптере виртуальной машины. Куча вычислительной
мощности уходит на виртуализацию и отвязку от аппаратного уровня.
Да, производительность губится многими ненужными слоями абстракции. И многие разработчики не думают о том, нужен ли тут очередной слой, а пишут просто так, как принято.

Ну уберут лишнии слои абстракции, оптимизируют код по максимум. Но как это поможет запустить ИИ для Go от DeepMind на мобилке или даже обычном компе (как простая модель ИИ)? Для этого нужна интеграция с другим вычислительным устройством.

Но как это поможет запустить ИИ для Go от DeepMind на мобилке или даже обычном компе (как простая модель ИИ)?
Для чего это? Вы не можете без этого жить прям?

Да, вот прям я не могу — мечтаю создать бота для другой подобной игры и чтобы его можно было обучать и запускать хотя бы на обычном компе, а не на специализированному оборудовании (TPU) в облаке.


Но речь не обо мне одном. Игру Go привел в качестве примера задачи, в которой существует огромное количество ветвлений и неопределенностей на каждом шагу и с которой современные методы на основе глубинного обучения от DeepMind справляются на отлично. Также можно привести в качестве примеров ботов к Starcraft 2, что даже более приближено к реальной жизни, но они пока не обходят уверенно человека.


На основе этого я предполагаю, что подобные методы могут использоваться уже для реальных задач, упомянутых в моем комменте ниже.

Также можно привести в качестве примеров ботов к Starcraft 2, что даже более приближено к реальной жизни, но они пока не обходят уверенно человека.
А кому будет нужна игра, в которой боты уверенно и всегда будут обходить игрока? :)

жизнь без страданий не жизнь

Ну например играть то всё ещё можно против людей, а ботов использовать для тренировки. Ну и кроме того есть куча игр где можно группой людей играть против одного бота(или меньшей группы ботов) и тогда тоже интереснее если боты сильнее. Если совсем начать фантазировать, то на базе таких ботов можно сделать гораздо более интересных мобов/боссов для каких-нибудь ММО. И т.д. и т.п. :)

А если бот-босс будет читерить, его забанят админы? Или например будет на точке загрузки игроков ждать? Или сражаться только со слабыми персонажами, выбивать часть пати перед смертью итд.

Если будет "читерить", то есть нарушать какие-то заранее определённые правила, то тогда его надо фиксить. Во всех остальных случаях лично я буду только рад.

Бот «обучился» и начал «читерить». Вы предлагаете фиксы, а зачем тогда мы его вообще обучали? Уже Сейчас можно задать ботам такие паттерны поведения, что на форумах только и будут сообщения: «Когда его уже пофиксят?».

У нас с вами по моему какое-то разное понимание того что значит "читерить".


Вот предствьте себе бота, который играет в шахматы. Если он придумал какой-то новый, до этого никому неизвестный, шахматный этюд и использовал его в игре, то это замечательно. Если он "научился" перемещать фигуры по доске в обход шахматных правил, то это "читерство" и это надо фиксить.

Ну вот помню, в WoW был босс (в виде группы ботов, вроде как PvP), который фокусил хилов в пати. Довольно интересный босс был, требовалось много контроля и координации группы.
в какой локации, не подскажете? м...wow. ностальгия… 3 раза из универа отчислялась, благодаря этой игрушке
Испытание крестоносца назывался инст, против чемпионов фракций
Да, но тот босс и рассчитан на такое поведение. Сомневаюсь, что его дпс сравним с дпсом боссов, рассчитанных на танков. Простейшие примеры — боссы, которые уязвимы после применения некоторых способностей (самый частый — враги с огромным оружием, или таранящие) просто перестают применять эти способности и становятся непобедимы. или наоборот, создают неотражаемые комбинации. Чтобы не допустить подобного, придётся опять возвращаться к достаточно жестко заданному поведению.
Вламывал нормально, я как раз хилом играл. Там как раз вся тактика строилась вокруг контроля и сэйвов, чтобы «враги» хилов не перещелкали.
Просто придумываются правила, которые не получается нарушать ))
Скажем красная зона вместо запрета на кемперство.
То, что боты будут умнее, еще не значит, что играть с ними будет не интересно. Просто у разработчиков будет больше возможностей, боты смогут «поддаваться» так, что игрок не будет этого замечать.
Надеюсь, появится ИИ с разным уровнем игры, а не один и тот же ИИ с пенальти / бонусами, в зависимости от уровня сложности.

Почему вы думаете, что пенальти и разный уровень игры — это разные вещи?

Бонус +100% к добываемым ресурсам не изменяет логики самого бота. Если у него есть «баг» в логике, то этот баг там и останется. Как и пенальти на 25% получаемого урона не шибко усложнит игру, если у бота уровень интеллекта и маневренность черного тролля из второй готики.
+25% на получаемый урон от атаки черного тролля в Gothic 2 сделает из него одного из самых страшных врагов. В игре, в которой сложность определяется в том числе и неудобным управлением — это существенное пенальти. 25% даже из падальщика сделают ночной кошмар.
Хоть +1000%. Он является одинм из слабейших противников во второй готике, т.к. его легко забить на первом уровне с обычной палкой на 5 урона с классическим управлением: просто бегаешь вокруг и бьешь боковым ударом. Ударить в ответ он не может, т.к. он очень медленно поворачивается, что позволяет легко держаться за его спиной и успевать бить, так что не смотря на наносимую 1 урона, из-за низкого навыка, силы и урона оружия, умирает он довольно быстро, руки устать не успевают.
Падальщики легко забиваются двуручным оружием с… классическим управлением: просто стоишь на одном месте и машешь оружием вправо-влево. Проклинаемые многими полевые жуки убиваются полностью аналогично, только одноручным оружием. Любого одиночного бойца с двуручем легко убить с одноручником: блок-боковой удар, повторить до смерти оппонента. AI там на столько туп, что сколько не усиливай противников, их довольно легко убить простым набором движений с тем самым «неудобным» классическим управлением, просто анимация обычного удара зависит от навыка и имеет большую паузу в завершении движения связки, а анимация боковых ударов не зависит и имеет очень короткое окно остаточной анимации, из-за чего легко продолжается блоком или ударов в другую сторону.
Потому, что это разные вещи?
Примерно так же, как навык профессиональных игроков прятаться в неочевидных местах и стрелять в полтора пикселя, мелькнувшие на экране разнится от новичка с хаками на автонаведение и показ противников сквозь стены.
Потому что, на примере шутера, пенальти — это искусственно сниженная меткость бота, меньшее количество hp и меньший урон на Easy, а на Hard эти показатели просто выше.
А разный уровень игры предполагает разное поведение бота, у него одинаковое количество hp и одинаковый урон на разных уровнях сложности, не значительно отличается меткость, главное отличие в поведении, во взаимодействии с игроком; засады, ловушки, выработка контр тактики… Разница в ощущения от игры с ботами первого и второго типа — колоссальная!
потому, что боты без пенальти в том же старкрафт видят всю карту в одном окне и им не нужно перемещать камеру в места событий, не говоря уже о том, что они могут делать до 40 000 действий в минуту, а это 666 действий в секунду, человек так делать не может, уже не говоря о том, что alphastar просто пытается эмитировать игру людей без понимания игры, выигрывая только за счёт читов по скорости действий и «видимости всей карты в одном окне» это неоднократно разбиралось на канале Alex007.
А кому будет нужна игра, в которой боты уверенно и всегда будут обходить игрока? :)


И вот создали они себе бог(т)ов, чтобы было кому молиться… :)

история компьютерного язычества (С)
Ха-ха-ха, да-да :)
НЛО прилетело и опубликовало эту надпись здесь

А кто ж тогда все доски для го раскупил после того, как это произошло?

Ну с ограничениями на скорость реакции, кол-во действий в секунду, обзор карты и т.д — не выигрывают. А играть с мыслящим соперником гораздо интерестнее, чем с тупыми болванчиками.

Военным.
Ну вообще страшненько конечно.

Также можно привести в качестве примеров ботов к Starcraft 2, что даже более приближено к реальной жизни, но они пока не обходят уверенно человека.

Полагаю, основная проблема в том, что качественно обучить можно только играя с людьми, но при этом нельзя запустить сразу много инстансов бота, иначе люди начнут чаще играть с ботами, чем с людьми, а соответственно и поведение игроков будет меняться и тогда обучение еще хуже получится. То есть обучая бота играть как человек(или лучше чем человек), главное не испортить самих игроков, иначе фигня получится.

Я надеялся, что следующая версия ИИ для StarCraft от DeepMind будет обучаться на играх сама с собой. Как было с игрой Go: сначала обучалась на человеческом опыте, потом AlphaZero, которая училась, играя сама с собой.

AlphaStar (ИИ для StarCraft) обучается по той же схеме. Начальное приближение получил от игр людей, а потом играл сам с собой.
От тех же DeepMind боты для дота 2. Играя сами с собой боты пришли к стилю игры — равное распределения ресурсов. И побежлая команды из про игроков доказали жизнеспособность подхода. Но на игре команд это не сказалось. Все по прежнему предпочитают распределение на роли. Возможно это из-за того что игры против ботов были как развлечение.

В командных боях боты это вообще чит. 5 человек со своими характерами и эмоциями должны как-то скооперировавшись играть, а боты, по сути, как один большой бот играют.

Так боты играли в совершенно другую доту с совершенно другим балансом (в котором у людей не было опыта). В этом варианте доты, действительно, возможно, что равное распределение ресурсов и было более эффективно.

Они не обходят потому что их абузят. Сами боты к тому же нечестные и натянутые на глобус.
На мобилах тот еще прикол.
Виртуальная машина C# работает совместно с виртуальной машиной JAVA
через абстракции Линукса над конкретной архитектурой железа.
При этом все более длительное нужно делать асинхронно, чтобы не мешать
свистолко-перделкам на экране. Так как пользователи любят красивые эффекты
анимации, что действие началось и требуется подождать. Расчетов на 100-200 мс,
а в основном потоке их делать запрещено. ANR прилетит.
НЛО прилетело и опубликовало эту надпись здесь
А C# в Android вообще отродясь не было.
Xamarin?
НЛО прилетело и опубликовало эту надпись здесь

AlphaGO требовала больших мощностей для обучения нейросети, но для запуска в последних играх использовался уже всего один компьютер, а не кластер.
Информация из википедии:
Версия, которая выиграла у Фань Хуэя в октябре 2015 года, работала в кластере из нескольких машин с использованием 176 графических процессоров.
В игре с Ли Седолем в марте 2016 года AlphaGo использовала 48 TPU процессоров.
В матче против Кэ Цзе в мае 2017 года новая версия AlphaGo использовала только один компьютер на Google Cloud c 4 TPU процессорами, то есть примерно в 10 раз меньшую вычислительную мощность, чем была использована в матче с Ли Седолем.

О том и речь, что TPU — это другое вычислительное устройство, не обычный процессор CPU.

Учитывая уплотнение компоновки на чипе и появление 64-ядерных процессоров, думаю в скором времени не составит большого труда сделать процессор, в котором будет штук 20 обычных ядер, штук 20 TPU, штук 20 ARM и еще видеоядро как у топовой видеокарты :-)

И фреоновый кондиционер в комплекте =)

Тогда я всё-таки напишу статью "Как настроить циркуляцию в системном блоке или Замена ЭЛТ-монитора для котика".

Другое, но разница чисто количественная, оно не делает что-то такого, чего не могли бы сделать обычный CPU или GPU в обычном компьютере. Просто способно некоторые виды задач обрабатывать в разы быстрее/эффективнее универсальных вычислителей. Но при этом другие вообще не может или может но в разы хуже.

Весь вопрос дадут ли вам доступ к самой сети(данным), а не к вычислителю. Обсчитать при наличии доступа к данным можно на чем угодно.
«ИИ» это апогей человеческого расп*здяйства: люди окончательно «обленились» и вместо того чтобы думать самим — собрались и написали «нейронную сеть», которая будет думать за них… картинки там раскрашивать, моськи голливудских актрис к порнухе прикручивать… эпично, нет слов. Что дальше? Рэпера в президенты и поливать поля газировкой..?? (отсылка к фильму «Идиократия»)
Я вот их тех, кто ненавидит фреймворки и хочет каждый узел оптимизировать пока дым из ушей не пойдёт, обсуждать, планировать систему ДО начала её реализации, учитывать всевозможные нестандартные кейсы её эксплуатации и дальнейшей модернизации, нормализовать данные по максимуму насколько это вообще возможно, обходить стороной сборщики мусора и интерпретируемые языки… но «жизнь такова какова, и никакова больше» (с) поэтому я пишу говнокод на яве и иногда перед сном пустив слезу мечтаю о параллельной вселенной, в которой «всё правильно»
Я вот их тех, кто ненавидит фреймворки и хочет каждый узел оптимизировать пока дым из ушей не пойдёт, обсуждать, планировать систему ДО начала её реализации, учитывать всевозможные нестандартные кейсы её эксплуатации и дальнейшей модернизации, нормализовать данные по максимуму насколько это вообще возможно, обходить стороной сборщики мусора и интерпретируемые языки…


Не волнуйтесь, со временем это пройдёт
у меня не прошло
НЛО прилетело и опубликовало эту надпись здесь
ИИ тоже можно оптимизировать.
Прошу меня простить, но для меня вы сказали типа этого — «ВОТ УБЕРУТ СЛОИ АБСТРАКЦИИ ЛИШНЕЕ ВОТ ЗАПУЩУ Я НОВУЮ КАЛДУ НА GEFORCE4. УХ ЗАЖИВЁМ». Только в негативном окрасе)
В вся эта фигня с раздуванием давно была посчитана, и если кротко… Где мы не гоняем данные\матан, чем больше слоёв и больше «высокого» получим в итоге кучу кала которая будет с трудом работать и тратить кучу времени просто на перемещения данных в памяти
Губится не только производительность. Губятся подходы к разработке.
Модный нынче тренд — фреймворки. Важно освоить очередной фреймворк, а что скрывается под ним никого не интересует.
В результате когда все это начинает тормозить, или давать не тот результат, которого ожидали, все списывается на фреймворк — «он так работает, мы с этим ничего не можем поделать».
Количество (в процентном соотношении) разработчиков, способных заглянуть по фреймворк, разобраться с особенностями API той платформы, под которую ведется разработка и использовать их для разработки высокопропроизводительной системы, стремительно падает.
НЛО прилетело и опубликовало эту надпись здесь
Даже память покупать не надо — переехал на инстанс побольше и погнали. Кроме того, час работы программиста стоит очень дорого, намного дороже железа.
НЛО прилетело и опубликовало эту надпись здесь
В итоге вместо вызова метода в коде имеем дикий оверхед на сокеты/хтпп/жсон и сериализации десериализации.

Зато можно масштабироваться. Вечно. В никуда. Наверное, просто никто не прикидывает сколько реально ресурсов НУЖНО

Правильно. Юзер за все заплатит (все эти инстансы и автоскейлы учтены в стоимости услуг для потребителя — чудес не бывает)

Кроме того, час работы программиста стоит очень дорого, намного дороже железа.
это актуально если у вас число программистов примерно равно числу пользователей.

Так надо не на разрабов сетовать, а на требования рынка (т.е самих потребителей). А программисту скоько заплатили, столько он и споет.
Звучит, как будто зодчий из 16 века, посмотрел на современные многоэтажки и говорит:"что за ерунда! Это фуфло бетонное и 100 лет не простоит. Вот я замки строил из чистого камня 500 лет назад, так они до сих пор не покосились". И будет прав, только никто все равно не будет покупать жилье на которое надо собирать деньги три поколения.

Причины чисто экономические. Требования к задачам растут, а объем «оперативной памяти» у человека довольно ограничен. Чем больше слоев абстракции нужно одновременно держать в голове, тем меньше людей оказываются на это способны. А написать, скажем, современную кроссплатформенную AAA-игру без использования фреймворков, скорее всего, невозможно вообще.

Осталось лишь заставить себя пользоваться такими вот картинками "аппаратного уровня".
Я понимаю, что кажется, что диод зажечь — схема и не нужна особо, а спека на какой-то sx1509b, внезапно, десятки страниц.

Одно слово ASIC (ПЛИС), имхо за ними будущее, как только производители перестанут жевать сопли и не станут пихать этот функционал в каждый процессор, причем с общим стандартом и открытыми спецификациями, а не так как сейчас, чтобы начать разрабатывать нужно заплатить четырехзначные суммы

Ну интел на эту тему сыграла — сначала Xeon Phi (который вроде как уже хоронят), потом тупо встраивание FPGA в Xeon. В результате имеем процессоры с адовым TDP под 200+ Ватт и адовой ценой просто на само железо.
Во-первых, ПЛИС и ASIC — это не одно и то же. ПЛИС — это FPGA.
Во-вторых, как верно заметил JerleShannara плата за реконфигурируемость ПЛИС — это огромные накладные расходы, выливающиеся в то, что дизайн на ПЛИС имеет скорость и потребление, сравнимые с ASIC на пять-шесть поколений технологии старше (= медленный кипятильник).
Я разработчик для ПЛИС. Практически в каждом достаточно сложном проекте в состав конфигурации FPGA входит ARM-ядро (Microblaze). А сейчас Intel и Xilinx выпускаются гибриды — ARM + FPGA на одном кристалле.

Потому что делать на конечных автоматах то, что можно написать на Си — нерационально. Быстрее разработка, легче отладка, меньше ошибок, кушает меньше ресурсов. Потому что у FPGA конечное число логических вентилей и ЛЮБОЙ кусок логики или необходимость помнить что-то (если только не используется внешняя память — а DDR3 на платах с FPGA часто встречается) расходует эти ресурсы. Более того — с приближением к этому лимиту сильно возрастает сложность задачи по разводке схемы, она может даже не развестись с нужными скоростными характеристиками. Дешёвые FPGA стоят совсем недорого, каждый купить может какой-нибудь Microzed, а быстрые стоят тысячи долларов. А для серьёзных задач нужны быстрые. Реализовать процессор на FPGA можно, только вы получите 32-битный медленный аналог CPU 20-летней давности за сумасшедшие деньги. FPGA адекватны только для особого спектра задач, например для высокоскоростной потоковой обработки данных, когда вы пишете несколько конечных автоматов, на выходе будет стоять, скажем IP-ядро контроллер Ethernet MAC-уровня, а если есть несколько тысяч долларов и лишние ресурсы, то можно даже сделать TCP/IP. Но для такой задачи нужно разработать свою печатную плату (а иногда не одну), произвести её (это очень дорого по сравнению с любыми Xeon)

А ещё область разработки для FPGA — это заповедник проприетарщины. Честно, тут нечему завидовать. Тут ситуация как в разработке ПО до появления Open Source — платные «компиляторы» и пр.

И чтобы 2 раза не вставать: нет, квантовые компьютеры никогда не заменят обычные. Они работают по совершенно другому принципу, для них известно всего пара десятков очень узконаправленных алгоритмов и максимум, что их ждёт — роль сопроцессоров для спец. вычислений (криптография, некоторые области математики и пр.). Если удастся создать квантовый компьютер с достаточным числом кубитов (а вероятность этого экспоненциально уменьшается с каждым новым кубитом)
Возможно, будущее за специальной архитектурой. Например, в кристалле два ядра из восьми могут быть выделены для операционной системы. Тогда можно упростить системные вызовы, убрав многие слои из драйверов, защищённых вызовов и виртуализации. Будет что-то наподобие real mode для DOS, только для Windows 11.

Процы будут покупаться под конкретную ось :) АМД доведёт линух до ума, сделав его полноценным конкурентом Майкам.
Скорей уж у Майкрософт будет две версии «двух палок» — для Интел и для АМД.
Так то оно так, но у любой медали есть две стороны.
Блюпуп-клавиатура это удобство, но в тоже время требует другого интерфейса работы с собой, а это требует абстракции, чтобы в использующей клавиатуру программе не было необходимости делать несколько реализаций ввода. Юникод решил проблему не-латинских символов и «ой, а у меня не та страница кодировки» и теперь я всегда уверен, что буква будет показана верно.
И т.д. и т.п. с одной стороны мы тратим мощности на ненужные на первый взгляд вещи, а с другой решаем много проблем с удобством и надёжностью работы.

Банально на примере вашей схемы. Что будет, если вместо 5 вольт случайно подадут 220? Светодиод сгорит, а чтобы этого не было требуется ставить защиту, которая усложняет схему.
это я к тому, что раньше делали, что позволяло железо.
А теперь напридумывали столько удобств. Но чтобы они все работали
нужны мощности как для крутого шутера из 2000х
Мне ситуация с разработкой ПО напоминает историю развития автомобилей.
Раньше это были повозки с двигателем без всяких удобств и какого-либо комфорта и люди тоже использовали то что есть. Сейчас же в автомобиле всё меньше деталей необходимых для выполнения задачи перемещения из точки А в точку Б, а остальное это всякие магнитолы, кондиционеры, массажеры попы и т.д. То есть по сути вещи, которые требуют ресурсов, уменьшают надёжность, стоят денег, но при этом добавляют комфорт водителю и пассажирам.
В результате любители езды по лесам говорят, что это отстой, т.к. ненадёжно, а им нужно ремонтироваться в 100500 километрах от дома и для этого нет ничего лучше козла. Городские же жители с удовольствиям ездят на ненадёжных и неэффективных, но комфортных автомобилях. И давайте будем честными, вы не захотите ездить на старом (это которому лет 50) автомобиле, а вернётесь к новому, т.к. при всех минусах комфорт оказывается дороже.

Так же и с разработкой ПО. Пока мощности растут быстрее наших потребностей мы думаем о комфорте в разработке ПО. Как только упрёмся в предел производительности начнём заниматься оптимизацией.
Так себе сравнение. Даже кареты были с удобствами, отоплением и встроенным туалетом.

А то, что человек «подсаживается» на приятное и комфортное было до эры электроники: ожирение и алкоголизм :)

И нет никакой гарантии, что человечество пойдет по пути оптимизиции, может быть количество проблем будет настолько огромным, что проще будет сделать заново. А может быть всё превратится в неразгребаемую помойку.

Ведь технический долг копить так просто и весело, а рвзгребать горы говна не хочется никому.

Разгребать хочется тем, кто не любит жить в говне, а сменить среду особой возможности нет, в том числе потому что почти везде есть, разве что где-то прикрыто.

Если человек с детства жил на свалке, то он даже не будет видеть в этом проблемы. Пример — Индия.

Почему вы думаете, что люди в Индии не видят такой проблемы?
Ведь полно индусов переехало в штаты за хорошей жизнью.

Видят, даже пытаются что-то делать. Тем не менее там свалки размером с высотные здания.
В России также.

Ну автомобилю которому 50 лет вряд ли, но вот который был создан 20 лет назад вполне. В комфорте через пару часов возможно уснуть через пару часов, а так, когда ощущаешь пятой точкой все неровности, за 4-6 часов трудновато будет уснуть.
В разработке ПО такой же подход. Свой алгоритм разработки под каждую конкретную задачу. Где-то нужен сервис чтоб с консолькой и мог запускаться во всяких овнах, а где-то красивая картинка нужна или там куча "светофоров"

Аналогия с старым и новым авто не точная.
Современное «авто» это когда мотор крутит уменьшенные колеса (какие то R3 с шинами типа 20\5), колеса крутят ленту, от ленты уже вращаются полуоси, с нормальными R15 185\80.
НЛО прилетело и опубликовало эту надпись здесь
да, но вместо атмосферного 0,9 там придется ставить дизель 4.0
НЛО прилетело и опубликовало эту надпись здесь
вы неправы.
козла просто можно отремонтировать в лесу, а БМВ нет. поэтому иногда козел.
применительно к ПО — чем проще интерфейс — тем проще пользоваться.

насчет надежности — конечно ручной молоток сложнее сломать чем пневмо, но дураку дай…
одно дело — излишества, другое дело — удобство.
к сожалению — излишеств в ПО щас гигантское количество.
видимо у людей столько бабла, что продается и время программиста, и продажника, и еще кучи народа обслуживающего ПО. + на хороший комп.
А чуть посложнее задача и решения на аппаратном уровне приводят к подобному.
Там скорее всего одним из факторов была радиоционная устойчивость. Но в целом да, интересная реализация часов на 100+ микросхемах.
Да, скорее всего.
И даж параграф есть:
«What surprised me, though, was the similarities between the Shuttle computer and the Soviet clock. I expected the Shuttle computer to use 1980s microprocessors and be a generation ahead of the Soyuz clock, but instead the two systems both use TTL technology, and in many cases chips with almost identical functionality.»
Никогда такого не было (по крайней мере в x86 времён DOS).
А сейчас цепочка событий распухла до неприличия.
Клавиатуры (блютуз). Буквы в юникоде с модификаторами направления и прочим.
Отрисовка на виртуальном видеоадаптере виртуальной машины. Куча вычислительной
мощности уходит на виртуализацию и отвязку от аппаратного уровня.

Но вы же не хотите лезть с паяльником в видеокарту, когда требуется, например, сменить шрифт? Все эти виртуализации, абстракции, автоматическое подключение попросту удобны.
Никому не нужен дисплей, способный менять отображаемые цифры за наносекунды (как тот на схеме выше), т.к. скорость пользователя ограничена значениями примерно в сотни миллисекунд.

НЛО прилетело и опубликовало эту надпись здесь

Точки баланса в каждом случае различны. Они в многомерном пространстве с осями "производительность", "безопасность", "стоимость разработки", "сложность поддержки", etc… Плохое с одной точки зрения решение может быть удовлетворительным или даже хорошим с другой точки зрения. Если система конкретно тормозит, возможно, она хороша в чём-то другом (например, в низкой стоимости разработки).

Справедливости ради, фунционал у 2016 и 95 ворда отличается.
Даже размеры интерфейса.
Не в 500 раз, конечно, хотя для, как миниум, UI, цифры близки, как мне кажется.

Для UI давно можно было переехать на SVG графику. И проблема с десятками наборов ресурсов для разных разрешений вплоть до 8К решилась бы, причем экономно.
UI это не картинка, UI это структура элементов управления. Положить под капот SVG вероятно хорошая идея, но это лишь часть вопроса, нужен адекватный UI Markup Language
А потом жалуемся на раздутый софт. Растр быстрее вектора потому что вектор нужно растрировать для его отображения.

Никто не мешает хранить ресурсы в векторе (компактно), а потом при необходимости конвертить в растр для ускорения отображения (типа JIT компиляции такой). Действительно — пользователи ОБЫЧНО то же разрешение экрана на своих устройствах не меняют. Поэтому и растры им нужны не в виде коллекции на все случаи жизни, а конкретные

НЛО прилетело и опубликовало эту надпись здесь
Так почему никто не переехал?
Ну, Майкрософт, допустим, не хочет, но почему тот же LibreOffice не уделал всех?
Так почему никто не переехал?

В андроиде есть возможность графические ресурсы для UI на подмножестве SVG делать (VectorDrawable/VectorDrawableCompat). Иногда используют. А иногда (чаще) проще нарезать картинки (все равно у адекватного дизайнера автоматом режутся)
Т.е. таки никому не нужно.
У нас в приложениях почти всё в SVG.
В основном потому, что переезд стоит дорого.
Возьмите что-то попроще. Ну например простые картинки-скетчи. Логично использовать в них векторную графику, но это дорого, потому почти везде jpg размером в полмегабайта.
SVG довольно тяжелая штука, насколько я понимаю

Угу, на растеризацию вектора, особенно детального, тратится сильно больше ресурсов, чем на отрисовку битмапа (просто набора цветных пикселей). За универсальность платим.


Я бы привел в пример для сравнения скриптовую сцену в игре и фильм.

При запуске проверяем разрешение экрана, если оно не изменилось с предыдущего запуска, используем растеризованные иконки с прошлого запуска.
Если это первый запуск — растеризуем и сохраняем куда-нибудь.
Экранов может быть более одного.
Между экранами можно окна перетаскивать и вообще (как минимум в Windows) окно может быть на двух экранах сразу.
Если я не ошибаюсь в WPF\XAML так и сделано. Да и вообще, насколько мне известно эта технология мощная, гибкая, продуманная, хотя и от мелкософта.
НЛО прилетело и опубликовало эту надпись здесь
Вот тут самое время вспомнить про решение разрабов Хайку ОС — HVIF :)
en.wikipedia.org/wiki/Haiku_Vector_Icon_Format
разбор формата в HEX-редакторе:
blog.leahhanson.us/post/recursecenter2016/haiku_icons.html
Насколько я помню, SVG это XML-текст, который еще надо долго парсить и т.д., а HVIF это бинарный формат, в котором урезано много того, что не относится к задаче, да еще и есть то, что реально надо — LOD варианты иконок, к примеру. :)

Личная просьба тем, кто это, возможно, когда-то прочитает — если будете пилить какой-то свой пет-проект (еще лучше — на чем-то дохлом, типа ардуины), попробуйте ради веселья использовать этот формат в нем. :) Заодно и на статейку материал будет!
НЛО прилетело и опубликовало эту надпись здесь
И какие же интересно? Со времён Word 97 кроме ленточного интерфейса отличий не вижу. Где они? Чуть более плавную прокрутку сделали? Лично она меня только раздражает. В плане форматирования текста отличий ноль! У меня есть portable версия Word 97 размером в 50 Мб вроде. Так у неё весь основной функционал современного ворда есть!
Формат файла, сейчас специально сделал три версии одного файла: rtf, doc, docx. DOCX в 10 раз меньше RTF и в два раза меньше DOC.
Смена темы оформления одним кликом. Выбор шрифта с демонстрацией этого шрифта без применения.
Насчёт рисования математических выражений не уверен, мне кажется в 97 ворде надо было плагин ставить.

Математические выражения в адекватном виде появились только в 2007 ворде. Но, блин, почему вещи, которыми пользуются процентов этак 10 пользователей (слияние, рецензирование, рассылки, темы, математические выражения), не вынести в плагины или модули и make WinWord small and mighty again? Многим и правда старичка-Лексикона хватало.

В новых версиях редактор формул получше стал.

Wordpad есть по-умолчанию в каждом дистрибутиве windows. Это сами юзеры кушают кактус используя "Word" для простых документов.

Вордпад таки немного перебор, но если бы в него завезли таблицы и пару мелочей типа выравнивания по ширине, его бы хватало. С удивлением обнаружил, что в него завезли нормально работающие СОМ-объекты.

Вырванивание по ширине в нем есть, не знаю как давно. Также он поддерживает docx, так что вордовские файлы можно просматриваь им п-умолчанию. Хотя я бы хотел видеть в нем то же что есть в онлайновой версии офиса и удобную(как в ворде) работу с облаком.

в макос есть вполне вменяемый TextEdit, в браузере всегда можно открыть Google Docs с поддержкой всех распространенных форматов… Десктопные программы умирают (

Вы пробовали работать в google docs с большим документом со сложным форматированием? Онлайн сервисы хороши когда вам нужно быстро накидать пару страниц текста с типовым форматированием, но если вам работу работать нужно, то они умирают в первые полчаса.

А никто не говорит, что надо гуглодоксом пользоваться для сложных документов. Простые кейсы типа напечать служебку или быстренько посчитать что-то в таблице — покрываются. А для справедливости — со сложным форматированием даже в офисных пакетах от версии к версии могут быть проблемы

Речь даже не форматировании или чем-то сложном. Просто например банальную табличку с данными пару десятков тыс. строчек и десяток столбцов открыть. С самым минимумом форматирования и формул в них, в основном просто статические данные.

Гуглдок даже от такого начинает постоянно и на полную грузить пару ядер процессора, ждет в районе гигабайта памяти на каждую вкладку с подобным файлом и при этом все-равно умудряется постоянно и заметно притормаживать. Если что-то побольше и посложнее — вообще просто повесится может.

Хотя точно такую же табличку даже древний Excel 2000 открывает без проблем за секунду используя всего 10-20 Мб памяти, почти не нагружая процессор и при этом все будет «летать» во время работы.
А никто не говорит, что надо гуглодоксом пользоваться для сложных документов.

Ну в таком случае десктопные программы совсем не умирают. Они просто используются для сложных вещей. Собственно именно с вашим утверждением про смерть десктопного офиса я здесь и спорил на самом деле.

Ну, это примерно как обсуждать — будет ли Автокад в облаке. Облако ориентировано на решение задач большинства. Я не проводил анализ, но, допускаю, что большинству нужно решать именно простые задачи.

Причем здесь большинство или автокад? Вы заявили что десктопные продукты умирают, я вам показал что это совсем не так и нет никаких причин считать что в ближайшем будущем что-то кардинально поменяется.

docx, понятное дело, появился позже. Да, объём у него меньше, но согласитесь, что в настоящее время файл объёмом даже в 50 Мб никого не смущает.
Предпросмотр шрифтов крайне удобная штука, тут спору нет!
Но вот что-то прям такого нового с 97 года они всё равно нифига не добавили :-)
Знаете, многое зависит от того, чем вы занимаетесь в ворде. Если вам раз в день надо служебку написать, изменив один из старых файлов — тогда вообще непонятно, зачем покупать офис, это можно в гуглдокс сделать.
Например у нас в компании ворд (и вообще офисный пакет) изпользуется на всю катушку. Как пример про темы (я уверен, многие снисходительно усмехнулись, когда я про них упомянул) представьте себе процедуру изменения корпоративного стиля в компании, сотрудники которой раскиданы по всему миру. Элементарная замена шрифта и цветов превращается в ад для специалистов соответствующих отделов. В новом ворде я просто выбираю тему и не парюсь. Они её как то там обновляют по необходимости, не вникал.
У нас в 90% случаях используется LibreOffice. Но на нескольких рабочих местах куплен Office 365. Из него используем только Word для оформления красочных руководств по эксплуатации. Тут я с Вами соглашусь — его возможности в плане оформления на порядок выше того же Libre. Но в то же время, применение довольно специфическое, много всякой графики, эффектов типа теней и т.п.
А обычные текстовые документы практически произвольной сложности легко делаются в LibreOffice Writer.
Самое забавное, что прямо в то же время я поражался пакету MS Works, который выглядел более юзер-френдли, чем офис, и в нем был предпросмотр шрифтов, помимо всяких других рюшечек. На 95 виндах! :)
Не имею ни малейшего понятия, кто и зачем (конкуренция разных команд? или купили разработчиков?) его сделал, и что с ним потом стало…
Works был сильно дешевле, на сколько помню.
смущает

DOCX такой маленький из-за того, что это на самом деле архив, а не из-за оптимизации формата. Внутри же него до сих пор используются тяжеловесные XML.

Вот-вот, а все уже и забыли. :) Если пойти путем честного сравнения, то можно вспомнить, что в ХРю (вроде) появился штатный способ использовать зипы как папки, то есть можно легко упаковать любой старый док в зип и будет это открываться уж никак не медленнее… :)
Для rtf достаточно WordPad и калькулятор, для doc — MS Word (если я правильно помню, его можно было купить отдельно) и i486, для docx — MS Office с современным компьютером. А docx это всего лишь зипованый XML, надеюсь хотя бы что XML это не внутреннее представление документов в MSO.
docs — это зипованый набор xml-файлов. Потому и меньше. Переименуйте и загляните.
Если зазиповать doc, то получится в два раза меньше, чем такой же docx.

Upd. Надо читать все каменты, прежде, чем писать свои :)

Кстати я многие документы в нотпаде держу

С учетом того, что существует Markdown и такие прекрасные визуальные редакторы как Typora, это почти что превращается в базовую версию ворда, но с дополнительными плюсами (простой текстовый формат возможностью простого версионирования).

Да нет, обычный plain text в Notepad++

Все-таки там нет форматирования, это не очень удобно и наглядно.

Зато просто и под рукой

Ну так Markdown — то же самое + подсветка и форматирование как бонус.

Надо будет попробовать, когда будет время
Для Н++ есть маркдаун плагин, к слову. Не то шоб безупречный, но точно работал.

Но я все же советую Visual Code — там нативная поддержка Markdown и плагино намного больше.

Все равно тоже на электроне, как и большинство остальных, так что какая разница. :) Плагин хотя бы не такой монструозный.
Ну если человеку кодовые базы редактировать, тогда канеш.

Да N++ шустрый, но у него другие недостатки: устаревший интерфейс, ограниченная кастомизация (не сделать темную тему), разработка плагинов более сложная.

Его практически и изучать не нужно — он очень простой, ну и любой текстовый документ уже сам по себе практически Markdown)

Отличия громадные, но сколько процентов пользователей используют этот новый функционал? Тут пардон куча пользователей не использует всего функционала, который в Office 97 был.
Не являюсь постоянным пользователем «офиса», но тоже интересно, чем отличается старая версия от новой в плане функционала.
НЛО прилетело и опубликовало эту надпись здесь
90% пользователей как использовало 20% возможностей Word-95, так и использует те же функции в Word-2016.
И в Word-2025 так же будет.

Потому что большего им просто не требуется.
Значит можно написать маленький и проворный редактор, в котором будут только эти используемые 20% функций. И продавать за 10 баксов лайф-тайм лицензии.
Совершенно верно.
Но Microsoft это делать не будет, потому что как потом продавать MS Office?
А другие не смогут, потому что пользователи уже привыкли к Word/Excel и менять не захотят.

А вы думали, почему так легко найти и установить пиратскую версию Офиса?
Многие до сих пор верят — это потому, что глупые программисты Microsoft просто не могут сделать нормальную защиту.
respecto, на самом деле после 2007-го офиса это стало проблемой, если, конечно, вы хотите обновлять офис. А пользоваться дырявым, это ещё то удовольствие.
А другие не смогут, потому что пользователи уже привыкли к Word/Excel и менять не захотят.

ИМХО захотят если он будет выполнять эти 20% возможностей, а не как OO/LO и иже с ним.

НЛО прилетело и опубликовало эту надпись здесь
У него есть один недостаток — без интернета не работает.
Я не готов сливать все свои документы какой-нибудь корпорации, особенно Гуглу.
Для Гугла твои «не хочу» даже не замечают.
Твои ЛИЧНЫЕ документы вообще никому неинтересны.
А вот как в составе хомячков — ты выполняешь свои роли.
Что?
Переведу, что AlexWenner хотел сказать.
Google все равно, смог он получить в свои загребущие системы личные документы Revertis или нет.
Но ему не все равно, когда счет документов, обрататываемых в Google Docs, исчисляется миллионнами штук. Он получает из них достаточно данных, чтобы строить модели, делать предсказания, и продавать рекламу.
Таким образом, наличие в цепких лапках Гугла одного-единственного Хабраюзера Гугл никак не беспокоит. Гугл беспокоит решение вопроса в виде охвата в миллионы людей.

Тем не менее, считаю, что каждый имеет право решить отдавать свои документы Гуглу или кому-то еще и наслаждаться таргетированной рекламой или нет. Так что вопрос Privacy, так же как и вопрос наличия устойчивого соединия к сети Internet, остается актуальным.
А MS готовы?
Разве локальный офис заливает что-то на их сервера?
Заливку подозрительных файлов на сервера MS в Windows Defender я отключаю, если что.
НЛО прилетело и опубликовало эту надпись здесь
В нативном коде это тоже довольно несложно, в сети куча мануалов по реверсу нативных Windows приложений.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
А блендер как тогда летал и мог кучу всего так и сейчас 200 мб весит и летает на сопоставимом железе. Например, на упомянутой вами «корке».
Так это они специально, просто что бы заставочку показать, что бы все знали что это Word 2016. Если бы он открывался как блокнот, то никто бы не знал что это MS Office, тем более что чем дольше грузится программа, тем она солиднее. Ничего в маркетинге не смыслите :)
Вот вы говорите про экономный код, а что будет в итоге — PCIE5 никому не нужен, DDR6 пылятся на складе, новые 128 ядреные процессоры лежат в магазинах в паутине? Ужас, стагнация, убытки? Да вы, батенька, анархист! /sarcasm
PS если серьёзно — достаточно давно встречаю статьи о новых типах транзисторов с потенциально большими скоростями, новые типы памяти и прочие любопытные штуки, которые всерьёз не финансируются, пока работают (и приносят прибыль) уже освоенные технологии.
То есть вы всерьез думаете, что тот же Intel который год мужественно терпит огромные убытки из-за невозможности освоить 10 и 7 нм, но не вкладывается в разработку новых технологий? С целью, извините, дать конкурентам побольше заработать на существующих?
Продолжать дальше выжимать кремний (с закономерным профитом и получением 10 7 5нм в итоге) или уходить с него на графен, оптику или что-нибудь ещё, с затратами на порядки большими и не факт, что успешными?
Конечно же продолжаем!
PS не говорю, что сейчас исследования в нексген-технологиях не ведутся и/или денег совсем не дают, но по сравнению с переходом на новые техпроцессы…
уходить с него на что-нибудь
или уходить с него на что именно? Проблема ровно в том, что несмотря на огромные RnD-расходы, уходить все еще некуда, просто некуда. На графене за пятнадцать лет даже одиночные транзисторы толком не заработали, на нанотрубках все даже хуже, чем на графене, никакой «оптики» просто не существует.
Лучшее, что мы имеем со всех этих «новых технологий» — это силовые транзисторы на нитриде галлия для быстрой зарядки мобильников.
Как кажется с моего кресла, мы ещё в физический предел не упёрлись (вроде 7 нм, 5 и 3 ещё достижимы и обещается в ближайшие годы?), а к тому времени что-нибудь и выстрелит.
Хотя, возможно, все очерки типа «показан прототип нового транзистора/памяти/etc» — фэйк или белый шум, я ж не настоящий схемотехник.
Как кажется с моего кресла
я ж не настоящий схемотехник
К сожалению, вам кажется. Из моего кресла настоящего схемотехника довольно хорошо видно, что реальной альтернативы кремнию для вычислений общего назначения в ближайшие лет двадцать не будет.
В физический предел уперлись уже очень давно (он, к слову, около 20 нм), с тех пор все «7-5-3 нм» — это упаковка транзисторов сначала вертикально (FinFET), а потом в несколько слоев (nansheet, nanowire и прочие GAAFET).


«показан прототип нового транзистора/памяти/etc» — фэйк или белый шум
«Прототип» — это не то же самое, что можно реально серийно производить. У MRAM например были офигительные прототипы, но при попытках довести технологию выяснилось, что когда надо обеспечить больше трех циклов перезаписи, она оказывается не только не быстрее SRAM, но и чуть ли не медленнее флэша, что делает ее просто ненужной. И таких историй море, но о них редко пишут в новостях, ведь британские ученым не отчитываются ими по грантам.
Спасибо за более адекватную реальности точку зрения, теперь я в унынии:
пока всё и так работает (т.к. добавление лишних прослоек компенсируется ускорением железа) — никто не станет делать более чистый код: это, в большинстве случаев, не выгодно, а когда перестанет работать — останется слишком большое количество людей, который привыкли быстрее хватать стильный-новый фреймворк, обмазывать так-себе-кодом и пушить в прод.

По поводу фрейморков: я тут перешёл на веб разработку с обычной и удивлён важности использования последних технологий — если WinForms вполне нормально, а что там под капотом вообще никого не волнует, то в вебе почему-то использование технологий не первой свежести всех пугает

Ничего удивительного, веб торчит наружу и старое имеет гораздо больше обнаруженных уязвимостей.

мм…
Больше обнаруженных уязвимостей = больше закрытых уязвимостей = меньше потезницальных 0-day угроз, или я снова неправ и это не так работает?

Нет, это типа перестали саппортить и вообще уже три раза форкнули/переименовали. Сам так третьий раз форкнул чтобы багу зачинить у дважды брошенного проекта.

В успешных проектах так иначе бы ядро линукса было дырявое
Эмм, хорошо вычищенное старое теперь не вариант, прощай iptables?
можно же сторонним пакетом поставить, так же как и ifconfig.
Я к тому что iptables вычищен от глюков как и ядро линукс
я не знаю, что там под не первой свежестью вы имеете ввиду, но в вебе вообще взлетело всё, что должно было умереть не родившись.
ПХП — язык созданный для одной домашней страницы взлетел, тогда как Питон, который уже тогда был круче до сих пор только набирает и отбирает свою долю популярности.
Джумла взлетела, Вордпрес не просто взлетел, уже создает вакансии «разработчик плагинов под вордпрес». Первое было когда-то лютым геморром, второе — движок для блогов, который вдруг ВНИЗАПНА стал движком для всего…
Маджента взлетела, хотя был опенсурсный ОпенКарт…
и таких примеров взлетевших в вебе недоразумений еще вагон, например ТИПО3 (да отсохнет его карбюратор во веки веков)
ТИПО3

!?!?!?!? WTF !?!?!?!?

Да, веб к сожалению до сих пор большей частью в глубоких потемках болтается. Даже не знаю сколько еще времени должно пройти, что бы это поменялось :) Уже вот плавно какое-то отдаленное подобие ИИ начинает просматриваться, а веб всё еще в программном средневековье.
Десктоп тем более — куча современных программ даже не умеют в масштабирование шрифтов.
Огромное спасибо за информацию, особенно про упаковку транзисторов и картинку. Если можете, посоветуйте пожалуйста где обо всем этом можно почитать, чтоб более-менее человеческим языком, доступным для обычного человека хотябы программиста.
На правах саморекламы: вот тут моя статья по этому поводу. Насчет доступного языка на 100% не уверен, но я старался.

Ну как действительно упрутся и необходимость будет подпирать, что-то придумают. А сейчас то зачем, и так триллионные стоимости компаний, помогающих эффективно сжигать время и деньги пользователей. Главное эффективно менеджерить да рассовывать опционы-акции по карманам.

Так вот же, Intel действительно упёрлись и стремительно теряют долю рынка, сьедаемую AMD с более совершенными технологиями фабрики TSMC. И ничего революционного не происходит уже несколько лет, и все стонут от дефицита серверных процессоров. Более того, Intel теперь сами пытаются попасть на TSMC, чтобы сократить потери и очереди.
А до того GlobalFoundries решили выкинуть в трубу многомиллиардные исследования для 7 нм и остановиться на 14 нм навсегда — потому что не могли довести прототипы до промышленного освоения. Более того, они на этом потеряли не только инвестированные арабскими шейхами деньги, но и контракт с AMD, который принес бы им сейчас золотые горы. А так они накормили своего основного конкурента, окончательно отказавших от притязаний на самые вкусные рынки. То есть речь идёт как раз не об абстрактном прогрессе, а о том, что прямо сегодня инвесторы терпят убытки, а эффективные менеджеры получают вместо опционов пинки под зад (нынешние CEO и CTO и Intel, и GloFo ещё и двух лет не отработали).
У вас есть какие-то разумные объяснения такому поведению в условиях, когда можно было просто придумать что-то принципиально новое? У меня вот без привлечения рептилоидов не получается.
Поставили не на ту лошадь?
А инвесторы, видимо, устали слушать отчёт об успешных испытаниях нового прототипа сферического коня в ваккуме техпроцесса, которому нужно ещё 2 года и 4 вагона долларов для выхода в релиз*
*но это не точно, может и не выйти, как и в прошлый раз.
PS Радует, что хоть где-то эффективные, но несправившиеся менеджеры получают под зад коленом вместо золотого парашюта, как в Boeing.
Поставили не на ту лошадь?
Но это не бьется с концепцией «как действительно упрутся и необходимость будет подпирать, что-то придумают». Вот же, уперлись, подпирает еще как. Ничего не придумали. Причем их очень много таких ничего не придумавших и начавших вместо этого упускать колоссальные прибыли. Вот вам прямо список с годами, объясните мне хотя бы его половину.
image
Вот вам прямо список с годами, объясните мне хотя бы его половину.

MIT в прошлом году опубликовал хорошую статью с анализом по этому вопросу.
Отстал на пол года с переходом на следующее поколение — забудь о прибыли, чипы следующего поколения от конкурентов продаются в каждой подворотне и выгоднее заказать и свои чипы у конкурента, а не допиливать велосипед, иначе акционеры не поймут.
И пока все не упрутся в физику до конца — прорывных технологи не будет — то есть реально все, без возможности заказать чипы по следующему поколению техпроцесса у соседей.
К тому же, не всем нужен самый тонкий и свежий техпроцесс, массовые контроллеры/логика спокойно и на старых техпроцессах будут выпускаться и продаваться миллионами.
PS это не попытка отстоять свою точку зрения не смотря на факты, это досужие рассуждения на тему, с целью получить ещё несколько интересных ссылок и идей. Вашу правоту признал несколькими постами выше.
без возможности заказать чипы по следующему поколению техпроцесса у соседей
Возможность заказать свои чипы соседям есть у разработчиков чипов, а не у фабрик. GloFo и UMC не могут заказывать производство на TSMC при всем желании. Все, что они могут сделать — придумать что-то прорывное и отобрать долю производственного рынка обратно. Точнее, как мы выяснили, они не могут этого сделать)

массовые контроллеры/логика спокойно и на старых техпроцессах будут выпускаться и продаваться миллионами.
А вот это совсем другая история, причем сразу в нескольких измерениях.
image
Рынок «старых технологий» во-первых, меньше, чем новых, а во-вторых, он гораздо конкурентнее, потому что прибыли меньше, больших клиентов тоже меньше, а игроков на рынке больше. Так что для того, чтобы хорошо себя чувствовать там, фабрике надо быть едва ли не менее изобретательной, чем при работе с передовыми нодами. Причем изобретательной в вещах, котоые с одной стороны, дешевле, а с другой — очень сложно придумать и реализовать что-то такое, что конкуренты не смогут быстро повторить. И что не сможет повторить TSMC со своими практически бесконечными ресурсами на RnD.

Можете пояснить за циклы "тик-так":


  1. Выпускается старая архитектура на новом техпроцессе или обычно всё-таки новая на новом?
  2. С точки зрения повышения производительности (на время разработки) выгоднее новый техпроцесс или оптимизация архитектуры для существующего или даже предыдущего?

Я не совсем понимаю, почему так упорно идут от 90/65нм вниз, это маркетинг, инерция сознания или правда технически оправданно?

Первый вопрос:
Тик — старая архитектура на новом процессе.
Так — новая архитектура на старом процессе.
Итого процесс и архитектура обновляются с одинаковой скоростью, но в разное время.

Второй вопрос — отличная тема для докторской диссертации. Он не имеет ответа в общем случае, потому что зависит от того, насколько новый процесс лучше старого, есть ли у архитектуры ресурсы для оптимизации и т.д. и т.п.
Если совсем грубо, то наверное перейти на новый техпроцесс дороже, но проще и быстрее, чем выжимать соки из имеющегося. И это «быстрее» во многих случаях означает сорвать куш с новым продуктом или вылететь в трубу. Спокойно шлифовать архитектуру годами можно только при полном отсутствии конкурентов.

или правда технически оправданно
Правда технически и экономически оправдано в большинстве случаев, где это происходит.
А условные копеечные микроконтроллеры клепали и будут еще долго клепать на 180 нм.
Эх, раз уж тут так активно отвечают на вопросы задам и я свой.
Я вот вроде бы знаю кто такие Intel и AMD. Но примерно года три-четыре назад начал все чаще слышать упоминание таких названий как Global Foundry, TSMC и еще какие-то в разговорах о амд и интел. И вот эти ребята мне совершенно непонятны, в частности кто они такие, где живут, чем именно занимаются и, главное, как именно и почему они связаны с AMD и Intel.
Intel, AMD, Samsung, Apple, Qualcomm и т.д. — это компании, которые разрабатывают микросхемы и продают их. Производить их они могут сами (как Intel и Samsung) или аутсорсить сторонним фабрикам (как AMD, Apple и Qualcomm).
TSMC и GlobalFoundries как раз и есть эти сторонние фабрики. Они не продают никакие микросхемы конечным пользователям, но предоставляют услуги производства разработчикам.
Например, GloFo — это бывшие фабрики AMD, выделенные в самостоятельную компанию, TSMC всегда имел бизнес-модель фабрики, а заводы Samsung производят чипы и для своих, и для сторонних заказчиков (которым раньше был например Apple).
Модель сторонних фабрик появилась, потому что производственное оборудование стоит безумно дорого, и почти никто из разработчиков не может себе его позволить.
Ну вот, опять зарабатывают продавцы лопат в итоге.
Как человек, регулярно пользующийся услушами этих «продавцов лопат», могу сказать, что во-первых, они не так много зарабатывают, а во-вторых, без них как минимум трети микроэлектронной индустрии просто не было бы, причем лучшей трети.
Fedorchik
В общем, я собрался и развернул свой предыдущий комментарий в статью.
это очень круто, спасибо!
НЛО прилетело и опубликовало эту надпись здесь

От доходов с продажи крайне востребованной продукции, разумеется.

Помнится я когда-то давно читал статью с подобной картинкой, где прогнозировалось сужение отрасли до 2-3 фабрик. К сожалению не могу даже год вспомнить.
Такое развитие событий было понятным и предсказуемым лет пятнадцать назад так точно. Прямо сейчас требовательная к нанометрам часть отрасли уже сократилась как раз до двух с половиной фабрик, которые и делят самую вкусную часть пирога.
Забавнее то, что поставщик оборудования для литографии уже давно вообще монопольный.
Если я ничего не путаю, то Canon и Nikon ещё в районе 90-65 нм сдулись и сейчас подбирают какие-то крохи типа производителей светодиодов.
Немного занудства про закон Мура. Почему-то в печатных изданиях до 2000х годов, это закон говорил об удвоении производительности каждые полтора года, а с 2000х годов, упоминая этот закон, начали говорить про удвоение каждые полтора года транзисторов. Какой удобный закон — сначала говорит одно, потом другое… Но всё-таки, удвоение количества транзисторов и удвоение производительности, это не одно и то же.
Даже, в приведённой вами ссылке на Вики, удвоение транзисторов каждый год (а не полтора):
появление новых моделей микросхем наблюдалось спустя примерно год после предшественников, при этом количество транзисторов в них возрастало каждый раз приблизительно вдвое
/зануда off/

Так-то это и законом не было. Если я правильно помню историю, то Мур вообще в шутку это сказал на какой-то вечеринке. И формально этот "закон" в общем-то никогда и не выполнялся, удвоение шло за большие промежутки времени. В таком контексте вертеть действительно можно как угодно, это в любом случае просто красивая цитата которая уже давно живет своей жизнью в мире журналистов.

Формулировка такая общепринятая, «закон Мура». А как было в точности, боюсь, даже сам Гордон Мур уже не вспомнит, что и где было сказано.

Я это написал к тому что занудствовать насчет сроков в данном случае — неблагодарное занятие, их никто, в общем-то, никому и не обещал и вообще они и не сбывались.

это в любом случае просто красивая цитата которая уже давно живет своей жизнью в мире журналистов.
Не обижайте журналистов, эту цитату подхватили на щит и таскали на нем много лет вовсе не они, а маркетологи Intel, торжественно возложившие на свою компанию обязанность сделать «закон Мура» самосбывающимся пророчеством.

Да, вы правы пожалуй.

Сейчас рерайтеры играют в «испорченный телефон», переписывая друг у друга.
Быренько нагуглил среди старых статей:
compress.ru/article.aspx?id=9558
www.ferra.ru/review/techlife/s25856.htm

Ровно сорок лет назад, 19 апреля 1965 года, в журнале Electronics (vol. 39, N8) в рубрике «Эксперты смотрят в будущее» вышла знаменитая теперь статья Гордона Мура «Cramming more components onto integrated circuits», в которой тогдашний директор отдела разработок компании Fairchild Semiconductors и будущий со-основатель корпорации Intel дал прогноз развития микроэлектроники на ближайшие десять лет на основании анализа шестилетнего развития младенческой тогда еще электроники, предсказав, что количество элементов на кристаллах электронных микросхем будет и далее удваиваться каждый год.
НЛО прилетело и опубликовало эту надпись здесь
К тому времени когда это станет действительно актулаьным Rust подрастёт во всех смыслах и решит эту проблему.
Насколько я знаю, он уже решает множество проблем.
Вон, в DropBox несколько лет назад, запилили управление хранилищем на Go. Оно выполняло свои функции, но тормозило из-за GC. Они переписали его на Rust, и производительность возросла намного. Пересказываю по памяти, но эта история была у них в блоге.
Да, я слышал эту историю, но пока раст нельзя назвать популярным языком — есть ещё куда расти.
Уже несколько лет подряд он занимает первое место среди любимых языков в рейтингах StackOverflow. А у вас он непопулярен :)
Популярен он будет когда работы на нём будет больше чем сейчас на питоне.
Но это ведь разные ниши. На одних языках можно быстро наговнокодить и релизнуть, а на других долго кодить, но сделать на века.
Я же не говорил что он займёт нишу питона, я говорил что широта использования будет сравнима, если хотите можно сказать популярен раст будет когда C/C++ будут вытеснены хотя бы наполовину из новых проектов.
Тут нужна картинка с фразой «вы находитесь здесь» :)
Но это ваше право, хотите используйте, хотите нет.
Я только это и сказал — что пока мы находимся здесь.

А точно был мальчик? Потому что я тоже эту публикацию помню, а потом вроде бы оказалось что там журналистов учёные насиловали как могли, и на самом деле Dropbox переписал на Rust только пару мелких служб в которых у них затык по производительности был, а всё остальное как было на Go так и есть.

Фигасе "мелкие службы". Magic Pocket использующий Rust это по сути центральная компонента их хранилища. Конечно, его не полностью переписали с Go, но всё же. К сожалению, презентации где о переписывании рассказывалось более подробно более не доступны...

Там вроде только OSD переписали — то есть собственно демон который висит над диском и шурудит секторами, по одному демону на диск, а остальное осталось как есть; да и Magic Pocket там важная, но не самая объёмная часть инфраструктуры. То есть да, в целом дело хорошее и вселяет надежду (я уже джва году жду не дождусь возможности попробовать Rust в embedded продакшне), но я не уверен, что это большая веха для Rust. Скорее просто ещё одно напоминание о том что такие вещи вообще не стоит писать на garbage collected языках.

И как он ускорит код написанный на C++?

НЛО прилетело и опубликовало эту надпись здесь

) хороший вопрос, я-то сам за чистофункциональный подход и строгие системы типов, но в реальности получается что древний хаскел остаёт от новорожденного раста, по популярности, да и по производительности, а по сложности мне их сравнивать трудно, разные они

НЛО прилетело и опубликовало эту надпись здесь

Чтобы писать более производительный код, нужны не новые программисты, а новые менеджеры. Оттестированный и профилированный код на плюсах пишется сильно дольше, чем вжух-поделки под электрон.

Проблема не только в менеджерах. Но и в том, что всем вдруг понадобилась кроссплатформенность. Раньше программку/мессенджер можно было написать на Делфи/плюсах и только под винду, оно бы весило 10мб от силы, а теперь надо весь GUI делать кроссплатформенным, и весит это всё сотни мегабайт, и гигабайт оперативки при запуске.

А почему не условная компиляция? А при скачивании отдавать юзеру аналог cpuZ, чтобы поставить собранную точно под его устрйоство версию?

Ну да, тогда дело за малым — написать качественную кроссплатформенную библиотеку GUI. Вот для Rust'а многие пытаются это сделать, и у многих есть какие-то подвижки, но до продакшена далеко.

Ну, имхо, она существует, правда, во мне и Tkinter глубокого эстетического протеста не вызывает. Но даже если их нет, то в чём невозможность использовать по библиотеке на платформу, сведя их интерфейсы к единому? Трудоёмко, да, часть специфичных фич осыплется, но в принципе вполне реально.

Вот для Rust'а многие пытаются это сделать

Дадите ссылки? Интересно
Можете начать изучение отсюда: areweguiyet.com
А потом поиском по гитхабу :)
Я говорил о качественной библиотеке ;)
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Я конечно не автор, но Qt не нативен. Вот прямо сейчас я не могу настроить compose в телеграме и курсор выглядит в брузере и в тележке не так как в системе. Это баги которым уже лет больше чем я пользуюсь линуксом. В винде-же отрисовка даже кнопок отличается, и программу на Qt видно сразу.


Нормальная библиотека должна использовать стандартные функции ОС, а не городить тонну абстракций. Она должна рисовать все элементы не так как хотят ее создатели, а так как принято в системе, через системные вызовы (хотя я прекрасно знаю что это за ужас — работа в чистом gtk или winapi по сравнению с Qt). Пока такого не произошло — будут недовольные, как я.

А разве gtk рисует «как принято в системе», то есть в иксах?

Не знаю внутряк GTK и иксов, я не настоящий погромист, знаю что DE у меня на GTK и хотелось-бы чтоб все приложения рисовались его способами и поддерживали функционал, а не выдумывали свои извращения.

НЛО прилетело и опубликовало эту надпись здесь

В этом и проблема и преимущество линукса одновременно — зоопарк DE, зоопарк фреймворков и подходов к API. Получаем ситуацию как у меня сегодня после обновления elementary os — все приложения gtk младше 3.ХХ стали выглядеть как win98, другие нормально, третьи по Qt'шному. Меня, как UI перфекциониста который зачитывался Apple HIG в свое время, это очень расстраивает. Еще больше меня расстраивает когда я вижу как мелкая программа (brasero вроде) тянет 140 метров зависимостей и свякие Qt-шные либы.

НЛО прилетело и опубликовало эту надпись здесь

Я прекрасно понимаю что elementary os с pantheon на gtk тянет к себе qt-шные либы потому что в ней их нет.
Я говорю про то что сейчас у меня в системе 2 библиотеки отрисовки интерфейса, как минимум, и каждая из них отличается по UX и UI друг от друга. И каждая из них требует своих танцев с бубном чтоб с ней было удобно работать мне, как пользователю.


Понимаете маразм? У меня курсор становится другим при движении над Qt приложением, возвращаясь обратно в стандартный вид над рабочим столом.


btw с виндой не сравнить — мои приложения под bcb из 98 винды работают под десяткой и даже выглядят нативно без подтягиваний зависимостей, тогда как gtk2 в gtk3 уже выглядит как родом из 90-х.

Кроссплатформенный гуй пытаются сделать с конца 90х, а воз и ныне там. Три основных подхода


  • оборачивать существующие платформенные библиотеки (Java SWT, React Native, Java AWT, Xamarin Forms, WxWidgets)
  • рисовать все самим (Swing, Flutter, QT)
  • использовать HTML (Electron)

Все имеют фатальные недостатки. В итоге одна компания пиарит подход 1 (React Native), через 3 года видно что это хрень и уже другая компания начинает пиарить подход 2 (Flutter) только для того, чтобы через 3 года все увидели, что это тоже хрень и кто-то начал пиарить подход 1.

Пользуюсь многим софтом на трех платформах (мак, вин, лин) — Firefox, Thunderbird, Chrome и куча по мелочи. qBittorent всякие которые на Qt.


Качеством доволен вполне. Понятно что неидеально, но не раздражает.

Какой там кроссплатформенный гуй, в высоком разрешении шрифты рисовать по-нормальному не научились. Все три рендерилки плохи по-своему и плохо рисуют на ретинах.

В пятой версии Qt уже не сама рисует, перешли к подходу 1 :)

А как же QtQuick/QML? Они рендерятся вручную силами Qt.


И из той же оперы под C#: WPF (win only), Avalonia… Кстати, даже под более простой шарп нет, имхо, нормального кросс-платформенного GUI.

Есть еще sciter
Очень интересно! А почему его вытеснил Electron? Вроде sciter такой прикольный.
Я так понимаю, основной тренд новых средств разработки задают продуктологи, которые точно не понимают, какой новый продукт (для пользователей) нужно запускать — поэтому новые средства должны позволять быстро ставить эксперименты, менять интерфейс, ставить a/b тесты и т.п.
Сейчас на Delphi под FMX спокойно пишется код, который без всяких переделок работает на Win/macOS/Android/iOS. Только сегодня программу собирал под три платформы. В новой версии Delphi и поддержка Linux есть, но я её пока не пробовал.
Это хорошие новости, хотя я об этом давно слышал.
Проблема только в том, что если захочешь кому-то предложить на Дельфи написать, сразу обосрут. Что в компании на работе, что в опенсорсном сообществе.
Это не проблема. Разработчиков на Delphi лично у нас в городе вполне хватает. Компания у нас небольшая, разработка на Delphi очень выгодна, т.к. происходит довольно быстро, и не требуется нанимать разных программистов под разные платформы.
К слову довольно крупное оупенсорс Паскаль сообщество:
freepascal.ru
с радостью возьмется за предложенную и оплаченную работу :)
Хм, и какие там расценки? :)
FDA847 Добейти меня. Под мак из делфей можно без точки сборки на их железе скомпилить?

А то все хочу да хочу в свои стеки программирования еще ios добавить, но останавливает необходимость иметь их телефон и что-то на стол.

Не очень понял что имеется в виду по «точкой сборки»? При пересборке проекта под другую платформу можно выбрать как его там запускать — либо на эмуляторе, либо на реальном железе. С эмулятором я не пробовал, запускал на живом маке.
При разработке под iOS живой мак вроде как обязателен, т.к. он осуществляет подпись приложения. Без этого программу не выложить в AppStore. На Хабре как-то писались несколько статей об этом.
В остальном сборка под iOS почти ничем не отличается от сборки под мак.
Таким образом весь основном функционал отлаживается сначала под виндой. Это очень комфортно, потому что компилятор Delphi крайне быстрый. А потом уже интерфейсные части отлаживаются под конкретную платформу. Тут процесс дольше идёт, т.к. сборка, например, под Android небольшого проекта занимает около 30-40 сек.
Вам нужна MacOS с установленным XCode т.к. Delphi тащит оттуда SDK для платформы. Можно использовать установленный в виртуалку MacOS — потом для компиляции он не нужен. (но нужен для запуска, да. Если говорить о iOS/MacOS) И самое главное! iOS Simulator 13.x пока что не поддерживается. Только старее. (хотя, имхо, это никак не мешает)

Насчет Android:
Android вот х64 завезли наконец-то. Правда App Bundle пока не завезли :( В комплекте есть Android SDK но старый(!) — лучше использовать «родной» от Google — хотя Embarcadero и не рекомендует — однако у меня проблем не возникло.

ПС: Есть «косяк» на данный момент. Если вы выложите Android x64 APK — оно не заработает на arm v7 :) Delphi по-умолчанию не пакует в x64 APK 32-х битный бинарник. Нужно «ручками» добавить в deploy конфигурацию.

Насчет Linux:
Да, завезли, но официально — пока только консоль, без GUI (кажется х64 only). История с SDK такая же. Нужна ОС с которой Delphi вытянет SDK (Да, и снова можно «виртуалку»). Однако FMX GUI для линукса есть на просторах интернета. Вроде бы как у них разраб ушел который его пилил, там прям скандал какой-то был. Но оно есть и работает исправно. Правда денег стоит www.fmxlinux.com/order.html (ну или… вы знаете где искать)

PPS: Очень круто что отладчик работает и в iOS, и в MacOS, и в Windows/Linux/Android… Но учтите что отладчик для Android только х32 например. Если мне не изменяет память то для MacOS тоже. А значит отладка на «Каталине» невозможна. (Собирать х64 MacOS Delphi при этом умеет само собой)
Да, завезли, но официально — пока только консоль, без GUI

fmxlinux уже куплен Идерой и входит в поставку, если что. То есть — официально в Delphi завезли уже и Linux GUI. К слову — говорят что работает отлично. Не пробовал, я на Лазарусе под Линукс пишу.
Проверил. доступен с 10.3.1 через GetIt — действительно, упустил. Прошу прощения. Хотя это всеравно не «из коробки» как обычно у них. Но хоть так.

Вы просто компилируете одно и то же приложение на разные платформы?
Как решаете вопрос с отсутствием "курсора" на мобильных платформах?

Да, исходный код один. Там могут быть платформенно-зависимые вещи типа управления вибраций на мобильных платформах. Они решаются условной компиляцией. Но основной код полностью переносим. Если использовать стили, то и внешний вид сразу можно под виндой посмотреть. Это позволяет спокойно под win отладить основной тяжёлый функционал, т.к. эт она порядок быстрее, чем под мобильной платформой.
«Курсор» как бы в таких приложения не нужен. Здесь же всё решается экранными элементами и жестами. На дельфи любой жест запрограммировать можно. Экранные элементы с полями ввода автоматически вызывают системную клавиатуру. Можно задавать её тип (полная, цифровая, для набора номера и т.п.).
Вообще по этой теме можно было бы целую статейку написать.
Могу добавить что для разных ОС (да даже для разного разрешения и ориентации экрана) есть возможноть «заложить» совершенно разный дизайн форм, так что «проблемы курсора» тут не стоит впринцепе.

Вопрос — нужен ли весь код на плюсах или вполне достаточно будет условного Kotlin Native, а то и просто в JVM с тонкой прослойкой HAL на С?
Пока, по ощущениям, в некоторых областях RnD дело идёт именно к этому.

Хоть и так, главное не превращать каждое приложение в недобраузер с кодом на JS.

И браузер на java. Запущенный под wine на эльбрусе

Лучше HAL на Rust

Раньше вы нанимали команду под IOS,Android,Win,Web. А теперь нанимаете только веб-прогеров и они пилят вам все это на одном (практически) стеке.
Выгода налицо.

Выгода-то налицо, но несколько грустно, что скорость выполнения и потребление ресурсов не являются значимыми критериями при разработке.

Выгода на лицо. Рука-лицо в комплекте.
Раньше вы нанимали команду под IOS,Android,Win,Web. А теперь нанимаете только веб-прогеров и они пилят вам все это на одном (практически) стеке.

А теперь можно нанять одну команду Delphi и она соберет один код под IOS,Android,Win,Mac,Linux (FMX) и Web (UniGUI). Мы именно так и делаем.
Надо просто тестировать своё ПО на слабых машинах, с ограничением по памяти, с урезанным интернетом.
Это дорого. Работал в не совсем безызвестном навителе, занимался в том числе и оптимизациями по памяти на слабых устройствах. Так вот, отладка на этом занимает очень много времени, и тратит, в том числе, и моральные ресурсы программиста.

Как у пожарников. Работа не пыльная, но как пожар, так хоть увольняйся

Скорее наоборот, пока запустится приложение с накрученной на него дебажной информацией и логгером использования памяти, успеешь забыть, что проверить хотел. Скучно очень.
НЛО прилетело и опубликовало эту надпись здесь
Либо мы приструним свои амбиции, либо мы вернёмся к написанию более экономного и эффективного кода. Иначе говоря, назад в будущее.

Во-первых, какой бы экономный и эффективный код не был, это не поможет в долговременной перспективе. Во-вторых, также есть Закон Обстинга, который гласит о том, мощь компиляторов удваивается каждые 18 лет, так что с неэффективным кодом не все так плохо. В третьих, есть другие архитектуры, которые могут кардинально увеличивать производительность определенных вычислений (нейросети): Аппаратное ускорение глубоких нейросетей: GPU, FPGA, ASIC, TPU, VPU, IPU, DPU, NPU, RPU, NNP и другие буквы.

Ну и нафига нейросети банальному мессенджеру на JS? :)

Незачем. Но мессенджером все хотелки не ограничиваются, надо стремиться к какой-то форме ИИ, который можно запускать на мобильных телефонах.

Но его будут пихать в каждый мессенджер, причём у каждого свой, маркетинг, повышение юзабилити, все дела. Мне больше нравится unix-way с композицией маленьких однозадачных программ.

Мне кажется он влетит во все приложения в виде пре-процессинга собранной аналитики. А потом это небольшой пачкой пойдёт для той же таргетированной рекламы.
надо стремиться к какой-то форме ИИ
А кто сказал, что это надо? Кому? Зачем?
Какую проблему мы собираемся решать этим ИИ?

Когда только появился ПК, люди тоже не понимали, зачем он им нужен. Теперь же жизнь без него представить сложно.


Для чего надо: всяческие автопилоты, роботы-уборщики. Если говорить про мобилки — консультанты, помощники (не такие, как Siri). И куча других приложений на самом деле, в которых идет активное взаимодействие с окружающей средой и в которых существует большое количество неопределенностей.


Для эффективной обработки информации из окружающего мира текущая архитектура процессоров не подходит ни по производительности (для нейросетей нужно больше считать, но не обязательно точно), ни по энергосбережению.

С ИИ на мобилке человек может быть уже не нужен

Нафига заставлять банальный мессенджер на JS выполнять функции IDE, CRM и CMS?
Вот все сначала так говорят. А потом импорт адресных книг, смайлики, просмотр картинок-видосиков, дополнения, встроенные приложения, сохранение в облаке…
В соревновании, кто первым напишет свою операционную систему участвуют: утилита для записи дисков Nero Burning Rom и утилита просмотра картинок ACDSee…

В итоге выиграл браузер Chrome, ага.

Аж подавился пока чай пил, до меня только после ваших слов дошло что это не шутка, никогда в таком ключе про хром ос не думал.

Это старый-старый боян, последователь ещё более старого.

Про второй я слышал, а вот продолжение про браузеры почему то мне раньше не попадалось…
НЛО прилетело и опубликовало эту надпись здесь
Firefox OS, правда, слилась.
Но у них и ресурсов было меньше (в сотни раз), чем у Гугла.
что бы ИИ мог анализировать сообщения и к примру не давать вам отправить сообщение «эй, мужик, ну погорячился ты, не пиши такое, и фото это лучше не показывать ей»
То есть, цензура в виде поствоспитания, что ли? Тогда в переписке все будут такими хорошими, а при встрече будут в морду бить.
В чём новизна материала? Только в том, что сейчас наступил тот самый 2020ый год?
На мой взгляд Serverless парадигма с облачными функциями (точнее ограничениями облачных функций) на мой взгляд делает программистов более бережливыми. Функции нужно делать меньше и быстрее, да и если вызов функции стоит денег то лишний раз задумаешься — а стоит ли ее здесь вызывать или можно что-то закешировать.
Да и в общем облачный биллинг с оплатной за выполнение делает прозрачность стоимость кривого кода
НЛО прилетело и опубликовало эту надпись здесь
Я к тому, что есть множество оптимизаций, решений. Они просто находятся на другом уровне.

Придёт 5G с миллисекундными задержками — и все вычисления переедут в облака с процессорами в жидком гелии, а телефоны и компьютеры будут просто терминалами удалённого доступа по типу блумберга.

5G не придёт. Как не пришли 4G, 3G и в общем-то 2G. И оптика в каждый дом не пришла. Так что нормальный процессор, несколько гиг памяти и терабайтный винт под медиа на домашнем компьютере останутся нормой ещё очень долго, скорее навсегда.

Компьютерные игры на удаленном процессоре через 5G уже есть в Японии. Если я правильно помню новости, это Nintendo так компенсирует недостаток собственной вычислительной мощности Switch.
Задержка чувствуется и лаги случаются в 5 метрах от 5ггц роутера с поддержкой mu mimo и 3 антеннами. О каком еще 5g говорить.
У меня сейчас оптика от ростелекома и yota с lte. Почему не пришло то?
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
в городах живет 70+% населения.
Остальные 30% из за этого должны жить в каменном веке без компьютерной техники и ПО либо страдать с диким качеством работы этих «тонких клиентов»?
не все из этих 30% (на самом деле скорее 26% на 2010 урбанизация 73.7%) живут в «каменном веке». Не помню ситуации чтобы оставался без интернета даже за городом.

Сейчас и Чукотку тащат оптику, так постепенно дотянут везде где живет несколько сотен тысяч людей. Тонкие клиенты не будут сносно работать много где, хотя бы из-за пингов. А размещать дата центры станут в первую очередь там где большая концентрация потребителей.
Так и я того же мнения. Но тут пророчат счастливое будущее в облаках с тонкими клиентами.
Ну почему бы и нет. Многим это уже и сейчас доступно. Я так прикидывал, в принципе можно уже взять какой-нибудь планшет с клавиатурой, поднять инстанс в ДЦ поближе (у меня есть с десятком миллисекунд пинга) и подсоединившись через терминал набрасывать код (вим, тмукс — это все). Видел уже есть всякие онлайн IDE для веб приложений.

Так что частично в этом направлении все и двигается. Я уже сейчас свой лэптоп использую фактически как тонкий клиент для разработки, т.к. задачи зачастую требуют вычислительных мощностей несколько другого порядка.
Ну я видел онлайн САПР для разработки печатных плат. Собственно говоря работать с ним на Core 2 Duo T9500 не получилось — тормоза дичайшие. На i7-2600K — скорость хорошая, но вот юзабилити где-то в полной жо.
Дык в том то и дело что GPON который тянут сейчас по квартирам — очень годен для и для поселков с низкой плотностью застройки, в отличии от классической оптики/езернета, тк не требует отдельного волокна от узла связи до каждого роутера. Тянется по столбам ветка копеечного (дешевле STP) одножильного оптического кабеля, в нее в любом месте вваривается ответвление и идет в дом/коттедж (примерно как и электричество/газ/водопровод).
Единственная проблема — головная станция дорого стоит (150-300 тыс руб, примерно пара тысяч на абонента), но думаю что цены упадут со временем, как обычно они падают на любое железо.
Ну да, и любой умник, который воткнёт свой хвост GPON-а в какую-нибудь 1/10G SFPшку не GPONовскую, кладёт всех, кто на одном с ним волокне.
Ну нюансы есть в любой технологии, хорошо что SFPшки есть только у избранных умников.
Но с другой стороны это мало принципиально, положит он улицу в поселке под Сызранью или подъезд в 16-этажке в МСК, ведь та упомянутая «оптика», которую тянут в квартиры все равно GPON, вряд ли вообще кому-то тянут классический SFP в квартиры.
Беда в том, что «безнаказанно» положить можно только GPON. Классическую оптику до квартиры положить — только взломав что-то у провайдера(и наследив при этом). Медь — ну можно собрать мощный высоковольтный генератор и дать прикурить хвосту в своей квартире/доме с вероятным эффектом выгорания свича (и то, может быть выгорит только парочка портов с прямым указанием на вредителя). xG/WiFi — нужна очень мощная глушилка, которой моментально заинтересуются органы(а дальше пеленгатор и штрафы/сроки). А вот GPON кладётся быстро и безболезненно — на голове тупо будет лежать один порт, вычислить, где появился такой умник — почти нереально, надо делать обход по квартирам/улице посёлка в момент, когда всё лежит и т.д.
Ну оно выглядит конечно так, но все можно вычислить с минимальной аналитикой. Начать с того кто последним подключился в абоненты, исключить тех у кого была сетевая активность в момент падения порта, проверить тех кто наоборот давно не был активен.
Вообще провайдер обычно терминал GPON свой предоставляет и паролей не дает, возможно потому что собирает SMNP с него или пингует, помимо управления. И если какой-то терминал погас, а через время лег весь порт — то стоит начинать проверку оттуда.
Понятно что неявно и неоднозначно, но все достаточно решаемо, в крайнем случае сходит монтажник и порежет/поварит, за 5-6 итераций можно найти злоумышленника, все равно в ветке не больше 32 абонентов.
С другой стороны менять свичи после прошедшей грозы — не менее увлекательно, езернет тоже имеет свои недостатки (лимит длины кабеля, пробой статикой, воруют провод на медь) и остаться без связи по какой-то причине можно точно также.
Тут просто нюанс в том что GPON можно запросто по деревне растянуть, а с другими технологиями это уже проблема с пропускной способностью, деньгами и/или надежностью.
Я вообще не оголтелый сторонник GPON, но населенным пунктам с малой плотностью населения он дает ту возможность, которой раньше не было. Ну и кроме того эта технология уже распространяется, можно ее любить или не любить, это мало что меняет.
У меня к GPONу собственно три претензии
1) Оператор ставит мне какую-то коробку, свою я поставить не могу (долго искал SFP-GPON модули, даже нашел, а потом поиском по всяким наг.ру нашел и то, что даже если я это извращение куплю и поставлю — работать оно не будет, в лучшем случае оно заработает после оплаты оператору, который купит чертову лицензию, которая позволит одной сторонней железке работать с головным устройством).
2) Попутно решая пункт (1) наткнулся на упоминание про умников с «ну тутже LC, яж его могу в свой SFP засунуть» и результативным матом техподдержки и монтажников, который этого умника искали.
3) Скорость дана «по-маркетолуховски» (гигабит — ага, угу, пока на этом волокне висит один абонент, как только будут висеть больше — не выйдет уже).
Про GPON в сельской местности я с вами полностью согласен, именно там он и должен рулить и бибикать, прочие варианты там дают реальный гемор.
3) Скорость дана «по-маркетолуховски» (гигабит — ага, угу, пока на этом волокне висит один абонент, как только будут висеть больше — не выйдет уже).
Собственно, все домашние провайдеры выдают «маркетолуховскую» скорость в своих тарифах. Пользователю в квартире за 500 рублей в месяц никто не будет резервировать канал, не для него эта роза цвела. Лично я плачу 1500 рублей в месяц за «гигабитный интернет», при том, что чисто физически в подъезд попадает линк на полтора. И тем не менее по ночам я регулярно ловлю скорости за 70 мегабайт в секунду, днем — 10-50.
Просто не надо удивляться, что везде стоит «до», оплачивая ежемесячно смешные суммы. Где резервация — там тысячи, если не десятки тысяч рублей в месяц. Это не эксклюзивно для GPON.
1) С коробкой да, печалька. Меня тоже напрягает что дают устройство которое не выглядит как-то серьезно и что нельзя его самому конфигурировать. Но с другой стороны за год работы оно ни разу не зависло, а когда я написал заявку — мне его переключили в мост и я своим роутером соединяюсь с провайдером по PPPoE, получая белый адрес на своем устройстве.
2) «Умники» конечно могут положить сеть с SFP, но оно ведь работать не будет, как попробуют — так и перестанут, врядли это сложится в систему, они ведь подключились чтоб интернет иметь, а не любоваться на свой SFP. Кроме того есть шанс огрести люлей от провайдера если укладывать сеть постоянно.
3) Скорость она все равно везде по-маркетолуховски дана, если в 24портовый езернет-свич в подъезде приходит гигабит от провайдера — то это все равно гигабит на всех на свиче, а не каждому гарантированные 100мбит/с (и даже если соседи по свичу не качают то это все равно не гарантирует 100мбит до интернета, тк тут еще зависит все от общей загрузки канала провайдера, в час пик оно может и просесть тк канал зашарен всем абонентам и обычно он шарится 1/10, т.е. в среднем каждые 100мбит/с гарантированного канала шарится на 10 человек с 100мбит/с подключением, но в силу большой абонентской базы и разным потреблением у каждого в каждый момент — нагрузка не упирается в полку ).
На GPON наоборот есть шанс поиметь что-то больше 100мбит если подключено мало народа на линии или кто-то не качает.(у меня например тариф 150мбит/с, из которых я только 100 утилизирую, тк надо свой микротик поменять на что-то с гигабитными портами).
Гарантированная скорость на канале стоит других денег всегда, это удел бизнеса, а не домашнего подключения.
НЛО прилетело и опубликовало эту надпись здесь
Попросите договор с гарантированной скоростью
НЛО прилетело и опубликовало эту надпись здесь

Даже в США и Европе (особенно в районах со старой застройкой) c проводным высокоскоростным Интернетом всё грустно: или дорого по российским меркам, или тупо нету. Безлимитный Интернет на телефоне? Почти всегда или дорого, или с урезанной скоростью, или с мелким шрифтом в договоре. Так даже говорить, что "там, где деньги, там и связь хорошая", не правильно.


В 10 км за МКАД 3G обычно есть, значительно реже 2G, но временами в районах с неплотной застройкой вышки соединены не шнурком, а радиорелейкой, то есть десяток 4G смартов могут съесть канал на весь населённый пункт.

Так даже говорить, что «там, где деньги, там и связь хорошая», не правильно.

В бедных странах выше плотность населения, т.ч. оказывается выгодно проводить быструю новую сеть. В богатых странах — ноборот, низкая плотность населения. Богатый человек может сесть на машину и решить свои вопросы по доступу к чему-либо.

Даже если принять за истину спорный тезис "В бедных странах выше плотность населения. В богатых странах — ноборот, низкая плотность населения", то необходимость ехать на машине за хорошей связью точно не тот триумф телекома, который позволит запускать все хоть сколько-то тяжёлые задачи на удалённой машине и принимать только картинку.

Ну не совсем так. У бедных просто нет старой инфраструктуры и они строят сразу новую и скоростную, поэтому сразу получают скоростной доступ. У богатых старая инфраструктура уже есть от прошлых времен и поэтому они тащат все это старье которое пока кое-как удовлетворяет, DOCSIS и ADSL всякий.

Это в России то высокая плотность населения?

В городах — да, а не в поселке Кадыкчан.
Тогда я должен уточнить: мой комментарий выше это про Кемерово, город который находится на расстоянии 3000км от Москвы.

Возможно это и не совсем честный 4G, однако с сильным недостатком мобильного трафика я еще не сталкивался.
У меня yota с 540 рублей за безлимитный интернет. Дорого ли это для ITшника? я бы сказал что нет.

По поводу оптики — ростелеком ведет в квартиру оптику, это вроде GPON технология у них. Ну и роутер соответствующий.

Так что у меня и с проводным и беспроводным интернетом все шустренько, причем нахожусь я далеко от Москвы.

Ну а США насколько знаю относительно отсталый по этим меркам потому что у них куча legacy инфраструктуры. В РФ и онлайн банкинг весьма продвинутый по мировым меркам насколько я понимаю.
От москвы километров за 600. Стоит поехать в поселок к родственникам — писец наступает. Что в дороге, что на месте. Почти всюду только 2g ловит.
Потому что это поселок, а не потому что далеко от москвы.
Причем я сомневаюсь что специфично только для РФ
Так я и не спорю. Но ведь мы тут обсуждаем всеобщее счастье с 5g и тонкие клиенты? При том что даже 3g не везде ловит.
Оно будет ловить в крупных центрах.
Трасса Мск-СПб. Мобильная сеть всё ещё периодически на маршруте падает в 2G.
В тайге тоже думаю не ловит.

А 4G есть по всему городу? И на всех окраинах? И во всех помещениях?
А gpon — это такая достаточно ограниченная технология, в том числе и с возможными проблемами при отказах. Но дешёвая при внедрении.

Оптика прямо по квартире?

Да, мне в квартиру идет тонкий провод с соответствующим концом. Насколько я понимаю это GPON ростелекома.

На остальные вопросы с радостью отвечу через час.
Справедливости ради, тогда это "до квартиры", а не по ней.
У меня этот провод по квартире идет прямиком до роутера. Это не ПО ней?
Технически — да. Но по факту у вас оптика только от роутера к провайдеру. Локальная сеть в квартире — на витой паре, или еще хуже — на wifi.
Но мне сложно судить, о чем именно спрашивал Viceroyalty
Думаю, что местоположение вашего роутера его не интересовало, но могу ошибаться.
Ну если уж формально подходить то нет ничего невозможного в оптике по квартире. Патчкорды готовые продаются нужной длины, карты тоже доступны (2тыс руб на али). Если гикнуться на этой теме, то можно устроить оптику дома за вполне разумные деньги, на локалку из 5 компов не дороже последнего айфона встанет.
Формально, действительно, ничего невозможного. Как и 10 гигабит локальная сеть на Ethernet в квартире. Вопрос только в цене. Сам все собираюсь, но никак не соберусь — рэковые БУ свитчи шумят, как паровозы, «гражданские» коробки стоят дорого и имеют совсем не лестные отзывы… Сложно это все, особенно людям, далеким от рынка серверных сетевых девайсов.
Актуальная статья бы не помешала.
Простите, очень любопытно: а зачем 10GbE дома?
Шоб было или есть какая-то реальная потребность?
До NAS-а с дисками в зеркальном рейде. Могут быстрее, чем 100 мегабайт в секунду, но не судьба: гигабит — он гигабит.
10 гигабит — тема, особенно при нескольких рабочих станциях, на одной винда, на другой — сервер, на третьей — несколько ОС в виртуалке ну и так далее, при 100 мегабитах в секунду тормозит все (((
Интересно, у меня «типо волокно» но в квартиру идет обычный ethernet
Да, у меня также было. И модем с GPON, у меня Huawei HG8245H, кажется, стоял или что-то близкородственное к нему.
На ассемблере можно написать всё что угодно и решить абсолютно любую задачу, но жизнь так коротка. (с) кто-то из мудрых.

Только современней компиляторы низкоуровневых языков в целом генерируют более оптимальный код по сравнению с написанным вручную :)

Интересно, может уже создадут компиляторы с ai под капотом, которые смогут, имея какое-то говно типа электрона на входе заменить его эквивалентным кодом на с? Типа, написал прототип, оттестировал на 56 ядерном маке, а потом пару суток компиляции, и на выходе артефакт, делающий все тоже самое, но раз в 100 быстрее?

Присоединяюсь к вопросу как обычный юзер, Почему если ассемблер так хорош его не дорабатывают иранспилятором? Или всЯ проблема в графических интерфейсах новых приложений?
«Хорошесть» ассемблера это такой миф, на самом деле под этим подразумевается то, что программист обязан заниматься всей сопутствующей обвязкой кода вместо того, чтобы тратить время только на бизнес-логику приложения.
И для тех, кто хочет упороться именно этим, существует LLVM.
Просто выигрыш по оптимизации с ним не такой уж прям сильный.
Ассемблер хорош когда надо простую задачу втиснуть в килобайт кода. На языках высокого уровня всяко прилипнут какие-то библиотеки и прочий обвес, в то время как на ассемблере можно выполнить задачу напрямую. Он и сейчас используется в критических местах, например при программировании микроконтроллеров. В той же ардуино (с тактовой частотой 16МГц) читать из порта с частотой 4МГц можно только ассемблером, тк при использовании С скорость чтения падает до сотен килогерц из-за лишнего кода абстраций.
Но в каком-нибудь вебе или в бизнес-приложениях, вещах которые сами по себе являются высокоуровневыми, т.е. надстройками над надстройками, ассемблер конечно неуместен.
Вся проблема исключительно в прокладке между монитором и стулом. Если её заменить ИИ — получается что прокладка и не очень то нужна. Но этого никогда не будет, ибо пчёлы не могут быть против мёда.
Ну тут скорее всего про то, что на чистом C/C++ код получается быстрее, чем на ассемблере. Про всякое «прикрутим 100500ый фреймворк к Go» — тут ничто не сможет помочь.

Это вы захотели решить задачу останова. Которая не разрешима.

НЛО прилетело и опубликовало эту надпись здесь
Именно с этой идеей провалился Intanium, разве нет?
НЛО прилетело и опубликовало эту надпись здесь
Можно на С++ писать так, как на ассемблере, т.е. по возможности без лишней абстракции, ну примитивные данные быстрей обрабатываются.
Отрадно видеть, не прошло и 30 лет, как тема опять поднимается :)
Н.Вирт «Долой жирные программы»
Стало правилом: всякий раз, когда выпускается новая версия программного продукта, существенно — порой на много мегабайт — подскакивают его требования к размерам памяти.
Почему-то все забывают о том, что новые версии программ могут содержать уйму новых функций.
НЛО прилетело и опубликовало эту надпись здесь

Совершенно верно! Более того, мы даже не знаем, какие именно функции оно выполняет, пока снаружи оно похоже на фонарик. Взаимодействие с двумя десятками рекламных и собирающих вашу активность сетей, да мало ли ещё полезного, нужного и важного (для своих авторов) может делать фонарик. Я вот ещё думал раньше, что программа шагомера должна просто шаги считать :)

Путают bloatware (когда в программу для прожига cd-дисков добавляют видеоредактор и почтовый клиент) и распухание стека.


Распухание стека — интегральная часть процесса разработки. Если у вас программе есть хоть одна строковая переменная, знайте, ваша программа — жирный неповоротливый убюдок для идиотов. Потому что настоящая хардкорная программа работает только с числами. Желательно, в троичной системе, чтобы получать более высокую точность.

Только вот со всеми этими слоями абстакции и пр, ресурсоемкий софт как правило пишут на достаточно низком уровне, со всякими там оптимизациями под современные процессорными инструкциями и пр. Да и сложность современного софта тоже растет, тут уже без этих абстракций и прочих плюшек программистов, на релиз новых версий уходило бы пяток лет.
И сравнивать какой нибудь лексикон и современный microsoft word с аргументами «он делает тоже самое но жрет в тысячи раз меньше», очень глупо.

Вот только Word большую часть времени занимается отрисовкой рюшечек интерфейса, а Лексикон делал только то, для чего он предназначен — обработкой тектовых данных.
Для таких тонких ценителей сейчас есть LaTeX.
Не могу сказать, чтобы он по размеру был сильно меньше ворда.
Не согласен с автором. Никакого «назад в будущее» не будет в мире просто нет и не будет столько высококвалифицированных специалистов, которые нужны рынку. Поэтому рынок заинтересован в снижении порога входа в отрасль и, как следствие, в еще большем увеличении слоев абстракций. Таким образом будущее не за уменьшением количества уровней абстракций, а на мой взгляд за новыми транспиляторами, позволяющими переводить высокоуровневый код в эффективный низкоуровневый код. По началу это появление простых транспиляторов, потом с применением примитивного «ИИ». А если копнуть чуть дальше в будущее — это и вовсе переход к тому что программисты будут становиться не нужны и их будет заменять уже настоящий ИИ.
В чем то согласен даже. По андроиду такое замечаю. Ранее был далвик, чисто виртуальная машина с jit. Теперь сделали ART который умеет как в jit для свежеустановленной программки, так и в aot во время простоя устройства, притом периодически перекомпилирует учитывая профили использования приложения.
Так же закончил читать сегодня статейку про dart vm у которой с компиляцией так же не все просто. Есть куча режимов, в т.ч. тоже и jit и aot, и выглядит это все как вполне неплохой задел на будущее для оптимизации высокоуровнего кода на дарте в достаточно оптимизированные машинные инструкции. Про v8 что там к чему я не знаю, не люблю js, но часто вижу заголовки все больше рапортующие об ускорении движка.

Вот когда читаю такие подробности не из своей области, кажется что я и не айтишник вовсе

Что такое «настоящий ИИ»?
НЛО прилетело и опубликовало эту надпись здесь
По мнению руководства TSMC до пределов вычислительных мощностей ещё очень далеко и закон Мура продолжит здравствовать. В качестве решения они предлагают 2.5D и 3D интеграцию. В случае 2.5D с помощью вертикальных линий (inter-level vias, ILV) в одном корпусе объединяются несколько слоев, например памяти и процессора. Этот же подход, кстати, ключ к существенному повышению производительности в краткосрочной перспективе: преодоление memory bottleneck за счет размещения оперативной памяти в корпусе с вычислителем и организации взаимодействия между ними по широким шинам (всё те же ILV). Кстати, промышленность уже выпускает такие вещи, например, некоторые FPGA Xilinx, Intel-Altera и некоторые GPU от AMD содержат слой HBM DRAM памяти. К слову, HBM на хабре уже рассматривалась.
Что касается раздутого кода, следует учитывать, что сложность решаемых проблем (или как минимум контекст и запросы) растёт, и неизбежным следствием попыток обуздать эту сложность становится увеличение уровней абстракций. Но я согласен, это не повод не думать над тем, что пишешь, просто не всё так плохо.
преодоление memory bottleneck за счет размещения оперативной памяти в корпусе с вычислителем и организации взаимодействия между ними по широким шинам (всё те же ILV)

При этом оперативная память будет такой же съемной, как и сейчас, либо сразу полностью интегрированной в процессор?

В случае с AMD APU я бы не отказался от ситуации, когда у меня в процессор встроено 4 ГБ универсальной памяти с быстрым доступом… и есть пара разъемов на материнки для памяти с медленным доступом.
У меня лично другой вопрос возникает:
А как они этот бутерброд охлаждать будут? Я слышал, что сегодня и так уже есть определенные проблемы с охлаждением всего того, что живет под крышкой CPU.
А как они этот бутерброд охлаждать будут?

Хороший вопрос. Xilinx пишут, что использовали корпус без крышки (lidless, bare die).

А уж когда они его в смартфон поставят…

Вопрос только в размере самого процессора. Видеокарты с HBM ведь как-то охлаждаются. Всегда можно сделать сокет побольше… В пределах разумного.
Либо вообще продавать материнские платы с интегрированным процессором и возможно даже охлаждением. В 2020, я думаю, купят и не поморщатся.
В видеокартах с HBM памятью эта самая память не сверху, а сбоку от GPU находится. Как и обычная память, только не в 5-10 сантиметрах от GPU а практически вплотную к нему и длиной шины в считанные миллиметры. Поэтому никаких проблем с охлаждением нет, микросхемы памяти напрямую контактируют с пластиной радиатора/водоблока — наоборот так даже удобное охлаждать когда все в одной кучке, можно GPU и всю память накрыть одной компактной пластиной для съема тепла разом, а не иметь 4+1 или 8+1 отдельных точек раскиданных по плате которые нужно охлаждать.

Выше же речь шла об наслоении процессоров/памяти друг на друга. И тут проблема с охлаждением обязательно вылезет.
Варианты с HBM — интегрированные, за счет этого и быстрота. Но никто не мешает держать в системе ещё и обычную DDR, большего объема и меньшей пропускной способности. Будет ещё один уровень в иерархии памяти.
L4 / eDRAM. такое уже даже реализовывали в железе несколько раз, но особо «не взлетело» пока.
Резервов повышения производительности ещё на много лет хватит.
Говоря, что лимит однопоточной производительности исчерпан, ориентируются на Интел,
но у них весь конвейер разработки встал из-за проблем с техпроцессом. Sunny Cove даже с незначительными отличиями от Skylake показывает неплохой прирост.

за счет размещения оперативной памяти в корпусе с вычислителем и организации взаимодействия между ними по широким шинам

Это помогает только если код оптимизированный. Собственно такие процессоры для HPC уже выпускают — Fujitsu A64FX.
Резервов повышения производительности ещё на много лет хватит.


С чего Вы это взяли, особенно с учетом проблем с теплоотводом от всего этого кипятильника?
Просто слежу за индустрией.
www.techpowerup.com/259653/intel-sunny-cove-successor-significantly-bigger-jim-keller?cp=2
We have a roadmap to 50x more transistors and huge steps to make on each piece of the stack.

Новые техпроцессы позволяют радикально увеличивать количество транзисторов на кристалле.
Современные мобильные чипы содержат до 10 миллиардов транзисторов при бюджете в несколько ватт.
Новые техпроцессы позволяют радикально увеличивать количество транзисторов на кристалле
Есть только один нюанс: стоимость каждого отдельного транзистора раньше с уменьшением проектных норм уменьшалась, а теперь растет.
Спроектировать и произвести тестовый чип по 180 нм по силам и средствам не только любому стартапу, на него даже многие хоббисты-одиночки могут на завтраках наэкономить. По современным технологиям разговор о прототипировании начинается с миллионов долларов, а серийное производство окупается только при миллионных тиражах, что, ы свою очередь, сильно сокращает возможности развития для отрасли куда-то в сторону от многоядерных процессоров для мобильных телефонов.
сложность решаемых проблем (или как минимум контекст и запросы) растёт

Забавно, что параллельно с подходом "процы мощные, памяти много, 20 слоев абстракции ниочем" благодаря облакам набирает силу ещё более ублюдочный подход "стейтлесс, скейлабилити и микросервисы с первой строчки кода", что рождает решения, которые тратят 90% ресурсов рантайма на работу с джейсонами. Особенно забавно, когда таких уродцев с очередями, кубернетесом и десятком сервисов собирают под задачи с нагрузкой 300 сообщений в день

НЛО прилетело и опубликовало эту надпись здесь

Тут важна ваша роль в проекте. Если вы заказчик/пм/продакт овнер (менеджер), то да, неприятно. За ваш счёт себе резюме фармят. Если же дев, то одни плюсы) Можно разогнать свою рыночную стоимость в разы, и ни разу не наврав в резюме и на собесе, найти себе интересную работу с реальным хайлоадом, где такой стек обоснован здравым смыслом.

А с другой стороны, если бы это был монолит на древней джаве, кто бы на таком проекте хотел работать?

Про деплой вообще не понял. А как вообще по другому можно?

Всё-таки эра экономии наступит чуть быстрей, но в мобильном варианте.Там сказывается два факторами -потребление и тепловыделение и уже подходит к приделу архитектура, таскать чемодан батареек мало кто захочет.Да и обычные процессоры опять же скоро упруться в тепловой барьер, пихать то транзисторы то можно, а одновременно работать все сгорит из за тепла, итак в серверных процессорах уже 300 ватт теплоотдачи..

таскать чемодан батареек мало кто захочет

Я хочу! Можно мне телефон с ёмким аккумулятором, можно толщиной 20-25мм.

Нет! если сделать телефон толще, хуже будут ломаться экраны и, соответственно, продажи телефонов резко упадут.
От этого уже сделали защиту — теперь экраны закруглённые и без бортика, при падении практически гарантирована трещина.
После многократных роняний закруглённого безбортичного телефона могу сказать следующее: трещина появилась только когда после падения бортик сверху погнулся, до этого, на удивление, не было проблем.
Правда, реального смысла в закруглённых бортах телефона как не видел, так и не вижу.
Разве что скользит лучше и быстрее скорость набирает /irony
Я тоже не вижу. С маленьким бортиком мне было удобнее, от руки не возникало ложных нажатий. Теперь его роль выполняет чехол.
Телефон+Пауербанк+Синяя изолента=телефон с емким сменным универсальным аккумулятором, переменной толщины

Xkcdphone? А если серьёзно, я бы так и делал, если бы изолента не перекрывала экран, а usbовый хвостик не торчал и не мешал.

Xkcdphone?

Про него даже не слышал, а вот с изолентой много чего лепил, правда в последнее время перешел на серый «божественный скотч» из строймага, он лучше той изоленты, что у нас продается.

Xkcd phone 1 2 3 4 5 6

Раньше китайцы продавали неоригинальные аккумуляторы кратно большей емкости, заменяющие собой одновременно и аккумулятор и заднюю крышку аппарата. Т.к. под оригинальной крышкой места для более крупного аккумулятора понятное дело не оставлено. Получалось довольно громоздко, но достаточно аккуратно и вполне надежно.

Мы таков в(на?) офисный телефон с подключенным безлимитом, которым пользовалось много народу и соответственно быстро садился аккумулятор ставили. На тот момент это было ЕМНИП 4500 мАч вместо штатного на 1400 мАч.

Единственное неудобство штатная зарядка занимала больше 3-4 часов, т.к. телефон был совсем не в курсе что у него емкость батареи каким-то образом в 3 раза увеличилась.

Не знаю правда выпускают ли сейчас такие под современные модели.
таскать чемодан батареек мало кто захочет

уже таскают, пока маленькие, но прогресс не остановить — павербанк называется.
" К примеру, когда Билл Гейтс был ещё пацанёнком, он написал интерпретатор BASIC для одного из самых первых микрокомпьютеров TRS-80"

Когда вышел TRS-80 пацаненку было 22 годика. Статья — перевод американской гали.ру?
Поскольку у машины была крохотная по размеру ROM, Гейтсу пришлось уложить всю программу в 16 Кб.
— в ROM всё равно ничего не запишешь.
Тогда уже были ROM с УФ стиранием. И 1 раз можно записать в любую ROM, в этом и дело.
В ZX81 было всего 8К ROM
Это что же, не получится добавить еще парочку уровней абстракции для программ, исполняемых виртуальной машиной внутри контейнера, развернутого на виртуальной машине?

Мы же только до контейнеров дошли, а там внутри еще должны быть паллеты, на них ящики, в ящиках коробки, в коробках пакеты, и т.д.
Блин, только сейчас понял почему Docker называется докером! Докер — это тот кто грузит паллеты и ящики в портах.
Я бы просто хотел чтобы софт писался для обычных пользовательских устройств чтобы у них это как-то работало. А я лично буду брать топ устройства на ступень-два выше, как следствие, получать хорошую производительность. И такое было. Пока все сидели на пеньках и селеронах i7-3770 рвал и метал в 2012. Сейчас все похуже: разрабы изначально делают софт для i9 и тот же самый 9900k лишь позволяет более-менее нормально пользоваться софтом. На всем что ниже по производительности ядер просто мрак.
Это зависит от софта. Где-то нужно одно быстрое ядро и тот же 32-ядерный 3990 будет начисто «сливать» 8 ядрам 9900K, а где-то нужны ядра — там, соответственно, наоборот.
К сожалению, совсем не все задачи можно раскидать на много ядер.
8 ядер 9990К или 32 ядра 3990 будут оба иметь невероятное преимущество перед чем-нибудь вроде Pentium N5000, стоящем в недорогом ноутбуке за 300 долларов.
Да, вы правы, я не совсем об этом отвечал. У меня скорее про прослойку профессионального софта, который на ноутбуках с Pentium N5000 обычно вовсе не пытаются запускать.
И все же количество ядер нарастить проще, чем частоту.
Сегодняшний раздутый софт, половина которого это браузерные обертки над медленным JS кодом, не обязан быть профессиональным, чтобы тормозить.

Не видел еще программ которые бы не любили быстрых ядер. Особенно это видно в играх которые как бы любят многопоток, а на самом деле скорость одного ядра решает как и раньше.

Ну, легко: тайловый рендер Blender быстрее закончится на 16, а то и 12 ядрах с 3,5ГГц, нежели на 8 ядрах 9900К с 5ГГц.
Само-собой, не надо бросаться в крайности и делать 100 ядер, не дотягивающих до 1ГГц, но и 2 ядра уже мало где покажут хорошую производительность, даже на 5ГГц. Исключения с той стороны есть — САПР, ЕМНИП, работает на одном ядре.
Но я бы предпочел, чтобы софт по возможности раскладывали на ядра. Их количество нарастить проще, чем частоту и IPC.
Тут дело в том что всегда при желании берется столько ядер сколько нужно. Кроме совсем уже редких случаев типа 32/64 ядер у Амд.
У меня сейчас 12 ядер (3900Х), кодирование видео в 4К загружает процессор в 100% стабильно, иногда и на 1080P. Не отказался бы от 32 ядер…

Есть 3950х.

НЛО прилетело и опубликовало эту надпись здесь
Он не сильно отличается от младшей версии, тем более, у Интела вообще нет конкурента ему.
Немного странно менять 3900Х на 3950Х. Вот на Threadripper — да, в этом что-то есть. Но учитывая, что процессор у меня свежий, думаю, что дождусь HEDT на DDR5.

Наоборот, нормально. Кроме процессора ничего менять не надо.
Сам 3950х еще и намного быстрее всех прошлых тредрипперов. И в целом получился довольно удачным.

А Рязань точно не быстрее будет?
Чем что? 3900Х точно медленнее 3990X. В кодировании видео.
К примеру, когда Билл Гейтс

Позабавили реверансы в сторону Билл Гейтс. Вот так и рождаются мифы.
Однако их там минимум четверо (команда) писало этот вариант интерпретатора.

А что в современном вебе происходит даже в страшном сне невозможно было представить десять лет назад.
Один момент я помню, когда веб летал: когда диал-ап начал уходить в прошлое, пришёл ADSL, но ещё не появилось свистелок-перделок по 20 мб рождённых вебпаком и написанных на каком-то Реакте в не самом лучшем стиле.

Зачем Фейсбук загружает 13.7 мб кода на Javascript и 1.7 мб CSS на индексе, что они там делают? Раньше 13 мб занимали целые дистрибутивы приложений.
Легендарный Warcraft 2 весил 29 мб (без видео и музыки).

Ладно Фейсбук, зачем Хабр, созданный программистами для программистов загружает 4 мб Javascript кода. Неужели тут где-то есть реально сложный функционал, о котором я не знаю?

Радует только то, что людям которые это понимают всегда найдётся работа.
Ладно Фейсбук, зачем Хабр, созданный программистами для программистов загружает 4 мб Javascript кода.

Насчет этого я бы усомнился, судя по редактору постов и парсеру Markdown.

Ох, да, это было очумительное время. :)
Может кто-то помнит рекламный ролик хрома — вроде бы картошку рубили на части и она в замедленном показе падала в чашку, а параллельно на экране открывалась страница с гуглом и успевала загрузиться раньше.
Вот ровно так же было на АДСЛ с теми самыми старыми сайтами в нулевых еще версиях того же хрома — все открывалось мгновенно, даже приходилось привыкать, что кнопку отмены загрузки (Х) вообще не успеваешь рассмотреть, она дергается и тут же снова становится круглой стрелкой рефреша страницы. :)
Да, крутой ролик :) В комментах пишут что использовали кэш, а не загрузку сайтов.
Заголовок спойлера

Не видел того ролика, т.к. в то время был занят интернет-серфингом в opera presto :)

Хабр, созданный программистами

Крючков не умеет «прогать».
Спасибо! Золотые слова, аж прослезился: «требовало участия больших команд разработчиков; на этом основании выросла бюрократия из менеджеров проектов и исполнительных директоров. Крупные программные проекты превратились в марши смерти, которые ярче всего описал Фред Брукс в своей знаменитой книге „Мифический человеко-месяц“. А ведь когда-то оптимизацией кода на контроллерах занимались чтобы он не только быстрее исполнялся, но и меньше места занимал. Это конечно прошлое, но принципы разумной оптимизации должны вернуться.

100% должны. Это дикость что делает Photos на win 10. Библиотека на 50к фото индексировалась больше 5 часов с максимальной загрузкой всех 8 ядер. После индексации ленте фотографии все равно показываются с ощутимой задержкой. Если быстро скроллить то загружаются 8 ядер процессора после чего начинаются фризы. Приложение занимает 0,5гб в оперативной памяти.
Разработчики его по всей видимости родственники разработчиков скайпа.

Нужны новые руководители.

Которые перестанут поощрять, нанимать, обучать и продвигать программистов (и систему), создающих описанную проблему.
Да нет, я думаю оно само отомрет когда все перейдут на аренду ПО вместо продажи. Когда исчезнут потребности выкатывать новые версии регулярно чтоб пополнять бюджет — как раз появится возможность спокойно пилить качество.
В SaaS та же самая гонка релизов и фич, но не для того чтоб продать новую версию, а чтобы не ушли к конкурирующему поставщику SaaS
Вы о чём?
Пока что аренда ПО наоборот делает ещё хуже.
Выкатывают обновления по подписке такие, что всё вешается в лучшем случае, а в худшем самолёты падают.
Надо просто тестировать своё ПО на слабых машинах, с ограничением по памяти, с урезанным интернетом.


100% солидарен!
Автор изложил свои мысли о шуточном законе Вирта: программы становятся медленнее куда шустрее, чем компьютеры становятся быстрее.
Ура, наконец-то законы физики заставят разрабов браузеров экономить ресурсы железа.
Если-бы в 2000 году кто-то сказал, что браузер когда-то станет занимать 4гб памяти то над ним бы только поржали.
4??
У меня как-то хром освоил 22Гб и не особо останавливался.

Всякие кэши обычно (т.е. практически всегда) занимают некоторую долю от доступного объёма памяти, а не столько, сколько им минимально нужно. Как бы это плюс — если пользователь потратился на память, она не должна простаивать. Если свободной памяти будет меньше — программы ужмутся, влезут хоть в 1ГБ, а то и в 512МБ.


Я иногда слышу высказывания типа "винда/хром/jvm сожрала N ГБ памяти, куда ей столько" (это на системе с 32/64/128ГБ памяти-то!). Так говорить можно только при совершенном непонимании принципа кэширования и неспособности даже допустить мысль о том, что в другой конфигурации системы программа может жрать меньше, потому что она жрёт не столько, сколько ей нужно, а столько, сколько может себе позволить.

Я не против, но:
1. браузер кеширует сайты для скорости — он молодец.
2. сайтоделы пишут сайт с бесконечной прокруткой и не заморачиваются, что он съест пару гб оперативки — во-первых, у пользователя больше, во-вторых, работать одновременно с несколькими сайтами — не самый частый случай. Тоже в обще-то правы. Ещё и бизнес не даёт пару недель на оптимизации, бизнесу фичи и time to market важнее.
3. Антивирус жрёт и процессор, и память — никуда не деться.
4. Утилиты, JVM, VM, системные процессы и кэши — рабочие инструменты.
А в итоге — никто не виноват, но свободной памяти нет. Нехорошо как-то.
Нефига не ужимаются. Тут как-то поработал на свежем FireFox с несколькими относительно тяжелыми сайтами (5 или 6 вкладок) на машине где вместо привычных 8-16 ГБ и SSD было только 4 ГБ памяти и диск HDD а не SSD. Лис уже через 10 минут сожрал >5 ГБ + 1.5 ГБ от ОС и другого запущенного софта, половина этого объема конечно ушло в своп на HDD и все стало ТАК тормозить что курсор мыши начал при движении залипать, и в какой-то момент захотелось нажать ресет вместо того чтобы дожидаться пока «лишние» окошки наконец-то закроются.

Очень похоже на ощущение как при попытке поработать на Windows 95 c 4 МБ памяти и с отключенным дисковым кэшем.
Подумаешь, всего-то памяти в 1000 раз больше стало, но «передайте ильичу — нам и 10 000 по плечу»
Честно говоря довольно однобокий подход.
В сегодняшних условиях, когда производительность условного «core i3» более не растёт со сменой поколений просматривается аж несколько подходов к возможности и дальше писать всё более и более «привлекательный» для пользователя (т.е. красивый и функциональный) код.
При этом, конечно, каким будет конечное решение: какой-то «чистый» подход, смешанный подход либо решение придёт «со стороны» сегодня не понятно:
— многопоточное программирование — тот же серверный ARM в терафлопсах уже свою производительность меряет (да мерялка не идеальна). Проблем у этого подхода много: отсутствие устоявшихся и боле-менее универсальных подходов и инструментов, проблемы при написании «монолитных» приложений, плохое распараллеливание (зависимость по данным или real-time требования, или ещё что-то) для части приложений, возрастание простоев (lock-free и wait-free алгоритмы всё равно не бесплатны) с увеличением числа потоков, необходимость достаточно производительного потока для пользовательского интерфейса и т.д.
— специальные ускорители — тут мобильные устройства, в массовом сегменте, пионеры. Графика (даже 2Д)? Звук? Кодаки? Шифрование — пожалуйста воспользуйтесь спец. устройством и ни в чём себе не отказывайте.
ИМХО комбинирование этих двух подходов (для «прожорливых» задач выделенное устройство, всё остальное хорошо распараллелено) на приличное время компенсирует отсутствие роста производительности «условного core i3»
— переход с «условной Java[Script]» на «условный Rust» — ну поскольку прирёрло (или скоро припрёт) и мощности реально почти не растут, то придётся пересаживаться. Переход на С \ С++ выглядит нереальным.
— обучение массового программиста писать алгоритмически производительный код — да мне видится, что заявленный в статье метод решения проблемы «процессоры больше не становятся быстрее» стоит где-то здесь, после многопоточности, спец-вычислителей, перехода на rust…

Ну а совсем фантастичных сценариев, типа выполнения всего в облаках через G5 — выше уже накидали, но, по ряду причин, слабо верится ;)
И как тут не вспомнить об ОС Kolibri…
как там нынче с интернетом?
Заявлена поддержка TCP/IP и некоторых сетевых карт.
Есть браузер WebView. Обладает зачатками поддержки форматированного вывода, имеет собственный загрузчик файлов. HTTPS сайты загружает через прокси gate.aspero.pro.
Буквально 5 минут назад в попытке разобраться какую из функций Питона лучше использовать для более быстрой обработки строкimage
НЛО прилетело и опубликовало эту надпись здесь

Уже давно настал. Если вы что-то нажали и результат не появился мгновенно — значит вам не хватает вычислительной мощности.

домашняя бухгалтерия Sanuel Family 12. Нажал удаление одной категории расходов. Ждал минуту. Загружено 11% процессора, использованы 2 ядра, где то на 20%
так может в скорость I/O диска упёрся)
ssd-то? он сата, да, но что б база данных на 10 мб уперлась в возможности ssd?
НЛО прилетело и опубликовало эту надпись здесь
Интересно, а сколько компилятору MASM лет? Там тоже очень медленно компилируется.
Если UASM с моим проектом управляется за 0.5-0.6 сек, то ассемблер мелкософта целых 17 сек.
Наверно компиляторы M$VSС++ тоже такие тормознутые, и если переписать код, то вероятно раз 20-30 можно ускорится.
Проект XRayExtensions
github.com/NanoBot-AMK/XRayExtensions
Точней
github.com/NanoBot-AMK/XRayExtensions/tree/master/shoc_10006_xrgame
С 14 ревизии использую UASM
К сожалению потребителя это никак не коснётся. Всё равно мы будем всегда работать на тормозящих машинах, даже если для этого не будет никаких причин. Всё равно будут искусственно затормаживать наши телефоны и компьютеры, мы будем покупать новые (которые по факту будут иметь такую же производительность как и наш прошлый) и временно наслаждаться отсутствием тормозов. Так и будет всю жизнь.

Лучше бы вместо новых телефонов, продавали пвсевдоапгредый. Купил себе немного ускорения на телефон и годик (или пол года) ходишь и у тебя всё летает.))
Какого затормаживания?
Все «затормаживание» — это добавление костылей для поддержки совместимости старого железа с новыми фичами ОС.
Например в 4й версии айфона не было функции прозрачности у графического процессора, а в пятом она уже есть и новая ОС уже конечно пишется с рюшечками прозрачности (плавно появляющееся меню). А как теперь в 4м быть? Пишутся софтверные костыли-библиотека совместимости, которые прозрачность рисуют силами CPU, вот и привет тормоза (не кидайте помидорами, не помню когда прозрачность в GPU появилась, это для примера).
И так везде, в т.ч. и на андроидах и на компах.
ВОЗМОЖНО, вы правы, я не знаю. И пример, который вы описываете мне кажется скорее исключение. А как правило, никаких видимых улучшений не происходит, а телефон всё сильнее тормозит с каждым обновлением. И спрашивается, для чего мне эти обновления? Лично я по возможности, не обновляю вообще НИЧЕГО, что работает. Если программа работает, я её никогда не стану обновлять без крайней необходимости. Но приходится это делать, так как чаще производитель не оставляет выбора. Ну а что бы после обновления что либо стало ЛУЧШЕ, это прям откровенная редкость, исключение из правил, если просто был какой-то баг и его наконец поправили.
К сожалению программы приходится обновлять. А новые версии тащат за собой и новое API, к которому библиотеками натягивается совместимость со старым железом.
Наверно когда-нибудь мы упремся в какое-то соотношение производительности, размеров и энергопотребления и тогда срок жизни устройств увеличится. Может наоборот — каналы связи станут толще и у нас на руках будут только терминалы — тогда тоже не потребуется ежегодный апгрейд.
Выход только один — упорядочивание. Когда нужно организовать более сложную структуру того же самого, что уже есть, то необходимо:
1. Выкинуть всё старое и не нужное.
2. Упорядочить то что осталось на столько, что бы выполнение задачи не заняло сверхчеловеческих ресурсов.
Может для начала просто перестать писать код на интерпретаторах и вспомнить про компиляторы/трансляторы?
Ну здрассте, а как же мультиплатформенность?
А C/C++ разве не мультиплатформенный?
Довольно условно. Не всякая 32-битная программа заработает скомпилированная на 64 бита без обработки напильником, на той же платформе, а уж перенос на другую платформу потянет за собой много всего.
Любой ввод-вывод, любая работа с периферией, вывод на экран — везде разные, для того и городят всякие абстракции чтобы не разгребать проблемы на каждом новом железе.

Скажем, как пример — скрипт на Python или простой веб-сервис на Ruby легко может одинаково запускаться на Win/Mac/Lin, причем даже вне зависимости от архитектуры процессора (x86/x64/arm). С++ такое и не снилось


С точки зрения какой-нибудь вЕнды или Линукса — да, наверное, можно скомпилировать несколько разных версий программы под разные платформы, а потом упаковать в единый исполняемый файл (если вообще форматы ELF и PE это позволяют). Но проще все равно таскать отдельные исполняемые файлы под каждую платформу со своим циклом и пайплайном сборки и тестирования

весьма условно ) как и все остальное )

dart? ahead of time компиляция (ну есть и вариант с jit) при этом флаттер кроссплатформенный.
Ну тада пилите дальше, Шура.
Диды с программируемым калькулятором Аполлоны на Луну сажали.
До сих пор повторить не можем, нужно больше программистов…
С какой, говорите, попытки сажали?
Давайте вам даже цитату тех времён дам: «городами стреляем!».
Наша индустрия сам должна организовать систему качества софта, включая параметр производительности и потребляемых ресурсов.

Когда не «игра ААА класса типа мувики красивости и всё такое», но о жрательных и некоторых других важных для юзера и ИТ характеристиках ничего из этой аббревиатуры не следует, — а типа как с техникой бытовой, только не холодильник, а например фреймворк React 7 B (BBAA) класса — значит терпеть можно, хоть не дно типа D-- (DD--CD-) (или как оно там), но хотя бы.

Производительность — Потребление памяти — Удобство программиста — Удобство пользователя

Упрощенная оценка одной буквой — по минимальному из параметров.

Дальнейшее — детали. Например в оценку за производительность вкладывать параметры работоспособности без лагов на процах low-20% юзеров, типичная загрузка 1 ядра, coreX8 систем, типичная загрузка GPU каких-то соотв. сегментов юзеров, типичное энергопотребление Ватт с метриками для мобил, ноутов и десктопов… В оценках по памяти из главных метрик типичное потребление оперативки, дружелюбность к кэшам процессора L1-L3, метрики по видеопамяти и метрики по I/O. И т.д.
Этого давно не хватает индустрии.
Даже с «мувики красивости и всё такое» случается тотальный наеобман, когда обещают одно, а дают — процентов 40 от обещанного (warcraft3 refounded reforged как последний пример), а с расширенным рейтингом — вранья станет ещё больше.
Тем более, производительность приложений в пределах 20-30 процентов я и сам могу менять, разгоном и драйверами ( если не прикладывать моск — то -30% достигается не менее легко)

Идея интересная, но труднореализуемая и с некоторыми недостатками.


Кажется, то, о чём вы говорите, называется "нефункциональные требования"… А на практике есть минимальные и рекомендуемые требования к железу.


Проблема вашего подхода в том, что ПО, требующее много ресурсов, как раз таки оптимизируется с целью использования всех доступных ресурсов, сколько ему ни дай, — это повышает скорость. Так, любой кэш пытается отъесть всю доступную ему память, от этого он работает быстрее. И более того, размер того же кэша иногда настраивается, что делает вашу оценку качества не вполне корректной.


Но для оценки всяких жрущих как на в себя мессенджеров, наверное, это зашло бы.

Пример с холодильником не совсем корректен т.к. там измеряется один единственный показатель, а именно энергопотребление. С случае с ПО любое значение может быть как плюсом, так и минусом.
В оценках по памяти из главных метрик типичное потребление оперативки, дружелюбность к кэшам процессора L1-L3

В теории всё красиво, а на практике…
Потребление 500Мб ОЗУ для калькулятора это много или мало? А для видеомонтажа в 4К?
А если это 3D рендер, где просчитывается не просто красный кубик, а сложнейшая сцена?
В итоге приходим к ситуации, что даже в одном классе задач нельзя сделать формальные метрики, т.к. всегда будет десяток разных НО.
Ну есть аналогичные например для стиральных машин уже минимум 4 параметра стандартизированно отслеживаются:
— качество стирки (да, на это есть свое стандарты)
— качество отжима/сушки
— расход электроэнергии на 1 стирку
— расходы воды на 1 стирку

И все по стандартной буквенной шкале «А» «B», «C» и «D» означающие диапазоны значений соответствующих характеристик.
В эпоху «дешевых и оптимальных для учебных заведении» компьютеров (386/486/PI/PII) бывало, приходилось писать программы для внутренних целей. Помню, IDE Delphi выдавал exe-шки по 3-5 МБ. Так как основным средством распространения дистриба были дискеты (1,4 МБ), это была настоящая проблема. Пытались «оптимизировать» код (как то: убрать лишние модули, не «нарожать» формы для каждого случая), но в силу своей низкой компетенции не могли дальше 2 МБ сжать)))

Потом конечно, гигабайты и на жестком, и на оперативке вылились как из рога изобилия. Чтобы оправдать раздутость кода, кажется, даже появилась философия экстремального программирования (XP), которая оправдывает подход «лишь бы работало здесь и сейчас». Я уже не очень практикую кодинг, но даже на меня проекты из 150-200-300 экземпляров Form наводят ужас.

Публикации

Истории