Pull to refresh

Comments 424

Что будут делать Dell, ASUS, HP? Тихо ржать и дальше юзать x86. Ибо ценник яблочных фантазий только для ценителей марки
UFO just landed and posted this here
Ну большинство пользователей все таки не профессионалы им зарабатывающие, а студенты, офисные служащие самые обычные, просто люди у которых с ними работа никак не связана. И на США приходится все таки не очень большая доля всего населения мира. Скорее очень маленькая.
UFO just landed and posted this here
Офтоп: Sony Vaio уже 6 лет как не выпускаются, бренд продан.
На америке с европой мир не заканчивается. Доля эпл в статье указана, 7%.

Для одной компании семь процентов рынка это не так уж мало.

Доля Эпла в Америке/Европе выше средней по миру по указанным выше причинам.
Ну большинство пользователей все таки не профессионалы им зарабатывающие, а студенты, офисные служащие самые обычные

1. В богатых странах непрофессионалы и не айтишники зарабатывают достаточно, чтобы купить себе мак, если им хочется мак.
2. На США может быть приходится не очень большая доля населения, но очень большая доля рынка в денежном эквиваленте. Ну и речь не только про США, богатых стран много.

Но подавляющее большинство таки ездит на условном «гольфе» в комлектации «барабан с парктноником» и не особо задумывается о комфорте и мелких удобствах, т.к. машина — средство передвижения, а не предмет роскоши.
Аналогично и с рабочими компьютерами, ноутами и т.п.

Простите, что вмешиваюсь. Вы давно смотрели, сколько стоит новый фокус? Это как бы совсем небюджетные тачки

Это как с машинами.… А если вы зарабатываете на ней деньги, то вопрос вообще не стоит

Ага, то-то все таксисты ездят на машинах за 2М.
UFO just landed and posted this here

Вы всё ещё о работающих на машинах?
Советую узнать какой приоритет у развозящих по городу и зарабатывающих на жизнь этим имеют «комфорт и мелкие удобства». И таксисты в их числе, хотя и не ограничивается ими.

UFO just landed and posted this here
Большинство таксистов катаются или на арендованных машинах, или на тех, что предоставляет в аренду автопарк
Нет, ценник в 300к за ноутбук с посредственными ТТХ конкретно для разработчика совершенно точно выглядит безумием. Может я что-то не то разрабатываю, конечно, но i7-7700 и 16 рам в буке мне хватает с большим запасом. Для ресурсоемких задач всегда есть рдп.
UFO just landed and posted this here
Для веб-разработки мак — это просто счастье
Не забывайте, пожалуйста, уточнять, какой именно вид веб-разработки имеете в виду. Потому что вот, например, мне, веб-разработчику (C#, .NET, TypeScript) из перечисленного вами не нужно ничего, а интерфейс более «человеческим» не воспринимается (там ведь всё ещё кнопка Return в одних местах открывает/запускает, а в других, типа списка файлов в Файндере, почему-то переименовывает?).
P.S. А какое вообще отношение Adobe имеет к разработке, если не секрет?
Не забывайте, пожалуйста, уточнять, какой именно вид веб-разработки имеете в виду. Потому что вот, например, мне, веб-разработчику (C#, .NET, TypeScript) из перечисленного вами не нужно ничего

Вы, судя по стеку, занимаетесь бекенд разработкой? Я тоже пишу последние 2 года одни бекенды и вполне успешно последние полгода сижу под линуксом. А товарищ выше занимается фронтендом и действительно лучше мака не придумать ничего — хотя бы проверять тот же сайт на ретина экране в сафари (не говоря уже про дебаг на айфонах), которая довольно популярна за бугром.
P.S. А какое вообще отношение Adobe имеет к разработке, если не секрет?

Самое прямое к фронтенд разработке, если заниматься вёрсткой. Вырезать ассетов себе, выдрать значения цветов да и просто глянуть на макет. Далеко не все перешли на всякие модные фигмы, а некоторые вообще сидят на скетче и без мака никак.

Главное, чтобы товарищи с 5K ретина-экраном не забывали, что в мире остались еще жалкие реликты с Full HD.

жалкие реликты с фуллхд на 13 дюймах.
Это важно, ИМХО.
Вы, судя по стеку, занимаетесь бекенд разработкой?
Нет, я full-stack. Бэк на C#, фронт на JS/TS. Неужто бэк часто смешанный бывает, на Дотнете с Нодой?
А товарищ выше занимается фронтендом и действительно лучше мака не придумать ничего — хотя бы проверять тот же сайт на ретина экране в сафари (не говоря уже про дебаг на айфонах), которая довольно популярна за бугром.
А проверять для всех остальных, кто не ретина и не на маках (большинство)? Замечать проблемы макета на дефолтных win-шрифтах, непопадание в пикселы и всякие штуки вроде размытия при выравнивании по центру дивов нечётной (в пикселах) высоты через transform-translate(-50%, -50%);
выдрать значения цветов да и просто глянуть на макет.
Для этого в Adobe Xd есть экспорт в веб, вам просто скинут ссылку на макет на xd.abobe.com/view/{guid}… и вот он у вас уже в браузере, открываете инструменты разработчика и включаете встроенную в них пипетку.
UFO just landed and posted this here
Ну насчет «играючи» то такое, у меня вечно прошка 15 гудела как самолет при запущенной идее и запущенном под отладку джава-проекте.

Вообще В 2020 при нужде в реально производительном ноутбуке не имеет особого смысле брать устройства не на райзен 4xxx. Там какой-то совершенно сумасшедший разрыв с интелом. Очень жаль что макбуков на них не будет. Очень жаль что аппл не выкатили версию мака про на новых тредрипперах. И также очень жаль что производители не торопятся ставить эти новые процессоры в топовые модели ноутбуков. Однако постепенно втягиваются.

Тут какие-то тесты


А тут просто обратите внимание на то, какие модели процессоров окружают этот в рейтинге производительности.

Реалистично, хоть я тут кругом и защищаю ценовую политику эппл и с ней все как бы в порядке, нет ни одной причины брать ноутбук на интеле сегодня. Ну только если без мак ос жизнь не жизнь (а она жизнь, так-то). Ну и тандерболт еще, это важно, согласен. Но он там (имхо) скоро появится + USB-C со всеми возможными режимами все еще покрывает очень много юзкейсов.
UFO just landed and posted this here
UFO just landed and posted this here
А что, JetBrains Rider и .Net Core (который уже скоро будет .net 5) не существует и разработка на C# доступна только под виндой?
А как разработка на TypeScript мешает работе с ним под linux/macOS?

В общем, с 2015-2016 годов всё в мире .net-а сильно поменялось к лучшему и теперь можно с двойным комфортом использовать мак для разработки сайтиков.

Понятно, что если есть какой-то lock на winapi, то да, от win уйти не просто (ну, например, писать GUI на WPF/UWP/WinForms или же на старом Asp.Net что-то допиливать).
На секундочку, я не говорил, что я не мог бы работать на Маке. Я сказал, что Мак для меня не имеет преимуществ перед PC.
Любой Мак, кроме Мак Про — PC. Чисто технически, вообще всё, что имеет основные признаки ЭВМ, не ограничено одним вариантом использования (игровые приставки) и рассчитано на использование одним человеком — PC.
Это вы маркетолагам эппл объясните. Это они ввели противопоставление маков и пк :)
рассчитано на использование одним человеком — PC.

PC рассчитан на работу одним человеком в один момент времени (логика в том, что устройств ввода один комплект), но при этом PC легко может делиться, например, разными членами семьи на протяжении времени

Вот это не очень аргументы для такого спора. Выглядит довольно фанатично. Четыре года веб-разрабатывал за маком и в конце концов перестал, так и не смог привыкнуть, уж очень некоторые вещи по-дурацки сделаны. Особенно плохо стало с обновлением в 16-м году, хотя сейчас явно поправляются. Однако есть и хорошие аргументы — если фактически, то цены на макбуки бьются с прямыми конкурентами чуть ли не 1-в-1, поэтому доводы про оверпрайснутый мак, они в принципе не делают много смысла.
Скажите, а докер всё так-же быстро работает на маках, под родной ОС?
UFO just landed and posted this here
Меня куда больше печалит, что в макбуках больше нет топовых нвидий. Вот это облом так облом. И какая муха укусила это яблоко?..
Наверное, они не хотят получить из ноутбука то, что получилось из мак про (тот, который как мусорная корзина выглядит), который просто адово перегревался и в троттлинге там постоянно жил как процессор, так и видеокарта.

В ThinkPad T60 на максималках тоже система охлаждения справлялась вот буквально на грани...

Это да, просто надо было брать версию без дискретной графики, как и в случае с Т61.
Да и далеко ходить не надо — Core i9 в ноутбук -> работаем быстро, но ещё быстрее уходим за TDP и сливаем частоту, после чего сливаем по производительности i7. Ну или ноутбук на охлаждающую подставку.
Топовых нвидий вы там не увидете даже если если эппл наладит с нвидией отношения. Ноуты с топовоми нвидиями как правило имеют 230 ватт питания, а эппл ограничивает себя 100 ваттами из USB-PD. Форм-фактор такой, что поделать.
UFO just landed and posted this here
Интел скоро выкатит свою новую графику и вот тогда, глядишь, снова появятся высокопроизводительные ноутбуки без дискреток. Вероятно следующее поколение интело-процессоров.
UFO just landed and posted this here
Аналогично, предпочёл бы, чтобы в моём P50 не было квадры, это дикая анальная боль в линуксе.

И ладно бы в ноутах не было, так даже внешнюю видеокарту от Nvidia не получится использовать, если хочешь, например, что-то на CUDA посчитать.

Так вроде же через Thunderbolt можно внешнюю подцепить, не?
С драйверами не очень.

Да, я как раз и хочу сказать, что внешняя не поможет.


Apple and Nvidia Are Over. На страничке для загрузки CUDA только Windows и Linux.


CUDA 10.2 ещё работает на macOS, впрочем. Но надолго ли её хватит?

Да, вот о том, что эппл игнорирует райзены попечалится действительно стоит. Маки и маки про на райзенах были бы производительнее и, вероятно дешевле. Но хоршие ноутбучные райзены вышли только в этом году (4ххх серия, те что были раньше — ну такое, топовую машину на них не сделаешь) и очевидно эппл уже несколько лет работает над переходом на арм, поэтому решили не заморачиваться уже.
За примерно 1600 долларов я могу купить себе очень годный thinkpad со свеженьким ryzen 4xxx о 8 ядрах и 16 потоках, да 32 гигах оперативной памяти

А не подскажете, где это вы можете себе купить такое? Я вот в официальном магазине в Украине ничего такого не вижу.

UFO just landed and posted this here
Возможно он и выглядит безумием, но уж не Apple в этом обвинять. У веселых конкурентов на энтерпрайз рынке (Lenovo, Dell, HP и иже с ними) за модели с аналогичными ТТХ (имеются в виду в том числе и массогабаритные ТТХ и собственно технические спецификации и материалы изготоления и условия обслуживания) заряжаются абсолютно аналогичные суммы денег. Можете сами посравнивать комплектации MBP 16 и каких-нибудь Dell XPS 17, Lenovo P1 или HP ZBook Studio. То, что у Apple нет предложений дешевле, а у этих ребят есть (с соответствующими упрощениями ТТХ) — это другой разговор. Apple просто старается не лезть в низкомаржинальный рынок бюджетных железяк.
Более того, за счет использования своего чипа Apple сможет (если захочет конечно) сильно продавить конкурентов по цене (ибо интеловские чипы стоят ощутимых денег — даже мобильные i7 могут выходить по 400-500$ и это ощутимая часть стоимости железки). А т.к. у конкурентов своего чипа нет, им придется экономить на чем-то другом, роняя качество продукта и автоматически проигрывая Apple в этих аспектах.
UFO just landed and posted this here
iPhone 11, так-то — чуть не самое дешевое флагманское устройство на рынке. И цену на 50$ скинули относительно предыдущего XR. Так что не все так просто.
Плюс надо же эпплу будет хотя бы в первые годы мотивировать как-то людей брать технику на арме, особенно когда в актуальной линейке еще будут модели на интеле. Я вполне себе могу представить что часть этой мотивации будет в цене.
Плюс надо же эпплу будет хотя бы в первые годы мотивировать как-то людей брать технику на арме

Особенно это важно с широким выбором устройств с MacOS на рынке от разных производителей. Прямо глаза разбегаться будут: на арме брать или на х86.
Они ведь не будут сразу всю линейку на арме выпускать. Начнут с какого-нибудь эйра и дальше как пойдет.
В пределах двух тысяч евро можно взять кучу достойных машин — включая и упомянутый выше XPS, и Lenovo Carbon, и Asus Zenbook. Остаточная стоимость у них безусловно будет ниже, но в качестве моральной компенсации их в эти же бабки можно просто в два раза чаще менять.

Да ну нет же. Если вы про евро говорите, то вот, пожалуйста, XPS 17 в германии — www.dell.com/de-de/shop/laptops/neu-xps-17-2-jahre-premium-support/spd/xps-17-9700-laptop/cnx79701
1950 евро стоит база с i5, 8гб памяти и FHD монитором. Если подтянете его до базовой прошки 16 (hidpi дисплей, i7 и 16гб), то получатся те же 2600 евро.
UFO just landed and posted this here
Многие любят Mac OS за то, что она дает очень отполированный UX и при этом же полноценный на уровне системы nix энвайронмент, откуда есть доступ ко всем (или почти ко всем) любимым тулзам из линукса.

На линуксе не будет первого, на windows — второго, хотя имхо в наш век контейнеров и дешевых (в смысле оверхеда) виртуальных машин гнаться за вторым особого смысле нет.
UFO just landed and posted this here
При средней зарплате в EU/USA, макбуки, айпэды и айфоны стоят просто как обычные качественные устройства.


Являясь далеко не качественными устройствами.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
просто у тхинкпадов, деллов и HP нет таких последователей.

внезапно, но есть. Один коллега (да и второй такой же) полностью забил квартиру тхинкпадами. Да и я долгое время на них сидел...

У меня в знакомых тоже несколько таких есть. Берут старые синкпады и апгрейдят. Матрицу там получше, тачпад. Проц вроде как тоже с памятью.
Вайнот?)
Я вот, имея P50, подумываю о X230T, просто потому, что концепция прикольная. Ну и семирядку можно воткнуть.
Забавно что те мои знакомые тоже анимешники и один из них как минимум какое то время в японии жил.
Видимо, аниме и Япония повышают вероятность покупки Thinkpad. Или Thinkpad повышает вероятность уехать в Японию :D
Но не в моём случае, я свой первый, L470, купил как раз когда собирался в Японию, так как до этого был десктоп.
А во-вторых, ценник за яблоко сравнительно высок только в небогатых странах, и только в сравнении с дешёвыми устройствами. При средней зарплате в EU/USA, макбуки, айпэды и айфоны стоят просто как обычные качественные устройства.

Ознакомьтесь по первой ссылке в гугле со «статистикой продаж ноутбуков в США» прежде чем пытаться убеждать в том чего нет. У меня ASUS ZenBook UX391U, купленный за 68000 и по характеристикам соответствующий MacBook Air 13" i5 за 120000. Я не вижу разницы в качестве этих продуктов. А в макоси не вижу преимуществ с вин10. Глянул на Амазоне, разница в цене 630$/1200$. Так что холивар вы всё-таки развели
Хороший ноут для разработчика, например последний XPS 15 стоит примерно столько же
Вот сделают более менее нормальный ARM для мобилок тогда и поговорим
Вот обгонят хотя бы Атом тогда и поговорим
Вот обгонят хотя бы интел i3 тогда и поговорим
———————— Сейчас мы тут —————————
Вот обгонят i5 тогда и поговорим
Вот сделают хотя бы макбук про на ARM тогда и поговорим
Вот сделают что б i9 обгонял тогда и поговорим
Вот когда они все маки на свои процессоры переведут, тогда и поговорим
Ну как будет работать какая нибудь IDEA на таком слабом железе без тормозов-тогда и можно рукоплескать будет
Ну как будет работать какая нибудь IDEA на таком слабом железе без тормозов-тогда и можно рукоплескать будет

Рукоплещите автору статьи habr.com/ru/post/510210

Так удалённые иксы тоже на 80486 спокойно работали, так что это немного не то :-)

А какая разница тем же Dell, ASUS, HP что поставлять? Был бы спрос, они хоть бы OpenPOWER поставляли. Дабы сильно не углубляться: ASUS вполне себе делает телефоны для азиатского рынка и России. Тоже ARM, и? Пока Intel пихал производителям деньги в одно место (почти буквально) — были смартфоны и на x86.
Их дело десятое.
Так им-то какая разница, если будут покупать виндовые компы на ARM процессорах (от Quallcom или Nvidia), ну они и будут собирать эти компы на ARM процессорах.
Ценник яблочных фантазий скорее всего снизится немного с переходом на собственный чип. Яблочная компания при этом будет зарабатывать ешё больше, собственно за этим они все и затеяли.
У эпла ценник не высокий.
В этом легко убедиться, если сравнить с любым компьютером похожей комплектации.
Вот только большинству не нужна такая конфигурация, если речь про прошки. А на эйры цена все таки завышена, как и на миники часто.
Откуда вы знаете про большинство? У эпла одни из самых популярных компьютеров, если чо. И с каким аналогом вы сравнивали Apple air?
В статье есть статистика. 7 или 9% у эпла, точно не помню, а листать вверх лень, и так уже в комментариях тут упоминал.
Или вы сравниваете по популярности среди разработчиков, дизайнеров и художников? Ну тут да, возможно доля и 40-50 наберется, не удивлюсь. Но мы то про весь мир в котором обычных пользователей гораздо больше.
А эйры сравнивал с примерно равными по начинке ноутами в примерно том же форм факторе.
7 или 9 процентов это дофига на самом деле. У Linux на этом же рынке меньше двух процентов. При том что им пользуется на постоянной основе огромное количество людей.

С какими конкретно ноутами сравнивали? Просто интересно.
А остальное винда на intel/amd)
Так с «примерно равными» или именно равными? Качество сборки тоже учитывали?
Мне вот интересно с чем вы сравнивали. Хочу вот тоже сравнить
Ну вот например два рандомных ноута, я даже не старался искать и с ходу нашел вот такой вариант. Не apple и мощнее, и с лучшим экраном, и дешевле в полтора раза. apple и acer.
Скорее всего вы найдете то что есть у apple но нет у другого ноута, но и наоборот тоже, как я и сказал apple за цену в полтора раза дороже тут уступает по некоторым характеристикам. Да и выбор других ноутов больше минимум на пару порядков. Можно подобрать без того что не нужно и с тем что нужно, а у apple ешь что дали.
Во-первых эти эйры не делают и сама эппл их не продает с 17-го года и нет ровно ни одной причины хотеть купить эти покрытые пылью складские запасы, давайте все-таки рассматривать современный Air.

Во-вторых мне цену не показывает на этот асер в этом магазине.

В-третьих не совсем корректно этот конкретно Acer сравнивать с Air, потому что это разные классы устройств (У Air фактически пассивно охлаждающийся процессор с минимальным TDP). Этот Acer надо сравнивать с базовой прошкой.

Ну так вот, согласно сайта производителя цена этого асера в этой комплектации — $999 (https://store.acer.com/en-us/laptops/ultra-thin/swift-5-pro-laptop-sf514-52tp-52lh — пруф)

Цена базовой прошки — 1300$ (https://www.apple.com/shop/buy-mac/macbook-pro/13-inch)

Да, она дороже, но.
У нее алюминиевый фрезерованный корпус (который вполне логично добавляет к цене)
У нее объективно лучший трекпад (стекло + haptic feedback вместо жидкого механического кликера, плюс монолитная конструкция без механически подвижных частей, за исключением датчика силы нажатия с минимальным люфтом)
У нее экран высокой плотности, а не full-hd. С очень большой долей вероятности с лучшей цветопередачей.
У нее тандерболт 3.
У нее мощнее графика (645 против 620)
У нее лучше динамики.

Если сравнивать этот Acer с Air (чего все-таки не стоит делать), то все еще грустнее для асера. Базовый эйр с такими же характеристиками стоит те же $999. И про экран, корпус, тачпад и тандерболт — это все к эйру тоже относится в полной мере.

При этом я ни в коем случае не утверждаю что Acer — плохой ноутбук. Нормальный. Скорее всего он с очень хорошим дисконтом в том магазине, который вы привели (скорее всего потому что никто не берет — msrp вы видели) и вероятно с этим дисконтом он стоит того. Однако он объективно дешеле техники Apple.
Вот уж действительно: слона то не заметили. Сравнивать пассивный кулер с активным — это за гранью добра и зла.
Еще раз, это просто рандомный ноут по тем характеристикам что мне важны выигрывающий. А мне все равно на тип охлаждения. Зато гарантии что проц сможет выдать больше.
Это и есть основной плюс не apple ноутов, можно максимизировать только нужные тебе параметры, забить на то что не нужно и заплатить при этом в полтора-два раза меньше.
Да, все так. Это релевантный довод. Но это не делает ноуты от эппл дороже. Они стоят примерно так же как ноуты других производителей в том же классе. Просто в других классах у других производителей есть выбор, а у аппл нет.
Ну может вам по характеристикам и программируемый калькулятор подойдёт, но какое это имеет значение в контексте сравнения компьютеров?
В эйре есть вентилятор на самом деле, но он в припадке инженерного экстаза никак не соединен с системой охлаждения процессора. Т.е. он двигает воздух внутри запечатанного корпуса конечно, но в эффективность этого метода охлаждения, с учетом того что эйр постоянно троттлит, верится с трудом.

Тут разбор с какими-то цифрами
Ну и да, я также никого не призываю покупать макбуки, по факту мне они довольно сильно не нравятся и я совсем сбежал с MacOS. Там довольно много субъективных проблем.

Но высокую цену я им вменить в вину не могу. Ну точнее да, они конечно дорогие, но они не в вакууме. Другие производители вокруг тоже делают железки и эти железки при том же наборе характеристик (помимо ТТХ в этот набор входит корпус из «премиальных» материалов, тандерболт, hi-dpi дисплей с хорошей цветопередачей, быстрые nvme ссд, а не древние sata ssd, качественные динамики и т.д. и т.п.)
Вам может быть все это неинтесно и это абсолютно нормально. Но если вам все это нужно то у вас нет выбора между маком задорого и не-маком задешево, есть выбор между моделями разных производителей в +- одну и ту же цену).
Ну вы таки опять прошку а не эйр берете. В эйре все грустно.
В новом эйре все это есть. Старый вышел в тираж три года назад.
UFO just landed and posted this here
Нормально бы относился, это объективный показатель, за это даже имеет смысл заряжать дополнительные деньги. И мне бы оно было не надо, но я бы понимал почему оно дороже стоит.

Еще раз — если кому-то это все не нужно, прекрасно, можно сэкономить и купить машинку попроще, я вообще на хромбуки пересел и доволен как слон, сильно больше макоси нравится.
И может быть алюминиевый корпус не лучше пластикового (хотя по жесткости все-таки объективно лучше), но он дороже. Как и все остальное перечисленное.
И поинт мой всю дорогу как бы в том что машинки с аналогичным набором характеристик от других производителей стоят ровно столько же. Что либо делает макбук не оверпрайснутым, либо делает оверпрайснутым не только макбук (но на самом деле не делает, они объективно столько стоят).
Кстати о высокой плотности. Как мне настроить 100% масштабирование у макбука?

Поставить https://github.com/avibrazil/RDM или любой аналог.

UFO just landed and posted this here
Я не вижу нормальных характеристик ни того ни другого компьютера, в прочем это не важно, ибо вы прислали обе устаревшие модели. Надо смотреть модель ssd и качество сборки (в апловской сборке я почти уверен), размер батареи, качество приёма Wifi, динамики.
Качество сборки сейчас одинаково дерьмовое у всего бизнес сегмента. Про сегмент «два ядра, два ведра, игравая видимокарта» за 20т.р. я просто промолчу, там оно уже давно отсутствует.

Вопрос в том, нужна ли эта комплектация. Недавно я собрал ПК на Ryzen 3600 и RX5700XT где-то за 90 тыщ. руб. Мой товарищ меня убеждал, что все это ерунда, и что надо брать моноблок iMac тысяч за 150, с каким-то i5 одного из предыдущих поколений и ГПУ на уровне RX580. На мое замечание о неадекватном соотношении цены и комплектующих, он возразил, что у iMac 5K экран, который сам по себе будет стоить где-то от 100 тысяч руб. Но если мне не нужен 5К экран в довесок к посредственному железу, то я предпочту собрать кастомную конфигурацию, которая удовлтетворяет моим потребностям.

Разрабатывать свои CPU, например.
Amazon на своих серверах уже второе поколение внедряет.
Или появится новый игрок (скорее альянс крупных игроков), который будет поставлять решения в розницу.
Цена рабочего ноута на x86 вполне соизмерима со стоимостью яблока. И там и там ценник выше 120 000 чешских крон. Да можно дешевле, но я смотрел ноут для себя и для жены. Я знаю, что я хочу и что хочет она :)
Когда через несколько месяцев выйдут первые Apple Silicon Mac, мы будем знать больше


Действительно.

А сейчас как-то рано делать какие-то выводы или прогнозы.
Клоун, который настучал на Джобса, а потом сам слил Apple в помойку и получил под зад…
Не создавший ничего, что как-то серьезно повлияло на рынок.
Сильнейший специалист. Его мнение, несомненно, очень важно для нас.
UFO just landed and posted this here
Если создатель Newton и BeOS

Каким образом бездарный барыга вдруг стал «создателем BeOS и Newton»? Гассе — типичный «эффективный менеджер».
Каких успехов при нем добилась Apple? Правильно, никаких. При нем она скатилась в УГ. Жадный барыга хотел иметь большую наценку, в результате чего Apple стала закономерно терять долю рынка. В результате сам Гассе получил пинка под зад.
Потом он организовал Be Inc., в которую пришли в т.ч. сотрудники Apple, которые и создали BeOS. И опять жадность барыги сыграла свою роль и похоронила систему, когда он не согласился на предложение Apple. Вместо этого Apple купила NeXT и вернула Джобса, с которым достигла фантастического рыночного успеха. А где сейчас BeOS и Be Inc.?
Оба случая демонстрируют профнепригодность.
Что там у нас еще? Ах да, гендиректор Palm (на самом деле нет — председатель совета директоров, и не Palm, а PalmSource). И закономерное отсутствие успехов на новом месте.
Так что с историей IT (и здравым смыслом) у меня все ОК.
То, что какой-то клоун занимает важный пост, не делает его менее клоуном.
Такой же бездарный и безграмотный клоун Рогозин был аж вице-премьером, а потом на должности главы «Роскосмоса» хохмил про космический батут. Но американский батут таки работает, а «Роскосмос» под руководством клоуна и «эффективного менеджера» только обещает.
UFO just landed and posted this here
А вы упорный.

Совершенно верно. Очень.
Ну что же, пройдёмся по фактам:

Это правильно. И желательно по фактам, а не по «фактам».
Гассе был исполнительным директором Apple Computer с 1981 по 1990

И начать можно с того факта, что Гассе был исполнительным директором отнюдь не с 1981 года.
Я верно понял, что Apple в период с 81-го по 90-й годы в вашем понимании «унылое говно»?

Нет, неверно. Apple скатывался в УГ, терял долю рынка и стоимость акций, за что Гассе потом и выкинули на мороз. Или по-вашему Скалли сделал это из зависти к успехам Гассе?
Простите, а вы всерьёз считаете, что глава компании — всего лишь жадный барыга, который наживается на труде рабочих?

Нет, я считаю, что именно Гассе — жадный барыга. Только наживаться он хотел не на мифических «бедных рабочих», а на покупателях продукции, неважно Apple или BeOS.
Ну попробуйте увести талантливых программистов из Apple/Google и создайте свою OS и свой комп под неё

Наверное не следует сравнивать рядового человека со стороны и многолетнего руководителя? Джобс тоже при своем уходе увел кучу народу и создал свою ОС. Это вообще совершенно обычная ситуация. Гассе тут не стал каким-то исключением из правил.
В реальности имело место гениальное умение Джобса продавать несуществующий продукт. Он сделал настолько крутую презентацию NextStep и её перспектив, что совет директоров купил его компанию

И как, они прогадали? Или все же оказались правы?
Но нет, решила крутая презентация.
И неадекватные ценовые запросы Гассе. Мало ему было быть столбовой дворянкой, а в таких случаях обычно остаются с разбитым корытом. Гениальный управленец, чо.
а вовсе не шантаж вендоров со стороны Microsoft в виде прямого запрета ставить BeOS на новые компы под угрозой потерять лицензию на Windows

Microsoft угрожала Яблоку не продавать ему лицензии на Windows? Ишь какая страшная угроза!
Не будь Гассе таким жадным, BeOS продолжала бы жизнь на Маках, и угрозы Microsoft ничего тут не смогли бы изменить.
А ничего, что

Ничего. Джобс создал саму Apple для начала. И NeXT он-таки сумел вытянуть, пусть даже продав Яблоку. Да, сумел продать, сумел доказать перспективы. Много-много раз сумел. В отличие от Гассе и Be inc., который регулярно «ну нишмагла я, нишмагла». Крупнейшее достижение — настучал на Джобса, если бы не оно, то никто и имени его сейчас не знал бы.
Не вижу больших отличий между бизнесами «Next-NextStep-Джобс» и «BeBox-BeOS-Гассе».

Ни малейших, конечно. NeXT шикарно живет в виде MacOS. А BeOS осталась только в анналах, не имея существенного коммерческого успеха, о чем я и написал в первом же комментарии, на что меня обвинили в незнании IT-истории. Очень смешно.
Там же, где и Norton, Borland, Netscape и OS/2

Все вышеперечисленное было успешными и популярными фирмами/продуктами. Be не снилась даже тысячная доля от их распространенности.
До такой степени, что влюблённые фанаты уже 18 лет пилят Haiku.

Пусть пилят. К рыночному успеху это не имеет ни малейшего отношения.
Другие фанаты создали Linux, и он используется на миллиардах компьютеров. И это успех.
Кончайте уже позориться и называть талантливых людей барыгами и клоунами.

Талантливым был Джобс, талантливыми были создатели BeOS. А Гассе был, есть и будет только клоуном, стукачом, подсидевшим Джобса и занявшим после этого его место, и бездарным барыгой, профукавшим по своей жадности и недальновидности отличный продукт. Единственный его талант — делать вид, что он гениальный управленец. Но результаты говорят сами за себя: он слил всё, за что брался.
Так что клоунов и барыг я буду называть именно клоунами и барыгами.
Фигассе NeXT несуществующий продукт! На этом «несуществующем продукте», аж целый DOOM писали. И этот «несуществующий продукт» я впервые на Invecom-е в 1993-м увидел. А крайний раз на выездой сессии музея Яндекса на Chaos Constructions, в прошлом году.

Ну, он "несуществующий" в ровно в том же смысле, в каком можно назвать Йотафон несуществующим. Вы уж тоже не передёргивайте. Выставки и разработку игры нельзя назвать критериями практически интересного существования, всё-таки.


P.S.: один мой знакомый электронщик играл в Дум на осциллографе :-)

Почитайте про BeOS (в свое время она была весьма революционна) и в свое время ее Apple хотели ее приобрести чтобы заменить MacOS Classic (однако это уже совсем другая история)
UFO just landed and posted this here
>> Про Винду на ARM — даже не смешно, кто видел как это работает — тот знает почему.
Работает вполне себе неплохо. Уж получше х86 в таком формфакторе.
Galaxy Book S недавно выпустили с Lakefield. Результат — полный провал.
videocardz.com/newz/intel-core-i5-l16g7-lakefield-processor-tested
Плохое время жизни от батареи, троттлинг и на CPU и на GPU.
Он даже в однопотоке до паспортных частот не достаёт:
This is mainly due to limited maximum clock speed oscillating around 2.4 GHz. The editor says that he couldn’t observe advertised 3.0 GHz boost clock during his tests.

GPU LKF по производительности примерно аналогичен Snapdragon, когда не троттлится :)
Gaming is not great on the Galaxy Book S. The graphics performance drops after a little while (Fire Strike stress test not passed at 82%) and even simple titles hardly reach playable frame rates, which is also a result of the low CPU performance.

Intel скинет немного рынка

Немного? :) У Macos около 10% рынка, которые до недавнего времени использовали только интелы. Т.е. интел одномоментно лишится 10% рынка. Это прям очень много, особенно на фоне того, что им сейчас нечего предложить против амд.

Рынка чего?
Просто напомню что есть еще рынок серверов и высокопроизводительных рабочих станций, где у Apple доля ощутимо меньше.
UFO just landed and posted this here
Есть только одна небольшая проблема, Arm сейчас на рынки серверов тоже лезет. Достаточно посмортреть на последние новинки (процессоры с 384 потоками и 96 ядрами)… Arm медленно но верно вытесняет x86 (Intel или Amd) на всех фронтах. А еще вспомните недавние патчи к процессорам закрывающие узявимости но замедляющие их чуть не в половину и все встанет на свои места.
Почему проблема? И причем тут Apple?
Это проблема для Intel и вот почему. Если от вас уходит крупный игрок рынка (один из фаворитов) это наводит на мысль и остальных. Если я не прав минуси меня полностью.
Увы. Революция свершилась.
Как бы Apple об этом уже сказала.
Примеры из истории —
Планшеты были до iPad, но iPad сделал революцию.
Умные телефоны были и до iPhone.

Думаю, что в Apple решили, что время ARM на десктопе пришло.
Опыт на iPad Pro показал, что «да все готово».

На серверах ARM придет, когда Apple начнет продавать свое облако на ARM.
В амазоне бери не хочу серваки на арме, вот сюрприз… :-) причем если хочется 64 ядра — то это емнип единственный вариант вообще…
Два года назад за начало ветки с таким предсказанием коммент жутко заминусили )
Я думаю, даже когда это случится, многие будут еще некоторое время проходить стадии принятия.
Даже сейчас многим людям тяжело признать, что ноутбуке\серверах, амд лучше по всем параметрам. Я так и не понял до сих пор, почему даже имея на руках факты, люди не могут это принять сразу.

А тут, когда ты можешь уже взять свой телефон, скомпилировать любой бинарь и запустить прямо на устройстве, люди продолжают делать какие-то ложные предположения, устраивать срачи.
Как будто х86 им мать родная. Это на столько глупо придерживаться какого-то лагеря. Вы же в первую очередь сами выигрываете от такого положения дел.
Здесь ситуация принципиально отличается от intel/amd, и дело никак не в приверженности лагерю. Процессоры intel и amd запускают абсолютно одинаковый софт, это одна и та же архитектура — поэтому да, логично покупать продукты той из этих двух компаний, которые сейчас лучше по характеристикам. С arm всё не так — софт, который поддерживает эту архитектуру, нужно как минимум перекомпилировать, а что-то более редкоиспользуемое и/или старое вообще не заведётся никак.
С arm всё не так — софт, который поддерживает эту архитектуру, нужно как минимум перекомпилировать, а что-то более редкоиспользуемое и/или старое вообще не заведётся никак.

Это очень интересный вопрос, потому что arm на amd64 (на маке) запускается в докере на ура.


/ес-но через эмуляцию/


Остается только, чтобы на арм платформе хоть как-то работала эмуляция amd64 и дело в шляпе

Если это работает/будет работать полноценно, то действительно проблемы нет. Я сам не сталкивался — ни разу arm-приложения на x86 запускать не нужно было.
С учетом того, что большинство серверных приложений запускается под тем или иным видом VM.
А под Windows большинство приложений пишется под .NET.
То, переход под arm, это просто проблема времени и денег.
С учетом того, что большинство серверных приложений запускается под тем или иным видом VM.
Кто гоняет сервера на Bochs?

Да ситуация точно такая же. Просто другой уровень. Какая разница мне как потребителю, х86 или аарч64? Конечно никакой, мне важен перформанс и потребление.


И в отличие от грязного мира х86, где все так огорожено патентами и не подъемной лицензией, армы это как свежий глоток воздуха для конкуренции.
Даже если сейчас будет чуточку сложнее, завтра выиграете от этого вы лично. Пусть какой-то редкий софт сейчас не запускается, но это не повод быть под гнетом монополии.


Это как не менять президента какой-то гипотетической страны, ибо первое время будет хуже. И что теперь, всю жизнь страдать со старым маразматиком?

Пусть какой-то редкий софт сейчас не запускается,

Это, безусловно, повод радоваться что не сможешь сделать свою работу нормально или результатами мало кто сможет воспользоваться?

но это не повод быть под гнетом монополии.

Да да… будет зоопарк как мобильных приложения. Каждый себе напихает «новый-пупер-модуль-который-делает-ЗБСЪ!» и под него заточат прикрутят пару-тройку приложений. Потом или будут писать приложения под «минимальный набор как у всех» и будут удивляться «А что за хрень ?!» или будут «ноубук для экселя» и «ноутбук для фотошопа» и «ноутбук для поиграться». Проходили уже такие вещи (математические сопроцессоры, GPU, крипто и векторые вычисления и т.д.) — добром это не кончилось, ибо получились «CPU, который может все, но хреновенько и жрет как не в себя» поскольку все хотят «все и сразу» не сильно напрягаясь и бесплатно.
Это как не менять президента какой-то гипотетической страны, ибо первое время будет хуже. И что теперь, всю жизнь страдать со старым маразматиком?

Можно страдать с новым «с расстройствами личности» :) Скучно, как со «старым», точно не будет :))) Так себе альтернатива.

Не получится обмануть физику и экономику.
— или быстро и дешево но нифига не универсально (спец модули\ускорители)
— или универсально дешево, но нифига не быстро — (cpu без наворотов)
— или быстро и универсально но нифига не дешево — (cpu c наворотами, модульные решение (CPU + GPU + ...), облака, суперкомпьютеры и т.д.)
И вот вы уже начинаете передергивать.
Во-первых, в режиме эмуляции все работает и работает неплохо.
Или софт никому не нужен, ибо то, что нужно и не заброшено — будет перекомпилировано.

Можно страдать с новым «с расстройствами личности» :) Скучно, как со «старым», точно не будет :))) Так себе альтернатива.

Это уже все давно предусмотрено специальными процедурами. Сменяемость власти, импичмент и прочая «муть», которую можно конечно игнорировать силовыми путями.

Не получится обмануть физику и экономику.

Это глупость, ибо ограничения не физические\технические\интелектуальные.
То, что интел кормил мир своим 14нм — не технические трудности.
Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо. Это как шахматная партия. Они сдали атомы, потому что с армами на одинаковых техпроцессах они не шли ни в какое сравнение.
Но решили подоить мир на серверах и десктопах.
И у них это успешно получалось, но всему приходит конец.

На серверах уже неплохо себя показал Reference Implementation на армах, уже молчу про амд, он там сейчас правит.
Телефоны уже давно проиграны. Ноутбуки на райзенах сейчас не идут ни в какое сравнение даже с 10нм интела.
Остался десктоп, где нет ограничений по тепловыделению и потреблению.

И раз вы затронули физику. То идите дальше и смотрите на фундаментальные физические ограничения. Конкретно, но просто.
Например закон сохранения энергии и прочее.
Или софт никому не нужен, ибо то, что нужно и не заброшено — будет перекомпилировано.

Вот-вот, это основная причина, почему я с опасением смотрю на такое резкое продвижение arm во все компьютеры. Не запустится старый софт, часть которого имеет закрытые исходники, а часть не компилируется новыми версиями компилятора? Ну и пусть, зато прогресс.

При этом рядом вы пишете про эмуляцию — казалось бы, если x86 эмулируется, то какая разница заброшен софт или нет? Берёшь и запускаешь.
Мне действительно интересен этот вопрос и я не знаю, как сейчас дела обстоят касательно «полноценности» эмуляции.
Часть софта, где ручками писался асм, не будет автоматом перекомпилирован, например. Такие будут работать в режиме эмуляции. Но, утверждение остается верным.
Таких будет единицы. И если софт реально уже не поддерживается, то должен умереть. На его место придут новые. Эмуляция медленнее, но не поддерживаемый софт быстро работать не должен.

Это звучит радикально, но дело в том, что нет никакого другого пути.

И это продвижение не такое уж резкое. Просто обычные пользователи не обращали на это внимание. Многие до сих пор отрицают это явление, но тут уже клиника.
На рынке миллиарды арм устройств, для которых сейчас пишется софт. Десктоп тут уже не в топе давно.
Линукс со всем репозиторием уже давно на арме работает.
Еще в 2010м году запускал убунту на телефоне с арм и качал торренты через transmission.
Вы скажите лучше, в вашем дивном новом мире, следуя тем самым единственным путем: хотя бы помечтать об открытом загрузчике можно будет?

Загрузчики закрыты, покуда никому на десктопе до них дела не было. А сейчас в новых серверных арм как дела с загрузчиком?

Погуглил. Серверные вроде открыты: по крайней мере у хуавеев каких-то.
Ладно, история нас рассудит.

Не получится обмануть физику и экономику.

Это глупость, ибо ограничения не физические\технические\интелектуальные.
То, что интел кормил мир своим 14нм — не технические трудности.

Это как раз экономические :) Не смогли они осилить следующий техпроцесс для своих процессоров, в то время как Samsung, TSMC, GlobalFoundries вполне смогли.
Полагаю Интел вполне знакомы с тем, что уменьшение размера чипа уменьшает себестоимость? Эти уж точно были бы рады такому пути.
Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо.

А что серверное было предложеннии? неудачный бульдозер для отдельного класса задач которые оказались широко распространенными?
Это как шахматная партия. Они сдали атомы, потому что с армами на одинаковых техпроцессах они не шли ни в какое сравнение.

Когда делались и проектировались Atom вопросы «дешево и достаточно производительности» только появились, а Arm только только начали делать первые шаги на мобильных устройвах и планшетах (не серьезно считать «пошаговые стратегии» при открытии книжек или ICQ на КПК при разрешении 320х240). Не нужно сравнивать 10...5 лет назад и сейчас. Если так уж хочется — надо бы сравнивать Intel XScale с чем-то того-же временного отрезка. У AMD процессоры «AMD Opteron A» серии.
И раз вы затронули физику. То идите дальше и смотрите на фундаментальные физические ограничения. Конкретно, но просто.
Например закон сохранения энергии и прочее.

Спасибо, конечно, за подсказанное направление. Но в общем-то то известные проблемы — разрешение литографического оборудования (физика ?) и его цена (экономика?), цена производства кристалла и брак (экономика?), токи утечки (физика ?), нелинейное возрастание преобразование потребляемой электроэнергии в тепло при возрастании частоты (физика ?), теплоотвод от малой площади кристала (физика ?) ну и всякие побочные спецэффекты вроде подвижности зарядов и длинных линий при высоких частотах (физика?).
Пока никому не удалось этот клубок «распутать». Arm «решает» эти проблемы всякими big.LITTLE\DynamIQ что там насчет последних «ARM Cortex-X1» и «ARM Ethos-N..»? Наверное «Cortex-X Custom (CXC) program» ARM придумала от нечего делать?
Это как раз экономические :) Не смогли они осилить следующий техпроцесс для своих процессоров, в то время как Samsung, TSMC, GlobalFoundries вполне смогли.


У вас свой какой-то мир. Откройте вики хотя бы для начала.
Они не то что не могли. Они не захотели. Они еще в 2011 году заплатили ASML за разработку в уход в глубокий ультрафиолет.
И эта технология давно уже была готова.
У вас свой какой-то мир. Откройте вики хотя бы для начала.

А зачем вики, если можно первоисточники глянуть и сравнить?
Intel готовится к релизу первых настольных процессоров с 7-нанометровой топологией. Их выпуск может состояться в 2022 г., и в них ожидается поддержка памяти DDR5 и интерфейса PCI-Express 4.0.

Intel CFO: “10nm isn’t going to be the best node that Intel has ever had”
2019 Investor Meeting: Intel Previews Design Innovation; 10nm CPU Ships in June; 7nm Product in 2021

и новости агуста-сентября 2018 г.
Компания AMD представила серверные 64-ядерные процессоры Epyc Rome на базе новой архитектуры Zen 2 с нормами технологического процесса 7 нм, и с новой многокристальной компоновкой Chiplet Design.
Уже в 2019 г. AMD намерена перевести все свои процессорные линейки на архитектуру Zen 2 с нормами 7 нм. Сейчас, по данным компании, уже начаты поставки первых образцов процессоров Epyc поколения Rome на базе этой архитектуры ключевым заказчикам.
All Of AMD's 7nm Processors To Be Manufactured At TSMC

Может у интел и AMD тоже свой мир? :)

О чем вы вообще говорите. Основное оборудование для литографии всем поставляет одна компания. Не может такого быть, что самсы сделали, а интел не смогли.

Насколько я помню, у AMD\Samsung\TSMC и Intel используются разные изоляторы в полупроводниках. Из-за этого Intel и наступила на «физические грабли» с токами утечки и тепловыделения и технологически уперлась в тупик. Техпроцесс включает не только литографию, но из состав полупроводников из-за присадок разные и это влияет на дизайн чипов.
Я не понял что вы хотите сказать вашими ссылками.
В смысле какую точку зрения они якобы отстаивают?

используют разные изоляторы в полупроводниках. Из-за этого Intel и наступила на «физические грабли» с токами утечки и тепловыделения и технологически уперлась в тупик.


И 6 лет они никак не хотели пробовать новые материалы.
Зачем вообще вы приводите эти бредовые догадки. К чему они? Вы не можете знать на таком уровне что там происходит.

Можно только оперировать теми фактами что есть. Куда вас вообще всех несет. Изоляторы у них не той системы…
Зачем вообще вы приводите эти бредовые догадки. К чему они? Вы не можете знать на таком уровне что там происходит.

Это физика, и ее практическое ответвление — электротехника. Говорят, если ее учить в школе, а после, в специальных учебных заведениях — догадки не очень нужны. А еще говорят, что знание немногих принципов освобождает от знания многих фактов.
Можно только оперировать теми фактами что есть. Куда вас вообще всех несет. Изоляторы у них не той системы…

Может обратимся к первоисточникам, истории, чуть к перспективам и «магии» станет чуть меньше?
Есть логический дизайн чипа, есть физический дизайн чипа, есть материалы из которых изготавливают, отработанный техпроцесс травления, промывки, нарезки, упаковки, рисования масок и т.д.
Но вашему «просто попробовать» это 5 минут работы? Это нужно заново сделать физической дизайн кристалла, оттестировать и запустить в процесс производства. На это уходят годы!
Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо.

Это мягко говоря неправда.
«Intel continues its Tick-Tock domination, with 10nm CPUs arriving in 2016, and 7nm CPUs in 2018»
Они столкнулись именно с техническими трудностями, которые полностью не могут решить до сих пор.

Остался десктоп, где нет ограничений по тепловыделению и потреблению.

Они там точно такие же, разве что несколько более расслабленные.
Все десктопные процессоры ограничены по тепловыделению. Иначе бы они работали на максимальной частоте на всех ядрах без ограничений.
Это мягко говоря неправда.

14нм запустили в 2014м году. И ваша статья 1-е декабря 2014 года. Технические трудности были и будут всегда.
Понятно, что тогда у них могли быть какие-то трудности, но к этому моменту они все уже решились бы давно, если бы хотели.

О чем вы вообще говорите. Основное оборудование для литографии всем поставляет одна компания. Не может такого быть, что самсы сделали, а интел не смогли. Интел даже сейчас технически самый продвинутый из них. Вы другие статьи более технические почитайте на тему, раз решили влезть в историю.

Все десктопные процессоры ограничены по тепловыделению.

Ну блин, это очевидно, что ограничения в принципе есть. Тут не детский сад, чтобы такое разжевывать. Вопрос в количестве. Все в нашем мире ограниченно так или иначе
И ваша статья 1-е декабря 2014 года.

И? Посмотрите Интеловский слайд с планом выхода техпроцессов.
В 2014-м году 10нм уже находился в разработке. Тик-ток всё так же работал без сбоев. Ничего не предвещало беды.
У контор типа Интел всё расписано на годы вперёд. Ваше заявление "Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо." это просто чушь.

Основное оборудование для литографии всем поставляет одна компания.

Инструменты одинаковые, а техпроцессы очень разные, с разными параметрами, разными материалами.
Дайте разным людям одинаковые инструменты, но дома они построят разные.

Интел даже сейчас технически самый продвинутый из них.

Самый продвинутый, который смог выпустить только двух-ядерник на 10нм со смешными частотами и низком Yield-е, отстав на два года от собственного плана? А спустя 2 года на новом 10нм техпроцессе родил 4-ядерник со всё ещё низкими частотами?

Вы другие статьи более технические почитайте на тему, раз решили влезть в историю.

Воспользуйтесь своим советом.

Ну блин, это очевидно, что ограничения в принципе есть

Они «не в принципе есть», а для многоядерных процессоров только они и есть.
И? Посмотрите Интеловский слайд с планом выхода техпроцессов.
В 2014-м году 10нм уже находился в разработке. Тик-ток всё так же работал без сбоев. Ничего не предвещало беды.

Господи. Вы думаете, что интел 6 лет не могла запустить новый техпроцесс? А самсунг и ТСМЦ пришли и сразу смогли, ага, конечно. Учитывая, что оборудование они все покупают в одном месте.

Инструменты одинаковые, а техпроцессы очень разные, с разными параметрами, разными материалами.
Дайте разным людям одинаковые инструменты, но дома они построят разные.


Ну это комментировать вообще бесполезно. Это не хлебопечка, вы не можете играться там с материалами разными.
Короче у вас нет пруфов, простите, но я больше не буду вести с вами диалог. Вы пишите глупости, основанные на каком-то собственном бреду.

Вы думаете, что интел 6 лет не могла запустить новый техпроцесс?

Да, именно так. Об этом не писал только ленивый.

Это не хлебопечка, вы не можете играться там с материалами разными.

www.intel.com/pressroom/kits/advancedtech/doodle/ref_HiK-MG/high-k.htm
fuse.wikichip.org/news/525/iedm-2017-isscc-2018-intels-10nm-switching-to-cobalt-interconnects
www.quora.com/Why-is-Intel-pursuing-Cobalt-but-TSMC-and-Samsung-are-not-and-how-much-of-an-advantage-is-Cobalt-over-Copper-interconnects

Короче у вас нет пруфов, простите, но я больше не буду вести с вами диалог. Вы пишите глупости, основанные на каком-то собственном бреду.

Откуда вы знаете что у меня их нет?
А у вас какие пруфы? «Я так сказал и точка?»
Ну да, с таким весомым пруфом даже личное признание какого-нибудь топ-менеджера TMG под присягой не будет значения :D

Несбывшиеся планы Интел, ровно как неудавшиеся попытки выкатить 10нм — мы видели воочию в последние несколько лет.
Вы живёте в альтернативной реальности, походу.
www.notebookcheck.net/Intel-admits-that-the-10nm-process-is-doing-poorly.456063.0.html

Нельзя остановить конвейер просто потому, что вам так захотелось.

Не поленился и посмотрел ссылки. Нигде не сказано, что кобальт там или что-то ещё привело к проблемам.
Но предполагать, что техспецы в интеле дураки и они не попробовали, что лучше… ну ок.


Я просил пруфы, что Интел по техническим причинам, реально не смогла в 10нм. Но я сомневаюсь что вы такое найдете )
Ну потому, что такое ну совсем глупо предполагать.


У меня пруфов нет, но я основываюсь на фактах хотя бы. 14нм интела в виде готового продукта очень хорошо себя чувствует. Да даже если бы у них были какие-то проблемы, они бы это уже решили давно, если бы хотели.
Другое дело, что новый техпроцесс стоит много денег и это уже реальное препятствие. Это просто здравый смысл.


Все "пруфы" с 10нм что вы сейчас найдете будет 2019+, когда они очнулись и в торопях начали этот 10нм делать. Но это никак не означает, что раньше у них были с этим проблемы.

Все «пруфы» с 10нм что вы сейчас найдете будет 2019+, когда они очнулись и в торопях начали этот 10нм делать. Но это никак не означает, что раньше у них были с этим проблемы.

А если посмотреть внимательно?
Intel: We Will Not Skip 10nm For 7nm, Ice Lake On Track For End Of 2020 Launch
Here is what Intel had to say, however:
So again it's a scenario where there is a lot of goodness in 10-nanometer that carries forward to 7-nanometer. And quite frankly, we're at a point in 10-nanometer where we have come through [ph] the order of (00:31:19) disentangling the core fundamental technology issues. And we're now in a point where we're ramping in high volume production


Начальные планы:
image
Результат:
Выступая на конференции UBS, Венката «Мурти» Рендучинтала (Venkata Murthy Renduchintala) вернулся к обсуждению причин, вызвавших задержку с переходом Intel на 10-нм техпроцесс. Желание сохранить действие так называемого «закона Мура» в своё время заставило Intel выбрать достаточно агрессивную цель по масштабированию плотности транзисторов – она должна была увеличиться сразу в 2,7 раза. Само по себе такое масштабирование не было единственным источником проблем. Как признался Венката, компания на ранних этапах разработки 10-нм технологии предусмотрела несколько нововведений в сфере литографии, которые должны были обеспечить нужный уровень масштабирования плотности. Казалось, что по отдельности они работали без проблем, но в сочетании всё оказалось не так, как предсказывали специалисты Intel.

Итог этих просчётов хорошо известен – 10-нм техпроцесс пришлось задержать на два года относительно первоначального срока. В этом контексте нужно помнить, что первые 10-нм процессоры в лице Cannon Lake формально вышли на рынок в 2018 году,


Во время финансового отчета Intel глава компании Брайан Кржанич сообщил, что производство чипов на 10 нм технологическом процессе задерживается. Теперь запуск 10 нм-продуктов состоится не во второй половине 2018 года, а в 2019 году. При этом он не может сказать, в первой половине или второй.

Это еще один неприятный поворот в истории перехода Intel на 10 нм, что и так не соответствует оригинальным планам. По словам Брайана инженеры выявили проблемы с эффективностью 10 нм техпроцесса, однако масштабирование производства может занять более года.

Мы продолжаем развивать наш 10 нм техпроцесс. Мы уже осуществляем небольшие поставки, а эффективность производства растет, однако скорость оказалась ниже, чем планировалось. В результате этого масштабный выпуск передвинут со второй половины 2018 года на 2019 год.


Сами представители Intel говорили «Упсъ! Ну не смогла я, не могла...» Смысл додумывать что-то за производителя?
Во время финансового отчета Intel глава компании Брайан Кржанич сообщил


Слишком обтекаемо. Но он в любом случае не сказал бы наверное, что мы так решили, ибо решили всех на*бать? ))

Какой у него был выбор?
Но я сомневаюсь что вы такое найдете )
Ну потому, что такое ну совсем глупо предполагать.

Зачем что-то предполагать, если они сами об этом говорили чуть ли не прямым текстом.

У меня пруфов нет, но я основываюсь на фактах хотя бы.

Просто потрясающе. О каких тогда (альтернативных) фактах идёт речь?
Напомнить что было, когда Интел вместо ожидаемого Cannon Lake на 10нм выкатили Kaby Lake на 14нм в 2016?
www.fool.com/investing/general/2016/01/18/what-is-the-name-of-intels-third-10-nanometer-chip.aspx

Management has told investors that they are pushing to try to get back to a two-year cadence post-10-nanometer (presumably they mean a two-year transition from 10-nanometer to 7-nanometer)


14нм интела в виде готового продукта очень хорошо себя чувствует.

Ага ^_^ Ядро TGL, которое они делали под 10нм для выпуска в 2018г пришлось портировать под 14 нм для того чтобы хоть что-то вы пустить на десктоп в 2020г.
Это факты.

Напоминаю, конвейер не остановить. Разработка процессора в Интел занимает 5 лет. Если вы даже на 1 год затянете выпуск, эти люди должны что-то делать. А получилось, что делают они то, что не могло быть выпущено.

Все «пруфы» с 10нм что вы сейчас найдете будет 2019+, когда они очнулись и в торопях начали этот 10нм делать.

Признайтесь, вас держали в пещере и только недавно выпустили?
Вы пропустили 10нм процессор Интел в 2018г? i3-8121U
Ну так вы путаете экономическую целесообразность и техническую возможность. У вас не будет конкретных проверяемых фактов, что это была техническая проблема. Они просто ни в чем другом признаться не могут. Только обтекаемые «у нас были технические трудности»

Надо полагать, что полностью остановить все они не могут, ибо потом не запустят.
Но и торопиться им не к чему.
Ну и это слишком маловероятно, что 2 компании уже 5нм запустили, а там на секунду EUV.

Отговорки на дурака
Ну так вы путаете экономическую целесообразность и техническую возможность.

Т.е. компания Интел всегда хвалилась своим тик-током и нон-стоп лидерством, а потом вдруг расхотела ^_^
company’s plans to start commercial shipments of its “Cannonlake” processors for mobile devices in mid-2016

www.kitguru.net/components/cpu/anton-shilov/intel-we-will-reveal-schedule-for-10nm-chips-later-this-year

Я конечно понимаю, что с вашей стороны идёт толстый троллинг, а я и Lofer вас кормим, но гулять — так гулять, и я не смог удержаться и описал что происходило в вашей альтернативной реальности:

Пустив crackpipe по кругу, Совет Директоров решил:
«Воу, двухлетний цикл это слишком быстро, давайте сделаем 6-летний!
Неплохо бы сломать весь конвейер разработки — пусть одни люди сидят без работы, а другие делают что-нибудь ненужное, а мы потеряем бабло и дадим конкурентам преимущество.
Но инвесторам — то тупым идиотам, пообещаем вернуться к двух-летнему.
Вот развели лохов!

Давайте сделаем ядра под 10нм, а потом их же выпустим на 14нм, ведь у нас слишком много денег. Нужно что-то с этим делать!

Так же срочно нужно построить фабрику D1X, но разумеется ничего на ней производить не будем, а если спросят, скажем что запустили пилотное производство 10нм :)

Давайте растянем запуск производства Cannonlake года этак на два. Чтобы был низкий выход годных чипов, будем ссать на пластины. А сам процессор нужно сделать как можно более жрущим и работающим на низкой частоте. Ядер конечно нужно делать не больше двух! GPU можно сделать, но он всё равно будет выключен.
Пипл схавает!
Разумеется, выпустить нужно очень маленькую партию.
Так можно потратить много денег на настройку производства и меньше заработать.

Потом мы будем ещё 2 года разрабатывать новый техпроцесс, а чтобы поглумиться над юзверями, будем для ноутов выпускать 10нм чипы с низкой частотой и 4 ядрами, и одновременно 14нм чипы с большой частотой и 6 ядрами, чтобы эти лошары совсем запутались!»

Я ничего не упустил? Всё так и было? :)

Но и торопиться им не к чему.

Да, надо подождать, когда AMD с 5нм займёт значительную долю рынка.

Отговорки на дурака

Известно, что на собрании инвесторов можно скармливать любую дичь ^_^
а потом вдруг расхотела


Когда каждый тик стоит десятки миллиардов долларов?
Вы строите теории заговоров вокруг коммерческой компании. Когда все легко объясняется деньгами.

АМД в свое время так же стала фаблес, ибо у каждого тика есть окупаемость. И когда АМД, нвидиа, эппл, квалком и куча других компаний делают процы на одном заводе, и Интел только у себя…

Люди любят заговоры )
Когда каждый тик стоит десятки миллиардов долларов?
Вы строите теории заговоров вокруг коммерческой компании. Когда все легко объясняется деньгами.

Именно деньгами все и объяснятся.
Уже в 2016 году Intel начала подстилать соломку Intel отказывается от стратегии «тик-так»
При переходе с 22 до 14 нанометров появились задержки в 6—9 месяцев. В это время приходилось повышать процент выхода работоспособных чипов с пластин до допустимого по себестоимости уровня.
Такими шажками Intel двигается уже почти 10 лет. Каждый из них занимает от года до полутора лет. Но в последнее время уменьшать техпроцесс становится всё сложнее. При переходе с 22 до 14 нанометров появились задержки в 6—9 месяцев. В это время приходилось повышать процент выхода работоспособных чипов с пластин до допустимого по себестоимости уровня. Закон Мура, который описывает удваивание количества транзисторов на кристалле каждые 24 месяца, приходится корректировать.

Нужно было сохранить\удержать деньги инвесторов и не допустить падения акций, в противном случае деньги ушли бы «кому-то еще» (АМД, Nvidia, Apple и т.д.), а деньги вкладывают «в растущие», а не «тонущие».

image

График стоимости акций Intel (синий) и AMD (фиолетовый). Нет новых продуктов — акции не растут, новый продукты появились — акции пошли расти.

По странному стечению обстоятельств а 2016 году «оказывает от Тик-Так в польз более прогрессивной и полезной для клиентов стратегии», в то же время 10нм буксуют, intel официально признает «не смогла, надо еще года два пилить техпроцесс». А как отладили 10 нм так официально объявили в конце 2019 "Также представитель Intel заявил, что компания намерена вернуться к своему старому графику крупных обновлений раз в 2-2,5 года. Речь о пресловутом графике «тик-так», когда новый техпроцесс и новая архитектура внедрялись примерно раз в два года. "

Если выглядит как утка, крякает как утка, плавает как утка, гадит как утка — это, скорее всего, утка.
Конечно. Интел противостоял один всему миру.
Все остальные производители окупали новый техпроцесс вместе, в то время, как интелу для запуска нового техпроцесса придется долго его отрабатывать.

И сейчас перед ними стоял и стоит не простой выбор. Либо тратить тонны денег и выпускать 7нм, когда конкуренты уже вовсю осваивают 5нм EUV или заказывать свои чипы на TSMC, что негативно может сказаться на цене на рынке акций.

Но они некоторые свои чипы, не ЦПУ, уже выпускают на других заводах вроде. То ли optane то ли что-то еще.
Вероятно интел останется на 10нм, а последующие версии будут заказывать.

Это еще не считая того, что не факт далеко, что ASML готова им прямо завтра выдать все необходимое оборудование, сколько бы оно там не стоило, они надо полагать тоже не резиновые.
Вы строите теории заговоров

Это вы, как человек, который отрицает слова менеджеров Интел, отрицает все объективные факты, отрицает материалы аналитиков и журналистов, мне говорите? ^_^
Жир тут не просто уже капает, а гигантский столб раскалённого жира приближается к Луне.
Но нужно больше!
Вы мне не ответили на вопрос. А что мог сказать CEO интела, кроме «как извините, не смогли»?

Тут английская поговорка от Lofer подходит как нельзя лучше.

Если выглядит как утка, крякает как утка, плавает как утка, гадит как утка — это, скорее всего, утка.


Интел постепенно отказывалась от этого тик-така, ибо это дорого, особенно, если в этом нет необходимости прямой.
Компания, которая торгуется на рынке не выйдет и не скажет: «вы знаете, мы тут решили подоить наших кастомеров, поэтому не запускали 10нм на всю катушку»

Это же реально выглядит как детский сад. Уж извините, если вы хотите верить в то, во что вы хотите, то никакие аргуементы и здравый смысл тут не помогут.
Ахах. Кстати они запороли не только 10нм, но и 7нм тоже.

www.tomshardware.com/news/intel-announces-delay-to-7nm-processors-now-one-year-behind-expectations

«The company's 7nm-based CPU product timing is shifting approximately six months relative to prior expectations. The primary driver is the yield of Intel's 7nm process, which based on recent data, is now trending approximately twelve months behind the company's internal target.»
Выход годных катастрофический =)

Но конечно же «они всё врут»(с)
Давайте спросим ваш бредогенератор, в чём же «истинная»(tm) причина задержки.

Забавно, они ещё и на штрафные санкции могут попасть, если не поставят свои GPU для супера Aurora, который заказал DoE (проект и так уже задержан на 2 года). Наверняка в контракте это прописано.

Интел постепенно отказывалась от этого тик-така,

Да что вы говорите? ^_^

wccftech.com/intel-2021-2029-process-roadmap-10nm-7nm-5nm-3nm-2nm-1nm-back-porting
Starting off with the process roadmap, Intel will be following a 2-year cadence for each major node update. We got a soft launch of 10nm (10nm+) in 2019 which will be followed by 7nm in 2021, 5nm in 2023, 3nm in 2025, 2nm in 2027 and 1.4nm in 2029.

то никакие аргументы и здравый смысл тут не помогут.

Всё ещё жду от вас аргумент, хотя бы один :)
Честно не понял с чем вы сейчас спорите и что хотите своими ссылками доказать.
Как все сказанное ранее относится к вашим ссылкам?
Изъясняйте свои мысли точнее, не жалейте бумаги.

Начнем с начала. Ну ок, они отстают на полтора года с внедрением 7нм. Это по вашему сейчас доказало? Кто спорил с этим? Сам придумал сам поправил, молодец.
То же самое по второй. Мы тут с вами говорили про последние 6 лет, а вы кидаете планы, как космические корабли Интел будут бороздить космические пространства. Почти как Рогозин.

У вас кончились аргументы и вы решили написать хоть что-то?
Реакция рынка, на очередную попытку Intel «поднять бабла» путем отставания в технологической реализации. Акционеры, похоже, оценили гениальный маркетинговый ход не столь однозначно и востроженно…
AMD (NASDAQ: AMD) Shares Soar Over 16% as Intel Flounders in the 7nm Arena
Акции AMD рекордно выросли на фоне провала Intel — больше чем на 16%. Сейчас они торгуются по цене $69,40.

Причиной роста акций AMD журналисты называют недавний финансовый отчёт Intel по результатам второго квартала 2020. В связи с этим компания «синих» рассказала, что выпуск 7-нм процессоров сдвигается на шесть месяцев от запланированной даты.

В результате акции Intel упали. В настоящее время они торгуются по цене в $50,59, продемонстрировав падение на те же 16%. Положение усугубляют заявления различных аналитиков. Например, один из экспертов сказал: «Закон Мура не ждёт Intel». Также он добавил, что задержки «синих» положительно скажутся на AMD, которая теперь имеет преимущество в течение следующих трёх лет.


Полагаю, прения после этого перестают иметь какой-то смысл…
Это ещё что. Впереди выпуск эпловых процов и там будет следующее унижение Интел. И кто ещё знает что.

Но у них отличные финансовые показатели.
Так что пусть тратят теперь свои миллиарды заработанные на своих 14+++++, на прогресс.
> И в отличие от грязного мира х86, где все так огорожено патентами и не подъемной лицензией, армы это как свежий глоток воздуха для конкуренции.

Вы ничего не перепутали? Это у ARM один лицензиант на всё, а у x86 есть как минимум три независимых источника.
Емнип у интела x86, у amd x86_64. Они взаимно лицензируют эти части друг другу и откуда-то снаружи влезть туда довольно тяжело (невозможно?)

Но я могу ошибаться, конечно, ибо сварщик не настоящий.
Получение патентов, ноу-хау и т.п. по кросс-лицензионным соглашениям состоялось уже давно, сейчас они тут на равных и речь идёт только про новые разработки. Вроде VIA точно так же, но я тоже тут только маску нашёл.
А снаружи к этим трём влезть, да, сложно — точнее, нет смысла: что-то уровня не выше SSE произвести может каждый, но зачем?
Ну так ведь об этом и речь — ARM, похоже, лицензирует вообще всем кому захочется и деньги есть. Уже сейчас производителей дизайна чипов довольно много, что пораждает конкуренцию и, как результат, здоровый рынок. А если авантюра Apple увенчается успехом, то их, вероятно, еще может прибавиться, потому что Apple может сама себе чипы дизайнить, а многие другие не могут.
В этом смысле — да, скорее согласен. Во многих случаях в случае ARM ещё и может помочь то, что в сложном решении какой будет центральный процессор — не критично важно (будет неплохой MIPS, RISC-V, Power — переползут на него). На x86 такое сложнее, решения сильно привязываются в деталях к его специфике.

Но если вдруг ARM'у захочется кого-то не допустить к этой кормушке — у него будет сильно больше возможностей, чем у Intel или AMD, для которых в основном и перекомпилировать не надо.
Но если вдруг ARM'у захочется кого-то не допустить к этой кормушке — у него будет сильно больше возможностей

Вас ФАС за такое с говном съест. Это невозможно.
А если станет возможно, то у нас уже будет переход на АРМ и можем просто перейти далее на RISC-V и тому подобные.
> Вас ФАС за такое с говном съест. Это невозможно.

Почему? Ему MIPS в затылок дышит, даром что кривее. Intel отъедает верхний сегмент. Нет тут никакой монополии…

> и можем просто перейти далее на RISC-V и тому подобные.

Можем. (Но сколько лет будем догонять?)
Немножко политоты, но как там дела у хуавея с новыми армами?

Это замечательно, что с хуавеем так поступили. Может они поумнеют и пойдут на риск-5. И сделают это первыми, а не как обычно по копирке обводить.


Команды процессора это контракт взаимодействия используемый миллионами. Если он может существовать в опенсорс, то туда ему и дорога. В софте как-то коллоборацию осилили вроде. Более менее

К банкротному и пока что безхозному MIPS,
стоит добавить его полусвободных коллег: power (OpenPOWER), sparc (LEON и OpenSPARC) и даже ARM, который «открыт и бесплатен» для некоторых категорий пользователей.

Только вот у RISC-V нет единой точки отказа — есть международная кооперация и множество центров развития. Даже центр координации теперь не в США, а в Швейцарии.

Так что разница гигантская.
За MIPS, конечно, наработки вплоть до готовых кристаллов. Но реально это уже древняя архитектура с кучей устарелостей. Вкладываться в неё надолго уже нет смысла.
Мир x86 грязный потому, что сам интел является производителем цпу.
И им конкуренты на этом рынке не нужны.
Это значит, что лицензия вам обойдется в такие деньги, что лучше не связываться. Поэтому никто и не связывается.

АРМ изначально идет по другому пути, у них другой подход, специально под лицензирование.

И даже АРМ конечно же не предел мечтаний. Набор комманд должен быть открытый по хорошему. Но это уже следующий этап.

Но на данном этапе, АРМ как некий стандарт(набора команд) не то, что лучше, а единственно разумный, если выбирать меж двух и не рассматривать всякие RISC-V.
> Это значит, что лицензия вам обойдется в такие деньги, что лучше не связываться. Поэтому никто и не связывается.

Intel не продаст лицензии ни за какие деньги (ну разве что скупить Intel целиком), но есть AMD и VIA. Это принципиальная разница.

> Но на данном этапе, АРМ как некий стандарт(набора команд) не то, что лучше, а единственно разумный, если выбирать между двух

Скорее таки да. Intel безумен. AMD не сильно отстаёт. Но есть и другие факторы, начиная с объёма наработок.
Про Винду на ARM — даже не смешно, кто видел как это работает — тот знает почему.
У как она работает? Вы на чем её видели?
Apple Silicon еще не вышли даже, а уже конец эры Wintel. Ну, хотя, правильно — когда выйдут новые Mac, может оказаться, что уже и не конец :)
Ну DTK то уже вышел… Да конечно это тестовый образец на старом добром A12, но все таки он уже есть )
Ну да, отличный низковольтный процессор для ноутбуков. Но насколько Apple смогут встряхнуть десктоп — пока непонятно.
ну вы написали «Ну, хотя, правильно — когда выйдут новые Mac, может оказаться, что уже и не конец :)» так они уже вышли…
Ну переобуться всегда можно. Бывает.
Я изначально писал про десктопные процессоры. В моем понимании Mac — это desktop Mac, а Mac Mini с ноутбучными процессорами — это Mac Mini. Возможно это неправильная терминология — ну ладно.
Ну да, гавное себя в этом убедить. Минуси, чего уж там… не останавливайся.
То, насколько apple неудобно переходить на ARM, хе-хе, не идет ни в какое сравнение, какой геморрой получит microsoft, со своим багажом софта и подходов к разработке.
я уже представляю, как microsoft в 10-й раз переименовывает метрошный API, который должен будет решить проблемы этого багажа.
Как назвали его WinRT во времена Win8, так до сих пор и называется…
WPF по планам получит поддержку ARM64 в первом полугодии следующего года. Скорее всего WinForms тоже. Но это надо будет чтоб разрабы под .NET 5 перекомпилировали.

Всякие Qt/Java, с ними конечно сложнее. Там с HDPI-то проблемы, не то что с компиляцией в виндовый arm.

Вроде в следующем же году собирались сделать эмуляцию x64 в винде(пока есть только x86), но пандемия двигает все планы ¯\_(ツ)_/¯

Эх, а кросс-платформенного GUI на C# все нет и нет. Где-то там есть надежда всех страждующих — Avalonia, но ей еще далеко...

Есть ещё Xamarin.Forms (MAUI), UnoPlatfom, на той же авалонии есть проекты.
UFO just landed and posted this here
На армах на винде? Хорошо, если так.
… В конечном итоге, после перехода Mac на ARM есть шанс получить наконец-то рабочий вариант Samsung DEX от Apple.

Dex — это когда телефон пордключается с монитору, клаве и мышке и выводит «взрослую» оболочку а не мобильную.

С учетом того, что приложения будут работать одинакого как на iPhone так и на iPad и Мак — это означает, что в будущем Apple просто предложит подключать iPad/iPhone к монитору и мышке (благо USB-C/Thunderbolt позволяют подключить всё через 1 порт).

И после подключения, все приложения просто переходят в режим OS X интерфейса, открывая ровно те же документы, что и пару минут ранее в iOS…

Таким образом, большинству достаточно будет иметь iPhone/iPad и сетап в виде монитора+мышки+клавы, экономя деньги на «компьютерное» железо.

Да и обновляться намного удобнее, купил новый телефон = купил новый компьютер.

PS На такое «скрещевание» намекает как минимум:
  1. в обратную сторону (приложения с iOS) на мак будут работать сразу на старте и из коробки.
  2. выпуск клавы и тачпада для iPad и адаптацию OS под это

Если Apple даст просто подключить iPad к монитору через стандартный type-c — это уже будет не Apple, это же бесплатный фукционал, не в их стиле, они должны переосмыслить и сделать платным.

Айпад сейчас подключается к монитору через usb-c

Pаботает с несколькими важными оговорками:


  1. Интерфейс отображается в режиме дублирования экрана, экран планшета при этом не отключается.
  2. Разрешение основного интерфейса не настраивается и не подстраивается под монитор.
  3. Type-C есть только на iPad Pro и на других ленейках заменять его не торопятся.

В текущем виде это можно использовать разве что для презентации, речь шла в первую про полноценную работу.

Ну так вполне в духе Apple, когда Alter режим будет доступен только на iPad Pro, а на обычных — не будет.

Покупатели iPad Pro — очень лояльные и платежеспособные клиенты, зачем лишать их возможности купить еще девайс или несколько? Если уж они придумали обоснование не делать калькулятор, то как и почему не давать делать рабочую станцию из планшета они придумают.


Все вышесказанное не относится к развитию планшетов как трансформеров в подобие ноутбука, тут просто отличная возможность продать ужасную клавиатуру (Magic Keyboard 2, по цене бюджетного ноутбука), после которой захочется купить полноценный ноутбук.

Ну сделают для лояльных кастомеров iPad Pro Max Dual какой-нибудь, ценой всего на 399$ дороже и приложение (за 39.99$ + подписка на сервис), которое будет проверять — есть ли у вас макбук, и если есть — то предлагать насладиться всеми его прелестями на iPad с внешним монитором.
а в бете iOS 14 все ровно так же и осталось?

Никаких проблем. Можно распознавать режим и брать денежку. В DEX некоторые программы уже так умеют, в частности, MS Office.

> Apple
> экономя деньги


Все бывает, конечно…
Вот люто жду именно этой фичи. Причем если прогресс будет двигаться такими же темпами, то уже в 2031 году мощность айфона достигнет показателей Mac pro 19 года! И тогда вопрос, зачем иметь несколько девайсов, если достаточно одного мощного смартфона? Очень очень жду этой фичи.
В кремнии уже к пределу подошли. Не будет дальше прогресс так же быстро шагать. По крайней мере какое то время.
В свое время так же говорили, когда гонка мегагерцев на одном ядре подходила к концу… Говорили что закон Мура не работает. А потом бац и стрельнуло в сторону многоядерности.
у многопотока кривая эффективности, с какого-то момента выходит на полку, в рамках одной программы.
другое дело, что ос начинает самообслуживаться на многоядрах более эффективно.
правда, начинаем упираться в теплопроводность и вывести тепло из центра становится всё сложней.
ну техпроцесс тоже на месте не стоит, меньше чип меньше тепла надо отводить… так что пока все хорошо
Техпроцесс как раз к пределу подошел почти, физические ограничения какие то, детали подзабыл. О чем я выше и говорил. Сейчас вроде как пытаются найти выход в переходе с кремния на другие материалы чтобы эту проблему решить.
Я уверен что решение найдется, подложка из кремния действительно уже не пределе возможностей, но найдется. Ведь совсем недавно пытались преодалеть проблемы с глубокой литографией и решили. Так что уверен что в 31м году, мощность процессора в телефоне сравняется с мощностью Mac Pro 19го. Не будет же весь техномир сидеть и говорить «Всё мы типа достигли предела, дальше короч процессоры быстрее не станут.» )

Только многоядерность не решает проблему энергопотребления.


Пока стремительно уменьшался техпроцесс было возможно увеличивать количество транзисторов без повышения энергопотребления (как раз это самая многоядерность). Сейчас с этим стало сложнее. Просто так увеличить количество ядер без вреда для энергопотребления уже не выйдет, а пихать в телефон процессор с TDP 100W никто не будет.

>По тестам от Geekbench, производительность A12Z не уступает моему MacBook Pro.
Когда уже перестанут оценивать десктопные процессоры по мобильному бенчу. Там и майковско-квалкомовский процессор в Surface рвал i5 и r5, но по итогу… Кхе.
Пока взрослых бенчей не будет конечно судить нельзя. Но на презентации показали Maya со сложной сценой и Shadow of the Tomb Raider. Всё это крутилось очень даже бодро, учитывая что это были как раз не нативные приложения, а через транслятор Rosetta. На этом фоне покрутить три 4к потока в нативном Final Cut Pro с эффектами уже не выглядело таким уж впечатляющим.
Пока не будет реальных устройств на руках у людей рано об этом говорить. Демо у того же qualcomm 8cx было прекрасным. Но по факту…
У людей уже есть реальные девкиты. Хоть им и запретили публиковать цифры производительности (хотя уже был случай), но никто бы не удержался написать, если вдруг девкит оказался не таким как на презентации.

Shadow of the Tomb Raider упирается в ГПУ. Он и древний AMD FX не нагружал сильно.

Давайте посмотрим тесты:
RTX2080 Ultra 1080p:
i5-6600k — 106
i7-8700k — 139
Упирается в GPU?

Зависимость загрузки CPU от API.
GTX1080 1080p i7-6850K (6/12)
DX12 76
DX11 47
У игры, которая упирается в GPU, будет одинаковый FPS.

Так что ни на 2080, ни на 1080 SOTR не упирается в GPU =)

А Apple демонстрировали игру на 2080? И там было 139 fps в Ultra 1080p?
Когда уже перестанут оценивать десктопные процессоры по мобильному бенчу.

GB везде одинаковый — и на десктопе и на мобилках. Если ваш десктоп не может выступить быстрее мобилки, о чём это говорит?
Ну т.е. тупо запускается Clang с исходником и почему же он у вас медленнее работает?

Впрочем если не нравится GB — есть результаты SPEC 2006:
www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4
www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/4

Там и майковско-квалкомовский процессор в Surface рвал i5 и r5

Давайте придерживаться фактов, а не фантазий.
Вот первый попавшийся тест SQ1 против i5-8500 @ 4.1GHz (процессор того же 2018г)
browser.geekbench.com/v5/cpu/compare/2923814?baseline=2930842

Не рвёт, но и выступает не плохо.

по итогу...

По итогу что?
Я вот пользуюсь Galaxy Book S на основе 8cx — ноут просто отличный, работает быстро, долго и не перегревается.
Я запилил свой бенч… он доступен в сторе. Для точности результата, один код под Mac (Catalyst) и iOS, измеряет пиковый показатель производительности процессора. Да Айпады мощные но обгоняют не все макбуки. Но все таки многие обгоняют даже из свежих.
Чудны дела твои… А если порассуждать? Давайте так — производительность ARM меньше производительности x86 (и x64, конечно) равной тактовой частоты. Гонка гигагерцев закончится довольно быстро. В сухом остатке явное преимущество x86/x64 в «числодробильных» задачах. И это преимущество «покупается» за невысокую энергоэффективность. До поры все было отлично, но некоторое время назад ящик пандоры оказался открытым. Вычисления на GPU (особенно сильно многопотоковые) оказались более эффективными, чем вычисления на CPU. Кодеки «встроенные» в GPU работаю быстрее и эффективнее аналогичных на CPU и меньше влияют на отзывчивость системы. OpenGL и его ближайшие родственники весьма эффективно обсчитывают трехмерные сцены. Таким образом потихоньку роль CPU как главного «числодробительного» механизма планомерно сокращается. А еще появляются многоядерные системы, позволяющие параллелить и базовые системные функции. Apple это очень хорошо прочувствовала на мобильных устройствах. А дальше простой вопрос — как подключить производительную видеокарту к ARM. Как только они решили этот вопрос, так сразу попытались сделать свой персональный десктоп. Посмотрим. Не все идеи Apple стреляют. По мне эта может стрельнуть. А может и не стрельнуть. Потому попкорн у меня уже запасен. Ждем.
А если порассуждать? Давайте так — производительность ARM меньше производительности x86 (и x64, конечно) равной тактовой частоты.

ARM бывают разные. Какие конкретно вы имеете в виду и на чём основано данное суждение?

Гонка гигагерцев закончится довольно быстро.

Интел её проиграл AMD ещё в начале 2000-х :D

В сухом остатке явное преимущество x86/x64 в «числодробильных» задачах. И это преимущество «покупается» за невысокую энергоэффективность

Где-где преимущество, простите?
www.fujitsu.com/global/about/resources/news/press-releases/2019/1113-02.html
A64FX — 7nm, 48 (52) ядер, 3,3792 TFLOPS (в DP), ПСП 1TB/s, 180W(?)
Epyc 7742 — 7nm, 64 ядра, 2,3TFLOPS, ПСП 204.8GB/s, 225W
Даже свежий TR Pro 3995WX с TDP 280W не достанет до ARM.

Как мы видим у топовых x86 меньше производительность при большем количестве ядер (ядра медленнее), меньше ПСП, больше TDP.
По всем параметрам… грусть-печаль.
По всем параметрам… грусть-печаль.


Давайте так. Я не могу спорить с маркетологами. Как говорится «в рекламе вкусно показать можно что угодно». Но первое впечатление любого, кто садится за ARM после любого x86 (даже Atom'а не к ночи будь помянут) — это ощущение тормозной консоли. Все системные утилиты, рассчитанные на работу в однопоточном режиме выполняются сильно дольше привычного времени. Я не работал с «серверными» решениями. Есть такой, но у меня к нему доступа нет за ненадобностью — мне кросс-компиляция больше нравится. И в первую очередь ровно потому, что кросс-компиляция выполняется сильно быстрее, чем нативная. Потому мой собственный опыт и только. Однако, не думаю что Apple будет ставить в свои десктопы серверные ARM'овские решения на полсотни ядер. Но посмотрим.

Банальный пример — роутер с 2 ядра ARM не может забить гигабит кучей подключений, nat тормозит. x86 j1800 тянет гигабит на одном ядре, и вытянул бы еще немного. Частоты были одинаковыми.


Ядро linux вряд ли перепишут подьвсе особенности(если таковы имеются) arm.

А разве ядро Linux уже не поддерживает все особенности ARM?

А вы уже сидели за Developer Transition Kit? Или вы сравниваете с каким-то неизвестным ARM, который может быть в несколько раз медленнее того, что будет у Apple?
Нет, не сидел. Да, сравниваю с каким-то другим ARM (известность — понятие относительное). И что это меняет? Будет в несколько раз медленнее? Это как? ARM разработает отдельное ядро персонально для Apple? Что может сделать Apple для того чтоб в разы увеличить производительность? У них есть тайное знание, позволяющее обмануть природу?

Вообще сегодняшняя ситуация вокруг ARM до боли похожа на ситуацию с SPARK и SUN. Те тоже пытались подвинуть Intel как минимум на серверном рынке. Конечно, сейчас ARM сильно популярнее чем когда-то SPARK. Где сейчас тот SUN и тот SPARK? А очень похоже по ощущениям от работы с консолью.

И да, я не то что не против. Я за. Я жду цен. И имею (слабую) надежду на то, что какой-нить mac-mini с ARM появится у меня на столе. До тех пор любые разговоры это просто гадание на кофейной гуще. Я мои посты целиком и полностью основаны на собственном опыте работы с Linux на ARM (как 32-, так и 64-разрядных). Пока ощущение такое — жить можно, но только так. Большинство пользовательских задач (игры, видео, музыка, обработка видео) вполне себе выполнимы. А вот разработчиковские (та же компиляция) — одна сплошная боль. И вылечить эту боль может только очень серьезная многоядерность. Но и тут надо помнить про «корень из N» и весьма серьезное усложнение чипа. Потому повторюсь — попкорн запасен. А там посмотрим что за кино получится. Не удивлюсь ни комедии, ни триллеру.
ARM разработает отдельное ядро персонально для Apple? Что может сделать Apple для того чтоб в разы увеличить производительность?

Так у них уже производительность ядер на уровне ядер интела. Именно у процессоров от Apple — A12Z
Я мои посты целиком и полностью основаны на собственном опыте работы с Linux на ARM (как 32-, так и 64-разрядных).

Ещё раз, не те это процессоры
А вот разработчиковские (та же компиляция) — одна сплошная боль. И вылечить эту боль может только очень серьезная многоядерность.

Посмотрите на Developer Transition Kit. Там как бы и система и Xcode уже стоят. И люди берут и компилируют

Давайте с конца. Я нигде не писал, что компилировать нативно нельзя. Можно. Это вполне себе работает. Но попробуйте собрать сколько-нить серьезный проект нативно. В моем случае это обычно ядро Linux, gcc или что-то подобное (chromium, firefox). И тут выяснится что кросс-компиляция на Intel сильно быстрее нативной компиляции. Да и XCode пока работает в основном на Intel, хоть и делает код для ARM'а. Я не фанат мобильной техники Apple, потому не могу объективно ее оценивать. К слову поправьте если не прав, но полагаю что никто не может — та доступ к консоли сильно лучше спрятан чем в том же Android'е. А тесты… это только тесты. Но повторюсь — жду цен. У меня есть желание пощупать desktop на ARM'е. Вопрос как всегда лишь в цене.

А вот про «не те процессоры» я не понял. Упомянутый A12Z основан на ядре ARMv8-A. Вполне понятно чего от ждать просто ориентируясь на построенные на близкородственных ядрах AARM64. Разве нет?
Упомянутый A12Z основан на ядре ARMv8-A. Вполне понятно чего от ждать просто ориентируясь на построенные на близкородственных ядрах AARM64. Разве нет?

Эм, нет. Это же набор иструкций. Так можно и AMD и Intel сравнивать — а чего, они ж оба x86-64. Тут можно посмотреть сравнение с Snapdragon 855. По вашей логике, тоже ARMv8-A. А вот разница очень даже существенная. У Apple одна их самых быстрых (если не самая быстрая) реализаций — это факт, и это было видно еще несколько лет назад.

К слову поправьте если не прав, но полагаю что никто не может — та доступ к консоли сильно лучше спрятан чем в том же Android'е

Ну, прижелании доступ есть — джейлбрейк никто не отменял

Но попробуйте собрать сколько-нить серьезный проект нативно. В моем случае это обычно ядро Linux, gcc или что-то подобное (chromium, firefox). И тут выяснится что кросс-компиляция на Intel сильно быстрее нативной компиляции. Да и XCode пока работает в основном на Intel, хоть и делает код для ARM'а

Я же говорю, вот, выпустили уже Xcode для ARM. Но, к сожалению, у меня нет DTK, чтобы это протестировать. Разработчикам, которые его получили, тоже, по традиции, рекомендовано воздержаться от комментариев, но тесты ня ютубе уже есть — но, к сожалению, не компиляции, это да
И все же я позволю себе остаться при своем мнении. Посмотрите свою ссылку. Там много объяснений того, почему а Apple система оказывается быстрее. Ширины шины данных, размер кешей. Другое дело, что есть серьезный вопрос поможет ли это в реальной жизни на реальных задачах, а не на чистой синтетике. И да, Intel и AMD можно (и нужно) сравнивать. Собственно все именно этим и занимаются.

Ну, а то что Apple может «вытягивать» из ARM максимум, так это хорошо. Но я сомневаюсь что на реальных задачах там будут «разы». Хотя… Вспоминая как вел себя ARM-v7 с 16-разрядной шиной памяти в сравнении с тем же ядром, но 32-разрядной шиной могу сказать что все возможно. Ждем. Пока просто ждем.
Если честно, я не очень понимаю заявления про чистую синтетику. Вот у меня есть iPad Pro 10.5. Браузер на нем работает быстрее, чем на MacBook — и по тестам, и по ощущениям. На iPad есть Swift Playgrounds — уже давно, причем. Да, он для простого кода, но собирается все тоже не медленнее, чем в Playgrounds ноутбуке. Это более чем реальная жизнь и реальные задачи.
Еще сильнее я не понимаю «ааа, так он же быстрее из-за шин, кешей». Какая мне разница, из-за чего? Он быстрее, важно только это.
Наверное. Тут главное не сильно путать теплое с мягким. Мне крайне сложно оценивать то, чего я не видел и не щупал. И если производительность MacBook я примерно представляю, то с iPad Pro темный лес. Впрочем программировать на планшете — это тоже похоже на оживший ночной кошмар. По крайней мере персонально для меня.

Шины и кеши — это мое. Это я должен понимать за счет чего достигается такая производительность и где ждать подводных камней таких решений (понимать границы применимости). Согласен, пользователю это не очень интересно (если вообще интересно). И в этом плане тот же браузер не всегда показателен. Страница для iPad и для десктопа могут оказаться очень разными, даже рекламой разной и по разному напичканными. Одно это может вносить существенные искажения в восприятие скорости работы. Потому давайте я соглашусь с любой позицией. Говорите ARM от Apple в однопоточном режиме быстрее Intel'а — ОК, пусть будет так. Говорите что у Apple самая быстрая реализация AArm64 — не вопрос. Время рассудит что тут правда, а что вымысел и подгон под требуемый ответ.
На самом деле даже по ссылке от автора статьи ARM не обгоняет Intel; с другой стороны, TDP у ARM'а действительно меньше. Но все равно речь идет о низковольтных процессорах для ноутбуков, о десктопных ARM'ах для Mac'ов еще даже маркетинговых утечек не было. Так что да, время покажет.
Речь не о том, что вот, можно программировать на планшете. Речь о том, что Apple в свой Developer Transition Kit вставили процессор A12Z — прямиком из последнего iPad.
Насчёт страниц в браузере — я согласен с замечанием, что сайты могут быть разные, но это не мой случай. Я часто читаю форумы, и они открываются именно в десктопной версии. Кроме того, на iPad нет блокировщика рекламы, что, по идее, должно ещё сильнее тормозить браузер на нем. Но не тормозит.
И что это меняет? Будет в несколько раз медленнее?

Да, будет в несколько раз медленнее.
Вы знаете что такое микроархитектура?
Представляете, почему Goldmont+ медленнее в разы чем IceLake?

Это как? ARM разработает отдельное ядро персонально для Apple?

Они не используют ядра ARM. Как и AMD не использует ядер Интел. Apple лицензирует архитектуру и разрабатывает микроархитектуру самостоятельно.
Сейчас ядра Apple вдвое быстрее чем ядра от ARM.
В Apple ноутах будет ядро на 20-25% более быстрое чем A13. Это поднимет планку производительности в однопотоке для всей индустрии.

SPARK и SUN

SPARC

мои посты целиком и полностью основаны на собственном опыте работы с Linux на ARM (как 32-, так и 64-разрядных).

Ну т.е. ездите на Ладе Приоре, но рассужаете о каком нибудь Porsche, дескать, он точно ничем не лучше. Ясно, понятно.
Ну т.е. ездите на Ладе Приоре, но рассужаете о каком нибудь Porsche, дескать, он точно ничем не лучше. Ясно, понятно.


Может быть. А может быть просто не пытаюсь использовать карьерный Белаз для ежедневных поездок на работу через центр города-миллионника. И тем более не пытаюсь найти оправдания того для чего я этим мог бы заниматься. А межу поршом и приорой общего сильно больше чем кажется. И уж точно нельзя познать особенности реализация порша не зная как работает приора или любой ее импортный аналог (если на отечественные авто стойкая аллергия).

Поправка про SPARC засчитана. Виноват. Все остальное для меня требует пояснения. То что вы пишите или слишком умно и сильно опережает мои знания, или… ровно наоборот (буду политкорректен). Я не понял про Intel и AMD. История этих компаний слишком на слуху для того чтоб так безапеляционно заявлять что их роднит только набор инструкций и так было всегда. Да и методика зарабатывания денег компанией ARM мне представляется несколько по другому.
История этих компаний слишком на слуху для того чтоб так безапеляционно заявлять что их роднит только набор инструкций и так было всегда

Причём тут история компаний? «Так было всегда»? Я такого вообще не говорил.
Речь о том, что ядро Ryzen никак не связано с Intel Core кроме как по архитектуре. У компаний есть кросс-лицензионные соглашения, но AMD не лицензирует микроархитектуру ядра у Интел, и наоборот.

То что вы пишите или слишком умно и сильно опережает мои знания, или… ровно наоборот (буду политкорректен)

Как изволите, но мне не пришлось бы разжёвывать элементарные вещи,
если бы вы в них ориентировались. Расширяйте кругозор. Возможно, вам эта информация не нужна, но вы же делаете безапелляционные заявления вроде «производительность ARM меньше производительности x86 (и x64, конечно) равной тактовой частоты.», хотя даже не знаете какие бывают ARM и какую они имеют производительность.

Да и методика зарабатывания денег компанией ARM мне представляется несколько по другому.

Важно, не как вам представляется методика, а как это работает на самом деле.
О том, как работает ARM, написано в хорошо знакомом месте:
www.anandtech.com/show/10366/arm-built-on-cortex-license
www.anandtech.com/show/7112/the-arm-diaries-part-1-how-arms-business-model-works
Как изволите, но мне не пришлось бы разжёвывать элементарные вещи, если бы вы в них ориентировались. Расширяйте кругозор.


Хм… Понимаете какое дело. Мне, как человеку который уже не один десяток лет занимается адаптацией загрузчиков и ядра Linux под разные камни (включая те, на которых ни одно ни другое даже не поддерживается) безусловно стоит расширять кругозор. И конечно мне не надо объяснять элементарные вещи. Хотя не скрою — я очень люблю послушать как именно их объясняют. Очень много сразу становится понятно о человеке. Насколько глубоко он в теме, по каким «учебникам» учился. Потому позволю себе встречный совет вам: вечно расширять кругозор не получится. Мир меняется сильно быстрее, чем вы об этом успеваете даже прочесть. Потому выберите уже тему, в которой вам будет интересно и копайте вглубь. Нет ничего страшного в том, что не знаешь всего.
Мне, как человеку который уже не один десяток лет занимается адаптацией загрузчиков и ядра Linux под разные камни

Я, знаете ли тоже твой труба шатал не мальчик :D
То что вы адаптируете Линукс, ничего не говорит о ваших знаниях в области микроархитектур ARM. Тем более вы с чипами Apple не работаете и программы на них не запускаете. Кстати для iPhone тоже есть Линукс ядро. projectsandcastle.org
Мир меняется сильно быстрее, чем вы об этом успеваете даже прочесть.

Именно так. Несколько лет назад ваше утверждение, из-за которого появилась эта ветка, было валидным, а сейчас оно не соответствует действительности.

Вы в курсе про чайник Рассела? Надеюсь да, и тогда я жду продолжения. Меня настолько часто обвиняют в некомпетентности, что я даже сопротивляться не буду. Но, думаю, что если б хоть у кого-то был ARM достаточно производительный, чтоб потеснить современный Intel и об этом можно было бы писать не боясь судебных исков, то все бы давно гудели. А так быстрее, но со звёздочкой (на отдельных задачах). И именно понимание архитектуры и процессора как такового и системы в целом и позволяет мне предполагать с хорошей долей уверенности что таковое в принципе невозможно. Если конечно не сравнивать ультра современный ARM с допотопным Intel. Но тогда мой браслет на порядки производительные суперкомпьютеров прошлого. И да, напоминаю про чайник (и жду продолжения).

Забавно. Утверждения делаете вы, а доказывать должен я?
Напомню:
производительность ARM меньше производительности x86 (и x64, конечно) равной тактовой частоты.… В сухом остатке явное преимущество x86/x64 в «числодробильных» задачах.


Я вас не обвиняю в некомпетентности — я вашей работы не видел. Я просто говорю, что мир вокруг вас изменился, а вы старательно пытаетесь спрятаться за старой догмой «Интел — круче всех». Имеет место быть инерционность мышления.

то все бы давно гудели
Так все и гудят :) И именно потому Apple тратит миллиарды на смену архитектуры, хотя часть пользователей они потеряют. СтарпёрыПользователи старой закалки всё ещё сопротивляются принятию новой реальности, но время покажет, кто прав.

А так быстрее, но со звёздочкой (на отдельных задачах)

У Интел в ноутах/десктопах осталась лишь одна «звёздочка» — широкий SIMD. В HPC даже её не осталось.
Кроме синтетики, применений AVX-512 на декстопе довольно мало.
Преимущество AVX2 закроет стоковое ядро ARM Matterhorn (2021г) с 256-битным SIMD. По некоторым косвенным данным у Apple Silicon уже в этом году может быть широкий SIMD (узнаем в сентябре). Айфон 12 покажет чего ждать от ноута.

И именно понимание архитектуры и процессора как такового и системы в целом и позволяет мне предполагать с хорошей долей уверенности что таковое в принципе невозможно.

*Зевая* Возьмите свежий айфон и погоняйте там код, если не верите тем, кто это уже сделал.
Лично я не настолько увлечён вопросом «В интернете кто-то неправ», чтобы делать это за вас :D

"Мы наш, мы новый мир построим" ©


Зевая Я подожду десктопа и проверю. Там и будет видно быстрее ли, энергоэффективнее ли, дешевле ли. А то сравнивать iPhone и десктопную машину все равно что сравнивать пончики с Айвазовским. Буквально недавно Microsoft пытались. Даже не для десктоп, а то ли планшет, то ли ноутбук. По ощущениям у них не получилось.


А тестировать каждую разрекламированную новинку у меня нет ни времени, ни денег, ни желания. Мне деньги не за это платят. К слову а вы не один из сотрудников того новостного портала на который ссылки шлете?


А про чайник все же почитайте. Зевая Вдумчиво.

К слову а вы не один из сотрудников того
новостного портала на который ссылки шлете?

Нет. Просто у них было время, желание и знания чтобы всё протестировать.
Ожидаемо. И плевать что тесты показывают убедительное преимущество, тормозит и всё тут :)

Все системные утилиты, рассчитанные на работу в однопоточном режиме выполняются сильно дольше привычного времени.

Какая ОС, какой процессор?
Раз уж вы делаете вид что вы не маркетолог, предметно можете говорить?

У меня на 8сх нет такого ощущения каких-то тормозов.

Я не работал с «серверными» решениями.

И в первую очередь ровно потому, что кросс-компиляция выполняется сильно быстрее, чем нативная.

Откуда вы знаете, если вы не работали?
Знаете ли вы что то-же Clang, к примеру на телефоне Apple работает быстрее в однопотоке чем на самом топовом х86? Понятно что больших ядер там мало, т.е. в целом победит десктоп, но в ноуте будет 8 вместо двух.
А можно ссылку на тест, а не на циферки FLOPS от производителя? Пиковые FLOPS важны лишь в том случае, если они могут достигаться в реальных задачах. А то, знаете ли, можно взять из Вики FLOPS Эльбрусов, промасштабировать на 64 ядра и обнаружить что он в два (!) раза круче чем Epyc 7742. Только вот на деле даже синтетические тесты специально нужно подстраивать, что бы он хоть как то себя проявил.
Давайте начнем сначала. Я не мазохист. Серверный ARM заказали себе прикладники. Там ARM-v8 (64 бита), дай бог памяти 16 ядер и не помню сколько оперативы и тактовую частоту. Настаиваете могу уточнить. Он занят сборкой прикладного ПО (сюрприз-сюрприз как раз на ARM-v7a). Я пробовал собирать свои приколы (U-Boot, Linux 4.x по тем временам). Так вот по времени компиляция выполнялась в разы дольше, чем на настольном 12-ядерном i7-extreme и незначительно быстрее (дай бог памяти процентов на 10), чем на выделенной мне сборочной витруалке на Windows Server под Hyper-V. Дело было год-полтора назад. Повторять эксперимент не хочу, ибо см. второе предложение данного ответа.

Ось почти всегда Linux. Железо — встраиваемые железки с arm-v7a, arm-v8 (последнее время от Freescale). Это наша целевая платформа. Пробовал железки и от NVidia (для нас избыточны) и от более «приземленных» производителей (ST Microelectronics, Atmel). Да, выборка не очень презентативна в части производительности, но я и сравниваю их отзывчивость не с Xenon'ами. Скоре с Atom'ами и Celeron'ами. Что до «нет ощущения тормозов» — так на том что делаем мы тоже нет ощущения тормозов. Иначе бы железки наши не покупали. Не путайте пользовательский опыт и ощущения разработчика. Я знаю о своем изделии сильно больше, чем конечный пользователь. Так что верю — нет ощущения тормозов и славненько. Я буду очень рад оказаться не правым и пересмотреть свои взгляды. Ждем.

Clang, к примеру, на телефоне Apple я не запускал. У меня из Apple есть только macOs на хакинтоше. Потому действительно сказать ничего не могу. Но взялись писать — пишите. Что компилирует Clang на смартфоне и x86 (и который из них самый топовый, участвующий в сравнении)? Они производят один и тот же бинарь или разные? Где вообще описание данного теста?
Там ARM-v8 (64 бита), дай бог памяти 16 ядер и не помню сколько оперативы и тактовую частоту.

Кроме первого Graviton я так из головы и не могу назвать ничего серверного с 16 ядрами.
Graviton 1 построен на ядре A72 (оно далеко не серверное). Только вот текущий Graviton2 уже заметно быстрее чем первый (хотя и медленней серверных чипов х86). Серверные платформы от ARM выпускаются заметно позднее чем телефонные чипы. Оно и понятно — там серверные фишки да и тестируются такие чипы тщательнее.

>> Дело было год-полтора назад.
Ну да, точно Graviton значит.
A72 в 4 раза медленнее чем десктопное ядро Интел.
Graviton2 где-то в 2 раза медленнее в однопотоке, но компилировал бы он быстрее чем i7.
browser.geekbench.com/v5/cpu/compare/2124955?baseline=2853917

>> Что компилирует Clang на смартфоне и x86
Clang в GB5. Я лично Clang не собирал и не запускал под iOS (при джейле можно тупо из консоли запускать), но бенчмарк вполне правдоподобен.
GCC в SPEC2006. www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4

>> Они производят один и тот же бинарь или разные?
Один и тот же.

>> Где вообще описание данного теста?
Стр 12
www.geekbench.com/doc/geekbench5-cpu-workloads.pdf

Скопирую из отсюда (я могу писать только 1 раз в час)

Ширины шины данных, размер кешей. Другое дело, что есть серьезный вопрос поможет ли это в реальной жизни на реальных задачах, а не на чистой синтетике. И да, Intel и AMD можно (и нужно) сравнивать. Собственно все именно этим и занимаются.

Большой кэш с низкой латентность и высокой ассоциативностью не поможет в «реальных» задачах?
L1D 8-way / 128KB / 3 такта; L2$ 4MB 14-16 тактов у Apple
L1D 8-way / 32KB / 4-5 тактов; L2$ 256KB 12 тактов у Comet Lake.

Декодирование 7 инструкций за такт (A13), 6 ALU операций за такт, быстрый FPU тоже не помогут? Там и остальные блоки уровня state-of-art.
www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/3

Кстати новое ARM-овское ядро Cortex-X1 (которое пока никто не показал) может запускать из МОП кэша 8 макроопераций за такт. У Интел всего 6 МОП-ов за такт.
www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging/3
Давайте так. Если не забуду, то закончится отпуск я напишу сюда ТТХ сервера. Просто не заострял внимания (мне не интересно было).

Про остальное. Ну хорошо, будем считать что я согласился. Мне спорить с редакторами www.anandtech.com совсем не хочется. А не верить им безоговорочно — это мое право. Как и право сомневаться в кроссплатформенных тестах. Даже подсчет хешей или расcчет числа Pi (казалось бы чисто вычислительные задачи) не дают четкого результата.

Потому просто повторю основную идею — ждем. Ждем цен. Ждем реальных оценок (что бы это не значило). Будет любопытно если десктопный ARM от Apple окажется быстрее серверного 1,5-годичной давности. Впрочем, сильно такому раскладу я не удивлюсь.
Есть ещё «старичок» Cavium ThunderX2 CN9960 — он тоже 16-ти ядерный с ISA ARM v8.1.
Графику эппл, кстати, тоже свою делают.

А, ну и еще, помимо этих вопросов есть вопрос цены и по всему выходит что Apple сильно будет экономить на своем силиконе. И это прям немаловажный фактор.
А еще появляются многоядерные системы, позволяющие параллелить и базовые системные функции.

Скорее всего это и есть бустер, который будет использовать Apple.
Более того, Apple не покупает дорогущие чипы Xeon, используемые в миллионах облачных серверов – а их доля в прибыли Intel постоянно растёт.

А как же Mac Pro?

Если отбросить в сторону все громогласные рассуждения автора о технологическом превосходстве Apple над Microsoft и ARM над AMD64 (причем оба тезиса весьма спорны), то в сухом остатке мы имеем уменьшение доли интеля на десктопах на 10%.
Неприятно, но на апокалипсис не тянет.

И Windows на армах была уже лет 5 назад. Но вау-эффекта не последовало.
ну да и Win mobile когда то до iOS была и доля рынка была 80%… а где она теперь?
Если отбросить в сторону все громогласные рассуждения автора о технологическом превосходстве Apple над Microsoft и ARM над AMD64 (причем оба тезиса весьма спорны)
ну про Apple vs microsoft можно долго холиварить (хотя индустрия чаще следует за первыми чем за вторыми), а вот то что ARM чипы энергоэффективнее и дешевле в производстве чем их x64 аналоги это скорее факт чем спекуляция. А еще у apple в ближайшем будущем будут 5 nm чипы, а ведь в ноутбуках решающий критерий именно энергоэффективность.
то в сухом остатке мы имеем уменьшение доли интеля на десктопах на 10%.
дайте apple разгуляться в верхнем сегменте и они и в средний полезут.
И Windows на армах была уже лет 5 назад. Но вау-эффекта не последовало.
если бы win 8 RT был тем, что от него ожидали — windows 7 с адаптированным под тач интерфейсом, последовало бы. На деле же это была планшетная версия провальной win phone.
(хотя индустрия чаще следует за первыми чем за вторыми)
Зато первые часто следуют за вторыми. То плоский дизайн позаимствуют, то разделение экрана, то живые плитки…
можно долго спорить о том, кто у кого первым что сплагиатил, «лидерство» в данном случае это чуть более широкое понятие. Простые примеры из 21-ого века:
  • 2000: MS представили windows mobile. Занял нишу коммуникаторов и прожил ровно до релиза айфона
  • 2001: MS представили первый планшетный компьютер. Провал
  • 2007: apple представили айфон. Спустя пару лет практически все мобильники копируют дизайн айфона
  • 2010: apple представили ipad, положив начало «планшетным компьютерам»
  • 2010: MS представили windows phone как ответ айфону. Провал, который добил nokia.
  • 2011: apple представили siri. В течение последующих лет подобные решения появились и у конкурентов
  • 2012: MS представили свой ответ ipad'у — планшет microsoft surface. Провал
  • 2015: apple выпускает ноутбук с одним лишь thunderbolt интерфейсом, и производители постепенно переходят на него
  • 2016: apple удалили из телефона jack. Конкуренты перенимают
  • 2020: apple объявила о переходе на ARM (---мы здесь---)

Итого все крупные «мувы» apple оказываются успешными, а все крупные мувы MS — нет. Что там еще есть у MS? Azure? Я бы поставил на AWS. Office? Будущее за google docs. Итого MS лидирует только в некоторых крайне нишевых областях (типа hololens для медицины) и пытается сохранить монополию там, где может.
Вы довольно однобоко относитесь к мс. А он прям похорошел при Сатье Наделле. Во-первых МС смог очень качественно диверсифицироваться, посмотрите вот недавние разборы структуры доходов: www.investopedia.com/how-microsoft-makes-money-4798809, ровненько по 30% с каждой из мажорных категорий. Так что майкрософт уже не зависит только от клауда или только от виндоус.

Офис — почему гугл доки, а не Office 365? Только потому что вы ими пользуетесь? Офис это гораздо больше собственно прогаммы майкрософт офис. Это часть довольно большого пакета по оборудованю коммерческих рабочих мест. С календарями, почтовыми серверами, лучшим почтовым клиентом на рынке с майкрософт, всякими тимсами, бизнес-мессенджерами, звонками и т.д. и т.п., очень много всего. Ближайший конкурент в этой области — гугл с помянутыми гуглодоками и г-сьютом. Однако Майкрософт прямо сейчас продает чуть не на порядок больше этих продуктов чем гугл. И объективно выигрывает по размеру пакета продуктового.

Azure? Почему вы делаете на что-то ставку? Это как делать ставку на ios при живом андроиде, да, у AWS больше рынка, на у Azure рынка все еще более чем дохрена, настолько дохрена, что майкрософт треть своих доходов оттуда получает.

И категория девайсов у них в общем не такая безнадежная как казалось бы, энтерпрайзы любят и покупают серфейсы (не так как макбуки, но все же), хбокс гейм пасс недавно отчитывался о десяти миллионах активных подписчиков (где там сони с ее эксклюзивами?), консольки прекрасно продаются и новые будут продаваться, десяток студий выпускает хитовые игры и продает их.

И это все только по верхам.

У эппл структура доходов далеко не такая безоблачная как у майкрософт.
на у Azure рынка все еще более чем дохрена
… линуксов. В этом-то и проблема. Просто обязан «в ажуре» быть супербыстрый, супердешевый, с уникальными опциями Windows Server… но ничего этого там нет :-)

Более того, за ту же цену — у AWS и Google виндовые инстансы быстрее, и лучше сбалансированы.

С календарями, почтовыми серверами, лучшим почтовым клиентом на рынке
С просто таки отличными календарями, которые не умеют сами синхронизироваться с вашими календарями в смартфоне.

С просто таки потрясающими клиентами, которые почту умеют забирать только с серверов микрософта.

всякими тимсами, бизнес-мессенджерами, звонками
это (наконец-то) один продукт, или их все так же четыре? А браузерная версия уже научилась в звонки, как это умеет гугломит? А без облака микрософта это счастье уже работоспособно, или все так же «пакетная сделка»?

Наконец, когда можно будет из тимсов позвонить в скайп (не бизнес, этот вообще не скайп а lynx)?

Офис — почему гугл доки, а не Office 365?
У гугла — доступно все россыпью в любых комбинациях, интегрируется со всем подряд, полностью операбельно со смартфона, и требует только браузер.

Что там у нас с микрософт офис 365? Поставьте себе кучу десктопного шлака, который требует доменные аккаунты в облаке, чтобы можно было просто позвонить? :-)
офис 365 онлайновый так-то.

Я в целом не сравнением экосистем тут занимаюсь. Вкус, цвет, фломастеры, плюсы\минусы, вот это все. Я сам плотно (вплоть до хромбука с энтерпрайз энролментом и гугл пикселя с ним же) в гугловой экосистеме сижу и проблем там более чем дохрена. Уверен что у майкрософта их тоже предостаточно. Однако факты есть факты — этого рынка у майкрософта много, больше чем у гугла чуть не на порядок, по той статистике, которую я видел, продукт делается и продается.

И почему вдруг линуксы стали проблемой майкрософта? Они якобы были ей во времена балмера, а сейчас линуксы майкрософту лучшие друзья, потому что майкрософт зарабатывает на них гору денег. Майкрософт топ-1 корпорация по контрибьюшенам в опен-сурс. Скоро к гитхабу прикрутит кнопку «задеплоить в ажур» и заживем.
И почему вдруг линуксы стали проблемой майкрософта?
Не-не, вы не уловили посыл. Я о другом — что в облаке микрософта нет вкусных предложений по продуктам… микрософт!

Вкусных — это significantly дешевле и производительнее за ту же комбинацию, чем у конкурентов. Хотя (в отличие от всех остальных) лицензия на Windows для микрософта не стоит ничего.

Вместо своих собственных систем, в «ажуре» правит бал почему-то тот самый Linux, с которым микрософт уже 20 лет безуспешно борется.

И вот это и есть повод позлословить :-)
Так я про то и говорю. Майкрософт давно уже, так сказать, оставил все это у ручья, в том числе и безуспешную борьбу, а вы все еще несете с собой.

Потому что не можешь победить — возглавь.

Майкрософту нет никакого смысла продавать у себя windows дешевле чем делают это конкуренты, он так только отношения с партнерами попротит, потому что конкуренты, внезапно, тоже покупают windows у майкрософт.

Майкрософту также нет смысла не давать линукс тем, кому нужен линукс. Как-то так зарабатываются деньги. А вот эти войны платформ и прочее все — кому оно надо?

Windows перестал быть критической частью и краеугольным камнем для майкрософт. Зачем искусственно ограничивать себя одной платформой, если можно зарабатывать деньги на всех?
Потому что не можешь победить — возглавь.
Это у них тоже не получается. Мелкомягкие свои собственные продукты толком «возглавить» не могут, непрерывно сами себя побеждают во внутренней борьбе…

Примеры — тот же скайп. Его переписали с нуля (!!!) но так и не научили интегрироваться с другим скайпом. Который «форбизнес». Много лет пилят свои Тимсы, которые тоже не умеют в интеграцию со скайпом. Тут-то им кто мешает делать по уму и опенсорцно?

Windows перестал быть критической частью и краеугольным камнем для майкрософт.
Жаль только микрософт об этом не в курсе :-)

Убери вот прямо сейчас «окошки» — и кем станет микрософт?

Мелкий вендор по производству устаревшего в хлам офиса под макось? Даже офис365 без десктопного аутглюка с десктопным экселем мало приспособлен к разумной деятельности.

Еще более мелкий вендор дотнета, с полноценной вижуалстудией только под мак? А под маком там зачем дотнет, десктопные приложения там банально не в чем делать, WPF же :-)

Про мобилки я и не говорю, совсем мелко.

Ну, еще кое-что из кровоого энтерпрайза можно запустить на линуксе, как MS SQL Server, но вот Dynamics/Navision — уже нет :-)

Зачем искусственно ограничивать себя одной платформой, если можно зарабатывать деньги на всех?
Затем, что «на всех» у них не получается. А вот позиции собственной платформы — уже таковы, что «то ли закопать, то ли погодить».

Нет, не потому что это я — динозавр-хейтер «мастдая» с четвертьвековым стажем. А потому что нет (по факту) вкусных предложений.

Вместо бешеного распространения во все стороны, как это было во времена Билла Гейтса и раннего Баллмера — окучивание своих делянок, которые постоянно усыхают.

Да банально вспомните повсеместное втюхивание Висты — и не остановили никакие опасения «испортить отношения». Или делаешь как в Редмонде скажут — или шиш тебе а не скидка на лицензию Уиндоусь!!!

Но времена меняются, и если микрософт не прекратит окукливаться — то скоро угроза «не дадим скидку на уиндоусь» будет восприниматься как «напугал кота сосисками».
Зачем же вы старое поминаете все время-то? Я ж говорю, в третий, кажется уже, раз — произошел очевидный разворот. В политике и логике поведения. Как раз майкрософт времен втюхивания висты — самая что ни на есть майкрософт времен балмера с «линукс — это рак» и вот этим всем — усиралась бы сейчас до последнего безуспешно пытаясь завести облако без линукса и с уникальными предложениями, заливая туда миллиарды долларов, а вот майкрософт Наделлы спокойно работает над самым обычным облаком для зарабатывания денег со всех (показательный пример тут, кстати, партнерство с сони энтертеймент для того чтобы их нетворкинг приободрить) и доля этого облака всего-то в два раза меньше чем у амазона, а гуглу и вовсе их еще догонять и догонять (как и с gSuit'ом).

Исчезнет windows — будут продавать линукс, иксбоксы с игрулями, железяки какие-никакие по энтерпрайзам и еще немножко онлайновых продуктов. Все у них будет хорошо, не переживайте так.
Зачем же вы старое поминаете все время-то?
Потому что я вижу у микрософта много слов, но мало дела. И постоянные попытки выдать нужду за добродетель.

усиралась бы сейчас до последнего безуспешно пытаясь завести облако без линукса
А они так и начинали. Просто не смогли…

Шутка сказать, по эквивалентным попугаям цена окошечного инстанса вдвое выше, фактическая «мощь» (благодаря дефендеру и прочим неотключаемым идиотизмам) ниже заявленной эдак на 20% по CPU и совсем ужас по диску, по функционалу — печаль-тоска.

Ну вот пример из свеженького. Беру очередной инстанс под линуксом, он а) сразу готов к работе, б) свеженький, и в) все репозитории настроены, ставь нужный софт одной (длинной, но) командой.

Рядом беру свежий инстанс окошек, и начинаааееетсяяя…

1. Первых минут 20 — это все тормозит, стоит колом, и тратит мои деньги. Потому что апдейтер вдруг обнаружил, что его давно не запускали (я же беру готовый образ, его что — нельзя держать up-to-date???) и жутко занят, а дефендер мужественно проверяет скачанное апдейтером (левый караман не доверяет правому?), ну и свое докачивает.

2. Почему я должен создавать себе юзера, отличного от «администратор», руками? Каменный век…

3. Наконец попив кофе — я захожу и… правильно, чистенький. Вперед, выбирай роль серверу и доставляй компоненты. Почему я не могу это сделать на этапе выбора виртуалки? «Мне не нужно чтобы быстрее» (с) прапорщик Советской Армии…

4. Как в далеком 1995 году, первое что я делаю — так это ставлю нормальный браузер… ну, потому что «режим расширенной защиты» ослика включен по умолчанию и требует та-дам! рестарт, чтобы его убрать. Ну или можно создать custom trust level, и на него переключиться, это больше кликов, но зато без такой чуши.

И в тот момент, когда линуксовая подложка уже крутит мои микросервисы в контейнерах с оркестрациями, а графана бодро показывает состояние этого ужастика, в окошках заканчивается установка дотнет фреймворка…

:-)

И это я оставил за скобками тот чудесный факт, что окошки еще и диск требуют в разы больше, и очень чувствительны к его скорости. Как будто я не парочку рест-апи сервисов запускаю, а участвую в майнинге биткойна, хехе.

Ну, с такими-то результатами — неудивительно что 90% облака это богомерзкий Linux :-)

Причем ладно бы что-то менялось, а то этот маразм одинаков во всех Windows Server, начиная аж с 2008 года, и только становится хуже…

«Да ну его нафиг, дотнет кора прекрасно запускается в докере, ставь линукс с поцгресом!!!» и вот оно, «для всех одинаково».

Меня же интересует — как получить Windows хотя бы сравнимый с опенсорцем, хехе. Но Наделле это неинтересно. Раз уж вынужден пользовать «окна» — терпи и матерись!!!

:-)
Вы мне таки зачем рассказываете какой windows плохой? Меня это не очень интересует, я просто указал на то, что по той или иной причине майкрософт перестала с ним носиться как с выеденным яйцом, неслабо диверсифицировалсь и отлично себя чувствует в современных реалиях. И это прекрасно.

Windows сравнимый с опенсорсом получить не выйдет, как и опенсорс сравнимый с виндоус. Цели, задачи, фломастеры, объективные и субъективные плюсы-минусы вот это все.
Я не про плохой/хороший рассказываю, а про то что у микрософта слов много, а дела мало :-)

И эти сказки про «зелен виноград» «отлично диверсифицировалась» — они именно про застой и отсутствие прогресса.

Вы почему-то ставите телегу впереди лошади — ой как хорошо что паразитизм на патентах FAT опенсорц приносит деньги кучке владельцев акций микрософта!

А пользователям уиндоусь какая с этого радость? Мы-то с вами сидим с окаменелостями эпохи динозавров!

Если бы микрософт еще пять и более тому лет назад подсуетилась, то перейти на армы было бы раз плюнуть. И к слову, это же заставило бы шевелиться и синих, а то забронзовели. Но по факту — снова сидим и ждем у моря погоды, когда же на армах появится нативный офис…

Зато микрософтовцы продолжают обещать нам давать обещания :-)
Если бы микрософт еще пять и более тому лет назад подсуетилась, то перейти на армы было бы раз плюнуть

вообще это тем более смешно, если вспомнить, что НТ4 была мультиплатформенная — я копал исходники — и сборки были под MIPS, Alpha, Itanium :-) Куда же все пропало? 0))) Видимо, это связано с двумя факторами — практически полной победой x86 архитектуры на десктопах и серверах, а еще тем, что винда все больше и больше затачивалась на костыле-архитектуру x86 и сложностью поддержки multiarch (ага, скажите обе этом линуксу, который можно уже в каждой кофеварке встретить).

НТ4 была мультиплатформенная… Куда же все пропало?
Пропала не ось, а тулчейн.

Это такой своеобразный привет от команды вижуалстудии, когда они изобрели свой сишный рантайм, отличный от системной msvcrt.dll.

Я еще помню те времена, когда вдруг общесистемную библиотеку стало нельзя использовать, зачем-то. :-)

а гуглу и вовсе их еще догонять и догонять
А это сейчас смешно было, да.

Вот например, у меня есть софт который хочет AWS S3. Что мне делать в ажуре и в гугельклауде? Ответы между прочим разные.

У гугля — «прочтите хаутушку как включить, апи тот же».

А у микрософт? Читаем MSDN:

Over the years, due to the wide adoption of Amazon S3, the S3 API has become the de facto standard interface for almost all storage providers. These S3-compatible competing service providers use the standard programming interface to help customers migrate and to enable customers to write cloud-agnostic solutions.

Customers use the S3 API to connect to many S3-compatible storage solutions such as Google storage, OpenStack, RiakCS, Cassandra, AliYun, and others. Currently, Azure Storage does not natively support the S3 API.

Ставьте софт третьих поставщиков, или переписывайте.

Да уж, с таким подходом — всем остальным еще догонять и догонять :-)
Я, знаете, сильно старый для того, чтобы спорить за цвет фломастеров и низводить сравнение платформ до одной их составляющей. И сам, конечно, сильно пользуюсь гугл клаудом и мне даже нравится (сильно он поправился за последние пару лет) и считаю что Azure проектировали хищники для чужих.

Я говорю про сухие цифры, а не про вот это все.

Вот вам картинка про market share клаудов

(32% у aws, 17% у azure, 6% у гугл клауда)

А вот про market share office suit'ов

(90% у майкрософта, 10% у гугла)

ну, я не удивлюсь, если по структуре дохода — большинство клиентов ажура — крупные корпораты или госы (или окологосы). А гуглом пользуются хипстОры, которых попросту столько не набирается именно в денежном отношении. С другой стороны — именно гуголь дает рост 64%, так что у них все впереди, но это может быть эффектом низкой базы.
Касательно офисных пакетов… ну, вообще очень интересный разговор. Учитывая, что тот же офис доминирует в оффлайне.

С просто таки отличными календарями, которые не умеют сами синхронизироваться с вашими календарями в смартфоне.

С просто таки потрясающими клиентами, которые почту умеют забирать только с серверов микрософта.

И как же это у меня Outlook работает с G Suite-аккаунтами и mail.ru?
Каким образом у меня календарь рабочий из Office365 спокойно синхронизируется с андроид-смартфоном (и с macOS)?
И как же это у меня Outlook работает с G Suite-аккаунтами и mail.ru?
Элементарно — вы не снимаете почту в режиме 24/7. Иначе бы знали, как именно мобильный Аутглюк забирает почту с гугла, хехе. Через сервера микрософта, внезапно.

Ну, просто потому, что «мейлру» не будет вам присылать пуш-нотификации в ваш айфон, ведь ему об этом не сообщили.

А светить все личные и рабочие адреса одному (не самому надежному, скажем прямо) провайдеру — оно такое. Так что мой внутренний параноик заставил меня поставить опенсорцный K-12 для случаев «я не в офисе».

А то, что десктопный Аутглюк (не тот который в браузере!) пока еще умеет в IMAP4 — это недоработка :-)
Офис 365 с гуглдоками вообще несравнимы по возможностям — в 365 функций по оформлению документов намного больше, хоть и меньше чем в десктопном МО.
2010: apple представили ipad, положив начало «планшетным компьютерам»
2012: MS представили свой ответ ipad'у — планшет microsoft surface. Провал

2015 год — apple начинает копировать Surface Pro. какой-то странный провал.

2010: MS представили windows phone как ответ айфону. Провал, который добил nokia.

2013 год — apple копирует плоский дизайн.
1019 год — аппл копирует тёмную тему
2020 год — apple копирует живые плитки.

2020: apple объявила о переходе на ARM (---мы здесь---)

Windows 10 Arm существует уже 3 года.

2015 год — МС доделала универсальную платформу разработки для различных формфакторов под виндой.
2018? год — аппл анонсирует способ переноса ios приложениё на мак
2015 год — apple начинает копировать Surface Pro. какой-то странный провал.
у вас очень странное понимание «копирования». Если вы когда-то пользовались планшетным гибридом на win 8 вы бы знали, насколько убогой была поддержка экранной клавиатуры — пользоваться этим чудом без подключенной физической было невозможно. Стилус тоже — MS добавить добавили, а что с ним делать не придумали. Так же как и samsung с их линейкой note.
2013 год — apple копирует плоский дизайн.
1019 год — аппл копирует тёмную тему
2020 год — apple копирует живые плитки.
я бы назвал дизайн windows phone не «плоским», а «примитивным». «Плоский» появился скорее в андроиде. Впрочем, новшеством не являлся нигде.
System-wide темную тему первыми ввели именно apple. Черный цвет оформления элементов интерфейса не является «темной темой» если приложения его не подхватывают.
«Живые плитки» сплагиачены из виджетов андроида, которые сплагиачены с виджетов в macos.
Windows 10 Arm существует уже 3 года.
и не умеет запускать x64 прложениия, т.е. переход с win 10 на её arm версию займет лет 5
Стилус тоже — MS добавить добавили, а что с ним делать не придумали.
Они так придумали, что даже сами не стали этим пользоваться. Предполагалось, что будет отдельный класс приложений для ввода световым пером, для чего в WinAPI накрутили всякого разного… но вот индустрия не оценила.

samsung с их линейкой note.
Тут кстати намного лучше. Просто модный аксессуар для «порисовать палкой по экрану», а не «новый революционный способ ввода».

дизайн windows phone не «плоским», а «примитивным»
… и это даже не учитывая тот факт, что важность дизайна сильно переоценена.

И да, дизайн окошек в динамике — это что-то с чем-то.

Когда компы были большими, и еле тянули простейшую графику — микрософт продвигала свой 3d look, с анимациями и темами (Win95). Когда же компы стали мощными, и стало можно наворачивать эффекты любой сложности — скатились в примитивизм.

и не умеет запускать x64 приложения
… поэтому микрософт предлагает в 2020 году использовать 32битный офис в эмуляторе :-)

Что отдельно неимоверно доставляет, да… пересобрать под AArch64 — совсем никогда такого не слышали ©
System-wide темную тему первыми ввели именно apple.
вы не правы, она изначально появилась в виндофонах, именно system-wide и потом переехала в windows 10 в 2015 году.

Если вы когда-то пользовались планшетным гибридом на win 8 вы бы знали, насколько убогой была поддержка экранной клавиатуры
пробовал. Клавиатура была уж точно не хуже, чем у ipad в то же самое время. Но самым удачным Surface оказался Surface Pro 3, именно после его успеха эппл задумала Pro версию iPad и развернулась в сторону 2-в-1.

Стилус тоже — MS добавить добавили, а что с ним делать не придумали.
ровно то же самое, что и в iPad. Хотя я не знаю, в ipad уже можно в любое поле текстовый ввод делать?
System-wide темную тему первыми ввели именно apple
вы не правы, она изначально появилась в виндофонах
(смеется) а видели ли вы Windows 3.1?

Windows 3.1 dark theme

Темные темы 20-30 лет назад были по-моему у всех, считалось хорошим тоном — поддерживать темную тему повсеместно. Порносайты имеют черный фон именно с тех времен, когда все и так было черным…

А у вас — прямо таки дискуссия, кто у кого скопировал :-)
Хочу вас огорчить, не все порносайты имеют по дефолту чёрный фон…
Так и 30 лет назад тоже были не все темными по умолчанию… но многие :-) и почти все — переключались в темную нативную тему.

Даже такие

CDE

Или вот еще

IBM OS/2

Говорят, существовали версии маков без темной темы — но я такого не застал :-)
У вас на скриншоте не тёмная тема, а режим высокой контрастности. В 10ке есть ещё и режимы компенсации дальтонизма, к примеру.
Что поделать, те времена давно прошли, беру те картинки что хотя бы иллюстрируют тезис о том, что общесистемные цветовые палитры (темы) — это не изобретение последних пары лет :-)

Windows 95
вы не правы, она изначально появилась в виндофонах, именно system-wide и потом переехала в windows 10 в 2015 году.
«system-wide» значит «не только элементы оформления ОС, но и API для приложений»
пробовал. Клавиатура была уж точно не хуже, чем у ipad в то же самое время
она как минимум имела привычку всплывать поверх поля, в которое вводился текст, так что нет, насчет «не хуже» не соглашусь.
ровно то же самое, что и в iPad
под ipad уже было достаточно много графических редакторов, эппл лишь переосмыслили 3rdparty стилусы под собственное устройство.
Хотя я не знаю, в ipad уже можно в любое поле текстовый ввод делать?
в новой операционке обещали добавить
«system-wide» значит «не только элементы оформления ОС, но и API для приложений»
Абсолютно с вами согласен. До сих пор не хватает той магии, когда меняешь акцентный цвет в системе, его подхватывают все (ну почти) приложения и у тебя создаётся впечатление нового телефона.

под ipad уже было достаточно много графических редакторов, эппл лишь переосмыслили 3rdparty стилусы под собственное устройство.
И для винды есть.

в бете новой операционки можно.
Молодцы, продолжают копировать хорошие решения у других.
Молодцы, продолжают копировать хорошие решения у других.
и у кого они это скопировали? Интересует именно возможность рукописного ввода текста в «любое текстовое поле» а не в специально отведенном квадратике всплывающей клавиатуры
Вы правы, эппл никогда ни у кого ничего не копировала

That great poets imitate and improve, whereas small ones steal and spoil.
UFO just landed and posted this here
Нажать пальцем до появления лупы и перетащить курсор уже не работает?
UFO just landed and posted this here
не помню точно, но, вроде, если зажать пробел на клавиатуре (а может и вообще достаточно подержать палец в районе клавиатуры), то появится возможность таскать курсор куда нужно. На iPhone-ах работает только через пробел в пост-3D-touch-экранах, на 3D-Touch можно просто сильно нажать на клавиатуру.
Очень жизненно. По той же причине страдаю. Несколько раз как-то получалось курсор в середину слова сдвинуть, но я так и не понял как это работает.
долгое нажатие или force touch (в зависимости от модели) на клавиатуре, дальше движения пальца по клавиатуре двигают курсор. На самом деле так даже удобнее чем пытаться попасть пальцем между буквами в другой части экрана, тем более если текст еще и надо отскроллить
если бы win 8 RT был тем, что от него ожидали — windows 7 с адаптированным под тач интерфейсом, последовало бы. На деле же это была планшетная версия провальной win phone.

Вы какие-то удивительные вещи рассказываете.
Вот были Lenovo Yoga 11 (ARM) и Yoga 11s (Intel x86).
Одинаковый форм-фактор, одинаковый плиточный интерфейс, одинаковые MS Word и MS Excel.
Только на Yoga 11s можно было поставить с любой флешки или по сети любой софт, хоть GNU, хоть купленный (естественно), а на Yoga 11 только из «магазина» бесполезные приблуды. Т.е. нужно было его как-то рутовать, чтобы какой-то OpenSource софт запустить (на Windows CE было колоссальное количество софта портировано).
Т.е. провал был в том, что человек покупает вроде бы «взрослый» ноутбук, а получает девайс менее функциональный, чем windows ce.
смешно читать прогноз от лузера, который за свою жизнь ни разу не угадал ;)
У десктоп на ARM есть еще козырь — нативное исполнение мобильных приложений
UFO just landed and posted this here
На презентации пару иосных игр из магазина они запустили. Да и проблем с API\ABI я здесь не вижу, ведь под капотом все эппловские операционки сидят на ядре Darwin и используют те же самые базовые фреймворки (типа Foundation и прочих). Совместимость на уровне набора инструкций позволяет грубо говоря скопипастить фреймворк прямиком с айфона в макось.
UFO just landed and posted this here
Как тогда хромбуки запускают андроид-приложения? Ну да — контейнер там но и что?
UFO just landed and posted this here
У линуксов (обычных) есть Anbox anbox.io, ну да — Google Play Services нет (официально). Прямо сказано в документации что это НЕ эмулятор
What makes Anbox different from other projects like Shashlik or Genimobile?
Projects like Shashlik or Genimobile use an emulator to run the Android environment. The emulator creates an entire emulated system which has its own kernel etc whereas Anbox runs the Android system under the same kernel as the host operating system does. No emulation layer like QEMU is necessary. Everything runs directly on the hardware. This approach also allows a much better integration with the host operating system.

У них же — про то как у Chromebook'ов
Is there any relationship to Google's effort to bring Android applications to Chrome OS?
Google is implementing support in Chrome OS for Android applications in a very similar way as we do. Both approaches are quite similar as both put Android into a lightweight system container based on Linux namespaces and keep a small bridge to allow communication with the host system.

In contrast to Google's implementation, Anbox doesn't allow any direct access to hardware devices. For example it bridges Open GL ES to the host. In Chrome OS the container gets access to the host kernel side of the graphic subsystem to allow fast rendering. In our case, we decided against this to keep an easy way to port Anbox to different platforms. All a host operating system needs to provide is a Open GL / Open GL ES compatible driver to provide proper integration with the graphics subsystem. Other hardware devices like WiFi or Bluetooth will be abstracted in the future via a dedicated APIs between the container and the host.
Я как разработчик сегодня уже все свои iOS апы перевел для работы на новых Arm маках… как? просто тыкнул галочку в кабинете (разрешить запуск приложения на новых Arm маках). Это было сложно (нет).
Большинство айпадных приложений будут отвратительно выглядеть и работать на десктопе ¯\_(ツ)_/¯

Хорошо, если ваше не такое
Тоесть вы просто поставили галочку «Да пускай на эмуляции запускают»? Или это всёже вызывает перекомпиляцию под десктоп с его методами ввода?
Нет эта галочка разрешает запускать скомпилированное под iOS (arm64) приложение на новых Apple Silicon без прекомпиляций или других фокусов. Собственно зачем там эмуляция или перекомпиляция если везде arm64?
К примеру у вас в интерфейсе для телефона/планшета всё заточено под работу пальцами руки. К примеру у вас под какие-то действия стоит поворот экрана. А теперь я беру и запускаю ваше приложение на DTK. Вот повернуло ваше приложение экран, а мне что делать, если у меня монитор не умеет поворачиваться? Вот вы заточили интерфейс под всякие жесты пальцем/двумя пальцами/тремя пальцами, как мне быть с этим, если у меня обычная яблочная мышь?
Добавляет ли эта галочка какую-либо эмуляцию таких случаев? При установке этой галочки проверяется ли приложение на присутствие каких-либо действий, которые без тач-скрина сделать проблематично? Или всё это сугубо на вашей совести?
Программисту вообще ничего делать не нужно, более того само приложение запущенное на DTK даже не знает что оно запущено в какой то иной обстановке (думает что запущено на айпаде). Никаких специальных вещей для мультитача тоже разработчик не делает, все это на уровне фреймворков давным давно зашито. iOS сама по себе цельная и довольно закрытая по архитектуре, влезть куда то куда нельзя просто не выйдет. Программисту вообще мало что можно изменить и сделать каким то кастомно не юзабельным, об этом Apple позаботилась… НО! Именно по этому все приложения в AppStore стандартизированы, у всех из них есть возможность для работы с людьми с ограниченными возможностями (слепые слышат названия элементов, заголовоков, кнопок картинок и т.д.). Т.е. эти все тыкалки и таскалки это уже целые готовые комплекты разнообразных кейсов под капотом.
Повернуть экран приложение не может, его поворачивает система, программист максимум может заблокировать поворот экрана или разрешить лишь какие то определенные позиции, но опять же. Для айпада даже это сделать нельзя, т.е. у вас никак не получится так что приложение будет повернутым, на экране монитора в DTK или будущих Arm маках.
Как это будет работать можно посмотреть на примере Big Sur т.к. в нем уже многие приложения уже запускаются в таком режиме. Или просто подрубить мышку к айпаду по USB, можно все пощупать и посмотреть.
Но самое классное что ничего перекомпилировать не надо, на маках будут запускаться iPad версии приложений.
т.е. Я правильно понимаю, что я не могу для iPad, к примеру, сделать авиасимулятор, который будет поворачивать экран из портретного в альбомный режим?
На айпаде не выйдет заблокировать какой то один режим, на айфоне можно. А само приложение экран повернуть не может.
Они выпилили эту возможность? раньше можно было.
Что то я не слышал ни разу что можно самому инициировать событие поворота экрана… Если расскажете будет интересно.
Не, я про блокировку. В настройках проекта В info.plist (слишком много работал с ios через xamarin) можно же ограничить ориентацию и на iPhone и на iPad. На айпад просто не рекомендуют этого делать.

Можно ли повернуть в лендскейп приложение — на iPhone я точно такое делал, за айпад не помню.

Вот что пишут про ios13 code.likeagirl.io/xcode-how-to-force-a-view-into-landscape-mode-in-ios-13-15340978e3f4

надо не поворот айпада инециировать, а интерфес приложения поворачивать. т.е. DeviceOrientation отдельно InterfaceOrientation отдельно
Я не знаю на данный момент способов как это сделать… Раньше можно было в настройках проекта галочки не ставить (сейчас такое приложение при заливке автоматом бот завернет, и скажет что для айпада должны быть включены ВСЕ ориентации). Возможно прямо в коде можно попробовать нахимичить какие то хаки пока их не запретила Apple? Буду говорить за себя, в наше время верстка для iOS дает безграничные возможности, смысла какие то костыли изобретать или хаки нет.
Оно работает так. Юзер повернул айпад, система повернула анимационно экран, внутри приложения сработали дефолтные методы которые перерендерят экран с другими размерами (это тоже делается все автоматом). Т.е. программисту вообще ничего дорабатывать для поддержки поворотов не нужно, все привязки элементов и т.д. как на резиновом сайте перестроятся.
Ну а если у меня приложение в портретном режиме работать нормально не может в силу того, что его интерфейс вообще ну никак под него не рассчитан и всякие переделки выльются в полный пэ, т.е. если я вообще не хочу, чтобы моё приложение работало в портретном режиме, в обоих методах рисовать альбомный?
А как они могут вылиться в полный пэ? Что такое может быть что бы стало кататрофой? Скажем если сравнить экран iPad mini и экран iPad Pro 12.9 на обоих девайсах софт выглядит отлично, потому что весь интерфейс приложений адаптивный. A если говорить про айфоны, то есть проблемы с SE старым, на нем совсем экранчик крохотный и по вертикали иногда не хватало места. Но это прям отдельный кейси опять же решаемый! (сейчас модель эта слава богу ушла...) А с айпадами, вообще никаких проблем.
Да элементарно все, как бы. Или вы поставите галочку «не давать запускать мое приложение на Маках» и потеряете часть аудитории, или допилите для того, чтобы, например, на маках всегда был альбомный режим (хотя именно этот кейс, скорее всего, по дефолту так и будет работать и без вмешательств вообще).
Весь смысл в том, что для обеспечения совместимости можно вообще ничего не делать — ни пересобирать, ни переписывать. Архитектура и там и там одна, Apple позаботится, чтобы были все нужные iOSные библиотеки. Бери и запускай.
Повернуть экран приложение не может

Угу, то то у меня simply piano даже при заблокированном повороте экрана на портретный все равно в ландшафтном открывается.
А на счет свайпов, все свайпы спокойно доступны на всех Интел маках уже много лет, если подрублена Magic mouse или это макбук с трекпадом, или у вас подключен Magic trackpad. Например свайп четырьмя пальцами перелистывает экраны тремя пальцами можно таскать окна двумя скроллить и т.д. Т.е. свайпы это вообще НЕ что то уникальное лишь для айфона или айпада, свайпы на всей технике эпл доступны уже много лет.
Про свайпы не знал, получается весьма удобно.
Тут многие высказались что «вот, прогнозы, интел всего 10% и так далее».
Оно вроде все ничего, но Apple явно объединяет экосистему вместе с этим переходом и вот это уже совсем другая история с гораздо более обширными последствиями.
Доля компьютеров, в привычном их понимании, сокращается и вытесняется мобильными устройствами, а десктопы по продажам сильно проигрывают ноутбукам.
На 2019 год разница по продажам десктопов против лэптопов почти 50% в пользу последних (88.4 миллиона против 166 миллионов).
По мобильным платформам у Apple достаточно большой кусок — iOS держит чуть меньше четверти глобального рынка смартфонов и больше половины рынка планшетов (данные отсюда).
Больше половины устройств по трафику в мире — это смартфоны.
Да, у Эппл только порядка 10% рынка лэптопов, но у нее есть еще четверть рынка мобильных устройств и через это объединение они несут фактически единую программно-аппаратную платформу на гигантский объем устройств, который на данный момент составляет немного больше 10% от количества всех устройств впринципе.
Такой доли устройств на одной программно-аппаратной платформе в руках одной компании в новейшей истории никогда небыло, по крайней мере я подобного не знаю и данных об этом не находил (если такое было — напишите пожалуйста).
Apple известны сильной экосистемой, которая действительно хорошо работает между своими устройствами. Если добавить в это более долгую жизнь ноутбуков (а это то, на что так давила на презентациях Microsoft со своими Surface на ARM), переносимость программ, привлекательную для программистов и очень четкую, хоть и не такую привлекательную, платформу для продажи софта и сервисов то в итоге получается именно то, к чему шли многие компании и в первую очередь Microsoft, но так и не дошли — единая действительно нормально работающиая платформа для всего и размытие границ между типами устройств.
Если присыпать это тем, что ноуты на новой архитектуре будут обладать лучшими пользовательскими свойствами в плане автономности и достаточной мощностью (что уже не вопрос, т.к. iPad Pro с точки зрения вычислительной мощности очень и очень хорошие машинки, более чем закрывающие потребности рядового пользователя и им не хватает по сути только полноценной ОС и программ с десктопа с привычным интерфейсом, но это как раз то, что решается прямо сейчас) — то это приведет еще и к расширению доли лэптопов, а сама платформа рискует стать еще и самой удобной и, главное, выгодной для разработки и продажи софта из существующих, которая стянет на себя еще большее количество разработчиков.
И вот тут все станет совсем интересно.
Доля рынка Apple относительно велика. Но она всегда будет в абсолютном меньшинстве хотя бы из-за своей ценовой политики.
Тут некоторые товарищи утверждают, что цена на яблоки велика лишь для относительно бедных стран вроде России, а в богатых все ОК. Но взгляните беспристрастно. Устройства на Android прекрасно продаются по всему миру, а не только в нищей Африке. И всегда будут продаваться.
Не грозит ничего «Винтелу», кроме небольшого падения объемов продаж.
Если смотреть по совокупности, то его доля как платформы «для всего» будет близка к 100%, так как ничего подобного никто никогда успешно не делал, то есть сейчас даже на горизонте нет ничего подобного, Microsoft в этом плане весьма сильно отстает, хотя и всеми силами пытается.
То есть по отдельности да, они в меньшенстве, но в своей нише универсальных пользовательских платформ они, судя по всему, будут лидировать.
Платформа «для всего» за конские деньги нужна весьма ограниченному количеству людей. А дешево Apple жаба задушит. Поэтому судьба всему этому быть нишевым продуктом.
Платформа «для всего» за конские деньги

Со стороны пользователя это не такие уж и конские деньги, посмотрите на это с точки зрения рынка того же США.
iPhone SE + iPad Pro обойдутся примерно в 90 долларов в месяц в США. MacBook Air добавит еще около 90 долларов. Средний доход в час — чуть больше 24 долларов. То есть стоимость владения подобным комплектом в месяц меньше одного рабочего дня, даже если взять все три устройства. И оно, скорее всего, будет «просто работать», как это обычно бывает у Apple.
Фоточки будут сниматься, браузер открываться, FaceTime звонить, игрушки из магазина играться, AirPods подключаться и т.д.
И главное — не надо будет напрягать мозг и учить каждую платформу по-отдельности, что на компьютере одна программа, на планшете другая, на телефоне третяя для одной и той же задачи, приложения везде будут одни и те же. С точки зрения обычного пользователя — идеальная ситуация.
В штучном выражении США — это весьма небольшой рынок по сравнению с Китаем, Индией и прочей ЮВА и Африкой.
Даже малообразованное население нищих стран очевидно вполне справляется с другими платформами. И фоточки у них снимаются, и браузер открывается, игрушки играются и т.п.
Поэтому нет, судьба Apple быть нишевым продуктом для богатых буратин.
Все оперативно сделают трансляторы-виртуализаторы, будут в процессе развертывания компилировать код под целевую платформу. На этом и закончится все.
врядли кто-то будет делать аппаратную модульную платформу, соединяющуюю достоинства всех — x86\x64 & ARM & GPU. Что-то вроде «мини cloud с разным железом и своим инстансом на каждом железе» в ноутбуке и коммуникациями между ними «по оптике».
Microsoft выпускает Виндоуз для ARM.
Предсказатели: Это конец эры Винтел

ARM идет на сервера.
Предсказатели: Это конец эры x86 на серверах

Эппл переводит лептопы на АРМ
Предсказатели: Это конец эры Винтел
Вы ещё про итаник забыли, когда сам интел делал конец эры винтел

А ведь еще про DEC Alpha писали "ну вот щас интелу-то и станет плохо". И вообще, Intel и Microsoft ещё со времен LIM EMS скорый конец по любому поводу предрекают.

… В конечном итоге, после перехода Mac на ARM есть шанс получить наконец-то рабочий вариант Samsung DEX от Apple.

Идея хороша с точки зрения попробовать полноценную MAC OS для всех пользователей хотя бы iPAD PRO а может и топовых iPhone. А это может подстегнуть продажи ПК. Просто воткнул кабель и работаешь с монитором и клавиатурой от например той-же клавиатурой от iPAD PRO который может стать билетом в мир MAC OS.
То есть, некая компания, с долей 10% ПК всего мира, заставит, как написано в статье Майкрософт оптимизировать Виндовс на ARM? И заставит Интел перейти на ARM? Вполне может быть, вот только сколько десятков лет займёт этот переход?
На минуточку — x86 это не только Майкрософт и Интел, это и АМД, и Нвидиа, и просто тонны софта и разработчиков. Но ещё больше всего этого в WIntel-платформе пользователей. Я ближайшие лет пять не побегу за Виндой на АРМе. Сколько пользователей так сделает? Я думаю не меньше 80%.
Так что, всё это трёп. Эппл менят процессоры как перчатки и плохо от этого только их пользователям.
То есть, некая компания, с долей 10% ПК всего мира, заставит, как написано в статье Майкрософт оптимизировать Виндовс на ARM?

Ну, на самом деле Microsoft над этим работает уже почти десятилетие, а может даже и побольше. Появление еще одной платформы, тем более весьма сильной, вполне может ее подстегнуть.
x86 это не только Майкрософт и Интел, это и АМД, и Нвидиа,

Microsoft — это не только x86, Windows за свою историю поддерживала множество архитектур, а ARM поддерживает и сейчас.
Nvidia — это не х86, а спциализированные ускорители и свои ARM-based платформы — Tegra, Jetson и т.д.
AMD — это не только x86 процессоры, но специализированные ускорители, и Operton A Series на ARM. Проект старый, но какой-никакой опыт у них есть.
Но ещё больше всего этого в WIntel-платформе пользователей

По количеству пользователей Wintel давно проигрывает ARM-ам, потому что там Android/iOS. Да, не для профессионального применения, а для того, чтобы котиков в интернетах смотреть и в игрушки простенькие играть, но вопрос лишь в том, где можно больше заработать.
Я ближайшие лет пять не побегу за Виндой на АРМе. Сколько пользователей так сделает? Я думаю не меньше 80%.

Зря вы так думаете, 80% даже не рядом, ситуация уже далеко не в пользу классических компьютеров, цифры прямо об этом говорят.
На бедных рынка доля смартфонов еще выше, в Индии к примеру 67% смартфонов против 31.6% классических компьютеров. Даже в США у 51% есть планшеты, при том что обычные компьютеры есть у 74%.
Люди уже привыкли к плашнетам и мобильникам, к их софту и экосистеме. Они и будут покупать себе «большой удобный планшет с клавиатурой», где работают привычные им программы.
UFO just landed and posted this here
ARM на компьютерах и ноутбуках с Windows мы еще не скоро увидим.

Всмысле нескоро, если Samsung Galaxybook S, Lenovo Yoga 5G и Microsoft Surface Pro X уже существуют?
По производительности да, далековато от топовых текущего года. А в плане автономности далеко впереди.
Вот только с производительностью не все так просто.
Если опираться на данные PassMark (ничего более всеобъемлющего я к сожалению не нашел), самые мощные ARM камни сейчас в iPad Pro — около 19 тысяч попугаев.
Компьютер, с которого я сейчас это пишу (и которого мне хватает более чем, чтобы крутить основную систему и windows в KVM для игр), на базе старенького E5-4650L, набирает порядка 13 тысяч. Мой ноутбук (MacBook Pro 13 Early 2015), который еще вполне работает и годен для повседневных задач вроде серфинга, документов, чатиков и даже поработать набирает около 3.5 тысяч попугаев.
При этом около-топовые процессоры предыдущего поколения вроде i7-8750H или i5-9300H набирают попугаев меньше, чем iPad — 18.8 и 15.5 тысяч соответственно.
И это при том, что в массовые ноутбуки вообще ставится что-то уровня Ryzen 3700U, который набирает 10.8 тысяч. А тот самый процессор, с которым сравнивают 8cx (5-8250U) набирает 11.4 тысячи баллов, что вполне соответствует текущему неплохому ноутбуку для широкого рынка.
О каких проблемах производительности вы говорите?
Да, 8cx не супер-топ, но нет никаких оснований думать, что тот же Apple через банальное расширение теплопакета вкупе со добавлением еще нескольких ядер не сможет ускорить тот же процессор от iPad на треть, что будет соответствовать топовым мобильным процессорам на текущий момент, которые набирают в тестах 29-33 тысячи попугаев.
Да и Qualcomm на месте не стоит. И это учитывая то, что они уже находятся на уровне весьма производительных массовых процессоров от Intel и AMD.
UFO just landed and posted this here
И вот теперь вопрос: почему покупатель должен выбрать устройство на ARM?

Сейчас, на винде — никаких, побаловаться разве что. Но проблема то не в производительности.
Сейчас, на винде
Но зачем [юзеру] сейчас — Windows? Чтобы запустить нативный хром, в котором — облачный офис?

Но стоит только заменить (полноценные) окощки на (подставить по вкусу) — и ситуация кардинально меняется.

Ноут, который всегда холодный, держит уверенно зарядку на целый день, и шутя выполняет «ответил на почту», «нарисовал презентацию», или там «поправил и запушил в идее код на кровавоэнтерпрайзной жаве»?

Прекрасного качества ретина, памяти-дисков acceptable, мультитач — дайте два!!!

И сверху вишенка на торте, ваш банк-клиент (мобильный) работает на десктопе, и вам больше не нужно карячиться в браузере? Да это же мастхэв! (в сторону) да, я в курсе про anbox. Но сыроват-с...

Только один вопрос, под него свежий Linux как, встает без бубна? Если ответ положительный — то shut up and take my money! :-)

«Чтобы ваши привычки не ограничивали ваш карьерный рост, необходимо делать так, чтобы применяемые вами инструменты не ограничивали рамки решаемых вами задач» (с)
Всё это хорошо, пока юзеру на ноутбуке не надо вдруг «одну линию в автокаде/компасе поправить на объекте» или «внести изменения в разводку, чтобы отправить на завод заказ на печатные платы».
пока юзеру на ноутбуке не надо вдруг «одну линию в автокаде
Если уж Adobe сподобилась поддержать арм, то и автодеск это сделает тоже.

А для некромантов есть qemu, проэмулирует ваш померший x86 :-)

И кстати очень ваш комментарий нагляден — перейти на новое вполне можно, да старье мешает :-)
Свежие PADS/Altium/OrCAD 2020 года разлива это старьё =)?
Так ведь важен не год выпуска, а поддержка bleeding edge.

Нет, это не значит что (ваш любимый CAD) внезапно дематериализуется… но вот его подложка (Windows) со временем явно подорожает, что и простимулирует производителя портировать кодовую базу на другую подложку.

Меньше достоинств — меньше база пользователей — меньше тираж — рост цены — падение темпа внедрения инноваций — меньше достоинств…

В мире кровавого энтерпрайза, сейчас мноогие внезапно просыпаются из спячки, и в холодном поту вдруг спрашивают — «а как это 80% пользователей это мобильные клиенты?!». Ну вот так, мобильная революция. Началась в 2009м, к 2014му победила, в 2019м до динозавров начало доходить, что пол-хвоста уже кто-то съел…

Так что и до (чудесный список) тоже дойдет :-)

Тут вопрос немного в другом — на что они перейдут в итоге, вот это — интрига. Или Linux, или macOS :-)
UFO just landed and posted this here
Для современных IDE от JetBrains, например, требуется достаточно производительный процессор
Я вот пользуюсь, на дохлом ноуте. Вполне. Новый арм явно будет шустрее, это даже по планшетке видно, на примере того же браузера.

Слак даже в моем телефоне 2013 года выпуска вполне работает. По сравнению с микрософт тимсом на восьмиголовом десктопе — так еще и пошустрее будет, хе-хе.

Ну и ход конем с тоталом я вообще не понял. Он у меня в телефоне вполне себе есть. И на десктопе я его могу хоть в wine, хоть в anbox запустить. Кстати в wine и запускал, пока фар нативный не появился.

В сухом остатке — докер под вопросом и компиляции больших проектов типа того же хрома.

А фотошоп, если верить статье, уже спортировали под арм.

Так что — вполне себе опция, осталось дождаться в продаже, посмотреть на цену, и вкрячить туда Linux :-)
А они возьмут и сделают по примеру телефонов закрытый загрузчик какой нибудь аппаратно зашитой подписью защищенный. Ведь «мы заботимся о безопасности пользователей».
А они возьмут и сделают по примеру телефонов закрытый загрузчик какой нибудь

Яблоки — да, эти могут… вряд ли, достаточно много тех, кто берет макбук для окошек и линуксов. Но — могут… вкрячили же они свой T2, не постеснялись.

Но следом за ними начнут выпускать версии асусы, самсунги, и леновы, это и будет самое веселье.

Ну а когда подключатся худой панкрат с деллом — революция пройдена успешно…
UFO just landed and posted this here
Нынешнее поколение ARM по производительности не очень далеко убежало от вашего дохлого ноутбука, увы.
Это уже зависит от задач, некоторые так явно быстрее чем у интеля, а некоторые — медленнее :-)

мне нужно чтобы они работали быстро и без эмуляции, Wine и прочих вещей.
Я вот давно плюнул, лучше уж «с прочими вещами», чем непредсказуемо.

Захожу в свой аккаунт JetBrains и там тоже ARM версий не наблюдается.
Хах, так версию Java под ARM дают в вашем дистрибутиве, и этого достаточно чтобы запустить идею.

И более того — в штатной идее идет пара бинарников в комплекте, и под арм они уже (!) поставляются. Прямо сейчас. Можно заглянуть в каталог идеи и узреть там (к примеру) fsnotifier-arm. Та-дам :-)

Вы скажете — во всем этом есть какой-то такой налет ехидства… не без этого.

Но простите, как мы можем помочь микрософту, если они вместо делания нас (своих пользователей) счастливыми — постоянно нас пытаются перевоспитывать, за наши деньги?

UFO just landed and posted this here
На данный момент IDE от JetBrains не поддерживают полноценную работу на платформе ARM.
… под Windows, вы договаривайте.

А в линуксе… очевидно, да? :-)

В том, что свой «сюрфейс» мелкомягкие анально огородили — виноват вовсе не ARM…
В том, что свой «сюрфейс» мелкомягкие анально огородили — виноват вовсе не ARM…
Чем они его огородили?
1) Не отключаемый SecureBoot.
2) 32 Bit UEFI.
Эти два пункта делают запуск линукса на старых микрософтовских таблетках «любимым» развлечением линуксоидов — танцем с бубном.
Из старых майкрософтовсих таблетках ARM был только в Surface RT, но кажется в контексте запуска IDE от JetBrains на винде на арме всё это не имеет никакого смысла.
Чем они его огородили?
Cвоим Windows Store, натурально :-)

Вот например, где раздают Java под армовский сюрфейс? А нигде.

Jun 24, 2020 — Today, our team is excited to share that it has completed the first phase of porting OpenJDK for Windows 10 on Arm (AArch64).

Народ с протянутой рукой стоял с 2012 года… Но нет. Потому что «надо на жавашкрипе писать UWP».

Я же говорю — микрософт вместо того чтобы нас делать счастливыми — за наши деньги учит как правильно. :-)
Windows 10 arm не ограничена стором.
Хах, так версию Java под ARM дают в вашем дистрибутиве, и этого достаточно чтобы запустить идею.

Были у меня как то попытки запустить Android Studio (именно Android Studio а не Idea) на устройстве с Samsung DeX в режиме (уже прикрытом) Linux-on-DeX. (ну как ARM-десктоп на Linux сойдет же?) Если кратко — запускается, любые вещи которые требуют старта компиляторов — не работают. Что-то не доделали.

«компилятор» довольно обширное понятие. Компилятор тайпскрипта у меня довольно ловко ворочается в убунте, поднятой в proot tmux'а на моем андроид телефоне. И идея сносно работает там же. Но vscode лучше.
UFO just landed and posted this here
О, больной вопрос: а в троттлинг он при полной загрузке не сваливается?
UFO just landed and posted this here
Походу я ещё надолго останусь в режиме «ноутбук — это удобный RDP/VNC клиент».
Эппл как раз в 2019-м что-то нахимичили с настройками (андерволтинг и иже с ним, возможно новые термоинтерфейсы) и стало сильно лучше, можно найти разных тестов в интернете.

Например

У них не тротлил под нагрузкой из Prime95. Понятно дело не бустил, но и не тротлил.
Тогда оно не лучше аналогичных HP/Dell/Lenovo получается. Сплошная копроэкономика кругом.
Не, если вы внимательно посмотрите приложенное видео — то увидите что он не тротлит, т.е. где-то лучше старых XPS-ок, однако XPS-ки вон тоже обновили, но по новым я не смотрел ничего особо, так что не могу судить.

Другой вопрос — а почему и как оно должно быть лучше других ноутбуков с таким же набором характеристик (включая материалы, размеры и собственно спецификации) и такой же ценой? Они все примерно про одно и то же.
Новые Dell-ы на i7 вроде не тротлят, а про i9 я молчу, мне в своё время хватило «DeskNote» на базе десктопного P4 NorthWood-а (это то чЮдо, что выжирало 7.2 Ач батарейку за час и позволяло держать кофе тёплым всё это время).
А почему хотелось лучше других — ну я надеюсь в следующем году поменять ноутбук, т.к. IBM T61 немножко устарел, а я уже смирился с тем, что 4:3 экранов больше не будет. Но видать опять пришёл заяц несудьбы. Либо печка с тротлингом, либо в турбо работает пару минут, либо этого турбо и нет, либо просто кусок [censored].
Посмотрите на ноутбуки на базе новых Ryzen 4900H(S), выбор моделей, пока, сильно ограничен, однако производители подтягиваются потихоньку. Там все просто прекрасно, судя по тестам.
А это хорошая мысль, правда несколько пугает возможное наличие косяков с легаси софтом (из разряда свежего прикола с Mass Effect и новыми AMD).
он постоянно греется. Даже сейчас, когда я читаю вот прям с него этот тред.
Что смешно, у меня ровно такая же история с Win10 :-) Постоянно что-то делает и греется…

Только еще хуже — может в 2 часа ночи вдруг как засветить экраном и как зашуршать вентилятором — хотя я вообще в это время сплю :-)

И да, попытка тот же хром собрать — приводила к жесточайшему реву вентилятора и жуткому тротлингу. Я правда не пробовал подождать — само вырубится или нет, бежал на помощь :-)

А вот любовно потюненная по арчевым вики поделка финского студента на нем же — несказанно радует… но правда батарейки все равно хватает ненадолго. От розетки до розетки…

Так что я в раздумье — моя опенсусь под армы вполне себе есть, стим у меня один фиг под столом на восьмиголовом AMD и дискретной NVidia (тоже опенсусь), софта не из дистра и x86-only у меня немного, виртуалбокс гонять есть где… зато anbox будет нативный, пуркуа бы не па?
> ваш банк-клиент (мобильный) работает на десктопе, и вам больше не нужно карячиться в браузере?
Хех. Не знаю, как Эппл, а Microsoft не даёт «устанавливать» на десктоп UWP для мобильных.
Яблочные вот анонсировали. Андроидные вполне в anbox можно, тем кому opengapps хватает.

Глядишь, и мелкомягкие тоже через пару лет очухаются, и мы еще не раз потом услышим, что именно в микрософт придумали запускать на десктопе мобильные приложения, еще в 2012 году :-)
Яблочные вот анонсировали.
ну там и МС не запрещает галку поставить, чтоб мобильное UWP установиось на десктоп, xbox…
Хотелось бы, чтобы пользователь тоже мог выбирать.
Даже если пользоваться этим будет невозможно? Даже если приложение будет падать на неподдерживаемом типе устройств?
Я знаю про более-менее сложные приложения, которые были перенесены с телефона на десктоп, и в случае windows и в случае ios это не ограничивалось одной галочкой. Везде возникали какие-то траблы с зависимостями, и пришлось адаптировать интерфейс.

Тем более что в случае банковских приложений такой перенос открывает новые векторы атаки и ни один банк в здравом уме не согласится на это без реализации дополнительных средств защиты.
С того времени ситуация кардинально не поменялась.

Если вы позабыли, тогда нельзя было ставить десктопные программы даже для ARM и эмулятора х86 не было.

Lenovo Yoga 5G, например, раза в полтора медленнее Dell XPS 13 9300

Это который у них на топовом i7-1065G7? :)

автономность у этих двух устройств вполне себе сравнима — около 16 часов.

В проигрывании видео до смерти батареи? Так там ни на х86, ни на ARM проц не загружен. Мой ноут должен жить в таком режиме 20ч при меньшей батарее.
Вот 4К 60 FPS HDR видео c ютуба:

В тексте дичь написана. Человек, походу, юзает х86 хром через эмулятор и недоволен тормозами. Surprise :)
Я пользуюсь Edge для ARM64 и там всё нормально работает.
Быстрее чем 1 из моих десктопов на Steamroller 4.3GHz в том же Edge.

Если сравнить эти показатели производительности с Ryzen 4700U, то ситуация становится еще печальнее для Snapdragon 8cx.

Это процессоры совершенно разных классов, у 8cx — 7W TDP, у 4700U — 15-25W
Только есть один нюанс.
www.ixbt.com/news/2020/05/13/ryzen-7-4700u-linux-intel-amd.html
Энергопотребление 15W Ryzen может зашкаливать за 55W, в то время как Интел держит свои 15W.

Я уже приводил тут пример, что бывает если в ARM ноут поставить х86. Galaxy Book S на Интел проигрывает по эксплуатационным характеристикам, кроме доступности приложений, конечно.

И вот теперь вопрос: почему покупатель должен выбрать устройство на ARM? Какими оно обладает качествами, которые компенсируют вполне серьезные проблемы с софтом?

Для меня наличие ARM и есть самое главное качество. Кроме этого нужен не перегревающийся, шустрый ноут с качественным экраном. Нужно чтобы долго держал заряд в слипе и мгновенно просыпался. Ну вот я заряжал ноут даже не помню и когда. Коснулся клавиши. Он мгновенно зашёл в десктоп и 50% заряда на месте. Также кому-то пригодится и LTE. Мне — не нужно.

UFO just landed and posted this here
но он работает крайне медленно.

Это верно и не верно одновременно. Не нужно всё мешать в кучу.
Браузер имеет JIT-компилятор, который генерит х86, код, который нужно эмулировать на лету. Эмуляция это тормозной процесс.
А вот обычные программы, которые могут быть статически оттранслированы, не будут сильно тормозить, потому как код транслированный код сохраняется в кэш. Так что даже игрушки работают нормально под эмуляцией. Разумеется те, что GPU потянет.
Я пробовал всякое старьё типа Lost Coast — работает очень плавно.
UFO just landed and posted this here
Проблема тут в том, что не все инструкции легко транслируются в ARM (AVX2, например)

Вы удивитесь, но в популярных процессорах Интел нет никакого AVX.
Поэтому даже смысла транслировать такие инструкции нет, т.к. практически везде есть фоллбэк на SSE2.
Не знаю как Microsoft, но Apple их не транслирует.

по производительности Snapdragon 8cx уступает актуальным процессорам Intel U-серии.

Ну уступают где-то 30% в однопотоке, и что? Это небольшая разница.
Лично я не испытываю недостатка в производительности нативных приложений.
Парадоксально, но больше всего производительность платформы заботит людей, которые ей не пользуются.

стоят ощутимо дороже многих современных ноутбуков, не говоря о Chromebook, с которыми, они и конкурируют.

Потому что это красивые, качественные девайсы.
Microsoft же не может заставить кого-то делать низкомаржинальные
девайсы из говна и палок за $200. И сами они такое не делают.
Но да, дешёвые боксы для тестирования софта очень пригодились бы разработчикам, но увы.

А что Chromebook?
$999 за Google Pixelbook сильно дешевле чем $999 за Galaxy Book S?
www.google.com/chromebook/device/google-pixelbook

В итоге ARM платформы с Windows на данный момент не более чем игрушки для гиков.

Отчасти тут вина Майкрософта на самом деле, в том что бросили пользователей без нативного софта, а разработчики не имеют дешёвых тест-систем. Apple делает правильно — они сами портируют софт.
Надеюсь после увеличения популярности winget можно будет более удобно ставить софт.
Отчасти тут вина Майкрософта на самом деле, в том что бросили пользователей без нативного софта

Именно… во всей этой истории меня больше всего порадовало, что офис для мака на арме у микрософта есть, а для сюрфейса на том же арме — нет. Это вообще кто на ком стоял?
UFO just landed and posted this here
«Практически все» — не все.
2020 Lakefield
ark.intel.com/content/www/us/en/ark/products/202777/intel-core-i5-l16g7-processor-4m-cache-up-to-3-0ghz.html
2020 Pentium
www.intel.ru/content/www/ru/ru/products/processors/pentium.html
2020 Celeron
www.intel.ru/content/www/ru/ru/products/processors/celeron.html
Как вы думаете, что объединяет все эти процессоры?
Правильно, они не поддерживают AVX, ни первый, ни второй.

Ну и да, Excavator появился в 2015.
UFO just landed and posted this here
Вы знаете сколько каких процессоров продаётся?
А то вдруг получится что «практически все» это типа 30% рынка? :)
Я уже писал, что в программах есть SSEх ветка.
Транслировать SSE2 в NEON эффективнее, потому что оба набора 128-битные.

И вот тут и возникает самая главная проблема современных решений на ARM: производительность

На Apple такой проблемы нет.
Там сейчас 3 NEON юнита, т.е. вычисление 384 бит за такт.

Зачем разработчикам вкладывать кучу времени и денег в разработку продуктов под ARM

Портировать под ARM на той же ОС и с тем же компилятором не сложно. Для большинства программ вообще ничего делать не нужно. Может хватить и нескольких кликов чтобы добавить таргет.
Вообще более геморно это не х86 код под ARM завести, а ARM-омский код с интринсиками clang завести на msvc, к примеру.
UFO just landed and posted this here
Инструкции AVX и AVX2 имеют длину до 256 бит и поддерживают до 3 операндов.

Что, правда? Удивительные вещи происходят.
Ещё раз, моя цитата:
Транслировать SSE2 [а не AVX2] в NEON эффективнее, потому что оба набора 128-битные.


>> уже около 8 лет
Чисто номинально. На самом деле я несколько лет пытался купить себе ARM ноут с Windows 10 (не «2 в 1»).
Их просто нигде не было в онлайн магазинах.
UFO just landed and posted this here
Я могу и ещё повторить.
Их можно транслировать

Их не нужно транслировать.
Как правило программы использующие AVX(2) имеют фоллбэк на SSE2.
Иначе они не заработают на реальных процессорах Интел 2020г.
Вот, к примеру Ubisoft оторвались от реальности:
overclockers.ru/softnews/show/93772/assassin-s-creed-odyssey-otkazyvaetsya-rabotat-na-nekotoryh-otnositelno-staryh-processorah
Ходят по граблям.

но при этом сильно падает производительность (как минимум в 2-3 раза)

Важно то, что оттранслированный SSE2 код скорее всего будет работать быстрее чем AVX(2). Т.е. поддержка AVX(2) это хуже чем не поддержка.

Маленькая пользовательская база -> Не интересно производителям

Тем не менее ARM ноуты на Windows делали Microsoft, Samsung, Lenovo, Asus, HP.
К сожалению никто из них не выпустил дешёвый ноут из говна и палок на 7cx за $300-400 (правда непонятно, Qualcomm его вообще доделал?). Думаю это бы сильно улучшило ситуацию с доступностью софта.
По предоставленной Вами ссылке, кстати, очень любопытные результаты. Если нажать на выпадающий список и посмотреть на результаты конкретных тестов, видим следующее (я тут приведу результаты i7-10710U vs Apple iPad Pro 11.0, но можно брать и другие, соотношение там аналогично):
Intel Core i7-10710U @ 1.10GHz
Overall: 21,093
Integer Math: 36419 MOPS
Floating Point Math: 22442 MOPS
String Sort: 17.4 Million Strings/Sec.
Find Primes: 33.9 Million Primes/Sec.
Apple iPad Pro 11.0 (Cellular)
Overall: 19,635
Integer Math: 26766 MOPS
Floating Point Math: 16461 MOPS
String Sort: 15.2 Million Strings/Sec.
Find Primes: 68.9 Million Primes/Sec.
Числодробилки у Intel'а лучше процентов на 40, string sort на 15… Эмм, 68.9 в Find Primes? Каким-то образом конкретно этот тест у Apple вдвое быстрее, да чего уж там, тут даже i9-10900K не конкурент (у него 64.4).
Буду благодарен, если кто-нибудь объяснит такой перекос. Уж не являемся ли мы свидетелями пресловутой оптимизацией под бенчмарки? beeruser?
Скорее результаты i7-10710U выглядят несколько аномально (и не только у него).
Я взял несколько ближайших к ipad процессоров и там картина совершенно другая.
Вот к примеру Intel Core i5-9600K @ 3.70GHz:
Integer Math: 30252 MOPS
Floating Point Math: 25585 MOPS
String Sort: 19.1 Million Strings/Sec.
Find Primes: 44.9 Million Primes/Sec.
Судя по всему Find Primes аномально медленный на всех мобильных процессорах от Intel в сравнении с десктопными процессорами.
Ну возьмем 10900K:
Integer Math: 88376 MOPS
Floating Point Math: 55237 MOPS
String Sort: 48.3 Million Strings/Sec.
Find Primes: 64.4 Million Primes/Sec.
В разы сильнее iPad'а в первых трех тестах, и внезапно слабее на Find Primes.
Кстати, очень интересное сравнение, говорящее как раз о том, как близко ARM от Apple подобрался к Интелу: десктопный 10-ти ядерный 20-ти поточный монстр с чуть ли не обязательным водяным охлаждением и потреблением под 200 ватт против 4 (ну или 4+4, не знаю, использовались ли слабые 4 ядра) планшетного, ~7 ваттного.
Буду благодарен, если кто-нибудь объяснит такой перекос. Уж не являемся ли мы свидетелями пресловутой оптимизацией под бенчмарки? beeruser?

Passmark это какая-то адовая дичь из 90-х.
На результаты не стоит даже и смотреть.

Но если вам интересно, давайте посмотрим что они считают:
www.cpubenchmark.net/cpu_test_info.html

Integer Maths Test
The test uses large sets of an equal number of random 32-bit and 64-bit integers and adds, subtracts, multiplies and divides these numbers.

Т.е. цикл с бессмысленными вычислениями. Какой полезный тест.
Примерно как сравнивать мухоморы по количеству белых точек на шляпке.
Судя по всему, там много зависимых вычислений, за счёт чего более высокочастотный процессор выигрывает (i7-10710U разгоняется до 4.7GHz)

Compression Test
The compression test uses Crypto++ Gzip (based on the DEFLATE compression algorithm). This tests uses memory buffers totaling about 4MB per core.

Gzip уже лучше чем левые вычисления, но 4МB — влезает в L2 кэш на iPhone.

Prime Number Test
the most intensive being multiplication and modulo operations. All operations are performed using 64-bit integers. This test uses about 4MB of memory per core. The specific formula used for this test is the Sieve of Atkin with a limit of 32 million.

Умножения и модуль. Целочисленное деление у Apple быстрее чем у Интел.
также 4МB датасет влезает в L2 кэш на iPhone. Впрочем я не смотрел алгоритм, может это и не важно.

В общем бесполезная трата времени.
SPEC, GB5 измеряют время выполнения реальных, полезных программ, таких как компиляторы, компрессоры, и т.д.
PTS тоже пытается, но он жутко кривой.
производительность текущих аппаратных платформ (Snapdragon 8cx, например) ощутимо ниже чем у решений на основе Intel и AMD Ryzen.

Топовых да, но вы забываете о более слабых.
Что вы собрались делать на ультралёгком ноуте без активного охлаждения?
Для чего вам может не хватать 8сх? Для игрушек? Странная затея на таком ноуте играть в последние ААА новинки. Впрочем даже игры там работают под эмулем вполне сносно.
UFO just landed and posted this here
«Да, PC компактнее и дешевле наших PDP-11, но производительность… это не покрывает неудобств» (с) :-)
Вот это поворот!

«Apple разрешит устанавливать макось на iPad и iPhone».

appleinsider.com/articles/20/06/30/apple-reportedly-evaluating-apple-silicon-powered-macos-on-iphone

image

Что неистово увеличит install-base для ARM-based macOS, и сделает экономически привлекательным скорейшее портирование софта.
Что-то звучит неправдоподобно. Но такой шаг еще и может подтолкнуть гугл сделать в конце концов десктопный режим на андроиде человеческий. Или доскрещивать уже chrome os с андроидом. Или фуксию доделать или что там у них. Но вообще если такое произойдет — куплю свой первый собственный айфон.
В chromeos уже запускаются android приложения, но нативный браузер решили оставить вместо браузера android. А больше ничего не нужно, он специально сделан как internet-laptop, не для запуска IDE, Autocad и т.п.
Нужно телефонный собственно модуль и UI хоть как-то адаптированный под маленькие экраны. Я бы уже сейчас с удовольствием пользовался смартфоном на chrome os, но увы.
UFO just landed and posted this here
на рынке есть гораздо более мощные решения вроде видеокарт GeForce GTX 2080 и ожидаемой GTX 3080.

А что мешает использовать внешние ускорители с центральным процессором на ARM, а не на x86? Ускорителю то в целом все равно на архитектуру ЦП. Те же Jetson/Tegra вполне себе уживаются с ARM ядрами, при этом они построены на базе чипов от графических ускорителей.
UFO just landed and posted this here
К слову, некоторые производители оборудования даже для Windows 10 драйвера осилить не смогли, а мы тут с ARM.
К слову МС уже несколько лет педалирует производителей делать универсальные дрова в том числе с поддержкой АРМ. Так что более-мене популярное железо на арме работать будет.
UFO just landed and posted this here
Ну с приложениями тоже разбираются. В винде эмуляция x86 уже есть, x64 делают.

А насчёт драйверов, недавно жаловались, что nvidia сделала как раз универсальный драйвер и им пришлось панель управления в стор перенести. То же самое и интел сделали.

Возможный рост популярности ARM в десктопах, ноутбуках итп напргяает меня с точки зрения вендер-лока и поддерджки всяких линуксов.


Если это зайдет, если все бросятся в след за Apple клепать свои клоны (как обычно и происходит), то не получился ли так, что у нас будет ARM от Apple с Apple софтом, ARM от Google, ARM от Huawei, ARM от Qualcomm и так далее. Да, набор инструкций одинаков (насколько одинаков с учетом разных версий ARM?), но ведь есть еще всякие кастомные ускорители (которые будут применяться все активнее), драйвера и прочее. Поддержка со стороны софта у разных производителей мобильных устройств так себе. На x86 можно обновлять ОС и ставить практически любые ОС десятки лет, в то же время в сфере мобильных устройств с этим дела куда хуже.


Поэтому, боюсь, в итоге окажется куча частично-совместимых АРМов от разных производителей, со своими ОС, с закрытыми драйверами, с плохой поддержкой и обновлениями.

Ну, тут я вижу ряд интересных возможных путей развития, зависящих от решений главных участников рынка.

Для начала допустим, что переход Apple на ARM прошёл удачно. Потому что если не так — то нынешняя ситуация консервируется ещё лет на пять, рассматривать этот вариант не интересно.

Допустим, MicroSoft форсирует портирование Windows, MS-Office и прочих приложений (в т.ч. серверных) на ARM; приложения — как для Windows, так и для MacOS. В этом случае производители компьютеров, задрав штаны, бросаются выпускать компьютеры на ARM.
Если всё пойдёт нормально (т.е. производители не допустят совсем уж дебильных косяков), то Intel и AMD сильно теряют рынок и лишаются прибылей. Тогда им тоже придётся выпускать процессоры с системой команд ARM; и сама архитектура *86/AMD-64 оказывается под угрозой — вплоть до полного исчезновения с рынка.

Теперь допустим, MicroSoft решит проигнорировать ARM, в т.ч. в плане портирования MS-Office под MasOS для ARM. Тогда Apple станет форсировать OpenOffice/LibreOffice для MacOS. В результате вырастет доля людей, предпочитающих OpenOffice/LibreOffice — и популярность свободных офисов станет расти и среди пользователей Windows. В результате конфликта «MicroSoft отказывается портировать MS-Office» — пострадают и Apple, и MicroSoft; неясно, кто сильнее. Для MicroSoft тут главная опасность в том, что люди, перешедшие на OpenOffice/LibreOffice — намного легче уходят на Linux.

Ещё один вопрос — в том, будут ли производители компьютеров (или компонентов — мат.плат и процессоров) выпускать ARM-компьютеры, если MicroSoft решит проигнорировать ARM. Если будут — то на таких компьютерах наверняка будет Linux, Android или какая-то иная альтернативная операционка. И вот тут неизвестно, какую долю рынка настольных операционок может потерять Windows: если для Windows упадёт ниже критического уровня, то дальше может начаться лавинообразное падение популярности Windows вплоть до нуля; а вслед за уходом настольных Windows — серверные Windows тоже станут ненужными.
Правда, для MicroSoft это не станет смертельным ударом — у неё есть другие виды бизнеса, типа содержания подводных хостинговых площадок. Поэтому непонятно, будет ли MicroSoft драться за рынок настольных операционок до конца, или тихо сольёт его.

Тут надо бы учесть, что значительную долю рынка процессоров, чипсетов и мат.плат держат непосредственно Intel и AMD; а остальные крупные производители плотно связаны с ними договорами. И тут — Intel и AMD могут оказать давление на своих партнёров, требуя не выпускать компьютеры на ARM. Так что вторжение ARM на рынок настольных компьютеров следует ждать скорее со стороны фирм, которые на данный момент выпускают электронику, но не настольные компьютеры.
Apple, скорее всего, в принципе не станет выпускать компьютеры без MacOS. Отпадает.
Возможно, на рынок настольных компьютеров попытается вернуться IBM — уже с ARM. Это было бы весьма эпично.
Ну или на этот рынок пойдёт кто-то из крупных производителей роутеров, смартфонов, etc.

На данный момент компьютер на ARM с Linux (или некоторыми иными операционками) уже вполне можно собрать на RaspberryPi или аналогах. При этом производители компьютеров как-то не рвутся выпускать компьютеры на ARM.
Поэтому лично мне кажется весьма вероятным вариант: Apple успешно перейдёт на ARM; MicroSoft не станет портировать Windows на ARM, невзирая на наличие в прошлом работы в этом направлении (или станет но очень неторопливо), ограничившись портированием MS-Office на ARM под MacOS; и основная часть рынка настольных компьютеров останется примерно в нынешнем состоянии. А ARM будет продолжать медленное наступление на серверный рынок и на рынок встраиваемых систем (RaspberryPi, роутеры, смартфоны, etc; собственно, этот рынок давно уже почти полностью под ARM, а остальная часть почти полностью под MIPS).
Так что серьёзные изменения возможны лет через пять. Ну, минимум — через три года; или если совсем оптимистично — то первые подвижки можно будет заметить года через два.
UFO just landed and posted this here
На презентации уж показывали MS Office на ARM-macOS.

Вполне возможно, что MS может попросить Apple выпустить Boot Camp (поддержка винды на маках) и для ARM-Windows, что увеличивает потенциальную install-base ARM-винды.

(Хотя это пока не точно: www.theverge.com/2020/6/24/21302213/apple-silicon-mac-arm-windows-support-boot-camp )

В любом случае от перехода Apple на ARM очень выиграют ARM'овые *nix'ы — Apple очень многое контрибьютит в опенсорс и это всё рано или поздно доберётся до линуксоидов.
> Тогда Apple станет форсировать OpenOffice/LibreOffice для MacOS.

Вообще-то у Apple свой офис есть: www.apple.com/iwork

Вероятно с переходом на ARM Apple станет закручивать гайки с ограничениями системы, на железо скорее всего Linux уже будет не поставить, а на Mac OS будут жестче ограничения на запуск приложений не из AppStore, в плоть до полного запрета для простых пользователей, если они перестараются — побегут в первую очередь продвинутые пользователи и разработчики для других систем, что может стать началом конца.


Либо второй вариант, пойдут на сближение с iOS и получится гибрид, все нативные графические приложения в контейнерах но с возможностью запуска стороннего кода в своих песочницах, но опять же, не факт, что всех это устроит.

Сэр Гассе точно разбирается в технике Apple?
«Apple не покупает дорогущие чипы Xeon»
А что же они тогда покупали и продолжают покупать для Mac Pro?

Articles