Pull to refresh
183
0.2
Константин Власов @CaptainFlint

Пользователь

Send message

Если есть QR, необязательно его скармливать аутентификатору, можно просто расшифровать его обычной декодилкой и вытащить секретный ключ из текста. Вот если уже скормили и страницу закрыли, то сложнее. Хотя, кажется, в gauth добавили возможность экспорта куда угодно, а не только в другой gauth. Во всяком случае, что-то подобное я с ним уже делал, но детали уже забылись.

На самом деле не противоречит. Факторы знания и владения по-прежнему остаются разными. Если кто-то подсмотрел пароль (даже пароль от базы), он будет ему бесполезен без самой базы, а для этого нужен уже физический доступ к устройству, да ещё чтобы оно было разблокировано. И наоборот, если стырили зашифрованную базу, но неизвестен пароль, она бесполезна.

Да, общий уровень безопасности немного ниже, чем когда данные хранятся на двух физически разных устройствах, но не так, чтобы катастрофически. Плюс не забываем, что нам ещё и бэкапиться надо. Если разделять данные, то придётся ещё и держать два независимых бэкап-хранилища, одно для паролей, другое для секретных ключей TOTP.

Для Microsoft надо отдельно включать TOTP-аутентификацию, и потом каждый раз, когда запрашивается 2FA, необходимо тыкать ссылочку "я не могу прямо ща задействовать MS, дай мне другой способ". А сам MS Authenticator — не TOTP, хотя бы потому, что он двунаправленный: показывает код на сайте и требует его ввести в аутентификаторе, а не наоборот.

Насчёт ухода от границ 30-секундных интервалов: где-то мне попадалась информация, что это обычно учитывают и сервер принимает не только OTP-код для текущего интервала, но и коды от предыдущего и будущего интервалов. Таким образом допускается как небольшой рассинхрон времени (когда код сгенерирован от будущего интервала), так и то самое "сгенерил на 29-й секунде и не успел вставить".

Всё упирается в исходные условия задачи. Так-то и нейросеть может быть строго детерминированной, если у неё отключён режим обучения, а все входы контролируются до единого бита. Внутри сети эти биты просто перетасовываются по строго определённым фиксированным правилам и на выходе будет стабильный результат. Часто "неопределённость" связана с отклонениями во входных данных, которые для нас незначительны, но в конкретной нейросети с определёнными коэффициентами могут неожиданно увести в совершенно иную область. Впрочем, и в традиционных алгоритмах такое случается, а зачастую даже является желаемым результатом, как в хэш-функциях. Просто в хэш-функциях мы об этом знаем и этого хотим, а в нейросетях, обычно, наоборот.

Но если начать копать особенно глубоко, то вылезают всякие интересности, связанные с невозможностью гарантировать воспроизводимость работы самого железа. Всегда могут быть сбои, вызванные как несовершенством техпроцессов и устареванием, так и внешними событиями типа космических лучей. Конечно, можно бороться с подобными проблемами, уменьшая вероятность сбоев до сколь угодно низких значений путём дублирования и перепроверки, но строгой стопроцентной гарантии идеальности добиться будет невозможно. Хотя бы из-за того, что в самой глубине мы упираемся в квантовую механику с принципиально вероятностным поведением объектов.

А при чём тут нейросеть? И вычисление числа пи, и вычматы, о которых я говорил, выполняются традиционными детерминированными алгоритмами.

Там ещё может быть тонкость в особенностях платформы. Математически формула может быть совершенно точна, но при вычислении можем упереться в какую-нибудь невозможность точного представления иррациональных чисел в памяти компьютера.

В вычматах такое сплошь и рядом, что вычисляют сходящийся ряд или интеграл, а результат улетает в какие-то дебри, так как, например, использование чисел фиксированной длины приводит к неустранимому накоплению ошибок. И это всё приходится отдельно исследовать и доказывать применимость формулы уже для реальных вычислений на физическом оборудовании.

А если в пи-ричной системе счисления, то будет куда проще.

Мне вот интересно, как проверяют правильность расчётов, если это первый раз в истории, когда эти цифры вообще были посчитаны? С чем сравнивать? Скажем, в статье упоминается, что нашли ошибку в умножении. Как именно её поймали? Как ни кручу в голове, выходит, что для этого нужно иметь другой алгоритм, который тоже вычислит те же самые цифры, но "надёжнее". Причём он должен работать ещё и на другой физической машине, с отличающимся железом, чтобы не повторялись ошибки оборудования…

Сначала у них был аргумент, что сторонние программы замусоривают меню, и поэтому они решили всё стороннее затолкать в отдельное подменю и на первый уровень никого не пущать. Потом обнаружилось, что в новое меню всё-таки можно добавляться. Ну и какой тогда был смысл всё переделывать и усложнять? Положим, добавили ограничений. Ок, но если пользователь считает меню замусоренным, он всегда может удалить лишние программы или отключить их расширения через что-то типа ShellExView. Если не удаляет, значит, эти команды ему нужны. Если Microsoft так беспокоится о бедном пользователе, то почему вместо этого не дала нормальную возможность самостоятельно перетасовать меню и/или спрятать лишние пункты? Скажем, если я установил архиватор, вполне логично, что я захочу иметь в меню одновременно и команду упаковки, и команду распаковки для быстрого к ним доступа. Начерта мне сдалось заталкивать их в подменю, усложняя вызов таких часто используемых функций? Или для TortoiseGit очень удобно, что на первом уровне сидят одновременно нужные мне три функции, а все дополнительные, которые нужны реже, вынесены в подменю (причём это всё настраивается в самой черепашке). Но Microsoft, как всегда, лучше пользователей знает, что им нужно, ага.

Мы убили все сторонние пункты контекстного меню, которые вам были нужны, так как они "замусоривали" меню. Теперь мы сами будем замусоривать это меню тем, что мы считаем нужным!

Наоборот, сейчас это практически невозможно. Если раньше обеспечение полного доступа ко всем функциям без мыши было обязательным требованием, то сейчас на него забили. Даже в самой винде и её программах уже не все элементы можно достать с клавиатуры, а уж про сторонние програмы можно и не заикаться. Единственный способ — упомянутые выше Mouse keys.

Кажется, кто-то из разработчиков хромобраузеров заявлял, что планируют оставить вторую версию манифеста, чтобы сторонние блокировщики продолжали работать. Всё-таки мюблок и иже с ними — гораздо больше, чем просто блокировщик рекламы.

Для разовых случаев, когда настройка стиля слишком муторна, им и спасаюсь. Но не самый лучший вариант получается, плюс он размывает шрифты почему-то.

Теперь в настройках браузера в разделе "Внешний вид" вы сможете назначить принудительное применение тёмной темы ко всем посещаемым веб-сайтам.

А мне очень хотелось бы принудительного применения светлой темы ко всем сайтам. А то весь интернет как будто повторяет историю BLM: куча сайтов, где только тёмные темы без выбора, куча расширений, которые принудительно меняют светлые темы на тёмные, теперь вот даже и в Вивальди встроенная "очерниловка"… А вот чтобы наоборот, для тех, сделать светлую для тех, у кого глаза от тёмных тем вытекают, — вообще нигде ни единого решения! Приходится каждый раз с юзерстилями корячиться.

Эталонной, может, и не бывает, а такие, где придётся внимательно вглядываться, чтобы отличить от оригинала — вполне бывают.

При выкладывании фоток хорошо бы делать фотку этого же объекта, но чем-нибудь проверенным, а то и вовсе профессиональным. Потому что иначе совершенно невозможно сделать выводы о качестве. Например, на моём Unihertz Atom L камера сильно снижает цветность, яркие краски совершенно не передаются, остаётся жалкое бледное подобие. Но когда посылаю друзьям-родственникам, все восхищаются, какая красота, так как не видели оригинала.

Это уже непринципиально, орган управления-то физический. Ведь статья и обсуждение не о том, что внутри (механика или чип), а о пользовательском интерфейсе (рычаги или сенсор).

В интернетах пишут, что это частая проблема таких моделей микроволновок, надо разбирать крутилку и чистить контакты. Засбоивший программный энкодер чисткой контактов не починишь, то есть дохнет именно сама крутилка как таковая. Я сам ярый сторонник физических контролов, просто отметил, что в плане потенциальных поломок они необязательно являются более надёжными. Как всегда, всё зависит от уровня раздолбайства производителя.

Физические контролы — тоже не гарантия работоспособности. Покупал себе микроволновку, специально выбрал с физической панелью управления. Через несколько месяцев начала глючить крутилка, которой таймер задаётся. Крутишь её на увеличение, а цифры прыгают то вперёд, то назад. Настроить нужное время практически нереально.

Не, надо так!

Information

Rating
1,982-nd
Location
Анталия, Анталья, Турция
Registered
Activity