Как стать автором
Обновить
-2
0
Данил @Danil1404

Пользователь

Отправить сообщение
Если бы я не знал, как все эти звуки произносятся правильно и неправильно — вообще бы ничего не понял из статьи. Как понять, правильно ли я стал говорить после того, как воспользовался советами по произношению, или это просто еще один неправильный вариант?
Критически не хватает звуковых примеров того и другого произношения.
Что касается форм, если сделать как предлагают автор — тогда никакие менеджеры паролей не нужны в принципе — справятся и встроенные в chrome/firefox хранилища паролей + синхронизация.

Что, если я зарегистрировался в браузере, а потом хочу залогиниться в приложении?
Что, если я зарегистрировался в хроме, и хочу залогиниться в лисе?
Что, если я вообще не могу/хочу использовать сервис через браузер, а только через приложения?

И да, паранойя по безопасности менеджеров паролей и использование встроенных в браузеры менеджеров несколько не сочетаются.
Возможно, у вас заблокирован какой-нибудь скрипт или кукисы, которые для гугла служат маркерами реальных людей.
У меня есть основной браузер, в котором все лишнее заблокировано, и в нем ввести капчу гугла практически невозможно: независимо от ответов, всегда говорят, что неправильно. И есть чистый браузер, в котором нет расширений и который я запускаю раз в месяц: всегда правильно с первого раза, даже если я выбрал ошибочный вариант.
Непонятно, зачем вообще нужно что-то вводить, если реально капча основана на других вещах.
Бывает так, что по аудированию еще совсем зеленый, а прочитать текст человек может.
И по-моему, довольно часто бывает.
Мне кажется, сложность FFT можно сильно уменьшить в случае, когда предполагается представление результатов с логарифмической осью частот. Я попытался загуглить, но не смог найти по этой теме никакой информации.

Как правильно замечено в статье, на частотах порядка 10Гц и 10кГц совершенно разные минимальные требования по частотному разрешению, в то время как FFT дает одинаковое разрешение во всем диапазоне частот. И в итоге, после применения FFT большого размера, в высоких частотах происходит обычное сглаживание — т.е., мы по сути выкидываем ощутимую часть результатов.

Моя идея: уменьшить размер настолько, чтобы его было достаточно для высоких частот. А низкие — считать отдельно.
Ведь от чего зависит частотное разрешение FFT? От размера и от частоты сэмплирования. И увеличить разрешение можно как увеличение размера, так и уменьшением частоты сэмплирования.
При увеличении размера мы получаем возрастание сложности алгоритма и ухудшение временного разрешения. При уменьшении частоты сэмплирования мы получаем более узкую полосу частот для анализа — а это нам вполне подходит, если мы отдельно анализируем высокие и низкие частоты!

То есть: вместо того, чтобы, например, сделать FFT размера 4096, мы можем сделать FFT размера 1024 3 раза: один раз с изначальными данными, второй раз с вдвое меньшей частотой сэмплирования, третий раз в четверо меньшей частотой относительно начальной (или с вдвое меньшей относительно второго преобразования). В итоге получатся результаты для участков частот [0, Fs/2], [0, Fs/4], [0, Fs/8], и нам потребуется только правильно смешать их, чтобы получить примерно одинаковую точность на всех полосах. Например, от 10 до 20 Гц брать третье преобразование, от 20 до 40 брать второе, от 40 до 80 брать первое.
Эффективное разрешение по частоте получается «size * (2 ^ iters_count)», т.к. каждая итерация увеличивает точность в два раза для всех частот вплоть до уменьшенной вдвое (относительно предыдущей итерации) частоты Найквиста.

Этот алгоритм имеет целых два плюса:
1. Временное разрешение для высоких частот улучшается.
2. Сложность падает, т.к. для того же разрешения в низких частотах достаточно FFT размера в 2^iters_count меньше, чем при обычном преобразовании. При этом сложностью за счет нескольких преобразований можно пренебречь, т.к. сумма геометрической прогрессии 1/2^n, т.е. сложность от количества преобразований увеличивается не более, чем в два раза (ровно в 2 при бесконечном числе итераций).
Из минусов — необходимо хранить сигнал iters_count раз, что увеличивает потребление памяти.
Для получения сигнала с меньшей частотой сэмплирования достаточно применить фильтр низких частот вида «среднее двух значений», и его можно применять на данных предыдущей итерации, так что это почти не замедляет работу.

Я попробовал у себя реализовать это, и оно вроде как хорошо работает. Правда, не совсем очевидно, как нужно смешивать результаты нескольких итераций для полосы частот.

P.S. Никто не подскажет, какая нормировка результата FFT правильная?
Если я делаю преобразование для белого шума, то для разных размеров сумма и максимум магнитуды должны оставаться примерно одинаковыми?
А для преобразования чистого синуса — сумма и максимум магнитуды должны оставаться одинаковыми?
Так ведь это не к является фирменной фишкой ASUS. Если брать бюджетки, то наверное везде так с обновлениями.
Обновления на новые модели прилетают регулярно, по крайней мере на средние и топовые модели, и содержат в себе не только фиксы безопасности. И на 4pda есть люди, которые утверждают, что на прошлые модели тоже были полноценные обновления, в том числе со сменой мажорной версии. Поддержка Project Treble у ASUS есть, по крайней мере на некоторых моделях.
Говорю как владелец zenfone 5 (2018).
Я согласен, что project treble должен быть обязательным требованием при покупке, но я не вижу, чем ASUS в этом плане отличается от других производителей.
А что не так с ASUS?
Еще для Яндекс.Диск: disk@support.yandex.ru
Да. Вот тут прямо под вашим комментарием пример того, что происходит, если просто сделать поиск файлов регистрозависимым — программы не находят то, что ищут. Причем если в нескольких программах (или в нескольких местах одной) используется один и тот же файл, но к нему обращаются про разным именам, то совсем все грустно.
Это, наверное, можно обойти тотальным переименованием большинства файлов в системе, с созданием для них хардлинков, сразу после определения всех мест, где возникла такая проблема. В общем, в реальности это будет невозможно починить.
Нет, не помогает.
От патча для meltdown для интела страдают все системные вызовы без исключения. Обычно это не является большой проблемой, но к системным вызовам также относятся работа с дисками и с сетью.
Пострадали все без исключения приложения, работающие с дисками, но обычно это выражается просто в увеличении загрузки процессора. В случае с nvme ssd проц и так в некоторых ситуациях был бутылочным горлышком при работе с диском, поэтому у них просела производительность. Я встречал отзывы, что скорость линейных чтения/записи упала до двух раз в бенчмарках. Про случайных доступ не знаю, но думаю, что он (т.к. ограничителем все же до сих пор выступает диск) просел не настолько много.
Именно это описано в работе о spectre, однако в meltdown.pdf на сайте meltdownattack.com, которые я воспринимаю изначальным источником информации, рассматривается случай, когда мы напрямую читаем память ядра и напрямую получаем segmentation fault. Потом мы его обрабатываем с помощью хендлеров или подавляем с помощью TSX, но мы его получаем.
Ну, вообще говоря, в оригинальной meltdown.pdf рассматривается как раз случай с исключением. Другое дело, что если вместо него использовать branch prediction miss, то будет то же самое.
Утверждается, что на АМД meltdown не работает. Работает спекулятивное исполнение кода с загрузкой ненужный данных в кэш, но не работает доступ к запрещенной памяти.
У интела ей подвержены не «многие», а все десктопные х86 за последние 20 лет, и последние атомы — все со спекулятивным исполнением кода.
Spectre работает везде, и вроде бы нигде относительно конкретно интела не рассматривается.
Я не понимаю, как мы в другом процессе можем изменить входные параметры.
В этой pdf написано, что мы контролируем используемые регистры в найденном авторами dll кодом — это вообще как?
Да и откуда нам знать, что этот другой процесс вообще исполнит избранный код? В моем представлении для этого нужно изначально воспользоваться какими-нибудь уязвимостями для удаленного исполнения кода, а в этом случае нам spectre уже и не нужен вовсе.
Частота работы и задержка никак не связаны друг с другом. Память не отдает запрошенное значение за один такт своей работы.
И да, задержки памяти, измеренные в секундах, насколько я понимаю, уже давно почти не меняются. Выросла частота в N раз — выросли и задержки в ~N раз. Соответственно, для процессора они не поменялись.
У меня тоже выделяется элемент под курсором. Только что повторил на чистой установке 1.14.1038.3, Win10.
гифка


На основном профиле, где из-за истории выпадающий список занимает 2/3 экрана, довольно сильно мешается.
А что происходит, если я логинюсь с локальными данными, отличающимися от тех, что есть в облаке?
Данные будут объединены? Вылезет окно с выбором?
1. Потому что боковая панель — это та вещь, которая то есть, то нет — достаточно всего лишь открыть ту же панель загрузок. А вкладки я хочу видеть постоянно.
2. Сейчас это панель одного окна. Когда ее допилят, в ней будут все открытые окна, как я понимаю. Зачем мне видеть все окна при переключении между вкладками, если я специально создал новое окно? Панель вкладок должна содержать вкладки текущего окна.
невозможность подгрузки изображений для эскизов сразу для всей панели — на каждый нужно ткнуть отдельно

Если обновить страницу, находясь на Start Page, то все эскизы на выбранной странице speed dial перезагрузятся.
И мне это наоборот мешает — иногда случайно нажимаю, и эскизы тех сайтов, контент главной страницы на которых обновляется, начинают выглядеть совершенно иначе, и глаз уже не ловит их сам, приходится читать подписи либо вглядываться в детали на эскизе.

Информация

В рейтинге
Не участвует
Откуда
Россия
Зарегистрирован
Активность