Comments 11
Сколько у вас данных в базе, что нужно заморачиваться таким экзотическим кешированием? Не проще все в память положить?
Мы используем механизм из первой статьи. Он очень прост. А этот для нас избыточен. Возможно, он будет применен в аналитической подсистеме в будущем. Данная статья — развитие идеи. Она возникла по итогу комментариев к первой. Там мне пытались доказать, что это "прибитое к nginx гвоздями решение" и что оно не имеет запаса "гибкости". В какой-то степени, просто гештальт закрыл для себя.
Закешировать запросы? Ну так я, мне кажется наглядно на это дал пояснения в статье. И положив что-то в память, это никак не решит вопрос.
Уж тем более это никак не решит вопрос количества запросов. Даже если предположить, что данные находящиеся в памяти решают проблему времени доступа к ним, то что с количеством соединений?
Плз, посмотрите цели которые я ставлю в статье, и если вы видите как их достичь просто положив что-то в память, я с удовольствием отражу это в статье как альтернативное решение. Ну или вообще признаю статью несостоятельной для приведенных условий.
to Moxa
Но замеров — так и не представили...
Говорят, что очевидно, что mergesort лучше quicksort, а поддерживать отсортированный массив пар цена/количество это убого по сравнению с красночёрным деревом и уж тем более хэш таблицей. И эти утверждения даже строгие доказательства имеют.
Но на практике, c++ реализация quicksort, проходит тесты для mergesort для остальных языков на том же stepic'e. А за хранение аггрегированной буки до 10000 элементов в хэш таблице, в приличном обществе, можно и в глаз получить.
Но на практике, c++ реализация quicksort, проходит тесты для mergesort для остальных языков на том же stepic'e. А за хранение аггрегированной буки до 10000 элементов в хэш таблице, в приличном обществе, можно и в глаз получить.
Мне кажется, это как определять степень влажности по итогу сравнения объемов мокрого с теплым… в целом я не против такого механизма, если его используют другие.
Сложное решение простых проблем HighLoad WEB-сервисов