Pull to refresh

Кластеризация веб приложений на хостинге Amazon Web Services

Reading time 5 min
Views 10K
Тема высоконагруженных приложений у всех на слуху. Тоже решил вставить свои 5 копеек и поделиться опытом создания высоконагруженного приложения на инфраструктуре AWS.


Сначала, буду банален и повторю всем известные истины. Есть 2 пути масштабирования приложения:
1) вертикальное масштабирование — это увеличение производительности каждого компонента системы (процессор, оперативная память, прочие компоненты);
2) горизонтальное, когда соединяют несколько элементов воедино, а система в целом состоит из множества вычислительных узлов, решающих общую задачу, тем самым увеличивая общую надежность и доступность системы. А увеличение производительности достигается добавлением в систему дополнительных узлов.

Первый подход неплох, но есть существенный минус — ограниченность мощности одного вычислительного узла — невозможно бесконечно увеличивать частоту вычислительного ядра процессора и пропускную способность шины.
Поэтому горизонтальное масштабирование значительно выигрывает у своего вертикального брата, ведь при недостатке производительности можно добавить в систему узел (или группу узлов).

Недавно мы в очередной раз постигали все прелести горизонтального масштабирования на практике: строили высоконадежный социальный сервис для болельщиков американского футбола, выдерживающий пиковую нагрузку в 200 000 запросов в минуту. Поэтому хочу рассказать о нашем опыте создания высокомасштабируемой системы на инфраструктуре Amazon Web Services.

Обычно, архитектура веб приложения выглядит следующим образом:

Рис. 1. Типичная архитектура веб приложения

  • первым пользователя “встречает” веб-сервер, на его плечи возлагаются задачи отдачи статических ресурсов и передачи запросов приложению;
  • далее эстафета передается приложению, где протекает вся бизнес-логика и взаимодействие с базой данных.


Чаще всего узкими местами системы являются код приложения и база данных, следовательно, стоит предусмотреть возможности их распараллеливания. Мы использовали:
  • development language and core framework — java 7 and rest jersey
  • application server — tomcat 7
  • database — MongoDB (NoSQL)
  • cache system — memcached


Как это было, или через тернии к high load



Шаг первый: разделяй и властвуй


Первым делом, проведем максимальную оптимизацию кода и запросов к БД, а затем разделим аппликацию на несколько частей, по характеру выполняемых ими задач. На отдельные серверы выносим:
  • сервер приложения;
  • сервер базы данных;
  • сервер со статическими ресурсами.


Каждому участнику системы — индивидуальный подход. Поэтому выбираем сервер с наиболее подходящими под характер решаемых задач параметрами.

Сервер приложения

Приложению лучше всего подойдет сервер с наибольшим числом процессорных ядер (для обслуживания большого количества параллельно работающих пользователей). Amazon предоставляет набор Computer Optimized Instances, которые наилучшим образом подходят под данные цели.

Сервер баз данных

Что есть работа БД? — Многочисленные дисковые операции ввода-вывода (запись и чтение данных). Тут самым лучшим вариантом будет сервер с наиболее быстрым жестким диском (например ССД). И снова Амазон рад стараться и предлагает нам Storage Optimized Instances, но также подойдет и сервер из линейки General Purpose (large or xlarge), так как в дальнейшем я собираюсь их масштабировать.

Статические ресурсы

Для статических ресурсов не нужен ни мощный процессор, ни большой объем оперативной памяти, тут выбор падает на сервис статических ресурсов Amazon Simple Storage Service.

Разделив приложение, я привел его к схеме, отображенной на рис. 1.
Плюсы разделения:
  • каждый элемент системы работает на максимально приспособленной под его нужды машине;
  • появляется возможность для кластеризации БД;
  • можно отдельно тестировать разные элементы системы для поиска слабых мест.


Но само приложение по-прежнему осталось некластеризуемо, также отсутствуют сервера кэша и репликации сессий.

Шаг второй: эксперименты


Для точных экспериментов и тестирования производительности апликации нам потребуется одна или более машин с достаточно широким каналом. Действия пользователя будем эмулировать при помощи утилиты Apache Jmeter. Он хорош тем, что позволяет в качестве тестовых данных использовать реальные access логи с сервера, либо же проксировать браузер и запускать на выполнение несколько сотен параллельных потоков.

Шаг третий: балансировка нагрузки


Итак, эксперименты показали, что полученной производительности по-прежнему не хватает, а сервер с приложением был нагружен на 100% (слабым звеном оказался код разработанного приложения). Распараллеливаю. В игру вводятся 2 новых элемента:
  • балансировщик нагрузки
  • сервер сессий


Баласировка нагрузки

Как выяснилось, разработанное приложение не справляется с возложенной на него нагрузкой, следовательно, нагрузку нужно разделить между несколькими серверами.

В качестве балансировщика нагрузки можно завести еще один сервер с широким каналом и настроить специальное программное обеспечение (haproxy[], nginx[], DNS[]), но так как производится работа в инфраструктуре Амазон, то будет использован существующий там сервис ELB (Elastic Load Balancer). Он очень прост в настройке и имеет неплохие показатели производительности. Первым делом необходимо клонировать существующую машину с приложением для последующего добавления пары машин в балансировищик. Клонирование осуществляется средствами Amazon AMI. ELB автоматически осуществляет контроль за состоянием добавленных в рассылку машин, для этого в приложении следует реализовать простейший пинг ресурс, который будет отвечать 200 кодом на запросы, именно его указывают балансировщику.

Итак, после конфигурирации балансировщика на работу с уже двумя существующими серверами с приложением, настраиваю днс на работу через балансировщик.

Репликация сессий

Этот пункт можно пропускать, если в приложении не возлагается на хттп сессии дополнительной работы, или же если реализуется простой REST сервис. В противном случае, необходимо, чтобы все приложения, участвующие в балансировке, имели доступ к общему хранилищу сессий. Для хранения сессий запускается еще один large instance и настраивается на нем ram memcached хранилище. Репликация сессий возлагается на модуль к томкату: memcached-session-manager [5]

Теперь система выглядит следующим образом (сервер статики опущен для упрощения схемы):

Рис. 2. Вид системы после кластеризации приложения

Результаты кластеризации приложения:
  • повышена надежность системы. Даже после выхода из строя одного из серверов с приложением, балансировщик исключает его из рассылки, и система продолжает функционировать;
  • для увеличения производительности системы требуется просто добавить еще один вычислительный узел с приложением;
  • добавляя дополнительные узлы, мы смогли достичь пиковой производительности в 70 000 запросов в минуту.


При возрастающем числе серверов c приложением также возрастает и нагрузка на базу данных, с которой она с течением времени справиться не сможет. Необходимо снижать нагрузку на БД.

Шаг 4: оптимизация работы с БД

Итак, снова проводится нагрузочное тестирование с Apache Jmeter и на этот раз все упирается в производительность базы данных. Оптимизируя работу с бд, применяю два подхода: кэширование данных запросов и репликация базы для read запросов.

Кэширование

Основная идея кэшированя состоит в том, чтобы те данные, что запрашиваются чаще всего запоминать в RAM и при повторении запросов первым делом проверять, есть ли запрашиваемые данные в кэше, и только в случае их отсутствия производить запросы к базе данных, с последующим помещением результатов запросов в кэш. Для кэширования был развернут дополнительный сервер с настроенным memcached и достаточным объемом оперативной памяти.

Репликация БД

Специфика нашего приложения предполагает в большей степени чтение данных, нежели запись.
Поэтому кластеризуем БД на чтение. Тут помогает механизм репликации базы данных. Репликация в MongoDB устроена следующим образом: сервера БД делятся на мастеров и слейвов, при этом прямая запись данных разрешена только в мастера, с него уже и происходит синхронизация данных на слейвы, а чтение разрешено как с мастера, так и со слейвов.


Рис. 3 Кластеризация БД для чтения

Финал: 200К запросов в минуту

В результате трудов мы достигли желаемого: система обрабатывает 200 000 запросов в минуту.
Tags:
Hubs:
+5
Comments 3
Comments Comments 3

Articles