Pull to refresh

Comments 31

//офтоп

Очень не нравится бездумное калькирование английских конструкций типа Barclaycard Arena. Ну не говорится так по-русски — «Открытие Арена»! Либо Арена «Открытие», либо открытие арены, что, понятное дело, совсем не о том.

«Открытие Зал». «Спартак Манеж». «Зенит Стадион».
UFO just landed and posted this here
К сожалению, этот формат наименования уже вошёл в обиход, и практически все новые стадионы называют подобным образом. Вероятно, так удобнее для рекламодателей, которые покупают наименование.
Не знаю чья это зона ответственности, но весной этого года что-то было не так с цветами на одном из экранов.
Звук во время первого полугода после запуска был ужасен. В конце прошлого сезона, со звуком снова были какие-то проблемы.
Видеотабло и систему звукоусиления ЛАНИТ на «Открытие Арене» не делал. Периодически мы действительно что-то слышим про нарекания к работе этих систем, но без конкретики. Там, кстати, причина может быть не в проектных решениях, а в банально не совсем корректной настройке оборудования. Это виднее службе эксплуатации и тому, кто делал проекты по этим системам.
Я правильно понимаю, что матчи транслируются на тв панелях по IPTV? Очень любопытно, какая получилась задержка? И с удовольствием почитал бы про ваш опыт с Tripleplay.
Спасибо!
Действительно, задержка — это интересный вопрос. Причем в большей части не из-за самой платформы IPTV, а из-за конвертации сигнала в цепочке SDI-HDMI-IPTV. Дополнительную задержку вносит сам телевизор. В некоторых случаях, когда все это складывается, речь может идти о секундах. Поэтому, например, для ТВ-панелей на комментаторских позициях IPTV в принципе не используется, только коаксиал. Однако в большинстве случаев это совершенно не принципиально, ты заметишь задержку только, если будешь одновременно смотреть на поле и в телевизор. Или если соберешь стенд и будешь специально ее мерить.
В нашем отдельном посте про Tripleplay мы подробно коснемся данного вопроса.
Задержка конкретно между чем и чем интересует?

Задержка SDI-HDMI чуть меньше чем ни фига. Основную задержку вносит компрессия перед парковкой в IP.

Я был там с референс визитом, когда Вы только запускались(2014 год кажется) на этом стадионе.
Так получилось, что мы попали под санкции и как раз рассматривали «Плохой Путь» в ИТ.

И вот, что для себя усвоил и приметил:
Сотрудники Вашей компании сидели за цисками(коммутатор, ASA) — на вопрос почему — ответили, что китайское сетевое оборудование еще настраивается(При этом уже прошло 2 мероприятия — ну как так о_0).
Персонал стадиона сказал, что на мероприятия(игры) приезжают Китайцы, так как ни кто не понимает, как оно работает.

Данный ЦОД(который весь построен от Китайского вендора) по словам персонала стадиона использовался только(!) для внутреннего офиса и для продажи билетов. Все боевое Фифа запретила ставить от неизвестного на то время китайского производителя.

Вообщем сложилось итоговое впечатление, что кроме содействия(~80%) данный производитель ни чем не мог порадовать
:(

Т.е. это проект скорее не технический, а политический. Так как ставить никем, нигде и ни на чем/ком непроверенное оборудование можно только по политическим причинам(если вы понимаете о чем я).
Ну давайте по порядку.
Сотрудники нашей компании сидели за оборудованием Cisco, которое мы специально привезли с нашего демо-стенда. Оно было нужно для того, чтобы понять на чьей стороне проблема с SIP-транком — SBC или Aastra. Когда на ASA транк заработал, Aastra была исключена из списка подозреваемых. Как только проблема на AR2240 была решена, мы увезли Cisco обратно на демо-стенд. Huawei действительно помогал настраивать оборудование (в основном, SBC), еще приезжал за референсами и пофотографироваться.

Вы правы, ЦОД действительно используется только для внутреннего офиса и для продажи билетов. Это нормально, в райдере FIFA это называется «режим наследие».
ФИФА по последней версии своей концепции из своего боевого оборудования никакие серверы на стадионах вообще не ставит — оно живет во внешних дата-центрах. Даже ЛВС для сервисов FIFA на стадионе делается отдельная, в отдельных стойках, причем Ядро — в отдельном серверном помещении.

На счет политики совершенно не соглашусь, т.к. инвестиции на проекте — частные, у меня сложилось прочное впечатление, что Заказчика совершенно не интересует политика ИТ-рынка.
транк на ASA? — научите меня как МСЭ превратить в атс.
ASA использовали Ваши сотрудники для удаленного доступа и выход в интернет, так как МСЭ от Китайских партнеров на то время были бета-версией и не работали от слова — «совсем». Коммутатор Cisco использовали, так как постоянно перенастраивали Китайские коммутаторы — пытаясь добиться их адекватной работы(Ура привет Длинк№2).

А я насчет политики полностью соглашусь, так как откат в 80% сжигает жадные мозги менеджерам на всей пищевой цепочке(Дистрибутор — Интегратор- Начальство ИТ частной компании) и как эти % поделятся как раз зависит от понимания ситуации заказчиком.

И вот Начальство ИТ в частной компании, как раз наиболее заинтересованные люди в таких схемах — их в отличии гос.заказчиков мало кто проверяет на, что они потратили деньги.

Расскажите где с 2013 года Китайский партнер серьезно развернулся? Готов с Вами вести дискуссию на эту тему, так как очень серьезно изучал их.
транк на ASA? — научите меня как МСЭ превратить в атс.
Вы же явно знаете, что SIP не очень хорошо дружит с NAT, поэтому я допускаю что в одном случае NAT работал в другом нет. А про откаты было интересно услышать, да.
ASA – очепятка, в ходе ПНР для имитации функционала SBC мы использовали Cisco2811. Huawei USG5530 запустился без малейших проблем. Ни ASA, ни коммутаторов Cisco мы на этом проекте вообще не применяли. Так что Вы либо путаете, либо Вы общались не с сотрудниками Ланита. Хуавей нас в этом проекте действительно приятно порадовал, и надежностью оборудования, и работой технической поддержки…
Ох, как жаль, что я не фотографировал.
И ASA и коммутатор стояли сзади стоек, т.е. за оборудованием Хуавей. Я не общался с сотрудниками Ланита, но видел как они настраивают в ЦОД-е(кстати там было достаточно тепло).

Раз Вас так порадовал Хуавей(содействеим конечно), то давайте я Вам расскажу как оно работает:
1. Хуавей не создает в Москве(да и в России) службы тех.поддержки;
2. У них в Москве несколько Русских инженеров и они постоянно меняются(текучка);
3. Колл-центр находится в Новосибирске — и это именно колл-центр не более того;
4. При первых же проблемах, вендор шлет к интегратору(Ланит, Джет, Софтлайн итд), если интегратор не справляется то удаленно пытаются сами и в итоге приезжает Китайский десант.
5. О божечки же ты мой, приезжают Китайцы и они тупо делают видеомост по QQ до своих программистов в континентальном Китае.
6. Пишется индивидуальный патч-прошивка под Вас. Всё!

Заметьте в Москве есть несколько постоянно меняющихся инженеров и это только сетевики(роутинг, свитчинг). Все остальные продукты(UC,Wi-Fi,SDN итд) сидят сами китайцы.

Не смотря на то, что они бьют себя в грудь и говорят — да у Нас в Новосибирске полноценная тех.поддержка, на самом деле реальные вопросы переправляются в Китай, а настройка ACL или Etherchannel — это да, в Новосибирске.

Давайте посмотрим, как работает первая линия обороны — инженеры в интеграторах. Увы но нет ни порталов, ни форумов, ни комьюнити по этому чудо оборудованию. И все что могут ребята это задавать вопросы на китайском(!) форуме через гугл транслэйт! И внимание они пишут там на китайском. А теперь представьте эту цепочку(Русский-Английский- Китайский и наоборот).

Вы знаете общая картина такова, что вендору не интересен наш рынок, он не создает рабочие места, нормальную поддержку, а тупо покупают взятками быдло-папуасов. Достаточно вспомнить как США пугнули хуавей санкциями за Крым и они тут же отказались официально поставлять в Крым

И вот самое поразительное — это никак не укладывается в голове по сравнению с бизнесом провайдерского оборудования(в том числе и сотовых операторов), где все выстроено нормально.

Вы так и не ответили — сколько Вы проектов реализовали на этом оборудовании с 2013 года?

В серверной стадиона стоит не только оборудование, за которое отвечает Ланит. У меня такое подозрение, что Вы видели оборудование Cisco, которое ставил для себя один из арендаторов (банк, если мне не изменяет память).
Так сложилась жизнь, что лично у меня с 2014 года на Хуавее проектов не было. У Ланита были, но я не уполномочен рассказывать о них от лица всего Ланита. Если референсы по Хуавею действительно интересны — можно обратиться к самому Хуавею, или посетить какую-нибудь конференцию, Хуавей периодически приглашает туда своих Заказчиков с презентациями.
О том и речь, что нет ни чего у них серьезного, да уже и не интересно.
Оборудование Cisco было от Ланита, ну по крайней мере мне так сказал представитель ИТ стадиона.
интерестно. спасибо за статью. особенно понравилась " о китайцах". я тоже намучился с ними на «моем хозяйстве» ( см. аватор ).

А вот о IPTV/Digital Signage от Tripleplay хотелось бы поподробнее.
Всегда пожалуйста :) Trepleplay, действительно, заслуживает отдельного поста. Мы уже над этим работаем
Даа, знатный зоопарк получился.

Вообще, за годы работы сложилось впечатление, что за все те деньги, которые платятся за AMX, Crestron и Digital-signage решения, команда из нескольких человек в течение нескольких месяцев могла бы написать свой велосипед с любыми функциями, фишками и плюшками на базе Linux\Windows и маленьких ПК.

То, что для управления телеками вместо DS-системы используется отдельный контроллер AMX, показательно…
Кстати, в музее стадиона (где всю мультимедийку делала наша компания), используется Crestron :)
Еще один плюс в копилку зоопарка и головной боли для службы IT :)

Обычно, в таких случаях приводят контр-аргументы в виде глючности, ненадежности и сложности с поддержкой самодельных велосипедов. Но опыт показывает, что решения на базе специализированных контроллеров такие же глючные, не сильно легче в поддержке, и так же требуют программирования, причем, на экзотических языках.
При этом к багам своих разработчиков еще добавляются баги разработчиков Crestron\AMX\whatever, коих тоже предостаточно.
Да и само железо у того же Crestron'а сильно испортилось за последние годы.

А то, что не связались с C-nario, наверное, даже хорошо.
Немного поработал с этим софтом волею судеб. Тех денег, которые за него хотят, он, по-моему не стоит.
А очевидные баги, найденные мной, они даже рассматривать не хотят, потому что «купите сервис контракт, тогда и поговорим».

В целом согласен. Тогдашнее решение по управлению ТВ-панелями от Tripleplay нас не устроило, поэтому мы от него отказались. Модель контроллера выбирал Заказчик. Сейчас TripePlay решение доработал, на БСА «Лужники» внешних контроллеров для управления ТВ-панелями уже не нужно.
Отличный пост, большое спасибо за интересное повествование работы. Хоть и немного не моя сфера, но понравилось.
Полностью соглашусь с вами, ситуация в которой различные технологические сети/вентиляция по факту проходят совершенно не по проекту, это просто бич. Обычная ситуация, когда кто первый зашел на объект, тот и успел и потом смотри и думай, что делать. Очень большой риск вывести из строя оборудование, когда оно ставится в еще строящийся объект и потом пылиться до пнр.
Вам спасибо!
Если оборудование пылится до ПНР — с этим еще можно что-то делать, если оно вынуждено месяцами работать в условиях сильной запыленности, да еще и без (в обход) ИБП — эта ситуация куда хуже
Скажите, а зачем там SBC, нельзя было направить sip trunk сразу в АТС?
А мне вот интересно, каким образом производился расчет характеристик и количество серверов Tecal?
Мне тоже интересно.
Заказчик в ТЗ написал, что ему нужно 4 сервера такой-то конфигурации.
По-хорошему в таких случаях надо делать сайзинг. На БСА Лужники мы его делали, причем он пригодился не только для защиты перед заказчиком, но и Мосэкспертизе — она затребовала расчеты вычислительных нагрузок серверной фермы, чем приятно удивила.
Не исключено что Заказчик сайзинг и делал, просто нам его не показывал. Единственное, на что пришлось обратить внимание — на стадионе 2 серверных, и все должно должно работать если одна серверная полностью обесточена. Поэтому сайзинг умножается на два.

Какая-то очень менеджерская статья. Всё-то у автора exciting… Из техники в основном перечисление брендов…
При том что проект-то, в общем, обыкновенный. А для лавки с 25-летним стажем, так вообще рядовой-один-из-многих

Вы знаете, для меня на этом проекте проблем в области управления проектом действительно было больше чем проблем технических, хотя и о них в статье тоже упоминание есть. Ну и тяжеловато делать deep tech по тематике стадионов в рамках одной обзорной статьи чтобы всем угодить. Может, Вас что-то конкретное интересует?

То что у ГИПа административной работы больше чем проектирования — это обычное дело. В некоторых местах ГИП — административная должность.
То что вам пришлось поставить на объекте свою бытовку… ну да, все так делают.
То что пришлось -сраться- всё согласовывать с другими подрядчиками уже не глядя в проект… Ну да, обычный бардак. Это у вас ещё инструмент не воровали и дорогущий кабель не резали :)
……
В общем, всё весьма обычно для подобного объекта (стадион, (кино)театр, торговый центр).
Что может быть интересно (не мне, я многофункциональные объекты на дух не переношу) — это описание проекта, подходы к проектированию, принципы деления проекта на составные части, структурная (функциональная) схема, принципы подбора оборудования и ПО, инструменты, используемые для проектирования, состав проекта, примеры чертежей. Что пришлось изучить/освоить в ходе проекта. Это по технике.
По организации тоже можно много рассказать. Сколько народу участвовало в проекте, сколько на каком этапе. Сколько отделов, как они взаимодействовали. Что делали сами, что отдавали на субподряд. Какие грабли с субподрядом. Как организовывали монтаж, какими силами. Как взаимодействовали с поставщиками. Чем на практике отличается крупный проект от мелкого/среднего, какие специфические методы пришлось применить при проектировании и реализации.
В общем, много чего интересного может быть. И это интересное — совсем не: "Ой, ни фига себе… стадион!" :)

Хороше описание.
Мне только не совсем ясно, каким образом соотносятся цифры 87 точек Wi-Fi и 45к болельшиков. 500 с лишним человек на одну точку, даже есл это циско — просто непосильная задача.
Что-то я не припомню WiFi для болельщиков на этом стадионе.
Пусть поправит автор статьи, но насколько я помню WiFi там только для журналистов и внутренних офисов.

Не стоит путать рекламу/маркетинг и реальность! Реклама говорит — «Проект года», «Я сделалъ»,«Сеть на стадионе от плохого пути», а реальность — это обеспечение сетью только билетные кассы и под трибунные офисы(т.е. пару десятков коммутаторов).
Sign up to leave a comment.