Pull to refresh

Comments 6

Мы в одном из продуктов применяем похожую схему. Не в таких масштабах, правда.

Много всего напихано... Им уже давно нужно переходить на стриминговые базы, но они всё делают свои самокаты, нагромождая и усложняя архитектуру. Очевидно что в компании на основных позициях сидят деды со старым виженом и на старых технологиях.

У нас бы в бинанс таких уволили.

Вы прекратите спихивать всё на дедов. Деды бы распилили базу географически как минимум.

Зачем им 40 миллионов запросов в секунду?

Заказ такси не могут одновременно делать миллионы человек, потому что населения на земле для таких масштабов не хватит.

Значит система явно перегружена внутренними коммуникациями. Но что это за коммуникации? Ответ прост - микросервисы. Вместо пусть миллиона в секунду (и то много) имеем на пару порядков больше.

У них там ещё uber eats как минимум есть типа Яндекс еды и наверняка что-то ещё.

Хотя, конечно, оверхед от микросервисов тоже имеет место быть.

Для транснациональных компаний как Uber очевидно напрашивается решение с разделением данных на регионы, так как нет никакой надобности хранить локальную OLTP инфу в единой базе, а сливать данные воедино уже в OLAP базу. Ведь очевидно же что клиенты из одного региона запрашивают 99.99% инфы из этого же региона?

Ну типа промежуточный диспетчер обрабатывает запрос и направляет его в локальный сервис либо в сервис другого региона, при надобности, что сразу распределит нагрузку.

Потому скорее было бы интересно не только реализация описанная в статье, но и причины такой централизации децентрализованных данных. Т.е. зачем было создавать сложности?

Sign up to leave a comment.

Articles