тонкости о серверах Facebook Open Compute для облачных задач
Облако = x86 + открытый исходный код
По великому счёту, базовая архитектура Facebook не очень различается
от иных высоко производительных вебсервисов. все-таки, Facebook – рекламное дитя
облачных приложений последнего поколения. Его высокая известность и высокая
степень интер активности сами по себе требуют гораздо пущей маштабируемости и
доступности, чем типичный сайт, дающий, ключевым образом, информацию или незамысловатый
сервис.
[применение облачных систем]
Поколение «облачных приложений» не применяет строгие высоко уровневые
убеждения избыточности с масивными реляциоными порядками управления базами даных.
комбинация x86 scale-out кластеров, показанного программного обеспечения и «не SQL»
– это и есть, на чём созданы Facebook, Twitter, Google и прочие системы.
в Facebook тем не
менее, составили кое-какие части голово ломки в открытом исходном коде
программного обеспечения, чтобы изготовить его более годным для экстремальной
маштабируемости. Разработчики Facebook избрали стиль PHP в качестве
представительского уровня, оттого что он элементарен в изучении, на нем свободно
писать, и его код свободно разбираем. Не глядя на это, PHP весьма капризен к
CPU и памяти.
[применение облачных систем]
Если доверять даным самой Facebook, код PHP почти что в 39
раз медлительнее, чем C++. этаким образом, было явно, что Facebook сначала обязана
найти решение этой проблемы. Традиционный подход заключается в том, дабы переписать
наиболее продуктивные острые отрывки кода на C++ в качестве расширений PHP, но
в Facebook разрешили использовать иной подход: разработчики улучшили Hip Hop –
преобразователь исходного кода. Hip Hop переделает исходный код PHP в стремительный
C++ код и компилирует его с g++.
Следующий обломок голово ломки в Facebook – Memcached.
Memcached – это программа, сбывающая кэширование даных в оперативной памяти, с кое-какими
крайне увлекательными возможностями. Memcached – разделенная кэширующая система;
это обозначает, что кэширование оперативной памяти по средством Memcached может
захватывать бездну серверов. В предоставленном случае под взглядом «кэш» надлежит
разуметь совокупность более мелких кэшей. В главном, кэш рекуперируется за счёт
не используемой оперативной памяти, коя, наверно, будет тратиться операционой
системой на менее действенное кэширование файловой системы. Эти «кэшузлы» не
пересылаются и не синхронизируются , и в итоге кэшпамяти отменно
масштабируется.
[сравнительное время на выполнение указаний на разнообразных
языках]
Facebook живо стала крупнейшим в обществе пользователем ноу-хау
memcached и существенно усовершенствовала её. Разработчики портир-ли методику
для подмоги в 64-битных системах, уменьшили употребление памяти в TCP, ввели содействие
много ядерности (когда-то применялось лишь одно ядро) и тд. На нынешний день,
Facebook в главном использует технологию memcached для облегчения нагрузки на
базы даных.
Сервер Facebook
В цоколе штаб квартиры Facebook в ПалоАльто, Калифорния, на
заказ три инженера компании разработали серверы, серверные стойки, блоки
питания, и системы запасного питания, да таковые, коим по завидует всякий
сервер hp. Сервер Facebook обязан был стать на много дешевле, чем средне статистический
сервер, а так же более энерго эффективным. собственный проект они нарекли Open
Compute Project, внеся идеи открытого исходного кода в апаратную долю серверов.
[Сервер OpenCompute]
основное, что они поменяли, была высота шасси. Был избран
формат 1.5 U как компромис между занимаемым объёмом и потенциалом неплохого остужения
сервера. Формат 1.5 U дозволяет применять радиаторы более высокие, более большие
(60 x 60 мм )
тихо ходные вентиляторы, а не резкие «сороковки», сжиратели энергии, применяемые
в 1Uшасси. В итоге, вентиляторы потребляют только лишь от 2 % до 4 % общей
электро мощности, что достаточно изумительно, так-как не секрет, что 1 U вентиляторам
может потребоваться до одной трети всеобщего объёма энерго потребления системы.
сдается, что воздушное остужение в Open Compute 1.5 Uсервере является такимже результативным,
как и в 3 U-серверах, слывших до настоящего наилучшими по параметру энерго эффективности.
[облик сверху ну сервер Facebook Open Compute]
В то же момент, отделение разработок Facebook применяет крайне
легкие шасси, в коих нет элементов из пластика. течение воздуха внутри сервера
при том делается более размеренным, а вес уменьшается за счет снижения числа элементов
в корпусе. исподняя стенка одного сервера предназначается верхней для сервера
под ним. в одном из датацентров не хватало места в стойках и один на иной были поставлены
немного серверов hp proliant dl360 g6. правдиво молвить, смотрелось это необычным
образом.
Комментариев нет:
Отправить комментарий