воскресенье, 7 октября 2012 г.

тонкости о серверах Facebook Open Compute для облачных задач



тонкости о серверах Facebook Open Compute для облачных задач
Облако = x86 + открытый исходный код

По великому счёту, базовая архитектура Facebook не очень различается от иных высоко производительных вебсервисов. все-таки, Facebook – рекламное дитя облачных приложений последнего поколения. Его высокая известность и высокая степень интер активности сами по себе требуют гораздо пущей маштабируемости и доступности, чем типичный сайт, дающий, ключевым образом, информацию или незамысловатый сервис.

[применение облачных систем]

Поколение «облачных приложений» не применяет строгие высоко уровневые убеждения избыточности с масивными реляциоными порядками управления базами даных. комбинация x86 scale-out кластеров, показанного программного обеспечения и «не SQL» – это и есть, на чём созданы Facebook, Twitter, Google и прочие системы.

в Facebook  тем не менее, составили кое-какие части голово ломки в открытом исходном коде программного обеспечения, чтобы изготовить его более годным для экстремальной маштабируемости. Разработчики Facebook избрали стиль PHP в качестве представительского уровня, оттого что он элементарен в изучении, на нем свободно писать, и его код свободно разбираем. Не глядя на это, PHP весьма капризен к CPU и памяти.

[применение облачных систем]

Если доверять даным самой Facebook, код PHP почти что в 39 раз медлительнее, чем C++. этаким образом, было явно, что Facebook сначала обязана найти решение этой проблемы. Традиционный подход заключается в том, дабы переписать наиболее продуктивные острые отрывки кода на C++ в качестве расширений PHP, но в Facebook разрешили использовать иной подход: разработчики улучшили Hip Hop – преобразователь исходного кода. Hip Hop переделает исходный код PHP в стремительный C++ код и компилирует его с g++.

Следующий обломок голово ломки в Facebook – Memcached. Memcached – это программа, сбывающая кэширование даных в оперативной памяти, с кое-какими крайне увлекательными возможностями. Memcached – разделенная кэширующая система; это обозначает, что кэширование оперативной памяти по средством Memcached может захватывать бездну серверов. В предоставленном случае под взглядом «кэш» надлежит разуметь совокупность более мелких кэшей. В главном, кэш рекуперируется за счёт не используемой оперативной памяти, коя, наверно, будет тратиться операционой системой на менее действенное кэширование файловой системы. Эти «кэшузлы» не пересылаются и не синхронизируются , и в итоге кэшпамяти отменно масштабируется.

[сравнительное время на выполнение указаний на разнообразных языках]

Facebook живо стала крупнейшим в обществе пользователем ноу-хау memcached и существенно усовершенствовала её. Разработчики портир-ли методику для подмоги в 64-битных системах, уменьшили употребление памяти в TCP, ввели содействие много ядерности (когда-то применялось лишь одно ядро) и тд. На нынешний день, Facebook в главном использует технологию memcached для облегчения нагрузки на базы даных.

Сервер Facebook

В цоколе штаб квартиры Facebook в ПалоАльто, Калифорния, на заказ три инженера компании разработали серверы, серверные стойки, блоки питания, и системы запасного питания, да таковые, коим по завидует всякий сервер hp. Сервер Facebook обязан был стать на много дешевле, чем средне статистический сервер, а так же более энерго эффективным. собственный проект они нарекли Open Compute Project, внеся идеи открытого исходного кода в апаратную долю серверов.

[Сервер OpenCompute]

основное, что они поменяли, была высота шасси. Был избран формат 1.5 U как компромис между занимаемым объёмом и потенциалом неплохого остужения сервера. Формат 1.5 U дозволяет применять радиаторы более высокие, более большие (60 x 60 мм) тихо ходные вентиляторы, а не резкие «сороковки», сжиратели энергии, применяемые в 1Uшасси. В итоге, вентиляторы потребляют только лишь от 2 % до 4 % общей электро мощности, что достаточно изумительно, так-как не секрет, что 1 U вентиляторам может потребоваться до одной трети всеобщего объёма энерго потребления системы. сдается, что воздушное остужение в Open Compute 1.5 Uсервере является такимже результативным, как и в 3 U-серверах, слывших до настоящего наилучшими по параметру энерго эффективности.

[облик сверху ну сервер Facebook Open Compute]

В то же момент, отделение разработок Facebook применяет крайне легкие шасси, в коих нет элементов из пластика. течение воздуха внутри сервера при том делается более размеренным, а вес уменьшается за счет снижения числа элементов в корпусе. исподняя стенка одного сервера предназначается верхней для сервера под ним. в одном из датацентров не хватало места в стойках и один на иной были поставлены немного серверов hp proliant dl360 g6. правдиво молвить, смотрелось это необычным образом.

Комментариев нет:

Отправить комментарий