PixaBay.com
ann_zima

Новите сървърни чипове на Intel и AMD се оказаха проблемни за центровете за данни

AMD Epyc 4 Genoa и Intel Xeon Scalable харчат твърде много енергия и са прекалено горещи

Александър Главчев
601 прочитания

PixaBay.com

© ann_zima


Новите сървърни процесори на Intel и AMD могат да създадат много проблеми на операторите на центрове за данни, ако искат да преминат към тях. От The Register, позовавайки се на Uptime Institute, пишат, че инфраструктурата на много съвременни такива инсталации просто не е проектирана за хардуер с подобни показатели. При това проблемът не е, че тези центрове са остарели, а че двете компании са създали истински шампиони по отношение на потреблението на енергия и отделяната топлина.

Uptime Institute е консорциум от компании, създаден през 1993 г. с цел максимизиране на ефективността на центровете за обработка на данни. Организацията е известна със създаването на световна многостепенна класификация на центровете за данни - от Tier I до Tier IV.

Новият процесор Epyc 4 Genoa, който AMD представи в края на 2022 г., както и още по-модерното четвърто поколение Intel Xeon Scalable, което бе показани през януари 2023 г., са най-производителните, но в същото време най-енергоемките чипове и на двете компании. Процесорите консумират съответно 400 и 350 вата.

Интересното е, че за сегментите на настолните и преносимите компютри и двете се стремят към обратно - да пуснат най-малко горещи и енергоемки чипове. Засега AMD е по-успешна в тази посока, благодарение на използвания в нейните продукти 5-нанометров производствен процес. Intel продължава да е "заседнала" на 10 нм.

Повишените консумация на енергия и отделяна топлина се дължат на увеличения брой на ядрата и тяхната тактова честота в новите сървърни процесори. Според The Register постиженията на компаниите в сегмента вече позволяват предлагане на компактни системи от два процесора с общо 192 ярда (при новите чипове на AMD) или 120 ядра (Intel). Това е машина, която се побира в най-обикновен сървърен шкаф във формат 2U. Само преди няколко години подобно нещо беше непостижимо...

Поставянето на няколко такива сървъра в един шкаф с минимално разстояние между тях, както и няколко напълно заети шкафа един до друг, неминуемо ще доведе до затруднения при охлаждането им.

В същото време всеки такъв сървър, като се вземе предвид цялото му вътрешно оборудване, може лесно да консумира значително повече от 1 киловат електроенергия. Задачата за "храненето" на множество такива сървъри също ще е предизвикателна.

Промени във всички посоки

От Uptime Institute посочват, че настоящата тенденция за бързо преминаване към по-горещи, по-гладни за енергия сървъри идва в разрез с десетилетия на планиране на капацитета на центровете за данни. "Тази тенденция скоро ще достигне своята критична точка, тъй като започва да дестабилизира съществуващите основи за проектиране на съоръжения", се казва в доклад на консорциума.

Отбелязва се, че един типичен 42U шкаф в настоящите центрове за данни има проектна мощност под 10 киловата. Със съвременните системи, стремящи се към по-висока изчислителна плътност и съответно "плътност на мощността", това вече не е достатъчно. Uptime Institute изчисляват, че консумацията на енергия ще се учетвори в рамките на няколко години до приблизително 42 киловата.

Подобна е зависимостта и по отношение на охлаждането. Много центрове за данни в момента са ограничени в способността си да осигурят необходимия въздушен поток за охлаждане на стелажи с гъсто разположени сървъри, чието топлоотделяне непрекъснато нараства.

Въздушното охлаждане в момента е стандарт, а възможностите му стават недостатъчни, считат специалистите. В момента системите за течно охлаждане за центрове за данни постепенно се развиват. Вероятно по-големият проблем тук обаче е, че тези системи все още не са доведени до единен стандарт, което възпрепятства ръста на тяхното внедряване. Intel, най-големият доставчик на x86 сървърни процесори в света, работи върху стандартизацията на охладителни решения с течен агент.

Освен това Intel и други организации работят върху създаването на стандарти за така нареченото охлаждане чрез "потапяне" (immersive cooling), при което охлажданият обект буквално се потапя в охлаждащата течност. За целта в началото на 2022 г. Intel обяви създаването на "мегалаборатория" на стойност 700 милиона долара, която ще наблюдава разработването на стандарти както чрез потапяне, така и за стандартно течно охлаждане.

Паралелно членовете на отворената общност Open Compute Project работят в тази посока от 2018 г. След пет години обаче те все още не са постигнали приемането на стандарти за охлаждане за центрове за данни, различни от традиционния въздух.

Още стимули

Ръстът на енергопотреблението занапред ще е проблемен за операторите на центрове за обрабока на данни и поради още една причина - увеличаването на цената на енергията.

На теория този проблем може да бъде частично решен чрез отказ от въздушното охлаждане в полза на течен хладилен агент. Независимо дали става дума за традиционното му подаване чрез тръби до компонентите на хардуера или за "потапяне", тези подходи изискват по-малко електричество.

Анализаторите от Uptime Institute отбелязват, че самата цена на електроенергията не е единственият проблем, пред който са изправени центрове за данни. Те също така се сблъскват и с регулаторни и екологични пречки.

Очаква се Европейската комисия да приеме нови разпоредби като част от Директивата за енергийна ефективност, която според експертите ще принуди операторите да намалят както потреблението на енергия, така и въглеродните емисии. Подобни правила са приети и в САЩ. Съвсем наскоро в щатското събрание на Орегон беше внесен законопроект, който ще изисква центровете за данни и операциите за добив на криптовалута да ограничават въглеродните емисии или да плащат глоби.

Новите сървърни процесори на Intel и AMD могат да създадат много проблеми на операторите на центрове за данни, ако искат да преминат към тях. От The Register, позовавайки се на Uptime Institute, пишат, че инфраструктурата на много съвременни такива инсталации просто не е проектирана за хардуер с подобни показатели. При това проблемът не е, че тези центрове са остарели, а че двете компании са създали истински шампиони по отношение на потреблението на енергия и отделяната топлина.

Uptime Institute е консорциум от компании, създаден през 1993 г. с цел максимизиране на ефективността на центровете за обработка на данни. Организацията е известна със създаването на световна многостепенна класификация на центровете за данни - от Tier I до Tier IV.

Споразумението между съдружниците на стартъпа създава яснота в отношенията им
Съдържание за Адвокатско дружество "Динова, Русев и съдружници"
Tobel - управление на територията в умния град
Съдържание от Mapex

Най-новото










Още от Digitalk ›
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК