IDataCool - iDataCool - Wikipedia
iDataCool je vysoce výkonný počítačový cluster na základě upravené IBM System x iDataPlex. Klastr slouží jako výzkumná platforma pro chlazení TO zařízení s horkou vodou a účinným využitím odpadního tepla. Projekt realizuje fyzikální oddělení University of Regensburg ve spolupráci s IBM Laboratoř výzkumu a vývoje Böblingen a InvenSor. Je financován z Německá výzkumná nadace (DFG), německý stát Bavorsko a IBM.
Přehled
Vysoce výkonný výpočetní klastr iDataCool je výzkumný projekt chlazení horkou vodou a opětovné použití energie v datová centra. Odpadní teplo z iDataCool se používá k pohonu adsorpční chladič který generuje chlazená voda.[1] Projekt sleduje následující cíle:
- Důkaz principu: výrobní stupeň počítačový cluster lze chladit horkou vodou při teplotách nad 65 ° C
- Obnovte významnou část z odpadní teplo
- Účinnost opětovného využití energie (ERE) méně než jedna
- Návrh nákladově efektivního prototypu technologie pro budoucí vývoj v vysoce výkonný počítač design a provoz
Klastr iDataCool pracuje s teplovodním chlazením od roku 2011. Podpora infrastruktury pro opětovné využití energie byla dokončena v roce 2012. Členové projektu byli aktivní také v dalších superpočítačových projektech, jako jsou QCDOC a QPACE. SuperMUC je založen na technologii chlazení vyvinuté pro QPACE, Aquasar a iDataCool.[2]
Výzkumný projekt iDataCool byl představen na konferenci Mezinárodní konference o superpočítačích v německém Lipsku v roce 2013,[1] což vedlo k tomu, že byl uveden v několika článcích.[3][4]
Pozadí a designový cíl
Napájení a chlazení IT zařízení jsou pro moderní zařízení velmi důležité datová centra. Od roku 1996 celosvětové náklady na energii a chlazení IT infrastruktura se zvýšily o více než pětinásobek.[5] Datová centra obvykle používají vzduch jako primární chladicí médium pro IT zařízení. I když je chlazení vzduchem jednoduché a flexibilní, má také některé nevýhody, například omezenou hustotu balení a omezené možnosti opětovného použití energie.[6]Kapalinové chlazení na základě vody jako chladicí kapaliny je další možností. Protože voda má velmi vysokou tepelnou kapacitu, lze ze systému odebírat velké množství tepla při středních rychlostech proudění, což umožňuje vyšší hustotu balení, což má za následek menší podlahovou plochu. Kapalné chlazení se nedávno znovu objevilo v sektoru vysoce výkonné výpočty. Od roku 2009 v seznamu energeticky nejúčinnějších superpočítačů Green500 dominují kapalinou chlazené konstrukce.[7]
Pokud konstrukce systému chlazení kapalinou umožňuje vysoké teploty chladicí kapaliny, lze v závislosti na klimatických podmínkách a místní infrastruktuře energii ušetřit nebo dokonce znovu použít. Například, bezplatné chlazení je možné, pokud je teplota chladicí kapaliny vyšší než teplota okolí. V takovém případě lze ušetřit energii pro chladicí jednotky. Pokud je teplota chladicí kapaliny ještě vyšší, může se odpadní teplo z výpočetního zařízení použít k vytápění nebo k pohonu adsorpční chladič k výrobě chlazené vody. První možnost je implementována napřLeibniz-Rechenzentrum v Německu, kde SuperMUC řídí vytápění datového centra v zimě s přibližně 1 MW získaným z výpočetního zařízení. Druhá možnost, která je cílem návrhu iDataCool, vyžaduje vysokou hodnotu kvalita tepla, čehož lze dosáhnout pouze přímým horkovodním chlazením. Jedním příkladem přímého chlazení horkou vodou je Aquasar project ve společnosti ETH Curych, který je provozován při teplotách chladicí kapaliny kolem 60 ° C. Cílem iDataCool bylo dosáhnout teploty chladicí kapaliny vyšší než 65 ° C, při které mají tendenci být účinné komerčně dostupné adsorpční chladiče, a prokázat dlouhodobou stabilitu velkého za těchto podmínek.
Architektura
Instalace iDataCool na University of Regensburg skládá se ze tří systémů IBM System x iDataPlex[8] regály. Každý nosič obsahuje 72 výpočetních uzlů. Výpočetní uzel se skládá ze dvou Intel Xeon Westmere serverové procesory a je uspořádán jako distribuovaná sdílená paměť systém s 24 GB DDR3-SDRAM. Přepnuto Infiniband se používá pro komunikaci mezi uzly. Gigabitový Ethernet se používá pro vstupy / výstupy disku, provoz systému a monitorování.
Původní systém iDataPlex je zcela chlazen vzduchem. Okolní vzduch v datovém centru je nasáván perforovanými předními dveřmi a horký vzduch je vháněn zpět do datového centra na zadní straně. Komponenty, které potřebují chlazení, jsou zásoby energie, síťové přepínače a vypočítat uzly. Napájecí zdroje a spínače se spoléhají na vestavěné ventilátory, které generují potřebné proudění vzduchu, zatímco bloky ventilátorů se používají k tažení vzduchu přes výpočetní uzly, které jsou vybaveny pasivními chladiče.
Společným úsilím skupiny částicové fyziky na univerzitě v Regensburgu a výzkumné a vývojové laboratoře IBM v Böblingenu v Německu bylo vyvinuto řešení chlazení vodou pro výpočetní uzly, které zcela nahrazuje původní ventilátory a chladiče. Procesory jsou chlazeny měděnými chladiči na míru, kterými přímo proudí voda. Tím se minimalizuje teplotní rozdíl mezi výpočetními jádry a chladicí kapalinou. Měděné potrubí zajišťuje tok vody a je také tepelně spojeno s pasivními chladiči pro další součásti, jako jsou paměť, čipová sada a převodníky napětí.
Všechny převody původního klastru iDataPlex byly provedeny na univerzitě v Regensburgu. Nově vyvinuté díly byly vyrobeny ve strojírně katedry fyziky univerzity. Datové centrum univerzity bylo rozšířeno o infrastrukturu chlazení kapalin. Systém pracuje od roku 2011 ve stabilním výrobním režimu při teplotách chladicí kapaliny až 70 ° C.
Opětovné použití energie
iDataCool umožňuje chlazení horkou vodou při teplotách až 70 ° C.[1] Odpadní teplo z iDataCool pohání nízkou teplotu adsorpční chladič (LTC 09 od InvenSor), který funguje efektivně již při teplotách kolem 65 ° C. Chladič generuje chlazená voda který se používá k chlazení jiného výpočetního zařízení v datovém centru. Instalace byla dokončena v létě 2012.
Viz také
- Datové centrum
- HVAC
- Kapalinové chlazení pro počítače
- Absorpční chladnička
- Počítačový cluster
- QPACE
- QPACE2
- SuperMUC
- Aquasar
Reference
- ^ A b C N. Meyer a kol., iDataCool: HPC s chlazením horkou vodou a opětovným využitím energie, Přednášky z informatiky 7905 (2013) 383
- ^ B. Michel a kol., Aquasar: Der Weg zu optimal effizienten Rechenzentren[trvalý mrtvý odkaz ], 2011
- ^ IEEE Spectrum, Nová technologie udržuje chladicí datová centra v teplém podnebí, 26. června 2013
- ^ R718.com, Adsorpční chladič na odpadní teplo chladí výpočetní centrum, 30. července 2013
- ^ IDC, Worldwide Server Research, 2009
- ^ N. Meyer a kol., Požadavky na infrastrukturu datových center Evropský projekt Exascale HLUBOKÝ, 2012
- ^ Seznam Green500, http://www.green500.org/ Archivováno 2016-08-26 na Wayback Machine
- ^ IBM System x iDataPlex dx360 M3, http://www-03.ibm.com/systems/x/hardware/rack/dx360m3/index.html