OnBase Document Management Solutions – Is There A Way To Buy And Save?
Eficienta energetica - Inovatii in infrastructura centrelor de date
1. www.adnettelecom.ro EFICIENŢA ENERGETICĂINOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE Flavius PORUMB AdNet Telecom, CTO flavius.porumb@adnettelecom.ro IDG Conference, 31 Mai 2011 Cloud Computing + Virtualization + The New Data Center = less energy bills through GREEN IT
2. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Sumar Eficienţa energetică Optimizareadistribuţiei de putere Optimizări mecanice (răcire) Optimizări servere Concluzii, best-practices Optimizare holistică
3. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Eficienţă energetică (1) CosturiConstructie Sursa: J.Hamilton@Amazon
4.
5. SOCIAL: impact mai mic asupa mediului (amprenta de carbon) Ritmul de inovare este alert datorită jucătorilorglobali 1 Adoptare best-practices Nu există decât 2 soluții pentru eficientizare 2 MutareDC in Cloud
6. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Eficienţă energetică (3) PUE Datacenter Alimentare reţea Sarcina IT&C Putere (transformator, tablou, UPS, baterii, etc) Consumservere, storage, telco eq. etc. Răcire (chillere, CR) PUE = (Putere Totală Facilitate)/(Sarcină echipamente IT&C) Power Usage Effectiveness (vezisi DCIE, http://www.thegreengrid.org/)
11. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro DistribuțiaPuterii 1% 11% pierderi în distribuţie 2-4% 6% Pierderi 0.3%
12.
13.
14.
15. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Optimizări mecanice (1) Concept Aer cald Mix diluat aer cald-rece Aer rece CRAC / CRAH (Computer Room Air Handler /Conditioner) min.1.2m
16.
17.
18. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Optimizări mecanice(4) Container CuloarRece (Cold Air Container System) SFAT: Consultațiprevederile legale de stingere a incendiilorcândoptațipentru HACS/CACS. Mai ineficient vs HACS
19. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Optimizări mecanice (5) Free Cooling – “DeschidețiFerestrele!” Economii de 30-50% Economizerele (bazatepe AER / FLUIDE) sunt indicate în special în zone cu climatemperată/rece SFAT: Acordațiatențiesistemelor de control, în special celorlegate de filtrareșicontrol al umidității
20. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Optimizări mecanice (6) “Măriți temperatura din Datacenter!” ASHRAE Recomandări (înainte de 2008) Temperatură 20-25 ᵒC Umiditate 40-55% Recomandări (după 2008) Temperatură 18-27 ᵒC Umiditate 5.5-15 ᵒC
21. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Sumar Eficienţa energetică Optimizareadistribuţiei de putere Optimizări mecanice (răcire) Optimizări servere Concluzii, best-practices
22. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Optimizăriservere (1) Virtualizare Top 5 motive: Consolidare - costurimaimici pentru HW/SW/mentenanță Scalabilitate-îmbunătăţire time-to-market Disponibilitate - migrare facilă Agilitate – noi servere ușor de provizionat Responsabilitatefaţă de mediu "Virtualization will continue as the highest-impact issue challenging infrastructure and operations through 2015, changing how you manage, how and what you buy, how you deploy, how you plan and how you charge" - Philip Dawson, ResearchVP, Gartner
23. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Optimizăriservere (2) Dezvoltări Hardware Tilera (arhitectura iMesh™ ) 14 Feb 2011 – Dell PowerEdge C6145 5 Mai 2010 -Liquid Blade 26 Sep 2010 SeaMicro - SM10000 22 Mar 2011- Dell PowerEdge C5125 (Microservers) Fabric computing 06 Aprilie – Cisco UCS C260 M2
29. INOVAŢII ÎN INFRASTRUCTURA CENTRELOR DE DATE 31 Mai 2011 www.adnettelecom.ro Sumar Eficienţa energetică Optimizareadistribuţiei de putere Optimizări mecanice (răcire) Optimizări servere Concluzii, best-practices
Buna ziua, ma numesc Flavius Porumb si sunt Chief Technology Officer al companiei AdNet Telecom.Sunt azi in fata Dvs pentru a va prezenta ultimele inovatii si tendinte in operarea si design-ul datacenterelor.In primul rand o sa va rog sa imi scuzati ritmul alert al prezentarii, este un domeniu in care sunt extrem de multe inovatii tehnologice in ultimii ani.O astfel de prezentare, pentru a fi cu adevarat relevanta s-ar intinde pe durata a cel putin 90 min.Voi incerca deci sa parcurg repede lucrurile cu aplicabilitate doar in datacenterele de anvergura mare si voi insista la cele care pot prezenta relevanta pentru data-room-uri enterprise.Haideti sa vedem sumarul prezentarii!
InDEX, EFICIENTA este definita ca raportul dintre rezultatele obținute în activitatea economică și eforturile depuse.In cazuloperarii centrelor de date s-ar transpune ca raportulintreputerea de procesare/capacitatea de stocaresicosturile necesare operarii.Totusi, care este ponderea diferitelor tipuri de costuri in costurile totale de operare? Unde se cheltuiescbanii?
In dreapta ecranului puteti vedea ponderea diferitelor tipuri de costuri in constructia unui centru de date, de remarcat proportia f.importanta a provizionarii puterii si racirii.Referitor la costurile de operare, puteti gasi in literatura de specialitate sau pe Internet nenumarate analize.Cea mai completa, dupa parerea mea, este a lui James Hamilton, de la Amazon Web Services.Analiza costurilor de operare, pentru un datacenter orientat pe servicii (si nu inchiriere de spatiu, etc), s-a facut luand in calcul o durata de amortizare a infrastructurii de 10 ani si a serverelor de 3.Cateva observatii scurte legate de aceasta analiza: Costurile cele mai mari raman tot cele legate de servere, in pofida parerilor care mai circula inca -----57% Energie + distributia necesara a puterii ---31%Totusi daca ne uitam pe tendinta de crestere a costurilor pentru energie din ultimii 20 de ani si de scadere a preturilor pentru servere, in foarte scurt timp, conform prognozelor in 2014-2015 ordinea ponderii se va inversa.Acest lucru inseamna si o schimbare de paradigma in tarifarea serviciilor de datacenter, bazata pe putere si nu spatiu ocupat in rack/datacenter.Care sunt totusi motivele pentru care este important sa eficientizam rapid costurile de energie?
Este unul din cazurile fericite cand interesul de business – REDUCEREA COSTURILOR - s-a intalnit cu responsabilitatea sociala – IMPACTUL ASUPRA MEDIULUI.Cei care insa au pus bazele practicilor de eficientizare, respectiv cei care au inovat sunt marii furnizori de web-services.Companiile care vor sa isi eficientizeze operatiunile IT nu au decat 2 variante:1 - Adoptarea best-practices2 - Mutarea datacenterului in cloudAceasta prezentare se focuseaza pe acest punct, pe numarul 1 – EFICIENTIZARE PRIN ADOPTAREA DE BEST-PRACTICESCum se masoara eficienta energetica totusi? Exista vreun benchmark?
Exista, acesta se numeste PUE (Power Usage Effectiveness).Este un standard definit de Green Grid, o organizatie formata din mari furnizori de echipamente si servicii IT.Pe scurt, PUE se masoara ca un raport intre puterea totala care intra in datacenter si sarcina totala a echipamentelor IT.Un PUE de 2 inseamna ca pentru fiecare Watt care ajunge la un server, unul este consumat/pierdut de transformatoare/UPC/chillere etc.Cum se defineste totusi un datacenter ca fiind eficient?
Uncentru de date cf acestu benchmark este considerat eficient daca are un PUE de minim 1.5.Cu cat PUE este mai mic, un datacenter este considerat eficient energetic .. Mai verde daca vreti.Ca si referinta, peste 80% din datacentere au un PUE intre 2 si 3, sau chiar mai mare ca 3.Va propun sa trecem in revista rapid ce puteti face pentru a creste eficienta energetica a centrului Dvs de date.
Optimizarea distributiei de putere este aplicabila in general datacenterelor de mare anvergura, totusi si aici vom gasi 1-2 best-practice-uri aplicabile centrelor Dvs de date.
OK, haideti sa vedem la ce se refera distributia de putere.Tensiunea inalta/medie intra in transformator (o prima conversie cu pierderi 0.3%), din acesta intra in UPS-ul centralizat (pierderi din nou la conversie de 6%), din acesta din nou in transformator la 220V (alta conversie alte pierderi – 4%), din acesta in sursa serverului, care (aceste conversii sunt mai putin dezbatute) face din nou conversii la 12V (CPU< RAM), 5V, 1.2-1.8VIn total 11% pierderi !!!Ok, sa vedem ce e de facut!
Din aceasta lista de best-practice-uri aplicabile datacenterelor de orice dimensiune, cele aplicabile celor enterprise ar fi sa folositi - transformatoare si PDU-uri cu factor de conversie cat mai bunSa folositi echipamente cu consum redus – un exemplu ar fi cele certificate Energy Star, care va ofera un consum mai mic cu pana la 30%.Partea cu adevarat interesanta incepe de aici, probabil sunteti interesati ce puteti face cu bugete relativ reduse pentru a scadea cu procente importante consumurile de energie din centrul Dvs de date.
Nu cred ca este o supriza pentru Dvs ca racirea este cel mai mare consumator pe care il aveti in centrul de date.Vom vedea in slide-urile urmatoare cateva modalitati prin care putem scadea cu procente importante acest consum.
Aceasta este o schita conceptuala a unui centru de date.Sper ca aveti o podea inaltata in datacenter ... OK, un prim best-practice ar fi sa fie inalta de 1.2m, inaltimea optima se stabileste pe baza unui studiu referitor la fluxurile de aer pe design-ul specific al datacenterului.Va rog sa retineti din aceasta schita ca este important ca aerul cald disipat de servere sa nu il contamineze pe cel rece din urmatorul motiv:- Consumul chillerelor este direct proportional cu delta de temperatura intre aerul cald care intra in chiller si aerul rece pe care trebuie sa il produca.Ce puteti face pentru a imbunatati functionarea fluxurilor de aer?
Primul lucru ar fi sa nu va bazati pe intuitie, ci sa instalati senzori de temperatura in datacenter si sa ii monitorizati.Puteti identifica zone prea calde sau zone prea reci, deci ineficiente.Pentru analiza puteti folosi chiar software-uri specializate de dinamica fluidelor, specializate pe fluxuri aer datacenter.Un best-practice cu investitie minimala, dar rezultate cu adevarat spectaculoase este conceptul de culoar rece/ culoar cald.
O prima varianta ar fi sa folositi alternativa de container culoar cald.Observati ca acest culoar cald este perfect etanseizat pe tot traseul pana la AC.Un studiu de caz publicat de Google, pentru unul din datacenterele lor corporate, a fost ca prin aceasta optimizare, printr-o investitie de 25K $ au obtinut economii de 67K $ in primul an. Cum vi se pare acest Return Of Investment?Un sfat ar fi ca in locurile unde nu aveti instalate servere sa folositi blanking panels .. Da, stiu ca colegii Dvs lasa loc intre servere pentru o aerisire mai buna. Este insa o decizie gresita, mai ales in cazul in care optati pentru aceasta optimizare.Cum arata si a doua alternativa, deci cea cu culoar rece?
Cam asa arata varianta cu culoar rece .. Evident ca acest design este mai ineficient In primul rand dpdv energetic, vezi raportarea consumului de racire la delta dintre temperaturiIn al doilea rand pentru ca nu veti putea avea rack-uri in afara acestui sistem .. in datacenter va fi extrem de cald.Ce alte optiuni de optimizare a consumului mai exista?
O optiune care poate scadea dramatic consumul, insa nu cea mai ieftina dpdv CAPEX este FREE COOLING.Pentru a scadea delta dintre temperaturi, de care am mai vorbit, aerul disipat de servere este racit cu sisteme bazate pe aerul din afara datacenterului sau prin recircularea acestuia prin fluide (apa, glycol), sisteme numite air-side sau water-side.Evident ca sistemul air-side se poate folosi in romania intimpuliernii (chiar primavara, toamna) cand aeruld e afara e mai rece decat cel din datacenter.Google opereaza 2 datacentere in Europa FARA NICIUN CHILLER.In Belgiafolosescturnuri de evaporare, date fiindconditiile de mediu, iar in Finlandafolosescracirea cu apa de mare.NU EXISTA METODA OPTIMA DE FOLOSIRE A METODEI FREE COOLING – Totul tine de climatul/caracteristicilezoneiundeestedatacenterul.Care este totusi cea mai ieftina metoda prin care puteti scadea costurile?
Simplu, MARITI TEMPERATURA DIN DATACENTER.American Society of Heating, Refrigerating and Air-conditioning Engineers este o asociatie a inginerilor din domeniul refrigerarii din SUA, care pe baza recomandarilor primite de la vendorii de echipamente, dar si prin studii independente, emit recomandari pentru diverse tipuri de echipamente.Ce vedeti in acest slide este o schita de recomandare pentru echipamentele IT.Pentru acestea a existat o recomandare, valabila pana in 2008 de operare optima a echipamentelor IT in range-ul de temperaturi 20-25 grade Celsius.In 2008 au marit acest interval la 18-27 grade Celsius.Si inainte de 2008 si ..culmea, chiar dupa, cei care opereaza datacentere prefera sa opereze la 21-22 grade.Frica de a fi ei blamati probabil in caz de defectare a serverelor ii face sa transforme datacenterul intr-unul ineficient dpdv al costurilor.Ce ar trebui sa inteleaga este ca cresterea cu 2-3-5 grade in fapt nu afecteaza echipamentele, acestea raman in range-ul optim de functionare.Mai mult decat atat, zona cu rosu este cea Recommended .. Cea cu albastru ALLOWABLE (PERMISA) si aceasta permite functionarea in conditii bune, la temperaturi de 32 grade celsius...Cu aceasta am incheiat seria best-practice-urilor legate de racire.http://tc99.ashraetcs.org/documents/ASHRAE_Extended_Environmental_Envelope_Final_Aug_1_2008.pdfAllowable – 32 gradeTelco standard allowable – 42 grade
La inceputul prezentarii spuneam ca totusi cele mai mari costuri sunt cu serverele?Cum putem reduce costurile si in aceasta privinta?
Conform unor studii desfasurate la nivel global rata medie de utilizare a serverelor dedicate este 10-15%.Va aminititi costurile de 57% de la inceputul prezentarii .. ca sa citez un clasic AICI SUNT BANII DVS!Majoritatea companiilor IT/NON-IT au inteles rapid aceste costuri deja si sunt in curs de virtualizare a servelor.Am sumarizat 5 motive:Consolidare/costuri – HW – mai putine servere, SW – mai putine licente, Mentenanta – mai putine resurse de administrat => staff IT restransScalabilitate – faceti mai usor fata varfurilor de trafic cate servere ( de exemplu la lansarea unui produs, imbunatatire time-to-market)Disponibilitate – serverele virtuale fiind obiecte software pot fi facil mutate pe alt server in caz de defectiuni / erori umane etc.Agilitate – provizionarea poate fi automatizata, imagini de servere configurate cu toate optiunile de care aveti nevoie in mod constantResponsabilitate fata de mediu – consum mai mic de energie, emisii mai mici de carbon
Servere multi-core, puternice dedicate serviciilor de virtualizare / cloud sunt lansate intr-un ritm sustinut de vendorii consacrati (Dell, HP, Cisco, etc), dar si de unii mai noi cu un focus crescut pe economiile de energie – cu procesoare ARM – Tilera sau Intel Atom – SeaMicro.Tilera de exemplu a reusit sa puna 512 core-uri intr-un server de 2U. Intr-un rack de 42U se pot pune 20 de servere .. Reusim deci sa punem 10,000 de core-uri intr-un rack, la doar 8kW. Un intreg centru de date de nivel enterprise poate fi mutat intr-un astfel de rack.Ce fac in acest timp marii furnizori de web-services? Google, Yahoo, Microsoft, Baidu, Facebook...INOVEAZA!Am decis sa prezint doar un studiu de caz in cele ce urmeaza, respectiv cel al datacenterului Facebook din Pineville, Oregon si al serverelor folosite de ei.29.06.2010SeaMicro recently announced a new low-power server using Intel Atom chips that promises to slash power costs for companies running large Internet services and cloud computing platforms. ------------- 512 low –power Intel Atom chips, 3 kWSeaMicro drops an atom bomb on the server industry – If SeaMicro can deliver, then it will deal a big blow to server vendors such as Dell, Hewlett-Packard and IBM. And it could delight customers with big data centers that are consuming too much power and are having a hard time keeping up with the demand for free internet services. From VentureBeat.Lansare Firefox 4 (martie 2011) - Power as Number One IssuePerformance was crucial, but where the new hardware really delivered was on power efficiency. The SeaMicro production servers used just 0.02 watts of electricity per browser request, Fitzhugh said, compared to 0.17 watts per request for the HP C7000 blade servers they replaced.http://www.datacenterknowledge.com/archives/2011/05/13/seamicro-servers-power-launch-of-firefox-4/Tilera specializes in multi-core low-power processors into servers, allowing users to pack as many as 512 . A rack filled with these units would contain more than 10,000 cores and use less than 8 kW of powercores into a single 2U server23 Jun 2010Tilera also announced plans to double the number of processor cores every two years. The company’s roadmap calls for 10,000 cores-per-rack today, 20,000 in 2011 and 40,000 by 2013Tilera Raises $45 Million for Multi-Core ServersJanuary 18th, 2011 Multi-core processor company Tilera announced a round of financing led by Artis Capital Management, Comerica bank and West Summit Capital Management. Joining the strategic investors list for Tilera are Cisco and Samsung Venture Investment. To date they have raised $109 million. The company is expected to reach profitability later this year.CiscoThe UCS C260 M2 offers up to 1TB of memory and 9.6TB of local storage or 16 SSD’s alternatively.vIndependent Software Vendors (ISV‟s) and partners are developing to the open Unified Computing System Application Programming Interface (API), with over 10,000 applications supported on the system today.http://www.gartner.com/technology/media-products/reprints/cisco/210438.htmlKey FindingsFabric computing is nearing a stage of adolescence — maturing quickly, but with much room for growth and maturation.Enterprises with serious initiatives in virtualization and cloud computing need to begin designing a fabric-based infrastructure, and the organizational structure to properly support it, as the underlying foundation for these initiatives.Based on polling results and many interactions with clients, we believe that Cisco has been the most influential marketing force in expanding the IT vocabulary and recognition for fabric computing, which is currently dominated by two vendors (Cisco and HP), with Dell, IBM and others making moves. Most users are still determining the use cases of fabric-based computing, and, as yet, are unwilling to be sold prepackaged modules of complete solutions by a single vendorLiquid Blade: Submerged Blade Servers - 60 percent or more reduction in cooling cost The Liquid Blade platform features two Intel 5500 or 5600 series Xeon processors, housed in a chassis that immerses the blades in Hardcore’s Core Coolant – a clear dielectric fluid that is odorless and biodegradable. Each blade chassis is 2.6 inches wide, 7 inches high and 32 inches deep. Seven of the chassis can fit in a 5U shelf in a 19-inch rack or cabinet.Efficiency, Cost Advantages ToutedLiquid cooling provides a more efficient heat transfer than air, and offers potential savings to companies that can commit to a liquid-cooled design. Liquid Blade’s submerged servers eliminate the need for rack-level fans, and would require only enough room air conditioning to keep staff comfortable. Hardcore says its system requires no specialized fire protection systems for the servers, since all the blade components are submerged.
Am ales sa prezint acest studiu de caz, cel al Facebook, deoarece spre deosebire de Google, Microsoft, Yahoo, ale caror servere si design-uri de datacenter sunt patentate, ei au ales sa faca publice toate informatiile legate de design-ul folosit pentru datacentere si servere intr-un proiect numit Open Compute Project – OCP.Referitor la datacenter, cateva detalii pe scurt:Au redus conversiile mutand tensiunea medie si UPS-ul in rackFree cooling, racire evaporativaSi cateva detalii legate de servere:- au ales sa schimbe carcasa de 1U cu una de 1.5 RU pentru a putea folosi ventilatoare mai eficiente serverul arata exact asa cum il vedeti, fara cover, nu exista suruburi, toate prinderile sunt pe baza de cleme pentru a face usor schimbarile de componente.Acest datacenter prin design-ul inovator si aplicarea tuturor best-practice-urilor din industrie a obtinut un PUE de 1.07!
Cum timpul deja ne preseaza, sa trecem in revista rapid ce inseamna un plan de actiune pentru eficientizarea consumurilor.
Actiunile figurate in schema le puteti incepe in paralel.Sa le detaliem.Vom porni la drum cu un AUDIT al situatiei actuale - Vom incepe sa masuram PUE regulat zilnic/saptamanal (e simplu: ce curent intra in datacenter si ce consum am la iesirea din UPS) - Incepem sa lucram la un inventar al echipamentelor si consumurilor (IT HW – servere, storage / suport IT HW – UPS, PDU, racire, UPS, iluminat,etc)2. Cautatipermanent configuratiieficiente – urmaritipresa de specialitate, fiti la curent cu ultimeledezvoltaritehnologice- incepetisalucrati la o harta a consumurilorsipierderilor de energie- identificatiposibilemodificari ale configuratiei de consum a DC Dvs3. Strategia de business –Eficientizarea nu este doar treaba directorului IT sau a directorului administrativ care plateste factura de curent - Setati KPI transdepartamentalipentrueficientizare, cu schimbariincrementalepentru a mutafocusulpeeficientaenergetica. 4. Identificati posibile blocaje - Schimbaritehnologicerapide, curba de invatarede catre angajati a noilortehnologii, CAPEX initial mare, etc.5. Setati un plan de actiunescris – O singura recomandare aici - Evitatiperfectiunea, cautatitot timpul “maibine”-le cu pasimiciVa multumesc pentru atentie.