25 квіт. 2011 р.

Intel, Yahoo і Google поділилися інноваціями в області побудови «Зелених ЦОД»

data centerРішення, що приймаються в ЦОД, ніколи не бувають легкими, незалежно від розміру Вашої компанії. Коли справа доходить до того, щоб по максимуму використовувати свій дата-центр, чому б не піти тим же шляхом, яким пішли великі гравці?

Свої секрети розкривають керівники деяких найбільших компаній ІТ - індустрії. Вони розповідають, яким чином вони вводять інновації у свої нові ЦОД, включаючи побудований в Бельгії дата-центр Google, новий сучасний об'єкт Cisco, в штаті Техас. Intel і Yahoo також представили свої кращі напрацювання.

Google: всі про ефективність

Google керує «десятками» ЦОД у всьому світі. Основна увага компанії зосереджена на тому, щоб створювати такі дата-центри, ефективність яких перевищує середні показники в індустрії, стверджує Білл Вейл, «цар» зелених енергоефективних технологій Google. Згідно з оцінками EPA, більшість ЦОД працюють з коефіцієнтом енергоефективності (PUE) 2.0, що говорить про те, що вони використовують вдвічі більше енергії, ніж їм необхідно насправді. PUE - сумарна енергія, споживана ЦОД поділена на енергію споживану ІТ-обладнанням.

Google, у свою чергу, працює з PUE близько 1,18 у всіх своїх центрах обробки даних, стверджує Вейл. Одним із способів, який дозволяє компанії Google домагатися більшої енергоефективності є використання технології «фрікулінга» для своїх серверів.

«Ми керуємо повітряним потоком в наших ЦОД для того, щоб уникнути можливого змішування гарячого і холодного повітря. Ми знизили загальні витрати на охолодження типового центру обробки даних на 85% », - стверджує Вейл, додавши, що скорочення витрат відбувається за рахунок комбінованого використання нових технологій охолодження і методів резервного живлення, описаних нижче. Середня температура холодного коридору в ЦОД Google становить близько 27 градусів замість звичайних 22 або нижче. Температура гарячого коридору змінюється залежно від використовуваного обладнання. Google не дає докладної інформації ні про температуру гарячого коридору, ні про точне назві обладнання.

Зі слів Вейл, Google використовує випарні градирні в кожному центрі обробки даних, включаючи свій новий дата-центр в Бельгії. Гаряча вода подається до вершини градирні і спускається вниз через матеріал, який викликає швидке випаровування. Протягом періоду охолодження випаровуванням, чиллери для охолодження ЦОД не використовуються, або використовуються не так часто.

«Наші дата-центри розташовані по всьому світу, в штаті Орегон, де клімат холодний і сухий, і на південному заході, і в середній частині Заходу США. Кліматичні умови скрізь різні, деякі більш теплі, деякі більш вологі, але практично завжди ми покладаємося на охолодження випаровуванням », - стверджує він.

Вейл розповів, що об'єкт в Бельгії, який відкрився на початку 2010 року, навіть не має резервних чілерів, повністю покладаючись на охолодження випаровуванням. Він вважає, що це буде «подією 100-річчя», коли центри обробки даних перестануть потребувати випарному охолодженні, тому Google вирішив відмовитися від резервних чілерів для того, щоб зменшити електричне навантаження на дата-центри.

Адіабатичне охолодження Центрів Обробки Даних

Всі Дата-центри працюють на максимальному навантаженні більшу частину часу, стверджує він. На рідко зустрічаються «гарячі» дні адміністратори переводять деякі сервери в режим очікування або вимикають їх зовсім.

Він радить компаніям серйозно поглянути на технології фрікулінга і, зокрема, на випарні градирні, які описані вище. Ще одна можливість у використанні градирні полягатимуть в тому, що з її допомогою можна перенаправити зовнішнє повітря до серверів, а потім дозволити температурі сервера підвищиться в межах допустимого діапазону і таким чином використовувати менше прямого охолодження в стійках.

З точки зору управління живленням, Google використовує методи перетворення напруги, поступово приводячи змінну напругу до постійного. Google також використовує місцеву резервне живлення, яке фактично являє собою батарею для кожного сервера, замість традиційних ДБЖ, що стало можливим за рахунок перетворення змінного струму в постійний.

Google використовує трансформатор для перетворення енергії на лініях електроживлення, перш ніж потужність надходить до серверів. Традиційно, окремі джерела живлення конвертували напруги змінного струму в постійний, але, на думку експертів галузі, цей метод виявився неефективним.

Девід Капучіо, аналітик Gartner, стверджує: «Google, Facebook і багато інших компаній почали скорочення числа конверторів змінної напруги з того моменту, коли потужність потрапляє в будинок, до того, коли вона надходить до серверів». Це може прийняти форму системи розподілу енергії, що працює на постійній напрузі, починаючи від окремих серверів і закінчуючи окремою стійкою. Як правило, це зберігає деякий відсоток використання енергії, пояснює він.

Google також використовує джерела живлення для серверів і регулятори напруги, які є ефективними на 93%, стверджує він. Використання більш ефективних регуляторів буде непомірно дорогим.

«Ми використовуємо один зовнішнє джерело живлення для 12-ти вольтової шини, яка практично не споживає потужність, коли вона під напругою. Резервна частка становить менше 1% в порівнянні з типовими 15% і більше », - пояснює Вейл, цитуючи EPA оцінки для середньостатистичного ЦОД.

Ще одна цікава технологія Google включає в себе користувальницькі програмні засоби для управління системою даних. Вейл розповів, що більша частина управління автоматизована за допомогою інструментів, які допоможуть з'ясувати, чому сервер споживає занадто багато енергії і які параметри задані невірно.

Компанія використовує власну систему, яка називається Big Table, що зберігає табличні дані та дозволяє ІТ-менеджерам знайти докладну інформацію про продуктивність сервера.

Google стверджує, що його ЦОД по загальній ефективності мають перевагу на 19%, у порівнянні з оцінкою EPA в 96% для більшості центрів обробки даних. Перевищує відсоток показує, скільки енергії використовується для опалення та охолодження IT-пристроїв, а не для запуску серверів.

Cisco і «Скорочення модернізацій»

Подібно іншим компаніям, Cisco впровадила концепцію «скорочення модернізацій», яка досягається за рахунок віртуалізації та консолідації. Процес включає в себе скорочення загального розміру ЦОД і розміщення обладнання в шасі менших розмірів, для економії енергії, що в той же час збільшує продуктивність дата-центрів.

До прикладу, в новому ЦОД Cisco в Техасі, компанія намітила достатньо місця для розміщення величезної серверного кластера, який можна масштабувати швидкими темпами. Основна концепція: «наштовхати» стільки енергії в невеликий простір, скільки це можливо, і в той же час отримати високу продуктивність.

Фактично, за визначенням, кластер Cisco, являє собою стійку з п'ятьма Cisco UCS шасі. У кожному шасі розміщуються вісім лез. В цілому, в дата-центрі є можливість встановити 14400 лез. Кожне лезо має два роз'єми, які підтримують восьми ядерні процесори. Кожне ядро підтримує безліч віртуалізованих операційних систем. На сьогоднішній день Cisco встановила 10 кластерів, які містять 400 лез.

З іншого боку, Cisco поліпшила менеджмент кабельних систем. Джон Манвіль, віце-президент Cisco по ІТ, стверджує, що Cisco заощадила 1 млн. доларів за рахунок скорочення кількості кабелів в центрах обробки даних.

«Більшість людей не усвідомлюють, що вартість кабелю становить від 10% до 15% від загальної вартості», - пояснює Манвіль. «Таке скорочення кількості кабелів допомагає підтримувати потоки повітря в оптимальному стані, і спільно з новою технологією охолодження, яку ми встановили, ми плануємо, економити 600 000 доларів на рік на витратах, пов'язаних з охолодженням».

Окрім цього питання, Cisco також розрахувала, як знизити витрати на обладнання і керування кожної операційної системи для кожного сервера. Манвіль стверджує, що сьогодні один сервер обходиться близько 3700 доларів на квартал. Завдяки віртуалізації, очікується зниження витрат до 1600 доларів на один сервер у квартал і, врешті-решт, є надія знизити цю цифру аж до 1200 доларів за сервер у квартал.

Техаський дата-центр насправді являє собою два окремо розташованих ЦОД, які працюють як один, така концепція називається метро віртуальних центрів обробки даних (MVDC), яку Cisco розробила всередині компанії, і не продає її публічно. Компанія планує відкрити ще два MVDC ЦОД в Нідерландах до кінця 2012 року, він у цілому буде складатися з 4-х ЦОД, що працюють як єдине ціле.

Підхід MVDC не заснований на економії коштів чи збереженні енергії за рахунок того, що дата-центри запускають одні й ті ж додатка в один час. Замість цього, Cisco використовує техніку дублювання. Якщо стихійне лихо виводить з ладу один з центрів обробки даних, всі операції продовжують виконуватися з колишньою потужністю в реальному часі.

Як і Google, Cisco зосереджена на ефективності роботи. Мавіль стверджує, що дата-центр в Техасі пішов на кілька кроків вперед більшості інших ЦОД. Наприклад, потужність розподілена на 415 V для економії близько 10% енергії, в порівнянні з типовими низько вольтовими системами, використовуваними в інших дата-центрах. Ця система також використовує світлодіодні лампи, які економлять близько 40% споживання енергії в порівнянні з лампами розжарювання, стверджує він.

Коли вперше з'явилися світлодіодні лампи, вони були значно дорожче, ніж компактні люмінесцентні лампи, розповів Чарльз Кінг, аналітик компанії Pund-IT. «Курс на зниження витрат робив використання світлодіодних лампи безглуздим, тому, Cisco заслуговує похвали за це впровадження».

Yahoo будує віддалені ЦОД

Традиційний підхід полягає в тому, щоб розмістити хоча б один з основних ЦОД в місті, або, принаймні, в місці з великою щільністю населення, щоб бути ближче до ІТ-адміністраторам, отримуючи, таким чином, вільний доступ до серверів. Зі слів Скотта Ноутбума, старшого директора інжинірингу та операцій центру обробки даних Yahoo, в останні роки концепція різко змінилася.

Yahoo управляє великими дата-центрами у віддалених місцях. Компанія будує п'ять нових ЦОД в Північній Америці, Європі та Азії. Ця нова стратегія віддаленого місця розташування була б неможлива без поліпшеного програмного забезпечення, використовуваного для управління, яке просунулося настільки, що ІТ-персонал може з офісу Yahoo віддалено керувати всіма тонкощами віртуальних машин і дискових сховищ. Ноутбум відмовився розповідати подробиці того, як їм вдається це робити.

Розміщення ЦОД у віддалених місцях дозволяє Yahoo знизити витрати на комунальні послуги, наприклад, у Вашингтоні або Орегоні. Ноутбум стверджує, що на будівництво ЦОД у віддалених місцях потрібно значно менше часу, в деяких випадках це займає 6 місяців, у порівнянні з періодом будівництва традиційного ЦОД, на який відводиться від 18 до 24 місяців, що також знижує витрати.

Основна перевага більш швидкого будівництва полягає в тому, що утворюється можливість більш точно визначити, яка потужність буде потрібно Yahoo після завершення будівництва, так як значно простіше розпланувати необхідну ємність протягом півроку, ніж робити це через 2 роки.

Крім того, Нуотбум стверджує, що компанія Yahoo почала використовувати новий підхід, при якому послуги можна різко масштабувати як у бік збільшення, так і у бік зменшення в залежності від зміни потреб. У минулому, центри обробки даних були розраховані на конкретний час безвідмовної роботи і конкретні ємності. Але тепер ці параметри можуть бути більш детальними.

Використовуючи програмне забезпечення компанії, зване Yahoo Flex Data Center рівня QOS Дизайн, ІТ-спеціалісти можуть надати такий обсяг електроенергії, який повинен бути використаний і такі ДГУ і ДБЖ, які забезпечать необхідний рівень резервування.

Ноутбум наводить наступний приклад: електронна пошта або пошук може зажадати високої доступності, в той час як новому бета-сервісу для перевірки котирувань акцій, вона може зовсім не знадобитися.

Yahoo може встановлювати різні рівні QoS для цих додатків. У минулому, додатки були б на одному рівні QoS.

Програмне забезпечення також дозволяє Yahoo переміщати додатки і послуги на сервера з високим ступенем резервування або використовувати кластер, якщо це можливо, коли один або два вузла відключають на короткий час.

Ще один спосіб масштабування Yahoo - це придбання зв'язків з місцевими комунальними компаніями. Нові ЦОД запускають з 1 або 2 МВт електроенергії, але він може бути масштабувати до 20 МВт. До початку будівництва, Yahoo укладає контракти на використання кількох комунальних послуг в одному центрі обробки даних, або укладає гнучкі контракти на електроенергію і навіть організовує різні пільги для кожного рівня обслуговування.

«З точки зору витрат, це забезпечує нам велику віддачу від вкладених коштів, взамін надлишкових інвестицій», - стверджує Ноутбум.

Поки новий гнучкий підхід QoS працює справно. Тільки що побудований дата-центр в північній частині штату Нью-Йорк має коефіцієнт ефективності використання енергії 1,08, що досягається головним образів за рахунок здатності адаптувати послуги під вимоги клієнтів. Не кожен ДБЖ і не кожен сервер працює під управлінням протягом всього дня. Очевидно, що ІТ-персонал адаптується під поточні додатка QoS.

Pund-IT вважає, що Yahoo - це щось незвичайне. «Це цікавий підхід, особливо привабливий до адаптовану QoS додатків. Це може бути суттєвим для постачальників хмарних слуг, що дозволить їм краще структурувати свої пропозиції для кінцевих споживачів ».

Тим не менш, ефективність ЦОД багато в чому залежить від місцерозташування. Є не так багато місць, де компанії можуть вибрати комунальні послуги. Але ця ситуація може змінитися точно також, як і те, що альтернативні джерела енергії зможуть заробити.

Витяжна труба Intel

Інженери компанії Intel розробили унікальну систему витяжних труб, які працюють подібно пластиковому завісі, для видалення гарячого повітря від серверних стійок. В даний час Intel сертифікує технологію витяжних труб. «Це економічно ефективний спосіб для збереження холодного повітря в холодному коридорі і економія електрики», - стверджує Кім Стівенсон, віце-президент з ІТ компанії Intel.

Стівенсон стверджує, що витяжні труби, встановлені над кожною стійкою, були необхідні, так як багато ЦОД компанії Intel розташовані в межах виробничих об'єктів. Деякі будівлі не зовсім нові, тому технологія дозволила ефективно вирішувати питання, пов'язані з перегрівом. Альтернативним виходом для вирішення проблеми, пов'язаної з виділенням тепла в холодному коридорі, могло стати розміщення по заміні серверів на більш енергоефективні, вартість яких була б набагато вища.

Крім того, компанія Intel «занурилася» в цю стратегію для того, щоб вивчити «весь ЦОД, програмне забезпечення, сервери, системи зберігання, мережі і об'єкти як системи, які оптимізовані для конкретних потреб бізнесу», - згідно з останнім щорічним IT-звіту.

Наприклад, команді дизайнерів із силіконової долини потрібно запускати мільйони робочих місць в тиждень з високою обчислювальною потужністю. Компанія Intel IT «прийняла ці унікальні вимоги до високої обчислювальної продуктивності».

Загалом, компанія аналізує продуктивність своїх центрів обробки даних на основі чотирьох ключових показників: ефективність, якість, місткість і швидкість. У цьому році, як згадано в доповіді, Intel планує «впровадити інтелектуальні інструменти бізнес-аналітики, які дозволять застосувати концепції ланцюжків постачання для наших особистих хмар, допомагаючи нам краще зрозуміти попит для поліпшеного планування ємності».

Ще одне нововведення стосується того, як Intel управляє віддаленим доступом, пов'язаним зі зміною бізнес-моделі Intel. Традиційно, компанія розробляла тільки високотехнологічну продукцію, в тому числі материнські плати і процесори, а її дата-центри були закриті і охороняють. Тепер Intel розширює свій бізнес для того, щоб надавати продукти та послуги, які є більш відкритими.

Наприклад, Intel продає програми для нетбуків, і компанія повинна підтримувати користувачів, які купують програмне забезпечення. Intel використовує свій власний продукт SOA ExpressWay для підтримки всіх вхідних облікових записів користувачів.

«Intel ExpressWay допоміг створити бездоганну архітектуру політик безпеки, що спрощує і скорочує непотрібну аутентифікацію», - стверджує Стівенсон.

Стівенсон пояснює, що єдиною альтернативою було б інвестування в дороге обладнання для символічної аутентифікацією, пов'язаної із зовнішніми операціями.

 

Немає коментарів:

Дописати коментар