Бизнесът разполага с объркващо много възможности при избор на виртуализационно решение

Категория: Виртуализация
Александър Главчев
четвъртък, 10 Декември 2009 10:13ч

Бизнесът разполага с объркващо много възможности при избор на виртуализационно решение
Въпреки всичкия шум около виртуализационните решения – широко рекламираната им способност да донесат на бизнеса така желаните спестявания в условията на криза и въпреки че са на пазара вече години наред, често на тях се гледа като на все още узряваща технология. Наистина голям брой компании от всякакъв размер се възползват активно от нея, но и много продължават да следят развитието й отстрани, изчаквайки да видят докъде ще стигне тя или колко ще им струва. И тук естествено идват следните няколко въпроса - какво печелят организациите след внедряване на виртуализационно решение, какво ги кара да преприемат такава инфраструктурна промяна и кога е най-удобният момент да се обмисли една такава стъпка, често налагаща провеждането и на други реформи в компанията.

Преминалите през процеса на въвеждане на такова модерно решение посочват многобройни ползи, които най-грубо могат да бъдат разделени на три категории: технически, финансови и такива по отношение на сигурността. За никого не са тайна основните предимства на разглежданата технология, като консолидирането на множество физически сървъри върху по-малко на брой виртуални, както и възможностите за по-бързо стартиране на допълнителни виртуални машини, често без да е необходимо да се търсят (закупуват) нужните за целта дискове, процесори и т.н. Понижаването на средствата, отиващи за поддръжка на дейтацентровете, също е вероятно най-важният критерий. Въвеждането на виртуализационно решение обикновено намалява обема на използвания хардуер, натоварвайки го до оптималното ниво. Това довежда до спестявания от гледна точка на изразходваната електрическа енергия както от самата техника, така и за охлаждането й. По отношение на сигурността виртуалната среда предлага някои безспорни предимства. Възможността данните да бъдат прехвърляни почти в реално време може да се окаже безценна при disaster recovery сценарии, както при реални събития, така и при отработване на хипотетични възможности.

Днес мениджърите имат на разположение объркващо много възможности при избора на виртуализационно решение. Някои са лицензирани, а други – с отворен код. Повечето се базират на три основни технологии, като резултатите от всяка зависят пряко от специфичните изисквания, количеството „товар“, който трябва да бъде виртуализиран и конкретните оперативни приоритети.

Пълна виртуализация


В основата на повечето методи за виртуализация се използва т.нар. Hypervisor. Това е софтуер, наричан още Virtual machine monitor (VMM), който позволява едновременната работа на много операционни системи на един хост-компютър. Програмата осигурява изолацията на различните ОС една от друга, защитата и безопасността им, както и споделянето и управлението на наличните хардуерни ресурси. Хипервайзорът може също да осигури такива връзки и взаимодействия между работещите на една машина ОС (като например файлов обмен и мрежови връзки), каквито биха били те, ако са разположени на различни физически компютри. Донякъде може да се твърди, че въпросният софтуер е минимална операционна система (микроядро или наноядро, от англ. Kernel – централният компонент на повечето ОС, осигуряващ връзката между приложенията и реалните операции с данните, правени на хардуерно ниво). Той предоставя на работещите под контрола му операционни системи т.нар. виртуална машина (Virtual machine – VM), виртуализирайки (емулирайки) реален хардуер и освобождавайки необходимите ресурси. Различните виртуални машини могат независимо една от друга да бъдат включвани, рестартирани и изключвани.

При т.нар. пълна виртуализация хипервайзорът създава абстрактен „слой“ между хардуера и сървърите. VMware и Microsoft Virtual PC са два примера за лицензионо решение, а KVM (Kernel-based virtual machine) е приложение с отворен код за Linux. Тук хипервайзорът прихваща инструкциите за процесора и осигурява достъп до хардуерните контролери и периферията. Като резултат пълната виртуализация позволява практически всяка операционна система да бъде инсталирана на виртуална машина, без модификации и без тя да „разбира“, че работи във виртуална среда. Основният недостатък на метода е натоварването на процесора, тъй като хипервайзорът трябва да следи непрекъснато работата на операционните системи, така че те да работят независимо.


Паравиртуализация


Един от начините за намаляване на товара върху процесора е чрез специална подготовка за работа на операционните системи във виртуализирана среда. За целта те претърпяват незначителна модификация. Това се нарича паравиртуализация. Тя е разработена като алтернатива на споменатата пълна виртуализация. Измененията в ядрата на операционните системи общуват с хипервайзора на по-високо ниво и позволяват изключване на „лошите“ инструкции. Вместо да се обработват т.нар. Hypercalls (по подобие на т.нар. System call – механизмът, по който програмите се обръщат към операционната система за извършване на дадена операция), хипервайзорът предоставя на ОС специален приложно-програмен интерфейс (Application Programming Interface – API), чрез който тя взаимодейства с хардуерните ресурси.

Xen е един от примерите за такова решение на базата на отворен код. Модификациите на операционните системи осигуряват добра съвместимост с BSD, Linux, Solaris и други продукти с отворен код. За лицензиран софтуер обаче като Windows модификациите са невъзможни.
Основното предимство на паравиртуализацията е производителността. Сървърите, реализирани по тази технология, работещи във връзка със съответния хипервайзор са почти толкова отзивчиви, колкото невиртуализирани машини. Явно това е достатъчно мотивиращо предимство и Microsoft и VMware разработват паравиртуализационни технологии.


Виртуализация на ниво ОС


Друг начин за постигане на виртуализация е изграждането й на ниво операционна система. Т.нар. Solaris Containers са подобен пример, както и Virtuozzo за Linux.

При виртуализацията на ниво ОС няма отделен хипервайзорен слой. Вместо това хостващата операционна система сама е отговорна за поделянето на хардуерните ресурси между различните виртуални сървъри и запазването на независимостта им. Очевидната отличителна черта на този метод е, че виртуалните и хостващата машини трябва да бъдат управлявани от една и съща операционна система (въпреки че всяка една нейна инстанция има свои собствени приложения и потребителски акаунти).

Това, което виртуализацията на ниво ОС губи по отношение на гъвкавостта, се балансира от скоростта на работа. Също така една архитектура, използваща единна, стандартна операционна система за всичките виртуални сървъри, е по-лесна за поддръжка, отколкото би била някоя по-хетерогенна среда.


Какво да изберем?


Всеки един от споменатите методи има своите предимства, зависещи от конкретната ситуация. Например група сървъри, базирани на една платформа, са добър кандидат за консолидация посредством виртуализация на ниво операционна система.

Паравиртуализацията представлява най-доброто и от „двата свята“, особено когато е изградена с процесори, поддържащи съответните инструкции. Тя предоставя добра производителност плюс възможност за работа с нехетерогенна смесица от различни операционни системи.

Пълната виртуализация може и да не бие рекорди по скорост, но предлага ценното качество да изолира напълно различните операционни системи от основната. Тази технология е добър вариант при тестване на софтуерни приложения и съвместимостта им с различни видове ОС.

Пълната виртуализация предлага и други уникални възможности. При нея могат да се правят т.нар. Snapshots на виртуалните сървъри за запазване на данните им в даден момент от времето, с цел реализиране на аварийни сценарии. Тези „снимки“ могат да се използват и за бърза доставка на нови сървъри по техен образец.

Важно е да се знае, че независимо от това кой точно модел е избран, виртуалните машини се нуждаят от постоянно наблюдение и поддръжка, досущ като обикновените си физически събратя. Нарастващата популярност на сървърната виртуализация спомага разрастването на пазара на инструменти от трети компании. Сред тях има програми за миграция на съдържание между реални и виртуални машини, виртуализационно ориентирани версии на системни конзоли и така нататък продукти, насочени към преминаването от традиционна ИТ инфраструктура към по-ефективна както по отношение на хардуерните ресурси и сигурността, така и от гледна точка на финансовите разходи виртуализирана среда.


Скъпо захранване


Според проучвания захранването и охлаждането на центровете за данни са сред топ тревогите на мениджърите в момента. Нарастващите цени на електроенергията, в комбинация със стремежа за постигане на „по-зелена“ ИТ инфраструктура слагат дори допълнителен акцент върху това. Може да се каже, че споменатите проблеми често имат решаваща роля при планирането на един център за данни. Ако преди години организациите гледаха просто да максимизират изчислителния или сторидж капацитетите си и приемаха охлаждането и захранването като неизбежни разходи, то в момента ситуацията е променена. Клиентите на центровете за данни все по-често търсят решения, които оптимизират потреблението на електрическа енергия.

Има най-разнообразни решения за постигане на тази цел, започвайки от използването на блейд сървъри, които предлагат икономии благодарение на интегрирания си дизайн в сравнение със стандартните ракове. Споделянето на захранването елиминира нуждата от захранващи блокове, без по този начин да се жертва производителността.

Виртуализацията е друг метод за спестяване чрез оптимизиране ан натоварването и често дори намаляване на нужния брой процесори. Според специалисти не са рядкост сценариите, когато компании имат на разположение няколко сървъра, всеки един от които със средна натовареност под 10%. Обединяването на ресурсите и споделянето им като едно цяло увеличава натоварването на по-малък брой процесори и де факто освобождва останалите. Това позволява в отделни случаи спестяване на до почти 30% от оперативните разходи за поддръжката на центъра за данни.

Разбира се, на този свят няма пълно щастие и подходът може да доведе до нови проблеми под формата на т.нар. горещи точки вътре в центъра за данни, тъй като по-натоварената техника отделя съответно по-голямо количество топлина. Друг проблем е, че захранващата техника, като например UPS устройствата, се проектират за определен товар и отпадането на голяма част от него вследствие виртуализирането на ИТ ресурсите и намаляването на процесорите понижава и ефективността на споменатите машини. В цифри, при спадане на товара наполовина, ефективността намалява с цели 25 на сто. Същото важи и за охлаждането. Спадането на температурния товар означава излизане от спецификациите на производителя и неефективна и енергоемка работа.

Специалисти предлагат инсталирането на охладителни елементи между самите ракове, част от които вероятно ще са освободени от сървърна техника, и интелигентен контрол върху тях, с цел отдаване на точно толкова охлаждаща мощност, колкото е необходимо, на точно необходимото място.


Сториджът и виртуализацията


Виртуализацията на сървърите е станала един от най-важните агенти на промяната в днешните ИТ организации. Освен че предоставя много по-голяма степен на използване на сървърите, технологията предлага съответно и предимства по отношение на захранването и охлаждането, които са привлекателни за компаниите. Поради успеха от виртуализацията на сървърите много от тях предприемат вече и виртуализация на сториджа, която да предложи общ източник на системи за съхранение, ефективно обезпечаване на ресурси и моментни снимки, за да получат подобна ефективност.
За да се възползват напълно от предимствата на сървърната виртуализация като мобилност на приложенията и възможността за висока достъпност и възстановяване след бедствие, виртуализираните сървъри се нуждаят от свързан в мрежа сторидж. Според неотдавнашен доклад на ESG „Виртуализацията на сървъри: влияние върху сториджа” 86% от отговорилите, използващи сървърна виртуализация, поддържат виртуализационните си среди със свързан в мрежа сторидж, а болшинството от тях пък са (FC) SAN. Резултатът е много динамична инфраструктура, в която всеки сървър изисква свързване към всяко устройство за съхранение, за да се осигурят гъвкавост и мобилност. Приема се обаче, че входно-изходната писта все още би трябвало да е във фиксирана невиртуализирана среда. За да се поддържа темпът на промените в областта на сървърите и сториджа, организациите трябва да са сигурни, че входно-изходната (I/O) точка не е тясно място.

Виртуализирането на I/O може да бъде най-добрият начин да се настрои динамичната природа на тези среди. Има голямо разнообразие от достъпни технологии, а още повече се задават на хоризонта, които се фокусират върху проблемите, създадени от виртуализацията на сървърите. Първата стъпка е запознаването с различните техники и да решите какво има най-голям смисъл за вас днес и в бъдеще.

Днешният модел на I/O обезпечаване не е претърпял почти никакви промени през последните 10 години и има своите недостатъци и ограничения. Мрежовите интерфейсни карти (NIC) изискват да се осигури IP свързване, въпреки че хост адаптерните шини (HBA) предвиждат FC достъп до сървъра. Технологията напредна, като се увеличиха скоростта и интелигентността, но тя все още не успява да е в крак с бързо променящите се виртуализационни среди.

Един от очевидните проблеми с този тип аранжировка е цената, свързана с широкото внедряване и поддръжка на среда, която в една конфигурация за висока достъпност ще притежава две NIC карти и два HBA на сървър заедно със съответното допълнително окабеляване.

Осигуряването на липса на аварии на среда с много свързвания е трудно, понеже всяка писта може да бъде място на повреда. Някои от най-трудно проследимите проблеми са свързани с кабелите. Не е необичайно за служителите в ИТ да прекарват ден след ден, опитвайки се да отстранят проблем, само за да открият накрая, че той е в прекалено прегънат кабел.

Нещата се усложняват и при снабдяване с нови физически сървъри в организации с разграничени мрежов и сторидж отдели, които трябва да се координират, за да обезпечат NIC и HBA карти. В много случаи това отнема седмици.

Традиционните HBA „не виждат” виртуалните машини, което повдига въпроси за потенциалната сигурност и управлението. От гледна точка на сигурността всички приложения, които работят на физически сървър, трябва да са в една зона. От гледна точка на управлението е трудно да се свържат приложенията със сториджа, ако не може да се идентифицират виртуалните машини. И в крайна сметка възниква необходимостта от по-добро решение, което е по-мащабно и гъвкаво и има повишена функционалност. Съществуват решения, които са предназначени точно за тези проблеми, но степента, до която ги разрешават, е различна.


Какво печелим?


Мнозинството специалисти и анализатори сочат виртуализацията като следваща стъпка в дейтацентровете. Един виртуален масив за съхранение на данни помага за постигане на независимост за това къде физически е разположен носителят. Той позволява „скриване” на физическите устройства и обединяване на масиви на различни производители, изискващи разнородно управление и поддръжка. Подобреното оползотворяване на хардуера се постига чрез миграция, pooling (централизация) и т.нар. Thin Provisioning. Последният термин представлява функция, позволяваща „заделяне” на дисково пространство, колкото е нужно в момента, и увеличаване на квотата при необходимост. От нея често се възползват хостинг доставчиците, при които практиката показва, че обикновено няма нужда да осигуряват на всичките си клиенти физическото пространство, което обещават по регламент. Чрез thin provisioning виртуалните машини биват “лъгани”, че разполагат с определен обем. Когато общият брой на съхраняваните данни нарасне, доставчикът на услугата просто добавя още хард дискове. Удобството на виртуализираната среда е, че в много случаи системните администратори няма нужда да търсят свободни хард дискове, за да ги сложат в новия сървър, а просто създават ново виртуално устройство, за което заделят съответните параметри от общия консолидиран обем.

Pooling също означава по-пълно използване на наличния хардуер. При традиционния подход хард дискът или заделеният от него обем могат да са по-големи от необходимото. Виртуализация ограничава подобно разхищаване на пространство, като виртуалните устройства се настройват според конкретните нужди. Сториджът може да бъде „заделян” когато и където е нужен, без да се гадае колко пространство ще е необходимо в бъдеще.

Едно от най-важните предимства на виртуализацията при съхранението на данни е възможността за тяхната непрекъсваема миграция. „Откачането” на сървъра от физическата локация на информацията позволява тя да бъде прехвърляна от едно място на друго, без работата с нея да бъде възпрепятствана. Тъй като хостът има информация само относно логическото устройство, всяка промяна на т.нар. метаданни (meta-data – информация, благодарение на която се осъществява връзката между виртуализирания сторидж, видим за потребителя, и физическото разположение на данните) е прозрачна за потребителя. Тоест в същия момент информацията може да бъде местена или репликирана, без по този начин да бъдат засягани други операции, свързани с достъп до нея. При преместване (миграция) метаданните само се ъпдейтват за новото местоположение.

Не на последно място едно от най-често рекламираните преимущества не виртуализацията е намаляването на харчовете по поддръжка. Важно е обаче да се знае, че все пак традиционните задачи като създаване и поддържа на RAID масиви или опасностите от грешки и повреди по техниката остават и дори понякога могат да имат много по-драматични последствия именно поради централизацията.
Етикети: виртуализация

Четете още:



Последни новини
Джони Деп се завръща на голям екран в емблематичната си ...
 
AOC представя най-бързият геймърски монитор с NVIDIA G-SYNC до момента. ...
 
Още един смартфон от богатото портфолио на Huawei вече е ...
 
Приложенията Word, Excel и Outlook вече могат да бъдат интегрирани ...



Най-четени