Technology

Virtuális rendszer, valódi katasztrófatűrés

A virtualizációs technológiák alkalmazása nemcsak a mindennapi üzemeltetést teheti költséghatékonyabbá, hanem a katasztrófatűrő rendszerek kiépítését is.

A virtualizáció számos módon felkavarta az adatközpontok állóvizét, és így nem hagyta érintetlenül a katasztrófaelhárítást sem. Az üzemeltetők alapvető célja rendszerint az, hogy a szerverek konszolidációjával csökkentsék a kiadásokat. A kisebb számú fizikai szerver egyúttal azt is jelenti, hogy mindegyik sokkal „kihegyezettebben” működik, és több alkalmazás fut rajta – vagyis ha leáll, az nemcsak egy rendszert érint, hanem messzeható következményei lehetnek a vállalat egészének működésére nézve. Az is tagadhatatlan, hogy a virtualizáció egy újabb szoftverréteg bevezetésével bonyolultabbá teszi a felügyeleti feladatokat, különösen olyan nagy adatközpontokban, ahol többféle virtuális megoldást alkalmaznak.

 

Nem kell a szimmetria

Ez azonban az éremnek csupán az egyik oldala. A virtualizált rendszerekhez ugyanis költséghatékonyabb módon lehet katasztrófatűrő környezeteket kiépíteni, mint a hagyományos fizikai adatközpontokhoz, állítja Varsányi András, a HP Magyarország infrastruktúra-specialistája.


A fizikai infrastruktúra esetében kénytelenek vagyunk a szimmetria szabályainak engedelmeskedni: akár helyben akarunk magas rendelkezésre állású rendszert kialakítani, akár két külön helyszínen valósítunk meg katasztrófatűrő rendszert, egyszerűen meg kellett kettőzni az eredeti infrastruktúrát, mondja a szakértő. Ez nemcsak hogy óriási költségekkel járt, de az informatikusokat is komoly kihívások elé állította, ugyanis korántsem triviális feladat a két környezetet folyamatosan szinkronban tartani.

A virtualizált rendszerekből kiépített katasztrófatűrő környezetben viszont sokkal hatékonyabban lehet gazdálkodni az erőforrásokkal. Nincs szükség egy-az-egyben megfeleltetésekre, így a másodlagos helyszínen jóval kevesebb (virtuális) szerver is elegendő: az aszimmetria mértéke attól függ, hogy milyen funkcionalitást és rendelkezésre állást várunk el a katasztrófatűrő környezettől, magyarázza Varsányi András.

A virtualizált rendszerek másik előnye ugyanis az, hogy átalakította a felhasználók gondolkodásmódját. Tíz évvel ezelőtt a tartalék rendszertől is ugyanazt a funkcionalitást és teljesítményt várták el, mint az elsődleges adatközponttól. A virtualizációval viszont teret nyert a good enough hozzáállás, vagyis hogy a másodlagos rendszertől csak azt várják, hogy a legkritikusabb alkalmazásokat és szolgáltatásokat elfogadható szinten működtesse, amíg az eredeti adatközpontot helyre nem állítják.

Az iparági gyakorlat ma nagyjából az, hogy a tartalék központ kapacitását az elsődleges környezet 40 százalékára tervezik.

 

Kizárólag jól menedzselve!

A virtualizált környezet felügyelete ugyanakkor kulcsfontosságú a katasztrófatűrő megoldás sikere szempontjából. A rendszer akkor lesz hatékony, ha a menedzsmentszoftver képes a szerverek azonnali kiosztására (provisioning), vegyes környezetben is; a szerverek leállásának automatikus felismerésére és gyors átkapcsolásra (failover); a virtuális gépek zökkenőmentes átvitelére egyik hardverplatformról a másikra; valamint a tartalék szerverek azonnali azonosítására és rendszerbe állítására.

A virtualizációs rendszerekhez ma már a gyártók adnak megfelelő felügyeleti megoldást, amely hatékonyan biztosítja az erőforrásokkal való gazdálkodást. Viszont a virtuális szerverek alatt működő fizikai szervereket a felhasználók nem tudják ugyanazzal a könnyedséggel menedzselni, mint a virtuális környezetet – figyelmeztet Varsányi András –, mert erre a rendszerek már nincsenek felkészítve. Az egyik legfontosabb feladat, hogy ezt a funkcionális ollót a felhasználók a lehető legszűkebbre zárják, optimális esetben meg is szüntessék a különbséget. Itt van tere a megoldásszállítóknak, akik saját eszközeikkel vagy módszereikkel betömhetik a meglévő réseket.

Igény, az lenne rá

Semmi kétség afelől, hogy a virtualizációs megoldások gyorsan terjednek világszerte és Magyarországon is. A Gartner becslései szerint 2012 végére a világ szerverterhelésének (workload) több mint fele már virtuális gépeken fog futni, ami még a jelenlegi állapotokhoz képest is komoly emelkedést jelent. Dialektikus módon, a puszta mennyiségi növekedés hamarosan minőségi növekedésbe is átcsap: a kisebb jelentőségű alkalmazások, szolgáltatások mellett egyre több, az üzletmenet szempontjából feladatkritikus rendszert is virtualizálni fognak a vállalatok.

Miközben viszont a virtualizáció egyre lényegesebbé válik, a védelemről mintha megfeledkeznének a vállalatok. Egy 2010-es Symantec-felmérés szerint a virtualizált szerverek 60 százalékára nem terjednek ki a jelenlegi katasztrófaelhárítási tervek. Ami talán még rosszabb, a virtuális környezetekben lévő feladatkritikus alkalmazások és adatok csupán 20 százalékát védik replikációs technológiák.

 

Az sem mindegy, hogy az infrastruktúra mely elemeire terjednek ki a katasztrófatűrő képességek. A piacon elterjedt megoldások a szervervirtualizációból indultak ki, viszont a szerverszintű katasztrófatűrés csak egy része a teljes képnek: ahhoz még hozzátartoznak a hálózati és tárolási képességek is, melyhez sok esetben még külön szoftver szükséges.

 

Jobb és olcsóbb

Ezzel együtt a virtualizált x86-os szerverkörnyezetek a magas rendelkezésre állás és a katasztrófatűrés szempontjából is sokkal költséghatékonyabb megoldást jelentenek, mint a fizikai szerverekből álló infrastruktúra, jegyzi meg Varsányi András. Virtuális környezetben akár több tucat fizikai szervert is be lehet vonni egy magas rendelkezésre állású megoldás kialakításába; ez a rendelkezésre állási szint jóval magasabban lehet, mint a fizikai infrastruktúra esetében. Másképp fogalmazva: x86-os virtualizált platformot használva olyan rendelkezésre állást, illetve katasztrófatűrést lehet elérni, amit korábban csupán Unix-rendszerek biztosítottak – miközben a megoldás költségei annak csak a töredékét teszik ki.