Az utóbbi néhány évben gyökeres fordulatot vett a szerver számítógépekről alkotott filozófia. Ez köszönhető főleg a hardver eszközök gyors fejlődésének. A számítógépek teljesítménye hatalmas növekedésen ment, megy keresztül. Ma már rengetek szerver alkalmazás, - ami régebben megkívánta a különálló számítógépet a megfelelő teljesítmény eléréséhez - a fizikai erőforrások csak kis részét képes kihasználni. A számítógép erőforrásainak akár nagy része kihasználatlanul működik, feleslegesen növelve ezzel az elektromos fogyasztást. Az elpazarolt erőforrások pedig nem csak a villanyszámlára nincsenek jótékony hatással, de környezetünk tönkretételében is sokat nyomnak a latba.
Ezen lehetőségek és adottságok hívták életre a szerver virtualizációs technológiákat. Ez egyszerűen összefoglalva annyit jelent, hogy kihasználva az erős hardverekben rejlő potenciált, a mérnökök életre hívtak olyan hardveres és szoftveres komponenseket, amik a fizikai számítógépeken megteremtik azt a lehetőséget, hogy egymás mellett egy időben hagyományos értelembe vett, akár több (virtuális) számítógép is üzemeljen. Ezt úgy érik el, hogy a fizikai számítógépen futó virtualizációs szoftverben létrehozhatunk virtuális számítógépeket. Ezek száma terjedhet 1 db virtuális számítógéptől, akár több tíz darabig is. Az adott fizikai hardver erőssége és kapacitása szab csak határokat a virtuális szerverek számának.
A virtualizációt egyébként úgy érik el, hogy a fizikai szerveren futó virtualizációs szoftver becsapja a telepíteni kívánt rendszereket és azt mutatja nekik, hogy ők bizony valóban egy fizikai számítógépre települnek. Így minden egyes különállóan telepített rendszer azt hiszi magáról, hogy valóban egy különálló számítógépen fut és így is viselkedik. A valóságban viszont azt érjük el, hogy egy darab fizikailag megtestesülő szerver számítógépünk van, amin hagyományos értelembe véve pl.: 4 db különálló szerver számítógép működik. Amennyiben megfelelően van méretezve a fizikai eszköz és a rajta futó virtuális szerverek, úgy a virtuális szerverek képesek kihasználni a rendelkezésre álló erőforrásokat úgy, hogy az egyes virtuális számítógépek teljesítménye nem lesz kisebb, mintha azokat különálló fizikai szerver számítógépekre telepítettük volna. Ebből következik, hogy az eszköz beszerzéseken is komoly megtakarítás érhető el, valamint az elektromos fogyasztás is jóval kisebb lesz.
Ez a remek technológia viszont ebben a megvalósításban már első látásra is komoly kockázatokat hordoz magában. Az előző példákból kiindulva, amennyiben hardver hiba lép fel az egyetlen fizikai szerver számítógépünknél, úgy az nem egy darab szervert érint, hanem egyből négyet is működésképtelenné tehet.
Természetesen, ha ez a fajta megoldás ennyiben ki is merülne, akkor nem lenne túl sok értelme. Van azonban olyan lehetőség, ami nem csak kiküszöböli ezt a problémát, de még üzembiztosabbá teszi a rendszert, mint amilyen előtte bármikor is volt.
Erről annyit érdemes tudni, hogy szétválasztásra kerül szervereknél a futtató és az adattároló rész. Így jön létre egy úgynevezett storage(tároló), ami valójában egy külön számítógép, ami lehetőleg nagy kapacitású merevlemezekkel rendelkezik, lehetőség szerint hibatűrő úgynevezett RAID 5-ös disk tömbökkel. Ennek az eszköznek összesen annyi a feladata, hogy kiszolgálja a hozzácsatlakoztatott virtuális szervereket, vagyis minden szerver minden adata nem helyileg tárolódik, hanem ezen a külső storage-on. Ennek az értelme az, hogy egy virtuális szerver így függetlenné válik a fizika szervertől, amin éppen fut.
Képzeljük el, hogy két darab fizikai számítógépünk van, amin fut 3-3 db virtuális szerver. Megtehetjük, hogy pl.: fogjuk az egyik (vagy akár az összes) virtuális szervert és átmozgatjuk egyik fizikai szerverről a másikra. Így gyakorlatilag bármikor megváltoztatható egy virtuális szerver fizikai helye. Természetesen azért figyelembe kell venni a rendelkezésre álló eszközök terhelhetőségét is. Ennek a lehetőségnek mi az igazi előnye? Több dolgot is fel lehet sorolni. Amennyiben az egyik fizikai gépen túl nagy a terhelés, a másikon pedig kicsi, abban az esetben átmozgatunk egy virtuális szervert a kisebb terheltségű gépre és már is optimálisabban használhatjuk ki a rendelkezésre álló hardvereinket és még a rendszerek sebessége sem esik vissza. Másik eset, hogy probléma adódik az egyik fizikai szerver számítógéppel. Átmozgatjuk az összes virtuális szervert a másik hibátlanul működő fizikai szerverre és máris működik minden normálisan tovább a felhasználók szempontjából. A hibás gépet van idő megjavítani, hiszen a kiesése nem okoz valóságos kiesést a rendszerek működésében.
Ez a szerver virtualizációs technológia mára már stabilan működőképes és egyre több kis és nagyvállalat áll át világszerte erre a megoldásra. Pár éven belül a hagyományos értelembe vett szerverek teljesen eltűnnek, hogy átadják helyüket a virtualizált szerverek részére.
Szoftver szempontjából több virtualizációs megoldás is létezik. Egy részük fizetős elég drága megoldást nyújt. Másik részüknél az alapszolgáltatások ingyenesek, de ha központi menedzselhetőségre, vagy terheléselosztásra, esetleg hibatűrésre is szükségünk van, akkor szintén nagyobb összegeket áldozhatunk ezen igényeink megvalósítására.
Természetesen léteznek nyílt forráskódú professzionális megoldások.
Az egyik a XenServer virtualizációs platform, mely kimagasló skálázódási lehetőségeket biztosít, egy host operációs rendszer akár 4000 virtuális processzorig is bővíthető, illetve akár 500 VM futtatását teszi lehetővé.
A másik a Proxmox Virtual Environment, mely szintén nyílt forráskódú szerver virtualizációs platform, KVM és OpenVZ alapokon. Az intuitív webes felületet úgy tervezték, hogy segítsen ésszerűsíteni a meglévő erőforrások kihasználtságát ezáltal csökkentve a hardver költségeket, valamint az adminisztrációs időt.
Ennek a költséghatékony professzionális megoldásnak az integrációjában, üzemeltetésében nyújt segítséget cégünk.