Nog niet zo lang geleden werd technologie om de opslag-infrastructuur te virtualiseren door veel it-managers gezien als de langgezochte oplossing voor de steeds maar groter wordende problematiek omtrent data-opslag. Virtualisatie zou hen namelijk in staat stellen om de over de gehele organisatie verspreide heterogene opslagmiddelen met grote eenvoud te beheren en te controleren. Maar is deze verwachting realistisch?
Het zou met virtualisatie mogelijk worden om de totale opslagcapaciteit, los van de techniek, naar wens te verdelen en bovendien de efficiëntie van de beschikbare middelen sterk te verhogen. Er zou een dynamisch geheel ontstaan waarbinnen zeer snel gereageerd kan worden op wijzigingen en waarbinnen op ieder moment aan capaciteitsvraag kan worden voldaan zonder dat applicaties of eindgebruikers daar enige hinder van ondervinden.
Ook door veel leveranciers van opslagtechnologie werd virtualisatie gepositioneerd als hét middel om snel en eenvoudig een zeer dynamische opslaginfrastructuur te creëren. De realiteit blijkt hier echter serieus van af te wijken. In de praktijk blijkt het configureren van opslagmiddelen met behulp van virtualisatietechnologie alles behalve eenvoudig en levert het ook niet altijd de beloofde effectiviteit op. Het mag dan wel mogelijk zijn om bepaalde lagen van de opslaginfrastructuur daadwerkelijk te virtualiseren (bijvoorbeeld de tape-apparatuur), de aantrekkelijke gedachte van een totaal geconsolideerde, uit heterogene componenten bestaande opslaginfrastructuur, is met enkel en alleen virtualisatietechnologie niet te bewerkstelligen.
Totale kosten
Aangezien opslagbeheerders nog steeds op zoek zijn naar methoden om het effectieve gebruik van de beschikbare middelen te vergroten en daarbij de totale beheerkosten (total cost of ownership, tco) te verlagen, blijft de belofte van virtualisatie echter nog steeds zeer aantrekkelijk.
Virtualisatie
Zoals we wel vaker zien bij een analyse van een it-item gaat het ook bij virtualisatie niet echt om iets nieuws. De eerste vorm van virtualisatie zagen we al in de eerste jaren van het mainframe. Toen moest alle programmatuur kunnen functioneren in 360KB ‘systeem-geheugen’ (real memory). Als er meer nodig was dan dat, dan moest de broncode geladen worden ‘bovenop’ de code die al uitgevoerd was, in ‘virtueel geheugen’ (virtual memory’).
Virtueel geheugen werd al snel een begrip. Door deze technologie leek het alsof gebruikers een oneindige hoeveelheid geheugen ter beschikking hadden, terwijl dat in werkelijkheid niet meer dan één Byte was. Het besturingssysteem gebruikte schijfruimte als virtueel geheugen, ook wel virtuele opslag genoemd. Programmatuur kwam niet meer in geheugenproblemen en het effect was dat gebruikers veel meer middelen ter beschikking leken te hebben, dan dat het systeem in werkelijkheid had.
Later kwam IBM met het VM (virtual machine)-besturingssysteem, een systeem dat vandaag de dag nog steeds draait op IBM mainframes en dat het fysieke mainframe opdeelt in meerder virtuele mainframes. Ieder virtueel mainframe heeft de beschikking over zijn eigen virtuele schijven, tapes en printers.
In de loop der tijd hebben we deze techniek zien evolueren in onder andere raid-producten en ‘logical volume managers’, producten die virtuele schijfruimte definiëren op een totaal van meerdere fysieke (schijf) componenten, en deze logische éénheden vervolgens toekennen en beheren. Ook zijn er producten die netwerk gekoppelde opslagmedia kunnen groeperen en geproportioneerd kunnen toekennen aan verschillende servers en/of gebruikers. Tenslotte zijn er producten die het netwerk virtualiseren en die zich dus tussen de servers en de opslagmedia bevinden.
Het aanbod van opslag virtualisatietechnologie is ruim en veelzijdig maar levert niet zonder meer de (snelle) gewenste oplossing, zoals die eerder in dit artikel is omschreven. Iedere vorm van virtualisatie komt met een aantal voor- en nadelen. Het is echter niet eenvoudig om meerdere vormen te combineren en om alleen de voordelen over te houden. Ook de schaal waarop virtualisatie kan worden toegepast is niet oneindig. Zo levert virtualisatie op server niveau regelmatig beveiligingsproblemen op als het gaat om grote aantallen servers. Om de belofte te realiseren zullen organisaties naast virtualisatie moeten investeren in de invulling van een duidelijk, helder en krachtig opslagbeheer. Een combinatie van virtualisatie en een goed beheer kan leiden tot een uniform centraal, geïntegreerd en verregaand geautomatiseerd beheer van alle aanwezige opslagmiddelen.
Beheer probleem
Een verbeterd effectief gebruik en een verlaagde tco van opslagmiddelen is wel degelijk te realiseren, maar dan zal de virtualisatietechnologie toegepast moeten worden in combinatie met een intelligent en geautomatiseerd opslagbeheer. Het beheersysteem acteert hierbij op een zeer hoog abstractie niveau, een niveau waar in feite de totale opslagomgeving wordt gevirtualiseerd. Dit wordt mogelijk door integratie en uitwisseling van gegevens tussen het beheersysteem en de diverse virtualisatiecomponenten.
Het bereiken van dit abstractie niveau vereist de implementatie van een aantal processen op het gebied van opslagbeheer, waarbij virtualisatie op verschillende manieren kan worden geïntegreerd. Deze processen zijn; storage resource management (srm), san management en storage automation.
Op de eerste plaats zullen organisaties inzichtelijk moeten maken wat voor data ze binnen de infrastructuur herbergen, iets waaraan de afgelopen jaren weinig aandacht is besteed. Het resultaat is bedroevend, de effectieve bezetting van opslagruimte in met name de open systemen komt niet ver boven de 40 procent. Gezien het tempo waarmee de hoeveelheid data blijft groeien en het motto ‘meer-doen-met-minder’, zien we wel dat steeds meer organisaties hier aandacht aan willen besteden. Tevens moet de waarde van de aanwezige data worden bepaald, zodat kan worden vastgesteld welke data als bedrijfskritisch moet worden behandeld en welke data niet; srm levert ondersteuning voor beide processen, deze oplossing biedt functionaliteit om de aanwezige data binnen een heterogene omgeving gedetailleerd in kaart te brengen. Vaak biedt de oplossing ook functionaliteit om die data op basis van vele criteria automatisch te classificeren tot op een logisch (applicatie, afdeling) niveau. Bijvoorbeeld alle MS Excel spreadsheets van de afdeling marketing die ouder zijn als drie jaar en die het afgelopen jaar niet meer zijn benaderd. Het is vooral dit laatste dat het mogelijk maakt om de waarde van data te bepalen.
Als de data is geclassificeerd, dan kan de bedrijfskritische data relatief eenvoudig worden verplaatst naar de high-end, bedrijfskritische opslagsystemen. De data die minder waarde heeft voor de actuele bedrijfsvoering kan geplaatst worden op minder dure opslagmiddelen en data zonder enige waarde kan worden verwijderd. Deze kwalificatie van data maakt het voor de opslagbeheerder mogelijk om capaciteit vrij te maken en het effectieve gebruik van de beschikbare middelen te vergroten. Integratie met virtualisatiesoftware op volume niveau maakt de uitvoering van dergelijke acties uniform en transparant voor de beheerder, de gebruiker en de applicatie.
San-beheer
De srm-oplossing geeft zowel een technisch als een logisch beeld van de aanwezige data in de opslaginfrastructuur. Een san-beheeroplossing geeft een fysiek beeld van de aanwezige opslaginfrastructuur. Het geeft een overzicht van de aanwezige hardware componenten (servers, switches, disk-arrays, tape libraries) in de juiste topologie. Ook wordt vaak inzicht gegeven in de aanwezige ‘san zoning’-definities, vaak de enige vorm van netwerk beveiliging binnen een san. Het is met name dit niveau waarop organisaties in de eerste plaats zouden willen virtualiseren.
Als al de fysieke objecten zijn geïdentificeerd, dan kan de bovenliggende opslagbeheersoftware een ‘mapping’ maken van het logische beeld (op basis van srm) en het fysieke beeld (op basis van san-beheer). Als gevolg van deze mapping kunnen de opslagbeheerders beheer uitvoeren op een logisch niveau en wordt de complexiteit van de onderliggende fysieke opslaginfrastructuur aan het oog ontrokken.
Binnen de beheeroplossing zijn de details van ieder fysiek opslagmiddel beschikbaar en is tevens bekend hoe een component beheerd moet of kan worden. Hoewel het hier veelal een verzameling heterogene componenten betreft, is het voor de beheerder mogelijk om het beheer uit te voeren vanuit één uniforme en consistente interface. Door integratie van srm en san-beheer met de juiste virtualisatietechnologie wordt het mogelijk om snel en efficiënt wijzigingen door te voeren binnen de fysieke opslaginfrastructuur zonder daarbij de logische opbouw uit het oog te verliezen (bijvoorbeeld het plaatsen van extra capaciteit voor een applicatie binnen de zone waarin de applicatie server zich bevindt).
De hoeveelheid inspanning die vereist is om ogenschijnlijk simpele taken uit te voeren vormt een belangrijk gedeelte van de beheerkosten van opslagtechnologie. Er zijn talloze opslag gerelateerde taken, zoals ’tape vaulting’, bestandsherstel en data-archivering die met grote regelmaat moeten worden uitgevoerd en die allen bestaan uit een veelvoud aan handelingen die bovendien in de juiste volgorde moeten worden uitgevoerd.
Om een opslag-infrastructuur optimaal te laten functioneren binnen het huidige klimaat van ‘on-demand’, ofwel ‘utility computing’ zullen afzonderlijke, foutgevoelige taken als backup, zoning, provisioning en replicatie getransformeerd moeten worden tot een soepel verlopend proces dat op basis van beleidsdefinities wordt aangestuurd en grotendeels automatisch wordt uitgevoerd. Kortom een storage operations management (som)-oplossing.
Virtualisatietechnologie in combinatie met een som-oplossing vervult een groot deel van de oorspronkelijke virtualisatie belofte. De tijdrovende routinetaken worden uit handen van de beheerders genomen en op basis van beleidsregels uitgevoerd door de som-functionaliteit. De virtualisatietechnologie zorgt ervoor dat de heterogene opslaginfrastructuur acteert als één soepel en dynamisch geheel waaruit de complexiteit is verwijderd.< BR>
Marc Leijten, Business Technologist Computer Associates