Managed hosting door True
Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het gedachtegoed van de redactie.

Uitdaging voor VM-bewuste opslag in datacenter

 

Computable Expert

Verron Martina
Senior Systems Engineer, Tintri. Expert van Computable voor het topic Digital Workplace.

De ict-storage in datacenters heeft in de praktijk nog altijd een relatief simpel karakter. De grootste pijnpunten van ict-managers zijn als vanouds de prestaties, kosten en beheerbaarheid. Om hier een antwoord voor te vinden, richten bedrijven hun vizier op verschillende geavanceerde nieuwe technologieën die beloven effectievere oplossingen voor deze problemen te bieden.

Een nadere analyse wijst uit dat de meeste van deze technologieën slechts één probleem tegelijk oplossen. De realisatie van een softwaregedefinieerd datacenter vraagt echter om een holistische aanpak die rekenkracht, opslagcapaciteit en netwerktechnologie bijeenbrengt. Wat zou virtual machine (vm)-bewuste opslag moeten bieden om een einde te maken aan deze belangrijke pijnpunten van ict in datacenters?

Legacy storage

Servervirtualisatie was de eerste golf van de softwaregedefinieerde revolutie die zich binnen datacenters voltrekt. Netwerkvirtualisatie zorgde met virtuele switches, Vlan’s en andere abstracties voor een verdere aanpassing van het datacenter aan de nieuwe realiteit van virtuele machines. Wat de realisatie van het softwaregedefinieerde datacenter echter in de weg staat, zijn kostbare en inflexibele ict-opslagconcepten, iets wat we ‘legacy storage’ noemen.

Naar aanleiding van een explosieve groei in datavolumes, afgeslankte ict-teams, gevirtualiseerde datacenters en cloud computing hebben organisaties behoefte aan storage-hardware die met ondersteuning van intelligente software een einde maakt aan de belangrijkste opslagproblemen.

Naadloze samenwerking

Vm-bewuste opslag moet naadloos kunnen samenwerken met gevirtualiseerde omgevingen. Het is een fundamentele vergissing om ict-opslag te zien als een tandwieltje dat moet worden bijgeschaafd om effectiever samen te kunnen werken met de andere radertjes in het grote geheel. Servervirtualisatie heeft op veel meer manieren voor een revolutie in het datacenter gezorgd dan door de serverfunctionaliteit van kostbare hardware los te koppelen. Deze aanpak heeft de regels van het spel volledig veranderd. Nu organisaties bijna 80 procent van al hun workloads hebben gevirtualiseerd, kiezen zij voor een andere storage-benadering. Ze denken daarbij niet langer in termen van kosten per gigabyte. De kosten per vm blijkt een veel accuratere kostenindicator voor datgene wat zij voor ogen hebben: het juiste prestatieniveau voor elke applicatie.

Voor het beheer van de opslagprestaties op vm-niveau en een naadloze samenwerking met hypervisors moet de storage array zélf vm-bewust zijn, tot op het laagste niveau, van de i/o-planning tot de fysieke indeling van bestanden binnen het bestandssysteem. Omdat veel organisaties met verschillende hypervisors werken, moet een vm-bewuste oplossing ook ondersteuning bieden voor het gelijktijdige gebruik van verschillende hypervisors.

Gebruikmaken van fysieke capaciteit

Ten tweede moet vm-bewuste opslag efficiënt gebruikmaken van fysieke opslagcapaciteit om optimale prestaties te kunnen waarborgen. Voordat er intelligente storage-oplossingen op de markt verschenen, hadden leveranciers van legacysystemen een simpele oplossing voor de prestatieproblemen van hun klanten: steeds meer spindels aan het opslagsysteem toevoegen en de capaciteit daarvan opvoeren om de beoogde prestaties te verkrijgen. Flash-opslag heeft tot op zekere hoogte bijgedragen aan een oplossing voor de prestatieproblemen, maar het is niet voldoende om een lading dure flash drives aan een systeem toe te voegen.

Het is belangrijker om te beschikken over ingebouwde intelligentie die in staat is om 99 procent van alle workloads toe te wijzen aan flash drives, zodat deze nog altijd dure opslagvoorzieningen op kostenefficiënte wijze kunnen worden benut. Moderne storage-oplossingen moeten intelligente ingebouwde algoritmes bieden die erop toezien dat 99 procent van alle workloads kunnen beschikken over krachtige flash-opslag. Alleen speciale omgevingen die voortdurend om opslagprestaties van flash-niveau vragen, rechtvaardigen het prijskaartje van een volledig op flash gebaseerde oplossing.

VM-bewuste opslag profiteren

Het softwaregedefinieerde datacenter (sddc) kan een oplossing bieden voor de meest prangende opslagproblemen binnen zakelijke datacenters, zeker voor bedrijven die in cloud- en virtualisatietechnologieën investeren en zo efficiënt mogelijk willen groeien. Leveranciers van legacy storage-oplossingen passen niet langer in dit plaatje, omdat hun hardwaregebaseerde aanpak nog altijd op schijven is gebaseerd. De snelle flash-opslag die ze aan hun verouderde systemen hebben toegevoegd, brengt daar geen verandering in.

Om de vruchten van sddc te kunnen plukken, moeten organisaties investeren in een storage-oplossing die de voordelen van servervirtualisatie en opslagvirtualisatie combineert. En dat is alleen mogelijk met een volledig vm-bewuste oplossing. De combinatie van een intelligent gebruik van flash-opslag binnen een eenvoudig schaalbare appliance en een vm-bewuste storage-aanpak die gelijktijdige ondersteuning biedt voor uiteenlopende hypervisors lijkt momenteel de meest geschikte van alle nieuwe storage-benaderingen.

Vm-bewustheid is niets minder dan een eerste vereiste voor een softwaregedefinieerd datacenter. Dit vraagt een integratie van servervirtualisatie en opslagvirtualisatie met de inzet van intelligente storage-technologie.

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/5702936). © Jaarbeurs IT Media.

?


Lees meer over


 

Reacties

Linksom of rechtsom heb je altijd te maken met informatiedragers waarvan je dus de toegang kunt veranderen maar de prestatie door de bus bepaald wordt. En Larry Page grapte op het Google I/O congres dan ook niet voor niks dat elke 8 maanden alle business software met 50% vertraagd. De connectivity cost nemen een steeds groter aandeel in de TCO, een kostencomponent welke vaak niet doorbelast wordt.

Andere kosten betreffen de OpEx, een software-gedefinieerde oplossing dient dus eerst en vooral rekening te houden met de integratie van allerlei ecosystemen. De I/O stack gaat wat verder dan de mechanische latency van een disk, de toegang tot de disk wordt veelal bepaald door het SAN en hier is steeds vaker sprake van silo's waardoor het technische datamanagement complexer wordt als we kijken naar het Information Lifecycle Management vraagstuk.

Storage-technologie versus storage-logica gaat uiteindelijk dus om de Right Disk for the Job, dat dit ook nog steeds tape kan zijn sluit ik niet uit. Een intelligente oplossing kijkt namelijk eerst naar de werkelijke behoeften over de langere termijn, het I/O profiel van de business veranderd niet alleen door server virtualisatie.

Vacatures

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×