Managed hosting door True
Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het gedachtegoed van de redactie.

De tiering naar de nering zetten

 

Computable Expert

ing. Jeroen MJ van Yperen Hagedoorn
Business Development Manager, Proact Netherlands B.V. . Expert van Computable voor het topic Infrastructuur.

We weten het ondertussen wel: het zijn economisch barre tijden. Het is zomer maar de snijdende kou van economische tegenwind voelen we allemaal. Iedereen krijgt er iets van mee, direct of indirect. Zelfs in het klimatologisch stabiele datacenter voelen we een tegenwind. Waar komt die datagroei nu weer vandaan en ach, een jaartje langer met de infrastructuur kan eigenlijk best.

Veel organisaties hebben centrale storagesystemen. Gekoppeld, gerepliceerd, gelaagde storagetypen, raid 1+0 / 5 / 10, AGD, virtueel, auto tiering, netwerk raid of wat dan ook. Datagroei betekent voor de belangrijkste data al snel netto een verdubbeling. Immers, wanneer de hoeveelheid data is gerepliceerd, wordt het dubbel opgeslagen. In geval van een diskomgeving met raid 1+0 betekent dat het zelfs viervoudig wordt opgeslagen. Welke techniek dan ook wordt gebruikt, de belangrijkste data staan in een veelvoud opgeslagen. Dat is goed! Want het past bij de belangrijkheid van de applicatie die daar gebruik van maakt. Die belangrijke applicaties ondersteunen immers de belangrijkste, kritische bedrijfsprocessen.

Wanneer je als it-organisatie nu de opdracht mee krijgt om ook op de kleintjes te letten, rijst bij mij de volgende vraag: kun je bewust kiezen om beschikbaarheid en herstelbaarheid gedurende een bepaalde periode te verlagen om kosten te besparen?

Het verlagen van beschikbaarheid, bijvoorbeeld voor een aantal applicaties de replicatie (data op twee locaties) opheffen, scheelt 50 procent diskruimte. Diskruimte die dan niet hoeft te worden aangeschaft en die kun je dus bij andere applicaties inzetten. Het kan het verschil zijn tussen dit jaar of volgend jaar een nieuwe storage-infrastructuur. Een aanpak van grote stappen, snel thuis, dat dan weer wel.

Het lijkt mij dat, wanneer je dit voorstelt, het duidelijk in overleg met de bedrijfsvoering moet gebeuren. Een risicoanalyse zal helpen om de kans van falen, en de eventuele gevolgen, te bepalen. Het volgende ligt op de loer: je hebt als organisatie voor een bepaalde mate van beschikbaarheid gekozen. Kernapplicaties die de processen ondersteunen, waar geld mee wordt verdiend (of zorg verleent of kwaliteit bewaakt et cetera), hebben een hoge beschikbaarheid en snelle herstelbaarheid nodig. Uitval van deze applicaties heeft tot gevolg dat er geen geld meer wordt verdiend (of zorg verleent of kwaliteit bewaakt et cetera). En in deze economisch barre tijden zijn alle bronnen van inkomsten welkom. Bij een verkeerde inschatting kan de snelle winst omslaan in een vernietigende hoosbui.

Wanneer je als it-organisatie de broekriem aanhaalt, zijn er quick wins. Het aanpassen van de storage-architectuur is er één van. Hoe pak je dit aan? Bespreek het met de organisatie! Een bewuste versobering van een gekozen architectuur kan alleen als je begrip, steun en vertrouwen hebt van de organisatie. Op eigen it-houtje is het een riskante stap. Heb je de steun van de organisatie, maak dan inzichtelijk welke applicaties het betreft en welke bedrijfsprocessen worden geraakt. Immers, het risico van uitval van een applicatie, en daarmee bedrijfsproces, is hoger als de veilige storage-architectuur naar een architectuur met meer risico wordt aangepast. En maak heldere en concrete afspraken over de tijdsduur, hoe lang en wie beslist wanneer het tij is gekeerd? Wanneer kan men terug naar het originele plan?

Kortom, het dilemma: kiezen voor meer opslagruimte, lagere beschikbaarheid versus langere herstelbaarheid en direct een flinke kostenbesparing of voor de huidige vorm van bescherming en een kostenstijging voor dataopslag.

Hoe zet u en uw organisatie de t(i)ering naar de nering? Ik ben benieuwd naar uw reactie…

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/4534823). © Jaarbeurs IT Media.

?


Lees meer over


 

Reacties

Jeroen,

Dank voor je artikel. Hierbij wat opmerkingen / aanvullingen vanuit mijn kant.

"In geval van een diskomgeving met raid 1+0 betekent dat het zelfs viervoudig wordt opgeslagen"

Raid 10 wordt voornamelijk ingezet met het oog op performance. Het nadeel is zoals je al aangeeft dat je flink wat capaciteit verliest. Maar ja ieder voordeel heeft zijn nadeel.

"Het verlagen van beschikbaarheid, bijvoorbeeld voor een aantal applicaties de replicatie (data op twee locaties) opheffen, scheelt 50 procent diskruimte. Diskruimte die dan niet hoeft te worden aangeschaft en die kun je dus bij andere applicaties inzetten. Het kan het verschil zijn tussen dit jaar of volgend jaar een nieuwe storage-infrastructuur"

Op zich kan het best aantrekkelijk zijn om eens goed onder de loep te nemen wat er nu precies op je storage systeem staat. Hoe bedrijfskritisch is het?. En moet het eigenlijk wel gerepliceerd worden? Dataclassificatie en het indelen van data in verschillende groepen met daarbij behorende een aparte RPO/RTO kan er voor zorgen dat je extra ruimte vrijspeelt op je DRS locatie.

"Wanneer je als it-organisatie de broekriem aanhaalt, zijn er quick wins. Het aanpassen van de storage-architectuur is er één van. Hoe pak je dit aan? Bespreek het met de organisatie!"

Een aantal keren per jaar je storage omgeving onder de loep nemen is sowieso geen overbodige luxe. Ook kan je je eindgebruikers opvoeden door de kosten inzichtelijk te maken van storage. Stel een prijs per GB vast. En maak inzichtelijk wie de grootverbruikers zijn. Chargeback en capacity management kunnen hier absoluut bij helpen.

Hoe inzichtelijker je het maakt des te sneller zal de bewustwording optreden.

Jeroen,

Kritisch kijken naar de opslag, wat er gebruikt wordt door wie en waarom is een manier om geld te besparen. Want inderdaad neemt het gebruik hiervan steeds meer en sneller toe. Dit door toenemend gebruik van filmpjes, foto's en andere ongestructureerde data. De vraag is echter of deze wel of niet dubbel of nog vaker opgeslagen moeten worden op dure en snelle disken.

We kunnen die behoefte vanaf de bovenkant bekijken maar soms is het makkelijker om juist vanuit de onderkant te denken. Een analyse van de opslag levert soms verrassingen op, dat de gehele Harry Potter collectie als bedrijfskritische data opgeslagen wordt bijvoorbeeld. Soms is dus niet eens een versobering nodig maar gewoon beleid om te voorkomen dat de storage architectuur als een 'private cloud' gezien wordt.

Meer over het dilemma van de opslag, het kiezen van de juiste technologie en voorkomen van onnodige investeringen:

http://www.slideshare.net/edekkinga/leaflet-storage-2

Nuttig artikel. Inderdaad een proces dat je regelmatig moet uitvoeren en dus niet alleen in crisis tijden.
Wat je ook kunt doen is het beprijzen van de verschillende tiers, daarmee leg je de veranwoordelijkheid bij de uiteindelijke beslisser en dan wordt er vanuit de business ook goed nagedacht over de plek van data opslag.

Beste Jeroen,

Interessant artikel. Je ziet ook dat steeds meer organisaties zogenaamd aan business continuity management doen. Dus scheidt bedrijfskritische en niet-bedrijfskritische processen van elkaar. Soms is het namelijk niet alleen goed om data te repliceren, maar de applicatie zelf ook op twee locaties te laten draaien. Valt 1 datacenter uit, dan heb je de data nog, maar kan de applicatie ook gewoon verder draaien en dus een RPO en RTO van 0.

Als IT'er heb je uitdaging om het management continu te overtuigen van je strategie (repliceren = duurder maar betrouwbaarder, of enkelvoudig uitvoeren = goedkoper maar risicovoller). Maar bedenk wel dat je als IT'er altijd aangekeken wordt bij downtime.

Prima artikel en helemaal waar dat er veel te veel data wordt opgeslagen. In mijn dagelijkse praktijk zie ik dat regelmatig. Er zijn genoeg mogelijkheden voor efficienter opslaggebruik.

Denk eens aan een goede dataclassificatie, waarmee inzicht wordt verkregen wat allemaal gearchiveerd kan worden. Scheelt gelijk heel wat back-up capaciteit, en verkleining van je back-up window, ook best handig. Deduplicatie in de back-up is ook heel zinvol, zeker in virtuele omgevingen kan dit tientallen procenten diskruimte schelen.
Daarnaast kan automated tiering veel profijt opleveren. Zeker als er wat snelle SSD's worden toegevoegd om de performance op peil te houden. ik ken gevallen van 30 tot 40% schijfreductie.

Beste Ruud, Willem, Ewout en Rick,

Dank voor jullie reactie.
Door de focus op de bedrijfsvoering ben ik een beetje te kort door de bocht met het verklaren van technologieën.

Mijn bedoeling halen jullie er allemaal wel uit en dat is dat de techniek niet leidend is. Het is de dialoog die je met de bedrijfsvoering wilt voeren. Als je afstemt (niet eenmalig maar een herhalend proces) met de bedrijfsvoering kan je de technologie hier op aanpassen.

Een goede dialoog voorkomt ook onze IT-valkuil van het moeten overtuigen waarom dit ontwerp of die oplossing de juiste is.
Ik herken de opmerking van Rick maar al te goed. Je stemt een oplossing af op een uitgesproken wens. Als de kosten (of andere gevolgen) inzichtelijk worden moet je gaan argumenteren. In een aantal gevallen wordt het bij onze klanten omgedraaid: je stemt benodigde technologie af op de wens van de organisatie. Is een aanpassing nodig (vanwege kosten, organiseren, haalbaarheid oid) is het ook helder dat eerst de wens bijgesteld wordt. Het wordt een bewuste keuze en geeft duidelijkheid naar alle betrokken.

Leuk artikel.
Wat mij opviel is dat in dit artikel de beschikbaarheid direct en sterk gekoppeld is aan de capaciteit van storage(zo lees ik het) Als mijn bevinding juist is dan vraag ik me af wat de scope van dit artikel is.

Iedereen weet toch al dat de beschikbaarheid in de hele keten en op verschillende lagen moet gegarandeerd worden en niet alleen bij een component (in dit geval storage). Wat heb je aan een prachtig gerepliceerde storage-omgeving terwijl je database gecorrupt naar andere kant gerepliceerd wordt? Heb je hiermee de beschikbaarheid van je business-applicatie gegarandeerd?

Sommige organisatie kiezen bewust voor dit soort maatregelen (geen investering in storage bijvoorbeeld) De reden hiervan kan kunnen zijn dat ze meer geld kwijt zouden zijn aan een oplossing tegenover "de kans" op het verliezen van business in het geval van calamiteit.

Kijk naar Vodafone en wat ze een tijd geleden meegemaakt hebben. Ik heb ergens gehoord dat ze al wisten dat ze geen goede back-up en DR oplossing hadden, maar ze hebben er niks aan gedaan vanwege hoge kosten. Zo te zien ze hebben die ellende meegemaakt een paar dagen uit de lucht, daarna iedereen kreeg een aantal dagen bel-bouns en dan business as usual. Misschien kunnen ze nu met het geld dat ze van verzekeraar gekregen hebben een mooie DR-locatie opzetten.

Vacatures

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×