Managed hosting door True
Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het gedachtegoed van de redactie.

Cloudopslag in 2013 cruciaal bij ICT-strategieën

 

Computable Expert

Dirk Raeymaekers
Sales Director, ACRONIS. Expert van Computable voor het topic Infrastructuur.

Vorig jaar werd de cloud op brede schaal door bedrijven ingezet, maar dit jaar (2013) zullen zij de opslagmogelijkheden ervan pas echt benutten ter ondersteuning van de zakelijke mobiliteit en toegankelijkheid van hun gegevens. Volgens IDC zal er in 2015 maar liefst 22,6 miljard dollar worden uitgegeven aan opslag in publieke en private clouds. Ik verwacht dat cloudopslag nu al een cruciale rol zal vervullen binnen ict-strategieën voor 2013.

Oorspronkelijk was het doel van cloud computing om servers schaalbaar te maken, hardware te optimaliseren en applicaties tussen virtuele servers in de cloud te verplaatsen. In 2013 zullen de opslagmogelijkheden van de cloudbedrijven echter nog meer voordelen bieden.

De opslagkosten kunnen een zware druk uitoefenen op het ict-budget. Nu bedrijven en consumenten maar liefst 2,5 kwintiljoen bytes aan gegevens per dag genereren, is het voor organisaties van groot belang om een kostenefficiënte storage-oplossing te vinden die deze enorme wildgroei en diversiteit aan gegevens aankan. Ze zullen nieuwe manieren moeten vinden om te waarborgen dat er back-ups aanwezig zijn van alle benodigde gegevens, en dat deze gegevens optimaal beschikbaar zijn voor bedrijfskritische processen. Tegelijkertijd moeten zij de opslagkosten zien te reduceren. In 2013 zal dit mogelijk zijn door het gebruik van hybride cloudinfrastructuren die ict-omgevingen en cloudomgevingen naadloos met elkaar integreren. Daarbij zal gebruik worden gemaakt van nieuwe technologieën die de opslagkosten reduceren en zorg dragen voor maximale beschikbaarheid van de gegevens die in de cloud zijn opgeslagen.

Bedrijven die niet over een strategie voor hybride cloudopslag beschikken, zullen geheid achterblijven bij de concurrentie. Nu er steeds meer gegevens worden gegenereerd, opgeslagen en opgevraagd vanaf mobiele en traditionele computerapparatuur, blijken eerdere oplossingen voor gegevensopslag en databescherming onpraktisch, inflexibel en kostbaar. Als bedrijven hun werknemers op dit gebied onvoldoende ondersteuning bieden, zullen zij de ict-afdeling omzeilen en daar zelf voor zorgen.

Deze nieuwe cloudstrategie zal vanaf 2013 steeds effectievere oplossingen bieden voor de beveiligingsproblemen die gepaard gaan met de snelle opkomst van zakelijke mobiliteit. Volgens een enquête van Harris Interactive maakt 81 procent van alle werknemers gebruik van minimaal één persoonlijk mobiel toestel voor werkdoeleinden. De kans is groot dat zij ook buiten het bedrijfsnetwerk zullen samenwerken en gevoelige bedrijfsinformatie opvragen. Om een einde te maken aan deze beveiligingsproblemen zullen ict-managers in 2013 een holistische cloudaanpak hanteren. Hiertoe zullen ze een beroep doen op uitgebreide oplossingen die de beveiliging en beschikbaarheid van hun bedrijfsgegevens waarborgen, zowel binnen als buiten de traditionele ict-infrastructuur.

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/4620188). © Jaarbeurs IT Media.

?


Lees meer over


 

Reacties

Dirk,

Ik deel je mening dat het hebben van flexibile opslag vanuit de Cloud steeds belangrijker gaat worden. Echter is het wel van belang om goed na te denken over bandbreedte en (IO) performance. Zeker dat laatste is nog steeds een grote spelbreker aangezien er vaak op "shared" storage omgevingen gewerkt wordt en daar is de IO performance niet altijd je van het.

Maar het is natuurlijk ook afhankelijk waar voor je het gaat inzetten is het puur voor de opslag van Office documentjes of gaan er veeleisende zaken opdraaien. Quality op service op IO performance is iets wat daar steeds belangrijker gaat worden. Zodat de performance ook echt gegarandeerd kan worden.

Dirk,

Ik deel je mening dat het hebben van flexibile opslag vanuit de Cloud steeds belangrijker gaat worden. Echter is het wel van belang om goed na te denken over bandbreedte en (IO) performance. Zeker dat laatste is nog steeds een grote spelbreker aangezien er vaak op "shared" storage omgevingen gewerkt wordt en daar is de IO performance niet altijd je van het.

Maar het is natuurlijk ook afhankelijk waar voor je het gaat inzetten. Is het puur voor de opslag van Office documentjes of gaan er veeleisende zaken opdraaien. Quality of service op IO performance is iets wat daar steeds belangrijker gaat worden. Zodat de performance ook echt gegarandeerd kan worden. Het vooraf goed in kaart brengen van de benodigde performance en bandbreedte voorkomt een hoop problemen.

Dik, Ruud,

Mooi artikel en mooie feedback. Ik denk dat je een fase beschrijft en aspecten die vrij snel aan het oog van de gebruiker onttrokken zal worden. De inhoud is natuurlijk van groot belang, echter dit zal vrij snel automatisch gedaan kunnen worden. Kijk naar de voortuigang op dit vlak in de afgelopen 10 jaar.

Net zoals bij eletriciteitsbedrijven, zijn wij ook niet meer bezig hoe dit aangelegd moet worden. Het is er gewoon, en voldoende. Zelfs als je een nieuw datacenter neerzet, wat nogmal wat stroomgebruik betekent.

Wat mij meer triggerde is de kostprijs en dienstverleningsaspecten, lees strategie. Die zijn nog steeds onderbelicht. Op het moment zijn er geen echte goede benchmarks of assessments voor de cloud. En standaarden missen ook nog steeds, tenzij je VMware, Google of Amazon als de defacto standaard benoemd.

In het artikel van klaas de Jong van 28 december benoemt hij veel aspecten die in dit verlengde liggen en van groot belang zijn voor bedrijven, vooral als je een strategie uitwerkt.

Techniek is maar techniek. Hoe de gebruikers dit ervaart en wat het kost, wordt de essentie van het geheel. Bandbreedte, latency en dergelijk zijn onderdelen van de strategie.

het grootste voordeel, schaalbaarheid en management van de data groei wordt de essentie. Nog sterker, ik denk dat cloud en al zijn vormen outsourcing vrij hard gaat raken. Deze strategische stap van bedrijven zie je ook al komen.

Ik begrijp nog steeds niet of die geproduceerde data altijd bewaart moet blijven. Veel data moet bewaart worden vanuit legal redenen, of vanuit bedrijfsprocess redenen. In plaats van kijken naar kwantiteit denk ik dat er meer gekeken moet worden naar kwaliteit van de data en welke resulteert naar het terugbrengen van hoeveelheden of kijken naar media waar de opslag op een kost efficientere manier wordt bewaart met andere restore tijden.

Cloud storage biedt een dynamiek welke onbetwist voordelen heeft en met initiatieven als Google Drive, Dropbox enzovoort ook al breed geaccepteerd wordt als de USB-stick in de wolken. Maar net als dat er aan een USB-stick nadelen kleven heeft cloud storage ook een keerzijde welke hier in mijn optiek onvoldoende belicht wordt. De nadelen van snelheid, welke afhankelijk is van de netwerk bandbreedte en latency wordt al genoemd door Ruud en ik wil daar nog een paar aan toevoegen zoals exit strategie, beveiliging en eigenaarschap.

Het is namelijk erg simpel om data naar de cloud te repliceren maar soms veel moeilijker om deze daaruit weer te verwijderen. Natuurlijk biedt encryptie een zekere mate van bescherming maar alleen als de sleutels in eigen beheer zijn en deze voldoende sterk zijn. Bij een hybride storage oplossing verschuift volgens mij dan ook de aandacht van medium naar datamangement. Dat is natuurlijk uit te besteden maar dan komt uiteindelijk wel de vraag van eigenaarschap en beveiliging weer terug. Hippe termen als holistische cloudaanpak worden in mijn ogen dus nogal hol als niet de totale kosten meegenomen worden, de TCO van de cloud. En zeker als er niet wordt gedacht aan de kosten van migratie, bij terrabytes aan data kan de Return on Investment namelijk nog behoorlijk tegenvallen.

In reacties wordt al aangegeven dat toenemende hoeveelheid data ook beperkt kan worden door eens op te ruimen, de vele kopieën te verwijderen die er steeds gemaakt blijven worden. Data migreren, repliceren en kopiëren naar de 'shuregard' in de cloud is namelijk misschien wel helemaal niet zo kosten effectief en vaak is er al een grotere besparing te behalen door de data eerst eens te classificeren en op grond hiervan de juiste opslag te kiezen. Dat scheelt namelijk niet alleen in schijfbeslag maar ook in de bandbreedte die nodig is.

Wat ik me al langer afvraag, en na het lezen van dit artikel weer een beetje meer, is de rol van de hoeveelheid data t.o.v. van de prijs, maar vooral ook de performance.

Ik kan me zo voorstellen dat je voor kleine hoeveelheden data net zo goed zelf een fileserver of NAS aan kunt schaffen, in plaats van cloud-opslagdiensten af te nemen
Vervolgens zul je een gebied krijgen waarin het gebruik van cloud-opslagdiensten voordeliger is dan zelf je data beheren.
Maar, er zal ook aan de andere kant van het spectrum een moment komen dat het afnemen van de cloudopslag te duur wordt omdat je gigantische hoeveelheden data hebt en de (netwerk-)performance onder de maat blijft door deze grote hoeveelheden.

Hoe liggen deze breakpoints eigenlijk?

@PaVaKe:

Breakpoints zijn lastig omdat het niet alleen om de hoeveelheid gaat, maar ook over de beschikbaarheid, betrouwbaarheid et cetera. Dus lastig om appels met appels te vergelijken.

Ik heb zo'n 200 GB aan foto-backups gemaakt in Amazon Glacier. Dat kost me nog geen 2 euro per maand, maar als ik files terug wil halen duurt dit zo'n 4 uur.

Maar ik gebruik ook Azure Storage. Deze is GEO redundant (fail-over naar Ierland). 100 GB opslag kost zo'n 8 euro per maand en is vrij rap. Hoe meer ik opvraag, hoe sneller het word. Maar dan betaal je ook nog voor bandbreedte (in/uit) en dat is voor 100Gb verkeer ook zo'n 8 euro.

Duw je die data in objecten, dan werkt het weer anders.

Wat cruciaal is, is dat het zeer veel voordelen heeft om je applicatie te draaien waar je data staat. Ten eerste is dat snel en gaat het nauwelijks ten koste van je "lokale" bandbreedte.

Ach, je kan dagen volpraten over storage. Waar het op neer komt is dat je operationele kosten gelijk op moeten trekken met de business. Heb je veel business, mogen de kosten ook hoger zijn. Als dit goed gekoppeld is , is de businesscase simpel.

In beide gevallen geldt overigens wel dat je een back-up wilt. Ook deze oplossingen zijn on-premise weer anders dan in de cloud. Vaak betaal je in de cloud alleen voor de opslag en is de IO binnen de regio of datacenter dan gratis.

@Henri

100 GB kost je dus zeg maar €16 per maand. Daarvoor moet je zelf niet moeilijk gaan lopen doen zeg ik dan.

De storage die ik gebruik voor mijn werk is enkele TB. Onlangs een nieuwe NAS aangeschaft waar ik 8 TB op kwijt kan. Trek ik dit even door naar de door jou genoemde tarieven, dan kom ik op 80*€16 = €1280 per maand.

Voor dat soort tarieven wordt het voor mij toch wel aantrekkelijker om 2 NASsen te kopen, 1 thuis neer te zetten, 1 op kantoor en 's nachts via een VPN verbinding te syncen. Dat hoeft me echt geen €1280 per maand te kosten, toch?

Of denk ik nu te simpel (ik heb het nu puur over een vergelijk met cloudopslag overigens)

Vacatures

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×