Managed hosting door True
Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het redactionele gedachtegoed van de redactie.

Hybride cloud is brug naar de toekomst

Toen de public cloud op de markt kwam werd plotseling alles wat geclassificeerd was als ‘legacy technologie’ gezien als achterhaald. Legacy stond voor het verleden. Het werd een soort scheldwoord en bedrijven werden aangespoord om de cloud volledig te omarmen..... of achter te blijven op de rest en zeker te zijn van een langzame dood.....

Begrijp me niet verkeerd: de public cloud is een enorme vooruitgang binnen de it en het biedt grote voordelen. De mogelijkheid om real-time computerkracht te krijgen en alleen te betalen voor wat je daadwerkelijk gebruikt is een geweldige ontwikkeling geweest. Zeker voor ontwikkelaars heeft de public cloud snelle innovatie mogelijk gemaakt.

Sommige bedrijven hebben in de afgelopen jaren geprobeerd al hun workloads naar de public cloud te verplaatsen. Zij hebben ontdekt dat de public cloud, net als alle andere technologieën, grote voordelen, maar helaas ook beperkingen heeft. Deze organisaties zijn erachter gekomen dat het principe van one-size-fits-all niet altijd op gaat: sommige workloads, zoals de website van een bloemist die pieken heeft op feestdagen, werken prima in de public cloud. Terwijl andere sites, met bijvoorbeeld veel zware en bedrijfskritische databases, het beste draaien op dedicated ‘bare-metal’ hardware. Weer andere toepassingen, met bijvoorbeeld goed in te schatten belasting, zoals veel back-office computerfuncties, zijn het meest geschikt voor de private cloud. Zowel on-premise als gehost in een datacenter van een cloud-provider.

Die ontdekking heeft ervoor gezorgd dat veel bedrijven op zoek gingen naar een (cloud)omgeving waarmee elke workload met de hoogste prestaties en tegen de laagste kosten kan draaien. Ze willen de vrijheid om een cloud te draaien waar en hoe zij dat willen, met de mix van diensten die het beste bij hun wensen past. En dat is precies waar de hybride cloud uitkomst biedt!

Ultieme combinatie

Een hybride cloud sluit perfect aan bij de specifieke behoeften van de klant. Het geeft de gebruiker de ultieme combinatie van de public cloud, private cloud en dedicated ‘bare metal’. Steeds meer organisaties zetten een hybride model in en profiteren daarmee van optimale beveiliging, prestaties, uptime en kostenstructuur. Een interessante ‘aanvulling’ op alleen het gebruik van de public cloud.

Legacy-technologie is dus nog steeds belangrijk en moet nog vaak cruciaal werk verrichten. Denk aan dedicated servers die voor veel workloads een prestatie- en betrouwbaarheidsniveau bieden waaraan de gevirtualiseerde, multi-tenant public cloud nog zeker niet kan tippen. De nieuwe behoefte aan speciale hardware wordt aangevoerd door grote i/o intensieve applicaties, grotendeels databases. Deze legacy-technologie is een belangrijk onderdeel van menig it-infrastructuur en analisten zoals James Staten van Forrester geloven dat dit de komende decennia zo zal blijven. Een grote database proberen te draaien in de cloud is vragen om problemen. Maar zet die database op een dedicated server in een omgeving waarin de public cloud bijgeschakeld kan worden wanneer dat nodig is. Dat klinkt toch veel efficiënter?

Werken met big data

Een gebied waar een hybride cloud met name voor de hand ligt is bij het werken met big data. Het is niet mogelijk om big data die binnen het bedrijf is gegenereerd op een efficiënte manier naar de cloud te verplaatsen, althans op dit moment nog niet. Een hybride cloud biedt de mogelijkheid om big data op een manier te gebruiken die het meest zinvol is. De hybride cloud biedt bedrijven het beste van twee werelden. Het brengt de public en private cloud samen met dedicated ‘bare metal’ servers om de beste oplossing te bieden voor specifieke workloads. Het is niet nodig om de applicatie af te stemmen op de beperkingen en kenmerken van de specifieke cloud, in plaats daarvan stem je de cloud af op jouw wensen.

De hybride cloud biedt ook keuzevrijheid voor de locatie. Het is mogelijk om de toepassing waar dan ook uit te voeren: bij je eigen hosting- of cloud-leverancier, in je eigen datacenter of in de faciliteiten van een derde partij. Dat maakt verder allemaal niet uit.

De early adopters en analisten van vijf jaar geleden hadden gelijk, toen ze zeiden dat organisaties hun i zouden verplaatsen naar de public cloud. Maar ze hebben toch iets te vroeg gejuicht door te zeggen dat alles naar de public cloud verplaats moest worden.

Een hybride cloud moet niet worden gezien als een brug naar het verleden. Ondanks dat je gebruik gaat of blijft maken van wat sommigen ‘legacy’ noemen. Dit model is juist een brug naar de toekomst. Het is nu mogelijk legacy-technologieën te gebruiken op manieren die krachtiger zijn dan ooit - zoals bij het werken met big data - terwijl de public cloud wordt gebruikt voor die workloads die er optimaal kunnen draaien. 

Dedicated hardware is blijvend. Geen vervelende erfenis, maar keiharde realiteit. En het zal zo blijven voor de komende jaren, vooral omdat i/o-intensieve applicaties en big data het tech-landschap blijven domineren. Een one-size-fits-all cloud is zeker niet de brug naar de toekomst. Een hybride cloud is dat wel. Best of both worlds!!

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/4790937). © Jaarbeurs IT Media.
?

 

Reacties

Angelo,
Moi artikel!
Ik ben ook van mening dat public cloud de brug is naar ict in de toekomst. Maar vergeet ook niet dat public cloud zelf de "legacy van de toekomst kan worden!
Door het oerwoud dat je met public cloud maakt, zorg je ervoor dat je van alle kanten met een touwtje gebonden bent wardoor je niet je richting kan wijzigen. Met beleid en bewust gebruik maken van public cloud is zeer belangrijk, iets wat in het begin zeer eenvoudig was kan later koppijn voor je ict-zaken worden.

Of public cloud voordelig is, dat betwijfel ik. Je hebt veel tools en hulpmiddelen nodig om je hybride omgeving te kunnen beheren en veilig stellen. Hier was eergisteren een artikel van KPN op deze site over gezet. Je zal zien dat de prijs van public cloud " Van Af" is!

Artikel gaat over de hybrid cloud als titel, in het artikel gaat het over public cloud en dedicated hardware.
Dedicated hardware is een gepasseerd station. De enorme toename in verwerkingskracht van hardware de laatste jaren zegt ervoor dat databases nog steeds moeite hebben om een server geheel te benutten, de zwakke schakel is vaak de storage, niet de verwerkingskracht. Als je kijkt naar de test centers van SAP dan zie je dat die bijna volledig virtueel draaien, dus ook voor big data testen.
Als de hybrid cloud dan wordt gezien als een combinatie van dedicated hardware en public cloud dan lijkt mij dit een verkeerd beeld. Zorg eerst dat je een private cloud bouwt en hanteer daarin principes als maximale virtualisatie, dus zo min mogelijk dedicated hardware. Volgens ga je vanuit je private cloud bouwen aan een hybride cloud, wat naar buiten kan mag naar buiten onder de conditie dat je dit kunt terughalen naar je private cloud. Pas op het laatst ga je inderdaad kijken naar databases, daar zit namelijk de kennis van een organisatie. Tot die tijd blijft het hybride. Ik zou ook zelf kiezen voor multi private clouds, dus clouds bij meerdere providers.

Als ik het artikel goed begrijp gaat het voornamelijk om Infrastructure-as-a-Service. Dat is inmiddels ook het meest volwassen onderdeel van het begrip Cloud. De inzichten die in het artikel worden geschetst zijn nog niet van toepassing op Software-as-a-Service. IaaS is een centralistisch model, want schaal en standaardisatie drukt de kosten.
Voor Software-as-a-Service, juist een decentraal model, zijn echter andere regels van toepassing. Neem 40 SaaS-diensten af, en je haalt een heleboel problemen naar je toe. Problemen die je door kosten te maken weer teniet moet doen. Het begrip hybride betekent voor SaaS dat je mogelijk een dienstverlener de integratieproblematiek laat oplossen of je houdt de data in eigen huis en laat de software draaien bij de SaaS-leverancier (ik meen dat VOPAK op deze manier werkt). Hoe dit zich verder gaat ontwikkelen is nog best onzeker.

Angelo,

Best een aardig artikel waar voor dank!

Ik kan mij goed vinden in je bevindingen en conclusies en dat is meestal als ik commentaar op Cloud artikels geef wel anders :-)

Laat ik beginnen met te stellen dat legacy meestal ook synoniem is aan kritisch, het koffiedik kijken door James Staten van Forrester dat we hier niet snel van verlost zijn is dus logisch. En daarmee zullen we dus ook veel hybride oplossingen zien die proberen de voordelen van beide te combineren door te zoeken naar de ideale workload plaatsing. Maar 'cloud bursting' is niet altijd eenvoudig, zeker niet door de beperkte standarisatie de er is.

Het gaat hier om 'advanced job scheduling' waarbij echter niet alleen naar de resources gekeken moet worden maar ook naar belang van processen, de waarde van informatie en nog wat andere niet technische zaken. Dit alles natuurlijk het liefst op basis van policies en templates zodat deze 'brokerage' zoveel mogelijk automatisch gedaan kan worden. De cloud is dan misschien wel vaak effectief maar soms is inzet van dedicated hardware nog altijd efficienter, gegarandeerde presentaties zijn veel waard in kritische omgevingen.

Tegen de ontwikkelingen van de (public) cloud in komen er engineered, converged en reference infrastructures die een specifieke behoefte invullen. Want hoewel de cloud voordelen geeft blijft deze ook nog steeds in gebreke betreffende garanties.

Beste Angelo,

Ik ben het met je eens dat hybride cloud oplossingen een grote toekomst zullen hebben. Echter de reden waarom en je argumentatie is niet de mijne.

De definitie van een Hybrid cloud waarbij, public, private en dedicated bare metal oplossingen gemixt kunnen worden tot een hybride oplossing onderschrijf ik wel. Echter zal voor mij dan ook de dedicated bare metal oplossing, en de private cloud zo veel mogelijk elastisch afgenomen moeten kunnen worden om echt te voldoen aan de definitie van ‘cloud’.

Het valt mij verder op dat in jou artikel een aantal misconcepties staan over public cloud die ik wel vaker hoor. Ik zal ze hier even opsommen:

- Public cloud is a one size fits all model
- Public cloud is niet geschikt voor high-end enterprise workloads
- Public cloud is alleen interessant als je veel pieken en dalen

Het spijt me maar dit is echt achterhaald. De public cloud kan, bij de juiste providers prima omgaan met een groot deel van de high-end workloads. Netwerk centrische, next generation cloud providers bieden klanten de mogelijkheid om in de public cloud deze applicaties te hosten door bijvoorbeeld fast storage en fast networking aan te bieden. Ik zal dit toelichten.

Als eerste de werkelijke reden dat bij grote Enterprises de acceptatie van IaaS, want daar hebben we het over, achter blijft bij de verwachtingen (nu slechts 6 Miljard dollar op een totaal van 3700 Miljard IT besteding):

1. Security & Control
2. Performance & reliabillity
3. Accessability

De perceptie dat public cloud dit soort workloads niet aan kan komt door de server centrische view die de meeste providers tot nu toe hebben gehad. De kern van hun diensten is een VM draaiende op een door de hypervisor aangeboden virtuele netwerk infrastructuur. Hierbij wordt bij het design totaal voorbij gegaan aan het gegeven dat organisaties als Cisco als jaren lang het netwerk als het platform propageren voor goed functionerende Enterprise datacenters. De performance van de virtuele netwerken, zowel open source als gebaseerd op VMware kan niet tippen aan een goed ingerichte netwerk en server infrastructuur op basis van kwalitatief goede hardware.

Maar wat als je dit nou zou kunnen combineren? Wat als je Cloud Servers direct zouden draaien op een hardware netwerk infrastructuur? De performance van de Cloud server zal dan enorm toenemen. (Mocht iemand interesse hebben, dit hebben we door een onafhankelijk test instituut laten testen, de uitkomsten kan ik op verzoek toesturen). Wij zien dan dat Cloud Servers performance metrics krijgen die veel dichter bij bare metal liggen. We zien dat security, enterprise management tools, quality of service de performance het mogelijk maken hoge beschikbaarheids en performance garanties af te geven op publieke cloud diensten. Dat staat aan de basis van het verhuizen van de workloads naar een Enterprise Ready Cloud.

Met VM’s van 16 core's, 128 GB en 2.5 TB aan fast, SSD Cached storage komen de meeste bedrijven een heel end. (Uitdagingen zitten er nog bij het gebruik van Oracle databases, maar dat licentie model past nu eenmaal niet zo goed bij cloud). Niet alles is mogelijk sure, maar de cloud ontwikkelt zich snel. En uiteraard: als het niet te virtualiseren is dan kan het moeilijk wel op een gevirtualiseerd cloud platform draaien, public of private. (uiteraard wel op de baremetal servers die gewoon geïntegreerd kunnen worden met de public of private cloud omgeving). Een grote database draaien in de cloud is dan alleen vragen om problemen als je het bij de verkeerde cloud provider doet. Not all clouds are created equal!.

Koppel bovenstaand met verregaande integratie mogelijkheden voor Enterprise monitoring en beheer tools, advanced integrated backup en restore mogelijkheden, 99,99% uptime garanties, latency garanties, integrated IPS/IDS, Ddos protectie en de mogelijkheid de public cloud onderdeel te maken van je eigen MPLS netwerk dan wordt duidelijk dat ook die zware Enterprise applicaties meer en meer een plek kunnen vinden in de public cloud.

De werkelijk reden voor Hybrid clouds, zeker in de toekomst, is het simpele feit dat voor sommige core applicaties de klant nog niet klaar is om die buiten zijn eigen datacenter te plaatsen. Regulatory en compliancy regels spelen daar een belangrijke rol in.

Maar meer nog speelt het gevoel van de klant zelf dat zijn data niet toe te vertrouwen is aan de cloud.

Hybrid heeft dan ook de toekomst, maar ik zie dat dan voornamelijk voor cloud bursting, de klant heeft en beperkte set aan minimum resources, die bij normale belasting nodig zijn, en een aantal workloads / data die hij nog niet kwijt wil, op zijn ‘private cloud’ en bare metal omgeving draaien maar zal dan extra capaciteit afnemen op de public cloud om zijn interne omgeving zo efficiënt mogelijk te gebruiken.

Dus eens met je Hybride cloud toekomst, maar ik geloof absoluut in de kracht van public cloud ook voor enterprise applicaties

@Vincent

Aangezien bij public cloud vrijwel alles gedeeld is zijn garanties over prestaties meestal niet te verkrijgen, tenminste niet voor alle lagen. Sowieso zijn SLO/SLA's nogal mager waardoor hybride uiteindelijk de beste weg lijkt. Als ik me niet vergis hebben aansprekende services toch vaak dedicated servers in de cloud.

@Ewout,

Bij next generation cloud-leveranciers is het wel degelijk mogelijk om garanties over beschikbaarheid en betrouwbaarheid te krijgen, ook in de public cloud. Zoals ik al aangaf 'not all clouds are created equal'. Met een netwerkcentrische aanpak kunnen wij 99.99% uptime / beschikbaarheid garanderen op 7 publieke cloud-locaties wereldwijd en geven we ook een prestatiegarantie of voor bijvoorbeeld netwerk-latency,

Private cloud gaat idd hoger, daar is 100% mogelijk. De architectuur, management, beheerders en gebruikte software is echter exact hetzelfde. Multi-tenancy is niet de oorzaak van de zwakke SLA's bij cloud providers, vaak is het gewoon angst voor mogelijke schadeclaims. (vandaar dat TOS, Terms of Services vaak zo lastig lezen)

Uiteraard zijn dedicated resources mogelijk en leveren de meeste cloud providers die, maar het kost meer investeringen en moeite voor de klant om voor die resources eenzelfde hoge beschikbaarheid / betrouwbaarheid te garanderen.

Bij hybride omgevingen worden SLA's alleen maar lastiger. Wie is er bijvoorbeeld verantwoordelijk voor de communicatie tussen de private, public en dedicated omgeving. Is dit een provider, de cloud provider, de klant etc?

Domeinscheiding wordt een grote uitdaging ...

Leuke discussie. Moeite waard deze te volgen en ook te reageren :-)
Heel anders dan een artikel dat door een enthousiasme cloud-liefhebber geschreven is!

@Vincent:
De next generation cloud-leveranciers!
Klinkt als : Cloud is nog niet volwassen! Veel aspecten van dit verschijnsel moeten nog verder een vorm krijgen!

Klopt dat?

@Vincent

Ik had het over prestatie garanties op ALLE lagen. Het is een beetje als met virtualisatie, delen zorgt nog weleens voor opstoppingen waardoor dedicated soms gewoon beter past. Auteur van artikel had echter al wat gezegd over workloads en zelf heb ik in: "De cloud op maat gemaakt" hier al eens wat over geschreven.

Want een uitspraak als 'not all clouds are created equal' doet vermoeden dat soms maatwerk nodig is, minder public dus en meer richting private (dedicated) oplossing. De megatenancy van virtualisatie 2.0 waarbij misschien niet alle voordelen van public cloud geboden worden maar ook niet de nadelen.

P.S. De pure cloud spelers bieden meestal geen garanties over netwerk, dat doen de netwerk leveranciers die hun portfolio uitbreiden met cloud aanbiedingen, veelal IaaS.

@ Reza,
Next Generation Cloud leveranciers betekent niet dat dit nu nog niet te krijgen is. Het is waar dat de meeste publieke cloud leveranciers een boel van deze functionaliteit nu niet hebben. Of ze hebben het wel maar vaak kun je alleen als je bijvoorbeeld met veel kennis en ervaring gebruik maakt van alle diensten en producten een hoge uptime garantie behalen. Diensten en producten waarvoor dan weer los betaald dient te worden uiteraard.

Er zijn er echter cloud providers die dit wel aanbieden, als pure public cloud propositie, inbegrepen in de prijs.

Of de cloud volwassen is, is een andere vraag. Het is zeker nog niet waar het zou moeten zijn maar de ontwikkelingen gaan razend snel, ter illustratie mijn werkgever investeert dit jaar 100 miljoen dollar in cloud innovatie.

@ Ewout

Wat betreft prestaties garanties op alle lagen, ja binnen een multitenant omgeving zal het altijd mogelijk zijn dat andere gebruikers beslag leggen op resources waar wellicht een andere klant ook gebruik van wilde maken. Dat is niet nieuws, toen dataverbindingen duur waren was bandbreedte de bottleneck, voor virtualisatie was compute een belangrijke bottleneck. En de kwaliteit van het netwerk, switching en routing is vaak voor eindgebruikers een onzichtbare bottleneck geweest. Door gebruik te maken van Enterprise grade management en monitoring software kan een provider echter prima monitoren of een klant de prestaties krijgt waar hij recht op heeft en of deze bottlenecks ontstaan, waarna ingegrepen kan worden.

Koppel dit aan een netwerk centric approach en je krijgt ook binnen de cloud een Enterprise ready omgeving waarbij prestaties horen die je daar van mag verwachten.

Ik heb in de afgelopen 15 jaar maar heel weinig contracten gezien waarbij over alle lagen van de keten een echte SLA werd afgegeven, met boete clausule. Zelfs wanneer alles dedicated voor klanten wordt gebouwd durven maar weinig leveranciers dit aan of wegen de kosten niet op tegen de extra prestatie garanties.

Een van de weinige providers waarvan ik weet dat zij dit aanbieden en waarbij ze een 100% uptime garantie gegeven kan worden zet daarvoor dedicated FTE's in per klant, een team dat zich compleet focust op die klant en het beheer, prima oplossing maar moeilijk schaalbaar (ze hebben lang een klanten-stop gehad) en niet goedkoop (onder de 100.000 euro per maand hoef je niet bij ze aan te kloppen).

Wellicht belangrijker nog, als klanten hun eigen omgeving bouwen en beheren dan kunnen ze deze garanties vaak helemaal niet geven, simpel weg omdat ze niet voldoende kennis in huis hebben om dit intern op te tuigen. Boetes bij uitval of verstoringen zijn dan vaak hellemaal niet mogelijk. Alleen bij zeer grote multinationals kom je dit wel tegen. De cloud kan dan al snel een verbetering opleveren t.o.v de huidige situatie.

Mijn punt is nu juist dat Next Generation Cloud Providers dit oplossen voor hun (Enterprise) klanten. Wellicht nog niet met garanties op alle levels ( Ik zou de provider niet weten die 100% beschikbaarheid van het internet kan garanderen) maar wel moet zeer hoge uptime /beschikbaarheid garanties en standaard de prestaties die het mogelijk maken Enterprise workloads naar de cloud te verhuizen. Dit doen ze ondermeer door gebruik te maken van exact de zelfde architectuur waarmee ook binnen Enterprise omgevingen wordt gewerkt.

Mijn werkgever gaat bijvoorbeeld de eigen ERP omgeving (15K FTE, 6 Miljard dollar omzet) verhuizen naar onze eigen public cloud.

Is Maatwerk nog nodig, ja zeker zal dit soms nodig zijn, maar zo wel voor de klant en voor de provider is het beter van niet. Alles dat voor een enkele klant gebouwd wordt is kwetsbaarder, kent meer potentiële SPOC's (vaak veroorzaakt door gebrek aan financiële middelen) en dus gevoeliger voor verstoringen of prestatie problemen.


Netwerk garanties zie je idd weinig, maar het netwerk is zeer bepalend voor het functioneren van een cloud omgeving. Gevirtualiseerde netwerken zoals die gebruikelijk zijn kunnen niet op tegen de snelheid van een echt l2 netwerk, met als gevolg slechtere prestaties van alle lagen.
dat wordt dus opgelost als je in de cloud wel 'echte' kan afnemen. Op alle lagen zal je dan verbetering van de prestaties zien.

@Vincent

Dat een (niet bij naam genoemde) aanbieder tegen weliswaar een hoge prijs een garantie biedt waar blijkens de klantenstop vraag naar is geeft al aan dat kritisch nog steeds een ander segment is dan de cloud.

Inderdaad worden SLA's meestal niet voor elke individuele laag opgesteld maar dienen deze wel vertaald te worden naar SLO's om zodoende enige garanties te kunnen geven.

Een stukje proactief capaciteitsmanagement wat bij virtualisatie en delen dus complexer wordt, zie mijn eerste reactie over 'advanced jobscheduling' want uiteindelijk gaat het gewoon om de workload welke je mischien geheel, gedeeltelijk of helemaal niet kun verclouden. Uit verkeerde zuinigheid (korte termijn kostenbesparing) worden namelijk ook nog weleens workloads verkloot.

P.S.
€100 miljoen investeren in cloud innovatie is weliswaar veel geld maar geeft volgens mij nog geen garantie voor succes.

Dit op zich boeiende opiniestuk lijkt opgesteld volgens het schema:
these: legacy
antithese: public cloud
synthese: hybride cloud.

Het tegengestelde van legacy is echter niet public cloud maar… een gelaagde architectuur op basis van service-oriëntatie. Zolang legacy niet op z'n minst voor een deel gemigreerd is naar SOA valt er met cloud computing wat dat betreft niet veel winst te behalen.

@Jack

Graag zou ik eerst een omschrijving wil hebben van legacy. Steeds vaker hangt hier een negatieve connotatie aan terwijl veel (kritische) infrastructuren en services hier afhankelijk van zijn.

En als ik me niet vergis is SOA een begrip dat ook binnen de 'legacy' wereld bekend is, ik hoorde hier meer dan 15 jaar geleden al van. De gelaagdheid lijkt me ook niet het probleem omdat toen ook de ESB populair werd die als een 'pre-cloud broker' functioneerde voor de ontsluiting.

Want toen werden de PC servers als goedkope resources gezien, welke nu veelal gevirtualiseerd zijn omdat hardware krachtiger werd dan de software. Een uitdaging is dan ook om die eerdere oplossingen aan te passen aan de mogelijkheden van de cloud.

Bedenkend dat in sommige 'legacy' systemen meer dan 30 jaar aan investeringen zit lijkt het me een vorm van kapitaal vernietiging om alles maar weg te gooien nu de cloud populair is. Tel daarbij op de onvolwassenheid van de cloud en het wordt duidelijk dat hybride de beste optie is.




@Jack

Graag zou ik eerst een omschrijving wil hebben van legacy. Steeds vaker hangt hier een negatieve connotatie aan terwijl veel (kritische) infrastructuren en services hier afhankelijk van zijn.

En als ik me niet vergis is SOA een begrip dat ook binnen de 'legacy' wereld bekend is, ik hoorde hier meer dan 15 jaar geleden al van. De gelaagdheid lijkt me ook niet het probleem omdat toen ook de ESB populair werd die als een 'pre-cloud broker' functioneerde voor de ontsluiting.

Want toen werden de PC servers als goedkope resources gezien, welke nu veelal gevirtualiseerd zijn omdat hardware krachtiger werd dan de software. Een uitdaging is dan ook om die eerdere oplossingen aan te passen aan de mogelijkheden van de cloud.

Bedenkend dat in sommige 'legacy' systemen meer dan 30 jaar aan investeringen zit lijkt het me een vorm van kapitaal vernietiging om alles maar weg te gooien nu de cloud populair is. Tel daarbij op de onvolwassenheid van de cloud en het wordt duidelijk dat hybride de beste optie is.




Ewout,

Als SOA al bekend was binnen de ‘legacy’ wereld, dan toch bij de eerste pogingen om legacy te migreren dan wel opnieuw te bouwen onder architectuur. In de loop der tijd is wel steeds duidelijker geworden dat herbouw volgens een big-bang strategie niet werkt; vandaar dat steeds vaker gekozen wordt voor een geleidelijke migratie, waarbij delen van de legacy blijven functioneren naast en in combinatie met het reeds gemigreerde deel. Zoals onlangs nog weer fraai verwoord door Arie Timmerman in zijn uitstekende opiniestuk “Maak legacy klaar voor de toekomst”.

Legacy staat voor monoliete, in beton gegoten, silo-applicaties, die gekenmerkt worden door redundantie en verwevenheid van data, functionaliteit, flow en presentatie. In een reactie op eerder genoemde opiniestuk heb ik deze kenmerken van legacy wat verder uitgewerkt. De negatieve connotatie van legacy is dus gewoon terecht; het zijn verouderde applicaties die steeds slechter scoren op punten als flexibiliteit, aanpasbaarheid, betrouwbaarheid, stabiliteit, snelheid, complexiteit, transparantie, gebruikersvriendelijkheid, etc, etc,.

Dit alles kun je beslist niet van alle legacy zeggen; er is ook goed gebouwde legacy, die nog steeds goed scoort ten aanzien van betrouwbaarheid, stabiliteit en snelheid! Maar ook in dat geval blijft flexibiliteit, de aanpasbaarheid aan veranderende bedrijfsomstandigheden, het heikele punt.

Je stelt SOA nog net niet gelijk aan legacy-technologie, maar je associatie met legacy is voor mij wel de zoveelste aanwijzing dat SOA haar belofte van flexibiliteitsverhoging en complexiteitsreductie nog steeds niet heeft waargemaakt. Je associatie met legacy is echter wel terecht, voor zover SOA tot op heden vooral is toegepast in combinatie met BPM.

Als alternatief voor het toepassen van de flowcharts van BPM heb ik in de reactie op eerder genoemd opiniestuk het gebruik van “beslissingstabellen in combinatie met kunstmatig intelligente, dus doelgerichte redeneertechnieken” voorgesteld.

Hierbij ben ik zeker ook geinspireerd door het, snel op internet terug te vinden kennisdocument “De vaste waarden van de systeemontwikkeling” (PDF, 39 blz.) van emiritus-hoogleraar M. Verhelst.
In de eerste plaats zijn voorkeur voor het gebruik van beslissingstabellen boven flowcharts. In de tweede plaats zijn pleidooi voor “ruimtelijk denken in plaats van sequentieel denken”. Met dit pleidooi sluit hij – mijns inziens - naadloos aan bij de ontologie van de Duitse filosoof Heidegger.

Kortom, het wetenschappelijke procesdenken loopt op haar einde; we moeten naar een filosofisch kennis- en zijnsdenken.

SOA (dus zonder BPM) is een must; cloud-computing vervolgens een optie.

Je opmerking dat de ESB functioneert als een ‘pre-cloud broker’ is dus de spijker op z’n kop, omdat het mijn stelling onderschrijft dat legacy eerst gemigreerd moet worden naar SOA om desgewenst optimaal gebruik te kunnen maken van cloud-computing. En opnieuw ben ik het dan met je eens dat “hybride de beste optie is”.

@Reza Cloud is een platform wat nog aan het evolueren is. Cloud providers werken hard aan de ontwikkeling van hun productportfolio en het beter beveiligen van producten en diensten. Daarnaast wordt ook continu gekeken hoe de performance kan worden verbeterd. Het feit dat er al een ruime hoeveelheid high-end enterprise workloads in de cloud draait, geeft wel al aan dat het een volwassen platform is. Het is juist belangrijk in te zien dat public cloud geen ‘one size fits all’ model is en niet alleen voordeliger is bij veel pieken en dalen. Of een situatie het beste aansluit bij het inzetten van een dedicated of hybrid of cloud, hangt van veel factoren af en daarom is het juist de perceptie en communicatie die nog verder vorm moeten krijgen.

Angelo,
"Cloud is een platform wat nog aan het evolueren is", exact!
Ik heb altijd gezegd dat cloud de toekomst is maar dit verschijnsel moet nog verder ontwikkeld worden om waar te kunnen maken wat er nu door cloudproviders beweerd of toegezegd wordt.

Hierna rijst net zoals bij het woningmarkt, de vraag: wanneer zou ik instappen?

Ik zou zeggen: NIET NU!

Computable Expert
Angelo  Dijkstra

Angelo Dijkstra
Management consultant, Invigors LLP. Expert van Computable voor de topics Cloud Computing en Datacenters.
Hele profiel

Vacatures

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×