Managed hosting door True

Discussie

‘Servers worden vee, in plaats van huisdieren’

 

Dieren

De tijd is gekomen dat it’ers afscheid nemen van hun huisdieren en vee gaan hoeden. Dit is de discussie-stelling die Computable-lezers vandaag krijgen voorgelegd.

Automatisering is hard toe aan (meer) automatisering. Het is ironisch te noemen dat veel van de voordelen van ict zijn te danken aan het automatiseren van handelingen en werkprocessen, maar dat veel ict-werk zelf nog manueel gebeurt.

Zo is bijvoorbeeld serverbeheer nogal arbeidsintensief. Koppel dat aan de trends van virtualisatie en containers, micro- en nano-servers, cloudcomputing plus (hierdoor) alsmaar grotere aantallen servers en de arbeidssituatie dreigt onhoudbaar te worden. It’ers moeten dus afstappen van de notie dat ‘hun’ systemen als huisdieren zijn; entiteiten die zorg, aandacht, vertroeteling en zelfs verpleging nodig hebben. It’ers moeten eigenlijk veehouders worden; servers zijn dan slechts koeien, die in grote kuddes gehoed, aangejaagd en bij problemen achtergelaten of eventueel zijn af te schieten. Cloudexperts - annex cloudevangelisten - roepen het al jaren: servers moeten niet langer huisdieren zijn, maar vee. Wat vind jij?     

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/6054127). © Jaarbeurs IT Media.

?


Lees meer over


 

Reacties

Zonder enige kennis van zaken...:), maar wat als iets in die "Cloud" niet goed werkt? Wat dan? Misschien is het dan wel prettig als je mensen hebt die iets begrijpen van "servers. Overigens de ene server is de andere niet (qua rol). Ik zou stiekem wel eens als een "vlieg op de muur" kijkend naar een grote calamiteit in een datacenter en te observeren hoe de echte harde werkers in de zo'n centrum een probleem trachten op te lossen met 10.000 nodes. Ik geef het je maar te doen.

Dit is een interessante discussie.... ware het niet dat het 2017 is.... Dit zijn oude koeien....

Ik snap de redenatie - snap ook dat het allemaal goedkoper moet (en kan?).

Maar als het straks even niet werkt, wie weet dan nog hoe alles aan elkaar "hangt"?
Zeker in situaties waarbij gekozen is voor meerdere diensten die ook nog eens in meerdere of mindere mate van elkaar afhankelijk zijn?

Immers, binnen de huidige Agile werkwijzes er is al nauwelijks tijd voor testen; laat staan tijd voor kennisoverdracht van wat er gebouwd wordt en dadelijk in productie gaat.

Terug naar ieder zijn eigen datacenter met eigen ijzer?
Nou nee, dat lijkt me ook niet echt een optie. Maar iets meer na- en vooruitdenken (aka een bredere inzet van iets dat heet GBV) dat lijkt me wel handig. Al was het maar omdat er een moment komt dat iemand verantwoording moet afleggen over gemaakte keuzes en bijbehorende kosten.

Kortom, die passie voor alleen het ijzer is dan misschien niet direct een handige. Maar wat is er mis met een passie voor de principe werking van technologie, waaronder het samenspel tussen het ijzer, de verschillende software lagen zoals hypervisors, OS-en, middleware, databases, containers en applicaties?

Wil, het gaat niet om goedkoper. Bedrijven die hun hardware gekocht hebben en aanhouden zijn hoogstwaarschijnlijk goedkoper uit dan alles in de cloud. AWS vraagt 9 dollar cent per GB data die het datacenter verlaat om maar iets te noemen.

Maar naast dat je veelal de boel virtualiseert (ook containers draaien weer op gevirtualiseerde servers) is het allemaal fluïde geworden en veel bedrijven zijn nu wel over op O365, Google G Suite of wat dan ook.

Het is overigens een vreselijk misvatting dag Agile en testen op gespannen voet staan. Beetje agile team die bouwt zijn testen tijdens het ontwikkelen. Kennisoverdracht doe je door samen dingen te doen, zeker in een flexibele omgeving is documentatie niet het juiste middel.

Zoals het nu gaat, gaat het allemaal best goed, juist ook met recovery enzo.

Security regel je door het juiste te doen, veel te loggen en daarop weer allemaal tools los te laten, naast dat je natuurlijk je medewerkers helpt het juiste gedrag te vertonen ;-)

Will, PS, wat ik bedoel met een discussie die al niet meer speelt is dat er steeds meer zaken zelfs serverless draaien :-) Dus zelfs geen vee meer, haha.

De huidige trend is dat veel organisaties weer terug gaan naar een MER, ze investeren weer in de IT infrastructuur omdat ze erachter komen dat de cloud ze maar weinig zekerheid in continuïteit biedt door allerlei onzekerheden in het netwerk. De kosten en capaciteit van het externe netwerk is ook steeds vaker een economisch argument om weer terug te keren op eerdere uitbestedingen.

Uiteraard kun je het beheer van de infrastructuur alsnog uitbesteden, het multi-sourcing principe van het beheermodel van Looijen maakt een duidelijk onderscheid tussen demand en delivery waarbij je een verzakelijking van de IT afdeling krijgt. Jasper denkt nog teveel in het costcenter principe doordat hij de kosten niet inzichtelijk heeft. Dat de conjunctuur gevoeligheid van arbeid gezorgd heeft voor een verlies aan kennis blijkt ondertussen wel bij de overheid. Too many chiefs and not enough Indians......

Inderdaad Henri, het is al 2017 en volgend jaar is de GDPR/AVG van kracht welke je dus niet meer in kunt vullen met 'databewerkingsovereenkomsten' zoals Safe Harbor. Sowieso zijn dat bedenkelijke constructies als we overwegen dat geheimhoudingsverklaringen niet verder gaan dan een regeltje in een arbeidscontract, welke Edward Snowden zelf beëindigde na alle gevoelige informatie te kopiëren naar draagbare schijven. Veel datalekken halen niet de krant maar hebben een grotere economische impact als we kijken naar het verdienmodel van bedrijfsspionage. Data governance en de cloud is dus een leuke uitdaging voor veel organisaties, lees even het rapport van de AIVD over het verlies aan kernbelangen door uitbesteding van kennis.

Van cloud-expert naar digitale transformateur, je kunt de toilet juffrouw manager natte groepen noemen maar als haar werk hetzelfde blijft dan is dat een cosmetische naamsverandering. Het beheer ging nimmer om de servers - virtueel of fysiek - maar de data, en deze wordt dus ontsloten door de applicaties die veelal een afhankelijkheid hebben met het onderliggende besturingssysteem. En dat deze de verpleging nodig hebben van pleisters gaat om het voortschrijdende inzicht in de code die uiteindelijk nog altijd door mensen geschreven wordt.

Dat de continuïteit steeds vaker bedreigd wordt door een nijpende arbeidssituatie in een tekort aan beheerders waarschuwde ik hier enkele jaren geleden al voor. Dat nog veel bedrijfsprocessen lopen op Windows XP/2003 maakt wel duidelijk dat je niet zomaar servers af kunt schieten.

De meeste server draaien tegenwoordig niet meer op fysieke hardware, welk os je ook neemt. Een server afschieten, verplaatsen op hardware, opnieuw opbouwen door clonen of met andere mooie tools is het probleem niet. Het is wat je met een server doet, dus de applicaties. Daar gaat het uiteindelijk om met de data en onderlinge connecties. Hoe schiet je dit af en bouw je weer op zonder data verlies en maximale uptime? Daar blijf je kennis voor nodig hebben en dit moet je wel vertroetelen, backuppen en monitoren. Er zijn wel tools voor zoals Docker, waardoor het verplaatsen wel stuk makkelijker wordt, maar toch.

Jouw reactie


Je bent niet ingelogd. Je kunt als gast reageren, maar dan wordt je reactie pas zichtbaar na goedkeuring door de redactie. Om je reactie direct geplaatst te krijgen, moet je eerst rechtsboven inloggen of je registreren

Je naam ontbreekt
Je e-mailadres ontbreekt
Je reactie ontbreekt
Vacatures

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×