Category Archives: cloud computing

Linux revolutie onderweg

Al jaren wacht ik op de Linux (en open source) revolutie in de IT markt. Linux op desktops, Linux op servers en Linux op telefoons. De wereld zou overspoeld worden en Linux zou overal te vinden zijn. Hoe kunnen bedrijven met hun commerciële software hiermee concurreren? 

Microsoft_loves_Linux

Geen revolutie

Niets was echter minder waar. Linux op de desktop zette niet door. Niet dat het ontbrak aan goede Linux desktop distributies en ook niet aan goede software. Bovendien steeds meer applicaties werden web-based. Een Linux desktop was een prima alternatief. Eindgebruikers stoorden zich toch aan kleine visuele verschillen en bleven Microsoft Windows trouw. Vreemd genoeg waren het vaak juist deze eindgebruikers die het geen probleem vonden over te stappen maar OS X.

Toch een revolutie

Hoewel het minder zichtbaar was, kwam Linux toch in elk bedrijf en in elke huiskamer binnen. Routers, firewalls, NAS en andere appliances werden steeds vaker voorzien van Linux. Dit is begrijpelijk, Linux kost niets en is eindeloos aanpasbaar. Ook kwam er goedkope PC hardware (Raspberry pi) op de markt en daarop draaide natuurlijk Linux. Ineens gingen naar mijn idee mensen om me heen zonder enige Linux geschiedenis daar gewoon mee experimenteren. De drempel is blijkbaar toch laag.

Microservices en Cloud computing

De invloed van web gebaseerde technieken op de IT ontwikkelingen deed zich gelden. Het werd steeds interessanter geen grote applicaties te bouwen, maar kleine stukjes functionaliteit, zogenaamde microservices. Deze microservices maken het mogelijk dat development sneller kan plaats vinden en met minder risico’s en impact op eindgebruikers. Ook de bijbehorende development methoden werden geadapteerd, zoals continuously delivery, agile en scrum. Tegelijkertijd raakten bedrijven overtuigt van het nut van virtualisatie van infrastructuur (getuige het grote succes van VMware). De stap van virtualisatie naar Cloud Computing is daarom geen al te grote technische stap. De open source community volgde rap met bijvoorbeeld OpenStack.

Datacenter automation

Hoewel Cloud Computing technisch geen al te grote stap betekende, mist het zijn effect op de IT niet. Alles binnen een Cloud omgeving laat zich scripten en daarmee automatiseren. Of het nu gaat om de deployment van virtuele servers, de configuratie daarvan of het schalen van capaciteit (scale in en scale out). Dit wordt wel aangeduid met datacenter automation. Het verklaart de populariteit van tools als Puppet en Ansible. Het laat zich raden dat die zich goed laten combineren met het idee van de microservices. Men spreekt hier wel over de verandering van “server as pets” naar “servers as cattle”.

Alle ingrediënten samen

De principes van “scale out” en “scale in” en de microservices samen stelden steeds minder eisen aan de features van het operating systeem. Een OS wordt steeds eenzijdiger ingezet. Linux leent zich hier wederom erg goed voor. Het lijkt eerder een doos met Lego blokjes waaruit je zelf iets kan maken, dan een kant en klaar product. Het is naar mijn idee hier dat Linux revolutionair zal blijken. Naast dat bijna alle cloud infrastructuren op Linux gebouwd worden (zoals bijvoorbeeld Amazon, maar ook OpenStack) is de keuze voor Linux als OS binnen de Cloud ook logisch. Voordelen zijn bijvoorbeeld: lage kosten, geen licentie problematiek en de aanpasbaarheid.

Nog eenvoudiger

Het toepassen van microservices in Cloud infrastructuur verlangt verdere afslanking. De overhead van een virtuele server is nog steeds te groot. Hier biedt het gebruik van container technologie, zoals Docker uitkomst , zeker in combinatie met datacenter automation. Het OS hoefde nog minder features – en dus complexiteit – te hebben. Ook het update mechanisme kon vereenvoudigd worden. De grote Linux distributeurs kwamen met “uitgeklede” versies van hun OS met aangepast update mechanisme (zoals Ubuntu Snappy Core en Red Hat’s Atomic).

d.d. 7 december 2015
Aanvulling, Vandaag kwam ik dit artikel tegen over unikernels. Dit sluit precies aan bij de zoektocht naar kleinere OS-en, een kernel die slechts een applicatie draait.

Features

Kon commerciële software voorheen met Linux concurreren op basis van features, dan zie ik de grond daarvoor nog verder verdwijnen. De aanpasbaarheid en kwaliteit maken Linux tot een onweerstaanbare keuze voor bedrijven – nog los van kostenvoordelen. De schaalbaarheid en automatisering daarvan schreeuwt om open source software. Linux “loves Cloud Computing”. Deze revolutie is in alle hevigheid los gebarsten.

Houdbaarheid van digitale gegevens

In Noorwegen heb ik rotstekeningen gezien waarvan vermoed wordt dat deze ongeveer 9000 jaar oud zijn. Een van de tekeningen laat een rendier of hert zien dat zijn kop omdraait en achter zich kijkt. Niets bijzonders zou je denken. Maar iemand heeft dat beeld 9000 jaar geleden gezien, op de rots getekend en nu weten wij het. Dat is toch onvoorstelbaar. Hoe zit dat eigenlijk met onze moderne digitale gegevens, hoe lang kunnen wij die bewaren? Dit zette me aan het denken en als zo vaak leidt dat tot een stukje tekst.

Uiteindelijk vergaat alles

Om te beginnen, natuurkundig bekeken zal alles tenslotte vergaan. Zo hiermee is het meest voor de handliggende eerste gedachte van tafel.

Hoe lang kunnen we als mensheid eigenlijk analoge gegevens bewaren? Welke voorbeelden zijn er van overleveringen (analoog evenwel) en hoe oud zijn die eigenlijk? Kort onderzoek op internet levert het volgende overzicht op:

  • Noorse rotstekeningen geschat 9000 jaar oud
  • Kahun Gynaecological Papyrus geschat op 4000 jaar oud
  • Gutenberg bijbel wordt geschat op 2000 jaar oud
  • Gedichtenbundel van Den Schoolmeester in de boekenkast, geschat net iets minder dan 100 jaar oud
  • Oudste foto in huis, mijn vader als kleine jongen, iets ouder dan 75 jaar

hertje

Mijn eerste observatie is dat ik vergeleken met de andere voorbeelden geen erg oude zaken in huis heb.  Mijn tweede observatie is dat mits zorgvuldig bewaard papier aardig kan concurreren met rotstekeningen. We zouden dit als baseline kunnen beschouwen en eens kijken welke digitale media ik nog heb.

Digitaal archief

De eerste digitale media die ik zelf in huis haalde waren CD’s. Voor zover ik weet is de inhoud daarvan nog steeds goed leesbaar. In overzicht:

  • Oudste CD (Kate Busch, Hounds of love) 30 jaar oud (het jaartal op het boekje)
  • Floppy disc 19 jaar oud (er stond een datum op het label, de leesbaarheid kan niet geverifieerd worden, ik heb geen diskdrive meer)
  • Oudste digitale foto 12 oud (ik wist nog waar en wanneer dat was, foto geverifieerd goed leesbaar)

Vergeleken met de rotstekeningen en de eerste boeken is dit nog geen indrukwekkend resultaat. Hoelang gaan digitale media eigenlijk mee? Kort onderzoek op internet levert het volgende overzicht op.

tabel levensduur media

Hoewel ik dit een wel erg voorzichtige inschatting vind, is het geen erg bemoedigend resultaat.

Digitaal versus analoog

Er is blijkbaar een belangrijk verschil tussen het opslaan van gegevens in analoge vorm en in digitale vorm. In het geval van analoge gegevens kan je stellen dat de levensduur van de gegevens gelijk is aan die van het materiaal (de media) waarop ze zijn opgeslagen. Voor digitale gegevens gaat dit niet op. Een tape of floppy kan zijn gegevens verloren zijn zonder dat je dat kan zien. Daarnaast moet het het medium nog kunnen lezen (heb je dan nog een werkende floppy drive of CD speler en interface?).

Er wordt wel gesteld dat media na twee generaties systemen niet meer leesbaar zijn.

Daarnaast moet het format van de bestanden ook nog leesbaar zijn. Deze zaken worden wel aangeduid met fysical media obsolescences. Naast deze digital obselescence speelt er nog een andere complicerende factor, namelijk datagroei. De groei van data is niet lineair, maar eerder exponentieel.

Welke factoren beïnvloeden digitale opslag media? Te denken valt aan magnetische invloeden, temperatuur (zowel hitte als kou), brand, radiostraling, vocht, uitdroging, chemicaliën en fysieke invloeden (aardbevingen, instortingen van gebouwen e.d.)

Aanvalsplan

Bedrijven en organisaties zien zich natuurlijk eveneens geconfronteerd met deze problematiek, daar zijn we bij ons in huis met onze muziek, foto’s en home video’s geen uitzondering op. Welke tactiek(en) passen deze bedrijven toe?

Het fysiek handelen van mensen doet de media sterk doet achteruitgaan en heeft daarom grote risico’s. Om dit tegen te gaan worden bijvoorbeeld robot’s gebruikt om tapes te hanteren.

Het labelen van CD's en DVD's verminderd de houdbaarheid van sterk.

Ook wordt data wel herschreven (ververst). Hiermee wordt datarot (ook wel bitrot genoemd) tegengegaan. Ook wordt ervoor gekozen data naar nieuwe media te migreren.

 

Datarot, het vervagen onleesbaar worden van digitale gegevens op een drager of in memory.

In alle gevallen wordt geaccepteerd dat een deel van de gegevens verloren gaat. Dat is dus niet anders dan ik de fysieke (analoge) wereld.

Misschien een vreemd idee, maar digitale gegevens op papier printen kan een oplossing zijn voor de eeuwigheid. We weten immers dat dit duizenden jaren kan overleven. Bovendien is er daarmee ook geen afhankelijkheid van gebruikte interfaces. Het is echter minder handig als het gaat om de opslag van veel gegevens. Daarmee vallen foto’s, muziek en film praktisch af.

De keuze voor rotstekeningen was dus nog zo slecht niet. Alle respect voor de kunstenaar van 9000 jaar geleden.

 

 

Docker, Dev-Ops bijna opgelost..

Nu grote- en middel grote organisaties de inzet van Linux en Open Source software niet vreemd meer vinden, maken zij zich op voor de volgende stap. De een noemt het “State config”, de ander noemt het “Datacenter automation”. Ongeacht de naam die het krijgt, verandering zit in de lucht.

Virtualisatie

De eerste grote slag vond plaats toen virtualisatie gemeengoed werd. Het maakte mogelijk dat hardware beter benut kon worden en onderhoud op de hardware uitgevoerd kon worden zonder down time van applicaties. Feitelijk werden server-installaties los gekoppeld van de hardware. In  sommige organisaties ontstond er zelfs een nieuwe groep van beheerders, zij die zich exclusief bezig hielden met deze virtualisatie. Nadeel van virtualisatie was wel dat nieuwe (virtuele) servers te makkelijk uitgerold konden worden. Dit leide veelal tot ongecontroleerde groei van servers. Immers, het aanvraag proces van nieuwe servers en de aanschaf van hardware waren ook ontkoppeld.

Puppet

Virtualisatie van servers vraagt om software en tooling waarmee dit beheerd kan worden. De servers zijn niet meer zichtbaar en het worden er wel heel veel. Het walhalla is hierbij natuurlijk dat servers volledig middels templates beschreven zijn en op commando geautomatiseerd gedeployed kunnen worden. Puppet is bij uitstek software die dit mogelijk maakt. Veel organisaties op dit moment zijn nu wakker voor deze ontwikkeling en het verklaart de populariteit van Puppet. Overigens zijn er veel meer initiatieven (software producten) die dit kunnen, te denken valt aan Ansible, Chef, MAAS, JuJu, Landscape e.t.c. Interessant is dat deze ontwikkelingen veelal vanuit de Open Source hoek lijken te komen. Duidelijk wordt dat traditioneel systeembeheer een veel grotere programmeer-component krijgt.

Cloud Computing

Als virtualisatie gecombineerd wordt met datacenter automation, dan komen we in het gebied van Cloud Computing. Hierbij gaat de ontkoppeling van de hardware nog een stap verder. De kosten worden volledig operationeel (opex – Operational Expenditures) en de capaciteit volledig elastisch. Bij de cloud aanbieders zijn het de grote IT bedrijven die de toon zetten. Met name Amazon met haar EC2 cloud mag genoemd worden. De EC2 cloud is voor velen nog steeds het lichtende voorbeeld van hoe een cloud zou moeten functioneren. Bij de aanbieders van cloud software wordt het peloton aangevoerd door Open Stack een project waaraan alle belangrijke software vendors inmiddels aan meewerken. Het is mogelijk een “Kip ei” vraagstuk of Cloud Computing of datacenter automation eerder was. Het zijn in ieder geval technieken die hand in hand gaan. Red Hat heeft dit zien aankomen en heeft Puppet in haar Red Hat Satelite product geïntegreerd en maakt met Cloud Forms mogelijk om orkestratie over verschillende Cloud- en virtualisatie platforms uit te voeren.

Docker

En op het moment dat de IT markt denkt de ontwikkelingen begrepen te hebben, komt er een game changer langs. Docker is een combinatie van container virtualisatie en applicatie virtualisatie. Dit verandert vreemd genoeg veel. De lichtere vorm van virtualisatie maakt dat er minder overhead is en er dus efficiënter gebruik van de hardware kan worden gemaakt. Het is niet strijdig met Cloud Computing, maar, bouwt daar juist op voort. De echte grote verandering is daarom niet technisch van aard, maar organisatorisch. Doordat ontwikkelaars de Docker pakketten maken wordt het traditionele systeembeheer gepasseerd.  Het traditionele IT afdelingen hebben de “Boot gemist”, de business heeft ze nauwelijks meer nodig. Na jarenlang barrières op te hebben geworpen, heeft de business zich nu onafhankelijk gemaakt van de IT afdeling. De aansluiting met de business is hierdoor eenvoudiger – een vraagstuk dat de IT al jaren teistert. Het is wel de vraag wat de IT beheer afdeling nu gaat doen. Resteert het hen de hardware te beheren en te onderhouden?

Nieuwe kansen

Er zijn ook wel weer kansen. De ontwikkelaars zijn nu “In charge” en daarmee ook van security – en daar zijn ze traditioneel niet erg goed in. Het is zaak om het traditioneel IT beheer te herzien en  aan te sluiten bij development afdelingen en te participeren in security vraagstukken – mits je niet alleen kapotte harddisks wil wisselen.