In de jaren zeventig was het allemaal makkelijk. De IT-manager schafte alles aan bij dezelfde leverancier: computer, netwerk, opslag én applicaties. Door de komst van open systemen kon hij bij diverse leveranciers terecht. Terwijl die leverancier u nu opnieuw tracht te verleiden met een alles in één-aanbod.

Advertentie

In de jaren zeventig was het allemaal makkelijk. De IT-manager van een bedrijf schafte alles aan bij dezelfde leverancier: computer, netwerk, opslag én applicaties. Door de komst van open systemen kon hij bij diverse leveranciers terecht. Terwijl die leverancier u nu opnieuw tracht te verleiden met een alles in één-aanbod dat vandaag erg actueel is: de zogenaamde converged infrastructure.
Bram Dons & William Visterin

Zeker bij grote organisaties is het datacenter een mix van verschillende computerarchitecturen, waarvan de kosten voor onderhoud en beheer de laatste jaren vaak behoorlijk zijn toegenomen. De gevolgen laten zich raden: capaciteitsplanning vormt vandaag een van de grootste uitdagingen voor de IT-manager of datacenter architect. Zij proberen te voorspellen wat de komende drie tot vijf jaar de capaciteitsgroei zal zijn, en moeten voor de komende jaren de benodigde hoeveelheid capaciteit aan opslag, rekenkracht en netwerk inschatten, waaronder de nodige prestaties voor processing, IOP’s (Input/Output Operations per second) en bandbreedte.

Naast de technische vereisten moet de architect een inschatting maken van het daarvoor benodigde budget. “Zo moet de continue groei aan data aangepakt worden met een IT-budget dat onder druk staat”, illustreert Julie Parrish, Chief Marketing Officer bij Netapp. “En daarnaast moet ook alsmaar sneller ingespeeld worden op business vereisten, met de mogelijkheden van de cloud als belangrijk referentiepunt.”

Tegelijk maakt de rigide architectuur van veel van de traditionele systemen, zoals storage, het lastig om de juiste systeemcapaciteit in te kopen. Vaak moeten er vooraf onnodig grote investeringen gedaan worden voor een capaciteit die op dat moment nog niet echt nodig is.

Virtualisatie
Om de hoeveelheid computersystemen terug te dringen en efficiënter te gebruiken, heeft men ook bij de open systemen het virtualisatiemodel geïntroduceerd. Niet alleen konden systemen daarmee efficiënter benut worden, het bood ook het de mogelijkheid om van de bestaande verschillende types van hardwaresystemen gebruik te blijven maken.

Virtualisatie introduceerde echter belangrijke uitdagingen: de toegenomen complexiteit van de virtuele architectuur en de vaak onvoorspelbare vraag naar IOP’s. Zo bleek meer dan eens dat traditionele opslagsystemen slecht met het onvoorspelbare gedrag van virtuele machines konden omgaan. Virtualisatie heeft datacenters dan wel erg dynamisch gemaakt, maar de diverse componenten – zoals servers, opslag en netwerk – bleven op zich een eerder losstaand bestaan kennen.

Converged infrastructure
Om gebruikers snel de nodige systeemcapaciteit te kunnen bieden, hebben de bekende grote leveranciers van computersystemen hun bestaande computers, storage en netwerkmodellen geïntegreerd in een kant-en-klaar systeem. Het gaat om een schaalbaar systeem dat via kleine standaardblokken, bestaande uit storage, netwerk en computing, eenvoudig uit te breiden is.

 

Dergelijke converged infrastructure-gebaseerde systemen vereenvoudigen het aanschafproces en verbeteren de zogenaamde time to value. Een datacenter in a box, zo omschrijft Erwin uit de Bos, Enterprise Technologist bij Dell het concept. “U koopt geen server, storage of netwerkapparatuur, maar capaciteit van dit alles in een kant-en-klaar pakket”, aldus Uit de Bos, die wijst op Gartner-onderzoek dat de helft van alle datacenterinfrastructuur zich tegen 2015 zal baseren op het concept van zo’n converged infrastructure.

Converged infrastructure in een oogopslag

Bij converged infrastructure worden componenten van een datacenter die traditioneel losstaand bestonden, zoals server, opslag, netwerk, virtualisatie en besturingssystemen, gecombineerd tot één aanbod.

Vergis u niet: het gaat nog om toekomstmuziek. “Dat is logisch. De systemen die vandaag in het datacenter staan, baseren zich op de traditionele legacy, en werken eerder geïsoleerd. Dat is voor 80 tot 90 procent van de systemen het geval”, aldus uit de Bos. In de markt is converged infrastructure alvast erg aanwezig. Elke vooraanstaande leverancier, en zeker diegenen met een alomvattend aanbod, heeft er een oplossing voor. Bij HP heet het CloudSystem, bij IBM is het PureSystems en bij Dell Active Infrastructure. Daarnaast zijn er, als we het datacenteraanbod verder overlopen, nog samenwerkingsverbanden van diverse spelers als Vblocks (van Cisco, EMC en VMWare) en Flexpod (van Cisco, Netapp en VMWare).

Google
In elk geval staat schaalbaarheid voorop. Destijds realiseerden Google, Facebook en Amazon zich dat een standaardmodel voor hun eigen datacenter niet op de markt beschikbaar was aan hun (prijs)voorwaarden. Daarom ontwikkelden ze zelf hun eigen schaalbare clustermodel op basis van commodity Linux-gebaseerde servers met lokale opslagcapaciteit. Zij zijn de voorlopers in de cloud, ook met hun eigen datacenter. “Het zijn net dergelijke aanbieders van public cloud-diensten waar een CIO of IT-manager mee moet concurreren. Al is het maar om een gelijkaardig afrekenmodel op basis van pay per use te kunnen bewerkstelligen binnen zijn eigen organisatie, zoals bij cloud computing het geval is.”

De voordelen van converged infrastructure liggen voor de hand. De uitrol gaat veel sneller, en ze zijn eenvoudiger in beheer en integratie. En ook betrouwbaarder en veel beter schaalbaar dan de huidige infrastructuur. Toch blijkt ook dit model in de praktijk soms nog te star om als basis te kunnen dienen voor een modern, dynamisch datacenter. Het blijven op zichzelf staande, geïsoleerde, monolithische systemen, luidt vaak de kritiek. Ook is het lang niet altijd evident om technologieën van diverse leveranciers met elkaar te laten samenwerken.

Referentie

Vaak wordt door klanten, leveranciers of resellers een alternatief voorgesteld onder de vorm van zogenaamde reference architecture in datacenters. Het gaat dan om op voorhand gevalideerde en geteste ontwerpen van zogenaamde multi-vendor oplossingen. “Hierbij staat de zogenaamde best of breed aanpak voorop. Het is ook de weg die de markt volgt”, stelt Julie Parrish van Netapp.

 

“Als je de marktaandelen van datacenterpartijen bekijkt, zijn het de leveranciers die deze aanpak volgen die er de laatste jaren het meest op zijn vooruitgegaan”, vervolgt ze.

Al is deze reference architecture tegelijk een aanpak die ook de grote leveranciers van converged infrastructure-systemen – naar eigen zeggen – zelf mee ondersteunen. Of hoe in de praktijk de waarheid, zoals wel vaker, ergens in het midden ligt en veel bedrijven (op termijn) kiezen voor een combinatie van deze twee aanpakken. Hoe dan ook: de keuze die een bedrijf maakt, is cruciaal voor zijn datacenter, ook in de keuze van het zogenaamde ecosysteem.

 

Advertentie