Doordat internet steeds meer gedomineerd wordt door apparaten, krijgt het datacenter ook steeds meer een andere rol. Eén ding is zeker, de infrastructuur krijgt een andere rol en zal derhalve geoptimaliseerd moeten worden. We krijgen te maken met het datacenter-op-maat, waarin zaken als betrouwbaarheid, beschikbaarheid en schaalbaarheid centraal staan, en infrastructuren doen er verstandig aan om gebruik te maken van geconvergeerde oplossingen. ‘Software defined’ gaat hierbij een centrale rol spelen.
‘De klassieke it-infrastructuur is niet opgewassen tegen de datastroom die mobility, cloud computing en vooral het internet of things (IoT) creëren’, laat Sander Bakker, channel manager Benelux bij Brocade, duidelijk weten. ‘Het zijn echter juist deze toepassingen die een hoge beschikbaarheid, flexibiliteit en schaalbaarheid vereisen van de netwerken. Om ervoor te zorgen dat netwerken ook in de toekomst de datastomen aankunnen, moet software defined networking (sdn) worden ingezet.’
Zoals een bedrijf als VMware de serverwereld virtualiseerde, zo zal de komende jaren ook het netwerk in snel tempo gevirtualiseerd worden. Volgens analisten zal de omzet aan sdn-producten tot 2016 vertienvoudigen, tot meer dan twee miljard dollar. Bakker: ‘Voorheen werd vaak geprobeerd een toenemende belasting van het netwerk op te vangen door extra apparatuur toe te voegen. Helaas wordt daarmee in veel gevallen juist het tegenovergestelde bereikt: de kans op defecten neemt toe, er is meer beheer en management nodig en de netwerken worden trager. De oplossing moet daarom op een andere plaats in het netwerk gevonden worden, namelijk aan de basis.’
Traditionele datacenters hebben een hiërarchische netwerkstructuur met meerdere lagen. Deze netwerkarchitecturen werden ontworpen voor client-server applicaties. Die zorgden ervoor dat het dataverkeer vooral in noord/zuid-richting bewoog: vanuit een client via de core naar de aggregatielaag en vervolgens de access-laag tot de server in het hart van het datacenter en vervolgens weer terug. ‘De traditionele datacenternetwerkarchitectuur voldoet niet langer, veel applicaties veroorzaken nu datastromen tussen verschillende servers op dezelfde laag, tussen virtuele applicaties of, zoals bij het internet of things, tussen verschillende machines’, verduidelijkt Bakker. ‘Dit zogenaamde oost/west-verkeer zal binnen een jaar vertienvoudigen. Op dat moment zal tot 70 procent van het totale dataverkeer tussen servers onderling plaatsvinden. Om die datavloed op elk niveau te kunnen verwerken, worden met sdn die netwerk-stacks die traditioneel met elkaar geïntegreerd zijn nu van elkaar gescheiden. Op die manier kunnen controlefuncties onafhankelijk van de datalaag verlopen. Het doel is daarbij de flexibiliteit en wendbaarheid van het netwerk door nieuwe technieken te vergroten.’
Betrouwbaarheid
Loek Wilden, datacenter lifecycle consultant bij Schneider Electric, is het helemaal met Bakker eens. Hij meent ook dat door de relatief statische punt-naar-punt-verbinding van client naar server en retour bij noord/zuid-verkeer een dergelijke datacenternetwerkarchitectuur niet langer voldoet door de opkomst van internet of things. ‘Deze applicaties zijn immers meer gericht op het leveren van cloud- en mobiele services. Het resultaat hiervan is dat de verkeersstromen in oost/west-richting gaan in plaats van in noord/zuid. Het verkeer gaat veel meer binnen het datacenter zelf plaatsvinden. Dit heeft gevolgen voor de infrastructuur binnen het datacenter. Deze moet worden uitgebreid als het gaat om betrouwbaarheid, capaciteit en robuustheid. Hierbij moet hetzelfde niveau worden behaald als bij noord/zuid-verkeer. Doordat IoT enorm veel real time informatie oplevert, is het dus essentieel dat de betrouwbaarheid en beschikbaarheid naar 24/7 gaan.’
Daarnaast verwacht Wilden dat datacenters steeds meer met it-apparatuur op maat gaan werken. ‘Ze gebruiken dan niet alleen standaard Intel-servers, maar servers op maat voor specifieke taken. Denk hierbij aan dedicated servers voor I/O-intensieve taken en andere typen servers voor het zware rekenwerk. Het gevolg hiervan is dat datacenters andere eisen gaan stellen voor de inrichting van de fysieke infrastructuur van een datacenter, zoals voor de stroomvoorziening en de koeling.’
Sdn op korte termijn
Vaak leiden verouderde infrastructuren tot storingen. De productiviteit lijdt daaronder, inkomsten lopen terug en klanten verliezen hun vertrouwen. Veel it-managers verwachten om die reden volgens Sander Bakker van Brocade dat sdn tot een verbetering zal leiden van hun actuele situatie. ‘De meeste managers plannen een implementatie van sdn om die reden op korte termijn. Zeker voor ondernemingen die inzetten op het internet of things biedt sdn veel voordelen. De netwerken, die de basis vormen voor het succes van het internet of things, zullen eenvoudiger te managen zijn en een betere beschikbaarheid bieden, afzonderlijke datastromen kunnen vanaf een centraal punt real time gestuurd worden, de beschikbaarheid van toepassingen en netwerkdiensten wordt erdoor versneld en diensten zijn sneller beschikbaar, een belangrijk gegeven, want het internet of things is voor zijn succes afhankelijk van real time communicatie tussen mensen en apparaten en tussen apparaten onderling. Flexibiliteit, efficiëntie en schaalbaarheid nemen toe, tegen lagere kosten voor stroom en kosten en tijdbesparing op beheer.’
Door kortere innovatiecycli krijgen ondernemingen volgens Bakker ruimte om zich sterker op de ontwikkeling van nieuwe services te concentreren. ‘En door het aanbieden van juist die services kunnen bedrijven zich in de tijd van het internet of things onderscheiden van de concurrentie. Er wordt door veel mensen binnen bedrijven over sdn gesproken. Het is goed te weten dat het geen trend of hype is, maar bittere noodzaak om te voldoen aan de eisen van de toekomst.’
Optimaliseren werklast
Volgens Matty Bakkeren, technical account manager bij Intel, zal het datacenter moeten transformeren om de groei van de digitale service-economie, die het internet of things mogelijk maakt, bij te kunnen houden. ‘Cloud computing en service delivery zijn in hun huidige vorm nog te complex. Het datacenter zal zich daarom moeten kunnen optimaliseren voor de actuele werklast en alle infrastructuur zal ‘software defined’ moeten zijn om de groei van dynamische applicaties te ondersteunen. Statische en handmatig processen zullen plaatsmaken voor volledig geautomatiseerde processen die gebruik kunnen maken van een pool van dynamische, open resources in het datacenter en data-analytics zal een standaard onderdeel gaan vormen van de diensten die een datacenter levert.’
Rik Opdam, Lead Consultant BI en big data bij ilionx Information Management, voegt daaraan toe dat daarbij een schaalbaar datacenter essentieel is. ‘Indien er veel fluctuaties zijn in de hoeveelheid dataverkeer, zal er overcapaciteit aanwezig moeten zijn of zal er heel snel uitgebreid moeten kunnen worden. Dit geldt ook voor het netwerk. Een ‘store-and-forward’-principe zorgt ervoor dat er decentraal in het geval van calamiteiten verkeer wordt opgeslagen in een buffer.’
‘De enige manier waarop het datacenter en de it-infrastructuur de ontwikkeling en de groei van het IoT kunnen bijhouden, is met behulp van geconvergeerde oplossingen’, meent Rob Hilterman, chief technology bij Hitachi Data Systems Nederland. ‘Dat is de enige manier om het beheer in goede banen te leiden en de kosten te terug te dringen. Het tijdperk van allerlei losse datacentercomponenten van verschillende leveranciers die op de een of andere manier aan elkaar geknoopt worden tot een datacenter, is echt voorbij. De complexiteit van de technologie en de noodzaak voor continue uptime, flexibiliteit en onbeperkte schaalbaarheid, vragen om een datacenter waarin servers, opslagsystemen en netwerken naadloos met elkaar samenwerken als één geheel.’
Die geconvergeerde oplossingen zijn volgens Hilterman volledig gecertificeerd voor specifieke toepassingen, zoals virtualisatie, SAP Hana, et cetera. ‘Daarnaast is de inzet van automatisering en self-service voor allerlei processen en procedures de enige manier om het beheer en de provisioning van een modern datacenter kosteneffectief en betrouwbaar te doen. Daar zullen we de komende jaren dan ook zeker veel ontwikkelingen zien, zeker nu de behoeften door het IoT zullen toenemen. It zal veel meer de opdracht krijgen om de business te ondersteunen bij hun doelstellingen, onder andere door waarde te genereren uit IoT-data. Dat kan alleen als het datacenter een zekere mate van intelligentie en autonomie krijgt, zodat het systeem als het ware ‘self-healing’ en ‘self-configuring’ wordt.’
Orchestration software
Routinetaken worden via orchestration software zo veel mogelijk geautomatiseerd en eindgebruikers moeten zelf allerlei taken kunnen uitvoeren via een self-service portal, zo meent Hilterman. ‘Denk bijvoorbeeld aan het toewijzen van extra opslag- of rekencapaciteit uit de resource pool. Flexibiliteit is daarbij het sleutelwoord: het datacenter moet snel en naadloos kunnen reageren op veranderende zakelijke behoeften, zonder dat er grote extra investeringen nodig zijn en zonder complexe herconfiguraties en aanpassingen.’
Binnen het optimaliseren van je datacenter of infrastructuur speelt de cloud een belangrijke rol. Vincent Zeebregts, manager solutions en business development bij Imtech ICT Communication Solutions, vindt het wat contra-intuïtief klinken nu we net al onze data centraal aan het opslaan zijn in de cloud, maar we op het punt staan om weer meer te gaan decentraliseren en lokale opslag en computing een grotere rol te geven. ‘We lijken hiermee wellicht wat te zwalken tussen centraal en decentraal, maar het is minder eigenaardig dan het lijkt. Het is maar net waar de aard en de hoeveelheid van de gegevens die we opslaan en verwerken om vraagt. Met de opkomst van het internet of things is die hoeveelheid exponentieel aan het groeien en de aard van de data wordt steeds diffuser. We staan dankzij deze ontwikkelingen aan de vooravond van alweer een revolutie op datagebied: the fog.’
Alles om ons heen wordt steeds slimmer en verzamelt steeds meer data. Zeebregts: ‘Maar waar slaan we die data op? En waar verwerken we al die gegevens tot bruikbare informatie? De grootste bottleneck in onze netwerken is de bandbreedte en die groeit veel minder snel dan de hoeveelheid data die we er doorheen sturen. Dit noopt tot nadenken over de vanzelfsprekendheid waarmee we data in de cloud zetten. Wanneer je gegevens afkomstig van allerlei verschillende locaties met elkaar wilt vergelijken, dan is de cloud de aangewezen plek om de informatie te verwerken. Maar hoe zit het met data die net zo goed, of zelfs beter, lokaal afgehandeld kan worden?’
Hoe meer data we verzamelen, hoe belangrijker het volgens Zeebregts wordt wat de aard van de data is en wat er mee moet gebeuren. ‘We moeten goed kijken naar de doeleinden van de verzamelde gegevens, voor we bepalen waar we het opslaan of verwerken. Gebruik je de data die je verzamelt bijvoorbeeld voor ‘predictive maintenance’, oftewel voorspellend onderhoud, waarbij zaken als slijtage van onderdelen worden gemonitord zodat er tijdig vervanging of onderhoud plaats kan vinden, dan heeft het niet altijd zin om de data eerst naar de cloud te sturen.’
Mistig it-landschap
De decentralisatie van rekenkracht en opslag wordt ‘fog computing‘genoemd. ‘Met decentrale intelligentie kun je vaak efficiënter actie ondernemen naar aanleiding van de verzamelde data en kun je onnodige kosten voor bandbreedte en opslag voorkomen’, vervolgt Zeebregts. ‘Dit is een ontwikkeling die we steeds breder gaan toepassen en die heel goed hand in hand kan gaan met de gang naar de cloud. Waar het nuttig is zal de informatiestroom steeds vaker lokaal geanalyseerd en gekwalificeerd worden en waar centrale verwerking meer voor de hand ligt, zullen we de cloud inzetten. Het gevolg is dat het onderscheid tussen cloud en lokaal steeds meer zal vervagen, tot je uiteindelijk een mistig it-landschap overhoudt.’
Laatste nieuws
Dit artikel is eerder gepubliceerd in de laatste nieuws-printuitgave van Computable (10 oktober 2014).Computable-print gaat door als magazine voor het ict-management.
De site Computable.nl gaat zich specifiek meer richten op de ict-professional.