De ontwikkelingen in het bedrijfsleven gaan sneller dan ooit en het tempo wordt alleen maar hoger. Dus willen bedrijven dat hun datacenters op dezelfde hoge snelheid mee ontwikkelen. Zij willen nieuwe toepassingen snel en efficiënt implementeren, snelle en betrouwbare 24×7 toegang tot de gegevens bieden en voldoen aan strikte serviceniveaus of deze overtreffen met zero downtime. En dit tegen lagere kosten en een hogere roi. Als een datacenter de snelheid van een bedrijf niet kan bijbenen, profiteert het niet van nieuwe kansen en is het niet in staat om in te spelen op de toenemende wereldwijde concurrentie.
Cloud computing en virtualisatie zijn cruciaal als het erom gaat it-diensten succesvol af te stemmen op het alsmaar toenemende tempo van het bedrijfsleven. Doordat het niet meer nodig is om lokaal een fysieke infrastructuur voor elke applicatie te onderhouden, maken deze technologieën het mogelijk om bedrijven veel flexibeler en responsiever te maken. Hierdoor kunnen ze sneller en kosteneffectiever dan ooit reageren op de veranderende marktwerking, en applicaties en diensten implementeren. Echter, om te profiteren van de voordelen, zal de onderliggende datacenterarchitectuur sterk moeten evolueren.
Hoogwaardig architectuurmodel
It moet meer doen met minder. Daar is iedereen het over eens. Daarom moet elke hoogwaardige datacenterarchitectuur bijdragen aan het verlagen van de operationele kosten. Daarbij kan het verleidelijk zijn om performance en betrouwbaarheid in te ruilen voor lagere kosten. Echter, steeds meer applicaties zijn bedrijfskritisch. Een gezonde architectuur die over langere tijd betrouwbaar is, blijkt op de lange termijn bijna altijd goedkoper.
Het verbetert ook de performance, waardoor kritische data sneller en veiliger te benaderen is, zelfs als het traffic-volume exponentieel blijft stijgen. Dus: hoe zorgen it-afdelingen ervoor dat hun netwerkarchitectuur alles in zich heeft om het bedrijf optimaal te ondersteunen? Niet alleen nu, maar ook op de lange termijn.
Begin met het eindresultaat
De eerste stap is om te beslissen hoe je wil dat het datacenter eruit ziet in de toekomst. Je moet de omvang en reikwijdte van de lan/san-convergentie bepalen, evenals het aantal lagen binnen elk netwerk en het aantal switch tiers binnen elke laag. Om dit goed te kunnen doen, zijn er vier vragen over het ideale model, die we moeten beantwoorden om ervoor te zorgen dat alle toekomstige investeringen gericht zijn op dat ene doel.
1. Hoe verbind je fysieke servers aan elkaar en aan de rest van het netwerk?
2. Is er een aggregatielaag op het lan of zijn virtuele servers direct aan te sluiten op een samengevoegde access & aggregation-laag met veel poorten?
3. Kies je voor een ‘vendor lock-in’ bij de keuze voor een orchestration tool en hypervisorleverancier, of kies je voor verschillende oplossingen om tegemoet te komen aan de verschillende behoeften van applicaties en afdelingen?
4. Ben je, binnen die nieuwe architectuur, in staat om bestaande apparatuur te blijven gebruiken? En zo nee, waarom niet?
Naast een antwoord op deze vragen is het cruciaal dat je een helder beeld hebt van je huidige apparatuur en hoe die wordt gebruikt. Teveel organisaties hebben deze informatie niet of onvoldoende. Als dat zo is, moet je een grondige audit uitvoeren. Zonder uitgebreide en actuele kennis van de huidige situatie is het moeilijk, zo niet onmogelijk om een visie te ontwikkelen op de toekomst, en virtualisatie en cloud computing volledig te omarmen.
De infrastructuur bouwen
Zodra de richting van het algemene ontwerp is bepaald, is virtualisatie de volgende stap naar een flexibel cloud-model. Hoewel virtualisatietechnologie niet nieuw is, is de schaal waarop het wordt ingezet, ongekend en voegt het aanzienlijke complexiteit toe aan het netwerk. In een gevirtualiseerd datacenter waar elk aspect van elk hardwareonderdeel wordt geabstraheerd van elk ander hardwareonderdeel, is het veel eenvoudiger applicaties en diensten te implementeren en opnieuw te configureren en te beheren. In de praktijk betekent dit, dat het verplaatsen van gegevens van de ene array naar de andere, het verplaatsen van applicaties van de ene server naar de andere, het transporteren van netwerkdiensten van de ene switch naar de andere – in wezen elke toevoeging, verplaatsing en wijziging – is uit te voeren zonder dat applicaties of gebruikers er iets van merken.
Een gezonde infrastructuur voor de volgende-generatie datacenters moet robuust genoeg zijn om virtualisatie van elk component en het datacenter zelf te ondersteunen. Niet alle applicaties gedijen bij, of profiteren van elke vorm van virtualisatie. Daarom moet de infrastructuur flexibel genoeg zijn om zowel applicaties op speciale hardware, als applicaties op gevirtualiseerde hardware te ondersteunen.
Netwerkconvergentie in het datacenter
Er zijn veel verschillende manieren om een datacenter te ontwerpen, zodat het virtualisatie- en cloud computing-diensten ondersteunt. Ook zijn er veel belangrijke beslissingen te nemen. Een belangrijke beslissing die van invloed is op het topniveau netwerkarchitectuur, is netwerkconvergentie. Je kunt ervoor kiezen om wel of niet een netwerkconvergentie door te voeren en tegelijkertijd de kostenbesparing te behalen, die aan de basis liggen van virtualisatie en private cloud computing.
Netwerkconvergentie van lan- en san-verkeer heeft bredere implicaties dan het eenvoudig samenvoegen van het verkeer op dezelfde kabel en de investeringskosten verlagen. Gelukkig is convergentie geen alles-of-niets propositie. In wezen zijn er vier verschillende keuzemogelijkheden.
1. Geen convergentie – vasthouden aan de klassieke architectuur is niet altijd een verkeerde keuze. Echter, als je lan- en san-beheerfuncties integreert met het aansturen van virtuele serversoftware, dan is het wel mogelijk om aanpassingen te automatiseren als virtuele machines tussen fysieke servers verplaatst worden. Dit resulteert in aanzienlijke besparingen op tijd en capaciteit.
2. Convergentie van het beheer – het populaire ‘single-pane-of-glass’-beheer waarbij alle meetgegevens, applicaties en hardware te monitoren en te onderhouden zijn vanaf een centraal punt, vereist verdergaande convergentie, zodat beheertools tegelijkertijd met lan- en san-switches kunnen praten.
3. Convergentie van Layer 2-technologie – bij deze optie is het mogelijk fysiek gescheiden netwerken te behouden, die toch dezelfde soort Layer 2-infrastructuur (datalink) voor IP- en Fibre Channel-verkeer gebruiken.
4. Convergentie van de toegangslaag – door ip- en fibre channel-verkeer fysiek te convergeren binnen een server, maakt een datacenter de weg vrij om te besparen op kosten en onderhoud van externe netwerkadapters en ‘top-of-rack’-switches doordat er eenvoudigweg minder kabels en schakelaars nodig zijn.
Zoals bij elk infrastructuurproject moet een datacenter voor de totale kosten van elk van deze opties verder kijken dan alleen de eerste implementatie, omdat elke optie een andere impact heeft op prestaties, beschikbaarheid, veiligheid en bedrijfsresultaten. Convergentie van fysieke netwerken is een optie die steeds populairder wordt naarmate de technologie zich verder ontwikkelt. Maar het is geen must voor alle klanten en alle applicaties. Het ‘wanneer’ en ‘hoe’ van het convergeren van het ip- en fibre channel-verkeer is een beslissing die datacentermanagers moeten maken in de context van alle organisatorische facetten.
Revolutie door evolutie
De discussie rond servervirtualisatie en cloud computing toont aan hoe belangrijk directe toegang tot onbeperkte hoeveelheden rekenkracht, opslagcapaciteit en bandbreedte is. Echter, de effectiviteit van virtualisatie en cloud computing is sterk afhankelijk van de datacenters en de fysieke hardware waarop ze zijn gebaseerd. Om virtualisatie mogelijk te maken, moet de datacenterarchitect het netwerk tegen storingen beschermen en tegelijkertijd garanderen dat het flexibel is, zonder het dataverkeer te verstoren en toch de bestaande datacenterhardware te blijven ondersteunen.
Cruciaal hierbij is dat er geen volledige upgrade van het gehele datacenternetwerk – van toegangslaag tot en met kern – nodig is om dit te bereiken. De beste aanpak blijft om te virtualiseren en een private cloud computing-architectuur te implementeren, die aansluit bij de wensen van een organisatie. It-teams moeten hun eigen organisatorische eisen zorgvuldig in kaart brengen en alle hierboven geschetste opties overwegen om de langetermijnstrategie te selecteren, die het best werkt voor het bedrijf.
Frank Koelmel, senior director EMEA East Brocade