Managed hosting door True
Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het gedachtegoed van de redactie.

Welkom in een software defined-wereld

 

Computable Expert

Jacco van Achterberg
Emea Director, CLOUDIAN. Expert van Computable voor het topic Infrastructuur.

Maar liefst 90 procent van alle huidige data ter wereld is in de afgelopen twee jaar gegenereerd, en deze groei versnelt alleen maar door trends als cloud computing, social media, mobiliteit, big data en the internet of things. Deze trends leggen een behoorlijke druk op managers van datacenters, die nu ook nog met lage of krimpende ict-budgetten te maken hebben.

Alles wijst erop dat het software defined data center (sddc) de helpende hand kan bieden. Sddc kent drie steunpilaren: rekenkracht, opslagcapaciteit en netwerktechnologie. Het concept belooft grotere schaalbaarheid, beschikbaarheid en flexibiliteit tegen lagere totale eigendomskosten. Bedrijven als Amazon, Google en Facebook omarmen sddc.

VMware, Microsoft en de open source-gemeenschap hebben het afgelopen decennium de rekenlaag van de gemiddelde it-infrastructuur aanzienlijk veranderd. Het is nu de beurt aan de storage- en netwerklaag. Hoewel software defined networking (sdn) al een aantal jaar als ‘the next big thing’ gezien wordt, blijven de marktrespons en klantenacceptatie achter bij de verwachtingen. De belangrijkste spelers binnen de branche zijn nog altijd bezig met de afstemming van alle technologische componenten voor complete sdn-oplossingen. Wat opslagtechnologie betreft ligt dit heel anders.

Herhaling van zetten

Klanten beginnen de voordelen op te merken van software defined storage (sds), die een einde kunnen maken aan belangrijke pijnpunten op het gebied van schaalbaarheid, beschikbaarheid, flexibiliteit en de kostenstructuur. Het is daarom voor veel storageleveranciers aantrekkelijk om hun aanbod te ‘sds’en’. Maar veel software toevoegen aan hardware (zoals bij de meeste storage arrays gebeurt) kan een product misschien software-based maken, maar dat is niet hetzelfde als software-defined. Ook kan het toevoegen van een extra beheer- of abstractielaag aan niet-open hardware (denk aan EMC ViPR) er mogelijk toe leiden dat er meer software aan klanten wordt verkocht, maar dat maakt de oplossing evenmin software-defined.

Wat leveranciers van legacy storage-oplossingen doen, lijkt sterk op wat de Unix-leveranciers van weleer (zoals Sun, HP en IBM) deden toen ze virtualisatiemogelijkheden en beheersoftware toevoegden aan hun legacy besturingssystemen om de concurrentie met VMware aan te kunnen gaan. Hoewel hierbij vanuit technologisch oogpunt sprake was van interessante uitbreidingen van legacy-systemen, waren het de oplossingen van VMware op standaard, Intel-gebaseerde servers die werkelijk de deur openden voor software defined computing en voor een permanente verandering zorgden van de kostenstructuur. Hetzelfde geldt voor sds.

Als software defined storage op een juiste manier wordt toegepast, kunnen bedrijven een schaalbare, betrouwbare en krachtige, functierijke opslaginfrastructuur ontwikkelen op basis van een breed scala aan (betaalbare) industriestandaard hardware. Sds is daarmee veel meer dan ‘de nieuwste technologische innovatie’. Het stelt klanten in staat om dingen te doen waartoe ze eerder niet in staat waren en heeft een grote impact op de kostenstructuur voor zakelijke storage. Ook maakt sds het voor bedrijven mogelijk om op dezelfde manier met hun opslagcapaciteit om te gaan als met hun gevirtualiseerde ict-infrastructuur. Ze kunnen een software-stack selecteren voor al hun opslagservices en de onderliggende, branchestandaard hardware moeiteloos wijzigen als de kosten, schaalbaarheid en prestatie-eisen daarom vragen. Sds zal voor een doorbraak zorgen in de storage-branche door een einde te maken aan vendor lock-in, zonder dat het ten koste gaat van beschikbaarheid, betrouwbaarheid en functionaliteit.

Ondersteuning

Vanuit technologisch perspectief moet sds ondersteuning bieden aan ieder ecosysteem (VMware, HyperV, Openstack en Cloudstack) en elk toegangsprotocol (op basis van blocks, files en objects). Sds-implementaties moeten kunnen draaien op veel verschillende hardwareconfiguraties, of het nu gaat om een omgeving die louter op flashdrives of schijven is gebaseerd of een combinatie daarvan. Sds-oplossingen met een sterk open source-dna zullen een actieve gemeenschap van gebruikers en programmeurs aantrekken. Het open karakter van sds zal een steeds grotere rol gaan spelen naarmate klanten overstappen op software-stacks die gebruikmaken van technologieën zoals cloud computing, hyperscale, big data, NoSQL, flash-hybride, volledige flash-systemen, object stores en intelligent automation.

Zoals gezegd zal het sddc nieuwe niveaus van schaalbaarheid, beschikbaarheid en flexibiliteit bieden tegen aanzienlijk lagere kosten dan nu mogelijk is. Aangezien opslag een cruciale rol speelt binnen het sddc, zal het gebruik van sds in 2014 een snelle groei gaan maken. Dit wordt het jaar van wat men over het algemeen software defined everything (sdx) noemt. Als alle bouwstenen - software defined compute, storage en networking - op hun plaats liggen, zullen bedrijven niet langer vastzitten aan een duur contract met een specifieke leverancier. Ze zullen eenvoudiger kunnen uitbreiden, sneller kunnen innoveren en nieuwe oplossingen efficiënter op de markt kunnen brengen. Sddc is meer dan een trendy technologisch fenomeen. Het kan grote veranderingen aanbrengen in de kostenstructuur van datacenters en bedrijven de vrijheid bieden om meer in hun eigen onderneming te investeren.

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/5158860). © Jaarbeurs IT Media.

6,3


Lees meer over


 

Reacties

Ik had even een DejaVu gevoel... en ja hoor

http://www.computable.nl/artikel/outlook/5110598/4980621/de-opmars-van-software-defined.html

Wel een leuk onderwerp, dat zeker !

Zou het misschien kunnen zijn 95% van de data na 2 jaar niet langer als informatie wordt gezien?

Ook wanneer je alle softwrae defined maakt staat aan het einde toch een echte harde schijf of SSD. Dat wil je misschien vergeten maar die kan toch echt kapot.
Ik zie het voordeel wel, maar ook dat heeft zijn beperkingen.

Ach ik doe veel DigitalSignalProcessing daar vervang je vaak elektronica door software en aldus wordt dat ook vaak software defined genoemd.
Echter ik begin het vooral te herkennen als het nieuwe buzzword voor de komende tijd.
Weer een niets zeggende kreet waar je niet zonder kunt.

Jan, dat een SSD kapot kan gaan is dus helemaal niet het punt, daar heeft niemand last van en al zeker je storage niet bij SDS.

Wat zijn de beperkingen dan van SDS?

Ja Software Defined lijkt op een hype, vooral omdat het veel mensen weinig zegt of er weinig mee kan, net als Big Data, maar dat betekent niet dat het een grote verandering is.

Server Virtualisatie is in feite ook software defined en een fundament voor cloud computing.


Nu nog software defined devices die je zelf mag meebrengen. En hosting in de software defined cloud die zich automatisch intelligent distributed HA installeert op de perfecte hardware. Owjee, als er maar geen virus tussen zit.

Als alles een wolk is dan wordt het behoorlijk mistig, het vinden van problemen kan dan voor de nodige uitdagingen zorgen bij software defined everything. Verder valt het me op dat SDS toch vaak nog slecht past bij de non-virtuele systemen die hele andere datakarakteristieken hebben waardoor al weer gauw eilanden ontstaan.

Komende jaren zullen inderdaad een hoop nieuwe technologiëen aan palet van storagebeheer toegevoegd worden zoals tiering, thin provisiong, deduplicatie en nog een heel rijtje van die termen die onder de paraplu vallen van software-defined. En
toevoegen van een extra beheer- annex abstractielaag zoals ViPR kan dus tot voordeel hebben dat je eerdere investeringen niet direct hoeft af te schrijven en meer op je eigen tempo de veranderingen in je architectuur aanbrengt. En waarbij dus vooral het aspect beheersbaarheid niet vergeten mag worden. Denk hierbij aan charge back, SLA's, Compliance enzovoort.

Henri,
Ik zie SDx (S,N, DC ) niet als een hype maar als de toekomst. Uiteindelijk zal in mijn optiek op termijn (bijna) alles SDx worden. Zeker door de steeds bredere adoptie van de cloud.
SDS geeft je veel voordelen. Zoals gefasseerd afschrijven. Servers die bijvoorbeeld 5 jaar oud zijn trek je eruit en vervang je door nieuwe nodes. Migreren is zolang je van dezelfde software gebruik blijft maken niet meer nodig. Je trekt de oude node eruit en als er genoeg ruimte in je cluster over is, zal de data seamless zonder enige vorm van downtime verplaatst worden.
Het gebruik maken van commodity server hardware heeft het grote voordeel dat je meelift op de technologie veranderingen en verbeteringen van snellere CPU's en geheugen. Bij de traditionele storage systemen worden deze vernieuwingen veelal trager geadopteerd.
Qua schaalbaarheid biedt SDS erg veel flexibiliteit. Wil je capaciteit dan schuif je een server met grote disken naar binnen. En wil je performance dan doe je hetzelfde trucje, maar dan voeg je flashtechnologie toe. Dit kan door SSD's in te zetten of flash IO acceleratie kaarten toe te voegen. De kracht zit in de mogelijkheid dat je veel met elkaar kan mixen. En dat de software de data op basis van de karakterstieken op de juiste snelle of langzamere nodes plaatst.

Ewout heeft wel een punt dat het nu veelal beter bij virtuele omgevingen past. Op zich logisch aangezien SDS ook een soort van virtualisatie is. Echter wordt er achter aan de schermen door de leveranciers hier hard aangewerkt. En ik zie dit ook niet als een groot probleem aangezien tegenwoordig bijna alles virtueel is.

Waar moet je het in mijn optiek dan nog niet voor gebruiken? In de echte high end en veeleisende enterprise omgevingen met afwijkende datakarakteristieken. Zoals zware BI omgevingen en DB’s. De loadbalancing binnen SDS is in mijn optiek hier nog niet optimaal op afgestemd. Tevens merk ik dat nog niet alle SDS smaken cruciale zaken zoals (synchrone)replicatie, unified storage ( File/Block ) supporteren. En niet iedere SDS smaak kan bijvoorbeeld bestaande Enterprise Storage systemen virtualiseren waar door deze gemakkelijker uit uitgefasseerd en leeg gemaakt kunnen worden. Ook verdient de management/beheer laag nog wel wat extra aandacht. Want het vinden van performance en andersoortige problemen, kan wat meer tijd in nemen dan bij de traditinele systemen omdat de virtualisatie laag het ietwat complexer maakt.

Maar nogmaals ik zie de toekomst voor SDS zeer gunstig in. Groot nadeel is nu dat er een enorme wildgroei is van leveranciers van SDS oplossingen. Iedereen probeert namelijk snel nog even een SDS smaak op de markt te brengen om zo de boot maar niet te missen. Dit heeft als groot nadeel dat veel van de SDS smaken alles behalve af zijn en vol met kinderziektes zitten. En door het overschot aan leveranciers wordt SDS net zoals in de begin tijd van Cloud veels te veel gehyped en een kapstokbegrip.

Gelukkig zijn er ook goede iniatieven zoals Open Stack gaande, waar steeds meer leveranciers op aan gaan haken. Waardoor er toch nog een soort van standaard ontstaat. In de toekomst zal de storage markt in mijn optiek bestaan uit alleen nog maarsoftwareleveranciers. De disken kopen we dan wel ergens want die technologie wordt steeds meer commodity, voor zover het het nu al niet is.

Virtualizatie maakt het ietwat complexer volgens Storage Ruudje. Ruudje san voor zijn Japanse vrienden :-P
Daarbij wel een heel verhaal over kinderziektes, hype en foute markmechanismen. En het zal vast niet gratis zijn, die storage clusters.

Blijkbaar is net toch wat moeilijker dan we denken en zien we door het san de disken niet meer. Het staat volgens mij ook allemaal haaks op andere ontwikkelingen als converged infrastructure appliance, waarbij je juist die hele storagestack weer in een apparaat duwt omdat het allemaal zo lekker bij elkaar past.

Waar het te moeilijk wordt voor de rationale blijft het geloof over. Wellicht zullen er goeroes a la Cruijf opstaan die ons zullen leiden met uitspraken als “als je geen disk hebt, kun je ook niet storen”, “storage is simpel, maar simpele storage is het moeilijkste wat er is”, “als het niet al in de cache zit, ben je eigenlijk al te laat”.

Ik heb trouwens nog nooit een zak geld data zien opslaan.

Felix,

Dank voor de bijnaam ;-P

Kleine toevoeging nog vanuit mijn kant. SDS sluit juist perfect aan bij Converged Infrastructures. Alleen dan wel al bij de 2e generatie genaamd Hyper Converged Infrastructures.

Meer info vind je hier:

http://www.networkcomputing.com/storage/what-is-hyper-converged-storage/a/d-id/1113876

@ Jan,

Alles wat draait gaat kapot. Dus zolang de disken nog blijven draaien hou je dat.

Ook SSD's gaan ooit kapot. Al is de levensduur bij goed gebruik van een SSD wel langer dan de reguliere HD.

Zie onderstaand:

De levensduur van een ssd is gebaseerd op een max aantal PE cycles (program-erase cycle). Een korte uitleg:
Reads = Geen PE Cycle
Writing = PE Cycle
Deleting = PE Cycle

Er zijn veel verschillende soorten flash op de markt. Dit maakt het er niet overzichtelijker op, waardoor kan het gebeuren dat mensen appels met peren vergelijken. Om te zorgen dat appels met appels vergeleken worden een meer uitleg. E-MLC/SLC zie je met name terug in enterprise oplossingen en On chip flash en MLC worden met name in consumententoepassingen gebruikt.

Praktijkvoorbeelden max PE Cycles (PE Cycle = solid-state-storage program-erase cycle )
On chip flash = 100
MLC = 1500 tot 10.000 ( zeer veel differentiatie/verschilt per leverancier/type )
E-MLC = 30.000
SLC = 100.000

De getallen zijn op basis van PE Cycles per block, dat laatste is van groot belang. Dit zorgt vaak een vertekend beeld.

Meantime between failure (MTBF). Wat is de gemiddelde tijd voordat een flashdisk omvalt? Ook dit verschilt per type hd en ssd.

MTBF
hd = 500.000 / 750.000
ssd = 1.500.000 tot 2.000.000


Kracht van SDS ligt juist in de intelligentie. De data wordt default over meerdere nodes met daar in disken/flash technologie weg geschreven. Het verlies van een disk of een nodes is dus alles behalve spannend te noemen.

Zoals ik al zei disken worden steeds meer ondergeschikt aan de software. En meerdere disktechnologieen van verschillende leveranciers worden door SDS steeds beter compatible met elkaar. Waar door storage ansich steeds meer commodity gaat worden.

Leuk artikel Jacco!
De technische zaken die je benoemd hebt en ook de onderwerpen die hierboven in de reacties staan geloof ik best.
We hebben inmiddels virtualisatie van server, rekenkracht, opslag en ook netwerk. Maar................

Het invoeren van een SDx oplossing is niet voor elke organisatie interessant. Wanneer je bijvoorbeeld 200+ virtuele servers hebt met enorme load dan zou je bijvoorbeeld aan een SDN en/of SDS kunnen denken.

Let op: het veranderen van deze diensten in een SDx-vorm verhoogt de complexiteit binnen je architectuur.
Het beheren van een SDx omgeving vraagt om veel ervaring, holistische kijk, interdisciplinaire samenwerking tussen verschillende personen binnen je ICT-afdeling en nog meer. Is je afdeling hier klaar voor?

Ik zie nog veel fragmentatie in de SDx wereld. Ik verwacht dat deze heel snel opgelost en gestandaardiseerd wordt. Dan is de vraag, hoe vind je de juiste personeel voor het beheren van je SDx omgeving?


Ruud,
Bedankt voor je spec aangaande MTBF van HD versus SSD.

Ik herinner me wel dat ik ooit eens een CF kaartje gemolt heb doordat ik instalatie van OpenBSD aan iemand had uitbesteed die er geen rekening mee had gehouden dat het schrijven van logfiles op zo'n ding wellicht geen goed idee was.

Door die ervaring ben ik altijd huiverig geweest aangaande SSD's
Mijn machientjes staan continu te compileren en te loggeren.
Dit nog even los van andere meuk die ik doe waarbij toch wel erg veel schrijf/lees/wis-activiteit activiteit plaats vind.

Nu ben ik echter nog steeds niet overtuigd.
Immers MTBF wordt bepaald op gangbaar gebruik.
Gangbaar gebruik is een Windows systeem dat vooral veel leesacties doet, nauwelijks (relatief dan he) met tijdelijke bestanden werkt en niets logt.

Mijn beeldvorming is nog steeds SSD voor je systeem, HDD voor je werkbestanden.
Wellicht dat je ook dit idee kunt torpederen zodat ik bij de aanschaf van mijn nieuwe klapkist ook hier een goede keuze over kan maken.

Waar gaat het nu eigenlijk over? Een organisatie wil bepaalde functionaliteit veilig benaderen, gebruiken en/of aanbieden en hiervoor/hiermee bepaalde data genereren, bewerken en opslaan. Dat is de vraag.

Alle overwegingen hierboven zijn beperkingen die de technologie (en de mens) nog opwerkt om dit te bereiken. Da's logisch, elk van de genoemde woorden staat voor een complex aan eisen, beperkingen, risico's en uitzonderingen.

Uiteindelijk is er echter maar één model wat zal voldoen. SDx, converged, cloud, utility based zijn allemaal opmaten naar de ultieme DC functie.

@ Pascal,

Voor thuis zou ik het zeker doen zoals je al aangeeft.

SSD of een disk met SSD cache voor je OS en een reguliere HD voor je bulk data.

Zakelijk gezien begint storagesoftware steeds slimmer om hier slim op in te spelen. En vergeet niet dat het PE cycles per block zijn. En als je die disken ook nog eens in een RAID groep hebt draaien. En nog eens een goed supportcontract afsluit is het allemaal niet meer zo spannend.

Het is meer een kosten baten analyse. Waar heeft flash technologie het meeste baat en kan het kosteneffectief in gezet worden. Voor je zakelijke bulkdata is flash nog te prijzig. Maar voor je veeleisende BI omgeving bijvoorbeeld kan het juist kosten besparen.

Vacatures

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×