On-demand-computing volgens IBM

Dit artikel delen:

De reclames op de Brits-tv maken duidelijk dat IBM serieus bezig is met on-demand-computing. Toch is er nog een lange weg te gaan en bestaat er veel onduidelijkheid over wat 'on-demand-computing' eigenlijk betekent. IBM maakt zichzelf ook schuldig aan het vergroten van de verwarring door on-demand-, autonome en grid-computing door elkaar te gebruiken, waarschijnlijk in een bewuste poging de markt af te tasten en te anticiperen op ontwikkelingen.

Er zijn verschillende manieren om 'on-demand' te definiëren en diverse manieren om het te implementeren, maar on-demand is een concept, geen technologie. In beginsel betekent on-demand-computing dat een gebruiker alle benodigde bronnen op een gegeven moment kan krijgen, en niets meer. Dit was het basisprincipe van time-sharing (tijd delen), een vroeg concept dat mislukte vanwege de toenmalige ernstige communicatieproblemen. Het resultaat was het praktische alternatief van privé-systemen, eerst bestaande uit centrale computers per locatie en later de migratie naar één computer per gebruiker - de pc revolutie. Elke machine in een dergelijke architectuur moet over voldoende capaciteit beschikken om aan de piekvraag te voldoen, waardoor er enorm veel vermogen wordt verspild, een feit dat we achter de ongelofelijk rendabele moderne hardware verschuilen. Maar dat maakt het nog geen goed idee!!
De eenvoudigste oplossing, zo niet de meest economische, is voldoende capaciteit te kiezen om aan de piekvraag te voldoen en die grotendeels te verspillen tijdens normale werkzaamheden. Sommige bewerkingen verbeteren de efficiëntie door met zorgvuldige planning grote batchopdrachten 's nachts te laten verwerken, een oplossing die tegenwoordig veel wordt gebruikt . Dit wordt lastiger in een wereldwijde economie, vanwege de tijdsverschillen. De verbetering in communicatie helpt bij het oplossen van dit probleem, doordat bronnen in een netwerk beter gedeeld kunnen worden. Tot nu toe is echter alleen de top van de ijsberg zichtbaar; er wordt niets gedaan aan al die pc-kracht die verspild wordt.
De eenvoudigste manier van on-demand-computing is door het toe te passen op kostenniveau. De capaciteit voor het piekniveau wordt geïnstalleerd, maar er wordt alleen gefactureerd voor de werkelijk gebruikte bronnen. Er zijn al veel verschillende tariefschema's rond dit stramien bedacht, voor zowel gedeelde als bedrijfseigen diensten. Het is een goed begin, maar er moet een voorschot worden genomen op de capaciteit om bronnen te delen, om goede respons te kunnen geven en de totale kosten te kunnen drukken, waardoor de tarieven voor iedereen kunnen zakken.
De meeste computersystemen kunnen eenvoudige partitionering van bronnen toepassen. Moderne besturingssystemen kunnen een mengeling van taken aan. Als echter beveiliging, prestatiegaranties en dynamische toewijzing in de vergelijking worden opgenomen, wordt het een heel ander verhaal. Met andere woorden: conventionele hard- en software zijn niet goed genoeg voor een nieuwe generatie on-demand-computing. Historisch zijn alleen IBM-mainframes uitgerust met iets dat in de buurt komt van robuuste dynamische partitionering, en dat is het sterke punt van Big Blue. Het is tevens de reden dat ze zo de nadruk leggen op on-demand. Ze hebben een enorme voorsprong op de concurrenten HP en Sun, terwijl Microsoft op dit gebied geen enkele rol speelt.
Terwijl IBM hard werkt aan technologieën voor het 'virtualiseren'van hun systemen, gaan ze ook met de massa mee op het gebied van Grid-computing. Er zijn veel verschillende manieren om naar Grid-computing te kijken. Microsoft heeft geen schijn van kans tegen IBM's dynamische partitionering, en benadert de zaak vanaf de andere kant door juist de ongebruikte kracht van de pc's op de grote netwerken uit te buiten. Persoonlijk zie ik dit als een goed recept voor ellende, met het oog op alle beveiligingsproblemen in combinatie met internet, maar de koppeling van servers tot een grid is waarschijnlijker. Dit speelt zowel Microsoft als IBM in de kaart, maar levert jammer genoeg problemen op voor Sun en HP.

 
Martin Healey, pionier ontwikkeling van op Intel gebaseerde computers en c/s-architectuur. Directeur van een aantal it-bedrijven en professor aan de Universiteit van Wales.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2005-05-13T00:00:00.000Z Martin Healey
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.