Managed hosting door True

Computers zonder grenzen

Schaalbare netwerken en platformen als toekomstige computerarchitectuur

 

Het meest efficiënte en krachtige platform is momenteel een verzameling PC's. Een schaalbare computer met een standaard besturingssysteem, een enkel netwerk en een heleboel krachtige, goedkope PC's is nu al in staat de bestaande mainframes, leveranciersspecifieke mini's, servers en werkstations te vervangen. Deze ontwikkeling ligt volgens Gordon Bell aan de basis van een toekomstige computerarchitectuur: schaalbare netwerken en platformen.

Op de vraag wat de oorzaak is van de snelle evolutie in de informatietechnologie geeft de wet van Moore een antwoord, zie figuur 1.
Deze wet zegt dat de dichtheid van Cmos-chips elke achttien maanden verdubbelt; dit betekent een groei van 60%.
Als deze hogere dichtheid wordt gebruikt voor geheugenchips, dan stijgt de grootte elke drie jaar met een factor vier (als een soort trapfunctie). Dit is een constante sinds de introductie in 1973 van de 1Kbit-chip. In 1993 kwam de 16 Mbit-chip. Indien deze ontwikkeling zich doorzet, dan passen er in 1999 256 Mbits (32 MBytes) op één chip.
In 1995 zijn daar nog zestien 16 Mbit-chips voor nodig, die ongeveer dertig dollar per megabyte kosten. In de periode 1992 tot 1994 kostte een megabyte PC-geheugen in de winkel ongeveer vijftig dollar. Toekomstige geheugenprijzen zijn moeilijk te voorspellen. Eén ding is echter zeker: om de snellere processoren bij te houden, zijn grotere geheugens onmisbaar.
Amdahl heeft ooit gesteld dat er één megabyte geheugen nodig is voor elke miljoen processorinstructies per seconde. De toenames in de omvang van de microprocessor-cache en in de hoeveelheid parallellisme (voortvloeiend uit het gebruik van meer dan één transistor tegelijk) hebben geleid tot een driejaarlijkse verviervoudiging van de snelheid.
Ziehier de wet van Moore in actie. Met kleinere en snellere transistoren stijgt de verwerkingssnelheid sinds het eind van de jaren tachtig jaarlijks met 60%. Dit gaat gelijk op met de groei van de geheugenchips.
Als gevolg van de groeiende chip-dichtheid zijn de kosten per instructie voor PC's veel lager dan voor werkstations, mainframes en mini's. Dit komt omdat er elk jaar tientallen miljoenen PC's worden gebouwd en verkocht door concurrerende bedrijven die allemaal ongeveer hetzelfde produkt maken.
De hoge kosten van mainframes worden veroorzaakt door drie factoren: volume; hoge onderhoudskosten en een industrie met slechts drie grote leveranciers, die hoge marges bedingen; en een trage acceptatie (tot 1995) door ontwerpers van goedkope hoge dichtheid-Cmos-technologie.

Snap-standaarden

De Snap-architectuur (scalable networks and platforms) gaat ervan uit dat we minder, maar belangrijkere standaarden zullen krijgen dan nu het geval is. Om 'snap' werkelijkheid te laten worden is het noodzakelijk te beschikken over een alomtegenwoordig breedband-netwerk, dat schaalbaar is in de tijd - of snelheid - en in de ruimte, van het lan tot de gehele wereld. Net als de telefoon moet dit netwerk tijdens zijn ontwikkeling compatibel blijven.
Even noodzakelijk als dit netwerk is de standaardisatie van platformen en knooppunten. Anders dan op dit moment het geval is, zal een klein aantal platform-typen de ontwikkelaars van applicaties toegang tot enorme markten geven. Hierdoor worden de kosten van een systeem sterk gedrukt, en is de markt op een elastische manier te bedienen.
Als we software even vergelijken met CD's, dan zouden alle muzikanten en platenmaatschappijen muziek moeten opnemen op tientallen typen CD, die onderling allemaal verschillen. De miljoenen Intel/Microsoft-gebruikers tonen aan wat er met een grote markt kan gebeuren.
Het wereldwijde telefoonnetwerk, dat is gebaseerd op een enkele kiestoon, is een voorbeeld van deze architectuur. Als we de enorme hoeveelheid incompatibele telefooncentrales even vergeten, dan is elk nieuw land tamelijk uniform (als je genoeg stekkertjes bij je hebt en er slechts een paar typen telefoontoestellen zijn).

Platformen anno 1995

Nu we hebben gezien welke factoren snap mogelijk maken kunnen we eens kijken naar de wijze waarop de computers en de industrie zich hebben ontwikkeld. Er is maar één zaak constant gebleven: IBM heeft altijd deel uitgemaakt van elke verwerkingsstijl - minicomputers, supercomputers, werkstations, PC's, en nu ook schaalbare, parallelle computers - ook al heeft het bedrijf ze niet zelf uitgevonden.
Verwerkingsstijlen, de structuur van de industrie, en de platform-standaarden die daaruit voortvloeien vormen tezamen een prelude die men gehoord moet hebben om de toekomst te kunnen begrijpen.
De industrie was ooit gebaseerd op verticale integratie: een bedrijf leverde alles, van circuits tot applicaties. Tegenwoordig hebben we een volkomen gedesintegreerde, horizontale industrie met chips, hardware-componenten, platformen, besturingssystemen, talen, databases, generieke applicaties, bedrijfsspecifieke applicaties, en organisatie-specifieke applicaties die worden gebouwd door systeemintegratoren, zie figuur 2. Dit is mede veroorzaakt door standaardisatie, waardoor elk horizontaal niveau zich snel en onafhankelijk kon ontwikkelen.
De verwerkingsstijl is zodanig veranderd dat vrijwel iedereen, al dan niet gedwongen, een computergebruiker is geworden. In de jaren zestig had je ultra-dure PC's ter grootte van een flink kantoor, die door een persoon vanaf het console bediend konden worden en onder een batch-georiënteerd besturingssysteem draaiden. De leveranciers zorgden voor enkele bibliotheken en een stuk of wat applicaties, maar de meeste applicaties werden door de gebruikers zelf geschreven. Gelukkig kwamen er in 1960 standaarden: Cobol en Fortran. Leveranciers probeerden nog steeds produktdifferentiatie af te dwingen door noviteiten aan deze talen toe te voegen (waardoor gebruikers opgesloten raakten in een dialect), maar desalniettemin bevorderden deze standaarden een hoger niveau van programmeren en maakten ze de overdraagbaarheid van applicaties en kennis daarover mogelijk.
In de jaren zeventig evolueerde batch tot timesharing en gingen IBM-systemen over op remote job entry. Leveranciers voegden een paar hulpmiddelen toe om gebruikers van dienst te zijn. Er kwamen onafhankelijke software-ontwikkelaars om applicaties te ontwikkelen en, nog belangrijker, Gene Amdahls bedrijf begon met het vervaardigen van IBM plug-compatibele mainframes. Dit had als onmiddellijk gevolg dat de kosten per operatie werden gehalveerd.
Er ontstond een overlappende industrie: mini's evolueerden en begonnen met mainframes te concurreren. Door de terminal en de computer te koppelen namen de werkstations een deel van de mini-industrie over. Servers, of eigenlijk mini's die waren ontstaan uit werkstation-servers, ontwikkelden zich tot de basis voor client/server-verwerking. Daarbij vaagden ze de leveranciersspecifieke mini's weg en bedreigden ze de mainframes met downsizing. PC's bliezen de goedkopere werkstations van tafel.

Standaarden voor platformen

De evolutie van de computerindustrie kan worden gezien als een aantal onafhankelijke en concurrerende sub-industrietjes die een hele serie leveranciersspecifieke standaarden en platformen gecreëerd hebben. Standaarden zijn op verschillende manieren tot ons gekomen. Er zijn meer dan tien verschillende typen standaarden: de de facto standaarden, die voortkomen uit marktdominantie, tot de standaarden, afkomstig uit een totaal chaotisch en democratisch ontwerpproces (zoals de processen die het ontstaan van het Internet, World Wide Web, Gopher en Mosaic mogelijk maakten). Daartussen in zitten diverse standaardisatie-organisaties, forums en consortia die proberen standaarden van de grond te krijgen, vaak zonder het voordeel van enige implementatiekennis en zonder input van de beoogde gebruikers. Het idee van een open systeem, gebaseerd op een wettelijke (de jure) standaard, of op andere standaarden die niet door de markt bepaald worden, is de fantasie van standaardisatie-commissies en marketeers die hun eigen merk aan het verkopen zijn.
In metaforische zin was de mainframe-industrie in 1960 Sneeuwwitje, ofwel IBM. De zeven dwergen waren RCA, General Electric, Bunch, Burroughs en Univac, die gefuseerd zijn tot Unisys, NCR (nu onderdeel van AT&T), Control Data, en de inmiddels opgeheven divisie van Honeywell. Met de introductie van IBM's System 360 in 1964 en Amdahls 360-compatibele computers in 1974, waren mainframes gestandaardiseerd rond IBM-hardware en -besturingssystemen.
In de vroege jaren negentig bleven alleen de leveranciersspecifieke mini's over van Dec (met Vax/VMS, HP) en van IBM (met de AS/400). De mini's zitten in een overgangsfase: van leveranciersspecifieke multiprocessor-computers tot Unix-dialect servers. De meeste leveranciersspecifieke servers gebruiken een Unix-dialect en één van de zes microprocessor-architecturen - Intel X86, Apple/IBM/Motorola Power-pc, Dec Alpha, HP PA/Risc, SGI Mips, of Sun Sparc - om een leveranciersspecifiek platform te bouwen en in stand te houden.
De werkstations van Apollo, HP en Sun, die in het begin van de jaren tachtig op de markt kwamen en gebruik maakten van de Motorola 68000-processor, ontwikkelden zich tot systemen met één van de zes microprocessoren en een Unix-dialect. De dagen van leveranciersspecifieke computersystemen zijn echter geteld. PC's van honderden leveranciers vormen een de facto alternatief platform.
In 1995 biedt Microsofts Windows NT een de facto standaardomgeving, die op alle hardware-platforms voor werkstations en servers draait.
Uit angst voor NT als standaardisatiekracht zijn de Unix-leveranciers zich opnieuw op standaardisatie gaan richten, deze keer met een huwelijk tussen OSF (open systems foundation) en Cose (common open systems environment). Het resultaat is een gemeenschappelijke omgeving met 1170 functies die zijn samengesteld uit alle dialecten, samen met enkele functies die nodig toegevoegd moesten worden. In het jaar 2000 zullen de platform-alternatieven beperkt zijn tot een handvol Unix-dialecten en Microsofts Windows en NT.
Met deze achtergrond van specifieke platform-standaarden kunnen we kijken naar wat marketeers - ongeacht hun produkt - verstaan onder open standaarden. De Ieee definieert een open standaard als een standaard die beschikt over voldoende open specificaties voor interfaces, diensten, formats en applicatieprogrammatuur, die met minimale inspanning kan worden overgedragen, en die samenwerkt met andere systemen. De specificaties moeten openbaar toegankelijk zijn.
Gebruikers willen keuzevrijheid op elk niveau van integratie, en delen die onderling samenwerken. Zij hebben behoefte aan applicaties die op alle platformen draaien, zonder dat daarvoor extra scholing of extra werk (zoals hercompilatie) nodig is. Verder hebben ze soepele bestands- en database-portabiliteit, compatibiliteit met andere applicaties en besturingssystemen, en tenslotte ook interoperabiliteit met andere systemen en applicaties nodig. Voor client/server-omgevingen heeft de gebruiker behoefte aan de mogelijkheid om elk onderdeel van een applicatie op elk platform te kunnen draaien.
Om aan deze doelstellingen te voldoen, is de beste - en wellicht enige - haalbare standaard: een enkel systeem.

Unix geen standaard

Omdat er geen echte standaardsystemen zijn, kijken we naar de bekendste leveranciersspecifieke systemen. Vergelijk de Mac en de leveranciersspecifieke mini's van Dec, HP en IBM eens met de leveranciersspecifieke Unix-dialecten. Elk van deze systemen schept een unieke, niet-standaard omgeving, waarvoor speciaal gepoorte applicaties en unieke bestanden nodig zijn. Een voorbeeld: door een uniek Unix-platform te bouwen - onder het mom van toegevoegde waarde - kan een leverancier gebruikers in zijn produkt opsluiten. Dit resulteert in hogere winstmarges, omdat de concurrentie bij verdere orders wordt buitengesloten. Precies zoals de bedrijfskunde ons dat leert.
Je zou verwachten dat een applicatie op het ene systeem alleen maar opnieuw vertaald hoeft te worden om op een ander platform te kunnen draaien. Helaas werkt dat niet zo. Met de Unix-achtige werkstations en servers zijn er zes architecturen en hardware-platforms, maar het basale Unix-besturingssysteem wordt gewijzigd door de duizenden programmeurs die bij elke platformleverancier werken. Op die manier zijn leveranciers in staat om onnodige uniciteit te creëren, wat duizenden manuren aan nodeloos werk betekent voor de gebruikers en applicatie-ontwikkelaars die zich stroomafwaarts bevinden. Deze hebben voortdurend te maken met systemen die onderling incompatibel zijn en zouden het liefst een standaardsysteem hebben.
Uit angst voor de dreiging van Microsoft NT als een de facto, cross-platform standaard zijn de leveranciers van Unix-achtige systemen op de proppen gekomen met een nieuwe, alomvattende standaard: Spec1170 (1170 functies). Natuurlijk zijn veel van deze functies volstrekt overbodig, maar dat geeft niet. Wel is het erg dat deze 1171 functies, of krachtiger functies, of een uniek filesysteem zoals IBM's AIX, de standaard betekenisloos maken en gebruikers in een platform-dialect opsluiten.
Hoe maken leveranciers leveranciersspecifieke platformen om gebruikers in de val te lokken? Unix 1170 wordt geacht een open omgeving te bieden, zodat gebruikers de broncode van een applicatie kunnen nemen, deze opnieuw vertalen, en de applicatie daarna op elk ander 1170-systeem kunnen draaien. De bestandsformats die deze systemen gebruiken moeten identiek zijn, om dataconversie te vermijden. Uitbreidingen, zoals die van AIX, moeten worden verwijderd of aan de standaard worden toegevoegd. Tenslotte moet de standaard precies 1170 functies hebben en niet meer, zonder dat daar een open standaardisatieproces aan te pas komt.
Laten we aannemen dat 1170 open is. Dan resulteert het toevoegen van 1170 of een deel daarvan (bijvoorbeeld 803 functies) aan een leveranciersspecifiek systeem, zoals VM, MVS, AS/400, VMS of MPE nog steeds in een leveranciersspecifiek systeem.
NT is belangrijk, omdat het op alle zes de hardware-platformen draait. Hierdoor worden deze platforms standaarden en commodities ('gebruiksgoederen'). Het resultaat is een enkele applications programming interface (API). De gebruikers van ISV's kunnen hun Windows-applicaties direct met X86-emulatie draaien. Als alternatief kunnen ze hun applicaties opnieuw vertalen, waardoor die in elke client- en server-omgeving kunnen draaien. Dit heeft alle voordelen van een enkele hardware-architectuur. Bestanden op de harde schijven van het ene platform kunnen moeiteloos naar een ander platform worden overgedragen, omdat er maar één opslagstructuur en byte-oriëntatie bestaat. Dit is een belangrijk voordeel boven Unix of een Unix-dialect dat naar meerdere platforms gepoort is.
Overige voordelen van NT zijn aanzienlijk lagere kosten voor installatie en onderhoud, wat mogelijk is door de ingebouwde relationele database en de diverse netwerkserver-protocollen.

Architectuur

Na deze introductie in de hedendaagse technologie en verwerkingsstijlen, en de chaos en hype rond standaarden en openheid, werpen we nu een blik op 'snap', of de door mij voorgestelde architectuur van netwerken en knooppunten.
In de eerste plaats is het door mij voorgestelde netwerk uniform en alomtegenwoordig. Het is gekoppeld aan, en compatibel met mobiele netwerken. De diverse soorten netwerken - gedistribueerde en point-to-point local area netwerken, particuliere en openbare wide-area netwerken, leveranciersspecifieke terminal- en cluster-verbindingen en -protocollen, en tenslotte pots (plain old telephone service) - worden één.
Kabelnetwerken die breedbandtechnologie gebruiken zullen atm (asynchrone transfer mode) adopteren en gaan samenwerken met telefoon- en datanetwerken. Het netwerk zou in principe digitale, geschakelde televisiesignalen kunnen transporteren, maar dat is geen noodzakelijke voorwaarde. Het vervangen van kabel- en antennetelevisie is een kwestie van investeringen in apparatuur en van overheidsregulering.
Gaat dit netwerk er komen? Ja. Ik denk dat het zo'n tien, twintig jaar gaat duren, zie figuur 3. Probeert u zich eens voor de geest te halen hoe primitief computers en communicatie in 1975 en 1985 waren. Deze snelle evolutie zal doorgaan, zelfs in een nog hoger tempo.
En hoe zit het met de knooppunten?
Ten eerste zullen legacy-systemen nog jaren blijven bestaan. De terugval van mainframes en mini's zal zich doorzetten. Hun applicaties en gegevens zullen over twintig jaar echter nog gebruikt worden.
Het mainframe wordt vervangen door Unix- of NT-servers, die bestaan uit meerdere microprocessoren en werken als schaalbare clusters. Internet met zijn berichtenuitwisseling, zal de weg effenen. Schaalvoordeel wordt vervangen door volumevoordeel. De grootste computer is niet langer het meest efficiënt.
Voor schaalbare verwerking is technologie nodig die gebruik maakt van het grootste volume en de meest efficiënte platformen. Dit betekent dat alle systemen - inclusief mainframes en multiprocessoren - uit PC's opgebouwd zullen zijn.

Faciliterende factoren

Er zijn veel factoren die de snap-omgeving mogelijk maken. In de eerste plaats elimineert snap de belangrijkste obstakels voor client/server-verwerking door standaardisatie en lagere netwerkkosten. De hoge netwerkkosten kunnen worden gereduceerd door een enkel netwerk voor lan's en wan's; een enkel netwerk zoals Vail (Bell Systems), dat is gebouwd voor wereldwijde telefonie.
De tweede, economische factor is de trage acceptatie van Cmos door mainframe-ontwerpers. Dit staat in contrast met PC's (hoog volume, lage kosten), waarvan de rekenkracht een ordegrootte hoger is dan die van het mainframe, tegen een veel lagere prijs.
Een kleiner aantal standaard-platforms creëert een deugdzame cirkelbeweging, met steeds meer applicaties en steeds lagere kosten voor software- en hardware-platforms. Als PC-software goedkoper wordt, zal het uit kostenoverwegingen snel afgelopen zijn met de diversiteit onder de Unix-achtigen. Software-leveranciers kunnen het zich niet veroorloven om veel onderhoud te stoppen in wat eigenlijk dezelfde code zou moeten zijn.
Tenslotte scheppen nieuwe applicaties, gebaseerd op schaalbare technologie, een zekere behoefte aan meer verwerking.
Om de rekenkracht en de lage prijs van PC's te illustreren nemen we de Pentium, de meest rendabele computer in 1994. Op Pentium gebaseerde multiprocessor-servers van Compaq boden behoorlijk wat kracht in een enkel systeem. Andere multiprocessoren met Pentiums waren schaalbaar over een groter bereik (tot 16 processoren), en kostten navenant meer.
Nathan Myhrvold van Microsoft heeft erop gewezen dat een standaard, hoog-volume platform een effect op de prijzen van software heeft. Dit komt doordat de kosten van ontwikkeling, ondersteuning en marketing over een groot aantal exemplaren uitgesmeerd kunnen worden. In de mainframe-markt worden honderden systemen per jaar omgezet, in de markt voor mini's duizenden, in de markt voor werkstations tienduizenden en in de markt voor PC's miljoenen. Een speciaal applicatiesoftware-bedrijf met een omzet van vijftig miljoen dollar kan ongeveer tien miljoen aan ontwikkeling besteden. Als er slechts duizend kopieën per jaar worden verkocht, dan moet het bedrijf 50.000 dollar voor elke kopie vangen. De klant krijgt daarvoor een stuk software ter waarde van tien miljoen dollar, ofwel een winstfactor van tweehonderd. De winstfactor voor de klant op een stuk software voor 50.000 werkstations is 10.000; toch kost die software nog 1000 dollar, omdat er per jaar maar 500.000 werkstations verkocht worden. Voor een miljoen PC's zijn de software-kosten 50 dollar, met een ongelooflijke winstfactor van 200.000.

Tegenwerkende factoren

Bedrijfskundigen leren dat elk bedrijf uniek moet zijn en moet differentiëren. Snap zegt dat alle platformen moeten samenwerken, een gemeenschappelijke applicatie-omgeving moeten ondersteunen, en meer moeten standaardiseren. Met andere woorden, ze moeten juist minder uniek zijn.
Tot de komst van de PC betekende uniek zijn: een eigen, leveranciersspecifiek platform hebben. Dit maakte hogere prijzen mogelijk en zorgde ervoor dat de klant ook klant blééf, voor uitbreidingen, voor volgende aankopen, en voor de volgende generatie produkten. Platform-leveranciers vrezen nu dat platformen een gebruiksgoed worden, net zoals PC's dat zijn. Microsoft wordt gevreesd als standaard-steller, net zoals men vroeger bang was voor IBM.
Zes microprocessoren zijn er drie teveel voor een gezonde industrie. Zoveel architecturen bieden maar weinig functies die niet op een andere manier - door implementaties van een gemeenschappelijke architectuur - geboden kunnen worden.
De grootste belemmering voor snap is waarschijnlijk wel de status quo, een systeem van verkoop en distributie dat niet zozeer gebaseerd is op de behoeften van de echte gebruiker als wel op het bedrijfskundige ideaal dat alle winstgevende produkten zich van de concurrentie moeten onderscheiden.

Schaalbare computers

Met ultrasnelle netwerken - waarvan de prestaties overigens gelijk opgaan met die van microprocessoren - beschikken we over de mogelijkheden om schaalbare computers te bouwen.
Een computer die kan groeien zonder grenzen, zonder bottlenecks, en groter kan worden dan de grootst denkbare gewenste omvang, zo'n computer is schaalbaar. Omwille van de levensvatbaarheid, de laagste kosten en de compatibiliteit met andere programmeeromgevingen voor toegang tot applicaties, dienen de knooppunten werkstations of PC's te zijn. Door het gebruik van werkstations en/of PC's is de 'evolueerbaarheid' gegarandeerd.
De resulterende structuur is een netwerk dat erg lijkt op gedistribueerde werkstations, en dat ook zo beheerd wordt. Om dit netwerk van werkstations als een enkele computer te kunnen gebruiken, moet men het ook kunnen beheren als een multiprocessor met gemeenschappelijk geheugen. Dit is mogelijk. Het enige dat men nodig heeft, is software.
De ideale schaalbare computer zou kunnen groeien tot duizenden knooppunten met daarin een processor en geheugen; daar hoort een switch bij die meeschaalt in bandbreedte, om het verkeer tussen de knooppunten aan te kunnen. Het moeilijkste onderdeel van het maken van een schaalbare computer is om de knooppunten bij elkaar te krijgen, zodat elke processor bij elke locatie in het gemeenschappelijke geheugen kan. Hiervoor is nodig: een hoge bandbreedte, een korte wachttijd en een lage netwerk-overhead.
Om bestaande applicaties te kunnen draaien moet de ideale schaalbare computer compatibel zijn met werkstations en multiprocessoren. Tenslotte moet hij schaalbaar in de ruimte zijn, zodat clients en servers gebruikt kunnen worden.

Toekomst

Wat kunnen we verwachten in het jaar 2000?
32 Mbyte geheugenchips; processoren die 400 tot 1000 maal zo snel zijn als in 1980; 20 Gbytes schijfruimte; grotere floppies en CD's met 5 tot 10 Gbyte; en local area networks van 100 Mbit/s die desktops zowel aan elkaar als aan het wide area network koppelen.
Er zullen nieuwe computers op de markt komen: nogal kale dingen, niet meer dan communicatie-apparaten; set-tops voor op de televisie, waarmee iedereen een PC in huis krijgt; en computers ter grootte van een credit card, waarmee we ons op openbare I/O-voorzieningen kunnen aansluiten en waarin we onze persoonlijke databases bewaren.
Hoe gaat dat gebeuren? Eigenlijk gebeurt het nu al, in verschillende vormen. In het verleden heeft schaalvoordeel - het kiezen van de grootste computer - geleid tot de simpelste en soms ook de meest efficiënte oplossing. Momenteel heeft de evolutie - gedreven door de wet van Moore - ervoor gezorgd dat de PC de meest krachtige en efficiënte computer is. Deze revolutie maakt een nieuwe toekomst mogelijk: SNAP, ofwel schaalbare netwerken en platforms.
 
Gordon Bell is IT-consultant en senior-onderzoeker bij Microsoft.

Dit artikel is geschreven op verzoek van RCI naar aanleiding van een lezing van Gordon Bell op het North American Member Management Symposium XVI in Albuquerque.

Dit artikel is afkomstig van Computable.nl (https://www.computable.nl/artikel/1429630). © Jaarbeurs IT Media.

?


Lees meer over


 
Vacatures

Stuur door

Stuur dit artikel door

Je naam ontbreekt
Je e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×