Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
  • Nieuwsbrief

Centraal gedistribueerd

12 november 1998 - 23:004 minuten leestijdOpinieCloud & Infrastructuur
Martin Healey
Martin Healey

Vroeger vond alle verwerking centraal plaats. Daarna zorgden terminals voor toegang op afstand. Tenslotte werd de verwerking echt gedistribueerd. Toch is het nooit echt zo eenvoudig geweest. Centraal betekende een centraal systeem voor elke organisatie; er was geen spreiding tussen organisaties.

In grotere organisaties waren er meestal meerdere grote centrale systemen. In de jaren tachtig werden de zaken gecompliceerder doordat de minicomputer opkwam en de digitale verwerking zich uitbreidde met procesbesturing en instrumentatie. Minicomputers werkten niet goed samen met mainframes. Maar dat maakte niemand iets uit, omdat ze toch onafhankelijk van elkaar werkten. De problemen ontstonden pas toen systemen op elkaar aangesloten moesten worden. Bijvoorbeeld het productiesysteem op de orderverwerking.
Het nieuwe gebruik stelde steeds hogere eisen aan de computer. Mainframes werden steeds groter en de machine werd opgesplitst in meerdere virtuele machines. Minicomputers konden niet groter worden, dus werden er meerdere machines ingezet, die met netwerken aan elkaar werden gekoppeld. Beide oplossingen vallen in de categorie ‘gedistribueerde verwerking’. De mainframes gebruikten logische subsystemen, de minicomputers fysiek gescheiden machines. Leveranciers van minicomputers, met name Digital, ontwikkelden ‘peer-to-peer’ netwerken, terwijl IBM gedistribueerde toegang ondersteunde. Beide benaderingen hadden zo hun voordelen. Maar toen kwam Unix en daalden de hardwarekosten, waardoor netwerken essentieel werden. Decnet was de pionier, SNA het mainframe-equivalent; grote winnaar werd echter de Internet-technologie, ondersteund door Unix.
Al deze ontwikkelingen werden gecompliceerd door een andere vorm van gedistribueerde verwerking: client/server. Client/server is in feite afgeleid van de mainframe-architectuur. In een mainframe-omgeving gebruikt de database één partitie, de software een andere partitie, en het gebruikersinterface weer een andere partitie. Alle koppelingen, bijvoorbeeld Bms/Cics/Db2, zijn intern. In een client/server-omgeving geldt dezelfde scheiding, waarbij de componenten zowel logisch als fysiek gescheiden kunnen zijn. In plaats van terminals worden gui-interfaces gebruikt om de gebruikersinteractie te verbeteren.
De architecturen lijken dus op elkaar, maar helaas is er geen migratiepad. De bestaande applicaties zijn ontwikkeld voor karaktergeoriënteerde schermen. Gui-technieken kunnen wel worden toegepast, maar in de regel is een nieuw, geïntegreerd ontwerp nodig. Tegenwoordig gebeurt dat door middel van dunne client-applicaties, waarvoor zowel client- als serversoftware geschreven moet worden. Als gevolg hiervan zullen we de komende jaren alles op alles moeten zetten om het oude met het nieuwe te integreren; we kunnen het ons niet veroorloven alles opnieuw te ontwikkelen.
Helaas is er de laatste tijd veel energie gestopt in het ontwikkelen van dikke client-applicaties. Zowel de presentatiecode als de transactiecode zijn naar de PC-desktop overgeheveld. Dit lachwekkende concept is ons aangepraat door de leveranciers van PC’s en relationele databases.
Het effect van een dunne client-architectuur is dat het gedistribueerde model opnieuw aan verandering onderhevig is. We zijn weer helemaal terug bij het oude mainframe. De trend is overal zichtbaar. NT en alle Unix-leveranciers implementeren transactiediensten om dunne clients te kunnen ondersteunen. Natuurlijk gaan we niet terug naar de dagen van het groene beeldscherm. We zullen nieuwe applicaties moeten ontwikkelen – en gateways voor de koppeling met bestaande legacy-systemen.
De recentralisatietrend is binnen de eigen organisatie eenvoudig te realiseren, omdat lokale netwerken sneller en goedkoper zijn dan ‘wide area’ netwerken. Onder invloed van Internet groeien ‘wide area’ netwerken echter snel toe naar een niveau waarop een dunne client-applicatie de PC kan vervangen. Het netwerkcentrische concept leidt ons dus weer terug naar de centrale verwerking. Leveranciers beweren dat het netwerk verwerking op elke gewenste locatie mogelijk maakt – ja, maar dan wel in het centrum, waar we het kunnen beheersen.
Betekent dit het einde van gedistribueerde verwerking? Nee, natuurlijk niet. We gaan echt niet naar één enorme centrale computer, maar naar een model waarin duizenden (geen miljoenen) systemen de diensten leveren. En deze centrale systemen moeten met elkaar samenwerken. Het gaat er dus om waar het accent ligt. In plaats van totale gedistribueerde verwerking, waarbij elke gebruiker zijn eigen systeem heeft, zal er sprake zijn van een zekere hiërarchie. Gebruikers hebben via een netwerk toegang tot een centrale server, die kan samenwerken met andere diensten zonder dat de gebruiker hier iets van merkt. Gebruikers en servers vormen samen een ster, de servers onderling zijn horizontaal gekoppeld. Zo’n architectuur is voor de meeste grote organisatie een perfecte oplossing, omdat hun legacy-systemen gewoon knooppunten in het servernetwerk worden, waarbij tegelijkertijd alle trends op gebruikersgebied kunnen worden meegenomen.
 

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Kies de juiste virtualisatie-aanpak

    Vergelijk drie krachtige open source-oplossingen: Proxmox, Kubernetes en OpenStack

    Computable.nl

    Beveiliging begint bij de Server

    Is serverhardware de blinde vlek in het securitybeleid? Waarom lifecycle-denken cruciaal is voor IT-security

    Computable.nl

    Bouw de AI-organisatie niet op los zand

    Wat is de afweging tussen zelf bouwen of het benutten van cloud?

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Meer lezen

    QR Computable Kort 15 aug ´25
    ActueelData & AI

    Kort: NL-data op kernenergie, ai-incidenten kosten 8 procent, phishing via QR (en meer)

    M&A, Fusie & Overname
    ActueelCloud & Infrastructuur

    Bluetron IT verkoopt tapereparatie-divisie aan Sprague

    AchtergrondCloud & Infrastructuur

    Your.Cloud bouwt aan Europees msp-collectief

    ActueelWerkplek & Beheer

    Microsoft schaft volumekortingen af

    ActueelCloud & Infrastructuur

    Intel-topman Tan overleeft confrontatie met Trump

    ActueelCloud & Infrastructuur

    Tech Tribes laat oog vallen op OpenValue Group

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine
    • Topics

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs