Deze opinie is van een externe deskundige. De inhoud vertegenwoordigt dus niet noodzakelijk het gedachtegoed van de redactie.

Dit zijn de 5 geboden voor weerbare datacenters

Dit artikel delen:

Computable Expert

Fred Streefland
CEO, Secior. Expert van Computable voor het topic Security.

Datacenters vormen de kern van onze digitale samenleving, want bijna alle applicaties, van bedrijfswebsites en persoonlijke financiële zaken tot zakelijke e-mail, draaien tegenwoordig in de cloud. En ‘in de cloud’ betekent ‘ergens in een datacenter’. Vandaar dat datacenters – volkomen terecht – door de Europese Commissie zijn bestempeld als kritische infrastructuur (‘essential entities’).

Digitale sabotage-aanvallen op datacenters kunnen desastreuze gevolgen hebben. Op het moment dat één of meerdere datacenters worden uitgeschakeld, zal de digitale samenleving daar direct ernstig hinder van ondervinden. En dat dit geen ver-van-mijn-bed-show is, zagen we in Oekraïne, waar Rusland gerichte, digitale aanvallen heeft uitgevoerd op datacenters met als doel deze uit te schakelen, hetgeen helaas ook grotendeels is gelukt.

Behalve belangrijk voor onze digitale samenleving, zijn datacenters de afgelopen jaren ook kwetsbaarder geworden voor digitale aanvallen. Dat komt doordat de facilitaire infrastructuur van een datacenter - zoals stroomvoorziening, stroomdistributiesystemen, koelinstallaties en brandblussystemen - allemaal direct of indirect aan internet zijn gekoppeld. In het verleden waren deze systemen veel meer ‘standalone’ en konden niet op afstand (remote) via internet worden onderhouden en/of aangestuurd. Deze it-aansturing brengt natuurlijk veel voordelen met zich mee, maar ook risico’s. Daarnaast is de toename van internet of things (iot)-apparaten binnen een datacenter ook een serieus punt van zorg. Iot-apparaten zijn in het verleden nooit ‘secure-by-design’ ontwikkeld en daardoor inherent onveilig. Zij vormen hierdoor digitale ingangen naar het interne netwerk voor mensen van buiten de organisatie. Het gevolg van bovengenoemde ontwikkelingen is dat het uitdijende aanvalsoppervlakte van een datacenter voor kwaadwillende hackers de afgelopen jaren veel interessanter is geworden.

Verkleinen

"You cannot protect what you don’t know"

Met de toegenomen aanvalsoppervlakte zijn datacenters ook digitaal kwetsbaarder geworden. Dit is een ernstige zaak en uiteindelijk willen wij de kwetsbaarheid verkleinen, waardoor mogelijke aanvallen zijn te voorkomen of de schade is te beperken.

Om deze kwetsbaarheid te verkleinen, zijn de volgende aanbevelingen opgesteld:
  • Ken uw digitale infrastructuur

You cannot protect what you don’t know. Zo luidt een bekend gezegde vanuit de beveiligingswereld. Om systemen te kunnen beveiligen, moet deze systemen bekend zijn. Het is dus essentieel om eerst de infrastructuur in kaart te brengen en inventarisatie van alle ot-, it- en iot-systemen en hun verbindingen/netwerken te verkrijgen. Dit is regel nummer één in de beveiligingswereld.

  • Ken uw digitale kwetsbaarheden

Naast de kennis over de eigen systemen en netwerken, is het ook zaak om de kwetsbaarheden van deze eigen systemen en netwerken in kaart te brengen. Elektronische apparaten gaan namelijk weleens kapot en zullen op gezette tijden moeten worden geüpdatet of vervangen. Aangezien alle ot-, it- en iot-systemen tegenwoordig software bevatten, kunnen er softwarekwetsbaarheden in zitten. En het zijn juist deze hiaten die door de hackers worden misbruikt. Het is dus essentieel om ook een overzicht te hebben van de kwetsbaarheden binnen de datacenter-infrastructuur.

  • Ken uw leveranciers en bijbehorende risico’s

Aangezien tegenwoordig alles en iedereen op een of andere manier digitaal met elkaar is verbonden, is het ook belangrijk om de ‘leverancier-afhankelijkheden’ in kaart te brengen. Ook datacenters hebben uiteenlopende leveranciers voor de stroomvoorziening, koelinstallaties en brandblussing, zoals al eerder genoemd. Aangezien deze ot-systemen vaak direct of indirect via internet door de fabrikanten worden gemonitord en/of worden onderhouden, zijn deze systemen ook ‘toegankelijk’ voor ‘anderen’. Het is dus essentieel om te weten welke leverancier digitaal toegang heeft tot datacentersystemen en op welke manier deze verbinding is beveiligd.

  • Segmenteer uw systemen, netwerken, rollen en verantwoordelijkheden

Naast het verkrijgen van overzicht en inzicht, zoals hierboven is beschreven, is het goed inrichten van de infrastructuur ook zeer belangrijk voor de digitale beveiliging van datacenters. Het segmenteren van verschillende systemen en netwerken door middel van technische maatregelen (o.a. firewalls) zorgt ervoor dat kwaadwillende hackers niet overal bij kunnen wanneer zij op enige wijze toegang hebben verkregen tot de digitale infrastructuur. Hetzelfde geldt ook voor de rollen en verantwoordelijkheden van het eigen personeel. Niet iedereen mag overal bij. Dit moet afhangen van de rol en functie in de organisatie en de bijbehorende permissies. Deze permissies moeten goed zijn ingeregeld, gedocumenteerd en gecommuniceerd.

  • Ontwikkel en test een incident-responseplan

Deze laatste suggestie staat hopelijk bovenaan op uw ‘actielijst’. Het is geen vraag of u een digitaal incident te verwerken krijgt, maar wanneer. Aangezien datacenters tot de kritische infrastructuur behoren, is een incident-responseplan noodzaak. Niet alleen het ontwikkelen van een dergelijk plan is belangrijk, maar ook het testen van het plan moet minimaal één of twee keer per jaar plaatsvinden, want the proof of the pudding is in the eating. Natuurlijk kan een datacenter ‘niet even’ worden platgelegd voor een incident-response-oefening, maar de procedures zullen wel moeten worden beoefend, zodat het datacenter daadwerkelijk kan ‘overleven’ als onze kritische infrastructuur serieus wordt aangevallen.

Utopie

Betekent dit dat het opvolgen van deze vijf tips - geboden, zo u wilt - ervoor kan zorgen dat datacenters honderd procent veilig zijn? Nee, die mate van veiligheid (lees: cyberweerbaarheid) is een utopie, maar ik ben ervan overtuigd dat een datacenter weerbaarder wordt als we de bovenstaande aanwijzingen serieus opvolgen. Een cyberincident kan nog altijd plaatsvinden, maar dan is de gevolgschade aanzienlijk minder en heeft het datacenter in elk geval een goed verhaal dat het er alles aan heeft gedaan om dit te voorkomen. Helaas zijn er nog steeds veel te veel datacenters die dit goede verhaal nog niet hebben.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Reacties

Datacenters lijken me eerder een echo uit het verleden want een centralisatie van data is niet de meest efficiënte wijze van verwerking als ik kijk naar de enorme kosten in de I/O logistiek. En met name IoT zorgt hier voor een verschuiving doordat niet alleen enorme hoeveelheden data door machines gegenereerd worden maar de aansturing hiervan vraagt low-latency netwerken met een hoge betrouwbaarheid.

Wat betreft een koppeling van de OT zoals de aansturing van de facilitaire diensten aan een per definitie onbetrouwbaar netwerk vergroten we de kwetsbaarheid, het segmenteren van netwerken en het scheiden van rollen terwijl je net alles gecentraliseerd hebt in één datacenter lijkt me dus als het paard achter de wagen spannen. Oja, de paarden zijn vaak onbekend als we kijken naar de cloud want hiermee wordt je 'ontzorgd' aangaande de infrastructuur.

On prem or cloud. Maar je kunt ook voor de worst of both worlds gaan, voor de DC knuffelaars.
Inderdaad beetje absurd om een DC te huren om daarna je eigen cloud na te maken, want alles wat in het artikel genoemd is wordt al kant en klaar door de hyperscalers geleverd inclusief de Availability Zones, waarbij je zomaar een extra DC nodig zou hebben.

@Oudlid, Waarom zou centralisatie van data (dus 1 datacenter) niet meer de meest efficiënte wijze zijn? Zoals in de eerste alinea al wordt aangegeven, in de cloud betekent "ergens in een datacenter". En met meerdere toepassingen betekent dan dan ook vaak ergens in meerdere (lokaal en/of remote) datacenters. Omdat dat dan nu ook echt overal kan zijn zal dat zonder twijfel gevolgen hebben voor de latency.

Daarmee haal je met de tweede zin de eerste onderuit. Als latency van belang is is het belangrijk om de diverse data(sources) en verwerking ervan vlak bij elkaar te hebben. Zeker als grote hoeveelheden data van de ene locatie naar de andere moeten gaan. Hoe langer de afstand des te hoger de latency en dat tikt aan bij grote hoeveelheden data, al helemaal als het dan ook nog eens kleine datapakketjes zijn.

Datacenters mag je retro noemen. Maar de toenemende behoefte aan clouddiensten bij bedrijven en personen, aan streamingdiensten en het multimediale social media gebruik, zorgt nog steeds voor een groeiende behoefte aan datacentercapaciteit (en niet alleen dat). Decentrale IoT Edge gaat die datacentra niet vervangen. Industriële automatisering was vroeger ook al sterk decentraal ingericht (met PLC's, PCS'en en SCADA-systemen).
Verder zullen er ook "ouderwetse" on premises datacentra blijven. Dat alles heeft onder meer te maken met kosten en beveiliging.
Mooi artikel Fred.

Berry, de cloud gaat niet om 'zomaar een datacenter' maar om netwerk computing middels het publieke netwerk. Hierin lijkt het me onzinnig om iemand in Boerenkoolstronkeradeel te laten werken op resources die aan de andere kant van de wereld draaien. Maatschappelijk bijkomende factoren zoals een carbon footprint maken duidelijk dat 'zomaar een datacenter' als antwoord niet meer genoeg is als we kijken naar nieuwe efficiëntie-factoren.

Wat betreft spreiding kennen we tegenwoordig dan ook een andere facilitaire infrastructuur, het datacenter is een container.

@Oudlid. Inderdaad vind ik het ook onzinnig om gebruik te maken van resources aan de andere kant van de wereld. Maar dat netwerk computing in een publiek netwerk draait evenzogoed nog steeds in een datacenter, of dat nu een losse computer is, een virtuele machine of een container (die uiteindelijk dan weer op een server draaien). Zoals Jaap ook al zegt, door al die cloud diensten, social media etc is er alleen maar meer behoefte aan datacenters. Zolang we gebruik maken van die grote jongens, zal de applicatie op "een" plek in de wereld draaien. Met Google zouden we dan misschien wel gebruik kunnen maken van het Datacenter in Groningen, maar ook dat weten we niet zeker. Met Office365 zouden we misschien in het Nederlandse Microsoft datacenter kunnen zitten, maar we weten dat niet zeker.

Ik denk niet dat er veel mensen zijn die zich zoveel zorgen maken over de carbon footprint. Ja, wel als je het specifiek vraagt, maar in daadwerkelijk gebruik zie ik dat niet echt.
- Zijn er minder mensen die Crypto gebruiken vanwege het (exceptionele) energie verbruik?
- ChatGPT is nu een hype, maar is het energieverbruik van AI en machine learning al een keer benoemd?
- Indertijd werd een discussie in een forum over energiebesparende features in de 4.0 Linux kernel als onzinnig afgedaan. Misschien nuttig voor een laptop maar "mijn PC zit toch op het lichtnet". Alsof je dan geen elektriciteit verbruikt.
- In de afgelopen jaren heb ik diverse tickets bij onze leveranciers gehad vanwege hoger energie verbruik in een nieuwe Linux kernel. Een ticket heeft 18(!) maanden opengestaan omdat het alleen al een jaar duurde voordat ik ze ervan overtuigd had dat 50% hoger CPU verbruik in een idle machine niet gewenst is.

Berry,
Datacenter versus cloud moet je even Europese regelgeving aangaande carbon footprint lezen want al die online resources zijn niet erg efficiënt. De energiebesparende features in de 4.0 Linux kernel met een (verplicht) 15% efficiëntere voeding en 5 graden minder koeling gaat om de som der delen want een Corporate Sustainability Reporting Directive (CSRD) verplicht organisaties om stappen te nemen. Je workloads uitbesteden zonder inzichtelijkheid in energie efficiëntie lijkt me niet een stap in de goede richting, dat is het probleem verschuiven in plaats van oplossen.

Ik ben het dan ook niet met je eens want wij van WC-eend hebben met regelmaat te maken met een carbon footprint vraagstuk in een cyclische tech refresh binnen het datacenter welke evolueert naar een softwarematige invulling zodat de inactieve workloads eenvoudig offline gezet kunnen worden. En in zo’n 40% van de business cases speelt de carbon footprint dan ook een rol omdat het de OpEx is in een TCO verhaal.

Hetzelfde probleem geldt de data, de duurzame preservering wordt de komende jaren een dingetje want de ‘goedkope’ object-based oplossingen op basis van spinning disks hebben een aanzienlijke carbon footprint. Gemiddeld is zo’n 80% van de data ‘koud’ doordat deze niet meer gewijzigd mag worden, nog zelden geraadpleegd wordt maar wel 7 tot 10 jaar bewaard moet worden.

@Oudlid, ik denk dat we het meer eens zijn dan je denkt. Inderdaad kun je inactieve workload bij voorkeur uitzetten. Wij hebben veel data op tapestorage staan, en zeker de data die van rechtswege langere tijd beschikbaar moet blijven, dat kost geen energie in spinning disks. Maar dan blijf je nog steeds zitten met servers die wel online moeten blijven en toch meer energie verbruiken dan nodig is.

Waar ik vooral naar kijk zijn (mijn) servers die idle zijn maar toch (te veel) energie verbruiken. Mijn machines draaien niet meer CPU cycles dan echt strikt noodzakelijk. In de afgelopen releases van SLES (11, 12, 15) zie ik dat de idle load langzamerhand wel aan het oplopen is. Met soms een uitschieter, zoals het voorbeeld dat ik aanhaalde, en dat kaart ik dan aan omdat ik niet wil dat een idle server cycles verstookt omdat het een of ander nitwit een ideetje had dat wereldwijd een paar extra energiecentrales gaat opslurpen.

De rapporten en directives vind ik meestal een farce. "We moeten sustainable zijn, maar met het planten van extra bomen kunnen we dat compenseren." Terwijl het punt juist is het verminderen van energie verbruik. Ook als het gaat om ontwikkeling van applicaties en operating systems zie ik maar weinig aandacht voor het energie verbruik (lees CPU cycles). Sterker nog, het gaat eigenlijk altijd om de functionaliteit, maar energieverbruik, net als security, is meestal het sluitstuk van een project. Als er al aandacht voor is.

Voorbeeld. Processor fabrikanten hebben aandacht besteed aan het verminderen van energie verbruik, door het dynamisch verminderen van de CPU klokfrequentie en het uitschakelen van cores. Dat zijn de zgn C-states. C0 is volle capaciteit, C5 is uitgeschakelde core of processor. Al jaren geleden heb ik een rapport gezien waarbij is geconstateerd dat processoren in een datacenter vrijwel uitsluitend in C0 draaien. Een enkeling in C1 maar nooit in C2 - C5. Daarmee kunnen we constateren dat de fabrikanten dan wel schermen met zuinigere processoren maar dat dat in de praktijk nooit wordt gehaald.

Ik kan je op een bierviltje uitrekenen hoe je in een datacenter 50% vermindering van energie verbruik kan realiseren. Maar ik ben nog nooit iemand tegen gekomen die daar ook daadwerkelijk iets mee wil gaan doen. Sterker nog, ik hoor vooral dat ik niet moet zeuren want "het werkt toch?".

Zoals ik altijd al zeg, tape is niet dood maar groen. En de ontwikkelingen op tapegebied staan ook niet stil waardoor het nog altijd een veel gebruikt opslag medium is. Want een offline kopie is veel moeilijker te raken door ransomware dan al die online data terwijl het vele malen goedkoper is dan softwarematige beschermingen als ik kijk naar de licentiemodellen. Tot op heden gaat er dan ook nog niks boven een koffer vol met tapes als we het over de bandbreedte hebben want tot op heden wordt er nog 7 keer meer data op wielen verplaatst als over het netwerk als ik naar de nog altijd immens populaire USB-disks kijk. En inderdaad gebruikt deze offline data dus geen stroom en dat feit gaat steeds meer tellen als we kijken naar OpEx in een TCO berekening.

Het meenemen van de operationele kosten in de businesscase geeft vaak een overtuigend argument als "het werkt toch?" efficiënter kan en daardoor niet alleen groener is maar ook goedkoper. Niets doen is namelijk geen optie meer want het zijn niet de Europese directives die de markt dicteren maar de concurrentie, 50% vermindering van de kosten levert aan de andere kant van de balans 50% meer winst op met als de bijkomende bonus dat je weer een paar vinkjes kunt zetten voor de MVO compliance. Het probleem is echter dat het technische beheer vanaf de onderkant 'de roepende in de woestijn' is omdat de business geen idee heeft wat er in het datacenter gebeurt. Door beheermodel van Looijen blijven we klooien omdat de techniek uitbesteed is, het 'zomaar een datacenter' geeft al de desinteresse in de onderliggende infrastructuur aan.

Een bewustwording hiervan komt pas als "het werkt toch?" met een NEE beantwoord moet worden want 'Never waste a good crisis' komt er pas budget vrij om de dingen anders te gaan doen met het idee van: "Build back better" En hierin moeten we vooral kijken naar de workloads op business niveau want een simpele verandering van real-time naar batch kan flink besparen als je 70% af kunt schalen. Denk dat de provider je dit niet zal gaan vertellen als deze een businessmodel heeft van zoveel mogelijk capaciteit verkopen.

Near Online data opslag is een optie die te vaak over het hoofd wordt gezien, net als te oude onzinnige gegevens wegdoen.

Het is volgens mij nearline, een oude term die verwijst naar de aloude tape library waarbij een robot de tape laadt vanuit een magazijn. Hierbij zorgt parallellisatie in schrijven over meerdere tapedrives voor ongekende snelheden terwijl een ‘prefetching’ de data al klaar kan zetten in een cache voor het lezen. Wat betreft technische oplossingen in het I/O vraagstuk is tape dan ook nog lang niet dood als ik kijk naar het gebruik ervan door hyperscalers in een fenomeen zoals storage tiering. Het idee van een scheiding van de metadata en de data maakt het namelijk mogelijk verschillende opslagmedia te gebruiken.

Punt is echter dat daarmee alleen het probleem verschoven wordt want het is niet aan de afdeling IT om te bepalen wat onzinnige gegevens zijn en wat niet. Kosten van opslag met 70% verlagen is niet probleem, probleem zit in de data governance want de ‘litigation costs’ stijgen exponentieel doordat er onduidelijkheid is over wat onzinnige gegevens zijn en wat niet. Minister-president die besluit tot het verwijderen van chats en berichten maakt al duidelijk dat het classificeren van data een dingetje gaat worden.

Van datalake naar datalek zie ik dat veel organisaties bezig zijn met data uit de gebruikelijke silo’s van applicaties te halen. Eerder onzinnige data krijgt door DIKW-model van moderne datasynthese opeens zinnige waarde. En reversing de ‘Rutte-doctrine’ mag ik niks meer zeggen over bonnetjes, ik mag wel wat zeggen over dezelfde fouten door partijgenoot van Teeven als het om het onrechtmatig verwijderen van de e-mails gaat.

Near Online data slaat op data die je als gebruiker zelf kan ophalen zonder dat iemand van beheer een tape cassette of een optische disk uit de safe moet halen of een disk moet inschakelen. Het concept wordt door o.a. IBM ook wel Nearline genoemd als samentrekking van (near)online data, wat verhullend is. Wat Near Online dan wel Online wordt genoemd, is afhankelijk van de leverancier. Langzame HD’s worden ten onrechte Near Online genoemd. Near Online wordt ook verkocht met de slogan "at an offline price". Maar Near Online software, een tape robot, optical jukeboxes en/of MAID brengen ook extra kosten met zich mee.

Near Online is inderdaad geen alternatief voor archivering. Het uitstellen van archivering door het DIKW-model laat de data alsmaar groeien. En als de berg data erg groot wordt, dan wordt het een steeds groter probleem om deze alsnog te archiveren en de data bruikbaar te houden. Een organisatie met een laag Analytical Capability Maturity Model niveau kan wel wishdom willen, maar misschien niet eens voldoen aan de AVG wetgeving ondanks Artificial intelligence, Datawarehouses en Business Intelligence specialisten.

De systemen waar een tape met een barcode door een robot in een tapedrive geladen wordt zijn me niet onbekend en weten op welke tape gevraagde data staat ook niet. Veel organisaties misbruiken nog altijd de back-up voor archivering. En dan wordt de I van informatie in DIKW-model wat lastig omdat classificatie niet vanuit de business gemaakt is. De ‘litigation costs’ van geen actief geheugen geldt voor de reconstructie, het wie wist wat op welke moment als we kijken naar het RBAC-model in de klassieke silo’s van applicaties.

En de berg data wordt erg groot als we kijken naar fenomeen van ongestructureerde data doordat we van de eerdere Systems of Record naar Systems of Collaboration zijn gegaan. Hele concept van een datawarehouse is achterhaald, nieuwe realiteit is video als ik kijk naar alle vergaderingen via Teams en de mogelijkheden van ‘cognitieve’ AI. Videoverslagen in plaats van de ouderwetse notulen, denk dat de Rutte-doctrine een update nodig heeft. Want nieuwste module kijkt naar lichaamstaal als een soort van leugendetector en met VR kunnen we de neus van sommigen wel verlengen.

Om even terug te komen op de vraag over een centralisatie van data, waarom?

Uw reactie

LET OP: U bent niet ingelogd. U kunt als gast reageren maar dan wordt uw reactie pas zichtbaar na goedkeuring door de redactie. Om uw reactie direct geplaatst te krijgen moet u eerst rechtsboven inloggen of u registreren

Vul uw naam in
Vult u een geldig e-mailadres in
Vult u een reactie in
Jaarbeurs b.v. gaat zorgvuldig en veilig om met uw persoonsgegevens. Meer informatie over hoe we omgaan met je data lees je in het privacybeleid
Als u een reactie wilt plaatsen moet u akkoord gaan met de voorwaarden
Nieuwsbrief

Wil je dagelijks op de hoogte gehouden worden van het laatste ict-nieuws, trends en ontwikkelingen? Abonneer je dan op onze gratis nieuwsbrief.

Vul een geldig e-mailadres in

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2023-01-19T16:42:00.000Z Fred Streefland


Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.