De Cruijffiaanse wijsheid van de titel gaat om inzichtelijkheid. Als het om een kostenefficiëntie in opslag gaat, dan tonen verschijnselen zich niet altijd binnen de context van de gebuiker. Het is vergezocht maar de zoektocht naar het bonnetje van Teeven lijkt hierin systemisch.
Het is tenslotte dus gebruikelijk dat als de eigenaar de trap omhoog neemt in de organisatie het bonnetje de trap naar de kelder neemt, waar het dan vervolgens verweesd achterblijft. Maar door de toenemende populariteit van moderne datasynthese middels de hype van big data zal koude data echter steeds vaker een heet hangijzer worden, op meerdere manieren.
Onaangename spanningen
Nu heb ik geen verstand van voetbal en weet alleen dat je uitkomst van het spelletje vooraf kunt bepalen als je met de spelers afspraken maakt. Betreffende de problematiek van data is dat een heikel punt, de prijserosie van opslag gaat namelijk niet snel genoeg om de groei in data volumes bij te kunnen houden. En datzelfde geldt voor prestaties als we overwegen dat veranderlijke datakarakteristiek van koud naar warm en vice versa voor hotspots binnen de data architectuur zorgt, omdat dit een controverse is binnen storage tiering.
Het idee van automatic storage tiering (ast) is gericht op het verlagen van de opslagkosten door data te laten weg zakken. De zoektocht naar het bonnetje is dus een afwijkende vraagstelling. En iets dat meestal ook niet verteld wordt, is dat degradatie naar goedkopere maar langzamere disks impact heeft op het back-up window. Nu toont de uitleg over het bonnetje van Teeven hier een paradoxale tegenstrijdigheid, zoiets als elke nacht een back-up maken van internet, maar er nooit naar kijken.
Naast de tegendraadse datakarakteristiek van koude data die voor hotspots zorgt in de data-architectuur moeten we zeker ook niet de verandering van ‘All People Seems To Need Data Processing’ vergeten. Om online de maatschappij te blijven voeden wordt het steeds moeilijker om voldoende stroom het datacentrum in te krijgen. En ironische opmerking van Larry Page dat software elke acht maanden met 50 procent vertraagd zegt genoeg, om nog een beetje snel alle antwoorden te kunnen vinden is een zoekmachine met de omvang van Google nodig.
Toekomstvast
Zolang het grootste deel van de tco-ijsberg nog onder water blijft door het loketdenken van uitbesteding, blijft de business denken dat informatie die naar tape (cloud) is geschreven niet meer tot de organisatie behoord. Voorbeeld van Veel Vergeten Data-jongens is één van de velen waarin ik hun het handelen niet kwalijk neem, want uiteindelijk was de 22 eurocent-oplossing maatschappelijk verwerperlijker. Het gaat om ontkenning ervan, waarbij koude data voor de welles-nietes discussie zorgt. Je gaat het zien als je het doorhebt, want laat ik zeggen dat in de data architectuur sprake is van de wet van Murphy:
“if there’s more than one way to do a job and one of those ways will end in disaster, then somebody will do it that way“
Effectiviteit van laagjes toevoegen blijkt niet efficiënt te zijn als we kijken naar snijverlies in de vorm van parity/spares, waardoor kosten per bruikbare terabyte stijgen. En oligopolisten dempen het verlies van een prijserosie op de informatiedragers door licenties, waardoor de opslag duur blijft, zoals de overheid waarschijnlijk alleen maar de schrijfkosten verhoogd.
Wordt vervolgd…..
Beste Ewout,
Als dat je boodschap is heb je hem in ieder geval goed verstopt 🙂
Ik denk als informaticus dat het belangrijk is om aan te geven tot wanneer informatie relevant mag worden geacht. Wat betreft het verloren bonnetje:
– de kamerleden hadden over dit bedrag moeten vallen toen het relevant was, niet meer dan 10 jaar later.
– gegevens (het bonnetje, het bedrag) leiden alleen tot informatie in de juiste context. Nu oordelen over iets van 10 jaar geleden met de context van nu is dan ook gekkigheid. Je moet dus wel gegevens verwijderen / irrelevant verklaren als de context niet meer te reconstrueren is.
Aan het eind van de keten van cache memory, memory, disk, tape hoort dan ook een vuilnisbak te staan. Ook daar moeten we bewust mee omgaan als informatie professionals.
@Brombeer
Zeker dien je relevantie van informatie te bepalen voordat je deze opslaat maar juist hier gaat het mis, onze overheid is van een rationele informatieverzameling naar een suggestieve gegaan waarbij .pst files de archieven zijn doordat EPD-auditors jaren geleden al bedankt werden.
Nee, die vuilnisbak staat vaak niet aan het einde van de keten als ik kijk naar de cijfers van menige data architectuur. En ECM uitdaging ga je niet lossen als er geen interesse is in de dataproblematiek hebt. Let op de begripsverschuiving, zal niet in gaan op beheermodel van Looijen maar data is het probleem van IT welke meestal uitbesteed is.
En hier wordt het leuk, het 20 jaar oude verdienmodel van goedkope maar te kleine schoenen leveren om bij optredende pijn deze te vervangen door passende duurdere is winstgevend. Ja, ik heb veel verstopt in deze opinie waar weinig wat van opgestoken hebben hoewel reacties me dus wel iets geleeerd hebben.
Ontwikkelaars maken namelijk nog weleens een kopie van een dataset die dan een geheel eigen leven gaat leiden, als middelen de moraal bepalen krijg je scope creep. Denk dat we kunnen stellen dat bonnetje niet binnen ECM zat, daarmee komt de vraag hoeveel informatie nog meer buiten alle controle rond slingert.