Hoewel aanvankelijk afschrikwekkend, biedt big data veel mogelijkheden. Big data zal volgens Gartner tussen 2015 en 2017 de 'nieuwe standaard' worden. Op dit moment is het echter voornamelijk een modewoord omgeven door veel hype, waardoor de in de branche aangeprezen berichten een frustrerend en tijdrovend doolhof vormen vol met doodlopende paden.
Allereerst moet er een onderscheid worden gemaakt; big data kan namelijk naar twee verschillende zaken verwijzen. Het kan verwijzen naar de technologieën voor het beheren van big data (bijvoorbeeld analytische gegevens, objectgegeven et cetera) of de gegevens zelf, die op het individuele gebruikersniveau een enorme groei hebben ondervonden. In de meeste sectoren, zoals bij de overheid, productie en in het onderwijs, vormt ongestructureerde data zoals e-mails, video’s en afbeeldingen de grootste groeimotor voor big data. In beide gevallen draait het echter om grote hoeveelheden data, de bijbehorende uitdagingen en hoe we die kunnen aanpakken.
Niks nieuws
Tegen deze achtergrond is big data niets nieuws. Bedrijven strijden tegen de accumulatie van data sinds de dag dat it een belangrijke business enabler werd. Van de alsmaar groeiende capaciteit van harde schijven tot it-beheerders die terabytes of zelfs petabytes aan data moeten beheren en tegelijkertijd efficiëntieniveaus moeten handhaven; datagroei is altijd al een pijnpunt geweest.
Organisaties proberen nog steeds meer met minder te doen; het verschil is dat big data een aantal nieuwe uitdagingen met zich mee brengt omdat sommige oudere technologieën simpelweg niet met zulke grote hoeveelheden data om kunnen gaan zonder afbreuk te doen aan de schaalbaarheid, flexibiliteit, kosten et cetera.
Gartner voorspelt dat in 2015 20 percent van de Global 1000-organisaties een strategische focus zullen hebben op de ‘informatie-infrastructuur’ die gelijk is aan de focus op toepassingsmanagement. Dit is een van de factoren achter het concept van infrastructure performance management (ipm) als een nieuw perspectief van waaruit het datacentrum moet worden bekeken.
Sleutelwoord is prestatie
De infrastructuur als een geheel bekijken en vervolgens je verdiepen en je op de knelpunten richten is veruit de beste manier om te beginnen. Het sleutelwoord is prestatie: door je infrastructuur en toepassingen te begrijpen wordt het beheren van big data een makkie.
Het identificeren en installeren van oplossingen die gemakkelijk te beheren zijn, return on investment en toekomstvastheid zijn nog steeds belangrijk net als tien jaar terug. De hoofdzaak blijft prestatie, de uitdaging is alleen groter geworden.
Bij het bijwerken van je infrastructuur is het dus belangrijk dat het nieuwe systeem beter met grotere hoeveelheden data om kan gaan dan voorheen. Organisaties willen dezelfde of zelfs hogere prestatieniveaus. Dit kan echter alleen met een efficiënte infrastructuur worden bereikt die niet onder het gewicht van extra data bezwijkt.
Om te voldoen aan de eisen die uit deze groei ontstaan, wijzen veel organisaties traditiegetrouw onnodige server-, switch-, fabric- en opslagcapaciteit aan hun toepassingen toe. Helaas is deze relatief eenvoudige oplossing geen optie meer met de krappe budgetten van tegenwoordig. Daarom is het van belang de beschikbare bronnen te begrijpen en te beheren, te weten hoe oudere systemen problemen hebben behandeld en duidelijk te zijn met budgetten en onderhoudsplannen.
Als het om big data gaat, is infrastructure performance management het startpunt voor het bouwen van een totaalbeeld van de omgeving, maar vervolgens moeten we ons op de toepassingen richten die groeien, het opstellen van een begroting voor en beheren van individuele toepassingen is namelijk eenvoudiger. Hierdoor wordt het verder ook duidelijk welke gebieden goed werken en waar er veranderingen doorgevoerd moeten worden.
Big data klinkt aanvankelijk afschrikwekkend, maar indien goed beheerd kan het tot een betere return on investment (roi), beter beheer en betere prestaties leiden.
Eric Jorgensen, vice president bij Virtual Instruments EMEA
Euh…
“De infrastructuur als geheel bekijken en vervolgens je verdiepen op de knelpunten” is de Theory of contraints welke niet zoveel met data te maken heeft maar meer met een proces zoals LEAN. Een goede throughput van je infrastructuur maar veel wachttijd door non-ICT handelingen is zoals Eliyahu Goldratt in boek ‘Het Doel’ dan ook al stelt weggegooid geld aangezien de wet van Wirth (in navolging van Moore) stelt dat één uur computertijd goedkoper is dan één uur menselijk arbeid.
Tot zover de theorie want jaren geleden me al bezig gehouden met BPM, politiek gezien waren de verkregen inzichten geen succes. Waarde van DDDM is hierdoor nog weleens discutabel door grote aantal ‘disconnected processen’ en Big Data is vaak ook niet meer dan een digitale wichelroede. Als we het over de prestatie van de business hebben – eventueel afgezet tegen concurrenten in dezelfde markt – dan blijkt deze lang niet altijd juist ingeschat te worden.
Krappe budgetten klinkt als de gewoonlijke visie op IT als costcenter, gek natuurlijk als we overwegen dat technologie steeds vaker als een strohalm gezien wordt voor de wenselijke innovatie. Maar dan moet je echter wel verstand hebben van de materie want ‘A fool with a tool is still a fool’ omdat meten alleen weten is als je weet wat je meet. Nu levert dat dus vaak problemen op bij virtuele omgevingen waar bijvoorbeeld caching voor geheel afwijkende waarden kan zorgen zoals overcommiteren.
Kortom, leuk verhaal maar ik heb het al zo vaak gehoord want als er aan één ding geen gebrek is dan is zijn het wel tools.