Home

Big data die bijna niemand ziet

10-10-2012 15:49 | Door Rene Oskam | Er zijn 2 reacties op dit artikel | Permalink
Computable Expert
Rene Oskam
Rene Oskam

Director Sales

Expert van Computable voor de topics: Security, Netwerken en Infrastructuur

Meer

Big data wordt momenteel net zo gehyped als cloud computing een jaar geleden (en nog steeds). De hoeveelheden data die gedeeld, geïntegreerd, verwerkt, opgeslagen en beheerd worden, groeien dan ook uit tot gigantische proportie en met een razendsnel tempo. Wanneer we over big data praten, hebben we het meestal over applicatiegegevens, user-generated content en bedrijfsbestanden. Het gaat zelden over operationele data, terwijl dit ook big data is.

Deze operationele data vormt net zo goed een bedreiging en een kans voor de dagelijkse gang van zaken in het datacenter als de meer zichtbare en bekendere datavormen. Het beheer van de datacenter-prestaties vereist de analyse van heel veel data. Big operational data. Elke dag worden er gigabytes aan logdata gegenereerd. Een deel daarvan zijn alledaags bandbreedte- en doovoergegevens. Een ander deel wordt gevormd door routinematige applicatiegegevens over het aantal verwerkte requests. En er is een gedeelte met meer opvallende informatie zoals wie en wat een poging ondernam om een webapplicatie van wat malware te voorzien. Allemaal interessante gegevens en met alle log-files van alle apparatuur bij elkaar heb je al snel BIG data.

Netwerkoptimalisatie

Als bedrijven geen middelen hebben om deze data op te zoeken, samen te voegen en te analyseren zodat een totaalbeeld van het datacenter ontstaat, heb je gewoon een berg bits en bytes die nutteloos opslagruimte in beslag staat te nemen. Zonde. Beheerders kunnen deze data veel beter gebruiken om verbanden te leggen, zodat problemen sneller gelokaliseerd worden en zijn op te lossen. Op die manier krijg je ook een holistische kijk op de prestaties van het datacenter. Hierbij gaat het niet alleen om hoe snel een applicatie reageert of hoe goed een web application firewall functioneert. Netwerkoptimalisatie werpt de grootste vruchten af als je zicht hebt op je hele datacenter en de correlaties daarbinnen.

Het bewijs van roi

Het probleem is dat veel applicaties wel kunnen aangeven hoe goed zij functioneren, maar niet wat de impact is van andere toepassingen op hun prestaties of welke invloed zij hebben op de prestaties elders in het datacenter. Je hebt beheertools die aangeven hoe een toepassing het doet, maar niet de 'big picture' weergeven. En dat is dus wel hard nodig. Je wilt de correlaties tussen onderdelen in een datacenter weten, maar ook tussen datacenters zelf als je cloud-toepassingen mee wilt nemen in dat plaatje.

Dit soort data-analysetools komen nu steeds vaker op de markt. Ze helpen je ook de business case te maken. Het gaat met elke investering om de roi. Daarvoor heb je gegevens nodig over hoe een applicatie zich gedraagt en presteert binnen het geheel. Pas als je die gegevens kunt omzetten naar informatie, heb je stevig bewijsmateriaal in handen dat investeringen in datacenters het geld meer dan waard zijn.

Reacties op dit artikel
De redactie vindt deze reactie: GoedEwout Dekkinga, 10-10-2012 22:05
Rene,
 
Dat niemand de waarde van operationele data ziet is niet helemaal waar maar het krijgt inderdaad niet de aandacht die het verdient. Totdat er een probleem is natuurlijk want dan wordt de analyse hiervan opeens wel interessant.
 
Wat je hier m.i. grotendeels beschrijft heeft veel weg van Application Dependency (Discovery) Mapping. Hierbij worden communicatiepatronen geanalyseerd om te kijken wie met wie en in welke taal (protocol) spreekt. En ja, het gaat hier om veel data die verwerkt moet worden om plaatje compleet te krijgen. Maar het is volgens mij een eerste stap om tot een holistische kijk op de architectuur te komen en zeker nog niet compleet. Dit mede omdat het enkel naar de techniek kijkt en niet naar de service. Stop je informatie van alle beheertools in een relationele database dan kun je deze wel tot interessante inzichten correleren.
 
Mede door de cloud worden netwerk analyse tools trouwens wel steeds belangrijker. Bijvoorbeeld om de kosten van al het verkeer en bijbehorende maatregelen voor beveiliging die over alle 'touwtjes' lopen te berekenen.
De redactie vindt deze reactie: OKMichiel Hamers, 12-10-2012 7:58
Rene.
 
Erg duidelijk artikel. Als ik zo naar mijn eigen omgeving kijk zie ik inderdaad vaak een onderwaardering voor dergelijke data. Zelf heb ik nog geen verschuiving van aandacht deze kant op gezien, maar als dat al waarneembaar is dan juich ik dat toe.
 
Michiel
Video: Equinix Investor Analyst Day 2012
Twitter