Home

Big data die bijna niemand ziet

10-10-2012 15:49 | Door Rene Oskam | Er zijn 2 reacties op dit artikel | Dit artikel heeft nog geen cijfer (te weinig beoordelingen) | Permalink
Computable Expert
Rene Oskam
Rene Oskam

Director Sales

Expert van Computable voor de topics: Security, Netwerken en Infrastructuur

Meer

Big data wordt momenteel net zo gehyped als cloud computing een jaar geleden (en nog steeds). De hoeveelheden data die gedeeld, geïntegreerd, verwerkt, opgeslagen en beheerd worden, groeien dan ook uit tot gigantische proportie en met een razendsnel tempo. Wanneer we over big data praten, hebben we het meestal over applicatiegegevens, user-generated content en bedrijfsbestanden. Het gaat zelden over operationele data, terwijl dit ook big data is.

Deze operationele data vormt net zo goed een bedreiging en een kans voor de dagelijkse gang van zaken in het datacenter als de meer zichtbare en bekendere datavormen. Het beheer van de datacenter-prestaties vereist de analyse van heel veel data. Big operational data. Elke dag worden er gigabytes aan logdata gegenereerd. Een deel daarvan zijn alledaags bandbreedte- en doovoergegevens. Een ander deel wordt gevormd door routinematige applicatiegegevens over het aantal verwerkte requests. En er is een gedeelte met meer opvallende informatie zoals wie en wat een poging ondernam om een webapplicatie van wat malware te voorzien. Allemaal interessante gegevens en met alle log-files van alle apparatuur bij elkaar heb je al snel BIG data.

Netwerkoptimalisatie

Als bedrijven geen middelen hebben om deze data op te zoeken, samen te voegen en te analyseren zodat een totaalbeeld van het datacenter ontstaat, heb je gewoon een berg bits en bytes die nutteloos opslagruimte in beslag staat te nemen. Zonde. Beheerders kunnen deze data veel beter gebruiken om verbanden te leggen, zodat problemen sneller gelokaliseerd worden en zijn op te lossen. Op die manier krijg je ook een holistische kijk op de prestaties van het datacenter. Hierbij gaat het niet alleen om hoe snel een applicatie reageert of hoe goed een web application firewall functioneert. Netwerkoptimalisatie werpt de grootste vruchten af als je zicht hebt op je hele datacenter en de correlaties daarbinnen.

Het bewijs van roi

Het probleem is dat veel applicaties wel kunnen aangeven hoe goed zij functioneren, maar niet wat de impact is van andere toepassingen op hun prestaties of welke invloed zij hebben op de prestaties elders in het datacenter. Je hebt beheertools die aangeven hoe een toepassing het doet, maar niet de 'big picture' weergeven. En dat is dus wel hard nodig. Je wilt de correlaties tussen onderdelen in een datacenter weten, maar ook tussen datacenters zelf als je cloud-toepassingen mee wilt nemen in dat plaatje.

Dit soort data-analysetools komen nu steeds vaker op de markt. Ze helpen je ook de business case te maken. Het gaat met elke investering om de roi. Daarvoor heb je gegevens nodig over hoe een applicatie zich gedraagt en presteert binnen het geheel. Pas als je die gegevens kunt omzetten naar informatie, heb je stevig bewijsmateriaal in handen dat investeringen in datacenters het geld meer dan waard zijn.

Deel dit artikel via LinkedIn
Deel dit artikel via Facebook
Deel dit artikel via Twitter

Video: Equinix Investor Analyst Day 2012
Twitter