Big data wordt momenteel net zo gehyped als cloud computing een jaar geleden (en nog steeds). De hoeveelheden data die gedeeld, geïntegreerd, verwerkt, opgeslagen en beheerd worden, groeien dan ook uit tot gigantische proportie en met een razendsnel tempo. Wanneer we over big data praten, hebben we het meestal over applicatiegegevens, user-generated content en bedrijfsbestanden. Het gaat zelden over operationele data, terwijl ook deze ‘big data’ een bedreiging en een kans vormen voor de dagelijkse gang van zaken in het datacenter.

Het beheer van de datacenter-prestaties vereist de analyse van heel veel data. Big operational data. Elke dag worden er gigabytes aan logdata gegenereerd. Een deel daarvan zijn alledaags bandbreedte- en doovoergegevens. Een ander deel vormt gevormd door routinematige applicatiegegevens over het aantal verwerkte requests. En er is een gedeelte met meer opvallende informatie zoals wie en wat een poging ondernam om een webapplicatie van wat malware te voorzien. Allemaal interessante gegevens en alle log-files van alle apparatuur bij elkaar heb je al snel BIG data.

Netwerkoptimalisatie
Als bedrijven geen middelen hebben om deze data op te zoeken, samen te voegen en te analyseren zodat een totaalbeeld van het datacenter ontstaat, heb je gewoon een berg bits en bytes die nutteloos opslagruimte in beslag staat te nemen. Zonde. Beheerders kunnen deze data veel beter gebruiken om verbanden te leggen, zodat problemen sneller gelokaliseerd worden en op te lossen zijn. Op die manier krijg je ook een holistische kijk op de prestaties van het datacenter. Hierbij gaat het niet alleen om hoe snel een applicatie reageert of hoe goed een web application firewall functioneert. Netwerkoptimalisatie werpt de grootste vruchten af als je zicht hebt op je hele datacenter en de correlaties daarbinnen.

Het bewijs van ROI
Het probleem is dat veel applicaties wel kunnen aangeven hoe goed zij functioneren, maar niet wat de impact is van andere toepassingen op hun prestaties of welke invloed zij hebben op de prestaties elders in het datacenter. Je hebt beheertools die aangeven hoe een toepassing het doet, maar niet de ‘big picture’ weergeven. En dat is dus wel hard nodig. Je wilt de correlaties tussen onderdelen in een datacenter weten, maar ook tussen datacenters zelf als je cloud-toepassingen mee wilt nemen in dat plaatje. Dit soort data-analysetools komen nu steeds vaker op de markt. Ze helpen je ook de business case te maken. Het gaat met elke investering om de ROI. Daarvoor heb je gegevens nodig over hoe een applicatie zich gedraagt en presteert binnen het geheel. Pas als je die gegevens kunt omzetten naar informatie, heb je stevig bewijsmateriaal in handen dat investeringen in datacenters het geld meer dan waard zijn.

Deze blogpost verscheen eerder op Computable