Artikel top billede

Kan man overhovedet analysere sig til mere oppetid?

Klumme: Operational analytics efter min opfattelse en af de svagere sider hos cloud-udbyderne - måske fordi de fokuserer så meget på hele tiden at levere nye services. Det er vigtigt, at man anskaffer sig værktøjer, som kan håndtere både on-premise og cloud-løsninger på samme tid

Business Intelligence (BI) og analytics er moderne koncepter og buzz words, som de fleste kender.

Det går ud på at bruge de data, man har, til at skabe værdi af forskellig art for virksomheden. Eksempelvis kan en online-butik måske samle data på brugere af selskabets site og de køb, de foretager eller de ting, de er interesserede i.

Herved kan man bruge data til at fokusere på næste produkt eller sørge for, at brugere får vist netop de produkter, de er mest interesserede i næste gang, de handler.

Det er måske et banalt eksempel, men givetvis også en almindelig fremstilling af brugen af data til at fremme forretningens vilkår.

Eksempelvis har man i datacenteret sørget for, at infrastrukturen kan følge med og leveret ekstra compute- og storage-resourcer til at håndtere og gemme de stigende datamængder og måske beregne, hvilket produkt der skal satses på i fremtiden.

Det er tilmed blevet moderne at samle data om selve datacentret. Det gjorde man faktisk allerede i de fleste tilfælde i form af systemer, der kan holde øje med problemer og sende besked, hvis der skulle opstå et problem i en server, på et netværk eller lignende.

I takt med den stigende kompleksitet i datacentret og virksomhedens typisk stigende afhængighed heraf, så er de fleste med ansvar for it vel bekendt med den frustration, der kan være, når noget går ned, og man først skal til at finde ud af, hvad problemet egentlig er, hvad der kan være sket, hvem der er ramt af det og måske endda give sine kunde en ubehagelig besked.

Denne frustration udgår ofte fra det faktum, at overvågningen af infrastruktur i mange år generelt har været ganske reaktiv af natur, hvor man typisk først får besked, når skaden er sket eller meget kort tid før, hvorfor der så ikke altid er tid nok til at reagere i tilstrækkeligt omfang til, at skaden eller udfaldet kan undgås.

Derfor har man i de senere år med udspring i netop BI og analytics-modeller i stigende grad udviklet software løsninger, der med udgangspunkt i historisk data eller realtidsdata, ofte samme type data, som indsamles af traditionelle overvågningssoftware.

Det kan for eksempel være log-filer og events. Man kan analysere disse data ved hjælp af algoritmer og komme frem til en forventet konklusion baseret på en forudsigelighedsanalyse (på engelsk; 'predictive analytics').

Kort fortalt går dette ud på at finde mønstre i data og herved fastlægge, om der kan være tilstrækkeligt grundlag for at mistænkeliggøre hardware eller softwareproblemer, kvantificere disse i tilstrækkeligt omfang og herved sende en besked til relevante personer, som så kan reagere med rettidigt omhu - altså helst inden skaden sker - afhængig af problemstillingen.

I den sammenhæng er det muligt at overvåge selv komplekse transaktioner end to end og for eksempel give besked ved den mindste afvigelse af en KPI-responstid til en bruger, og man kan indhente realtidsdata med meget korte intervaller, hvis man har stor dynamik i sine data - eksempelvis i finanssektoren.

Automatisere opgaven

Ofte vil man sågar kunne automatisere opgaven til at finde en vej udenom problemet ved for eksempel at flytte en applikation til en anden server eller et andet data center, uden at brugeren lægger mærke til det, og isolere den potentielle fejlkilde, således at brugere faktisk ikke lægger mærke til noget.

Som kompleksiteten øges i data centret ved eksempelvis multi-cloud eller hybrid løsninger, så vil der være et stigende behov for at kvantificere forbrug og optimere på oppetid og økonomi i det hastigt voksende marked for Cloud ydelser - herunder for eksempel AWS, Azure eller Oracle Cloud.

Interessant nok er operational analytics efter min opfattelse en af de svagere sider hos cloud-udbyderne - måske fordi de fokuserer så meget på hele tiden at levere nye services - og dertil faktisk også i min erfaring de traditionelle service udbydere at få bygget løsninger som følger med tidens behov og kan understøtte den mangfoldighed og granularitet, der skal til, for at det ikke bare bliver endnu en dyr softwareløsning.

Så ikke desto mindre er det vigtigt, at man anskaffer sig værktøjer, som kan håndtere både on-premise og cloud-løsninger på samme tid, da udviklingen hastigt retter sig imod hybrid cloud, som er en kombination af infrastruktur i en virksomheds eget center og lignende hos en serviceudbyder.

At disse ting i stigende omfang er mange penge værd for virksomhederne, kan vel kun understreges af Cisco's beslutning om at købe det lille softwarehus AppDynamics for et anseeligt milliard beløb lige inden selskaebts børsintroduktion - til trods for et relativt begrænset produktsæt.

Så man må sige, at det er et område i rivende udvikling med udgangspunkt i et stort behov for at levere kvalitative KPI'er til virksomheden, sikre oppetid.

Uanset om man er cloud-kunde, bank eller serviceudbyder, så er det vel seriøs værdi for pengene at sørge for, at hjulene bliver ved med at køre og ikke mindst med rette fart.