Artikel top billede

Bliv klogere: Sådan fungerer in-memory databaser

In-memory-teknologi kan revolutionere business intelligence med lynhurtige dataanalyser. Her kan du blive klogere på teknologien, der kan få afgørende betydning for fremtidens databaser.

Læs også:

Sådan får du styr på dit performance-problem

SAP-topchef: Her er vores tre store satsninger

En teknologi, der vil vende op og ned på databasemarkedet og give fremsynede virksomheder kæmpefordele?

Eller en interessant nicheteknologi for virksomheder med helt specielle behov?

Meningerne er delte om in-memory-teknologien.

Konceptet er, at man i stedet for at have data liggende på diske og så lade databasesoftwaren læse og skrive til diskene, efterhånden som applikationerne beder om det, lader virksomhedens databaser køre i lynhurtig RAM.

Der er tale om en vision, som ikke er fuldt realiseret endnu, men blandt andre SAP har allerede taget de første skridt til at virkeliggøre visionen.

"In-memory-teknologien gør databehandling så meget hurtigere, at det vil ændre it-anvendelsen på samme måde, som client server-arkitekturen har gjort det," har SAP's øverste chef, Jim Hagemann Snabe, [url= udtalt til Computerworld.

Det betyder det for forretningen

De foreløbige resultater af SAP's teknologi (se boks) viser imponerende svarhastigheder på komplekse forespørgsler.

Det begejstrer Mads Frank, konsulentdirektør hos Platon, som blandt andet specialiserer sig i datawarehouse- og business intelligence-løsninger.

Begejstringen skyldes ikke så meget den fascinerende teknologi som de forretningsmæssige muligheder.

"Mange kunder efterspørger det her lidt famøse begreb self-service. Mange er trætte af den lange implementeringstid, hvor der kan gå tre måneder, fra man får en idé, til man rent faktisk får det implementeret," forklarer Mads Frank.

Det kan nemlig være en lang proces at udtrække data fra produktionssystemer, transformere data, så de er egnede til analyseformål, og endelig loade dem ind i en specielt opbygget datastruktur i et datawarehouse. Den såkaldte ETL-proces vil tage mindre tid med in-memory.

"I min verden er det her, den helt store revolution ligger. Meget af analysefunktionen kan flyttes helt ud i forretningen. In-memory er egentlig bare noget infrastruktur, som er med til at drive nogle perspektiver om self-service."

"Forretningen kan selv tage ejerskab af analyserne i stedet for at skulle ind til it-afdelingen og bestille noget indkøbsrapportering eller opfølgning på supply chain. Ved at anvende in-memory-acceleratorer kan vi tilgå data i deres grundform, fuldstændig som de ligger i deres operationelle miljøer," siger Mads Frank.

Han ser et skifte væk fra, at virksomhederne
træffer beslutninger på baggrund af historiske data og i stedet handler ud fra den øjeblikkelige situation.

"Det giver mulighed for en proaktiv brug af data i ledelsesopfølgning og rapportering, når man ved, hvordan virkeligheden ser ud lige nu, frem for hvordan den så ud i går," begrunder Mads Frank.

Hvad kan man bruge realtidsanalyse til?

Læs også:

Sådan får du styr på dit performance-problem

SAP-topchef: Her er vores tre store satsninger

Josh Krischer, tidligere research vicepresident hos analysevirksomheden Gartner og nu indehaver af konsulentvirksomheden Krischer & Associates, mener dog ikke at behovet for real-tids-analyser findes bredt blandt alle typer af virksomheder.  

"Efter min mening er det en niche. Det er ikke noget, alle har brug for, men for dem, som har brug for det, er det meget vigtigt," siger Josh Krischer og uddyber:

"Finansielle institutioner kan bruge det til analyse af finansielle instrumenter og har måske brug for øjeblikkelige svar. Her kan minutters svartid betyde millioner af dollars. SAP giver også eksempler på, hvordan processering af HR-data kan foregå in-memory. Men jeg kan ikke se, hvorfor HR-data skal analyseres hurtigt. Det betyder ikke noget, om det tager 15 minutter eller en dag."

Her er in-memory-teknologierne

Der er dog generelt en udvikling i gang inden for business intelligence og analytics, der handler om at speede behandlingen og analysen af store datamængder i vejret.

Microsoft er på banen med PowerPivot-platformen til Excel og SharePoint, mens den kommende SQL Server 2012, kendt under kodenavnet Denali, også kommer med in-memory-teknologi.

"SAP tager udgangspunkt i store enterprise-kunder. Microsoft tager markedet fra en lidt anden retning: Hvem kan vi nå ud til med det her? Her er de eksisterende Sharepoint- og Office-kunder interessante, så in-memory-teknologi indlejres i Sharepoint og Excel," siger Mads Frank.

Oracles bramfri Larry Ellison betegnede oprindeligt ideen om at køre databaser in-memory som "wacko" (skør, red.), men har skiftet mening, og nu har Oracle med Oracle Exalytics præsenteret et modspil til SAP's HANA.

Ligesom HANA kommer Exalytics som en appliance, hvor softwaren er præinstalleret på en server. I Oracles tilfælde er det Oracles TimesTen in-memory-database og Oracles business intelligence-suite BI Foundation, der er installeret på Oracles egen hardware i form af Oracle Sun Fire-serverne.

SAP har valgt at alliere sig med forskellige hardware-leverandører som IBM, HP, Dell, Cisco, Fujitsu og Hitachi, for at få leveret den nødvendige hurtigtperformende hardware med flerkerne-processorer, så de store datamægder kan genemtygges ved hjælp af parallelprocessering.

Kan hurtigt blive dyrt

Løsningerne anvender komprimering af data, så en terabyte RAM i princippet kan rumme op til 10 terabyte data fra en traditionel database. RAM er dog ikke billigt, så selv om in memory kræver mindre plads end en traditionel database, kan løsningerne godt løbe op i pris.

Den endelige pris afhænger af konfiguration og eventuelle specialaftaler med leverandørerne. Jesper Schleimann, direktør for Business Analytics hos SAP Danmark, har ikke den endelige pris, men en lille HANA appliance med 128 gigabyte RAM "kommer formentlig ikke over en million kroner."

Ønsker man memory i terabyte-størrelsen, ryger prisen i vejret.

"Det er ikke billigt, og dertil kommer risikoen for at blive låst fast til én leverandør. Overvejer man en løsning, kræver det stor agtpågivenhed ved kontraktforhandling, hvor man især skal se på betingelser for fremtidig opgradering, vedligehold og lignende," anbefaler Josh Krischer.

Sådan gør danske virksomheder med in-memory

Læs også:

Sådan får du styr på dit performance-problem

SAP-topchef: Her er vores tre store satsninger

Hos Coop, Danmarks største detailhandelskæde, der driver SuperBrugsen, Kvickly, Irma, Dagli'Brugsen og Fakta, sidder it-direktør Lars Frahm og betragter in-memory-teknologien med "en sund skepsis".

"Jeg har svært ved at se behovet for at lave en stor in-memory-database. Man skal jo se på, hvilke fordele man får ud af det. Kan vi spare nogle penge, eller kan vi gøre noget bedre? Jeg kan ikke se, at det er pengene værd," lyder den umiddelbare vurdering fra Lars Frahm.

Konsulentdirektør hos Platon, Mads Franks, begejstring for et realtidsbillede af virksomhedens data er ikke noget, Lars Frahm umiddelbart deler.

"Nu er jeg måske en lidt nærig nordjyde, men for mig at se mangler business-casen for os," siger Lars Frahm.

Coop er ellers en oplagt aftager af den lynhurtige in-memory-teknologi. En af de største databasetabeller hos Coop har over otte milliarder rækker; guf for en dataslugende HANA eller Exalytics, men Coops it-chef er tilfreds med den eksisterende traditionelle datawarehouse-løsning fra Teradata.

Coop kører ugentligt 40.000-50.000 rapporter og analyser, hvoraf 70 procent har svartider under otte sekunder.

"Vi anvender det meget bredt til analyse, opfølgning, forudsigelse, genbestilling af varer og så videre," siger Lars Frahm.

Hurtighed er brugervenlighed

I Coops datawarehouse registreres butikkernes salg af forskellige typer varer hver eneste dag. Som del af BI-systemet kører der et automatisk genbestillingssystem, der tygger de indrapporterede data igennem.

Det sker ved hjælp af forskellige algoritmer samt årstidsbestemte prognoser om varekøb kombineret med oplysninger om, hvilke kampagner der kører og andre faktorer, der har betydning for varegenbestilling. Systemet genererer automatiske varebestillinger, ikke i løbet af sekunder, men "hurtigt nok".

"Kan vi lave en bedre automatisk genbestilling med in-memory? Det kan jeg ikke se," siger Lars Frahm.

Men så alligevel...

Han er dog ikke afvisende over for in-memory-teknologi. Coop anvender in-memory-BI-værktøjet Qlickview fra QlikTech, der kører som en klient op imod Teradata-datawarehouset.

"Vi trækker data ind i Qlickview fra Teradata, og så ligger de i memory. Det giver en helt anderledes intuitiv brugergrænseflade. Når man peger på de ting, man vil se, får man det vist øjeblikkeligt. Det er et værktøj, som er meget brugervenligt," siger Lars Frahm om Qlickview, som alle butikker har adgang til.

Så måske er der alligevel noget om Mads Franks idé om at bringe analysedelen ud til brugerne?

"Jeg er stadig lidt skeptisk over for, at det automatisk bliver godt, ved at værktøjerne rykkes ud til forretningsfolkene. Det er selvfølgelig ikke forkert at lade dem komme til, men det er mere komplekst end som så," mener Lars Frahm.

Sådan vil det udvikle sig

Mads Frank forventer, at danske virksomheder inden for det næste halve til hele år vil begynde at tage in-memory til sig.

"Leverandørerne er med til at understøtte den efterspørgsel, vi kan spore hos vores kunder. Der er selvfølgelig et stort skridt fra interesse og så til at sige: 'Nu gør vi det her for alvor'. Men jeg forventer, at in-memory vil snige sig ind i de danske virksomheder inden for de næste 6-12 måneder," forudsiger Mads Frank.

Spørgsmålet er, om in-memory-teknologien sniger sig ind i en niche eller sparker de traditionelle databaser helt ud af serverrummet?




Brancheguiden
Brancheguide logo
Opdateres dagligt:
Den største og
mest komplette
oversigt
over danske
it-virksomheder
Hvad kan de? Hvor store er de? Hvor bor de?
JN Data A/S
Driver og udvikler it-systemer for finanssektoren.

Nøgletal og mere info om virksomheden
Skal din virksomhed med i Guiden? Klik her

Kommende events
EA Excellence Day

Hvad er det, der gør it-arkitektens rolle så vigtig? Og hvad er det for udfordringer inden for områder som cloud, netværk og datacentre, som fylder hos nogle af landets bedste it-arkitekter lige nu? Det kan du her høre mere om og blive inspireret af på denne konference, hvor du også får lejlighed til at drøfte dette med ligesindede.

23. april 2024 | Læs mere


AI Business Excellence Day – sådan folder du mulighederne ud

Mange danske virksomheder har eksperimenteret med AI-projekter af begrænset omfang, men kun de færreste har for alvor udforsket mulighederne i storskala. Det gør vi her! Du vil blandt andet få mulighed for at se eksempler på, hvordan AI kan anvendes som accelerator i storskala og skubber til grænserne for, hvordan det er muligt at integrere teknologien, så potentialet for alvor foldes ud.

24. april 2024 | Læs mere


Unbreakable - sådan sikrer du dig vedvarende og uafbrudt adgang til dine data

Vi dykker ned i værdien af en stabil og pålidelig storage-platform og hvilke muligheder der findes, for at sikre den højeste grad af redundans og tilgængelighed. Områder som date-beskyttelse og cyber-sikkerhed vil også blive berørt.

25. april 2024 | Læs mere