Artikel top billede

(Foto: istockphoto.com)

Vi skal eksperimentere og innovere meget mere og hurtigere: Infrastrukturen til data har fuld fart på

Klumme: Mange virksomheder sonderer i øjeblikket terrænet for backend-data-platforme. Med god grund. Leverandør-billedet er under hastig forandring, og værdiskabelsen gennem fleksibel adgang til data er ikke til at komme udenom. Får vi noget af det med i Danmarks digitaliserings-strategi?

Denne klumme er et debatindlæg og er alene udtryk for skribenternes synspunkter.

Min hverdag handler om at hjælpe virksomheder med at digitalisere og blive mere datadrevet.

Og for tiden møder jeg stadig flere virksomheder, som er i gang med seriøse sonderinger om selve platformen for data.

Altså infrastrukturen, som på tværs af organisation og funktion giver mulighed for at effektivisere og innovere med data.

Et godt og aktuelt eksempel er BEC, som i 2021 vil lægge 90 terabyte op i skyen med brug af Microsoft Azure Synapse for at give pengeinstitutterne analysekraft og business intelligence på en radikalt anderledes måde.

Jeg kan godt forstå disse strategiske omlægninger og sonderinger i leverandørlandskabet.

Det er en hel bølge

Tag blot hele bølgen af open source og nye aktører inden for analytics og data science.

Hvis man spørger Gartner om, hvem der er ledere inden for data management til analyse, så finder man eksempelvis blot otte år gamle Snowflake, Amazon Web Services og Google i selskab med gamle kendinge som Oracle, IBM, Teradata og Microsoft.

På samme tid ser man at umiddelbare konkurrenter også indgår teknologiske samarbejder.

Det skete eksempelvis, da Microsoft og SAS Institute lige før sommerferien annoncerede et samarbejde om at gøre Microsoft Azure til den foretrukne cloud-udbyder for SAS' analytiske produkter og brancheløsninger.

Revolution af infrastruktur

Meget er nyt i dette felt.

Det allervigtigste er nok den hastighed, skalerbarhed og fleksibilitet, som følger med overgangen fra on-premise til cloud.

Her er nærmest tale om en revolution af infrastrukturen for data.

Prisen på real-time data streaming er drastisk reduceret samtidig med transitionen fra batch til realtids-processering af data buldrer afsted.

Presset for at levere data hurtigt og præcist til mange forskellige formål rækker ofte ud over, hvad en enkelt leverandør kan levere.

Globalt set ser vi en tendens til en mere modulær data-arkitektur med flittig brug af best-of-breed og open source. (Du kan eventuelt læse mere i papiret ”How to build a data architecture to drive innovation – today and tomorrow” fra McKinsey Technology 2020).

Værdiskabelse er motor

Motoren bag det ændrede teknologi-landskab er selvfølgelig behov for hurtigt og fleksibelt at understøtte forretningen med data. I bredeste forstand.

Voksende modenhed og erfaring fører nu til, at vi leder med lys og lygte efter generiske gevinster i forhold til at arbejde med data.

Det kan en hurtigere og mere fleksibel infrastruktur absolut hjælpe til med, og cloud-løsningerne åbner også vinduet op for små og mellemstore virksomheder, der vil lege med.

Danmark med på vognen?

Både DI og Dansk Erhverv har netop barslet med store udspil, hvor grøn omstilling og digital oprustning indgår som bærende elementer i en lang række konkrete politik-anbefalinger.

Og statsminister Mette Frederiksen (S) lover i Folketingets åbningstale en ny dansk strategi inden for digitalisering.

Det er mit lønlige håb, at vi som nation indser, hvor central data-infrastrukturen er.

Med den på plads kan vi i den offentlige og private sektor eksperimentere og innovere langt mere og langt hurtigere, og det tror jeg, at der er brug for.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.