Topforskere: Vi forhindres i at anvende cloud

Forskerne i partikelfysik-centeret CERN ser enorme muligheder i cloud computing, men kan ikke få lov. Se hvorfor.

Artikel top billede

Computerworld News Service: Forskerne ved det europæiske center for forskning i partikelfysik Conseil Européen pour la Recherche Nucléaire (CERN) i Geneve afholdes fra at anvende cloud computing i væsentlig grad på grund af forsinkelsen i etableringen af en europæisk juridisk ramme for databeskyttelsen.

I en præsentation ved Cloud Computing World Forum i London i forrigeuge sagde Bob Jones, der er leder af CERN openlab, at det forsinker anvendelsen i det videnskabelige miljø, at det ikke er lykkedes Europa-Kommissionen at få klare retningslinjer på plads med hensyn til databeskyttelsen inden for cloud computing.

"Vi samarbejder med high-tech-virksomheder, industrielle virksomheder og EU-myndigheder og vores konklusion er, at den lovgivningsmæssige ramme skaber en barriere," siger Jones.

CERN er klar over fordelene ved cloud computing. Organisationens eksisterende europæiske datacentre håndterer på nuværende tidspunkt årligt op til 15 petabyte fordelt på 100.000 CPU'er, og det udgør endda kun 20 procent af den samlede mængde data, der genereres af partikelacceleratoren Large Hadron Collider (LHC).

Kun én procent gemmes

Faktisk genererer LHC's fire største eksperimenter - Atlas, LHCb, ALICE (A Large Ion Collider Experiment) og Compact Muon Solenoid - omtrent en petabyte rå data per sekund, men kun cirka én procent af disse data gemmes, forklarer Jones.

Derfor er CERN ivrig efter at udforske, hvordan cloud computing kan hjælpe til at håndtere de enorme datamængder.

Det er også baggrunden for CERN's deltagelse i partnerskabet Helix Nebula - the Science Cloud, der blev lanceret tidligere i år.

Med dette initiativ vil CERN få adgang til mere regnekraft til behandling af data fra sit Atlas-eksperiment, der er designet til at observere fænomener, der involverer store partikler, og som muligvis kan kaste lys over nye teorier inden for partikelfysik.

"CERN's computerkapacitet er nødt til at holde trit med mængden af data fra Large Hadron Collider og vi anser Helix Nebula - the Science Cloud for at være en fremragende måde at samarbejde med erhvervslivet om at imødegå denne udfordring," udtalte Frédéric Hemmer, der er chef for CERN's it-afdeling, tilbage i marts.

Jones fortæller, at CERN nu vil gå i gang med et pilotprojekt på to år, der vil involvere at flytte data mellem kommercielle cloud-datacentre og organisationens egne offentligt finansierede datacentre.

Han fremhæver, at CERN ikke har nogen planer om at afvikle sine eksisterende systemer, men derimod ønsker at samle de to i et hybridt cloud-økosystem.

I denne pilotfase vil der blive udrullet projekter med det formål at analyse funktionalitet og ydelse.

Da CERN på nuværende tidspunkt konstant anvender 150.000 CPU'er samtidigt, står det ifølge Jones endnu ikke klart, om det overhovedet er muligt at skalere cloud-løsningerne op i en størrelse, der kan opfylde CERN's behov.

Oversat af Thomas Bøndergaard

Læses lige nu
    Computerworld Events

    Vi samler hvert år mere end 6.000 deltagere på mere end 70 events for it-professionelle.

    Ekspertindsigt – Lyt til førende specialister og virksomheder, der deler viden om den nyeste teknologi og de bedste løsninger.
    Netværk – Mød beslutningstagere, kolleger og samarbejdspartnere på tværs af brancher.
    Praktisk viden – Få konkrete cases, værktøjer og inspiration, som du kan tage direkte med hjem i organisationen.
    Aktuelle tendenser – Bliv opdateret på de vigtigste dagsordener inden for cloud, sikkerhed, data, AI og digital forretning.

    Infrastruktur | Horsens

    Enterprise Architecture Day 2026: Sikker og strategisk suverænitet

    Få ny inspiration til arbejdet med EA – fra sikkerhed og compliance til orkestrering, omkostningsoptimering og cloud governance i en usikker og ustabil tid.

    Sikkerhed | Aarhus C

    Executive roundtable: Cyberrobusthed i praksis

    Cyberangreb rammer driften. NIS2 og DORA kræver dokumenteret gendannelse under pres. Få konkret metode til at teste, måle og bevise robusthed på tværs af cloud, SaaS og leverandører. Deltag i lukket roundtable med Commvault og Hitachi.

    Digital transformation | København Ø

    Sådan etablerer du digital suverænitet

    Digital suverænitet afgør kontrol over data, systemer og afhængigheder i Danmark. Computerworld samler Dansk Erhverv og IBM-eksperter om konkrete arkitekturvalg, governance og platforme, der sikrer reel kontrol. Få overblik og handlekraft.

    Se alle vores events inden for it

    Navnenyt fra it-Danmark

    Adeno K/S har pr. 2. februar 2026 ansat Rikke Badsberg som ServiceNow Specialist. Hun kommer fra en stilling som ServiceNow administrator and developer hos Kamstrup. Nyt job

    Rikke Badsberg

    Adeno K/S

    Infosuite A/S har pr. 1. marts 2026 ansat Henrik Sandmann som Chief Operating Officer (COO). Han skal især beskæftige sig med drift, produktudvikling og skalering, herunder også procesforbedringer og udnyttelse af AI og nye teknologier. Han kommer fra en stilling som Program Director hos ADMG ApS. Han er uddannet cand. scient i datalogi og har derudover en MBA indenfor strategi, ledelse og forretningsudvikling. Nyt job

    Henrik Sandmann

    Infosuite A/S

    Mark Michaelsen, teknisk systemejer og projektleder hos Aarhus Kommune, har pr. 26. januar 2026 fuldført uddannelsen Master i it, linjen i organisation på Aarhus Universitet via It-vest-samarbejdet. Færdiggjort uddannelse

    Mark Michaelsen

    Aarhus Kommune

    netIP har pr. 20. januar 2026 ansat Mikkel Lykke Petersen som Datateknikerelev ved netIP Thisted/Aalborg. Han er uddannet håndværker og har arbejdet som både montør, mekaniker, tømrer og tagdækker. Nyt job