Ny måde at tænke data-behandling på: Sådan kommer IBM's supercomputere til at fungere

Verdens supercomputere står vej en skillevej, fordi de bygger på principper, der blev udviklet i 1940'erne. IBM har måske en løsning på problemet med en ny måde at data-behandle på.

Artikel top billede

(Foto: Povl D. Rasmussen)

Masser af accellaratorer og flere processorer. Højere hastigheder. Mindre strømforbrug.

Sådan lyder nogle af overskrifterne i IBM's udviklingsplaner for selskabets supercomputere, som selskabet nu lægger frem.

Selskabets supercomputere skal nemlig være langt hurtigere til at håndtere data på både storage-, hukommelses og I/O (Input/Output)-niveauerne, lyder det fra selskabet.

IBM arbejder på en ny arkitektur, der vil gøre supercomputerne i stand til at opdele parallelle computer-opgaver i mindre dele.

Det skal gøre det muligt at reducere og optimere behovet for regnekraft til de samlede opgaver.

Ifølge IBM's tekniske direktør for såkaldt OpenPower, Dave Turek, er opdelingen en måde at håndtere de skalerings-mæssige udfordringer, der ligger i den klassiske opbygning, hvor en supercomputer foretager mange beregninger samtidig.

"Vi er nået frem til, at vi ikke kan blive ved med at gøre det på denne måde, når vi ser på de mængder af data, som vi er begyndt at skulle håndtere," siger han.

Flaskehalse

At koble hukommelse, storage og I/O sammen øger systemets performance. Til gengæld er der flaskehalse i den arkitektur, som man anvender i dag.

Supercomputeren spilder nemlig typisk meget tid og meget energi på hele tiden at skulle flytte store data-pakker frem og tilbage mellem processorer, hukommelse og storage.

Her vil IBM gøre data-pakkerne mindre. Det vil ifølge selskabets beregninger kunne øge hastigheden med op til tre gange.

"Det er ekstremt ineffektivt og tidskrævende at flytte data-pakkerne, når vi arbejder med petabytes og exabytes. Derfor er ideen, at vi flytter behandlingen af data ud til det sted, hvor data befinder sig," siger Dave Turek.

Det sker ved at brede computer-kraften ud over hele system-hierakiet, lyder det fra IBM.

Det er nødvendigt, fordi mængden af data, der skal bearbejdes af supercomputerne, stiger hurtigere end regnekraften.

I dag fungerer de fleste supercomputere efter den såkaldte 'Von Neumann'-arkitektur, der blev udviklet i 1940'erne af matematikeren John Von Neumann.

Her bliver data skubbet ind i en processor, beregningerne bliver udført, og så bliver data skubbet tilbage i hukommelsen.

IBM vil holde fast i Von Neumann-metoden, lyder det fra selskabet.

"Men på system-niveau vil vi tilføre yderligere en måde at beregne ting på, hvilket altså er at flytte beregningerne hen til data fremfor den anden vej," siger Dave Turek.

"Der er masser af måder, hvorpå man kan reducere latency i et system og reducere den mængde data, der skal flyttes. Med denne metode sparer vi tid og energi," siger han.

IBM har tidligere udviklet systemer og servere med CPU'er rettet direkte mod specifikke workloads.

Forskellen er, at selskabet til kigger mod at optimere de komplette workloads - inklusive modellering, simulering, visualisering og avancerede dataanalyser.

IBM har i mange år været blandt verdens absolut førende producenter af supercomputere.

Flere af de øvrige top-producenter arbejder ligeledes med at udvikle nye metoder og arkitekturer til de kraftige computere.

Således af D-Wave Systems angiveligt udviklet verdens første - og hidtil eneste - kvantecomputer, der i dag angiveligt anvendes af NASA, Lockheed Martin og Google.

Den kan du læse mere om her: Google vil udvikle kunstig intelligens med kvantecomputer.

IBM har tidligere forsøgt at udvikle en supercomputer med baggrund i den måde, som den menneskelige hjerne fungerer på, mens Hewlett-Packard arbejder med en såkaldt memristor-hukommelse, der overfører data ved hjælp af lys.

Den kan du læse mere om her: Fremtidens hukommelse hedder memristor.

Læses lige nu
    Computerworld Events

    Vi samler hvert år mere end 6.000 deltagere på mere end 70 events for it-professionelle.

    Ekspertindsigt – Lyt til førende specialister og virksomheder, der deler viden om den nyeste teknologi og de bedste løsninger.
    Netværk – Mød beslutningstagere, kolleger og samarbejdspartnere på tværs af brancher.
    Praktisk viden – Få konkrete cases, værktøjer og inspiration, som du kan tage direkte med hjem i organisationen.
    Aktuelle tendenser – Bliv opdateret på de vigtigste dagsordener inden for cloud, sikkerhed, data, AI og digital forretning.

    It-løsninger | Online

    ERP Insights 2025

    Få den nyeste viden om værktøjer, der kan optimere hele din virksomhed med udgangspunkt i AI og fleksibilitet.

    It-løsninger | København Ø

    Automatisering med Copilot & Agentic AI

    Høst viden og erfaringer fra andre om, hvordan Copilot og Agentic AI i praksis kan skabe værdi og fleksibilitet i din organisation.

    Sikkerhed | Online

    Erfaringer fra frontlinjen: Sådan ændrer trusselsbilledet sig

    Kort og fokuseret digitalt event: Erfaren frontkæmper fra den digitale sikkerhedsverden giver dig overblik og konkrete anbefalinger til det aktuelle trusselsbillede.

    Se alle vores events inden for it

    En kaotisk verden kræver stærk cybersikkerhed, resiliens og digital suverænitet

    Mød David Heinemeier, Flemming Splidsboel Hansen, Casper Klynge, Rasmus Knappe, Jens Myrup Pedersen og forfattere som fhv. jægersoldat Thomas Rathsack og adfærdsforsker Henrik Tingleff.

    Computerworld afholder d. 4. og 5. november Cyber Security Festival i København - med fokus på sikkerhed, resiliens og digital suverænitet. Det er helt gratis - men reserver din plads allerede nu.

    Hele programmet er online lige nu - og du kan reservere din gratis plads lige her - jeg håber vi ses! 

    Lars Jacobsen

    Chefredaktør på Computerworld

    Se alle Lars's artikler her

    Forsvarsministeriets Materiel- og Indkøbsstyrelse

    Sektionschef til Datacenter Infrastruktur og Compute i Karup, Aalborg eller København

    Midtjylland

    KMD A/S

    Group Financial Controller

    Københavnsområdet

    Netcompany A/S

    Data Management Consultant

    Københavnsområdet

    Navnenyt fra it-Danmark

    Danske Spil har pr. 1. oktober 2025 ansat Jesper Krogh Heitmann som Brand Manager for Oddset. Han skal især beskæftige sig med at udvikle og drive brandets strategi og sikre en rød tråd på tværs af alle platforme og aktiviteter. Han kommer fra en stilling som Marketing & Communications Manager hos Intellishore. Nyt job

    Jesper Krogh Heitmann

    Danske Spil

    Signifly har pr. 1. august 2025 ansat Anders Kirk Madsen som Tech Lead. Anders skal især beskæftige sig med at hjælpe Signiflys offentlige og private kunder med at styrke forretningen gennem teknisk solide løsninger. Anders kommer fra en stilling som Business Architect hos SOS International. Nyt job