Artikel top billede

(Foto: Dan Jensen)

Tre globale udfordringer, vi kan løse med high performance computing

Klumme: Kapløbet på High Performance Computing (HPC) er i fuldt gang. Allerede i dag er vi afhængige af supercomputere, hvis vi skal have løst nogle af de store udfordringer, vi står overfor nu og her. Her har du tre af de store globale udfordringer, som HPC på sigt kan være med til at løse.

Denne klumme er et debatindlæg og er alene udtryk for skribentens synspunkter.

Målet om at nå forskellige videnskabelige milepæle har gennem historien affødt utallige ”venskabelige” kapløb mellem både forskere og hele nationer, som har været med til at skubbe menneskeheden mod nye teknologiske højder.

I 1960 konkurrerede Rusland og USA for eksempel om at nå en række mål inden for rumfart, blandt andet ved at sende det første fartøj ud i rummet og det første menneske på månen. Og nu, hvor Mars er på dagsordenen, fortsætter det globale kapløb.

Bevæger man sig ind på High Performance Computing (HPC)-området, opdager man hurtigt, at kapløbet også er i fuld gang her.

Exascale-systemer er i stand til at klare en trillion – 1018 eller en milliard milliarder – beregninger i sekundet. Det svarer til en processorkraft lig den menneskelige hjernes og er en mangedobling af, hvad de første petascale supercomputere kunne klare.

Da udviklingsmulighederne og potentialet med HPC er fantastisk, vil vi i de kommende år uden tvivl se nye teknologier, som vi slet ikke kan forestille os i dag, dukke op.

Men HPC er ikke kun interessant i fremtiden. Allerede i dag er vi faktisk afhængige af supercomputere, hvis vi skal have løst nogle af de store udfordringer, vi står overfor nu og her.

Nedenfor har jeg listet tre af de store globale udfordringer, som HPC på sigt kan være med til at løse – nogle løsninger er allerede under udvikling nu, mens andre vil komme efterhånden, som teknologien bliver mere moden.

Klima: Data giver dybere indsigt i klimaforandringerne
Klimaforandringer fylder mere i vores dagligdag end nogensinde før og har konsekvenser, der er større end bare ulideligt varme somre og vintre uden sne og frost.

Uanset om det er tørke eller tsunamier, så er ekstreme vejrforhold langt mere normale i dag, og derfor er det vigtigere end nogensinde før at kunne forudsige dem. Ikke for at forhindre dem, men for at imødegå dem så velforberedte som muligt.

Men de mange faktorer, som påvirker vejret, gør det samtidig svært at komme med nøjagtige forudsigelser. Her afhænger nøjagtigheden i beregningerne af, hvor meget data og processorkraft, man har til rådighed.

Vindmøllevirksomheden Vestas er allerede i gang med at indsamle store datamængder – fra atmosfærisk tryk til vindhastighed – for at kunne beregne de bedste positioner for deres flåde af vindmøller. I den forbindelse arbejder en samling HPC-enheder med at beregne og visualisere data.

Ved at koble big data-analyse og maskinlæring på data, er det lykkes Vestas at udvikle et mere dynamisk prognoseværktøj, der er lige så nøjagtigt som et meteorologisk center.

Det giver Vestas helt nye forretningsmuligheder – og også mere nøjagtige vejrudsigter. I takt med at vi globalt set får større regnekraft, vil vi få mere præcise forudsigelser om vejret i det hele taget. Med petascale-regnekraft kan vi forudsige vejret i for eksempel København eller Aalborg. Med exascale-regnekraft vil vi kunne forudsige vejret helt ned på gade-niveau.

Kort sagt er HPC et vigtigt værktøj, som er nødvendigt, hvis vi skal lære at leve med klimaforandringerne i fremtiden.

Aldrende befolkning: Mere præcise diagnoser med maskinlæring
Den forventede levetid stiger i de fleste lande, og det vil stille nye krav til sundhedsmyndigheder verden over.

Her er HPC et vigtigt værktøj, der kan skabe udvikling hen imod bedre diagnosticering og pleje.

Det kan for eksempel ske ved maskinlæring, som i sundhedsvæsenet kan hjælpe intelligente systemer med at lære at genkende sygdomme fra scanninger.

Ved at vise en supercomputer tusindvis af scanninger af sundt og sygt væv, kan forskerne lære den at genkende sygdomme ud fra scanningsbillederne.

For nylig beskrev Imperial College i London, hvordan de havde trænet en kunstig intelligens til at finde brystkræft ved at vise den 29.000 scanninger fra kvinder med brystkræft. Den kunstige intelligens var herefter bedre end radiologerne til at finde brystkræft ud fra mammografier.

Til sammenligning tager det cirka 10 år før en radiolog har viden og erfaring nok til at finde brystkræft på mammografier.

Forskere på Barcelona Supercomputing Centre (BSC) har brugt samme teknologi til at hjælpe øjenlæger med hurtigere at opdage øjensygdomme. Som resultat af projektet kan man nu bruge denne type maskinlæring på mange andre sygdomme, også selvom der er tale om sjældne sygdomme.

I takt med at HPC-teknologien udvikler sig, vil resultaterne blive endnu mere præcise, og det vil endda blive muligt at bruge teknologien til at diagnosticere endnu ukendte sygdomme. Det vil på sigt give lægerne helt nye muligheder, når det gælder screening og diagnosticering af for eksempel cancer.

Takket være HPC vil vi mennesker altså få adgang til helt ny viden om vores egne kroppe i de kommende år.

Voksende strømforbrug: Fremtidssikrede systemer på tech-virksomheders agenda
Alle forventer en eksponentiel stigning i datamængden i de kommende år, og det kræver naturligvis maskiner, der kan håndtere den hastigt voksende mængde af data. Men der følger miljømæssige udfordringer med den stigning på 1.000 x regnekraft, som exascale-computere vil give os.

Mere regnekraft betyder for eksempel højere energiforbrug, og det medfører større behov for køling, som vi igen skal bruge energi på at drive. Hvis virksomheder vil blive ved med at være bæredygtige, er de derfor nødt til at se sig om efter mere effektive måder at drive deres systemer på.

Heldigvis har mange allerede i dag innovative løsninger som for eksempel vandkøling, der kan køle mere effektivt og sænke strømforbruget med op til 40 procent.

Men der ingen tvivl om, at behovet for supercomputere og de voksende datamængder vil kræve, at vi udvikler endnu mere effektive kølemekanismer.

Den indsigt har fået flere tech-virksomheder til for alvor at sætte skub i udviklingen af strømbesparende systemer, som kan implementeres flere steder i samfundet og sikre, at fremtidige generationer kan opretholde deres levestandard samtidigt med at klimaet belastes mindre.

HPC er kommet for at blive

Lige nu er supercomputere på petascale-niveau og kan klare 1015 eller 1.000.000.000.000.000. beregninger i sekundet.

Men forskerne arbejder allerede på næste store milepæl – exascale, som kan klare 1018 beregninger i sekundet.

Mange forventer, at det mål vil blive nået inden 2030, og at det vil give menneskeheden helt nye muligheder for teknologisk udvikling. Men HPC på petascale-niveau kan altså også gøre en forskel her og nu, når det gælder miljø, sundhed og at finde løsninger på verdens udfordringer – både dem vi kender, og dem, som uden tvivl vil dukke op i fremtiden.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.