Artikel top billede

Nu kommer den personlige supercomputer - forbered dig på High Performance Computing on demand

Klumme: Supercomputing er blevet en hyldevare, som kan installeres på få minutter. Demokratiseringen af regnekraft i superligaen har allerede givet bemærkelsesværdige resultater.

Da de første supercomputere så dagens lys i 1960'erne og -70'erne, var det i form af kolossale enkeltstående maskiner med overlegen processor- og regnekraft efter tidens standard.

Jagten på de højtydende computere er fortsat siden, og anvendelsesmulighederne er udvidet i takt med regnekraften.

Supercomputerne varetager alt fra rumforskning og komplekse vejranalyser til 3D-simuleringer af atombombesprængninger, men på grund af deres pris har de historisk set været forbeholdt forskning på eliteuniversiteter eller i højtspecialiserede virksomheder.

I 1990'erne tog supercomputerne imidlertid et massivt spring fremad, da en gruppe amerikanere formåede at forbinde processorkraften fra mindre computere i det første Beowulf-cluster.

Cluster-princippet blev grundstenen til den måde, vi udvikler High Performance Computing (HPC) på i dag. Og teknikken blev også central for udviklingen af cloud computing, hvor regnekraften er rykket ud i skyen.

Fra 10 dollars i timen

I dag har vi adgang til HPC gennem få klik i vores browser.

Et eksempel er Alces Flight, som har gjort supercomputing til en hyldevare. På tre minutter kan du installere en køreklar cloud-baseret supercomputer med hundredvis af specialiserede videnskabelige applikationer, og det er lige så enkelt som at hente en ny app til din smartphone.

Det har givet en demokratisering af HPC, der åbner for helt nye anvendelser for almindelige virksomheder, organisationer og enkeltbrugere.

Før cloud computing skulle forskere booke tid på en supercomputer til store regneopgaver - og betale kæmpe summer for brugen. Det ser helt anderledes ud i dag.

Gængse HPC-services er tilgængelige for forskere, videnskabsfolk, ingeniører og alle, som har brug for det. Der er adgang til tusind cores for helt ned til 10 dollars i timen.

Den første kortlægning af det menneskelige genom kostede omkring syv milliarder dollars at sekvensere i slutningen af 1990'erne - i dag ville den til sammenligning kun koste omkring 1.000 dollars.

Indtil nu har de færreste virksomheder haft mulighed for at eje deres egen supercomputer med de omkostninger, der hører til at opbygge og vedligeholde systemerne. Men nu, hvor regnekraften i skyen er blevet billig og mere effektiv, kan alle virksomheder have gavn af adgangen til HPC på ad hoc-basis, hvor der kun betales for den tid, der bruges.

Supercomputing bliver en on demand-ydelse ligesom filmstreaming, online-musikafspilning eller billeasing.

Nye anvendelser

I takt med at HPC i skyen gør regnekraft tilgængelig for alle interesserede, blomstrer en række spændende initiativer, som tidligere ikke har været mulige.

Et godt eksempel er fra Oxford University, hvor forskere har brugt HPC i skyen til at analysere satellitbilleder af jordskælv i Ecuador for lynhurtigt at få overblik over, hvor skaderne fra skælvet var størst. Det gjorde det muligt for redningsfolk straks at rykke ud til de steder, der var værst ramt.

Medicinalvirksomheden Novartis bruger HPC i skyen til at identificere egnede kemiske forbindelser til bekæmpelse af kræftceller. En intensiv beregning på 87.000 cores gjorde det muligt at gennemføre, hvad der svarer til 39 års beregninger på ni timer til en samlet pris på 4.232 dollars. 10 millioner forbindelser blev screenet, og tre af dem viste et positivt resultat.

Det amerikanske partikelfysik-laboratorium FermiLab, som medvirkede ved opdagelsen af Higgs-partikel ("den guddommelige partikel") for et par år siden, har tilført fleksibel regnekraft til sin egen supercomputer. Laboratoriet tilførte 58.000 cores fra skyen - hvilket svarer til en firedobling af FermiLabs egen regnekraft - og den ekstra kapacitet blev brugt til Monte Carlo-simuleringer.

Der blev simuleret mere end 500 millioner udfald over 10 dage gennem 2,9 millioner kørsler. Uden regnekraften fra skyen ville Fermilab selv skulle have brugt seks uger på opgaven.

HPC som plug and play

I de kommende år vil vi efter alt at dømme se, at HPC bliver en helt naturlig del af mange menneskers arbejde - som et redskab på lige fod med tekst- og billedbehandlingsprogrammer.

Demokratiseringen vil betyde, at det i endnu højere grad er anvendelsesmulighederne, der kommer i fokus - og ikke bare teknologien bag.

Vi er vant til at bruge komplekse apparater uden at tænke videre over, hvordan de egentlig fungerer. Det samme bliver tilfældet med HPC.

Ligesom vi bruger en stikkontakt i væggen, vil vi forbinde os til skyen og bruge de muligheder, HPC giver, når vi har behov for det.

Adgangen til datakraft vil understøtte innovation, der i sidste ende kan redde liv eller ændre verden. Det er en spændende verden, og vi har kun lige set begyndelsen.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling. 

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt? 

Læs vores klumme-guidelines og send os noget tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.