Exascale computing er for alvor på vej: Vi står på randen af en ny æra

Klumme: Med exascale computing er vi på vej ind i en ny æra, der drives af massive mængder data og dermed massive workloads, som simpelthen ikke kan processes inden for rimelig tid med de teknologier, som er til rådighed i dag.

Denne klumme er et debatindlæg og er alene udtryk for skribentens synspunkter.

Jeg har før brugt lidt spalteplads på at skrive om The Machine og kvantemekaniske computere.

For mens optiske- og kvantemekaniske computere udgør hhv. den nære og den knap så nære fremtid, så er det på sin plads, at bruge lidt tid på nutiden. For hvad er vi ved at implementere lige nu? Og hvad kan vi bruge såkaldte exascale computere til?

Men inden vi kommer så langt, så lad mig lige definere hvad exascale computing er:

De fleste har hørt om 'flops' (Floating-point Operations per Second). Basalt set er en flop et tal for hvor mange beregninger, man kan udføre per sekund.

For mens din lommeregner (hvis du kan huske sådan en) kan udføre nogle få flops, så kan de nyeste supercomputere udføre en milliard milliarder flops. En milliard milliarder svarer til 10 i 18. potens, svarende til et 1-tal efterfulgt af 18 nuller.

Mere regnekraft og mindre strømforbrug
De nyeste supercomputere, som er ved at blive implementeret lige nu, kan udføre cirka 1,5 exaflops. Og for lige at sætte det i perspektiv, så er det estimeret, at for at en computer kan emulere menneskelig intelligens, så skal den kunne levere cirka 1,0 exaflops.

Og ikke nok med, at der skal kunne leveres en ufattelig mængde regnekraft, så skal denne også kunne leveres med et begrænset strømforbrug. Faktisk er vi nede i et strømforbrug på 20-30 megawatt.

For at sætte det tal i perspektiv, så bruger de supercomputere der i er operationelle i dag, væsentlig mere strøm samtidig med, at de leverer meget mindre regnekraft.

Hvis man tager de 500 hurtigste supercomputere, der er operationelle i dag, så leverer du sammenlagt cirka 1 exaflop og det med et strømforbrug på cirka 650 megawatt. Til sammenligning så producerer for eksempel Avedøreværket 810 megawatt.

Fremtidens supercomputere skal således kunne levere meget mere regnekraft og samtidig have et væsentligt lavere strømforbrug.

Og her kommer exascale computing ind.

High performance
Min arbejdsgiver har historisk gjort sig indenfor den såkaldte HPC (high performance computing) verden, men mest på et rent hardwareniveau. Men med opkøbene af henholdsvis Silicon Graphics (SGI) og Cray Computers (Cray) har vi taget et syvmileskridt ind i kernen af HPC-verdenen.

Så hvad er der gang i, og hvorfor er det vigtigt?

Lige nu er der gang i hele tre Cray-baserede implementeringer af exascale computing:
  • Argonne National Laboratory (Aurora projektet, Intel-baseret)
  • Oak Ridge National Laboratory (Frontier projektet, AMD-baseret)
  • Lawrence Livermore National Laboratory (El Capitan projektet, AMD-baseret)
Projekterne forventes færdiggjort i løbet af år 2021 (Frontier og Aurora) og år 2022 (El Capitan).

Den opmærksomme læser vil bemærke, at alle tre projekter udføres i USA af DOE (Department of Energy) laboratorier. Disse forsker i blandt andet kernevåben.

Faktum er, at al udvikling er ekstremt dyrt, og det er næsten altid er et lands forvarsministerium, der finansierer denne. Og det er altså ikke anderledes i denne situation. Vi kan godt tage en debat om atomvåben-spredning, afskrækkelses- og geopolitik, nedrustning etc., men så bliver det offline over en kop kaffe.

Uanset hvad, så er al forskning meget dyr, og var det ikke for tidligere præsident Barack Obamas underskrift tilbage i juli 2015, så ville der ikke være finansiering til de meget store - og dermed meget dyre - HPC-projekter.

Men fortvivl ikke, for selv om ovennævnte laboratorers primære opgave er af forsvarsmæssig karakter, så arbejdes der også på udforskning af verdensrummet, ny medicin, energi, kunstig intelligens etc. Der arbejdes sågar på at bruge nukleare sprængninger for at forhindre, at jorden kolliderer med en asteroide.

Uanset hvad, så er computer-baseret simulering langt bedre end at fyre en rigtig atombombe af. Der har således ikke være en atomsprængning i USA siden 1992. Generelt er atomprøvesprængninger omgærdet af en del mystik og det kan du læse [url= https://en.wikipedia.org/wiki/List_of_nuclear_weapons_tests]mere om her.[/url]

Problemet er også, at mange atomvåben er meget gamle. Og da man ikke længere ønsker at lave en ”live” test af disse, så er det i sagens natur bedre at lave en simulering.

Global liste
Fremtiden i HPC-verdenen kommer faktisk fra grafik.

I de såkaldt ”gamle” dage var al beregning nemlig baseret på CPU-kraft (en central processing unit).

Nutidens og fremtidens HPC er baseret på en kombination af CPU og GPU (en graphics processing unit), da man simpelthen har fundet ud af, at en GPU er meget velegnet til at lave meget store beregninger meget kost-effektivt.

Så når ungerne sidder og spiller på deres spilkonsoller, så har de mere eller mindre uforvarende været med til at drive et teknologisk fremskridt.

Det er i øvrigt ikke kun i USA, at der udvikles exascale computere. Den globale liste ser således ud:

  • Kina (Tianhe-3), planlagt drift i 2020
  • EU (navn ukendt), planlagt drift 2022/23
  • Japan (navn ukendt), planlagt drift i 2020
  • Indien (navn ukendt), planlagt drift senest fem år efter godkendelse af projektet
  • Taiwan (navn ukendt), planlagt drift ukendt
Der er således konsensus på verdensplan omkring exascale computing, som værende helt nødvendig for at kunne opnå væsentlige udviklingsmæssige fremskridt.

Det estimeres, at de ovennævnte lande bruger cirka 70 milliarder kroner på deres respektive exascale projekter.

Exascale computing er det næste omdrejningspunkt i it-verdenen.

Traditionelt har vi været vant til såkaldte ”speedbumbs” når CPU’er, RAM, diske etc. blev hurtigere.

Men når vi snakker exascale computing, så er vi på vej ind i en ny æra. Det, der driver behovet for exascale computing, er massive mængder data og dermed massive workloads. Og disse kan simpelthen ikke processes indenfor rimelig tid, med de teknologier som er til rådighed i dag.

Fremtiden er allerede begyndt.


Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.





mest debatterede artikler

Premium
Aalborg Universitet lukker it-systemer efter muligt cyberangreb: Alle skal skifte adgangskode
Aalborg Universitet har tirsdag lukket ned for alle it-systemer efter, at universitetet frygter at være blevet ramt af et cyberangreb. It-systemerne er ved at blive åbnet igen, men alle studerende og medarbejdere skal nu skifte adgangskode.
Computerworld
Trump kræver pludselig ‘en masse penge’ for at godkende Microsofts køb af TikTok
Præsident Donald Trump siger, at USA skal have ‘en masse penge’, hvis Microsoft skal have grønt lys til at købe kinesiske TikTok. Kina truer med at svare igen.
Job & Karriere
Regner din ferie væk? Brug tiden på at søge en af disse otte stillinger, der er ledige netop nu
Det sjasker ned over hele Danmark. Du kan bruge de våde sommerdage på at søge et af disse otte job, der er ledige lige nu.
White paper
Sådan kan du arbejde effektivt uanset tid, sted og type af enhed
Hvad nu hvis dit arbejde, din information, dine processer og teknologien bag ved, var organiseret på en måde så det passede til din organisation – alt sammen guidet af en intelligent udgave af det digitale arbejdsrum? Det er visionen bag Atea og Citrix´s samarbejde med digital workspace – en smartere og mere effektiv måde at arbejde på. I dette whitetpaper kan du derfor læse om, hvordan du kan skabe et mere effektivt og brugervenligt arbejdsrum uanset tid, sted og enhed. En løsning der på en gang er både enkel og som sætter brugeren i centrum.