Artikel top billede

Edge computing i rummet på standard-hardware: Derfor har vi brug for rum-tech

Klumme: Rumrejser til Mars, NASA og Cape Canaveral rimer ikke rigtig på standardhardware. Men det er der ved at blive lavet om på, for it-teknologi bevæger sig så hurtigt, at specialbygget grej ikke længere giver mening.

Denne klumme er et debatindlæg og er alene udtryk for skribentens synspunkter.

Jeg har tidligere skrevet om Exascale Computing, hvor der leveres masser af FLOPS (Floating Point Operations per Second) på landjorden.

Men det er i sagens natur ikke praktisk at lave et massivt datacenter på ISS – den internationale rumstation, da der hverken er plads eller strøm nok.

Så hvad gør man, når man skal lave en ekstrem udgave af Edge-computing, der får sin strøm fra solceller?

ISS er en såkaldt LEO (Low Earth Orbit), og det bevirker, at et radiosignal og dermed muligheden for at transmittere data til jorden kan foretages relativt let og hurtigt.

Men hvis man nu forestiller sig, at man flyver til Mars, så er det selvsamme radiosignal ca. 20 minutter om at nå jorden og lige så lang tid om at nå tilbage igen.

For at imødekomme denne problemstilling, er der brug for at kunne udføre computing lokalt, så det kun er nødvendigt at overføre begrænsede mængder data.

Samtidig er der behov for at kunne gøre det på almindeligt kommercielt tilgængeligt udstyr til almindelige markedspriser. Præcist, som man ville gøre det på landjorden.

Den primære forskel er, at beregninger på landjorden snart kan foretages på exaFLOP-niveau, mens beregninger i rummet lige nu kun kan foretages på teraFLOP-niveau.

Den datakraft leveres af ganske almindelige Apollo 40-servere. Og ja, det er i sagens natur lidt morsomt, at serien hedder Apollo, men sådan er det nu engang.

Apollo 40-servere er designet til HPC, og det er kun rack’et, der er specielt lavet til ISS.

Selve serveren er helt almindelig, men der skulle naturligvis foretages en række tests, der skulle vise, om Apollo 40’erne kunne fungere i det barske miljø, som rummet nu engang er.

Grunden til, at man har valgt at fokusere på kommercielt tilgængeligt udstyr, er, at man traditionelt har benyttet stærkt modificerede computere på rummissioner, og disse har været forældet, inden de blev sendt op i rummet.

Hvordan er det så gået? Efter næsten et år på ISS i 400 kilometers højde og cirka 5.000 ture rundt om jorden, så virker Apollo 40-serverne som de skal.

Ét år er ikke nogen tilfældig benchmark.

Det er cirka den tid, det vil tage at rejse til Mars. Men der har også været nogen erfaringer undervejs:

- Det at skrive software på jorden og i rummet er to forskellige discipliner. På jorden har man næsten altid en netværksforbindelse, mens man i rummet kun har en netværksforbindelse en gang i mellem.

- Astronauter er ikke nødvendigvis it-eksperter. På jorden har vi såkaldte CRU’s (Customer Replaceable Units), mens man i rummet har været nød til at lave såkaldte ARU’s (Astronaut Replaceable Units).

- Baggrundsstrålingen i rummet varierer. Således kan komponenter køres op og ned i hastighed, så de kan tilpasses den aktuelle baggrundsstråling-situation.

- Efter et år på ISS er serverne kommet retur til jorden for en detaljeret undersøgelse.

Og uanset hvad, så er kommercielt tilgængelige computere i rummet en ting, der skal testes grundigt.

Man kan sammenligne det med månelandingen. Det startede med Mercury-missionerne, fortsatte med Gemini-missionerne for så at ende med Apollo-missionerne. Selv med Apollo-missionerne så tog det 11 ture, før man endelig kunne lande på månen.

Og det er langt fra sikkert, at nutidens Apollo 40-servere er de servere, vi ser i fremtiden i rummet.

HPE er ved at udvikle såkaldte Memory Driven-computere (læs om det her).

Memory Driven computing er karakteriseret ved, at de er ekstremt højtydende og har et meget lavt strømforbrug.

Men man kan jo spørge sig selv, hvorfor man så er startet med almindelige Apollo 40-servere? Svaret er ligetil: Fordi det er det bedste, der kan leveres lige nu.

Men udviklinghen i it-branchen står som bekendt aldrig stille, og derfor skulle man starte med det bedste der var tilgængeligt.

Man kan også spørge sig selv om, hvem der har fordel af alt dette?

Fordelene kommer både rumforskningen og os jordboere til gode. NASA får HPC-computerkraft i rummet, og HPE’s kunder på jorden får endnu mere robuste servere, da vi nu har erfaringer med at drive dem i rummet.

Og så skal man huske på, at en hel del af den teknologi, vi anvender på jorden i dag, faktisk er udviklet til brug i rummet.

Her tænker jeg blandt andet på skærme, der kan modstå ridser, insulinpumper, solceller, trådløse headsets, kameratelefoner, LED-belysning og så videre.

Du kan se en mere komplet liste her: https://en.wikipedia.org/wiki/NASA_spinoff_technologies.

Faktum er, at hvis vi ikke kaster os ud i eksperimenter i rummet, vil der være langt færre teknologier tilgængelige her på jorden

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.