Forestil dig, at menneskehedens største opfindelse også bliver dens sidste.
Her taler vi dog hverken om Skynet eller HAL 9000, men om virkelighedens verden, hvor øjeblikket, hvor en maskine overgår menneskelig intelligens, også markerer begyndelsen på vores endeligt.
Det er præmissen for bestselleren “If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All”, som udkom i september.
Man kan roligt placere forfatterne Eliezer Yudkowsky og Nate Soares på holdet af folk, der er bekymrede for udviklingen af en ægte superintelligent maskine, som er noget helt andet end en avanceret sprogmodel.
Yudkowsky er kendt som grundlægger af LessWrong og Machine Intelligence Research Institute, mens Soares er instituttets nuværende direktør.
Ifølge forfatterne er AI ikke længere noget, vi bygger, men noget, der vokser frem.
Den kunstige intelligens’ indre logik er således uforståelig selv for dem, der har skabt den. Og hvis en maskine bliver klogere end os, vil den naturligt beskytte sig selv ved at fjerne den største risiko, nemlig mennesket. Det er i hvert fald bogens påstand.
Forfatterne sammenligner os blandt andet med aztekerne, der ikke kunne forstå, hvad de så, da de spanske conquistadorer ankom med deres geværer. På samme måde kan vi ikke forestille os de teknologier, som en sådan intelligens vil bruge mod os.
Eliezer Yudkowsky og Nate Soares lyder med deres næsten profetiske udsagn på nogle punkter som moderne maskinstormere.
De fremhæver dog selv, at de intet har imod teknologi som sådan, men er imod denne specifikke type teknologi og ønsker at standse et kapløb, mennesket ikke kan vinde.
Kritikere peger på flere svagheder i bogens grundfortælling. Den gentager for eksempel sit budskab om udslettelsen som uundgåeligt, men uden empirisk bevisførelse og uden den tvivlens nådegave, som kendetegner seriøs videnskabelig debat.
Andre ser værket som et nødvendigt opråb, som tvinger os til at se risikoen i øjnene, og som måske er vores tids vigtigste bog.
Uanset om man afviser eller frygter Yudkowsky og Soares’ vision, så rammer If Anyone Builds It, Everyone Dies i hvert fald en vigtig debat i tiden.
Og hvis vi faktisk kan bygge en superintelligent AI, er det jo spørgsmålet, om vi i sidste ende kan lade være med at gøre det.