Derfor crasher lufthavne og it-systemer:Opdatering fra Crowdstrike har ramt Microsofts systemer i hele verden

Artikel top billede

(Foto: Computerworld)

Om 11 år bliver din hjerne simuleret

I 2029 vil en computer være så kraftig, at den kan simulere alle dele af den menneskelige hjerne, og 16 år senere vil maskinen være klogere end mennesket på alle områder. Lyder det godt eller som en trussel? Menneskeheden står foran sin måske allersidste opfindelse.

Af Aksel Brinck, Alt om Data

Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.

Er menneskeheden på vej mod sin allersidste opfindelse? Ifølge den fremtrædende svenske teknologifilosof Nick Boström kan det meget vel være tilfældet. Han er foruroliget over udviklingen inden for kunstig intelligens.

Ifølge Boström er maskinintelligens den sidste opfindelse, vi behøver gøre. Men vi skal tage os i agt. Hans skrækvision er, at kunstig intelligens vil overtage verden og skubbe mennesket til side. Det vil ikke ske i en fjern fremtid, men om ganske få årtier, frygter han.

Filosoffen er ikke alene med sine anelser. Også andre prominente erhvervsfolk og videnskabsmænd har hævet det gule flag. Det er personer som erhvervspioneren Elon Musk, Windows-bagmanden Bill Gates og fysikeren Stephen Hawking.

Men hvad er baggrunden for den ubehagelige vision? Er det bare tågede science fiction-fantasier? Ikke ifølge Ray Kurzweil. Han er en alsidig mand, der i 1980’erne stod bag Kurzweil-synthesizeren.

I dag arbejder han for Google som udviklingschef, men er måske mest kendt som forfatteren bag bogen The Singularity is Near, hvor han agerer futurolog og forudser en fremtid, hvor kunstig intelligens overgår mennesket på stort set alle parametre.

Kurzweil har regnet på udviklingen i processorkraft. Den vokser eksponentielt, så det går ikke bare hurtigt, men hurtigere og hurtigere, indtil stigningskurven nærmest står lodret. Kurzweils tese er, at maskinintelligensen i 2045 vil være en milliard gange større end i dag.

Når det sker, rammer vi ”singulariteten”, det punkt, hvor kunstig skabt intelligens kan matche den menneskelige hjerne ikke kun på udvalgte områder, men i alle de situationer og ved alle de opgaver, en maskine bliver udsat for.

Hjernen er for langsom

Allerede i 2029 – det er om 11 år – vil maskiner kunne klare den såkaldte Turing-test: En computer vil kunne overbevise et menneske (der ikke kan se den) om, at den selv er et menneske.

Computere med AI (Artificial Intelligence) kan så ifølge Kurzweil simulere alle dele af den menneskelige hjerne. Det vil gøre det muligt at udvikle algoritmer, som eftergør alle den menneskelige hjernes evner, herunder den emotionelle intelligens.

Den menneskelige hjerne er faktisk ikke særlig kraftfuld. Ifølge Nick Boström arbejder den med en frekvens på 200 Hz, og signalerne går gennem nervebanerne med cirka 100 meter i sekundet.

Det er sneglefart i forhold til selv nutidens computere, der arbejder med frekvenser på gigahertz-niveau, og hvor signalhastigheden er tæt på lysets hastighed. Hjernens størrelse er tilmed begrænset af hjerneskallen, hvor en computer kan blive ligeså stor som et hus, hvis der er behov for det.

Vi vil kunne fjerne alderdommen, vi vil kunne flytte ud i rummet, vi kan skabe selv-replikerende ting som nanorobotter og uploade hjerner til computere, mener Boström. Alle disse ting ligger inden for de fysiske loves grænser; det er muligt. Alt dette kunne en superintelligens udvikle og formentlig ret hurtigt.

Men det er ikke nødvendigvis betryggende. For som Boström sagde i et foredrag for nylig: Chimpanser bekymrer sig om chimpanser og mennesker om mennesker. Hvem mon en super-intelligens vil bekymre sig om – chimpanser, mennesker eller andre super-intelligenser?

Ray Kurzweil er modsat Nick Boström optimist. Han ser for sig, at maskinintelligensen og mennesket kommer til ikke blot at samarbejde, men til at smelte sammen ved hjælp af en eller anden form for biologisk interface.

På den måde vil mennesket få adgang til nærmest uendelig mængder af hjernekapacitet og viden. Allerede nu er den udvikling på en måde i gang. For de fleste moderne mennesker er mobiltelefonen blevet en forlængelse af intelligensen.

Interfacet er stadig synet og hørelsen, men vi får løst en lang række opgaver og udfordringer og har tilgang til kolossale mængder af viden takket være den handy computer, vi alle bærer rundt på. Men det er altså bare begyndelsen.

Moore’s lov skal holde

En afgørende forudsætning for, at disse visioner bliver til virkelighed er, at Moore’s lov stadig gælder. Denne ”naturlov” for computerelektronik er opkaldt efter en af processorgiganten Intels stiftere, Gordon Moore, der i 1965 i et interview med det amerikanske magasin Electronics Magazine slog fast, at transistorer skrumpede med så høj en hastighed, at der hver 18. måned kunne være dobbelt så mange af dem på en chip.

Måske sagde han i virkeligheden hver 24. måned, hævdes det. Der findes ikke noget eksemplar af magasinet længere, som kan dokumentere det. Under alle omstændigheder har Intel – stadig den førende producent af pc- og serverchips – været i stand til at overholde ”loven”. Og resten af chipindustrien har fulgt med.

Men det kan Intel eller selskabets konkurrenterne måske ikke længere. For der er grænser for, hvor meget man kan skrumpe de elektroniske baner, før elektronerne synes, at pladsen er for trang og så at sige ryger af sporet.

Kunstig klogskab er allerede taget i brug

Kunstig intelligens, maskinlæring og AI er begreber, der benyttes om klog computerteknologi, især om systemer, der kan lære af egne erfaringer. Allerede i dag er teknologien vidt udbredt i nicher.

Gmail fjerner spam med AI, Facebook har avanceret ansigtsgenkendelse, Amazon viser relevante produkter ved søgninger, Deloitte lader AI kigge kontrakter igennem for risici, den danske ingredienskoncernen Chr. Hansen får forslag til nye ingredienser, og din mobiltelefon har flere erfaringsbaserede apps – for blot at nævne ganske få eksempler.

Der er også grænser for, hvor meget man softwaremæssigt kan forøge hastigheden, så man trods de fysiske begrænsninger kan fortsætte med at fordoble hastigheden.

For to år siden annoncerede Intel, at man ville opgive at fordoble antallet af transistorer på et givet område hvert andet år. På det tidspunkt var de elektriske ledere i Intels chipkredsløb nede på bredden 14 nanometer (en nanometer er en milliardtedel af en meter, og et menneskehår er cirka 100.000 nanometer tykt).

Intel forklarede, at man inden for fire år måtte skifte til en anden teknologi, hvis drømmen om en fordobling hvert andet år skulle kunne blive en realitet.

En af disse teknologier er tunnel-transistorer, som udnytter kvantemekaniske fænomener, men Intel har endnu ikke annonceret, hvilket fremtidigt alternativ, man rent faktisk vil forfølge.

Intel har også andre forhold end hastighed at tage hensyn til – ikke mindst pris og energiforbrug. Alligevel arbejdes der endnu på at presse mere ydelse ud af de eksisterende mosfet-transistorer, og Intel forventes at sende de første 10-nanometerchips på markedet i begyndelsen af 2019.

I løbet af nogle år vil også 7 nanometer-chips være på markedet, og chipproducenterne kan sikkert kommer længere ned endnu med kendt teknologi. Men det går langsommere og langsommere og på et tidspunkt går den udvikling i stå, fordi ikke kun de teknologiske problemer hober sig op, men også problemerne med at holde varmeudviklingen og ikke mindst prisen nede.

Grænserne bliver brudt ned

Men udviklingsoptimisten Kurzweil ser ikke dette som nogen reel udfordring. Han peger på, at man altid har opfundet nye teknologier, når de gamle blev til en spændetrøje. Grænserne er altid blevet brudt ned.

Radiorøret eller elektronrøret afløste mekaniske løsninger. Transistoren og integrerede kredsløb afløste radiorøret. Når behovet opstår, vil den moderne, siliciumbaserede mosfet-transistor – eller den såkaldte 3D-variant FinFET – blive afløst af noget andet og mere effektivt, argumenterer optimisterne.

Menneske-testen

Hvordan ved man egentlig, om en computer er intelligent som et menneske? Den berømte engelske matematiker Alan Turing foreslog i 1950 en metode, som man kalder Turing-testen.

Testen er ganske simpel: En computer og et menneske fjernkommunikerer, og hvis mennesket under denne (skriftlige) dialog opfatter computeren som et menneske, har computeren bestået prøven. Endnu er det ikke under kontrollerede forsøg lykkedes nogen maskine at overbevise et menneske.

Generelt arbejdes der dog lige nu med at udvikle kredsløb i ”3D”, hvor man placerer kredsløb oven på hinanden.

Et andet princip, der forskes i for tiden, er mikrosmå rør af kulstof – oftest betegnet carbon nanotubes eller CNT – der principielt kan give plads til langt flere transistorer end med hidtil anvendte metoder.

Fujitsu Semiconduc-tor har annonceret, at en hukommelseschip med denne teknologi sendes på markedet her i 2018, men egentlige processorer har ifølge iagttagere endnu lang udsigt.

Hardware er ikke nok

De færreste forskere, der studerer AI, tvivler på, at maskinintelligensen på et tidspunkt vil kunne udføre alle eller næsten alle de opgaver, som et menneske kan. Til gengæld er der stor forskel på deres vurdering af, hvornår det sker.

Nick Boström udførte for nogle år siden en undersøgelse blandt fagfolk inden for området. 10 procent af deltagerne mente, at HMLI (Human-Level Machine Intelligence) vil blive nået i 2022 – defineret som ”en maskine, der kan udføre de fleste menneskelige arbejdsopgaver mindst ligeså godt som et typisk menneske”.

Ved årstallet 2040 var 50 procent af forskerne med på ideen. Men man skulle frem til årstallet 2075, før 90 procent var enige om, at HLMI var opnået.

Associeret professor ved IT Universitet i København Sebastian Risi stiller sig skeptisk over for meget konkrete forudsigelser af, hvornår maskinintelligens er mere eller mindre klogere end mennesker.

”Der er svært at fastsætte et specifikt tidspunkt. I dag har vi ansigtsgenkendelse i for eksempel smartphones, og Google kan oversætte virkelig godt mellem sprog. Men det er systemer, som yder godt inden for en niche. Det er smal AI,” siger han.

Hvis visionen om superintelligens skal blive til virkelighed, vil det kræve hurtigere elektronik. Kulstofrør som i Fujitsus Nantero Nram er en af vejene frem.

Det handler om algoritmer

Faktisk er nutidens AI ikke særlig begavet. ”Hvis du sætter en kunstig intelligent computer til at kende forskel på et billede af en banan og en pistol, kan den nemt tage fejl. Og hvis den gætter rigtigt, og du så ændrer ganske få pixel i et af billederne, tager den måske fejl igen,” forklarer Sebastian Risi.

”Selv primitive insekter har langt bedre intuition og større intelligens, end noget som helst vi har skabt ved hjælp af computere. Et insekt eller et andet dyr som en hund kan for eksempel kompensere for det, hvis de kommer til skade. Det kan en maskine ikke,” føjer han til.

Ifølge Sebastian Risi handler det ikke særlig meget om hardware. ”Om vi så havde en million computere, ville vi ikke vide, hvordan vi skulle opbygge en generel intelligens som i mennesker. Vi har endnu ikke fundet ud af, hvordan det skal gøres. Det er for simpelt bare at kigge på computerkraft.”

”Vi har brug for nye algoritmer: Hvordan skal systemet lære af erfaringer? Et barn kan lære at kende forskel på en bil og en cykel. Vi skal bare fortælle det en eller måske to gange. En computer har brug for en million gange, en million eksempler,” siger Sebastian Risi.

3 trin til superintelligens

1 Smal AI Kunstig intelligens på ét bestemt område. Også kaldet ”weak AI”.

2 Generel AI En maskine, som kan udføre enhver opgave ligeså godt som et menneske. Også kaldet ”strong AI”.

3 Super-AI En maskine med kunstig superintelligens, der er klogere end ethvert menneske uanset opgave.

Han er dog ikke i tvivl om, at der 10-20 år frem i tiden vil komme en tættere integration mellem den menneskelige hjerne og computerteknologi – også i fysisk forstand.

”Computere og mennesker vil begynde at løse ting sammen. Mennesker har intuitionen, og computerne har de rå kræfter. Der vil blive udviklet en hybrid intelligens.”

”Biologi og elektronik vil smelte sammen. Vi vil selvfølgelig have brug for at udvikle et interface. Men maskinintelligensen vil komme til at hjælpe mennesker med at lære bedre ved hjælp af ekstern hjernestimulation. Vi vil for eksempel blive i stand til at foretage beregninger lynhurtigt.”

”Alt dette vil kunne lade sig gøre. Spørgsmålet er så blot, om vi virkelig ønsker det,” siger Sebastian Risi.