Det virker måske umiddelbart som en temmelig krævende opgave at skulle finde rundt i hvordan kunstig intelligens kan lære af datasæt.
Men faktisk er matematikken bag ikke særlig svær. I hvert fald ikke ifølge forfatteren Anil Ananthaswamy, der står bag bogen “Why Machines Learn: The Elegant Math Behind Modern AI”.
Med bogen forsøger forfatteren at give læseren et kendskab til den del af kunstig intelligens – maskinlæring – som handler om, hvordan maskiner selv kan lære at skelne mønstre i datasæt.
Bogen giver et indblik i maskinlæringens historie, lige fra introduktionen af den såkaldte perceptron – en kunstig model af et menneskeligt neuron – i 1950’erne til de neurale netværk, som vi har i dag.
Samtidig beskæftiger den sig med matematiske discipliner som lineær algebra, sandsynlighed og statistik samt optimeringsteori i sit forsøg på at skabe en forståelse for de evner, som kunstig intelligens besidder.
Matematikken inkluderer blandt andet centrale begreber som gradient nedstigning (hvordan modeller kan lære at minimere fejl og forbedre deres forudsigelser) og Bayes teorem (en matematisk formel for at opdatere sandsynligheden for et givent udfald, når nye beviser kommer til).
Desuden introducerer forfatteren begrebet backpropagation, som er nøglealgoritmen hvad angår træning af neurale netværk med flere forskellige lag.
Det lyder måske alt sammen frygtelig teoretisk, og det er det ofte også.
Men forfatterens pointe er, at det kræver en generel forståelse for maskinlæring, før politikere og beslutningstagere meningsfuldt kan regulere kunstig intelligens på en måde som både tager hensyn til teknologiens potentielle applikationer og til dens begrænsninger.
Derudover hævder han, at matematikken i bogen ikke burde være meget sværere end den, man møder i gymnasiet. Men det kan man måske bedst selv afgøre i interviewet her, hvor nogle af bogens idéer bliver præsenteret.