AI vil redde verden. Eller udslette os. Eller bare forsvinde igen som andre teknologier før den.
Debatten om kunstig intelligens er præget af stærke holdninger, men ifølge computerforskerne Arvind Narayanan og Sayash Kapoor er der behov for et nyt perspektiv.
Det præsenterer de i bogen “AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t and How to Tell the Difference”.
Bogen tager udgangspunkt i flere former for AI, som har forskellige styrker og svagheder.
Forfatterne skelner mellem tre typer AI: forudsigende (predictive) AI (som træffer beslutninger om mennesker baseret på deres fremtidige adfærd), generativ AI (som kan skabe blandt andet billeder og tekst baseret på beskrivelser) og algoritmer på sociale medier, fx dem der anbefaler indhold.
Ifølge forfatterne er det især forudsigende AI, vi bør være skeptiske over for, dels fordi den er upræcis, dels fordi de ikke tror, at den overhovedet vil virke i fremtiden.
Til gengæld ser de mere potentiale i generativ AI, som gennem lovgivning og nye teknologiske løsninger på det lange løb vil kunne imødekomme sine fejl og samtidig forstærke sine fordele.
Begrebet ”AI snake oil” dækker i bogen over systemer, der lover mere, end de kan holde.
Det er en reference til rejsende kvaksalvere fra det 19. århundrede i USA, der falbød ”snake oil” som en slags universalmiddel mod alt fra gigt til hårtab, typisk uden effekt.
At kunne spotte de AI-løsninger, der ikke kan leve op til løfterne, er ifølge forfatterne af væsentlig betydning, hvis vi fuldt ud skal høste fordelene ved AI og samtidig adressere de potentielle risici.
Gennem eksempler fra den virkelige verden viser bogen, hvordan AI Snake Oil allerede skaber problemer inden for blandt andet uddannelse, medicin, forsikring, bank og retssystem.
Samtidig leverer bogen konkrete eksempler på misbrug og en række råd til, hvordan man navigerer i en verden med tvivlsom AI, herunder hvordan man spotter fup og undgår faldgruber i hverdagen, både professionelt og privat.
Arvind Narayanan og Sayash Kapoor advarer samtidig mod dommedagsretorik, som truer med at aflede opmærksomheden fra de reelle og umiddelbare farer ved AI, som vi møder her og nu.
Du kan høre mere om bogens pointer i videoen her.