Generativ AI – såsom Chat-GPT, Gemini og Copilot – er som bekendt allerede voldsomt populære og kan bruges til alt lige fra at assistere på jobbet og til at finde opskrifter til aftensmad på det, man alligevel har i køleskabet.
Nogle mener, at AI er ved at være så stærk, som vi med rimelighed kan forvente, at den overhovedet kan blive. Om ikke andet så fordi det kræver så mange flere computerkræfter at trække mere ud af teknologien, at det ikke rigtig kan svare sig.
Andre frygter – som forfatteren og filmskaberen James Barrat – at vi nærmer os et teoretisk punkt kaldet The Intelligence Explosion.
Det har han skrevet om i bogen “The Intelligence Explosion: When AI Beats Humans at Everything.”
I dette hypotetiske scenarie er kunstig intelligens i stand til at forbedre sig selv med en hastighed, som gør den til en artificial superintelligence (ASI) eller artificial general intelligence (AGI), der overgår menneskelig intelligens i alle domæner.
Der vil givetvis være en fare for, at vi ikke kan kontrollere sådan en intelligens, og at den dermed – i forsøget på at opnå sine egne mål – vil udgøre en eksistentiel risiko for menneskeheden.
Barrat ser allerede på vores mangel på kontrol af AI i sprogmodellernes velkendte “hallucinationer”, hvor de vrøvler derudaf og opfinder decideret forkerte oplysninger.
Under alle omstændigheder taler forfatteren for en international regulering af kunstig intelligens. På den måde vil teknologien kunne udvikles på et stabilt grundlag og have værdier som ligger i overensstemmelse med vores egne.
Han retter desuden kritik mod de store techvirksomheder, som han mener er i gang med at udvikle en teknologi, som de ikke selv kan forstå eller kontrollere. De fokuserer nemlig ifølge ham i højere grad på profit end på etik og sikkerhed.
Samtidig erkender forfatteren dog også det enorme potentiale ved at anvende AI inden for medicin, videnskab og teknologi, gennem f.eks. proteinfoldning og automatisering.
Bogen udkommer 2. september, og i videoen her fortæller forfatteren lidt om, hvad læseren kan forvente.