Artikel top billede

Der findes altså ikke ægte AI - vi har bare masser af smarte systemer, der kan assistere: Så pas på

Klumme: Vi kaster om os med begrebet AI, eller kunstig intelligens, men vi er slet ikke dér endnu. Og ved at bruge begrebet AI tillægger vi software og algoritmer alt for mange kompetencer, og det vil ramme os selv i den sidste ende.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Kunstig intelligens eller AI, som vi som oftest betegner det, er et begreb, som vi anvender i flæng – uanset om det handler om automatiske indstillinger i kameraet i din nye smartphone, produktionssystemer eller sikkerhedsprodukter.

Overalt ser vi, hvordan AI bliver brugt som den software, der gør enhederne smartere.

Men nu skal vi altså lige trykke en anelse på bremsepedalen, for der er stadig lang vej, til vi opnår ægte AI - kunstig intelligens.

Vi har masser af smarte systemer, der kan assistere, men det er ikke kunstig intelligens.

Vi snakker stadig om machine learning, om algoritmer, der nok er smarte og kan hjælpe med til mange beslutninger og valg. Men det gør det ikke til intelligens, kunstig eller ej.

Det, som vi så flot kalder for AI i dag, er stadig en samling matematiske algoritmer og ikke noget, som vi kan sammenligne med den menneskelige intelligens.

Der er stadig langt til vi kan sige, at vi er bare tæt på at kunne efterligne menneskelig intelligens.

Softwaren kan nok tage nogle rationelle beslutninger, som er baseret udelukkende på data, men følelserne mangler - muligheden for at tage mavefornemmelsen med, at lytte til følelserne og intuitionen.

Og så længe vi ikke kan det, så har vi ikke kunstig intelligens. Vi har smarte systemer, der nok kan lære noget, men det er og bliver machine learning, ikke AI.

Vigtigt at forstå forskellen

I min verden, altså it-sikkerhed, bruger vi ML (machine learning) meget og ofte.

Vi bruger den til at understøtte vores researcheres arbejde, til at lette deres beslutninger, men ML får aldrig lov til at tage de endelige beslutninger, som vores udviklere og researchere ender med at tage.

For både AI og ML præsenterer mange falske positiver.

Forskellen er blot, at når vi tænker på det som ML, så ved vi godt, at det er et softwaresystem med de fejl og mangler, det indebærer.

Men tænker vi på det samme softwaresystem som AI, så tillægger vi det menneskelige egenskaber, og vi har en større tilbøjelighed til at stole på det.

Der er ingen tvivl om, at ML er vigtig, når det kommer til it-sikkerhed, og vi bruger det tungt, både hos vores forskere og i de produkter, vi sender ud til vores kunder, men vi kalder det aldrig for AI.

Hvem tager straffen når det går galt?

Når tilliden til et softwaresystem bliver for stor, så sker der også et par andre ting, som vi er nødt til at forstå.

Vi risikerer at give det lov til at tage beslutninger, som vi normalt overlader til mennesker.

Men hvis det går galt, hvem skal så straffes?

Er det det, vi kalder for AI? Eller er det programmørerne bag? Og hvordan kan man overhovedet straffe et AI?

Der kommer nogle helt unikke problemstillinger, som vi er nødt til at have styr på, inden vi kan tillade os at slippe et softwaresystem løs, bare fordi vi kalder det for AI. Moral og etik skal være på plads.

Vi skal også lige overveje, om vi ikke er ved at kaste os hovedløst ud i brugen af ’AI’.

Vi så, hvordan vi med sociale medier først på bagkanten fandt ud af, at det ikke var så smart at give dem alle vores data. Det er noget, som vi nu er ved at rette op på, blandt andet via lovgivning.

Men hvordan bliver det lige med AI? Bliver det endnu vanskeligere at rette op på det, når vi først har implementeret autonome systemer, der tager beslutninger på kryds og tværs? Kan vi overhovedet gøre det?

Det bringer mig tilbage til mit udgangspunkt.

Vi er stadig langt fra at have noget, der kan betegnes som AI, så det skal vi lade være med.

Vi skal kalde det for det, det er, nemlig ML. På den måde holder vi fast i, at det er beslutningsunderstøttende systemer og ikke en intelligens, der kan tage en hurtig beslutning i kritiske situationer.

Og så skal vi gøre vores benarbejde, så vi er klar til at håndtere AI. Hvis vi altså nogen sinde kommer så langt, at vi rent faktisk kan emulere den menneskelige hjerne.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.