Artikel top billede

(Foto: Dan Jensen)

Der skal mere etik i kunstig intelligens

Klumme: AI er på mange måder en gevinst for både virksomheder, myndigheder og forbrugere, men med teknologiens indtog følger et væsentligt dilemma: Hvordan forhindrer vi, at brugerdata anvendes til at træffe beslutninger, der kan forstærke eksisterende samfundsmæssige skævheder? Her er tre råd til en mere etisk brug af AI.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Kunstig intelligens er i hurtig fremmarch og fylder mere og mere i store dele af vores arbejdsliv og fritid.

Det hænger naturligt sammen med virksomhedernes investeringsvilje i teknologien.

For eksempel forudser analysevirksomheden IDC, at investeringen i AI på globalt plan vil blive fordoblet de næste par år og nå hele 110 milliarde dollar i 2024 (fra et niveau på 50 milliarder dollar i 2020).

De fleste har da også vænnet sig til, at AI er en integreret del af den digitale nutid og fremtid.

I en undersøgelse fra Salesforce svarer 46 procent af forbrugerne, at de kan komme i tanke om et eksempel på AI, de bruger hver dag. I 2019 var det 40 procent

Men samtidig er flere og flere forbrugere blevet skeptiske omkring, hvordan virksomhederne bruger AI.

Ifølge førnævnte undersøgelse svarer hele 65 procent, at de er bekymrede for uetisk anvendelse af AI. 54 procent tilkendegiver, at de er bekymrede over potentiel indbygget bias.

AI bør give anledning til kritisk refleksion

Den voksende tilstedeværelse af AI bør få os, der arbejder med teknologien, til at reflektere over dens indflydelse og implikationer på det politiske, økonomiske, sociale og frem for alt etiske område.

Kunstig intelligens kan nemlig erstatte både ufaglært og højtspecialiserede medarbejdere.

Det kan automatisk sortere CV'er ved ansættelsesprocedurer. Baseret på demografi og data kan AI også forudsige, hvilke borgere, som med størst sandsynlighed vil lave skatteunddragelse og svig med velfærdsydelser.

Farerne for en utilsigtet stigmatisering lurer i horisonten, når maskiner selv kan træffe beslutninger og drage konklusioner baseret på algoritmer og data.

Derfor er det uhyre væsentligt, at man lægger et menneskeligt sikkerhedsnet ud under AI-teknologien, så enkeltpersoner ikke utilsigtet påvirkes, diskrimineres eller udelukkes på baggrund af deres køn, alder eller race.

Undgå forstærkning af skævheder

Den største udfordring, organisationer står over for i implementeringen af AI-drevne løsninger, er altså at undgå, at brugerdata anvendes til at træffe beslutninger, der kan forstærke eksisterende samfundsmæssige skævheder og forårsage skade i den "virkelige verden".

EU-kommissionen er for nylig kommet med sit udspil til regulering af kunstig intelligens. Samtidig ser vi flere og flere teknologivirksomheder, som er begyndt at vedtage etiske kodeks for at løse problemer, der kan opstå med hensyn til indsamling, behandling og brug af personoplysninger i automatiserede processer.

At inkorporere et sæt etiske spilleregler er dog ikke nogen let opgave.

I en Capgemini-undersøgelse svarede 41 procent af de adspurgte ledere, at de havde droppet et AI-system, når de stødte på et etisk problem, de ikke vidste, hvordan de skulle løse.

Tre trin til mere etisk brug af AI

Inden man omfavner AI-teknologiens mange positive aspekter, anbefaler jeg derfor, at man overvejer følgende tre punkter for at indarbejde en etisk kultur i sin AI-teknologi og anvendelsen heraf.

1. Øg gennemsigtigheden
61 procent af forbrugerne svarer ifølge vores undersøgelse, at de føler, de ikke har kontrol over, hvordan deres data anvendes.

Det er en stigning på 15 procentpoint fra 2019. Det til trods for implementeringen af EU’s fælles GDPR-regler.

Ikke overraskende ønsker hele 86 procent mere gennemsigtighed fra virksomhedernes side.

At skabe mere transparens handler ikke kun om at give brugerne kontrol over deres data, hvis de anmoder om det. Hvis beskyttelse af brugernes privatliv er en virksomhedsværdi, skal medarbejderne – ikke kun på ledelsesgangene – efterleve denne forpligtelse.

2) Sammensæt et mangfoldigt team
At bringe ansatte sammen med forskellige baggrunde og kompetencer i forbindelse med opsætning, implementering og brug af AI kan medvirke til at forhindre bias.

Et mangfoldigt team har for eksempel gode forudsætninger for at sikre, at algoritmen fodres med korrekt data og identificere, hvorvidt kombinationer af inputdata kan resultere i et uønsket udfald.

Desuden er det vigtigt at involvere interessenter på hvert trin i produktudviklingscyklussen for at korrigere virkningen af systemiske sociale uligheder i AI-data samt forhindre ulovlig forskelsbehandling.

3) Undgå at udelukke
Virksomheder skal have fokus på inklusion og forsøge helt at undgå bias. Det handler for eksempel om at være forsigtig med at træffe beslutninger udelukkende baseret på demografi.

For selv når tilpasning eller målretning af reklamer er præcis – for eksempel makeup til kvinder – kan potentielle kunder blive overset eller ubevidst fornærmet.

Når vi først har identificeret denne bias i forretningsprocesser eller beslutningstagning, skal vi fjerne den, inden vi bruger disse data til at træne andre AI-systemer.

Virksomheder kan opnå dette ved at fokusere på tre nøgleområder: medarbejderuddannelse, produktudvikling og kundetræning.

For forbrugernes, virksomhedernes og samfundets skyld har vi brug for, at AI er nøjagtig og fair.

Det betyder, at vi må eliminere så mange indbyggede bias som muligt.

Det er organisationernes ansvar at sikre retfærdige og nøjagtige datasæt.

Det er en løbende indsats, der kræver opmærksomhed, investering og engagement. Men i min optik er det helt nødvendigt.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling. Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.