Der skal mere etik i kunstig intelligens

Klumme: AI er på mange måder en gevinst for både virksomheder, myndigheder og forbrugere, men med teknologiens indtog følger et væsentligt dilemma: Hvordan forhindrer vi, at brugerdata anvendes til at træffe beslutninger, der kan forstærke eksisterende samfundsmæssige skævheder? Her er tre råd til en mere etisk brug af AI.

Artikel top billede

(Foto: Dan Jensen)

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Kunstig intelligens er i hurtig fremmarch og fylder mere og mere i store dele af vores arbejdsliv og fritid.

Det hænger naturligt sammen med virksomhedernes investeringsvilje i teknologien.

For eksempel forudser analysevirksomheden IDC, at investeringen i AI på globalt plan vil blive fordoblet de næste par år og nå hele 110 milliarde dollar i 2024 (fra et niveau på 50 milliarder dollar i 2020).

De fleste har da også vænnet sig til, at AI er en integreret del af den digitale nutid og fremtid.

I en undersøgelse fra Salesforce svarer 46 procent af forbrugerne, at de kan komme i tanke om et eksempel på AI, de bruger hver dag. I 2019 var det 40 procent

Men samtidig er flere og flere forbrugere blevet skeptiske omkring, hvordan virksomhederne bruger AI.

Ifølge førnævnte undersøgelse svarer hele 65 procent, at de er bekymrede for uetisk anvendelse af AI. 54 procent tilkendegiver, at de er bekymrede over potentiel indbygget bias.

AI bør give anledning til kritisk refleksion

Den voksende tilstedeværelse af AI bør få os, der arbejder med teknologien, til at reflektere over dens indflydelse og implikationer på det politiske, økonomiske, sociale og frem for alt etiske område.

Kunstig intelligens kan nemlig erstatte både ufaglært og højtspecialiserede medarbejdere.

Det kan automatisk sortere CV'er ved ansættelsesprocedurer. Baseret på demografi og data kan AI også forudsige, hvilke borgere, som med størst sandsynlighed vil lave skatteunddragelse og svig med velfærdsydelser.

Farerne for en utilsigtet stigmatisering lurer i horisonten, når maskiner selv kan træffe beslutninger og drage konklusioner baseret på algoritmer og data.

Derfor er det uhyre væsentligt, at man lægger et menneskeligt sikkerhedsnet ud under AI-teknologien, så enkeltpersoner ikke utilsigtet påvirkes, diskrimineres eller udelukkes på baggrund af deres køn, alder eller race.

Undgå forstærkning af skævheder

Den største udfordring, organisationer står over for i implementeringen af AI-drevne løsninger, er altså at undgå, at brugerdata anvendes til at træffe beslutninger, der kan forstærke eksisterende samfundsmæssige skævheder og forårsage skade i den "virkelige verden".

EU-kommissionen er for nylig kommet med sit udspil til regulering af kunstig intelligens. Samtidig ser vi flere og flere teknologivirksomheder, som er begyndt at vedtage etiske kodeks for at løse problemer, der kan opstå med hensyn til indsamling, behandling og brug af personoplysninger i automatiserede processer.

At inkorporere et sæt etiske spilleregler er dog ikke nogen let opgave.

I en Capgemini-undersøgelse svarede 41 procent af de adspurgte ledere, at de havde droppet et AI-system, når de stødte på et etisk problem, de ikke vidste, hvordan de skulle løse.

Tre trin til mere etisk brug af AI

Inden man omfavner AI-teknologiens mange positive aspekter, anbefaler jeg derfor, at man overvejer følgende tre punkter for at indarbejde en etisk kultur i sin AI-teknologi og anvendelsen heraf.

1. Øg gennemsigtigheden
61 procent af forbrugerne svarer ifølge vores undersøgelse, at de føler, de ikke har kontrol over, hvordan deres data anvendes.

Det er en stigning på 15 procentpoint fra 2019. Det til trods for implementeringen af EU’s fælles GDPR-regler.

Ikke overraskende ønsker hele 86 procent mere gennemsigtighed fra virksomhedernes side.

At skabe mere transparens handler ikke kun om at give brugerne kontrol over deres data, hvis de anmoder om det. Hvis beskyttelse af brugernes privatliv er en virksomhedsværdi, skal medarbejderne – ikke kun på ledelsesgangene – efterleve denne forpligtelse.

2) Sammensæt et mangfoldigt team
At bringe ansatte sammen med forskellige baggrunde og kompetencer i forbindelse med opsætning, implementering og brug af AI kan medvirke til at forhindre bias.

Et mangfoldigt team har for eksempel gode forudsætninger for at sikre, at algoritmen fodres med korrekt data og identificere, hvorvidt kombinationer af inputdata kan resultere i et uønsket udfald.

Desuden er det vigtigt at involvere interessenter på hvert trin i produktudviklingscyklussen for at korrigere virkningen af systemiske sociale uligheder i AI-data samt forhindre ulovlig forskelsbehandling.

3) Undgå at udelukke
Virksomheder skal have fokus på inklusion og forsøge helt at undgå bias. Det handler for eksempel om at være forsigtig med at træffe beslutninger udelukkende baseret på demografi.

For selv når tilpasning eller målretning af reklamer er præcis – for eksempel makeup til kvinder – kan potentielle kunder blive overset eller ubevidst fornærmet.

Når vi først har identificeret denne bias i forretningsprocesser eller beslutningstagning, skal vi fjerne den, inden vi bruger disse data til at træne andre AI-systemer.

Virksomheder kan opnå dette ved at fokusere på tre nøgleområder: medarbejderuddannelse, produktudvikling og kundetræning.

For forbrugernes, virksomhedernes og samfundets skyld har vi brug for, at AI er nøjagtig og fair.

Det betyder, at vi må eliminere så mange indbyggede bias som muligt.

Det er organisationernes ansvar at sikre retfærdige og nøjagtige datasæt.

Det er en løbende indsats, der kræver opmærksomhed, investering og engagement. Men i min optik er det helt nødvendigt.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling. Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.

Læses lige nu

    Capgemini Danmark A/S

    Open Application (Denmark)

    Københavnsområdet

    Lessor Group

    Business Analyst for our Danløn Scrum team

    Københavnsområdet

    Forsvarsministeriets Materiel- og Indkøbsstyrelse

    Cyberdivisionen søger IT-Supporter til Flyvestation Karup

    Midtjylland

    Annonceindlæg fra Computerworld

    Dansk erhvervsliv er en del af frontlinjen

    Digitalt forsvar handler ikke blot om det militære men om at beskytte civilsamfundets funktion, påpeger Thomas Nissen i Dansk Erhverv.

    Navnenyt fra it-Danmark

    Norriq Danmark A/S har pr. 1. september 2025 ansat Søren Vindfelt Røn som Data & AI Consultant. Han skal især beskæftige sig med at effektivisere, planlægge og implementere innovative, digitale løsninger for Norriqs kunder. Han kommer fra en stilling som Co-founder & CMO hos DrinkSaver. Han er uddannet Masters of science på Københavns IT-Universitet. Nyt job

    Søren Vindfelt Røn

    Norriq Danmark A/S

    Norriq Danmark A/S har pr. 1. september 2025 ansat Alexander Bendix som Consultant. Han skal især beskæftige sig med tilføre nye, friske perspektiver og værdifuld viden til NORRIQS Data & AI-afdeling. Nyt job

    Alexander Bendix

    Norriq Danmark A/S

    VisionBird har pr. 1. november 2025 ansat Kelly Lyng Ludvigsen, 38 år,  som Seniorrådgiver. Hun skal især beskæftige sig med Rådgivning og undervisning i Contract Management. Hun kommer fra en stilling som Contract Manager hos Novo Nordisk. Hun er uddannet Cand. jur. og BS fra CBS. Hun har tidligere beskæftiget sig med Contract Management i flere roller i både det private, offentlige og som konsulent. Nyt job

    Kelly Lyng Luvigsen

    VisionBird

    Netip A/S har pr. 1. november 2025 ansat Christian Homann som Projektleder ved netIP's kontor i Thisted. Han kommer fra en stilling som Digitaliseringschef hos EUC Nordvest. Han er uddannet med en Cand.it og har en del års erfaring med projektledelse. Nyt job

    Christian Homann

    Netip A/S