Her er Danmarks fem bedste CIO’er lige nu:Se de fem nominerede til prisen som Årets CIO 2024

Artikel top billede

(Foto: JumpStory)

Ingen vej uden om: Vi skal alle tage stilling til data-etik

Klumme: Hvis din egen virksomhed eller organisation hører til mindretallet uden en politik for data-etik, så kan jeg kun opfordre dig til at tage det op på ledelsesplan.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Sensommeren er over os, og i hvert fald i skrivende stund lidt mere varm og venlig end mange af de forgangne ferieuger.

De fleste af os har allerede smøget ærmerne op til den sidste del af året – og hvis der er et tema, som ikke har ligget stille siden juni, så er det den rivende udvikling inden for AI, ikke mindst den generative af slagsen.

For nylig kunne man i nærværende medie læse, at sundhedsminister Sofie Løhde ikke ser nogen vej uden om at indarbejde AI i de løsninger, der skal redde den danske sundhedssektor fra at drukne i patienter og derfor har øremærket en halv milliard kroner til formålet.

Ikke mindst inspireret af en opsigtsvækkende og meget positiv case fra Sjællands Universitetshospital, hvor mavetarmkræft-patienter har fået anbefalet behandlingsforløb baseret på anonymiserede sundhedsdata.

Det glæder mig utrolig meget at se disse konkrete resultater – og jeg er enig i ministerens prioritering.

Men netop fordi udviklingen går hurtigt, er det vigtigt, at vi holder trit med det data-etiske perspektiv, når vi også ude i virksomhederne finder de løsninger, der kan afhjælpe den allestedsnærværende mangel på hænder.

Heldigvis er der i stigende grad hjælp at hente i form af gode anbefalinger, for eksempel landede DI Digitals rapport ”Data-etik der virker” med 14 anbefalinger om data-etik, som min egen virksomhed har haft en andel i at udforme, umiddelbart før der gik rigtig sommerferie i den.

De 14 anbefalinger retter sig dels mod det politiske niveau, mod virksomhederne selv – og der bliver også grebet i egen barm, når DI Digital blandt andet stifter en data-etisk pris og sætter ressourcer af til at lave vejledninger og samtidig stifter et leverandørnetværk der skal ’arbejde med at omsætte dataetiske principper til praktiske principper med reel forretningsmæssig værdi’.

Det med det praktiske er utrolig vigtigt. For etik kan forekomme noget luftigt og holdningsbaseret – men lige som på så mange andre områder gælder det dels at konkretisere, men også om at udtrykke værdier.

I SAS har vi eksempelvis udtrykt vores data-etiske principper i disse seks punkter, som skal overvejes hver gang vi planlægger en data-analytisk eller AI-løsning:

Menneske-centricitet: Løsninger skal fremme menneskeligt velvære, menneskelig handlefrihed og retfærdighed

Inklusivitet: Sikre tilgængelighed og inkludere forskellige perspektiver og erfaringer.

Ansvarlighed: Proaktivt identificere og afbøde negative effekter.

Gennemsigtighed: Kommunikere åbent om påtænkt anvendelse, risici og hvordan beslutninger træffes

Robusthed: Opererer pålideligt og sikkert, potentielle risici håndteres gennem en livscyklus.

Privatliv og sikkerhed: Beskytte brugen og anvendelsen af ​​en personfølsomme data.

Udviklingen stopper ikke – vi bør forsøge at holde trit

Flere topchefer og andre aktører i min egen branche har foreslået, at vi slår bremsen i for udvikling af AI mens vi overvejer, hvordan vi vil sikre at værktøjerne ikke løber os af hænde.

Det forekommer mig ikke som en realistisk løsning, og intet tyder på, at det kommer til at ske.

Den eneste mulighed er i min optik dialog, aktiv stillingtagen og at feje for egen dør.

Dermed ikke sagt, at jeg tror det bliver let eller at der ikke kommer til at opstå skræmmende eksempler på misbrug af AI's muligheder ude i verden.

For AI kan nu emulere det, som ifølge filosoffen Yuval Harari er nøglen til selve vores civilisation, nemlig sproget.

Vores menneskelige hjerner er hard-kodede til at respondere på sprog med følelser – noget som AI ikke har, men efterhånden kan lære sig at påvirke hos os.

Harari peger på sociale medier som et sted, hvor selve relativt usofistikerede udvælgelsesalgoritmer har været medvirkende til at så splittelse og skabe ekko-kamre, hvor den demokratiske dialog visner.

Transparens og lovgivning skal bane vejen

Der er ingen tvivl om, at vores evne til kritisk tænkning og vurdering af de digitale billeder, der møder os, kun vil blive stillet yderligere på prøve i fremtiden.

I min optik er modgiften primært åbenhed og transparens, nu hvor AI selv begynder at formulere sig.

Samtidig er EU på vej med obligatoriske vurderinger af AI-systemer baseret på risici-niveauet i den specifikke løsning, hvilket igen er en konkret og anvendelig metodik til at indhegne AI-udviklingen og spænde den for en hensigtsmæssig vogn.

Ifølge DI Digitals rapport har 63 procent af danske virksomheder allerede formuleret retningslinjer på området.

Så hvis din egen virksomhed eller organisation hører til mindretallet uden, så kan jeg kun opfordre dig til at tage det op på ledelsesplan og spørge: Hvad er vores politik for data-etik?

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.