Her er Danmarks fem bedste CIO’er lige nu:Se de fem nominerede til prisen som Årets CIO 2024

Artikel top billede

(Foto: Jumpstory)

AI-skabt misinformation bliver magtfaktor i stort valgår

Klumme: Når man ser, hvor hurtigt udviklingen inden for GenAI-baseret mis- og disinformation går, er der ingen tvivl om, at vi både internationalt, nationalt, lokalt og i de enkelte virksomheder skal føje mis- og disinformation til listen over de risici, som konstant skal overvåges og kontrolleres.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

2024 bliver det hidtil største valgår i historien, hvor ikke mindre end to milliarder mennesker skal stemme i flere end 64 lande.

Det er valg, som ikke kun vil præge det politiske landskab, men også den globale økonomi for både stater og virksomheder.

Men der er en skyggeside, som kan vise sig at blive en enorm magtfaktor: Fremvæksten af generativ AI (GenAI) har gjort risikoen for, at valgenes udfald bliver manipulerede via misinformation, større end nogensinde.

Hvad skal man tro på?

Generative AI (GenAI) er en kraftfuld teknologi med evnen til at producere overbevisende indhold på mange sprog og endda dialekter, som om indholdet var skrevet af et menneske fra vores eget land eller region.

Men det giver også mulighed for at gå skridtet videre og udgive sig for at være en anden personved hjælp af deepfaketekst, -fotos og -lyd.

Den tekstbaseret version ser vi allerede brugt i blandt andet direktørsvindel (også kaldet business email compromise eller BEC), som alene i 2022 førte til svindel for 2,7 milliarder dollars.

Her producerer svindlere e-mails vha. GenAI, hvor de på overbevisende facon udgiver sig for at være chefer i større virksomheder og på den måde for eksempel narrer virksomhedens egen økonomiafdeling til at overføre penge, fordi økonomiafdelingen tror, de kommunikerer med virksomhedens ledere, og derfor ikke betvivler transaktionerne.

Uden for den corporate verden så vi i januar et eksempel på fotomanipuleret GenAI, da pornografiske deepfakefotos af popstjernen Taylor Swift spredte sig som en steppebrand på blandt andet X.

Sagen er et eksempel på, hvor hurtigt falske informationer kan brede sig i en moderne medieverden, og hvordan en kendt persons navn potentielt kan påvirkes negativt på meget kort tid.

Samme metoder kan naturligvis også bruges politisk. Og det bliver den.

En foruroligende sag fra januars primærvalg i New Hampshire illustrerer alvoren.

En optagelse af Joe Bidens stemme blev brugt til at foretage automatiske opkald, som opfordrede demokratiske vælgere til ikke at deltage i valget.

Stemmen på lydfilen er umulig at skelne fra den virkelig Joe Bidens stemme, men det var ikke ham, og ingen ved endnu, hvem der har skabt filen.

Og det er et af de mest foruroligende elementer ved sagen. Den kan være skabt af næsten hvem som helst. Værktøjerne til at skabe den type af misinformation er nemlig blevet allemandseje.

ChatGPT findes allerede i en gratis version, og der kommer hele tiden nye gratis eller billige værktøjer til, der kan skabe falsk indhold, som er vanskeligt eller umuligt at skelne fra virkeligheden.

Mest alvorlige globale risiko

Med ovenstående in mente forstår man, hvorfor "misinformation og disinformation" rangerer øverst i World Economic Forum (WEF)'s Global Risks Report 2024 som den mest alvorlige kortsigtede risiko, regeringer, borgere og organisationer står over for de næste to år.

Udfordringen er, at de forestående valg i blandt andet USA, Storbritannien, Indien, Den Europæiske Union og Pakistan risikerer at blive underminerede af falske nyhedskampagner, som kan flytte vælgere.

Ofte vil det være nemmere at overbevise nogen om, at de ikke skal gøre noget, end omvendt. Som eksemplet med Joe Biden illustrerer.

Som Taylor Swift-eksemplet viste, kan falske nyheder samtidig sprede sig ekstremt hurtigt.

Det betyder, at selvom nogen sætter sig for at faktatjekke en kampagne eller et budskab, så vil det stadig kunne nå millioner af mennesker, før fakta kommer frem – og så kan kampagnen alligevel have skabt tvivl hos mange af de mennesker, som er blevet udsat for den. Og det vil være en de facto-sejr for dem, der har startet kampagnen.

Hvis vi forestiller os, at der på grund af GenAI kommer flere af og flere af den type kampagner, og de måske er det første, vi støder på, når vi søger efter nyheder, så vil det kunne have en voldsomt indvirkning på vælgernes holdning og i sidste instans, hvem de ender med at stemme på.

En voksende global forretningsrisiko

WEF advarer om, at valgkaos af denne art vil kunne øge de sociale og politiske skel og skabe politisk og samfundsmæssig usikkerhed, som er omstændigheder, mange virksomheder frygter.

Men GenAI-baseret misinformation kan også skabe mere direkte problemer og risici for erhvervslivet.

En kampagne vil for eksempel nemt kunne skade en virksomheds omdømme og dermed både kundeloyalitet og eventuel aktiekurs.

Det kunne være en deepfakevideo eller lydfil, hvor virksomhedens CEO udtaler sig racistisk eller lækker hemmelige oplysninger om kommende (falske) strategier eller produkter.

I nogle lande vil den slags information hurtigt kunne få en virksomhed i uføre og få myndighederne imod sig.

Man kunne også forestille sig, at nogle stater måske selv ville starte misinformationskampagner eller hyre aktivister/hackere til at køre kampagnerne for sig.

Som vi har set efter Ruslands invasion af Ukraine og i konflikten mellem Israel og Hamas, er der mange meget motiverede enkeltpersoner og grupper, som er klar til at angribe "den anden side", og nu har de værktøjerne til at gøre det.

Beskyt sandheden først

Når man ser, hvor hurtigt udviklingen inden for GenAI-baseret mis- og disinformation går, er der ingen tvivl om, at vi både internationalt, nationalt, lokalt og i de enkelte virksomheder skal føje mis- og disinformation til listen over de risici, som konstant skal overvåges og kontrolleres.

Men hvor begynder vi?

Efter min vurdering bør det hele starte med databeskyttelse, det vil sige med en øget beskyttelse af følsomme data, som har en værdi. Falske nyheder sælger nemlig altid bedst, hvis der er en eller anden kerne af sandhed.

Så hvis aktivister/hackere kan få fat i følsom information (tekst, fotos, lyd eller video), vil de have nemmere ved at skabe falske historier, som virker overbevisende og dermed har potentielt kan skade mere, fordi skellet mellem sandhed og løgn er sværere at få øje på.

Databeskyttelse kan naturligvis ikke dæmme op for alle former for mis- og disinformation, og der er en reel risiko for, at misinformation fremover bliver normen mere end undtagelsen.

Men ved at beskytte vores følsomme bedst muligt, passer vi ikke blot på sandheden. Vi mindsker også risikoen for, at den bliver fordrejet og misbrugt.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.