AI-skabt misinformation bliver magtfaktor i stort valgår

Klumme: Når man ser, hvor hurtigt udviklingen inden for GenAI-baseret mis- og disinformation går, er der ingen tvivl om, at vi både internationalt, nationalt, lokalt og i de enkelte virksomheder skal føje mis- og disinformation til listen over de risici, som konstant skal overvåges og kontrolleres.

Artikel top billede

(Foto: Jumpstory)

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

2024 bliver det hidtil største valgår i historien, hvor ikke mindre end to milliarder mennesker skal stemme i flere end 64 lande.

Det er valg, som ikke kun vil præge det politiske landskab, men også den globale økonomi for både stater og virksomheder.

Men der er en skyggeside, som kan vise sig at blive en enorm magtfaktor: Fremvæksten af generativ AI (GenAI) har gjort risikoen for, at valgenes udfald bliver manipulerede via misinformation, større end nogensinde.

Hvad skal man tro på?

Generative AI (GenAI) er en kraftfuld teknologi med evnen til at producere overbevisende indhold på mange sprog og endda dialekter, som om indholdet var skrevet af et menneske fra vores eget land eller region.

Men det giver også mulighed for at gå skridtet videre og udgive sig for at være en anden personved hjælp af deepfaketekst, -fotos og -lyd.

Den tekstbaseret version ser vi allerede brugt i blandt andet direktørsvindel (også kaldet business email compromise eller BEC), som alene i 2022 førte til svindel for 2,7 milliarder dollars.

Her producerer svindlere e-mails vha. GenAI, hvor de på overbevisende facon udgiver sig for at være chefer i større virksomheder og på den måde for eksempel narrer virksomhedens egen økonomiafdeling til at overføre penge, fordi økonomiafdelingen tror, de kommunikerer med virksomhedens ledere, og derfor ikke betvivler transaktionerne.

Uden for den corporate verden så vi i januar et eksempel på fotomanipuleret GenAI, da pornografiske deepfakefotos af popstjernen Taylor Swift spredte sig som en steppebrand på blandt andet X.

Sagen er et eksempel på, hvor hurtigt falske informationer kan brede sig i en moderne medieverden, og hvordan en kendt persons navn potentielt kan påvirkes negativt på meget kort tid.

Samme metoder kan naturligvis også bruges politisk. Og det bliver den.

En foruroligende sag fra januars primærvalg i New Hampshire illustrerer alvoren.

En optagelse af Joe Bidens stemme blev brugt til at foretage automatiske opkald, som opfordrede demokratiske vælgere til ikke at deltage i valget.

Stemmen på lydfilen er umulig at skelne fra den virkelig Joe Bidens stemme, men det var ikke ham, og ingen ved endnu, hvem der har skabt filen.

Og det er et af de mest foruroligende elementer ved sagen. Den kan være skabt af næsten hvem som helst. Værktøjerne til at skabe den type af misinformation er nemlig blevet allemandseje.

ChatGPT findes allerede i en gratis version, og der kommer hele tiden nye gratis eller billige værktøjer til, der kan skabe falsk indhold, som er vanskeligt eller umuligt at skelne fra virkeligheden.

Mest alvorlige globale risiko

Med ovenstående in mente forstår man, hvorfor "misinformation og disinformation" rangerer øverst i World Economic Forum (WEF)'s Global Risks Report 2024 som den mest alvorlige kortsigtede risiko, regeringer, borgere og organisationer står over for de næste to år.

Udfordringen er, at de forestående valg i blandt andet USA, Storbritannien, Indien, Den Europæiske Union og Pakistan risikerer at blive underminerede af falske nyhedskampagner, som kan flytte vælgere.

Ofte vil det være nemmere at overbevise nogen om, at de ikke skal gøre noget, end omvendt. Som eksemplet med Joe Biden illustrerer.

Som Taylor Swift-eksemplet viste, kan falske nyheder samtidig sprede sig ekstremt hurtigt.

Det betyder, at selvom nogen sætter sig for at faktatjekke en kampagne eller et budskab, så vil det stadig kunne nå millioner af mennesker, før fakta kommer frem – og så kan kampagnen alligevel have skabt tvivl hos mange af de mennesker, som er blevet udsat for den. Og det vil være en de facto-sejr for dem, der har startet kampagnen.

Hvis vi forestiller os, at der på grund af GenAI kommer flere af og flere af den type kampagner, og de måske er det første, vi støder på, når vi søger efter nyheder, så vil det kunne have en voldsomt indvirkning på vælgernes holdning og i sidste instans, hvem de ender med at stemme på.

En voksende global forretningsrisiko

WEF advarer om, at valgkaos af denne art vil kunne øge de sociale og politiske skel og skabe politisk og samfundsmæssig usikkerhed, som er omstændigheder, mange virksomheder frygter.

Men GenAI-baseret misinformation kan også skabe mere direkte problemer og risici for erhvervslivet.

En kampagne vil for eksempel nemt kunne skade en virksomheds omdømme og dermed både kundeloyalitet og eventuel aktiekurs.

Det kunne være en deepfakevideo eller lydfil, hvor virksomhedens CEO udtaler sig racistisk eller lækker hemmelige oplysninger om kommende (falske) strategier eller produkter.

I nogle lande vil den slags information hurtigt kunne få en virksomhed i uføre og få myndighederne imod sig.

Man kunne også forestille sig, at nogle stater måske selv ville starte misinformationskampagner eller hyre aktivister/hackere til at køre kampagnerne for sig.

Som vi har set efter Ruslands invasion af Ukraine og i konflikten mellem Israel og Hamas, er der mange meget motiverede enkeltpersoner og grupper, som er klar til at angribe "den anden side", og nu har de værktøjerne til at gøre det.

Beskyt sandheden først

Når man ser, hvor hurtigt udviklingen inden for GenAI-baseret mis- og disinformation går, er der ingen tvivl om, at vi både internationalt, nationalt, lokalt og i de enkelte virksomheder skal føje mis- og disinformation til listen over de risici, som konstant skal overvåges og kontrolleres.

Men hvor begynder vi?

Efter min vurdering bør det hele starte med databeskyttelse, det vil sige med en øget beskyttelse af følsomme data, som har en værdi. Falske nyheder sælger nemlig altid bedst, hvis der er en eller anden kerne af sandhed.

Så hvis aktivister/hackere kan få fat i følsom information (tekst, fotos, lyd eller video), vil de have nemmere ved at skabe falske historier, som virker overbevisende og dermed har potentielt kan skade mere, fordi skellet mellem sandhed og løgn er sværere at få øje på.

Databeskyttelse kan naturligvis ikke dæmme op for alle former for mis- og disinformation, og der er en reel risiko for, at misinformation fremover bliver normen mere end undtagelsen.

Men ved at beskytte vores følsomme bedst muligt, passer vi ikke blot på sandheden. Vi mindsker også risikoen for, at den bliver fordrejet og misbrugt.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.

Læses lige nu
    Computerworld Events

    Vi samler hvert år mere end 6.000 deltagere på mere end 70 events for it-professionelle.

    Ekspertindsigt – Lyt til førende specialister og virksomheder, der deler viden om den nyeste teknologi og de bedste løsninger.
    Netværk – Mød beslutningstagere, kolleger og samarbejdspartnere på tværs af brancher.
    Praktisk viden – Få konkrete cases, værktøjer og inspiration, som du kan tage direkte med hjem i organisationen.
    Aktuelle tendenser – Bliv opdateret på de vigtigste dagsordener inden for cloud, sikkerhed, data, AI og digital forretning.

    Sikkerhed | Aarhus C

    Executive roundtable: Cyberrobusthed i praksis

    Cyberangreb rammer driften. NIS2 og DORA kræver dokumenteret gendannelse under pres. Få konkret metode til at teste, måle og bevise robusthed på tværs af cloud, SaaS og leverandører. Deltag i lukket roundtable med Commvault og Hitachi.

    Digital transformation | København Ø

    Sådan etablerer du digital suverænitet

    Digital suverænitet afgør kontrol over data, systemer og afhængigheder i Danmark. Computerworld samler Dansk Erhverv og IBM-eksperter om konkrete arkitekturvalg, governance og platforme, der sikrer reel kontrol. Få overblik og handlekraft.

    Digital transformation | København

    Roundtable: Fra legacy til AI – de strategiske valg for digitale ledere

    Legacy-systemer bremser mange AI-ambitioner. Digitale ledere skal vælge platform, tempo og arkitektur. Computerworld samler CIO’er og CTO’er til lukket roundtable om vejen fra legacy til AI-parat forretning. Få perspektiver fra COWI og del...

    Se alle vores events inden for it

    Navnenyt fra it-Danmark

    Netip A/S har pr. 1. februar 2026 ansat Henrik Mejnhardt Nielsen som ny kollega til Product Sales Teamet i Herlev. Han kommer fra en stilling som Business Development Manager hos Arrow. Nyt job
    Thomas Nakai, Product Owner hos Carlsberg, har pr. 27. januar 2026 fuldført uddannelsen Master i it, linjen i organisation på Aarhus Universitet via It-vest-samarbejdet. Færdiggjort uddannelse

    Thomas Nakai

    Carlsberg

    Infosuite A/S har pr. 1. marts 2026 ansat Henrik Sandmann som Chief Operating Officer (COO). Han skal især beskæftige sig med drift, produktudvikling og skalering, herunder også procesforbedringer og udnyttelse af AI og nye teknologier. Han kommer fra en stilling som Program Director hos ADMG ApS. Han er uddannet cand. scient i datalogi og har derudover en MBA indenfor strategi, ledelse og forretningsudvikling. Nyt job

    Henrik Sandmann

    Infosuite A/S