Artikel top billede

(Foto: Francois Genon)

Gigant-bøder på vej: ChatGPT og andre typer kunstig intelligens kan blive ramt af benhård EU-regulering

En ny omfattende europæisk regulering af kunstig intelligens er på vej, og det kan få store konsekvenser for ChatGPT.

Europa-Parlamentet er på vej med en ny omfattende regulering af kunstig intelligens.

Den ny lovpakke, der går under navnet AI Act, kan blandt komme til at indebære, at det skal markeres synligt, når virksomheder bruger tekst, som er skabt via kunstig intelligens som eksempelvis chatbotten ChatGPT.

Lovgivningen kommer til at regulere brugen af kunstig intelligens i EU’s medlemslande og for unionens 450 millioner borgere. På globalt plan er lovgivningen den første af sin slags.

Med andre ord er det tale om moderen for al fremtidig lovgivning på området, og det forventes derfor også, at AI Act kan komme til at påvirke, hvordan kommende lovgivning på området indrettes uden for EU.

Udsigt til kæmpe bøder

Arbejdet med lovgivningen er allerede fremskredent, og det forventes, at den endelige lovtekst vil lægge klar senere på året.

Når loven er vedtaget kan det ifølge mediet MIT Technology Review betyde, at virksomheder som overtræder lovgivningen kan idømmes bøder på op til seks producent af deres globale omsætning.

Regulering af chatgpt

Lovgivningsarbejdet er dog stadigvæk under vejs, og i Europa Parlamentet bliver der fortsat tilføjet ændringer til lovgivningen.

Senest er der - i kølvandet på, at ChatGPT har taget verden med storm - blevet indføjet i lovgivningen, at borgerne skal gøres opmærksom på det, når de bliver præsenteret for tekst, som er skabt af en kunstig intelligens.

Ifølge brancheorganisationen Dansk Industri fremgår det af udkastet til lovgivningen, at virksomheder og organisationer således skal markere det tydeligt, hvis der bliver brugt såkaldt ”kompleks tekst,” der er skabt af en maskine med minimal indflydelse fra et menneske.

Derudover ventes det også, at loven indeholder et mere generelt krav om, at brugerne skal informeres om det, hvis de er i kontakt med computer og ikke en person.

”Det kan få betydning for, hvordan platforme som Facebook og TikTok ser ud, fordi de algoritmer, som står for deres indholdsanbefalinger formodentligt vil falde ind under dette krav,” siger Emmie Hine, der forsker i regulering af kunstig intelligens og dataetik ved universitet i Bologna, til mediet NewScientist.

Skal foretage konsekvensanalyser

I det seneste udkast til lovgivningen er der ifølge Dansk Industri også blevet tilføjet et krav om, at virksomheder, der køber eller selv udvikler et højrisiko-system baseret på kunstig intelligens skal føre tilsyn med systemet og foretage konsekvensanalyser.

I forlængelse af det krav, bliver der ifølge Dansk Industri i øjeblikket diskuteret, hvad definitionen på et højrisiko-system er.

Derudover pågår der i forbindelse med lovgivningsarbejdet også en diskussion om, hvorvidt og i hvilken udstrækning, at der må anvendes persondata i forbindelse med systemer baseret på kunstig intelligens.