Artikel top billede

(Foto: Yannis Ntousiopoulos)

OpenAI lancerer nyt værktøj: Skal opdage tekster skrevet af andre AI

Moderselskabet bag ChatGPT lancerer ny AI, der skal opdage tekster, der er blevet skrevet af AI - som eksempelvis ChatGPT.

OpenAI, der er virksomheden bag ChatGPT, har lanceret endnu en AI: Det nye AI-værktøj vil have til opgave at opdage tekster, der er blevet skabt ved hjælpe af andre AI-værktøjer, som for eksempel ChatGPT.

Det beretter BleepingComputer.

AI Text Classifier, som er den nye GPT-models mundrette navn, kan ifølge et blogindlæg på OpenAI’s hjemmeside komme med et forslag til, hvor sandsynligt det er, at en tekst er blevet genereret ved hjælp af AI på baggrund af forskellige kilder.

Forbudt på universiteter og skoler verden over - også i Danmark

Lanceringen af det nye værktøj kommer efter, at en lang række universiteter og skoler har forbudt brugen af selskabets ChatGPT-chatrobot, da eleverne kan benytte robotten til at lave deres lektier og opgaver for dem.

Forbuddet mod chatrobotten strækker sig fra Los Angeles til New York samt til universiteter i både Frankrig og Indien, der har forbudt den kunstige intelligens på skolernes computere.

Også i Danmark har Aarhus Universitet forbudt ChatGPT og lignende tjenester til alle eksaminer – og det gælder også de eksaminer, hvor alle hjælpemidler ellers er tilladt.

Hos universitetet opfattes chatrobotten derfor som snyd, da studerende ved brug af programmet ikke løser opgaven selv.

”Som studerende skal du holde dig fra at bruge AI chatrobotten ChatGPT og andre lignende softwares, når du skal til eksamen. Bruger du AI i forbindelse med din eksamen, bliver det betragtet som eksamensnyd, da du ikke løser din opgave selvstændigt og individuelt,” lød det fra Aarhus Universitet i en melding i begyndelsen af januar i år.

Den eneste undtagelse, hvis brug af softwaren fremgår specifikt af kursusbeskrivelsen.

Anna Bak Maigaard, vicedirektøren på Aarhus Universitet fortalte dengang til TV 2, at man hos AU stadig er i gang med at undersøge ChatGPT’s muligheder, og at der skal foregå drøftelser med landets andre universiteter.

”Vores classifier er ikke fuldt ud pålidelig”

BleepingComputer har testet det nye OpenAI-værktøj, og resultatet af testen er ikke entydigt.

For mens det nye værktøj helt korrekt klassificerer artikler, som journalister på BleepingComputer selv har skrevet, som værende skrevet af mennesker, så kniber det for værktøjet med at opdage tekster, der er blevet forfattet af ChatGPT.

I blogindlægget på selskabets hjemmeside, advarer OpenAI om, at det nye værktøj bliver brugt som det eneste bevis, hvis akademisk uærlighed skal fastslås.

”Vores classifier er ikke fuldt ud pålidelig,” lyder det.

At det nye værktøj ikke er særlig pålideligt, viser de tal, der bliver fremlagt i blogindlægget, også.

Her fremgår det ifølge evalueringerne af de tests, der er blevet gennemført på engelske tekster, at OpenAI’s nye værktøj – korrekt – identificerer 26 procent af AI-genereret tekst, mens den i 9 procent af tilfældene – helt forkert - klassificerer tekst, der er blevet forfattet af mennesker, som værende skrevet af en AI.

Virksomheden forventer dog, at det nye værktøj bliver bedre med tiden, når flere data er blevet kørt igennem den kunstige intelligens.