OpenAI har fjernet støttehjulene og givet os mere frie tøjler til, hvordan vi kan anvende teknologien

Klumme: Det er slut med at have babysitter på, når du anvender OpenAI.

Artikel top billede

(Foto: Markus Spiske / Unsplash)

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

En viral nyhed er lige nu, at OpenAI har opdateret deres funktionalitet til at lave billeder inde i ChatGPT.

Man kan nu lave billeder, der før ikke var mulige på grund af "guard rails" – altså regler om, hvad man må og ikke må gøre, der forhindrede brugeren i at lave visse billeder.

Samtidig kan man nu også som noget nyt manipulere eksisterende billeder, man lægger op via ChatGPT. Hello Deep-fake!

Det er er stadig nogle guard rails, men de lader til at være en del løsere end før.

LinkedIn og andre sociale medier er oversvømmet af billeder – hvoraf mange tangerer eller ligefrem overtræder både etiske og juridiske grænser, hvor de sidstnævnte er forsøgt optegnet i følgende tabel, som jeg har forsøgt at sammensætte, selv om jeg ikke er decideret jurist:

Som bruger/virksomhed skal man altså være opmærksom på, at OpenAI har sagt op som babysitter for deres abonnenter, når det kommer til billeder.

For at kunne give os den nye og stærkere model, der kan langt mere end tidligere, har de været nødt til at lægge ansvaret tilbage på os, så nu skal vi altså tænke os ekstra godt om, i forhold til hvordan vi bruger det.

Samtidig er mulighederne så også virkelig mange.

Her ses til inspiration hvordan jeg har taget foto af min søns børnetegning og lavet det til en ægte tegneserie, med prompten:

"Lav en vellignende tegneserie-version som billede af denne tegning med fint layout og farver."

Men hvad er det, vi har fået, og hvordan virker det?

Den korte, ikke for tekniske forklaring er, at når du nu beder ChatGPT om at lave et billede, for eksempel "en kat med en hat", så starter systemet med at læse og forstå teksten, lidt som en oversætter, der gør ord til idéer.

Derefter bygger det billedet ét skridt ad gangen, som en kunstner, der starter med en skitse og langsomt tilføjer flere detaljer.

Systemet kigger hele tiden undervejs på dine ord (eller dit billede, hvis den får et billede som input også) for at sikre, at det, der bliver tegnet, passer til det, du bad om.

Først til allersidst bliver det, den har "opbygget", så lavet om til et rigtigt billede, som du kan se.

Hvis du giver den et billede i forvejen og siger, hvad der skal ændres – som "giv katten en hat", så ændrer den kun det nødvendige, uden at ødelægge resten af billedet, selv om den faktisk skaber det nye billede forfra.

Jeg er lidt overrasket over denne udvikling, da vi ellers tidligere har set at AI-forordningen, GDPR, med videre, har gjort, at OpenAI har været tilbageholdende med at frigive teknologi, der kan manipulere inden for EU's grænser, sådan som vi så det med SORA og Advanced Voice.

Under AI-forordningen kan der for eksempelvis være et krav om, at AI-genererede medier afmærkes som sådan og der er det, så vidt jeg ved, også sådan at billeder genereret i ChatGPT har et digitalt vandmærke (ikke synligt men inde i selve filen), der viser dette.

Så helt væk er babysitteren ikke, men det er, og bliver i fremtiden også, interessant at følge udviklingen af, hvor meget der lægges over til brugerne, og hvor meget der sættes op som guard rails og andre restriktioner.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.

Mere om samme emne

Læses lige nu

    Event: Computerworld Summit 2026 - Aarhus

    Digital transformation | Aarhus C

    Styrk din digitale strategi med konkret brug af AI og ny teknologi. Mød 200 it-professionelle, få indsigter, løsninger og netværk på én dag. Computerworld Summit i Aarhus viser hvordan teknologi skaber forretningsværdi – her og nu.

    21. april 2026 | Gratis deltagelse

    Navnenyt fra it-Danmark

    Adeno K/S har pr. 22. september 2025 ansat Steen Riis-Petersen som ServiceNow Expert. Han kommer fra en stilling som Senior Manager hos Devoteam A/S. Nyt job
    Norriq Danmark A/S har pr. 1. september 2025 ansat Hans Christian Thisen som AI Consultant. Han skal især beskæftige sig med at bidrage til udvikling og implementering af AI- og automatiseringsløsninger. Nyt job

    Hans Christian Thisen

    Norriq Danmark A/S

    IT Confidence A/S har pr. 1. oktober 2025 ansat Johan Léfelius som it-konsulent. Han skal især beskæftige sig med med support, drift og vedligeholdelse af kunders it-miljøer samt udvikling af sikre og stabile løsninger. Han kommer fra en stilling som kundeservicemedarbejder hos Telia Company Danmark A/S. Han er uddannet (under uddannelse) som datatekniker med speciale i infrastruktur. Han har tidligere beskæftiget sig med kundeservice, salg og teknisk support. Nyt job

    Johan Léfelius

    IT Confidence A/S

    Norriq Danmark A/S har pr. 1. september 2025 ansat Niels Bjørndal Nygaard som Digital Product Lead. Han skal især beskæftige sig med designe og implementere effektive IT-løsninger. Han har tidligere beskæftiget sig med at være digital consultant og project Manager hos Peytz & Co. Nyt job

    Niels Bjørndal Nygaard

    Norriq Danmark A/S