Det stod hurtigt klart for OpenAI’s topchef Sam Altman, at noget var forandret, da selskabet lancerede en ny version af ChatGPT, GPT-4o.
Men det stod ikke klart for ham, hvor galt det egentligt stod til, og at det skulle ende med dødsfald og søgsmål
De første tegn på, at noget var galt, bestod af en stribe mails til Sam Altman, der handlede om, at chatbotten pludselig forstod dem på et helt nyt niveau og havde forsynet dem med helt nye indsigter om verden.
Topchefen sendte beskederne videre til sit team, der blev bedt om at tjekke op på det.
På mange måder lød det da også positivt, og selskabets nyeste sprogmodel GPT-4o, der netop var blevet lanceret, var blevet testet i et utal af versioner.
Model var særlig populær
Ovenstående bliver beskrevet i en ny stor artikel i den amerikanske aviser New York Times, der baserer sig på interview med 40 tidligere og nuværende ansatte hos OpenAI.
Ifølge artiklen, var der særligt én af de modeller, som OpenAI havde testet, der viste at være særlig effektiv.
Internt gik den under kodenavnet HH, og A/B-tests viste, at brugerne foretrak svarene fra den model og var mere tilbøjelige til på daglig basis at vende tilbage til den.
Før modellen bliver taget i brug, skal den dog også gennemgå en såkaldt vibe-test, hvor et nyt team hos OpenAI tester, hvordan modellen opfører sig.
Det team opdagede, at der var noget, som ikke føltes rigtigt. Modellen var for ivrig efter at holde snakken med brugeren kørende ved at tale brugerne efter munden og ved at anvende et overdrevent sprogbrug.
Men ifølge New York Times var det høje brugerengagement med til at overtrumfe bekymringerne om chatbottens adfærd.
Tilsyneladende trumfede behovet for menneskelig anerkendelse nærmest alt andet for denne model.
Fik kritik fra brugere
Det viste sig hurtigt, at mange dedikerede brugere ikke brød sig om modellen og hurtigt gennemskuede dens pleasende og utroværdige adfærd.
OpenAI reagerede hurtigt på kritikken og tog en anden version i brug, der gik under navnet GG, som dog ifølge New York Times havde den samme grundlæggende tendens til at please brugeren.
Det betød ifølge avisen, at hele foråret og sommeren 2024 brugte millioner og atter millioner af brugere en version af ChatGPT, som var tilbøjelig til at give dem ret i alt mellem himmel og jord.
Og det var det, som affødte de mange begejstrede mails, som Sam Altman modtog i den periode, men bag kulissen, ude hos brugerne, skete der nogle steder noget meget mere alvorligt.
Bidrog til vrangforestillinger
New York Times beskriver, hvordan en selvmordstruet amerikansk teenager, Adam Raine, i sin sidste interaktion med ChatGPT før sin død fik vejledning i, hvordan han bandt en løkke, af chatbotten, der også havde rådgivet ham til ikke at dele sine selvmordstanker med sin familie.
Samtidig fortalte ChatGPT en ung mor fra den amerikanske stat Maine, at hun kunne tale med ånder fra en anden dimension, mens en revisor i New York i løbet af interaktioner med botten blev overbevist om, at han, som i filmen The Matrix , levede i en computersimuleret virkelighed.
En fjerde person, en canadisk rekrutteringskonsulent, blev af chatbotten overbevist om, at han havde opnået et videnskabeligt gennembrud og fundet en algoritme, som kunne ødelægge internettet, og han blev af ChatGPT anbefalet at advare flere efterretningstjenester om sine opdagelser.
New York Times har kendskab til knap 50 sager, hvor folk har oplevet mentale problemer i forbindelse med deres samtaler med ChatGPT. Ud af dem endte ni med hospitalsindlæggelser, mens tre af personerne efterfølgende er afgået ved døden.
Brugerne elsker at få ret
En del af forklaringen på modellens adfærd er ifølge New York Times, at den baserede sig for meget på user feedback. ChatGPT har en mulighed, hvor brugerne kan give tommelfinger opad, hvis de kan lide et svar, og en tommelfinger nedad, hvis de ikke bryder sig om svaret.
Og tilsyneladende bliver rigtig mange brugere glade, når de får ret i deres påstande.
Ifølge New York Times kan mellem 5 og 15 procent af befolkningen have tilbøjeligheder til vrangforestillinger i forskellige grader, og ifølge en ekspert, som avisen har talt med, er det netop den gruppe, som er mest sårbar over for chatbots, der på denne måde er programmeret til at tale dem efter munden.
OpenAI lancerede tidligere på året den helt nye model GPT-5, der er langt mindre tilbøjelig til at søge validering fra brugerne og giver modstand, hvis de viser tegn på vrangforestillinger.
Familien til Adam Raine har efterfølgende lagt sag on mod OpenAI.
Hvis du er i krise eller har tanker om selvmord, kan du kontakte Livslinien på telefon 70 201 201 eller via livslinien.dk.