Artikel top billede

(Foto: Pexels)

Dine ChatGPT-samtaler kan dukke op på Google: Her er grunden - og løsningen

Hvis du har delt links til samtaler, du har haft med ChatGPT, så kan de sandsynligvis findes direkte via en simpel Google-søgning.

Samtaler med ChatGPT, der oprindeligt var tiltænkt dig selv eller en anden, dukker nu op i åbne Google-søgninger.

Det skyldes, at brugere deler deres AI-chats via links uden at være klar over, at deres chats i praksis bliver gjort offentligt tilgængelige.

Ifølge en gennemgang fra Fast Company bliver disse links automatisk indekseret af Google, hvis brugeren har aktiveret muligheden for, at søgemaskiner må finde dem.

Det sker for eksempel, når man deler en ChatGPT-samtale med en ven via WhatsApp, e-mail eller lignende og anvender den indbyggede del-funktion.

En hurtig Google-søgning giver ifølge mediet adgang til tusindvis af samtaler.

Mange af samtalerne tilsyneladende harmløse, men blandt resultaterne findes også følsomme udvekslinger om psykisk sygdom, arbejdsliv, misbrugserfaringer og andre personlige eller sårbare emner, skriver mediet, der af samme grund har valgt ikke at gengive eksempler på indholdet.

Advarsler slår ikke til

OpenAI, der står bag ChatGPT, advarer brugerne, når de klikker på del-knappen.

I beskeden står der, at man ikke bør dele følsomme oplysninger. Brugere gøres samtidig opmærksomme på, at det er muligt at slette delte links igen.

Siden de mange samtaler dukkede op i Google-søgningerne har OpenAI nu gjort det muligt, at man kan klikke af, at man ikke vil gøre samtalerne offentligt tilgængelige.

Det er dog ikke kun OpenAI, der står ikke alene med denne problematik.

Også Meta, der står bag Llama-modellerne, har tidligere haft problemer med, at brugeres spørgsmål er dukket op i offentlige feeds.

Også her har det været brugernes manglende kendskab til platformens delingfunktioner, der har medført til, at personfølsomme oplysninger er blevet eksponeret.

Flere bruger AI som alternativer til psykolog

Eksponeringen af disse samtaler, som brugerne har med deres chatbot, bliver endnu mere problematisk, eftersom AI-modeller i stigende grad anvendes som alternativ til psykologer og samtalepartnere.

En ny amerikansk undersøgelse viser for eksempel, at næsten halvdelen af de adspurgte har brugt AI til støtte ved psykisk mistrivsel i form af angst, depression eller andre livskriser i det seneste år.

Men hvor klassisk terapi er underlagt tavshedspligt, er samtaler med en chatbot som udgangspunkt ikke fortrolige og i visse tilfælde kan de udleveres til myndigheder, hvis det kræves ved lov.

Det har OpenAI’s direktør selv tidligere gjort klart.

Kendt dansk it-iværksætter er storforbruer af ChatGPT

Og det er langt fra kun et amerikansk fænomen. For få uger siden fortalte den kendte danske it-iværksætter og Dinero-CEO Martin Thorborg, at han bruger den kunstige intelligens-tjeneste til alt fra ægteskabelige konflikter og sundhedsråd.

I et interview med Berlingske fortalte Martin Thorborg, at han bruger ChatGPT dagligt, og at han gennem tiden har fodret den med personlige data om blandt andet sit blodtryk, søvn og de kosttilskud, han tager.

Han har også delt oplysninger om sine tidligere bøger og de over 700 videoer, han har på sin YouTube-profil.

Det har skabt en tæt relation mellem Martin Thorborg og ChatGPT, som ifølge ham selv fungerer som både læge, psykolog og sparringspartner.

"Det er jo den person, øh … eller den tingest, der kender mig bedst. Jeg tror, at min kone ville sige det samme," siger Martin Thorborg til Berlingske.

Den tilgang går dog stik imod anbefalingerne fra flere eksperter.

Ifølge Datatilsynet og Forbrugerrådet Tænk risikerer man at dele følsomme oplysninger med techgiganter uden at have overblik over, hvem der får adgang til dataene.