Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Det eneste emne vi bør debattere er den subjektive manipulation, som sprogmodeller kan forårsage uden vi lægger mærke til.
Men lad os først besøge et par af de emner, som vi ikke burde bruge tid på.
Vi ved allerede, at vi ikke må sende personfølsomme oplysninger ud af EU.
Vi må heller ikke sende dem til en virksomhed, som ikke lever op til visse krav, eller som vi ikke har en databehandlingsaftale med.
Det behøver vi ikke debattere. Vi kan nøjes med at konstatere, at de samme principper gælder ethvert system og selvfølgelig også sprogmodeller såsom OpenAI GPT.
Så hvis en virksomhed kan gemme sine data i Microsoft Azure så kan de per definition også bruge Microsoft’s Azure OpenAI-service.
Det samme gælder debatten om apps, for eksempel, da mange virksomheder var hurtige til at blokere kinesiske DeepSeek.
Vi ved allerede at vi ikke må sende vores data til tilfældige apps vi ikke kender til. Vi sender jo heller ikke personfølsomme oplysninger til en privat Gmail, (vel?).
Der er intet nyt under solen her, vi skal bare følge de samme princippet som vi allerede kender.
Det vi skal debattere er de fordomme som vi arver fra sprogmodellerne. Hvis en sprogmodel bidrager til at prioritere sager hos en kommune, så vil denne prioritet være påvirket af sprogmodellens fordomme.
For eksempel var det en medvirkende faktor i 2012 da en indisk familie i Norge fik tvangsfjernet deres børn, at de håndfodrede deres børn.
Måske ville en norsk sprogmodel være enig i at dette er et problem, men en indisk sprogmodel ville ikke se noget problem med det.
Derfor skal vi være bevidste om de fordomme som er indbygget i sprogmodellerne.
Hvordan vil sprogmodellernes beslutninger ubemærket påvirke offentlig forvaltning over tid? Hvad sker der når amerikanerne justerer sprogmodellerne løbende år efter år uden at fortælle os om det?
Det vil påvirke den offentlige forvaltning, uden vi lægger mærke til det. Det bør vi have en debat om.
Efter min mening er den mest oplagte løsning at have så lidt fordomme som muligt. Det forudsætter også at vi tillader sprogmodeller uden censur for fordomme er en nødvendig delkomponent af censur.
Krav om sikkerhedsforanstaltninger i sprogmodeller forværrer problemet og vi skal lægge dette ansvar over på applikationerne i stedet for sprogmodellerne.
I takt med at reglerne for sprogmodeller formes er det vigtigt at folk forstår de forskellige modsatrettede behov, der spiller ind.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.