Her er Danmarks fem bedste CIO’er lige nu:Se de fem nominerede til prisen som Årets CIO 2024

Artikel top billede

(Foto: Dan Jensen)

Mere end 90 rettigheds-grupper vil have Apple til at droppe screening for nøgenhed i iPhone: En stor trussel mod friheds-rettigheder

Mere end 90 rettigheds-grupper fra hele verden er bestyrtede og vil have Apple til at droppe sine planer om at indbygge automatisk screening efter billeder med nøgenhed i iPhone, iPad og andre produkter. Se deres åbne brev her.

Drop det. Sådan lyder den kontante opfordring fra mere end 90 rettigheds-grupper fra hele verden til Apple om selskabets planer om at indbygge mulighed for automatisk screening efter billeder med nøgne kroppe i blandt andet iPhone og iPad.

Det sker i et åbent brev, som de 90 rettigheds-grupper har sendt til Apple, efter selskabet i begyndelsen af måneden meddelte, at det ville indføre overvågningssystemet i iCloud.

Systemet er designet til at tjekke op mod en myndighedsdatabase med kendte billeder af børnemisbrug og ifølge Apple reducere falske positiver til en ud af en billion.
Databasen over kendte billeder af seksuelt misbrug af børn oversætter billeder til 'hash'-koder, der positivt identificerer billedet, men ikke kan bruges til at rekonstruere dem.

Men systemet er farligt, lyder det fra rettigheds-organisationerne.

For selv om overvågnings-funktionerne er designet til at beskytte børn mod seksuel misbrug og lignende, vil de kunne danne grundlag for censur og være en direkte trussel mod friheds-rettigheder verden over.

Ifølge den amerikanske tænketank Center for Democracy & Technology kan screeningen eksempelvis udgøre en direkte trussel mod mange unge - eksempelvis LGBTQ+ med ‘usympatiske forældre,” som det hedder.

Her peger man også på, at Apple vil stå overfor ‘enormt pres’ og massive krav fra en lang række regeringer i verden, hvis først funktionen bliver indbygget i selskabets produkter.

Center for Democracy & Technology vurderer, at regeringerne vil presse på for at få adgang til screening af billeder i telefonerne, som ikke har noget at gøre med børneporno, men som er motiveret af deres egne politiske forhold.

I brevet peger de 90 rettigheds-organisationer på, at algoritmer [som den kommende Apple-algoritme, red] designet til at detektere seksuelt indhold er notorisk upålidelige.’

“De er tilbøjelige til fejlagtigt at flage for kunst, sundhedsoplysninger, uddannelsesmæssigt indhold og indhold fra rettighedsgrupper. Børns ret til at sende og modtage denne type oplysninger er beskyttet i FN’s børnekonvention,” skriver de.

De peger også på, at Apples funktion bygger på en forestilling om, at der altid er en ‘god’ voksen bag et barn Apple-konto, men at det langt fra altid er tilfældet.

“Forældre-notifikation kan få alvorlige konsekvenser for et barns sikkerhed,” skriver de.

Du kan læse det fulde brev til Apples topchef Tim Cook og se alle underskriverne her.