Artikel top billede

Dorte Toft: Etik og AI ”Does not compute”

Klumme: Efter årtiers skuffelser begynder kunstig intelligens – AI - for alvor at levere, men desværre også ting, hvor flere etiske overvejelser havde været tiltrængt. Facebook blev for eksempel grebet i at profilere jødehadere, så annoncører kunne målrette annoncer direkte til dem. Men kan der opstilles etiske love? Foreløbig har vi set to forsøg.

Den ene dag identificerer den kunstige intelligens homoseksuelle ud fra deres portrætfoto. Næste dag vises en video, hvor Obama er lagt tilfældige ord i mund ved hjælp af teknologien.

Tredje dag gælder det udsigten til autonome dræberrobotter. Fjerde dag lyder vurderingen, at 90 procent af laboranternes arbejde vil blive overtaget af computere.

Og femte dag loves vækst takket være robotter og kunstig intelligens - til fordel for de i forvejen allerbedst stillede.

For den, der interesserer sig for de nye teknologier, går der ikke en dag uden anledning til bekymring for udviklingen, ikke mindst af kunstig intelligens – artificial intelligence (AI).

Berømtheder har råbt gevalt, heriblandt videnskabsmanden Stephen Hawkins, Microsoft-stifteren Bill Gates og tidens techsuperstar, Elon Musk, berømt for Tesla-bilerne, rumraketter og planer om kolonisering af Mars.

De mænd er blandt mange, der taler højt om behovet for høj etik i udnyttelsen af de nye teknologier.

Heldigvis kan vi også læse om gennembrud, der kan give enorme fordele på afgørende områder - menneskers sundhed, fastholdelse af arbejdspladser, bedre miljø og meget andet.

Bekymringer over tid

Bekymringer over teknologi er jo heller ikke noget nyt. Jeg erindrer ikke mindst 1960’erne og 1970’erne, hvor jeg først var programmør og siden læste til journalist.

Venstrefløjen, inklusive fagforeninger, tordnede løs mod ”EDB”, så det kom til at præge den næste generation også -med resultatet, at Danmark i forhold til sammenlignelige lande endte fodslæbende, hvad angår softwareindustri – noget, der aldrig er rettet helt op på.

Men den bekymring, jeg observerer nu, er større.

Jeg har i mit lange liv aldrig set så mange, vidt forskellige mennesker på verdensplan være nervøse for, hvad fremtidsteknologien kan bringe, som nu.

Godt nok ser visse højrefløjsmennesker stadig ikke længere end til egen pengepung, men andre, der har valgt at orientere sig om de nye teknologier, ved, at det her ikke bare er teknologibusiness as usual.

Sirenesang fra techprofeter

Desværre savnes den erkendelse i vist omfang herhjemme, også politisk set. Sirenesange fra en gruppe højtlønnede techprofeter fra Silicon Valley og fra it-branchen i Danmark er de foretrukne.

Men uden for Danmarks grænser nævnes Isac Asimovs navn igen og igen af de bekymrede.

Asimov, der var professor i biokemi, fik sin brede berømmelse som forfatter af science fiction bøger, og han skrev for 75 år siden tre love gældende robotter.

De blev senere fulgt op med en fjerde lov, der udgør essensen. ”A robot may not harm humanity, or, by inaction, allow humanity to come to harm”, altså, en robot må ikke skade menneskeheden, eller – ved ikke at gøre noget – tillade menneskeheden at blive skadet”. Uanset hvem, der giver ordren.

Regler for selvkørende biler

De selvkørende biler repræsenterer p.t. det tætteste ægteskab mellem kunstig intelligens og nyere robotteknologi, og alene bilerne rejser mange etiske spørgsmålet. For eksempel, hvad når en ulykke ikke kan afværges? Hvorledes skal AI-systemet prioritere?

I september offentliggjorde det tyske transportministerium sin holdning i den relation.

1. Står valget mellem at volde skade mellem ”ting” som for eksempel bygninger og dyr, skal dyret skånes.

2. Står valget mellem et dyr end et menneske, skal mennesket skånes.

3. Og menneskeliv må ikke værdisættes.

Det langsomme, gamle menneske er ikke mindre værd end den unge, på vej over vejbanen.

Men i denne uge fortalte italienske universitetsforskere så om deres AI-baserede system, der lader ”chaufføren” – bilejeren - bestemme, hvem i bilen, der skal overleve ved en ulykke.

Sætter han sit eget liv højest, vil den selvkørende bil blive forsøgt manøvreret af AI-systemet, så hans position i bilen beskyttes bedst muligt under ulykken.

Forskerkonkurrencen

Universitetsforskere har selvfølgelig travlt med den kunstige intelligens, og der udspyes mange spektakulære resultater.

Den med videoen, hvor der er lagt helt andre ord i Obamas mund, end dem han har sagt, er baseret på analyse af mundbevægelser koblet til ord, og nyheden om manipulationsmuligheden kom i sommer fra Washington State University. 

Den kan du læse her.

Tyske og amerikanske universitetsforskere har sammen ændret personers ansigtsudtryk på video, så for eksempel Bush kan smile skadefro, mens han taler om noget dybt tragisk. Det finder du mere om her.

Og forskere ved University of Cambridge kan identificere den demonstrant, der har maskeret sig, hvilket du kan læse mere om her. 

Disse resultater er eksempler på, hvad der popper op i nyhedsstrømmen.

Jeg selv får fornemmelsen, at det fra forskernes side også handler om at score stor opmærksomhed. Den kan være afgørende for at få de nødvendige bevillinger, eller en af de alt for få faste stillinger på universiteterne – og/eller fede foredragshonorarer.

Berømt på profilering

Da Michal Kosinski, forsker ved det fornemme Stanford-universitet i Californien, i september fortalte om, hvorledes kunstig intelligens ud fra sin snagen i sociale medier efterhånden blevet i stand til at kunne identificere homoseksuelle på et datingsite ud fra portrætfoto, gik historien verden rundt.

Nyheden blev sikkert hilst velkommen i de seks lande, der stadig henretter mennesker for at være homoseksuelle, og i de store grupper i andre lande, der gerne så det samme ske.

Spørgsmålet er, om den AI-baserede sortering også kommer til at indgå i for eksempel HR-afdelingers profileringspakker – i firmaer, hvor topledelsen har særlige holdninger, om i minus eller plus i relation ansattes seksuelle præferencer.

Eller forestil dig app’en brugt på de steder på nettet, hvor hån, spot og latterliggørelse er hele formålet.

I det godes tjeneste?

Men forskerne bag både ”Obama”-videomanipulationen og Michal Kosinski fortæller, at de er ude i det godes tjeneste. De vil advare om, hvad kunstig intelligens kunne misbruges til, så der kan forebygges.

Kosinski sagde også ”Jeg bygger ikke bomben, men viser blot, at den eksisterer”. 

Hans berømmelse nåede for nylig det svensk/norske underholdningsshow, Skavlan, der vises om fredagen i prime time i begge lande. Men da Kosinski var i Skavlan, så jeg ikke så meget som et sekund af advarsel mod AI initieret fra hans side.

I stedet så jeg en mand, der var pavestolt over sin forskning, og det var op til værten, Fredrik Skavlan at nævne risici ved profileringen.

Klummen fortsætter under billedet...

Brexit og Trump

I forvejen var Kosinski dog kendt blandt dem, der interesserede sig for det britiske big data-analysefirma Cambridge Analytica’s rolle i Brexit-resultatet og Trump-valget. 

Kosinki selv er fra Polen, men fik mulighed for at tage sin ph.d. på Cambridge i Storbritannien – i dets Psychometrics Centre. Ph.d.-arbejdet skete i samarbejde med en anden studerende, David Stillwell. 

Stillwell havde udviklet en Facebook-app med navnet MyPersonality, fyldt med spørgsmål, som folk kunne besvare for at finde ud af, hvilke personlighedstræk de havde. Var de for eksempel åbne over for nyt, var de af den bekymrede type, var aggressionen mere fremtrædende end venligheden etc.

Guldgrube af persondata

App’en blev særdeles populær blandt folk og dannede grundlag for, hvad mediet Motherboard betegner som det største datasæt, der nogensinde var samlet, hvor tal vedrørende en persons psyke (psykometri) er kombineret med Facebook-profiler – hvad folk ”like’r”, hvad de deler, alder, køn etc. 

Motherboard skriver blandt andet:

”In 2012, Kosinski proved that on the basis of an average of 68 Facebook "likes" by a user, it was possible to predict their skin color (with 95 percent accuracy), their sexual orientation (88 percent accuracy), and their affiliation to the Democratic or Republican party (85 percent). But it didn't stop there. Intelligence, religious affiliation, as well as alcohol, cigarette and drug use, could all be determined. From the data it was even possible to deduce whether someone's parents were divorced.”

Hudfarve, seksuel orientering, politisk og religiøs holdning samt meget mere. 

Det var ånden, der blev sluppet ud af flasken, og grebet af Cambridge Analytica, som har været i aktion med påvirkning af vælgere i flere lande. Firmaet bygger på penge fra en amerikansk tech-milliardær, den neokonservative Robert Mercer (som jeg skrev om her.

Michal Kosinki scorede selv en stilling som ”assistant professor” ved Stanford, hvor han fortsætter med sine bemærkelsesværdige profileringer. I september gjaldt det den nævnte profilering af homoseksuelle – en ”gaydar” (gay+radar), som det blev kaldt. 

Profilering af jødehadere

I samme måned ramte en profilering med relation til jøder medierne, men den stod Facebook bag. Facebook havde brugt sin AI til at identificere ”jøde-hadere”. Dermed kunne de sælge annonceplads målrettet jødehadere til forretningsdrivende, der solgte Nazi-memoralier.

Muslim-hadere er sikkert også for længst profileret. Mexikaner-hadere ligeledes. Vel også kvindehadere. Og gruppen jøder som så, men den gruppeprofilering er nok det allersidste, der vil blive snakket offentligt om.

Cambridge Analytica’s individuelt rettede Facebook-annoncer til fordel for Trump, der selv spillede på racisme og sexisme, var skjult for alle andre. Ingen offentlighed, i modsætning til, når der annonceres via tv, radio, aviser og magasiner. 

Klummen fortsætter under billedet.

Russerne

Ifølge mediet Vox.com  er interessen for den skjulte praksis stadig såre aktuel. 

En undersøgelseskomité, der ser nærmere på Trump i relation til russiske forbindelser, søger indblik i, om der var en forretningsaftale mellem Cambridge Analytica og russiske interessenter med formålet at få påvirket valget blandt andet med fake news. Det kan du læse mere om her.

I den forskning i AI, der finder sted i erhvervslivet, findes garanteret også spektakulære resultater, der får længslen efter etiske overvejelser til at melde sig.

Men i erhvervslivet er man tyst. Det er tilfældigheder, der gør, om det kommer til omverdenens kendskab. Som med Facebooks profilering af jødehadere. 

Der var gysser i det, og jeg tror ikke, at Facebooks offentliggjorte anger over det skete, ændrer ønsket om at presse citronen til det yderste. Ligesom andre firmaer, der gribes med bukserne nede, nok ærgres mest over, at de blev afsløret. 

Staters kontrol-tech

Tysthed er der også fra staters side – for det meste. Men i Kina, hvor der bevilges kæmpebeløb for at gøre nationen til verdens førende inden for AI, bruges en vis åbenhed med formålet at fortælle borgerne, at de er gennemsigtige, om dissident, kriminel eller bare helt almindelig borger.

Selv deltagelse i en ølfestival rager staten, der fortalte, at AI-baseret ansigtsgenkendelse ved en sådan festival havde identificeret 25 efterlyste kriminelle. Der var taget 18 videokameraer i brug, og alle 2,4 millioner besøgende fik ansigtet tjekket. 

Yderligere et udbytte for det kinesiske politi blev identifikation af mennesker, der tidligere var testet positivt for stofmisbrug. De blev nuppet og testet igen.  

Hvor mange ”false positives” - altså falsk identificerede mennesker - politiet tog fat i, fortæller historien ikke.

Ansigtet afgørende

Men brugen af ansigtsgenkendelse går langt videre i Kina, lige fra til at erstatte flyets boarding card til at betale for den friterede kylling, fortæller magasine QZ

Senest berettes om, hvorledes AI koblet til videokameraer ved lyskryds gør det muligt at identificere og straffe mennesker, der går over for rødt lys. 

Det er også Kina, der p.t. mener at kunne identificere potentielt kriminelle via deres ansigtstræk.  Så ryger vi pludselig et par århundrede tilbage i tiden, hvor kraniemålinger blev brugt til det samme, og samtidig ude i science fiction-filmen Minority Report, hvor kriminalitet blev forudset. 

Predictive policing

Men det er ikke kun i Kina, man forsøger at forudsige kriminalitet med AI. Det, der kaldes predictive policing, er blevet så varmt et emne, at politi, herunder det danske, køber sig fattige i særlige AI-systemer til ”predictive policing” ikke mindst fra amerikanske Palantir Technologies.

Sådanne systemer gennemtrevler folks gang på sociale medier, diverse databaser købt fra ”databrokers”, teleregistreringer og parrer det med politiets egne registre for at finde risikopersoner og risikoområder. 

Det meste begrundes fra politisk hold med, at man skal identificere potentielle terrorister. 

I USA har predictive policing intensiveret fokus og dermed ressourceforbruget på de sorte samt på fattige områder, så blege kriminelle kan måske slappe lidt mere af. I visse retssale bruges et AI-program desuden til at foreslå, hvor længe en kriminel skal bures inde ud fra en profilering, der viser risiko for tilbagefald til kriminalitet efter løsladelse. 

Men ingen – selv ikke den dømte - kan få oplyst, hvilke faktorer, der er taget i betragtning over for den enkelte. En forretningshemmelighed, siger firmaet Compas, hvis AI-produkt, domstolene benytter. 

Nul transparens 

Etik og kunstig intelligens er en umulig kombination, fordi der savnes transparens, og ikke blot i retssalen. Det vil ligge i selve den komplekse teknologi.

Det er ikke som med et regnskabssystem, hvor alt er kravspecificeret fra A-Z og programmeret trin for trin af mennesker. Med AI er vi over i, at computeren ”programmerer” sig selv, men godt nok med mennesket som en slags slags domptør. 

Det er en domptør, der sætter labels på træningsmaterialet, og som ved hvilket resultat, der ønskes. Og så er det groft sagt ret så meget op til computeren at nå resultatet. 

Men lige nøjagtigt hvilket sæt af algoritmer, som computeren til sidst har konstrueret i de mange lag af neurale netværk for at opnå de ønskede resultater med, kan være uigennemskuelige.

Google har i øvrigt også netop demonstreret, hvorledes selskabets Deep Mind har trænet sig selv, altså uden mennesket som domptør.  Menneskets rolle var indskrænket til at opstille nogle regler.

Tech-giganten, der selv udvikler en særlig AI-chip, har i øvrigt oprettet en intern instans med fokus på AI og etik.

Etik fra AI-institut

Blandt de kendte mennesker, der har efterlyst større fokus på etik, gik én af dem videre, og det er milliardæren Paul Allen. For dem, der ikke måtte kende manden, kan nævnes, at han i 1975 var medstifter af Microsoft. 

I 2014 så Allen Institute of Artificial Intelligence lyset, og for nylig offentliggjorde instituttet et forslag til tre love gældende kunstig intelligens.

Lov nummer 1 er, at ingen nogensinde må kunne slippe af sted med at skyde skylden på kunstig intelligens, når noget er gået galt. Ansvaret skal forankres juridisk om på en virksomhed, en myndighed eller en privat person.

Lov nummer 2 stiller krav om, at AI-systemet skal give ren besked – ”jeg er ikke et menneske”. Ingen må føres bag lyset og tro, at de snakker med et menneske, når det er med en softwarebot. 

Lov nummer 3 gælder privatlivets fred. Intet AI-system må beholde eller videregive fortrolig information uden udtrykkelig tilladelse fra kilden til den information.

For højtflyvende

Det er en højflyvende ambitionsniveau, hvad angår den kunstige intelligens. Så højt, at benene næppe når jorden. Der er alt for mange penge i at ignorere sådanne love, selv om færre mennesker ville føle sig snydt eller overvåget og udleveret.

Havde lov nummer 2 om, at AI aldrig må udgive sig for at være et menneske, eksisteret, ville 11 millioner mænd ikke have følt sig som idioter, da der i 2015 skete et hack af webstedet, Ashley Madison, hvor mennesker i faste parforhold søgte partnere til utroskab. 

Mændene var gennem chat med”sexede” softwarebots blevet overtalt til at betale for medlemskab som vejen til en fed affære. Hacket viste, at antallet af rigtige kvinder på utroskabssitet var minimalt. 

Data som nutidens olie

Lov nummer 3, der gælder privatlivets fred? Heller ingen gang på jorden. 

Data er som bekendt nutidens olie – det råstof, der gør folk rige. 

Og data suges ud fra alskens steder, hvor mennesker færdes om på nettet eller i den virkelige verden, og sælges til højre og venstre i rå eller i raffineret form, spyttet ud af den kunstige intelligens.

På en eller anden måde skal der sker en regulering, men om den bliver tidssvarende og effektiv er nok tvivlsomt.

I mellemtiden kan vi så hygge os lidt med, når den kunstige intelligens får demonstreret, at det med sund fornuft er noget, der hører den naturlige intelligens til (når der lige bortses fra visse personer i politik, medier og udenfor).

Forleden så jeg følgende et tweet fra en redaktør ved navn Kevin Nguyen – han skulle se en bestemt film på en bestemt dag. Derfor tastede han det ind i kalenderen:

”Tried to add "12 Years a Slave" to Google Calendar and it created a 12-year-long event called "a Slave".

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling. 

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt? 

Læs vores klumme-guidelines og send os noget tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.