Artikel top billede

Fortalt til: Lars Jacobsen | Foto: Lars Jacobsen | Kathy Baxter (tv) (Foto: Lars Jacobsen)

Mennesker i IT
Udgivet 4. oktober 2018 kl. 15.34

En af udfordringerne ved at være en platform er, at vi kan hverken se eller røre ved kundernes data.

Men samtidig ved vi, at kvaliteten af træningsdata er virkelig afgørende for den måde, som kunstig intelligens opfører sig på.

Derfor er det vores opgave at hjælpe kunderne med at se og forstå deres data, så de kan identificere eventuelle bias eller fejl - og hvordan de kan skabe bedre resultater.

Når der er problemet med diskrimination i AI-systemer, handler jo netop ikke kun om modellerne, men om de data, som folk lægger ind i dem.

En af problemerne ved stemmegenkendelse er, at der er langt flere mandlige stemmer end kvindelige, når systemerne skal trænes. Derfor ved vi, at stemmegenkendelse virker lidt ringere for kvinder, som derfor oplever flere fejl.

Det viser data også. Man kan så tolke, at kvinder begår flere fejl, eller man kan tolke, at der er noget galt med ens systemer. Derfor er det vigtigt pt. at være kritisk over for sin egen research.

Så for at gøre en lang historie kort: Når du udruller AI-funktioner, er det ekstremt vigtigt at holde øje med, hvordan de performer og have feedback-systemer, som holder øje med, hvad der sker."

Kathy Baxter, architect of ethical AI-practice, Salesforce


Flere mennesker i IT Om mennesker i it