Hvis man søger på frasen "Chinese people" i Google, er det ikke flatterende forslag, der dukker op. Allerede inden man har afsluttet sin søgning, gætter Google Instant på, at man søger oplysninger om, at kinesere spiser børn eller oplysninger om det kinesiske folkefærds tendens til at spytte.
Google Instant er en autofuldførelse funktion, som foreslår de mest oplagte afslutninger på de søgeord, som man indtaster i Google. Det er den samme funktion, som også færdiggør søgningen "Black people" med ordene "stole my car".
På den måde er Google uforskyldt, men systematisk med til at holde live i fordomme. Det mener en australsk anti-racisme-debattør:
"Der er mange, der bare surfer rundt på Google, når de keder sig, og som ofte klikker på de ting, der virker mest provokerende eller hadefulde," siger australske Alex Gollan til Sydney Morning Herald.
Googles hjælpende hånd til sine brugere kan ifølge ham risikere at fastholde fordomme, fordi funktionen opfordrer brugere til at klikke på krænkende materiale og hadefulde links. En professor mener tilmed, at det kan være med til at legimitere fordommene.
Google oplyser, at funktionen er tiltænkt som en måde til "objektivt at afspejle indholdet på nettet". Både det positive og det knap så positive. Men firmaet vil gerne tilbyde at fjerne hadefulde forslag, hvis de bliver anmeldt.
Det lader ikke til, at de krænkende forslag i Google Instant også gælder danske søgninger.