Artikel top billede

Mange fejl i Microsofts store Bing AI-forestilling: Her tog den kunstige intelligens fejl

Microsofts AI-assisterede chatbot kan have tendens til at lave fejl og opdigte oplysninger. Selv under den stort anlagte offentliggørelse.

Microsofts AI-assisterede version af Bing-søgemaskinen er overbevisende, men selv under den offentlige fremvisning, kunne den ikke undgå at give svar med en stribe faktuelle fejl.

Ved eventet understregede Microsofts administrerende direktør, Satya Nadella, overfor finansmediet CNBC, ar teknologien kan give svar på sprøgsmål, som lyder som var de skrevet af et menneske og at det kan sammenlignes med ’den industrielle revolution for vidensarbejde’.

Tjenestens AI-assisterede svar bød dog på faktuelle fejl under selve seancen, hvor den blandt andet analyserede regnskaber fra virksomheden Gap og Lululemon. Visse tal var udeladt og andre var opfundet.

I tjenesten analyse af Gap-regnskabet dukkede følgende fejl op:

  • Dækningsbidraget blev angivet til 37,4 procent i stedet for 38,7 procent
  • Driftsmargin lød på 4,6 procent i stedet for det reelle tal på 5,9 procent
  • Udbyttet per aktie lød på 0,42 dollar i stedet for de korrekte 0,71 dollar eller 0,33 dollar efter skat.
  • Til sidst kom Bing AI med en prognose, hvori der indgik oplysninger om fremtidig dækningsbidrag og udbytte, en prognose som virksomheden skrottede i august.
”Bing AI fik svaret helt forkert på nogle af spørgsmålene under deres demo, men ingen bemærkede det,” noterede den uafhængige forsker Dmitri Brereton i et opslag på Substack, skriver CNBC.

Ud over fejl i de to virksomhedsanalyser, fik Bing AI også nogle faktuelle fejl i teknikbladet om en støvsuger og rejesplaner til Mexico, noterer han.

De opfundne oplysninger kaldes for ’hallucinationer’, hvor den kunstige intelligens synes at opdigte nye, ukorrekte oplysninger tilsyneladende ud af den blå luft.

Ved Googles sammenlignelige præsentation af sin pendant til Bing AI og ChatGPT, kaldet ’Bard’, døjede søgegiganten ligeledes med en AI-assisteret chatbot med en tendens til at give faktuelt forkerte svar.