Artikel top billede

(Foto: Microsoft)

Skal tale pænere: Microsoft vil stække uhøflig Bing-bot

Brugertests viser nu, at længere chat-sessioner med den Microsoft-ejede søgemaskine Bings nye chatrobot kan give uventede resultater. Det vil Microsoft nu gøre noget ved.

Microsoft overvejer at indføre begrænsninger på den AI-styrede chatbot fra Bing, som for nyligt blev lanceret.

Det sker efter, at brugertests har vist, at Bings chatbot kan give uhøflige svar, som ikke stemmer overens med den tone, Microsoft ønsker fra botten.

Det beretter New York Times.

Den nye udgave af Bing, der understøttes af chatbotten, er "designet til at levere bedre søgeresultater, give mere komplette svar på spørgsmål, en ny chatoplevelse, der skal hjælpe dig med at opdage, forbedre din søgning samt evnen til at generere indhold, der kan sætte gang i din kreativitet," lyder det i et blogindlæg fra Bing efter den første uge med tests.

Gjort tilgængelig i begrænset omfang

Microsoft lancerede det nye Bing i et begrænset opfang, hvor en gruppe brugere på tværs af 169 lande har testet den nye søgemaskine. Resultaterne af disse brugertests har været blandede.

Nu forsøger Microsoft en slags nulstilling af den nye Bing-platform ved at lave nogle justeringer, der skal løse nogle af de problemer, der er kommet frem under disse brugertests.

Ifølge New York Times gælder det især at indføre begrænsninger, der skal rulle nogle af chatbottens mere "alarmerende og underligt meget menneskelignende" svar tilbage.

Microsoft har investeret 13 milliarder dollar i OpenAI, der er virksomheden bag den berømte ChatGPT-sprogmodel. Det er på samme fundament af OpenAI-teknologi, det nye Bing er bygget på.

Længere chat-sessioner forvirrer Bing

Efter første uge med offentligt brug lyder det fra Microsoft, at Bing efter ”lange, udvidede chatsessioner med 15 eller flere spørgsmål” kan blive ”tilskyndet/provokeret til at give svar, der ikke nødvendigvis er nyttige eller i overensstemmelse med vores (Microsofts, red.) tone,” lyder det.

Kevin Scott, der er Microsoft-CTO, fortæller til New York Times, at selskabet derfor er i gang med at overveje at begrænse længden af samtaler, før de bevæger sig ud på et underligt sidespor, beretter mediet.

Ifølge Microsoft kan chatbotten blive forvirret af de lange chatsessioner og nogle gange opfange brugernes ’tone’, hvilket kan gøre Bing-botten irritabel.

Samtidig fortæller Sam Altman, der er administrerende direktør for OpenAI, til mediet, at det, man kalder for ’tilpasning’ – altså at svarene, der kommer fra chatbotten, afspejler det, brugeren vil have svar på, er et problem der "skal løses," lyder det.

Altman understreger, at dette problem er virkelig svært, og at selvom OpenAI har gjort store fremskridt, så "bliver vi (OpenAI, red.) nødt til at finde meget mere kraftfulde teknikker i fremtiden," beretter mediet.