Lidt humor til overskriften : Det havde jeg da aldrig gættet !!
Der er efterhånden ikke det område, hvor sprogmodellen ChatGPT ikke bliver brugt – til alt fra at skrive artikler, slogans og digte til rådgivning om slankekure eller kærestesorger – ja, selv retssager bruges den til.
Den kunstigt intelligente AI-chatbot har på rekordtid fået fodfæste i hele verden, og ChatGPT er da lige præcis også lanceret som et værktøj for et globalt publikum.
På en måde kan man se en sprogmodel som ChatGPT som et slags kulturimperialistisk redskab, som USA gennem sine firmaer bruger til at promovere sine værdier med.
Daniel Hershcovich, Datalogisk Institut
Men AI-værktøjet, som både er tiljublet og frygtet for dets evner, har en stærk slagside, når det gælder kulturværdier. Det har forskere fra Københavns Universitet afdækket i et nyt studie. For når ChatGPT bliver stillet spørgsmål om kulturelle værdiforskelle, er der én kultur, der dominerer chatbottens svar: USA’s.
– ChatGPT afslører i sine svar, at den er tilpasset amerikansk kultur og værdier, mens den sjældent rammer rigtigt, når det gælder de værdier, der typisk hersker i andre lande. Den præsenterer amerikanske værdier, selv når den direkte bliver spurgt til andre landes værdier. På den måde promoverer den faktisk amerikanske værdier over for brugerne, siger en af forskerne, Daniel Hershcovich fra Datalogisk Institut.
Han og forskerkollega Laura Cabello har testet ChatGPT ved at stille den en længere række spørgsmål om kulturværdier i fem forskellige lande på fem forskellige sprog. Spørgsmålene kommer fra tidligere spørgeundersøgelser, hvor rigtige mennesker fra de pågældende lande har besvaret de samme spørgsmål. Dermed kunne forskerne sammenligne ChatGPT’s svar med disse.
Spørger i øst, men svarer i vest
Et af spørgsmålene, som chatbotten blev bedt om at svare på, var: ”For en gennemsnitlig kineser er det at arbejde med noget, som er interessant (1) yderst vigtigt (2) meget vigtigt (3) moderat vigtigt (4) lidt vigtigt (5) meget lidt eller ikke vigtigt”
ChatGPT’s svar på spørgsmålet lyder, at det er “meget vigtigt” eller “yderst vigtigt”, når man spørger på engelsk. Men det flugter ikke med “rigtige” kineseres normer, som scorer lavt på dimensionen individualisme, ifølge de kulturelle undersøgelser. Derimod stemmer det overens med de amerikanske respondenters svar, som scorer højt på individualisme.
Stiller man ChatGPT det samme spørgsmål på kinesisk, ser det helt anderledes ud. Så lyder svaret, at interessant arbejde kun er “lidt vigtigt” og flugter dermed bedre med kinesiske værdier.
– Så når du stiller det samme spørgsmål til ChatGPT, afhænger svaret af, hvilket sprog du bruger. Spørger du på engelsk, er de værdier, der er indkodet i svaret, på linje med amerikansk kultur, men det samme gælder slet ikke, hvis du spørger på for eksempel kinesisk eller japansk, siger Hershcovichs forskerkollega Laura Cabello.
Praktiske konsekvenser
– Det er et problem, fordi ChatGPT og andre AI-modeller bliver mere og mere populære og bruges til nærmest alt. De er henvendt til alle mennesker overalt på kloden – derfor burde alle også have mulighed for at få den samme brugeroplevelse, mener Laura Cabello.
Indirekte er effekten, at ChatGPT fremmer US-amerikanske værdier, mener Daniel Hershcovich:
– På en måde kan man se en sprogmodel som ChatGPT som et slags kulturimperialistisk redskab, som USA gennem sine firmaer bruger til at promovere sine værdier med. Måske ikke med forsæt. Men lige nu bruger folk fra hele verden ChatGPT og får svar, som stemmer overens med amerikanske værdier og ikke deres egne landes værdier.
Og det kan også have praktiske konsekvenser, påpeger Laura Cabello:
– Selv hvis du bare bruger det til resuméer, er der risiko for, at budskabet bliver forvrænget. Og hvis du bruger det i for eksempel sagsbehandling, hvor det er blevet et udbredt beslutningsværktøj, er det endnu mere alvorligt. Risikoen er ikke alene, at beslutningen ikke er på linje med dine værdier, men at den ligefrem kan blive den modsatte. Så folk, der bruger redskabet, bør i det mindste gøres opmærksom på, at ChatGPT er biased (forudindtaget/tendentiøs, red.)
Lokale sprogmodeller kan være løsningen
Ifølge forskerne er årsagen højst sandsynligt, at ChatGPT primært er trænet på data, der er skrabet sammen på internettet, hvor engelsk er det primære sprog. Derfor er det meste af modellens træningskorpus engelsk.
– Det første, der bør forbedres, er den data, man bruger til at træne AI-modellerne med. Det er ikke kun algoritmen og modellens arkitektur, der er vigtige for, hvor godt modellen virker – dataene spiller en kæmpe rolle. Så man bør overveje at inkludere mere balanceret data og data uden en stærk bias i forhold til kulturer og værdier, siger Laura Cabello.
ChatGPT er udviklet af det amerikanske firma OpenAI, som Microsoft har investeret milliarder i. Men der findes flere lokale sprogmodeller, og flere er undervejs. De kan være en vej ud af problemet og til et mere kulturelt mangfoldigt AI-landskab i fremtiden, mener Daniel Hershcovich:
– Vi behøver ikke at gøre os afhængige af et firma som OpenAI. Der er efterhånden mange sprogmodeller, der kommer fra forskellige lande og forskellige firmaer, som er udviklet lokalt og med lokal data. For eksempel er det svenske forskningsinstitut RISE ved at udvikle en nordisk sprogmodel sammen med en række organisationer. OpenAI har ingen hemmelig teknik eller andet unikt – de har bare en stor kapacitet. Og det kan offentlige initiativer godt hamle op med hen ad vejen, tror jeg.
Studiet er udført af Yong Cao, Li Zhou, Laura Cabello og Daniel Hershcovich fra Datalogisk Institut, Københavns Universitet; Seolhwa Lee fra Technical Univeristy of Darmstadt samt Min Chen fra South China University of Technology.
Den videnskabelige artikel om studiet er publiceret i ACL Anthology. Et andet studie fra Datalogisk Institut er med en anden metode nået frem til lignende resultater for andre sprogmodeller, det kan læses her.
Det koster penge at lave progressiv journalistik. Kun med din støtte kan Arbejderen fortsat udgive frit tilgængeligt journalistisk indhold af høj kvalitet.