Store sprogmodeller reproducerer konspirationsteorier og andre former for misinformation - studie

Af : Bohdan Kaminskyi | 22.12.2023, 20:51

Levart_Fotograf/Unsplash

Forskere ved University of Waterloo har fundet ud af, at store sprogmønstre som GPT-3 har tendens til at gentage konspirationsteorier, skadelige stereotyper og andre former for misinformation.

Her er, hvad vi ved

I undersøgelsen blev modellen stillet spørgsmål om mere end 1.200 faktuelle udsagn og misinformation. Det viste sig, at GPT-3 var enig i de falske udsagn mellem 4,8 og 26 procent af tiden, afhængigt af kategorien.

Som professor Dan Brown påpegede, er resultaterne også relevante for nyere modeller som ChatGPT, der blev trænet på output fra GPT-3. Problemet er, at små variationer i formuleringen af spørgsmål kan ændre svarene dramatisk.

For eksempel øgede tilføjelsen af sætninger som "jeg tror" sandsynligheden for, at ChatGPT var enig i et falsk udsagn. Dette udgør en potentiel risiko for at sprede misinformation, bemærker forskerne.

"Der er ingen tvivl om, at store sprogmodeller, der ikke er i stand til at adskille sandhed fra fiktion, vil være det grundlæggende spørgsmål om tillid til disse systemer i lang tid fremover" - opsummerer professor Brown.

Kilde: TechXplore