AI-hallucinationer truer den videnskabelige troværdighed - studie

Af : Bohdan Kaminskyi | 21.11.2023, 16:49

Growtika/Unsplash

Store sprogmodellers (LLMs) evne til at generere falsk, men overbevisende indhold er en direkte trussel mod videnskaben og den videnskabelige sandhed. Det viser en undersøgelse fra Oxford Internet Institute.

Her er, hvad vi ved

Den generative AI's evne til at "opdigte" information kaldes hallucinationer. LLM'er, der er trænet på data fra internettet, kan ikke garantere gyldigheden af svarene, siger forskerne.

Datasæt kan indeholde falske udsagn, meninger og unøjagtige oplysninger. Desuden kan folks overdrevne afhængighed af chatbots forværre problemet.

Undersøgelsens medforfatter Brent Mittelstadt bemærkede, at brugerne antropomorfiserer LLM'er og tager deres svar som sandhed. Det skyldes til dels chatbots' interface, som kommunikerer med mennesker og tilsyneladende besvarer ethvert spørgsmål med selvsikkert klingende, velskrevet tekst.

Inden for videnskaben er det især vigtigt at stole på pålidelige data. For at undgå AI-hallucinationer anbefaler forskere at bruge LLM'er som en "nulsumsoversætter". Det betyder, at brugerne skal give algoritmen relevante data og bede den om at transformere dem, i stedet for at stole på modellen som en kilde til viden.

På den måde bliver det lettere at kontrollere, om resultatet er korrekt.

Forskerne benægter ikke, at LLM'er vil hjælpe med at organisere den videnskabelige proces. Men de opfordrer samfundet til at være mere ansvarlig i brugen af AI.

Kilde: The Next Web: The Next Web