OpenAI har erkendt, at GPT-4 med "minimal risiko" kan hjælpe med at udvikle biologiske våben.
Mariia Shalabaieva/Unsplash
OpenAI har gennemført en undersøgelse for at vurdere risikoen ved at bruge deres nye GPT-4-model til at udvikle biologiske våben. Resultaterne viste, at adgang til AI-kapaciteter giver "mindst en marginal" stigning i effektiviteten af informationsindsamling til udvikling af biologiske trusler.
Her er, hvad vi ved
Halvtreds biologer og 50 studerende deltog i eksperimentet. De blev bedt om at finde oplysninger om dyrkning og distribution af farlige stoffer. Halvdelen af forsøgspersonerne fik adgang til en særlig version af GPT-4 uden begrænsninger, mens den anden halvdel brugte det almindelige internet.
Sammenligning af resultaterne viste en lille stigning i nøjagtigheden og fuldstændigheden af svarene i gruppen med adgang til AI. OpenAI-forskerne konkluderede, at der var en "i det mindste mindre" risiko ved at bruge modellen til at indsamle data om udvikling af biovåben.
Eksperter og politiske beslutningstagere har tidligere udtrykt bekymring over den potentielle brug af chatbots til at udvikle biologiske trusler. I oktober instruerede den amerikanske præsident energiministeriet om at sikre, at AI-systemer ikke udgør kemiske og biologiske risici. OpenAI-teamet arbejder nu på at minimere sådanne risici, efterhånden som AI-teknologien udvikler sig.
Kilde: OpenAI: OpenAI