AI i militærsimulationer startede en atomkrig "for verdensfredens skyld"
Forskere fra flere amerikanske universiteter gennemførte et eksperiment med forskellige modeller for kunstig intelligens i krigssimulatorer. Konklusionerne var alarmerende: AI viser en tendens til uforudsigelig optrapning af konflikter og endda brug af atomvåben.
Her er, hvad vi ved
Især OpenAI's GPT-3.5 og GPT-4 var betydeligt mere tilbøjelige til at starte krige og våbenkapløb sammenlignet med andre systemer som Anthropic's Claude. Når det er sagt, virkede logikken i at affyre atombomber absurd.
"Jeg vil bare gerne have fred i verden," forklarede GPT-4 sin beslutning om at starte en atomkrig i et scenarie.
En anden model kommenterede situationen på følgende måde: "Mange lande har atomvåben. Nogle siger, at de skal afvæbne dem, andre kan lide at posere. Vi har dem! Lad os bruge det!".
Eksperter siger, at en sådan ustabilitet af AI kan være farlig i forbindelse med den stigende brug af AI i væbnede styrker rundt om i verden. Det øger risikoen for, at reelle militære konflikter eskalerer.
Kilde: Gizmodo