Eksperter latterliggør britiske politikeres antagelse om, at AI en dag vil være i stand til at træffe beslutninger på slagmarken
Eksperter i teknologijura og software diskuterede med det britiske overhus muligheden for at overføre ansvaret for kampbeslutninger for våben med kunstig intelligens.
Hvad er kendt
Overhuset forsøgte at overbevise eksperterne om, at sådanne våben kunne introduceres gradvist eller forsigtigt, tilsyneladende af frygt for at miste fordelen ved brugen af AI til militære formål.
En af herrerne spurgte, om AI-våben kunne leve op til kriterierne om distinktion og proportionalitet. Professor Christian Enemark svarede, at kun mennesker er i stand til at gøre det, og at en ikke-menneskelig enheds autonome handlinger er "filosofisk nonsens".
Laura Nolan, ekspert i AI-etik, sagde, at våben med kunstig intelligens ikke kan vurdere proportionaliteten af deres handlinger, da de ikke kender den strategiske militære værdi af et angreb. Ifølge hende kender våben på slagmarken ikke andet end nogle billeder og maskinlæring. De forstår heller ikke den militære værdi, som afhænger af den bredere strategiske kontekst.
Forskeren Taniel Yusef sagde, at simple algoritmer til klassificering af måldata kan være forkerte. I dette tilfælde ville våbenrapporten være baseret på matematik, som ville være korrekt i forhold til koden, men ikke i forhold til virkeligheden.
Hun udtrykte bekymring for, at uden et juridisk bindende instrument, der sikrer menneskelig kontrol over AI-våben, vil dette aspekt blive overset.
Kilde: The Register: The Register.