Ubemandede køresystemer er dårligere til at genkende børn og mørkhudede mennesker, viser undersøgelse
Forskere ved King's College London har konkluderet, at ubemandede køresystemer til biler er tilbøjelige til at være forudindtagede, især over for børn og sorte mennesker.
Her er, hvad vi ved
Holdet kiggede på otte systemer til detektering af fodgængere med kunstig intelligens, som bruges til forskning i autonom kørsel. De kørte mere end 8.000 billeder gennem softwaren og fandt, at den kunstige intelligens identificerede voksne fodgængere næsten 20 procent bedre end børn.
Derudover var de pågældende systemer 7,5% dårligere til at genkende mørkhudede mennesker, især i svagt lys, hvilket gør teknologien mindre sikker om natten.
Undersøgelsen testede ikke softwaren, som allerede bruges af robotbilproducenter som Waymo og Cruise. Men resultaterne bekræfter de voksende bekymringer om teknologiens sikkerhed.
Ifølge forskerne er hovedårsagen til AI's problemer med at genkende børn og mørkhudede mennesker bias i de data, der bruges til at træne algoritmerne. Typisk er voksne og lyshudede mennesker mere tilbøjelige til at være repræsenteret i datasæt.
En talsmand for Waymo sagde, at undersøgelsen ikke repræsenterer alle de værktøjer, der bruges i virksomhedens biler. Ud over kamerabilleder modtager den kunstige intelligens data fra sensorer som lidar og radar, som forbedrer nøjagtigheden af objektdetekteringen.
Waymo træner også systemet i at genkende menneskelig adfærd og sørger for, at datasættene er repræsentative.
Flashback
Algoritmer afspejler ofte bias i datasæt og i tankerne hos de mennesker, der skaber dem. Et almindeligt eksempel er ansigtsgenkendelsessoftware, som konsekvent har vist sig at være mindre nøjagtig, når den genkender ansigter på kvinder, mørkhudede mennesker og asiater.
Disse bekymringer har dog ikke stoppet begejstringen for sådanne AI-teknologier. Ansigtsgenkendelse har allerede været ansvarlig for den uretfærdige anholdelse af mørkhudede mennesker ved mere end én lejlighed.
Gå dybere:
- En uskyldig kvinde, der var gravid i ottende måned, blev arresteret i USA på grund af en fejl i ansigtsgenkendelsen.
- Politiet i Detroit vil ændre reglerne for brug af ansigtsgenkendelse efter fejlagtig anholdelse af en gravid kvinde.
Kilde: Gizmodo Gizmodo