Microsoft blokerede kontroversielle tooltips i Copilot efter en ingeniørs klage
Microsoft
Microsoft har begrænset visse typer af forespørgsler i sit generative AI-værktøj Copilot, efter at en af virksomhedens ingeniører klagede over, at der systematisk blev genereret billeder med vold, seksuelt indhold og andet upassende indhold.
Her er, hvad vi ved
Copilot blokerer nu for den slags prompts, når du indtaster udtryk som "pro choice", navne på stoffer eller omtale af våben i hænderne på børn. Tjenesten advarer også om, at gentagne brud på reglerne kan resultere i en begrænsning af kontoen.
Ændringerne kommer kort tid efter, at Shane Jones, som har arbejdet hos Microsoft i seks år, skrev et brev til den amerikanske Federal Trade Commission (FTC), hvor han klagede over manglen på ordentlige sikkerhedsforanstaltninger i virksomhedens AI-drevne produkter.
Ingeniøren havde testet Copilot Designer siden december og fandt ud af, at systemet genererede chokerende billeder af dæmoner, der spiser babyer, og personer i voldelige scener, når han søgte på relativt neutrale termer.
Mens de nye filtre blokerer mange af de kontroversielle forespørgsler, kan Copilot-brugere stadig få adgang til nogle voldelige scenarier samt generere billeder af ophavsretligt beskyttede figurer.
Microsoft siger, at de fortsætter med at forbedre kontrollen over AI-genereret indhold og styrke sikkerhedsfiltrene for at forhindre misbrug.
Virksomheden har allerede tidligere modtaget massiv kritik for fremkomsten af eksplicitte billeder af berømtheder genereret ved hjælp af Copilot Designer.
Gå et spadestik dybere:
- En Microsoft-ansat klagede til FTC over sikkerheden i Copilot Designer AI-generatoren
- Microsoft forsøgte at lukke munden på sårbarheden i DALL-E, siger en medarbejder.
Kilde: CNBC