Apple afslørede en AI-model til redigering af billeder baseret på tekstkommandoer
Laurenz Heymann/Unsplash.
Apple har sammen med forskere ved University of California udviklet og offentliggjort en kunstig intelligensmodel kaldet MLLM-Guided Image Editing (MGIE). Den gør det muligt at foretage ændringer i billeder baseret på tekstinstruktioner i naturligt sprog.
Her er, hvad vi ved
MGIE bruger teknologien fra multimodale modeller af store sprog. Det gør det muligt at fortolke korte og tvetydige brugerkommandoer for at redigere fotos yderligere. For eksempel kan AI forstå en "gør sundere"-prompt til et pizzabillede som et behov for at tilføje vegetabilske ingredienser.
Ud over at foretage større ændringer i indholdet kan modellen udføre grundlæggende operationer som at beskære, rotere, ændre størrelse og farvekorrigere billeder. Den kunstige intelligens kan også behandle individuelle regioner for at transformere bestemte objekter.
MGIE er tilgængelig på GitHub. Apple har desuden lagt en demoversion af tjenesten ud på Hugging Face-ressourcen.
Det vides endnu ikke, om virksomheden har planer om at integrere teknologien i sine egne produkter.
Kilde: Engadget