Förgiftad data och upphovsrätt med AI-konst
För att en AI ska kunna skapa bra bilder behöver den först tränas på väldigt många bilder. Internet är fyllt av bildmaterial och bildbanker och därför har man använt material från nätet för att träna upp AI. Problemet är att många av dessa bilder är upphovsskyddade.
Konstnärer, fotografer och illustratörer som äger bilderna känner att deras rättigheter kränks när det gäller upphovsrätten. Krasst kan man säga att en AI tränas på att skapa bilder genom att lära sig av bilder skapade av människor som den sedan kanske kommer att ersätta som bildskapare. Det finns idag möjlighet att anmäla att man inte vill att en AI ska träna på ens bilder och hindra en AI från att skapa konstverk i en stil av en känd konstnär till exempel.
Men det är idag en gråzon och vi får se hur frågan kommer att lösas. Om det blir någon generell avgift/licens som företagen betalar för att kunna träna på upphovsskyddat material. I USA pågår också en del rättsprocesser där upphovsmän som författare, musiker och konstnärer har gjort en grupptalan mot de stora AI-företagen, om att deras material har använts för att träna AI utan deras medgivande eller ekonomisk kompensation.
En ny form av motreaktion mot de stora AI-företagen är verktyget Nighshade, som lägger till osynliga pixlar i bildfilerna på de konstverk som konstnärerna laddar upp på nätet. Det beskrivs som en slags ”förgiftade” pixlar så när bildverktyg som DALL-E, Midjourney och Stable Diffusion tränar på bilderna kommer det att leda till att träningsdata skadas och blir korrumperad och att bilderna i längden inte blir bra.
Att ”förgifta” bilder är väl ingen lösning som är hållbar i längden, utan troligen kommer det att bli någon slags överenskommelse mellan upphovsmännen och de stora AI-företagen. För företagen är beroende av att människor skapar nya bilder för att kunna fortsätta träna AI-modellerna så de blir bättre. Risken är annars stor att AI-modellerna kommer att tränas på andra AI-bilder som produceras på löpande band och tester har visat att det då finns en risk för ”model collapse”, vilket ger liknande resultat som ”förgiftade” pixlar, att data blir korrumperad och inavlad och resultat blir konstigt i längden.