Skärmdump från AI-förgiftare Nightshade

Att förgifta AI eller inte förgifta AI, det är frågan


OpenAI har varit tydliga med att deras affärsmodell inte skulle fungera ifall de tvingades betala för all ”träningsdata” de tar sig friheten att samla från internet. Och motreaktioner har uppstått.

Gary Marcus är en av de som under 2023 visat på hur generativ AI riskerar att återskapa ganska exakta avbilder från kända verk.
Things are about to get a lot worse for Generative AI (Gary Marcus på Substack)

En motreaktion finns för de som vill kämpa emot och göra det svårt att de bilder och konstverk man skapat kan användas av AI-modeller. Två lösningar har släppts på senare tid. Glaze och Nightshade. Du kan ladda ner dem nedan ifall du vill.

Jag testade Nighthshade på min jobbdator och det tar fruktansvärt mycket tid och kraft från en ändå hyggligt snabb dator. Hur hållbart är det att lägga 30 minuters CPU-kraft per bild? På min Macbook Air med en m2-propp tar den två-tre kärnors kapacitet med Nightshade. Och elförbrukningen har jag ingen aning om.

Vore enklare att förbjuda OpenAIs, och andras, stöld av folks skapelser. Ifall det istället handlar om att behöva försvara sig kommer AI-förgiftning att bli ett oerhört resursslöseri när folk vill skydda sina alster, på samma sätt som det är en extremt ohållbar energiekvation att träna upp modellerna.

Kanske är det därför OpenAIs VD Sam Altman menar att det behövs ett genombrott på energiområdet för att det här med AI ska funka?

Vill du förgifta AI-modeller?