AI-genererad bild av Midjourney. Prompt

AI som dricker ur en förgiftad brunn


Bra att det även i denna omgång av hög förhoppning runt allt som kallas AI lyfts problematisering av att AI-teknik konsumerar data som producerats av AI.

Det kan kallas för en feedback-loop och kanske till viss del liknar en autokrat som främst omger sig med ja-sägande nickedockor.

”But, as those following the burgeoning industry and its underlying research know, the data used to train the large language models (LLMs) and other transformer models underpinning products such as ChatGPT, Stable Diffusion and Midjourney comes initially from human sources — books, articles, photographs and so on — that were created without the help of artificial intelligence.”
The AI feedback loop: Researchers warn of ’model collapse’ as AI trains on AI-generated content (VentureBeat)

Som min kloka forna kollega Almira påpekade för ett tag sedan kommer datakällor som är opåverkade av generativ AI bli särskilt värdefulla.

Gnällde själv på problemet runt ohygien i datakällor 2018 när det på Vitalis-konferensen presenterades att en AI-sjuksköterskas output också ingick i dess indata för dess kontinuerliga lärande. En feedback-loop som inte alls behöver betyda exponentiell förbättring.

”Vissa av lösningarna tycks rent utav ha en självförstärkande och negativ spiral där de använder reinforcement learning på den anamnes de själva genererat. Det bör bli en allt dummare AI över tid.”
AI och machine learning för beslutsstöd inom hälso- och sjukvård (2018)

Mer om artificiell intelligens