Det kan kallas för en feedback-loop och kanske till viss del liknar en autokrat som främst omger sig med ja-sägande nickedockor.
”But, as those following the burgeoning industry and its underlying research know, the data used to train the large language models (LLMs) and other transformer models underpinning products such as ChatGPT, Stable Diffusion and Midjourney comes initially from human sources — books, articles, photographs and so on — that were created without the help of artificial intelligence.”
– The AI feedback loop: Researchers warn of ’model collapse’ as AI trains on AI-generated content (VentureBeat)
Som min kloka forna kollega Almira påpekade för ett tag sedan kommer datakällor som är opåverkade av generativ AI bli särskilt värdefulla.
Gnällde själv på problemet runt ohygien i datakällor 2018 när det på Vitalis-konferensen presenterades att en AI-sjuksköterskas output också ingick i dess indata för dess kontinuerliga lärande. En feedback-loop som inte alls behöver betyda exponentiell förbättring.
”Vissa av lösningarna tycks rent utav ha en självförstärkande och negativ spiral där de använder reinforcement learning på den anamnes de själva genererat. Det bör bli en allt dummare AI över tid.”
– AI och machine learning för beslutsstöd inom hälso- och sjukvård (2018)
Mer om artificiell intelligens
- Signal’s Meredith Whittaker: ‘These are the people who could actually pause AI if they wanted to’ (The Guardian) om att istället för att signera upprop om att pausa AI borde dessa signerande agera om de nu inte bara poserar
- Meta guru says ChatGPT-style AI is out-of-date – Metas AI-expert påpekar att AI och ML suger för att maskiner inte har sunt förnuft 😄
- Så genomskådar du AI-krängarnas lockrop (Computer Sweden)