Da poco è stato pubblicato un interessante articolo su Wired che parla di Model Collapse per quanto riguarda l’AI generativa. Ma cosa si intende? è davvero un problema? scopriamolo insieme.
L’AI generativa è ormai abbondantemente frequente nei task delle nostre vite, lavorative e non. Ogni giorno vengono prodotti migliaia di contenuti tramite strumenti come Chat GPT e Midjourney che vengono poi pubblicati in rete.
Sappiamo anche come funziona l’AI generativa: vengono disposti dei dataset iniziali, dai quali l’AI impara a riprodurre dati di output simili a quelli di input. Gran parte dei dati iniziali, sono presi dalla rete e questo, secondo lo studio “The curse of recursion: training on generated data makes models forget” di Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot e Ross Anderson potrebbe portare al Model Collapse.
Il Model Collapse viene definito come un processo degenerativo in cui i contenuti generati dai modelli LLM (Large Language Model), andranno ad inquinare i dataset delle future generazioni di AI.
In parole più semplici: il model collapse si avrà quando le future AI verranno alimentate con dati generati dalle AI precedenti. Ma quale sarebbe il problema?