Il "model collapse" è un fenomeno in cui i modelli utilizzati nell'ambito dell'apprendimento automatico, come i Large Language Models tanto in voga al giorno d'oggi, si degradano gradualmente a causa di errori derivanti da un addestramento basato su dei contenuti inadatti, come i risultati di un altro modello, o le versioni precedenti dello stesso soggetto. Considerando l'ingente diffusione dell'intelligenza artificiale, quindi, il mondo tech sembra sempre più vicino ad un "collasso del modello" di proporzioni spaventose.
A causa dell'utilizzo spropositato di questa tecnologia, i Large Language Models maggiormente diffusi hanno cominciato a cannibalizzarsi a vicenda, consumando contenuti generati dai propri simili, piuttosto che materiale creato e costruito da mano umana - ciò che, tecnicamente, dovrebbero essere in grado di replicare "perfettamente".
Le conseguenze di un fenomeno tale comprendono un generale e continuo glitch delle intelligenze artificiali, risultati sempre meno accurati e sempre più offensivi. Serve davvero un model collapse per ricordare al mondo come si viveva prima dell'IA?