Esplosione imminente nell’IA: ChatGPT e i suoi cloni stanno divorando i propri rifiuti digitali, rischiando un collasso totale! Esperti gridano al pericolo: "Se non fermiamo questa follia, l’intero sistema AI si autodistruggerà." #IAInPericolo #DatiContaminati #TechApocalisse
Dopo il lancio di ChatGPT da parte di OpenAI il 30 novembre 2022, che ha sconvolto il mondo come una bomba atomica digitale, gli esperti stanno suonando l’allarme apocalittico: l’IA generativa rischia di implodere su se stessa. Proprio come il test nucleare del 1945 ha lasciato un’eredità radioattiva che ha rovinato l’acciaio puro per sempre, i dati sintetici prodotti dalle AI stanno inquinando l’intero ecosistema digitale, rendendo tutto un gran casino.
Ora, mentre le IA continuano a ingozzarsi di contenuti finti e distorti, il pericolo di un Model Autophagy Disorder (MAD) – ovvero il collasso dei modelli – sta diventando reale e terrificante. Ogni testo, immagine o codice generato da queste macchine finiscono nei dataset per addestrare le nuove versioni, creando un circolo vizioso dove l’IA impara solo dalle sue balle, diventando sempre più inaffidabile e bugiarda.
Già nel 2023, un ex big come John Graham-Cumming ha intuito il disastro e ha creato lowbackgroundsteel.ai, un archivio di dati "puri" pre-2022, simile a una capsula del tempo per evitare che l’IA vada completamente a puttane. Ma il problema è più grosso: chi controlla i dati umani originali avrà un potere smisurato, mentre le startup del cavolo saranno costrette a usare robaccia contaminata, producendo AI fragili e inutili.
Come segnalato in un paper esplosivo del 2024 da studiosi di Cambridge, Düsseldorf e Monaco, intitolato “Legal Aspects of Access to Human-Generated Data and Other Essential Inputs for AI Training”, senza accesso pubblico a dati puliti, l’IA finirà nelle grinfie di pochi potenti, creando un monopolio da incubo. Maurice Chiodo, un ricercatore di Cambridge, lo ha messo in chiaro: "Se oggi abbiamo ancora dati umani veri è perché c’è stato un momento, come nel 1919 con l’affondamento della flotta tedesca, che ci ha permesso di conservare l’acciaio puro. Lo stesso vale per i dati: tutto ciò che è stato creato prima del 2022 è ancora considerato sicuro. Ma se perdiamo anche quelli, non potremo più tornare indietro."
Per evitare questo disastro, gli esperti propongono di etichettare i contenuti AI e usare il federated learning, ma è una pia illusione: etichette che si cancellano, dati che volano ovunque senza regole, e governi che potrebbero abusarne. Rupprecht Podszun avverte che senza una gestione decentralizzata, rischiamo concentrazioni di potere che fanno passare Big Tech per santi. Insomma, se non agiamo ora, l’IA – che doveva essere il nostro salvatore – diventerà solo un mostro ingestibile e antidemocratico. E come dice Chiodo: "Se vogliamo che l’IA resti uno strumento utile, giusto e democratico, dobbiamo preoccuparci adesso. Perché una volta contaminato tutto l’ambiente dati, pulirlo sarà praticamente impossibile."