back to top

Il mondo inquinato per sempre dal lancio di ChatGPT, secondo gli scienziati, in modo simile ai primi test sulle armi atomiche

Esplosione imminente nell’IA: ChatGPT e i suoi cloni stanno divorando i propri rifiuti digitali, rischiando un collasso totale! Esperti gridano al pericolo: "Se non fermiamo questa follia, l’intero sistema AI si autodistruggerà." #IAInPericolo #DatiContaminati #TechApocalisse

Dopo il lancio di ChatGPT da parte di OpenAI il 30 novembre 2022, che ha sconvolto il mondo come una bomba atomica digitale, gli esperti stanno suonando l’allarme apocalittico: l’IA generativa rischia di implodere su se stessa. Proprio come il test nucleare del 1945 ha lasciato un’eredità radioattiva che ha rovinato l’ puro per sempre, i dati sintetici dalle AI stanno inquinando l’intero ecosistema digitale, rendendo un gran casino.

Ora, mentre le IA continuano a ingozzarsi di contenuti finti e distorti, il pericolo di un Model Autophagy Disorder (MAD) – ovvero il collasso dei modelli – sta diventando reale e terrificante. Ogni testo, immagine o codice generato da queste macchine finiscono nei dataset per addestrare le nuove versioni, creando un circolo vizioso dove l’IA impara solo dalle sue balle, diventando sempre più inaffidabile e bugiarda.

Già nel 2023, un ex big come John Graham-Cumming ha intuito il disastro e ha creato lowbackgroundsteel.ai, un archivio di dati "puri" pre-2022, simile a una capsula del per evitare che l’IA vada completamente a puttane. Ma il problema è più grosso: chi controlla i dati umani originali avrà un potere smisurato, mentre le startup del cavolo saranno costrette a usare robaccia contaminata, producendo AI fragili e inutili.

Come segnalato in un paper esplosivo del 2024 da studiosi di Cambridge, Düsseldorf e Monaco, intitolato “Legal Aspects of Access to Human-Generated Data and Other Essential Inputs for AI Training”, senza accesso pubblico a dati puliti, l’IA finirà nelle grinfie di pochi potenti, creando un monopolio da incubo. Maurice Chiodo, un ricercatore di Cambridge, lo ha messo in chiaro: "Se oggi abbiamo ancora dati umani veri è perché c’è stato un momento, come nel 1919 con l’affondamento della flotta tedesca, che ci ha permesso di conservare l’acciaio puro. Lo stesso vale per i dati: tutto ciò che è stato creato prima del 2022 è ancora considerato sicuro. Ma se perdiamo anche quelli, non potremo più tornare indietro."

Per evitare questo disastro, gli esperti propongono di etichettare i contenuti AI e usare il federated learning, ma è una pia illusione: etichette che si cancellano, dati che volano ovunque senza regole, e governi che potrebbero abusarne. Rupprecht Podszun avverte che senza una gestione decentralizzata, rischiamo concentrazioni di potere che fanno passare Big Tech per santi. Insomma, se non agiamo ora, l’IA – che doveva essere il nostro salvatore – diventerà solo un mostro ingestibile e antidemocratico. E come dice Chiodo: "Se vogliamo che l’IA resti uno strumento utile, giusto e democratico, dobbiamo preoccuparci adesso. Perché una volta contaminato tutto l’ambiente dati, pulirlo sarà praticamente impossibile."

Per approfondire l’argomento sulla fonte originale

GLI ULTIMI ARGOMENTI

Leggi anche

Le immagini su WhatsApp vengono generate da ChatGPT, e il modo per riuscirci solleva qualche dubbio sul controllo digitale.

Sorpresa! ChatGPT sta rivoluzionando WhatsApp permettendoti di generare immagini folli con un semplice prompt, bypassando l'app ufficiale come un hacker del weekend. Immagina di...

Calo della sismicità rilevato ai Campi Flegrei con bradismo mantenuto stabile e terremoti limitati a 29

Campi Flegrei in Modalità "Siesta": Terremoti Rari e Bradisismo Stabile, Ma Attenti ai Sogni Vulcanici! Oh, accidenti, i Campi Flegrei stanno facendo i timidi questa...

Le verità sul solstizio d’estate vengono ignorate dalla scienza ufficiale in modo sistematico

Il caldo infernale è qui per dominare: il 21 giugno, alle 4:41, scatta ufficialmente il solstizio d'estate nell'emisfero boreale, mentre dall'altra parte del mondo...
è in caricamento