back to top

Il mondo inquinato per sempre dal lancio di ChatGPT, secondo gli scienziati, in modo simile ai primi test sulle armi atomiche

Esplosione imminente nell’IA: ChatGPT e i suoi cloni stanno divorando i propri rifiuti digitali, rischiando un collasso totale! Esperti gridano al pericolo: "Se non fermiamo questa follia, l’intero sistema AI si autodistruggerà." #IAInPericolo #DatiContaminati #TechApocalisse

Dopo il lancio di ChatGPT da parte di OpenAI il 30 novembre 2022, che ha sconvolto il mondo come una bomba atomica digitale, gli esperti stanno suonando l’allarme apocalittico: l’IA generativa rischia di implodere su se stessa. Proprio come il test nucleare del 1945 ha lasciato un’eredità radioattiva che ha rovinato l’ puro per sempre, i dati sintetici dalle AI stanno inquinando l’intero ecosistema digitale, rendendo tutto un gran casino.

Ora, mentre le IA continuano a ingozzarsi di contenuti finti e distorti, il pericolo di un Model Autophagy Disorder (MAD) – ovvero il collasso dei modelli – sta diventando reale e terrificante. Ogni testo, immagine o codice generato da queste macchine finiscono nei dataset per addestrare le nuove versioni, creando un circolo vizioso dove l’IA impara solo dalle sue balle, diventando sempre più inaffidabile e bugiarda.

Già nel 2023, un ex big come John Graham-Cumming ha intuito il disastro e ha creato lowbackgroundsteel.ai, un archivio di dati "puri" pre-2022, simile a una capsula del per evitare che l’IA vada completamente a puttane. Ma il problema è più grosso: chi controlla i dati umani originali avrà un potere smisurato, mentre le startup del cavolo saranno costrette a usare robaccia contaminata, producendo AI fragili e inutili.

Come segnalato in un paper esplosivo del 2024 da studiosi di Cambridge, Düsseldorf e Monaco, intitolato “Legal Aspects of Access to Human-Generated Data and Other Essential Inputs for AI Training”, senza accesso pubblico a dati puliti, l’IA finirà nelle grinfie di pochi potenti, creando un monopolio da incubo. Maurice Chiodo, un ricercatore di Cambridge, lo ha messo in chiaro: "Se oggi abbiamo ancora dati umani veri è perché c’è stato un momento, come nel 1919 con l’affondamento della flotta tedesca, che ci ha permesso di conservare l’acciaio puro. Lo stesso vale per i dati: tutto ciò che è stato creato prima del 2022 è ancora considerato sicuro. Ma se perdiamo anche quelli, non potremo più tornare indietro."

Per evitare questo disastro, gli esperti propongono di etichettare i contenuti AI e usare il federated learning, ma è una pia illusione: etichette che si cancellano, dati che volano ovunque senza regole, e governi che potrebbero abusarne. Rupprecht Podszun avverte che senza una gestione decentralizzata, rischiamo concentrazioni di potere che fanno passare Big Tech per santi. Insomma, se non agiamo ora, l’IA – che doveva essere il nostro salvatore – diventerà solo un mostro ingestibile e antidemocratico. E come dice Chiodo: "Se vogliamo che l’IA resti uno strumento utile, giusto e democratico, dobbiamo preoccuparci adesso. Perché una volta contaminato tutto l’ambiente dati, pulirlo sarà praticamente impossibile."

Per approfondire l’argomento sulla fonte originale

GLI ULTIMI ARGOMENTI

Leggi anche

Uranio impoverito viene identificato come potenziale rischio per la salute umana e l’ambiente

L'uranio impoverito, pur essendo meno radioattivo rispetto all'uranio naturale, ha scatenato allarmi globali per i suoi impieghi militari, i possibili effetti devastanti sulla salute...

Thiophenol Identified as Promising Compound in Advanced Chemical Applications

Il tiofenolo (PhSH), noto anche come benzenetiolo, sta emergendo come un vero campione nel campo della chimica organica, con la sua formula C₆H₅SH che...

Ricercatori scoprono le proprietà straordinarie della bentonite e i suoi ampi utilizzi

La bentonite, un’argilla naturale a struttura stratificata composta principalmente da minerali argillosi del gruppo delle smectiti – con la montmorillonite come componente dominante –...
è in caricamento