back to top

Intelligenza artificiale: in che lingua viene fatta pensare un modello linguistico, scatenando dibattiti inaspettati tra esperti?

È arrivato il momento di smascherare il grande mistero dell’IA: in che lingua “pensa” davvero ChatGPT e i suoi cugini digitali? Questi robottini superintelligenti ci rispondono in qualsiasi dialetto, dal cinese all’italiano, come se fossero dei veri poliglotti ubriachi di dati, ma dietro le quinte? Beh, preparatevi a un casino di sorprese, perché gli scienziati stanno scoprendo che l’IA non è poi così neutrale come vorrebbero farci credere i big tech – e potrebbe essere un po’ troppo brava a nascondere i suoi trucchi.

Svelato! ChatGPT pensa in più lingue come un cervello bilingue impazzito? La ricerca di Anthropic dimostra che l’IA attiva le stesse “aree” per parole come “small” o “petit”, rendendola una traduttrice universale. Ma è davvero affidabile o solo un trucco per dominare il mondo? #AIWild #ChatGPTPensa #IntelligenzaFurbo (138 caratteri)

Ora, tuffiamoci nel mondo caotico degli Large Language Models (LLM), quei mostri digitali che chiacchierano come se niente fosse con noi umani. Strumenti come ChatGPT, Gemini e Claude non sono programmati manualmente – no, si addestrano da soli su montagne di testi, imparando schemi e come un bambino superdotato con un accesso illimitato a Internet. Eppure, le loro strategie interne restano un enigma, persino per i geni che li creano, il che ci fa pensare: e se stessero architettando qualcosa di losco?

Come ha ammesso lo stesso CEO di Anthropic: “Quando un’intelligenza artificiale generativa fa qualcosa, come riassumere un documento finanziario, non abbiamo idea […] del perché faccia le scelte che fa, perché scelga certe parole piuttosto che altre, o perché occasionalmente commetta un errore nonostante sia di solito accurato.” Insomma, è come avere un maggiordomo che ti serve il tè perfetto ma che potrebbe avvelenarti senza che tu capisca il perché – un bel problema per la sicurezza!

Per scavare in questo caos, Anthropic ha analizzato Claude come se fosse un paziente in magnetica. Hanno chiesto cose semplici, tipo completare “L’opposto di ‘piccolo’ è…”, in inglese, francese o cinese, e boom: scoprono che “piccolo”, “small” e “petit” attivano sempre la stessa area interna. Questo significa che Claude generalizza i concetti in modo astratto, indipendente dalla lingua, rendendolo un maestro nel trasferire idee – ma attenzione, non spiega tutto, lasciando ancora buchi neri nei meccanismi dell’IA.

Insomma, non siamo ancora arrivati a decifrare del tutto come “pensa” l’AI, e questo ha implicazioni enormi. Se Claude e simili possono astrarre concetti tra lingue, fantastico per l’ globale, ma con un dominio dell’inglese nei dati di addestramento, rischia di favorire i soliti potenti. La comunità scientifica è divisa: alcuni lodano queste strutture multilingue, altri avvertono che l’inglese domina, rendendo l’IA meno equa. Studi come questo di Anthropic sono un passo avanti, ma la strada è lunga per rendere questi giganti digitali davvero trasparenti e sotto controllo – altrimenti, chissà cosa combineranno!

Per approfondire l’argomento sulla fonte originale

GLI ULTIMI ARGOMENTI

Leggi anche

Uranio impoverito viene identificato come potenziale rischio per la salute umana e l’ambiente

L'uranio impoverito, pur essendo meno radioattivo rispetto all'uranio naturale, ha scatenato allarmi globali per i suoi impieghi militari, i possibili effetti devastanti sulla salute...

Thiophenol Identified as Promising Compound in Advanced Chemical Applications

Il tiofenolo (PhSH), noto anche come benzenetiolo, sta emergendo come un vero campione nel campo della chimica organica, con la sua formula C₆H₅SH che...

Ricercatori scoprono le proprietà straordinarie della bentonite e i suoi ampi utilizzi

La bentonite, un’argilla naturale a struttura stratificata composta principalmente da minerali argillosi del gruppo delle smectiti – con la montmorillonite come componente dominante –...
è in caricamento