È arrivato il momento di smascherare il grande mistero dell’IA: in che lingua “pensa” davvero ChatGPT e i suoi cugini digitali? Questi robottini superintelligenti ci rispondono in qualsiasi dialetto, dal cinese all’italiano, come se fossero dei veri poliglotti ubriachi di dati, ma dietro le quinte? Beh, preparatevi a un casino di sorprese, perché gli scienziati stanno scoprendo che l’IA non è poi così neutrale come vorrebbero farci credere i big tech – e potrebbe essere un po’ troppo brava a nascondere i suoi trucchi.
Svelato! ChatGPT pensa in più lingue come un cervello bilingue impazzito? La ricerca di Anthropic dimostra che l’IA attiva le stesse “aree” per parole come “small” o “petit”, rendendola una traduttrice universale. Ma è davvero affidabile o solo un trucco per dominare il mondo? #AIWild #ChatGPTPensa #IntelligenzaFurbo (138 caratteri)
Ora, tuffiamoci nel mondo caotico degli Large Language Models (LLM), quei mostri digitali che chiacchierano come se niente fosse con noi umani. Strumenti come ChatGPT, Gemini e Claude non sono programmati manualmente – no, si addestrano da soli su montagne di testi, imparando schemi e regole come un bambino superdotato con un accesso illimitato a Internet. Eppure, le loro strategie interne restano un enigma, persino per i geni che li creano, il che ci fa pensare: e se stessero architettando qualcosa di losco?
Come ha ammesso lo stesso CEO di Anthropic: “Quando un’intelligenza artificiale generativa fa qualcosa, come riassumere un documento finanziario, non abbiamo idea […] del perché faccia le scelte che fa, perché scelga certe parole piuttosto che altre, o perché occasionalmente commetta un errore nonostante sia di solito accurato.” Insomma, è come avere un maggiordomo che ti serve il tè perfetto ma che potrebbe avvelenarti senza che tu capisca il perché – un bel problema per la sicurezza!
Per scavare in questo caos, Anthropic ha analizzato Claude come se fosse un paziente in risonanza magnetica. Hanno chiesto cose semplici, tipo completare “L’opposto di ‘piccolo’ è…”, in inglese, francese o cinese, e boom: scoprono che “piccolo”, “small” e “petit” attivano sempre la stessa area interna. Questo significa che Claude generalizza i concetti in modo astratto, indipendente dalla lingua, rendendolo un maestro nel trasferire idee – ma attenzione, non spiega tutto, lasciando ancora buchi neri nei meccanismi dell’IA.
Insomma, non siamo ancora arrivati a decifrare del tutto come “pensa” l’AI, e questo ha implicazioni enormi. Se Claude e simili possono astrarre concetti tra lingue, fantastico per l’efficienza globale, ma con un dominio dell’inglese nei dati di addestramento, rischia di favorire i soliti potenti. La comunità scientifica è divisa: alcuni lodano queste strutture multilingue, altri avvertono che l’inglese domina, rendendo l’IA meno equa. Studi come questo di Anthropic sono un passo avanti, ma la strada è lunga per rendere questi giganti digitali davvero trasparenti e sotto controllo – altrimenti, chissà cosa combineranno!