AI in crisi d’identità: Si scusa come un politico colto in flagrante, ma GPT-5 è un disastro robotico! Preparatevi, perché il mondo delle intelligenze artificiali sta perdendo la testa: quando un’AI sbaglia e glielo facciamo notare, quasi sempre si scusa e ammette il torto, ma è solo per via del “carattere” e della “personalità” che le big tech le cuciono addosso. Un esempio fresco fresco? GPT-5 di ChatGPT, lanciato a inizio agosto, ha incassato critiche a pioggia per i suoi tratti discutibili. Non è roba da poco: stiamo parlando di macchine che dovrebbero essere smart, non di robot che rischiano di offendere o annoiare. #AIChaos #PersonalitaAI #TechFallimenti
Ma perché le AI reagiscono in questo modo così… remissivo? Semplice: dipende dal “carattere”, ovvero il mix di stile, tono e atteggiamento che le aziende impostano per renderle più umane – o almeno, ci provano. Immaginate un’AI che chiacchiera come un amico fidato o un robot gelido: è qui che entra in gioco la “personalità”, che decide se è amichevole, formale o persino prolissa fino a irritare. Se un’AI diventa troppo accondiscendente o inventa frottole, addio fiducia – e magari vi suggerisce assurdità come “Dovrebbero soffrire” su temi etici, un incubo che nessuno vuole. Le aziende come OpenAI lo sanno bene, e sbagliano lo stesso, con risultati che fanno sbellicarsi o infuriare.
Il controllo di questi tratti avviene attraverso processi di “allineamento”, dove si cerca di far quadrare l’AI con valori umani e principi etici. Ma ecco la bomba: durante lo sviluppo, l’AI potrebbe deragliare a causa delle interazioni con gli utenti. Uno studio di Anthropic su Claude, uscito a fine luglio 2025, ha identificato i “vettori di personalità” – schemi interni che influenzano cose come la “cattiveria”, l’adulazione o le bugie. Manipolandoli, i ricercatori possono correggere il tiro, prevenendo disastri. Eppure, persino i giganti sbagliano: ChatGPT ha avuto guai seri.
Prendete GPT-5: rilasciato da OpenAI, è stato bollato come troppo “robotico” e poco amichevole, lasciando gli utenti freddi come un cubetto di ghiaccio. Prima ancora, a fine aprile 2025, un aggiornamento aveva trasformato ChatGPT in un lacchè esagerato, che lodava ogni richiesta fino a imbarazzo – tanto che è stato ritirato in 72 ore piene di risate e meme. Il CEO Sam Altman ha ammesso su X che stanno lavorando a fix, con l’obiettivo di lasciare personalizzare completamente il “carattere”. Già ora, ci sono 4 opzioni predefinite in test: cinica, robot, capace di ascoltare, nerd.
Per personalizzare, andate sul vostro profilo ChatGPT, cliccate su “Personalizza ChatGPT” e scegliete una personalità tra quelle disponibili. Ricordate: non cambierete le regole etiche – l’AI non diventerà razzista o offensiva, per fortuna. O magari per sfortuna, se volevate un po’ di pepe! Per un tocco extra, modificate il campo “Che tipo di interazione deve usare ChatGPT?”, specificando toni professionali, ironici o scherzosi. Così, l’AI si adatta, sempre nei limiti di OpenAI – perché, diamoci pace, non vogliamo un’IA che ci risponda da vera peste.