Il sogno dell’AI potrebbe diventare un incubo economico, un’allucinazione collettiva? Oggi Reuters ha lanciato un allarme non campato per aria, con il titolo: “Il modello di business dell’intelligenza artificiale ha un difetto fatale?”. Il difetto riguarda proprio le cosiddette “allucinazioni”, vale a dire quanto i LLM tendano a inventarsi fatti inesistenti. Il problema è che sembra sempre più emergere che siano un difetto strutturale.
Non si parla dei chatbot con cui dialoghiamo tutti (ChatGPT, Claude, Gemini, ecc) ma del loro uso a livello industriale, e non sono due cose così scollegate perché i modelli generativi alla base sono gli stessi, e per giustificare una scommessa economica enorme si dovrebbe essere sicuri di poterle ridurre quasi del tutto (e quel “quasi”, su grandi realtà, anche un livello di allucinazione vicino allo zero per cento rappresenta un margine non tollerabile su utilizzi seri).
Reuters non si inventa niente, anzi, ha incrociato almeno due linee di ricerca solide. La prima è sperimentale e riguarda test eseguiti da Kamiwaza AI, secondo cui gli LLM tendono a allucinare di più quando devono gestire quantità maggiori di input e contesto. In sostanza su dataset più grandi, alcuni modelli arrivano a produrre ancora più risposte sbagliate. La seconda linea viene da uno studio di Tsinghua University pubblicato a dicembre, intitolato “H-Neurons: On the Existence, Impact, and Origin of Hallucination-Associated Neurons”.
Qui i ricercatori sostengono di aver identificato una piccola frazione di neuroni, meno dello 0,1% del totale, fortemente associata alla comparsa delle allucinazioni, e di averne tracciato l’origine già nelle fasi di pre-training del modello. Insomma, quando parliamo di allucinazioni potremmo non essere davanti a un difetto superficiale di prodotto, ma a qualcosa di insito nel modo stesso in cui questi sistemi apprendono e generano testo.
Il lavoro di Tsinghua è importante perché sposta il discorso dal livello macroscopico a un livello interno al modello. Gli autori parlano di H-Neurons e sostengono che questa minuscola sottopopolazione sia in grado di prevedere in modo affidabile quando il modello sta per produrre un contenuto falso ma plausibile. Non solo: secondo il paper, interventi controllati su questi neuroni mostrano un legame causale con comportamenti di over-compliance (la tendenza del modello a rispondere comunque invece di fermarsi quando non sa). Il dato preoccupante è che questi neuroni non sembrano comparire solo dopo l’allineamento o il post-training, sono già nel modello base. Come dire: sono nella stessa struttura del “cervello” degli LLM, e non basta una patch per risolvere tutto.
Quindi GPU sempre più potenti, database sempre più enormi, tutto ciò potrebbe non bastare perché non sappiamo se esista un limite assoluto e insormontabile della scalabilità, però esistono segnali sempre più seri del fatto che l’errore allucinatorio non sia un residuo marginale destinato a scomparire da sé.
I modelli linguistici restano sistemi che ottimizzano la predizione probabilistica del token successivo, non macchine progettate in primo luogo per distinguere il vero dal falso attraverso un processo di verifica, e costruire un processo di verifica attraverso un altro LLM rischia di non risolvere il problema o complicarlo ancora di più.
C’è da dire che fino a oggi si è appoggiato quasi tutto sull’idea della scalabilità, e la scala già da un po’ ha iniziato a scricchiolare (gli investimenti no). Insomma, Reuters vede la crepa del modello economico: se l’industria pretende di monetizzare questi strumenti come infrastrutture affidabili per lavori dove l’errore costa denaro, il fatto che l’allucinazione possa essere almeno in parte architetturale diventa un problema commerciale prima ancora che scientifico.
D’altra parte ci sono CEO che puntano sempre più in alto e la parolina magica, AGI (Intelligenza Artificiale Generale), che spunta fuori ogni due giorni pronunciata da qualcuno, senza che nessuno ne sappia dare una definizione. Talvolta anche con qualche strumentalizzazione, come l’ultima dichiarazione di Jensen Huang (amministratore delegato di Nvidia) sulla possibilità che “l’AI superi test umani entro pochi anni”. Che di per sé significa tutto e niente, o meglio speranza e marketing, e anche una narrazione mediatica e industriale sull’AGI quando non sappiamo ancora definire esattamente l’intelligenza umana. Una cosa è certa: ci sono in ballo non solo centinaia di miliardi all’anno delle Big Tech ma l’intera economia mondiale, inclusi i fondi pensione dei giovani e di molti vecchietti ignari che usano ancora il Nokia 3210.

