Image generated by Filippo Venturi
In un articolo di opinione sul New York Times, intitolato "Il sogno febbrile di una superintelligenza imminente sta finalmente svanendo", Gary Marcus — scienziato cognitivo, imprenditore e saggista statunitense, noto come critico delle grandi LLM e promotore di approcci neurosimbolici all’intelligenza artificiale — fa alcune osservazioni interessanti sullo sviluppo dell'Intelligenza Artificiale.
GPT-5 — presentato da OpenAI come svolta verso l’AGI (Intelligenza Artificiale Generale) e che ha richiesto miliardi di dollari di investimenti e quasi tre anni di lavoro — ha parzialmente deluso le aspettative, commettendo ancora errori elementari di logica e matematica, producendo risposte assurde e continuando ad avere "allucinazioni". Nonostante alcuni miglioramenti, non rappresenta il salto rivoluzionario che molti si aspettavano.
Questo risultato mostrerebbe i limiti della strategia dello "scaling", ovvero l’idea che modelli sempre più grandi e addestrati su quantità di dati sempre più elevate, possano condurre automaticamente all’AGI. Aggiungere più dati ai grandi modelli linguistici, che vengono addestrati a produrre testo imparando da vasti database di testi umani, li aiuta a migliorare solo fino a un certo punto. Resta però il problema che non comprendono pienamente i concetti a cui sono esposti.
Le previsioni di un’AGI entro l'anno 2027 sembrano oggi troppo ottimistiche ed è forse giunto il momento di rivedere sia le politiche pubbliche — finora troppo permissive (scaricando sulla società problematiche come disinformazione, deepfake, cybercrime, impatto ambientale, salute mentale) — sia le strategie di ricerca e investimento.
Si rendono necessari, quindi, sistemi che non si limitino a prevedere e imitare il linguaggio umano ma che comprendano il mondo in modo da poter ragionare su di esso in modo più profondo. Concentrarsi su come costruire una nuova generazione di sistemi di IA incentrati sui world models dovrebbe essere un obiettivo centrale della ricerca. Incorporare concetti di base come tempo, spazio e causalità potrebbe consentire ai sistemi di organizzare meglio i dati che incontrano.
L'attuale paradigma adotta un approccio “taglia unica” affidandosi a un unico meccanismo cognitivo per risolvere tutto. Ma sappiamo che la mente umana utilizza strumenti diversi per tipi di problemi diversi. Per esempio, il celebre psicologo Daniel Kahneman suggerì che gli esseri umani utilizzano un sistema di pensiero — rapido, riflessivo e automatico e guidato in gran parte dalle statistiche dell’esperienza ma superficiale e soggetto a errori — insieme a un secondo sistema, più guidato dal ragionamento astratto e dal pensiero deliberativo ma lento e laborioso. I grandi modelli linguistici, che sono un po’ come il primo sistema, cercano di fare tutto con un unico approccio statistico ma finiscono per risultare inaffidabili.
Marcus sottolinea la necessità di sviluppare approcci ibridi, o neurosimbolici, che combinino la flessibilità e la capacità di riconoscere schemi delle reti neurali con la precisione logica e deliberativa dei sistemi simbolici. Se i grandi modelli linguistici assomigliano al “pensiero veloce” descritto da Kahneman — statistico, intuitivo ma superficiale e incline a errori — i sistemi simbolici richiamano invece il “pensiero lento”, più astratto e razionale. Integrare questi due approcci, sostiene Marcus, potrebbe superare i limiti del paradigma attuale e aprire la strada a un’IA più affidabile e degna di fiducia.
L’articolo originale è qui: The Fever Dream of Imminent Superintelligence Is Finally Breaking