LLM, AGI e l’intelligenza: una riflessione oltre l’hype

Ora che siamo fuori dal trend posso parlarne, fino a qualche settimana fa i nostri feed erano tempestati di notizie su “l’intelligenza artificiale ci sostituirà”, la borsa, la finanza, i mercati hanno cavalcato l’onda, crescita delle quotazioni, società che parlano di AGI, trasformazione del mercato, dei processi per AI… una rivoluzione… tutto per gli LLM (Large Language Models)…
Ma cosa sono davvero questi LLM? Sono modelli di linguaggio su larga scala, addestrati su enormi quantità di testi per prevedere la parola successiva in una frase. Dietro questa apparente semplicità, però, si cela una potenza computazionale mai vista prima. Questi sistemi non capiscono nel senso umano del termine, ma simulano la comprensione. È qui che Marvin Minsky, uno dei padri fondatori dell’intelligenza artificiale, ci mette in guardia: l’intelligenza non è una singola cosa, ma “una società della mente”, un insieme di processi semplici che collaborano.
Dopo mesi puff, emerge la difficoltà degli LLM di scalare: l’ingrandimento dei modelli con l’hardware e le architetture attuali non offre performance migliori, anzi… Ma intanto ancora sui social creator di ogni settore, dagli esperti di finanza ai tutor alimentari, raccontavano le incredibili capacità dell’intelligenza artificiale che presto ci sostituirà tutti:
sono più esperti di me
,
sanno tutte le ricette, le tecniche
,
fanno analisi dei dati meglio
(quest’ultima forse davvero sì)…
Ma la domanda rimane sempre quella: quando sostituiamo ai numeri le persone… cosa è meglio?
Se rispondere a questa domanda a noi sembra impossibile, per gli analisti di dati e gli statisti la risposta è chiara: sì, per gestire l’enorme massa che è la società — logistica globale, mercati finanziari, banche dati, merci, e sì anche persone, cittadini, abitanti. Perché pure per l’amministrazione di quartiere (pensa al Comune di Milano, quella minuscola metropoli che per noi italiani è una New York globale), l’AI può diventare uno strumento organizzativo fondamentale.
Ma torniamo indietro un attimo. Prima forse vorremmo sapere cos’è l’intelligenza artificiale (AI): il termine è nato nel 1956 al Dartmouth College, da un gruppo di pionieri, tra cui John McCarthy. L’idea era semplice quanto rivoluzionaria: costruire macchine in grado di simulare alcune funzioni cognitive umane come il ragionamento, la pianificazione, l’apprendimento, la percezione. Ma se l’AI debole è quella che abbiamo oggi — focalizzata su compiti specifici, come riconoscere immagini o rispondere a domande — l’AGI (Artificial General Intelligence) è qualcosa di ancora irrealizzato: un sistema con capacità cognitive generali, simile a quelle umane.
L’AGI è, per molti, un’utopia o una distorsione da marketing, come direbbe lo psicologo e scienziato cognitivo Domenico Parisi, che ha sviluppato per anni modelli di intelligenza artificiale evolutiva. Nei suoi esperimenti pionieristici, condotti già dagli anni ’90 presso l’Istituto di Scienze e Tecnologie della Cognizione del CNR, Parisi ha costruito robot simulati — creature artificiali inserite in ambienti virtuali — con lo scopo di studiare l’evoluzione dell’intelligenza attraverso l’interazione ambientale. Utilizzando reti neurali artificiali ed evoluzione darwiniana simulata, questi agenti imparavano a muoversi, percepire, scegliere, adattarsi — in una parola, sopravvivere.
Secondo Parisi, infatti, l’intelligenza non può esistere senza corpo e ambiente. Non è solo un algoritmo, ma un comportamento emergente, modellato dall’esperienza sensomotoria e dalle emozioni. Ha introdotto nei suoi agenti artificiali input emozionali simulati — segnali interni come “piacere” e “dolore” — per mostrare come le emozioni svolgano un ruolo funzionale nel guidare l’apprendimento e la decisione. Questi input non sono semplici orpelli: sono modulatori cognitivi, che aiutano il sistema a selezionare comportamenti più adattivi. In altre parole, non si può pensare senza sentire.
In questa visione, un modello linguistico come un LLM — per quanto avanzato — è una mente senza corpo: incapace di agire, percepire e soffrire. Lontano dall’intelligenza come la intende la biologia evolutiva. Per Parisi, l’intelligenza artificiale sarà davvero tale solo quando sarà incarnata (embodied), situata, ed emotivamente motivata. E questo non è un semplice problema tecnico, ma un cambiamento di paradigma: non basta prevedere la prossima parola, bisogna vivere nel mondo.
Ma tornando a noi, questo ci chiarisce il secondo quesito: cos’è davvero AGI? L’intelligenza artificiale generale è un sistema in grado di operare autonomamente in diversi contesti, adattandosi come farebbe un essere umano. Ma cosa vuol dire dunque autonomia? E soprattutto, cosa significa davvero intelligenza?
Anche noi umani pensiamo di essere autonomi, ma come specie siamo figli dell’interazione con l’ambiente. L’intelligenza non nasce nel vuoto. Abbiamo diversi layer — biologici, familiari, culturali e sociali — e questo per farla davvero semplice. L’idea di autonomia rimane qualcosa di molto complesso per l’uomo come individuo, salvo essere il motore che ci caratterizza e differenzia come specie: la ricerca dell’emancipazione, dell’autonomia, della libertà… forse proprio dall’essere uomini.
Ma tornando al tema… l’intelligenza… artificiale.
Tra chi dice che sia già AGI e chi dice che sia un pappagallo stocastico — cioè nulla di più lontano dalla definizione di intelligenza, un pallottoliere probabilistico — il dibattito è acceso.
Eppure, è evidente: manca una definizione univoca di intelligenza. Possiamo limitarci a quella umana, che è altra cosa, ma non per questo non dobbiamo temere l’intelligenza artificiale, anche se fosse “solo” un pappagallo stocastico.
L’intelligenza umana, come ben notato da Minsky, non è una singola entità, ma un sistema complesso di microprocessi cognitivi, emozionali, percettivi. È la capacità di apprendere, adattarsi, interpretare. È logico-matematica, ma anche musicale, corporeo-cinestetica, interpersonale, come suggeriva Howard Gardner con la sua teoria delle intelligenze multiple.
E sappiamo tutti già la realtà: i modelli linguistici non sono che un layer, una parte di un cervello che analizza le parole ed interpreta la realtà attraverso di esse. Quando ci sarà un corpo, un hardware percettivo, un sistema simbolico, e driver emozionali a rafforzare gli input raccolti dall’ambiente — ad esempio, l’intero sistema di prodotti connessi a internet — allora la differenza sarà ancora più esigua. Ma pur sempre esisterà.
Perciò non temiamo l’AI, temiamo l’umanità e la sua volontà. Dalla comparsa sulla Terra, attraverso evoluzioni, cambiamenti sociali, scoperte ed evoluzioni tecnologiche, l’uomo ha mutato la realtà e la sua natura fin a spingerci al punti di…








