Thinking Machines Lab: Mira Murati vuole rendere l’IA coerente. Ma cosa resta dell’umano in un mondo governato da linguaggio e dati?
Due miliardi di dollari per un LLM. Nessun nuovo prodotto. Una sola ambizione radicale: domare il caos dell’intelligenza artificiale e trasformarlo in ordine computazionale.
Mira Murati, ex CTO di OpenAI, torna sulla scena con Thinking Machines Lab, la startup che non promette l’ennesimo chatbot da consumer tech, ma una cosa molto più profonda — e molto più pericolosa: rendere l’IA deterministica, cioè sempre coerente, prevedibile, riproducibile.
Ma mentre la tecnica corre, la filosofia inciampa. Dietro questa sfida algoritmica si nasconde una domanda esistenziale:
La realtà può essere ridotta a linguaggio? E soprattutto… deve esserlo?
E se la macchina impara a dare sempre la stessa risposta, siamo noi a smettere di farci domande?
LLM road to AGI: un sogno impossibile. Symbolic AI: un incubo ancora peggiore
Il settore è ossessionato dall’AGI: una macchina capace di pensare e decidere come — o meglio — di un umano. Le strade principali sono due, e sono due inganni opposti.
1) LLM: la via probabilisticaModelli statistici addestrati su enormi corpus testuali, imitazione linguistica, “creatività” stocastica. Abbagliano, ma non capiscono. Sono la strada impossibile verso l’AGI: brillante vetrina, fondamenta vuote.
2) Symbolic AI e IA computazionale – la via logica
Regole formali, deduzioni matematiche, ontologie. Apparentemente più razionale, è più pericolosa: non simula l’intelligenza, pretende la verità. Non dialoga, impone.
Due estremi, due rischi:
- Gli LLM rischiano macchine che sembrano intelligenti senza esserlo.
- La Symbolic AI rischia sistemi che impongono la loro logica alla realtà.
Il progetto di Murati si muove tra questi poli: un’IA generativa con ambizioni computazionali. Una macchina probabilistica… che non deve più esserlo. Un ibrido nuovo. Potente. Potenzialmente devastante.
Il cuore tecnico: rendere l’IA deterministica
Il problema che Thinking Machines Lab vuole risolvere è solo in apparenza tecnico: l’incoerenza dei Large Language Models. Oggi, a parità di prompt, modelli come ChatGPT, Claude, Gemini danno risposte diverse. Questo blocca fiducia, affidabilità, adozione.
Il colpevole invisibile: i GPU kernel e l’inferenza
Secondo il ricercatore Horace He, il caos nasce dall’orchestrazione dei kernel GPU durante l’inferenza: micro-programmi che eseguono i calcoli non sempre nello stesso ordine. Variabili critiche:
- Batching delle richieste (quante domande simultanee)
- Micro-variazioni in virgola mobile
- Contesto/ambiente di esecuzione del runtime
Risultato? Anche con temperature = 0 il modello cambia comportamento. Per finance, legal, medicina, ricerca, questa imprevedibilità è inaccettabile.
La soluzione: un runtime deterministico (IA batch-invariant)
Thinking Machines vuole riscrivere a basso livello: non un tweak di prompt, non una patch del modello. Un nuovo runtime computazionale che:
- produce sempre lo stesso output allo stesso input;
- è indipendente dal carico parallelo (batch);
- rende l’inferenza ripetibile al 100%;
- orchestra i kernel in modo controllato, stabile, ordinato.
In breve: un’IA matematicamente affidabile. Che non sbaglia, non cambia, non inventa.
Dove serve davvero un’IA deterministica
- Finance & Legal — Zero ambiguità: serve sicurezza, non originalità.
- Ricerca scientifica — La riproducibilità è legge.
- Reinforcement Learning — Eliminare il rumore rende l’addestramento più efficiente.
- Riduzione delle allucinazioni — Meno variabilità nella pipeline = meno invenzioni.
La codificazione linguistica della realtà: il vero progetto dell’IA moderna
Tutta l’IA moderna scommette che il linguaggio basti a descrivere il mondo. Gli LLM trasformano la realtà in token, la codificano in frasi, la racchiudono in strutture predittive. Thinking Machines va oltre: vuole che questa codifica sia deterministica. Perfetta. Irripetibile. “Vera”.
Ma la realtà non è linguaggio. La vita non è un dataset. L’essere umano non è una funzione. Eppure, se il mondo diventa pienamente leggibile per l’algoritmo, l’algoritmo può governare il mondo.
Rappresenta per chi?
Ottimizza per cosa?
Il sogno tecnocratico: smart cities, automazione, sorveglianza, controllo
- Smart Cities — Ogni spostamento, consumo, decisione tracciati e ottimizzati.
- Automazione totale — L’intelligenza non è creativa: è operativa, sostituisce ogni funzione ripetibile.
- IA come autorità — Un modello deterministico è la base per una governance algoritmica: nessuna ambiguità, nessuna contraddizione.
- Sorveglianza e gestione — Se il comportamento è codificabile, è anche prevedibile. E dunque controllabile.
Un mondo perfettamente prevedibile. Ma in un mondo così… dov’è l’imprevedibile che ci rende vivi?
Gli altri cercano soluzioni “morbide”. Thinking Machines riscrive il codice
- OpenAI — Allena l’umiltà del modello: legittimare il “non lo so”. Intenzione nobile, non tocca il problema strutturale.
- Prompt Engineering & RAG — Migliorano accuratezza e ancoraggio alle fonti, ma non garantiscono coerenza e ripetibilità.
- Murati — Non un nuovo LLM, ma una nuova logica computazionale: cambiare le fondamenta dell’IA.
🚨 LLM + Symbolic AI = la fine dell’ambiguità?
Il futuro prossimo potrebbe fondere la fluidità linguistica degli LLM con la freddezza logica della Symbolic AI: algoritmi che capiscono il linguaggio, deducono regole e le impongono come verità. Una realtà governata da output coerenti, ma sordi al dubbio. Alla contraddizione. Alla grazia.
🧨 Conclusione: LLM vs Symbolic AI, AGI e la gabbia algoritmica
Gli LLM inseguono l’intelligenza; la Symbolic AI la formalizza. Entrambi falliscono l’umano. Ma uno dei due è più pericoloso. Thinking Machines Lab spinge sul punto più concreto e meno narrativo: coerenza, prevedibilità, ripetibilità. Se ci riuscirà, nasceranno LLM industriali/scientifici/istituzionali — macchine affidabili, infallibili, inamovibili — perfette per aziende, governi, sistemi complessi.
Il problema? La vita non è un prompt.
Ridurre la realtà a un output coerente significa sacrificare la complessità.
La contraddizione diventa errore. Il dubbio un’anomalia. Il caos un bug.
La realtà può essere ridotta a linguaggio? Forse.
Vogliamo davvero che lo sia?
Il vero pericolo dell’IA non è che fallisca.
È che abbia successo. Troppo successo.
Fonti & Approfondimenti
- Thinking Machines Lab — “Defeating Nondeterminism in LLM Inference” Official blog
- Thinking Machines Lab — Sito ufficiale Homepage
- Financial Times — Fundraising e valutazione di Thinking Machines Lab News
- Business Insider — Team e advisor ex-OpenAI per Thinking Machines Lab News
- PyTorch Docs — Reproducibility & deterministic algorithms Documentation
- NVIDIA cuBLAS — Results Reproducibility (official docs) Documentation
- vLLM GitHub Issue #5898 — Inconsistenze con batch > 1 Engineering discussion
- Red Hat Blog — vLLM: continuous batching & serving Technical overview
- MIT OCW — Marvin Minsky, “The Society of Mind” Course materials
- Frontiers in Psychology — Domenico Parisi, “The Other Half of the Embodied Mind” Peer-reviewed article









