ALGORITMO
Dagli algoritmi di Leibniz all’Intelligenza artificiale
Nel XVII secolo, il filosofo Gottfried Wilhelm Leibniz immaginava la Characteristica Universalis: un linguaggio universale capace di ridurre ogni ragionamento a operazione calcolabile. «Calculemus!», diceva: invece di disputare, calcoliamo. Questo sogno razionalista – la meccanizzazione del pensiero – attraversa tre secoli di storia per materializzarsi nei dispositivi computazionali che oggi governano le nostre esistenze. Ma ciò che si è materializzato non è la razionalità universale di Leibniz: è una razionalità particolare, incorporata nei rapporti di potere del capitalismo digitale.
Cosa sono gli algoritmi?
Un algoritmo è una sequenza finita di istruzioni non ambigue che trasforma un input in un output attraverso passi computazionali definiti. Le sue proprietà fondamentali sono:
- Definitezza: ogni istruzione deve essere precisa, priva di ambiguità
- Finitezza: la sequenza deve terminare dopo un numero finito di passi
- Efficacia: ogni operazione deve essere eseguibile meccanicamente
- Determinismo: a parità di input, l’output è sempre identico
L’etimologia deriva dal matematico persiano Muhammad ibn Mūsā al-Khwārizmī (IX secolo), i cui trattati aritmetici codificavano procedure sistematiche per risolvere classi di problemi. Prima di diventare codice, l’algoritmo era tecnica: un metodo, non ancora una teoria.
La Crisi dei Fondamenti: oltre gli algoritmi
Nel 1928, David Hilbert riprende esplicitamente il progetto leibniziano formulando l’Entscheidungsproblem, il problema della decisione. Hilbert cerca di dimostrare che esiste un algoritmo capace di determinare meccanicamente, per ogni enunciato matematico ben formato, se esso sia vero o falso. Se esistesse, il sogno di Leibniz sarebbe realizzato: la verità matematica diventerebbe questione di calcolo automatico.
Ma nel 1931, il teorema dell’incompletezza di Kurt Gödel frantuma questo programma dimostrando che in ogni sistema formale sufficientemente potente esistono proposizioni vere ma indimostrabili all’interno del sistema stesso. Pochi anni dopo, la tesi di Alonzo Church conferma l’«indecidibilità logica del primo ordine»: non esiste un algoritmo universale per determinare la correttezza logica di ogni espressione numerica.
Gli algoritmi possono calcolare solo funzioni ricorsive – problemi complessi risolti attraverso la scomposizione in problemi più semplici concatenati tra loro. Un problema è decidibile solo quando è codificabile in linguaggio decidibile.
Turing e la Macchina Universale
Nel 1936, Alan Turing riduce la calcolabilità a procedura meccanica. Il suo «problema dell’arresto» (halting problem) dimostra l’impossibilità di sapere a priori se un algoritmo terminerà o continuerà indefinitamente. Turing opera però uno spostamento epistemologico cruciale: non è necessario provare la logicità formale interna di un sistema per ottenere risposte significative. È sufficiente la correttezza della risposta rispetto ai parametri di riferimento.
Nasce così la congettura di Church-Turing: esiste idealmente una macchina di Turing per ogni algoritmo capace di manipolare simboli. La macchina universale di Turing – calcolatore ideale con nastro di memoria potenzialmente infinito – può simulare l’analisi cognitiva umana raggiungendo i limiti della computazione. I processi elaborativi non coincidono tra macchine e umani, ma le macchine possono simulare correttamente i processi cognitivi con risultati analoghi.
In questo quadro teorico emergono Spazio e Tempo come misure della complessità computazionale: il tempo come numero di istruzioni eseguite, lo spazio come memoria utilizzata. Questi costituiscono i limiti fondamentali della computazione: non tutti i problemi sono risolvibili in tempo e spazio ragionevoli.
Dall’Astrazione alla Materializzazione
La macchina di Turing era un’astrazione matematica. Nel 1945, John von Neumann progetta l’architettura che la trasforma in computer elettronico: l’intuizione del programma stored fa sì che le istruzioni algoritmiche vengano memorizzate come dati manipolabili. L’algoritmo diventa software.
Nel 1948, Claude Shannon fonda la teoria dell’informazione dimostrando che qualsiasi informazione può essere codificata in bit binari (0 e 1). Il bit diventa l’unità elementare con cui gli algoritmi manipolano la realtà digitalizzata.
Dagli anni ’50 agli ’80, gli algoritmi rimangono strumenti scientifici e militari: simulazioni nucleari, crittografia, calcoli balistici. Con il personal computer negli anni ’80-’90, si diffondono nelle case ma si opacizzano: le interfacce grafiche separano l’utente dalla logica sottostante. Cliccare un’icona nasconde migliaia di righe di codice. L’algoritmo diventa invisibile proprio mentre diventa ubiquo.
PageRank e la Governamentalità degli Algoritmi
Nel 1998, l’algoritmo PageRank di Google trasforma la ricerca web. Non è più l’utente a decidere quali informazioni sono rilevanti: è l’algoritmo a classificare, gerarchizzare, rendere visibile o invisibile. Nasce la governamentalità algoritmica – il potere di organizzare l’accesso alla conoscenza attraverso procedimenti computazionali che si presentano come neutri, oggettivi, matematicamente necessari.
I sistemi di raccomandazione introducono una mutazione qualitativa: l’algoritmo non recupera ciò che l’utente cerca, ma predice ciò che l’utente vorrà. La profilazione comportamentale diventa core business del capitalismo digitale.
Machine Learning: La Simulazione Opaca
Dagli anni 2010, il machine learning segna una rottura. Gli algoritmi classici sono istruzioni esplicite scritte da programmatori. Gli algoritmi di apprendimento automatico apprendono pattern da dataset massivi senza che il programmatore specifichi le regole. Le reti neurali vengono «addestrate» su milioni di esempi fino a sviluppare capacità predittive.
Un algoritmo di riconoscimento facciale contiene milioni di parametri (pesi sinaptici) progressivamente ottimizzati durante il training. Il risultato è una black box: un sistema che funziona ma di cui nessuno – nemmeno i suoi creatori – può tracciare il ragionamento interno.
Questa opacità è strutturale (complessità irriducibile con miliardi di parametri) e strategica (segreto industriale). Torniamo paradossalmente al problema di Hilbert invertito: abbiamo algoritmi che risolvono compiti complessi ma non possiamo dimostrare formalmente perché funzionino né garantire che funzioneranno sempre.
Quattro Funzioni degli Algoritmi
Gli algoritmi contemporanei operano attraverso:
- Classificazione: riconoscimento di pattern per categorizzare entità (volti, testi, comportamenti). Moderazione contenuti, sorveglianza, credit scoring.
- Predizione: stima probabilistica di eventi futuri su correlazioni statistiche. Predictive policing, targeting pubblicitario, assicurazioni basate su profili di rischio.
- Ottimizzazione: ricerca della configurazione ottimale per massimizzare una funzione obiettivo. Pricing dinamico, curation dei feed social, logistica just-in-time.
- Generazione: produzione di contenuti sintetici (testi, immagini, audio) che imitano pattern appresi. AI generativa come GPT, DALL-E, Midjourney.
In tutti i casi, l’algoritmo non è strumento neutro ma attore socio-tecnico che produce realtà: decide chi vede cosa, chi ottiene credito, chi viene fermato dalla polizia, quale prezzo viene offerto a quale cliente.
Implicazioni Critiche: Potere, Bias, Governamentalità
Gli algoritmi contemporanei non implementano «razionalità pura»: implementano razionalità situata, incorporata in obiettivi economici e politici specifici. L’algoritmo di Facebook non massimizza il benessere degli utenti ma il «time on platform» perché il tempo di attenzione è la merce che Facebook vende. L’algoritmo di Amazon non ottimizza la soddisfazione del cliente ma il profitto attraverso la personalizzazione dei prezzi.
La domanda critica diventa: quale razionalità viene meccanizzata? E nell’interesse di chi?
Bias e Oggettività Apparente
Gli algoritmi si presentano come oggettivi, matematicamente necessari. Ma questa presunta oggettività nasconde scelte progettuali e valori incorporati. I bias algoritmici non sono malfunzionamenti ma conseguenze strutturali: se un algoritmo di selezione del personale discrimina le donne, è perché è stato addestrato su dati storici che riflettono discriminazioni già esistenti. L’algoritmo automatizza e amplifica il pregiudizio presentandolo come decisione tecnica neutra.
Come osserva Cathy O’Neil, gli algoritmi oppressivi sono opachi, operano su larga scala, e danneggiano le persone senza possibilità di appello.
Concentrazione del Potere Computazionale
La produzione di algoritmi avanzati richiede risorse computazionali enormi, dataset massivi, expertise specializzata. Questo concentra il potere algoritmico in poche corporation (Google, Meta, Amazon, Microsoft in Occidente; Alibaba, Tencent, Baidu in Cina) con tre effetti:
- Opacità strategica: algoritmi proprietari protetti dal segreto industriale, sottratti all’accountability democratica
- Estrattivismo dei dati: sorveglianza di massa come condizione operativa
- Network effects: chi ha più utenti ha più dati, quindi algoritmi migliori, quindi attrae più utenti – monopoli auto-rinforzanti
Governamentalità degli Algoritmi
Antoinette Rouvroy, riprendendo Foucault, descrive la governamentalità algoritmica come forma di potere che governa attraverso predizione e preemption. Non più disciplinare i corpi ma anticipare i comportamenti futuri sulla base di correlazioni statistiche, intervenendo prima che l’evento si verifichi.
Il predictive policing arresta «potenziali criminali». I sistemi di credit scoring negano prestiti prima di qualsiasi inadempienza. I feed social modulano ciò che vediamo plasmando preferenze e identità. Questa governamentalità opera una soggettivazione algoritmica: le identità diventano cluster demografici, profili comportamentali, insiemi di probabilità.
Il sorting sociale – categorizzazione automatizzata in classi di rischio, merito, valore – diventa meccanismo di discriminazione sistemica che opera senza intenzione discriminatoria esplicita. È l’automazione della stratificazione sociale.
Economia Politica degli Algoritmi
Gli algoritmi sono i mezzi di produzione del capitalismo digitale. Shoshana Zuboff parla di «capitalismo della sorveglianza»: un modello basato sull’estrazione di surplus comportamentale – dati su azioni, preferenze, emozioni – trasformato in «prodotti predittivi» venduti nei mercati comportamentali futuri. Gli algoritmi sono il macchinario di questa estrazione.
La precarizzazione del lavoro passa attraverso algoritmi: Uber, Deliveroo, TaskRabbit usano algoritmi per assegnare compiti, valutare performance, determinare compensi. Il lavoratore della gig economy è soggetto a management algoritmico 24/7, senza negoziazione possibile. Il taylorismo digitale è più pervasivo del precedente analogico.
Resistere alla Naturalizzazione
Gli algoritmi non sono inevitabili né neutrali. Sono artefatti socio-tecnici modificabili, contestabili, sostituibili. La literacy algoritmica richiede:
- Comprendere i limiti: esistono dimensioni dell’esperienza – contingenza, libertà, imprevedibilità – che eccedono strutturalmente la predizione algoritmica
- Riconoscere le scelte politiche: ogni algoritmo incorpora valori e rapporti di forza. Chiedere: chi l’ha progettato? Con quali dati? Quale obiettivo ottimizza? Chi beneficia?
- Contestare l’opacità: il diritto alla spiegazione, l’auditing indipendente, la regolamentazione (EU AI Act) sono strumenti necessari ma insufficienti
- Costruire alternative: progetti open-source, governance democratica degli algoritmi, modelli non-profit dimostrano che esistono alternative al capitalismo di piattaforma
Forse la resistenza più radicale è il recupero del resto: tutto ciò che non può essere codificato, quantificato, predetto. L’errore, l’inefficienza, l’imprevedibilità. In un mondo governato da algoritmi ottimizzatori, rivendicare il diritto all’imperfezione è gesto politico.
Conclusione: Quale Razionalità?
Se Hilbert nel 1928 cercava un algoritmo per determinare la verità matematica, oggi gli algoritmi producono «regimi di verità»: non la verità come corrispondenza con il reale, ma la verità come effetto di procedure di potere. L’algoritmo di Google determina cosa è rilevante, Facebook cosa è virale, il credit scoring chi è affidabile. Non descrivono la realtà: la performano.
La storia dell’algoritmo da Leibniz a oggi è la storia di come un’astrazione matematica si sia materializzata in infrastruttura di potere. La questione non è se usare algoritmi – sono ormai infrastruttura inevitabile – ma quale razionalità implementano e nell’interesse di chi.
Se è vero che le macchine possono simulare il pensiero umano, è altrettanto vero che gli esseri umani possono rifiutare di pensare come macchine.
Decodificare questa razionalità, contestarne le pretese di neutralità, resistere alla sua naturalizzazione: questo è il lavoro necessario.
Approfondimenti
Box 1: Il Problema dell’Arresto
Il halting problem di Turing dimostra che non può esistere un algoritmo generale che, dato un programma qualsiasi e un input, determini se quel programma terminerà o continuerà indefinitamente. È un limite teorico fondamentale della computazione: esistono domande logicamente ben formate per cui non esiste procedura algoritmica di risposta.
Box 2: Funzioni Ricorsive
Una funzione ricorsiva risolve un problema riducendolo a una versione più semplice di se stesso. Esempio: il fattoriale di n (n!) è definito come n × (n-1)!. Il problema complesso (calcolare 5!) si riduce a problemi più semplici (4!, poi 3!, poi 2!, poi 1!) fino al caso base. Gli algoritmi possono calcolare efficacemente solo questo tipo di funzioni.
Box 3: Black Box e Explainability
Un algoritmo di deep learning con 175 miliardi di parametri (come GPT-3) è letteralmente incomprensibile: nessun umano può tracciare perché genera un output specifico dato un input. Il campo della explainable AI cerca di sviluppare tecniche per rendere interpretabili questi sistemi, ma resta irrisolto il trade-off tra performance e interpretabilità.
Voci Correlate
- Intelligenza Artificiale: sistemi computazionali che simulano capacità cognitive
- Machine Learning: algoritmi che apprendono pattern dai dati
- Piattaforma: infrastrutture digitali che mediano interazioni sociali ed economiche
- Sorveglianza: raccolta e analisi sistemica di dati comportamentali
- Big Data: dataset massivi analizzati algoritmicamente per estrarre pattern
- Governamentalità: forme di potere che governano attraverso la condotta delle condotte
Bibliografia essenziale
- Turing, Alan (1936). «On Computable Numbers, with an Application to the Entscheidungsproblem».
- Gillespie, Tarleton (2014). «The Relevance of Algorithms».
- Pasquale, Frank (2015). The Black Box Society.
- O’Neil, Cathy (2016). Weapons of Math Destruction.
- Rouvroy, Antoinette (2013). «The End(s) of Critique: Data-behaviourism vs. Due-process».
- Zuboff, Shoshana (2019). The Age of Surveillance Capitalism.








