Machine Learning: La Matematica del Controllo
Il machine learning non è magia. È potere computazionale che replica e amplifica le strutture di disuguaglianza che già esistono nel mondo reale.
La Macchina che Impara (Ma da Chi?)
Nel 1959, Arthur Samuel definì il machine learning come la capacità di una macchina di imparare senza essere esplicitamente programmata. Suona liberatorio, quasi democratico. La realtà è più spigolosa: le macchine imparano dai dati che gli diamo, e quei dati portano dentro ogni pregiudizio, ogni asimmetria di potere, ogni discriminazione codificata dalla società che li ha generati.
Tecnicamente, il machine learning è un sottoinsieme dell’intelligenza artificiale che utilizza algoritmi matematici per identificare pattern nei dati e fare previsioni su informazioni mai viste prima. Un algoritmo è un insieme di regole. Un modello è il risultato dell’applicazione di quell’algoritmo a un dataset dopo l’addestramento. La distinzione è cruciale: prima dell’addestramento hai procedure, dopo hai un sistema decisionale “autonomo” che influenza vite reali.
Il processo funziona così: raccogli dati, li prepari, scegli un algoritmo, addestri il modello, valuti le performance, regoli i parametri, lo metti in produzione. Ogni fase nasconde una scelta politica mascherata da decisione tecnica. Quali dati raccogli? Chi li etichetta? Quali variabili consideri rilevanti? Chi decide cosa significa “performance ottimale”?
Esistono tre paradigmi principali. L’apprendimento supervisionato usa dati etichettati per prevedere output specifici, come classificare email spam o approvare prestiti. L’apprendimento non supervisionato cerca pattern nascosti in dati non etichettati, come raggruppare clienti per comportamenti d’acquisto. L’apprendimento per rinforzo impara attraverso tentativi ed errori, massimizzando ricompense nel tempo, come i sistemi di guida autonoma o gli algoritmi di trading ad alta frequenza.
La complessità matematica è reale: regressione lineare, alberi decisionali, reti neurali, support vector machines, clustering gerarchico. Ma questa complessità tecnica serve anche a un altro scopo, meno discusso. Crea una barriera epistemologica tra chi controlla gli algoritmi e chi li subisce, trasformando decisioni sociali e politiche in questioni apparentemente neutrali che richiedono “expertise tecnica”.

Machine learning: Il Mercato della Predizione
I numeri raccontano l’accelerazione. Nel 2024 il mercato dell’Intelligenza Artificiale in Italia ha raggiunto 1,2 miliardi di euro (+58%), con una quota rilevante di sperimentazioni che includono AI generativa, mentre il resto resta machine learning “tradizionale”. Nel 2025, la spesa in Big Data & Analytics arriva a 4,1 miliardi (+20%): cresce l’infrastruttura che rende i dati “machine-readable” e trasforma ogni interazione in materia prima algoritmica.
Ma dietro l’entusiasmo dei comunicati stampa emerge una geografia del potere precisa: capacità di investimento, accesso alle infrastrutture, controllo dei dati, forza contrattuale con i vendor, competenze interne. In molti settori — Telco & Media, Insurance, Banking, Energy, Retail — il dato non è “asset”: è la leva con cui si riscrive il mercato.
Traduzione politica: più dati → più predizione → più capacità di intervenire sul comportamento.
Traduzione economica: più predizione → più ottimizzazione → più estrazione di valore.
Traduzione sociale: più opacità → meno contestabilità → più asimmetria tra chi decide e chi subisce.
L’Automazione della Discriminazione
Amazon ha dovuto eliminare un sistema di recruiting basato su machine learning perché discriminava sistematicamente le candidate donne. L’algoritmo aveva imparato dai dati storici delle assunzioni: se lo storico è sbilanciato, il modello scambia lo sbilanciamento per “merito”.
Non è un caso isolato. È la regola strutturale del machine learning quando lo applichi a società diseguali. Nei sistemi biometrici, gli errori non sono distribuiti in modo neutrale: test su larga scala mostrano differenze demografiche nei falsi positivi, e studi accademici hanno evidenziato gap significativi per genere e tonalità della pelle in classificatori commerciali.
Il problema si aggrava perché molti modelli — soprattutto deep learning — operano come “black box” opache. Anche quando il modello è tecnicamente spiegabile, la filiera decisionale diventa una macchina di dereponsabilizzazione: il programmatore “ha scritto codice”, il manager “ha adottato uno strumento”, il modello “ha ottimizzato una metrica”. Nessuno è responsabile, eppure qualcuno paga.
- Selezione del personale: il passato diventa criterio di futuro.
- Credito e scoring: la predizione “misura” affidabilità e poi la impone come destino.
- Polizia predittiva: i feedback loop trasformano sorveglianza in prova.
- Biometria: l’errore tecnico diventa rischio politico (e spesso colpisce sempre gli stessi).
Governance: Il Teatro della Regolamentazione
L’Unione Europea ha approvato l’AI Act: è entrato in vigore il 1 agosto 2024 e diventa pienamente applicabile il 2 agosto 2026, con tappe anticipate. Dal 2 febbraio 2025 sono entrati in applicazione i divieti sulle pratiche proibite e gli obblighi di AI literacy. Dal 2 agosto 2025 scattano gli obblighi per i modelli di General Purpose AI (GPAI).
Sulla carta, il framework è chiaro: pratiche inaccettabili (vietate), sistemi ad alto rischio (fortemente regolati), rischio limitato (trasparenza), rischio minimo. Sulla carta. Nella pratica, la compliance diventa un filtro di mercato: chi ha team legali, audit interni e infrastrutture può “reggere” la regolazione; chi non li ha diventa dipendente da piattaforme e provider.
Le sanzioni sono alte: fino a 35 milioni di euro o il 7% del fatturato globale annuo (a seconda della violazione e della dimensione). Ma la storia della regolamentazione tech insegna che la multa, spesso, è solo un costo di esercizio.
La Questione che Rimane Aperta
In Italia, le stime sul lavoro parlano di un potenziale teorico molto elevato: circa il 50% dei posti di lavoro equivalenti potrebbe essere automatizzabile, ma il dato “tecnico” non è la notizia. La notizia è la domanda politica: chi decide cosa automatizzare, con quali criteri, per il beneficio di chi.
Ogni modello di machine learning incorpora un’ontologia sociale: una visione di come dovrebbe funzionare il mondo, una gerarchia di valori trasformata in funzione matematica. Quando un algoritmo decide chi ottiene un prestito, chi viene assunto, chi viene sorvegliato, chi ottiene priorità, sta operazionalizzando una teoria della giustizia. Solo che nessuno ha votato per quella teoria.
La trasparenza non basta. L’explainability non basta. Anche se aprissimo ogni black box e capissimo ogni decisione, rimarrebbe il problema fondamentale: stiamo delegando scelte morali e politiche a sistemi costruiti per ottimizzare metriche quantificabili. Ma non tutto ciò che conta può essere contato, e non tutto ciò che può essere contato conta davvero.
LEGGI ALTROMachine learning – Fonti essenziali
- Intelligenza Artificiale in Italia: numeri record per il mercato — Osservatori Digital Innovation (Politecnico di Milano)
- Il mercato Big Data in Italia in crescita del 20% nel 2025 — Osservatori Digital Innovation (Politecnico di Milano)
- AI Act: Application timeline e quadro normativo — Commissione Europea (Shaping Europe’s Digital Future)
- Commission welcomes political agreement on AI Act (penalties incl. €35M / 7%) — Commissione Europea (Press Corner)
- L’IA e lavoro: potenziale di automazione e scenari Italia — Osservatorio Artificial Intelligence (Politecnico di Milano)
- Amazon scraps secret AI recruiting tool that showed bias against women — Jeffrey Dastin (Reuters, 11 Oct 2018)
- NIST study on demographic effects in face recognition — NIST (2019)
- Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification — Joy Buolamwini & Timnit Gebru (2018)
- To Predict and Serve? — Kristian Lum & William Isaac (2016)
- Predictably Unequal? The Effects of Machine Learning on Credit Markets — Andreas Fuster et al. (Journal of Finance, 2022)
- Some Studies in Machine Learning Using the Game of Checkers — Arthur L. Samuel (1959)
- Weapons of Math Destruction — Cathy O’Neil (Penguin Random House)
- The Black Box Society — Frank Pasquale (Harvard University Press)








