La fine dell’informazione libera?
Come algoritmi invisibili, sorveglianza di massa e bolle digitali stanno ridefinendo democrazia, libertà e verità nel 2025
Ottobre 2025: Il Campo di Battaglia Digitale
Il 24 ottobre 2025, la Commissione Europea ha annunciato risultati preliminari secondo cui TikTok e Meta (Facebook/Instagram) hanno violato le regole di trasparenza del Digital Services Act, la legge europea che regola le piattaforme digitali. Le multe potenziali? Fino al 6% del fatturato globale annuale — miliardi di dollari. La risposta dall’altra parte dell’Atlantico è stata immediata: l’amministrazione Trump ha intensificato la pressione sull’Europa, con il vicepresidente JD Vance che ha minacciato di ritirare il supporto alla NATO se l’Europa continua a “regolamentare le piattaforme di Musk”.
Nello stesso periodo, documenti interni rivelano che l’Environmental Protection Agency (EPA) americana starebbe utilizzando l’intelligenza artificiale per monitorare le comunicazioni dei dipendenti, cercando “linguaggio ostile a Trump o Musk”. In Cina, operatori governativi usano ChatGPT per scrivere proposte di strumenti di sorveglianza di massa degli Uiguri. Su TikTok, ricerche recenti confermano l’esistenza di “camere dell’eco” politiche dove 51 milioni di utenti vengono esposti solo a contenuti che confermano le loro convinzioni preesistenti.
Benvenuti nella Platform Society del 2025: una società dove le piattaforme digitali non sono più strumenti neutrali, ma infrastrutture di potere che mediano ogni aspetto della vita sociale, politica ed economica.
La Platform Society: Vivere nell’informazione
Cos’è la Platform Society? Il termine, coniato dai ricercatori olandesi José van Dijck, Thomas Poell e Martijn de Waal, descrive una società dove piattaforme digitali come Facebook, Google, Amazon, TikTok non sono più semplici servizi, ma hanno permeato profondamente le strutture sociali. Non usiamo più “la tecnologia” — viviamo dentro ecosistemi digitali che modellano come lavoriamo, comunichiamo, ci informiamo, facciamo politica, consumiamo cultura.
Pensate alla vostra giornata: vi svegliate con una sveglia su uno smartphone (Apple o Android, entrambi ecosistemi chiusi). Controllate le notifiche su WhatsApp (Meta). Leggete notizie su feed algoritmici (Facebook, X, TikTok). Lavorate su piattaforme cloud (Google Workspace, Microsoft 365). La sera guardate Netflix, ordinate cibo su Deliveroo, chiamate un Uber. Ogni interazione genera dati. Ogni dato alimenta algoritmi. Ogni algoritmo modella le vostre prossime scelte.
Questa è l’ecologia digitale: un ambiente in cui le piattaforme non sono isolate ma formano un ecosistema interconnesso, dove ogni elemento influenza e dipende dagli altri. E come in ogni ecosistema, chi controlla le risorse fondamentali — in questo caso dati, algoritmi, infrastrutture — controlla l’intero sistema.
Le Bolle Algoritmiche: Prigionieri delle Nostre Preferenze
Nel 2025, uno studio su oltre 51 milioni di account TikTok ha confermato quello che molti sospettavano: gli algoritmi creano “camere dell’eco” politiche distinte. Utenti di sinistra e di destra esistono in reti completamente separate, esposte a contenuti radicalmente diversi sugli stessi eventi. Ancora più preoccupante: i contenuti più radicali ricevono meno visualizzazioni ma generano più engagement attivo (commenti, condivisioni), creando comunità piccole ma intensamente polarizzate.
Le bolle algoritmiche funzionano così: l’algoritmo osserva cosa clickate, quanto tempo passate su ogni contenuto, cosa condividete. Poi vi mostra più contenuti simili. Sembra innocuo — chi non vuole vedere cose interessanti? Ma il risultato è che venite progressivamente isolati da prospettive diverse. Non è censura nel senso tradizionale: nessuno vi impedisce di cercare informazioni alternative. È qualcosa di più sottile: queste informazioni semplicemente non vi vengono mostrate, quindi non sapete che esistono.
Il problema si aggrava quando realizziamo che miliardi di persone ricevono le loro notizie principalmente da questi feed algoritmici. Non c’è più una “realtà condivisa” da cui partire per discutere. Ci sono realtà parallele, ciascuna con i propri “fatti”, alimentate da algoritmi ottimizzati non per la verità ma per l’engagement.
Il Conformismo Algoritmico: La Tirannia dell’Invisibile
Ma le bolle algoritmiche sono solo un aspetto del problema. C’è qualcosa di più insidioso: il conformismo algoritmico. Sapere di essere osservati — anche se non sappiamo esattamente da chi o quando — cambia il nostro comportamento. Autocensuriamo post “troppo controversi”. Evitiamo argomenti “problematici”. Seguiamo le tendenze popolari per non essere algoritmicamente penalizzati con meno visibilità.
Su piattaforme come TikTok, Instagram, YouTube, i creators hanno imparato a “giocare con l’algoritmo”: usano parole sostitutive per evitare shadow-ban (“non vivente” invece di “morto”, “seggs” invece di “sex”), seguono formati virali anche se non riflettono ciò che vogliono davvero comunicare, pubblicano negli orari “ottimali” determinati dall’algoritmo. Il risultato? Una massificazione culturale dove tutti creano contenuti simili per compiacere lo stesso algoritmo invisibile.
Questo è il panopticon digitale in azione: non serve che qualcuno ci osservi costantemente. Basta la consapevolezza di essere osservabili per modificare il comportamento collettivo. E chi programma quell’algoritmo invisibile esercita un potere immenso senza mai apparire.
Il Grande Fratello: Governi e Big Tech Uniti nella Sorveglianza dell’informazione
Ottobre 2025: OpenAI pubblica un report che documenta come operatori del governo cinese abbiano utilizzato ChatGPT per scrivere proposte di strumenti di sorveglianza di massa che analizzano “movimenti di viaggio e record di polizia degli Uiguri e altre persone ad alto rischio”. Nello stesso mese, emergono rapporti secondo cui l’amministrazione americana starebbe usando AI per monitorare comunicazioni interne di agenzie governative, cercando “linguaggio ostile” verso leader politici.
Il Grande Fratello non è più solo una distopia letteraria — è realtà operativa in molteplici forme:
Sorveglianza governativa tecnologicamente potenziata: La Cina ha oltre metà delle telecamere di sorveglianza mondiali, molte dotate di riconoscimento facciale AI. Il sistema di “credito sociale” punisce comportamenti “antisociali” limitando accesso a servizi, viaggi, opportunità. Ma non è solo Cina: negli USA, il Department of Homeland Security usa AI per screening ai confini, la NSA (National Security Agency) è stata uno dei primi maggiori adottori di AI per sorveglianza, e l’ACLU (American Civil Liberties Union) ha intentato cause per ottenere trasparenza su come queste tecnologie vengono usate.
Sorveglianza corporativa come modello di business: Google sa cosa cercate, dove andate (Google Maps), cosa guardate (YouTube), chi siete (Android). Meta sa con chi comunicate (WhatsApp), cosa vi piace (Facebook), cosa comprate (Instagram Shopping). Amazon sa cosa acquistate, cosa leggete (Kindle), persino cosa dite in casa (Alexa). Questi dati non vengono solo venduti agli inserzionisti — vengono forniti a governi su richiesta legale, spesso senza supervisione pubblica adeguata.
La convergenza pubblico-privato: Il confine tra sorveglianza governativa e corporativa sta scomparendo. Aziende come Palantir vendono tecnologie di sorveglianza predittiva a governi autoritari. NSO Group (sviluppatori dello spyware Pegasus) ha venduto strumenti a regimi che li hanno usati contro giornalisti e dissidenti. Quando Elon Musk, CEO di X (Twitter), appare insieme a Trump e minaccia di tagliare fondi alla NATO se l’Europa “censura” le sue piattaforme, la distinzione tra potere politico e potere corporativo diventa irrilevante.
Il paradosso del 2025: Viviamo nell’epoca di maggiore accesso all’informazione della storia umana, eppure siamo sempre più disinformati, polarizzati, isolati in bolle cognitive, e sorvegliati sia da governi che da corporations.
Non è un bug del sistema — è il design del sistema. Un sistema ottimizzato per profitto, controllo, e stabilità del potere esistente.
Dalla Diagnosi alla Comprensione Strutturale
Nel 1975, il filosofo francese Michel Foucault identificò un meccanismo preciso: il potere moderno opera attraverso l’osservazione, non attraverso la coercizione diretta. Oggi, cinquant’anni dopo, quel meccanismo è diventato codice. Algoritmi proprietari, ecosistemi finanziari interconnessi, piattaforme che processano miliardi di interazioni al secondo determinano cosa milioni di persone vedono, pensano, credono.
Questa analisi riguarda chi controlla l’infrastruttura cognitiva della nostra civiltà attraverso reti di algoritmi, ecosistemi finanziari, piattaforme interconnesse. Non è una critica ai singoli individui o alle loro intenzioni, ma un’indagine su come funziona il sistema stesso e perché quel controllo distribuito e opaco solleva questioni fondamentali per il funzionamento democratico.
📖 Leggi altro: Contenuti che Resistono →
Il Panopticon Digitale: Quando la Sorveglianza Diventa Autodisciplina
Nel 1975, il filosofo francese Michel Foucault pubblicò Sorvegliare e punire, un libro che avrebbe cambiato il modo di pensare il potere. Foucault analizzò il panopticon, una prigione circolare progettata dal filosofo inglese Jeremy Bentham nel XVIII secolo. L’idea era semplice ma geniale: una torre centrale da cui le guardie potevano osservare tutti i prigionieri, senza che questi sapessero se in quel preciso momento erano effettivamente osservati. Il risultato? I prigionieri iniziavano a comportarsi come se fossero sempre osservati, modificando autonomamente il proprio comportamento. Il potere operava senza bisogno di coercizione diretta: bastava la possibilità di essere visti.
Quello che Foucault intuì è che questa diventa la forma moderna del potere: non più il re che punisce pubblicamente sulla piazza, ma un sistema dove le persone si autocontrollano perché sanno (o credono) di essere osservate.
Come scriveva Foucault: il potere moderno “raggiunge il granello stesso degli individui, tocca i loro corpi e si inserisce nelle loro azioni e attitudini, nei loro discorsi, processi di apprendimento e vita quotidiana.”
Oggi questo panopticon è diventato digitale e distribuito. Non è più una torre centrale, ma un ecosistema di algoritmi proprietari, feed personalizzati, reti finanziarie interconnesse. Ma funziona con lo stesso principio: sappiamo che ogni nostra azione online lascia traccia. Ogni ricerca, ogni click, ogni secondo di video guardato viene registrato. Non sappiamo esattamente chi sta guardando o cosa farà con quei dati, ma modifichiamo comunque il nostro comportamento.
Le grandi piattaforme tecnologiche — Google, Meta (Facebook/Instagram/WhatsApp), Amazon, TikTok, Netflix — non sono gestite da singoli CEO onnipotenti, ma da sistemi aziendali complessi che traggono profitto tracciando e influenzando il comportamento degli utenti. La sorveglianza è distribuita in rete, invisibile, planetaria. E funziona con una precisione che Bentham e Foucault non avrebbero mai immaginato possibile.
Il panopticon di Bentham aveva un guardiano visibile. Il panopticon digitale ha algoritmi invisibili programmati da team anonimi, validati da consigli di amministrazione, finanziati da hedge funds e fondi sovrani.

Economia dell’Attenzione: Quando Noi Siamo il Prodotto
Il panopticon foucaultiano ci spiega il meccanismo di controllo: la sorveglianza che produce autodisciplina. Ma per comprendere davvero cosa sta succedendo, dobbiamo fare un passo ulteriore e chiederci: chi controlla i controllori? Chi possiede e governa queste piattaforme?
Nell’economia dell’attenzione, esiste un principio fondamentale che molti utenti non comprendono fino in fondo: se un servizio online è gratuito, il prodotto sei tu. Le piattaforme non vendono software agli utenti, vendono gli utenti stessi. O meglio: vendono l’accesso all’attenzione degli utenti e la capacità di influenzare le loro decisioni.
Il modello funziona così: le piattaforme raccolgono dati enormi su come le persone pensano, cosa desiderano, come prendono decisioni. Poi vendono la capacità di influenzare quelle decisioni. Ma chi acquista questa influenza? Non solo le aziende che vogliono vendere prodotti. L’ecosistema delle Big Tech è profondamente intrecciato con il mondo della finanza globale:
- BlackRock e Vanguard — azionisti principali di Meta, Google, Amazon, Apple. Gestiscono oltre 20 trilioni di dollari combinati
- Fondi sovrani — Arabia Saudita (PIF) miliardi in Uber, Lucid Motors, gaming; Qatar (QIA) quote in Volkswagen, Barclays, tecnologia europea
- Venture Capital interconnesso — Andreessen Horowitz, Sequoia Capital, Y Combinator finanziano startup che alimentano l’ecosistema
- Data brokers — Acxiom, Epsilon, Oracle Data Cloud: comprano/vendono dati su 700+ milioni di persone
Questa rete finanziaria non è un dettaglio secondario. È costitutiva del potere digitale stesso. Google non è un motore di ricerca isolato — è un nodo in una rete finanziaria globale:
- Capitalizzazione di mercato di Alphabet (società madre di Google): circa 1.7 trilioni di dollari
- Principali azionisti istituzionali: BlackRock (6.1%), Vanguard (7.2%), Fidelity
- Partnership pubblicitarie con milioni di siti web in tutto il mondo
- Android OS installato su 2.5 miliardi di dispositivi
- YouTube con oltre 2 miliardi di utenti mensili
- Google Cloud che processa dati per governi e aziende Fortune 500
Meta (Facebook) non è solo Facebook. È un ecosistema integrato:
- Facebook: 3 miliardi di utenti attivi mensili
- Instagram: 2 miliardi di utenti
- WhatsApp: 2 miliardi di utenti
- Oculus VR e investimenti nel metaverso: 36 miliardi di dollari spesi in Reality Labs
- Infrastruttura fisica: cavi sottomarini che connettono oltre 200 paesi
- Meta AI integrato progressivamente in tutti i prodotti
L’economia dell’attenzione combinata con ecosistemi finanziari interconnessi produce un controllo distribuito: non c’è un singolo “villain”, ma una rete di interessi convergenti che ottimizzano tutti per il profitto. Qui si connette Foucault con l’economia politica: il panopticon digitale non è neutrale tecnologicamente — è orientato economicamente verso la massimizzazione dell’engagement e l’estrazione di valore dai dati comportamentali degli utenti.
L’Informazione come Campo di Battaglia: Chi Decide Cosa è Vero?
In una democrazia tradizionale, l’informazione circola attraverso istituzioni pubblicamente riconoscibili e verificabili: giornali indipendenti, biblioteche, università, media pubblici. I cittadini possono accedere a una pluralità di fonti, confrontare versioni diverse degli eventi, formare le proprie opinioni. Questo è il modello nato dall’Illuminismo: la verità emerge dal dibattito pubblico razionale, dal confronto delle idee.
Ma nel 2025 questo modello è profondamente trasformato. Dati recenti mostrano che il 67% degli americani riceve notizie principalmente dai social media. L’83% degli under-30 in Europa usa TikTok o Instagram come fonte primaria di informazione. Queste piattaforme, però, non sono spazi pubblici neutrali come una piazza o una biblioteca. Sono sistemi di raccomandazione algoritmici, ottimizzati per un obiettivo specifico: massimizzare l’engagement, cioè il tempo che le persone trascorrono sulla piattaforma.
Gli Algoritmi della Verità: il Codice che Decide la Realtà
Cosa sono gli algoritmi? In termini semplici, sono sequenze di istruzioni che i computer seguono per prendere decisioni. Nel contesto dei social media, gli algoritmi decidono quali contenuti mostrarci, in quale ordine, e con quale priorità. Sono come dei filtri invisibili che stanno tra noi e l’informazione.
Il News Feed di Facebook, per esempio, processa 4 petabyte di dati al giorno (l’equivalente di circa 4 milioni di gigabyte) per decidere quali post mostreranno ai suoi 3 miliardi di utenti. L’algoritmo non si limita a riflettere la realtà: la costruisce attivamente. Ogni volta che calcola quale contenuto mostrare a quale utente, sta prendendo decisioni editoriali con conseguenze politiche e sociali. Ma queste decisioni sono presentate come neutre, tecniche, automatiche.
La neutralità algoritmica è un mito ideologico. Ogni algoritmo incorpora necessariamente dei valori e delle priorità.
Quando un algoritmo decide cosa mostrarci, deve fare scelte: cosa ottimizzare? L’engagement (tempo trascorso)? L’accuratezza delle informazioni? La diversità delle prospettive? Come bilanciare questi obiettivi quando confliggono? Quali contenuti penalizzare e per quali ragioni? Queste sono decisioni fondamentalmente politiche — scelte su cosa è importante e cosa conta — mascherate da scelte tecniche “oggettive”.
Un caso illuminante: nel 2020, prima delle elezioni presidenziali americane, Facebook modificò temporaneamente il suo algoritmo per ridurre la diffusione di disinformazione. L’engagement sui post crollò del 30%, ma la qualità dell’informazione circolante migliorò misurabilmente. Dopo le elezioni, le modifiche furono rimosse. Perché? Perché il calo dell’engagement impattava negativamente sui ricavi pubblicitari. Scelta tra verità e profitto. Il profitto ha vinto.
Questo non è un’anomalia o un errore. È la logica intrinseca del sistema. Quando l’informazione è monetizzata attraverso la pubblicità, l’imperativo finanziario diventa: massimizzare il tempo trascorso sulla piattaforma. I contenuti emotivi, polarizzanti, scioccanti ottimizzano l’engagement. I contenuti accurati, bilanciati, verificati spesso no — sono meno condivisibili, meno provocatori, meno “virali”.
Filter Bubbles di informazione: Quando Ognuno Vive nella Propria Realtà
Nel 2011, l’attivista digitale Eli Pariser coniò il termine “filter bubble” (bolla di filtraggio) per descrivere un fenomeno preoccupante: gli algoritmi personalizzano i nostri feed basandosi sul nostro comportamento passato, creando delle bolle informative dove vediamo principalmente contenuti che confermano ciò che già crediamo. Il risultato è una progressiva frammentazione della realtà condivisa.
Facciamo un esempio concreto: due persone su Facebook possono vedere versioni completamente diverse dello stesso evento. Durante la pandemia COVID-19, per una persona il feed mostrava articoli scientifici, virologi, dati sulle vaccinazioni. Per un’altra, lo stesso algoritmo mostrava video di medici dissidenti, teorie alternative, testimonianze di effetti avversi. Non è che una versione fosse “vera” e l’altra “falsa” in senso assoluto — è che l’algoritmo ha ottimizzato i feed per confermare i bias esistenti di ciascuno, perché così le persone continuano a scrollare, cliccare, rimanere sulla piattaforma.
Questo realizza una delle predizioni più inquietanti di George Orwell: il controllo non avviene attraverso la censura totalitaria diretta, ma attraverso la frammentazione della verità stessa. Non c’è più un dibattito pubblico su interpretazioni diverse di fatti condivisi. Ci sono realtà parallele e incompatibili, ciascuna con il proprio set di “fatti alternativi”.
La Crisi dell’Autorità: Quando l’Esperto Vale Quanto il Complottista
Per secoli, le società democratiche hanno riconosciuto l’esistenza di istituzioni epistemiche autorevoli — cioè istituzioni che avevano credibilità nel determinare cosa è vero e cosa no: università, accademie scientifiche, giornalismo investigativo. Queste istituzioni avevano autorità perché sottoposte a meccanismi di verifica: la revisione tra pari (peer review) nella scienza, il fact-checking nel giornalismo, standard etici professionali.
L’ecosistema digitale ha profondamente indebolito questa autorità. Su YouTube, un video di un virologo con 40 anni di ricerca alle spalle compete algoritmicamente con il video di un teorico del complotto. Spesso il secondo ottiene più visualizzazioni — non perché più accurato o credibile, ma perché più emozionante, più provocatorio, più condivisibile. L’algoritmo non distingue tra credibilità epistemica e viralità. Ottimizza solo per l’engagement, per il tempo di visualizzazione, per i click.
Disinformazione come Arma: L’Industrializzazione della Menzogna
Se piattaforme digitali hanno demolito autorità epistemica tradizionale, hanno anche creato infrastruttura perfetta per disinformazione coordinata. Questo non è fenomeno spontaneo — è industria organizzata con investimenti miliardari.
Bot Farms: L’Automazione della Menzogna
Le “bot farms” sono operazioni organizzate, spesso situate in paesi come Macedonia, Russia o Filippine, che gestiscono milioni di account falsi sui social media. Questi account amplificano messaggi specifici in modo coordinato. Il costo? Circa 100 dollari per 10.000 follower falsi, 15 dollari per una campagna coordinata di 1.000 retweet. La disinformazione è diventata una merce che si può acquistare, un servizio industrializzato e scalabile.
Queste operazioni sfruttano la logica degli algoritmi: i contenuti che ricevono un engagement iniziale forte ottengono un boost dai sistemi di raccomandazione delle piattaforme. Le bot farms creano questo engagement artificiale iniziale, innescando poi un’amplificazione organica da parte di utenti reali. Il risultato? Una narrativa falsa sembra emergere spontaneamente dalla “volontà popolare”, quando in realtà è stata orchestrata.
Deepfakes: La fine dell’informazione, Quando Non Puoi Più Credere ai Tuoi Occhi
Per secoli, “vedere per credere” è stato uno standard fondamentale: fotografie e video costituivano prove visive affidabili. La tecnologia dei deepfakes — video falsi ma fotorealistici creati con intelligenza artificiale — ha reso obsoleto questo standard. Oggi è possibile creare video realistici di politici che dicono cose mai dette, nel giro di poche ore. L’audio clonato della voce di una persona è praticamente indistinguibile dall’originale.
Questo non è solo un problema tecnico: è un problema epistemologico fondamentale. Se non possiamo più fidarci di ciò che vediamo e sentiamo, su cosa basiamo le nostre convinzioni? Come verifichiamo la verità?
Cambridge Analytica: L’Industrializzazione della Manipolazione dell’informazione
Il caso Cambridge Analytica, scoppiato nel 2018, ha rivelato l’industrializzazione della manipolazione psicologica su scala di massa. L’azienda aveva raccolto dati da 87 milioni di profili Facebook senza consenso, analizzandoli con modelli psicologici avanzati (il modello OCEAN della personalità) per creare campagne politiche iper-personalizzate.
La logica era questa: persone con tratti di personalità specifici rispondono meglio a messaggi specifici. Gli algoritmi identificavano i tratti psicologici di ogni individuo, generavano messaggi su misura, e li indirizzavano con precisione chirurgica. Due elettori nello stesso distretto potevano vedere campagne elettorali completamente diverse — ognuna ottimizzata per manipolare la loro specifica psicologia individuale.
Questo non è più persuasione democratica tradizionale (dove un candidato fa un appello pubblico a ragioni condivise), ma manipolazione psicologica atomizzata. Un candidato non ha più un singolo messaggio pubblico, ma milioni di messaggi diversi, ognuno calibrato per manipolare uno specifico cluster psicografico. La trasparenza democratica diventa impossibile quando ogni elettore vede una campagna diversa e personalizzata.
La disinformazione industrializzata non è solo un problema di contenuti specifici (che possono essere verificati e smentiti), ma di architettura sistemica.
Finché il modello economico premia l’engagement sopra l’accuratezza, e finché gli algoritmi di raccomandazione amplificano contenuti emozionali e polarizzanti, la disinformazione avrà sempre un vantaggio competitivo nel mercato dell’attenzione. Il sensazionale batte il verificato, il provocatorio batte il bilanciato — non per caso, ma per design del sistema.
Nella Rete del Potere: il controllo delle reti di informazione – Manuel Castells
Se Foucault ci mostra come opera il potere (attraverso sorveglianza e autodisciplina) e l’analisi economica ci mostra chi lo finanzia (ecosistemi finanziari globali), il sociologo spagnolo Manuel Castells ci fornisce il framework per comprendere dove risiede strutturalmente il potere nella società contemporanea.
Castells è il teorico della “network society” — la società in rete. La sua tesi fondamentale è che viviamo in un’epoca dove il potere non risiede più principalmente nelle istituzioni tradizionali (stati, chiese, eserciti), ma nelle reti e, soprattutto, nel controllo delle reti stesse. Chi controlla l’architettura delle reti controlla i flussi di informazione, capitale, influenza.
Castells identifica quattro forme di potere nelle reti, dal più superficiale al più profondo:
- Networking Power — il potere di chi è dentro la rete su chi ne è escluso. Esempio: se non hai uno smartphone, sei tagliato fuori da servizi bancari, trasporti, comunicazioni essenziali.
- Network Power — il potere che deriva dagli standard richiesti per partecipare alla rete. Esempio: se vuoi pubblicare un’app, devi seguire le regole di Apple o Google, altrimenti sei escluso.
- Networked Power — il potere che alcuni attori nella rete esercitano su altri. Esempio: influencer con milioni di follower hanno più potere di utenti normali nello stesso social network.
- Network-making Power — il livello più profondo: il potere di progettare le reti stesse e di decidere come funzionano. Esempio: chi decide come l’algoritmo di Facebook distribuisce i contenuti ha un potere immenso e invisibile.
Nel 2025, il Network-making Power — il potere di programmare le reti — non è nelle mani di individui singoli, ma di consigli di amministrazione, comitati esecutivi, team di ingegneri, alleanze strategiche spesso invisibili al pubblico. Questo è il livello più profondo e meno visibile di potere: non chi usa la rete, non chi ha successo nella rete, ma chi la progetta e decide come deve funzionare.
Google e l’Ecosistema Android: Network-making Power in Azione
Networking Power: Se non hai smartphone Android o iOS, sei tagliato fuori da banking, trasporti, comunicazioni essenziali. L’esclusione dalla rete è esclusione dalla società funzionale.
Network Power: Google Play Store ha standard rigidi. Viola le policy? App rimossa, business distrutto. Gli standard della rete determinano chi può partecipare.
Network-making Power: Google decide quali API esporre, come funziona il sistema operativo, quali app possono accedere a sensori/dati. Tutto opaco, deciso da comitati interni. Questo è il livello dove si esercita il vero potere — non nella censura di contenuti, ma nella progettazione delle possibilità stesse.
Meta controlla social graph di 3 miliardi persone su Facebook, 2 miliardi Instagram, 2 miliardi WhatsApp. Non “lista di amici” — mappa completa delle relazioni umane. Questo realizza simultaneamente il panopticon foucaultiano (osservazione permanente) e il network-making power di Castells (controllo dell’architettura relazionale).
Con questi dati, Meta può:
- Predire comportamenti futuri con accuratezza: divorzi, cambi lavoro, sviluppo depressione
- Micro-targetizzare messaggi politici a singoli individui con precision marketing
- Manipolare emozioni collettive modificando News Feed (esperimento 2012: induzione depressione o felicità modificando percentuale post positivi/negativi)
Potere di Meta: non nel contenuto ospitato, ma nella capacità di modulare relazioni sociali e flussi informativi. Questo è Network-making Power applicato alle relazioni umane stesse.
Google Search: Il Gatekeeper della Conoscenza
93% delle ricerche web passano per Google. De facto gatekeeper della conoscenza umana online. Google decide cosa esiste epistemologicamente — siti non indicizzati sono praticamente inesistenti. Modifiche algoritmo (Panda 2011, Penguin 2012, Helpful Content 2022) hanno decimato traffico di milioni di siti overnight, spesso senza spiegazioni.
Google integra Search con YouTube (video), Maps (local business), Shopping (e-commerce), Scholar (accademia). Controllo verticale journey informativo. Questo è il massimo grado di Network-making Power: non solo decidere chi partecipa alla rete, ma definire cosa conta come conoscenza valida.
Democrazia e Informazione Algoritmica: Un Problema Strutturale
Abbiamo analizzato come opera il potere (Foucault), dove risiede (Castells), chi lo finanzia (BlackRock, Vanguard), e come manipola l’informazione (disinformazione industrializzata). Ora dobbiamo affrontare la domanda fondamentale: può la democrazia funzionare quando l’infrastruttura informativa è controllata da ecosistemi privati ottimizzati per il profitto?
Cosa Serve alla Democrazia per Funzionare
La teoria democratica classica — da filosofi come John Stuart Mill fino al sociologo tedesco Jürgen Habermas — presuppone l’esistenza di una “sfera pubblica”: uno spazio dove i cittadini possono accedere a informazioni condivise, deliberare razionalmente, confrontare opinioni diverse, e formare consenso. Questa sfera pubblica richiede alcune condizioni fondamentali:
- Accesso pluralistico: I cittadini devono poter accedere a una diversità di fonti e prospettive, non solo a quelle che confermano le loro opinioni.
- Trasparenza: I cittadini devono sapere chi sta parlando e con quali interessi, per poter valutare criticamente le informazioni.
- Razionalità comunicativa: Gli argomenti dovrebbero essere valutati per il loro merito, non attraverso manipolazione emotiva o trucchi psicologici.
- Inclusione: Tutti devono poter partecipare al dibattito pubblico, non solo chi ha più risorse o visibilità.
L’ecosistema digitale attuale viola sistematicamente tutti questi principi. Le filter bubbles demoliscono il pluralismo informativo. Il micro-targeting psicologico occulta chi parla e perché. Gli algoritmi ottimizzati per engagement privilegiano la manipolazione emotiva sulla discussione razionale. Le bot farms e il digital divide escludono voci autentiche dal dibattito pubblico.
Cambridge Analytica e l’Erosione del Voto Informato
Una delle idee fondamentali della democrazia è che i cittadini votano basandosi su preferenze politiche informate — cioè dopo aver valutato razionalmente i candidati e i loro programmi. Ma cosa succede se le preferenze stesse sono il prodotto di manipolazione psicologica micro-targetizzata?
Cambridge Analytica ha dimostrato che con dati sufficienti e algoritmi sofisticati è possibile modificare le opinioni politiche delle persone targetizzando messaggi specifici alle loro vulnerabilità psicologiche individuali. Un elettore ansioso sulla sicurezza riceveva messaggi che enfatizzavano minacce e paura. Un elettore con valori familiari tradizionali riceveva messaggi completamente diversi. Stessa campagna, messaggi opposti, entrambi progettati per manipolare.
Questo non è persuasione democratica — presentare argomenti migliori nella sfera pubblica e lasciare che le persone decidano. Questo è ingegneria comportamentale atomizzata, dove ogni elettore viene processato come un problema di ottimizzazione algoritmico. Se gli elettori sono manipolati algoritmicamente a livello subconscio, il concetto stesso di “voto informato” perde significato. Non stiamo scegliendo candidati liberamente — stiamo reagendo a stimoli psicologici progettati con precisione.
Il Paradosso della Moderazione: Chi Custodisce i Custodi?
La democrazia richiede libertà di espressione. Ma richiede anche limiti: l’incitamento alla violenza, l’hate speech, la disinformazione elettorale devono essere moderati per proteggere il sistema democratico stesso. Storicamente, questa moderazione era distribuita attraverso il sistema democratico: leggi emanate da parlamenti eletti, applicate da tribunali indipendenti, con possibilità di appello.
Oggi, la moderazione dei contenuti è largamente privatizzata. Meta, Google, X (Twitter) decidono unilateralmente cosa rimuovere dai loro spazi. Le policy sono opache, il decision-making è sempre più automatizzato (fatto da algoritmi, non persone), e non esiste un processo di appello significativo. Il risultato? I limiti del discorso democratico sono determinati da corporations private, senza supervisione democratica.
La battaglia del Digital Services Act (DSA): L’Unione Europea ha tentato di affrontare questo problema con il Digital Services Act, entrato pienamente in vigore nel 2024. La legge impone obblighi di trasparenza alle piattaforme con oltre 45 milioni di utenti mensili nell’UE, richiede che i ricercatori abbiano accesso ai dati delle piattaforme, e prevede multe fino al 6% del fatturato globale annuale per violazioni.
Il 24 ottobre 2025, la Commissione Europea ha annunciato risultati preliminari che TikTok e Meta hanno violato le loro obbligazioni di trasparenza. L’accusa? Hanno reso “eccessivamente oneroso” per i ricercatori accedere ai dati pubblici, lasciandoli con “dati parziali o inaffidabili” che compromettono la loro capacità di studiare se gli utenti, inclusi i minori, sono esposti a contenuti illegali o dannosi.
La controffensiva di Big Tech e Trump: Ma le piattaforme non hanno accettato passivamente. La risposta è stata coordinata su più fronti:
Pressione politica attraverso l’amministrazione Trump: Mark Zuckerberg ha argomentato pubblicamente che “il governo degli Stati Uniti ha un ruolo nel difendere [l’industria tech americana] all’estero”. Tim Cook di Apple avrebbe chiesto all’amministrazione di intervenire contro le multe dell’UE. E Trump ha risposto: ha criticato i regolatori europei per aver imposto multe ad Apple, Google e Meta, e JD Vance ha minacciato che gli USA potrebbero ritirare il supporto alla NATO se l’Europa tenta di “regolamentare le piattaforme di Musk”.
Retorica della “censura”: Le piattaforme hanno rinforzato la narrativa falsa che il DSA è una legge di censura. In realtà, il DSA è una regolamentazione procedurale e neutrale rispetto ai contenuti, che obbliga le piattaforme a segnalare e rimuovere contenuti illegali, adottare sistemi di moderazione trasparenti, e dare agli utenti meccanismi per contestare decisioni. Ma inquadrarlo come “censura europea” è politicamente più efficace.
Conflitto con altri regolamenti: Meta ha argomentato che i requisiti di condivisione dati del DSA “pongono il DSA e il GDPR [General Data Protection Regulation] in tensione diretta” e ha chiesto ai regolatori di “fornire chiarezza su come queste obbligazioni dovrebbero essere riconciliate.” È una strategia classica: usare una legge di protezione dati per evitare trasparenza su come i dati vengono usati.
Febbraio 2025 — Il memorandum Trump: Il 21 febbraio 2025, Trump ha firmato un memorandum che dirige l’amministrazione a rivedere le politiche dell’UE e UK che potrebbero forzare le aziende tech americane a sviluppare o usare prodotti che “minano la libertà di parola o favoriscono la censura”. Il memo prende di mira anche le Digital Services Taxes (DST), affermando che governi stranieri tassano ingiustamente le aziende americane.
In agosto 2025, il Department of State ha inviato una direttiva ai diplomatici americani per condannare le restrizioni “indebite” imposte dal DSA, chiedendo specificamente di: ridurre la definizione di “contenuto illegale”, rivedere o rimuovere il Codice di Condotta sulla Disinformazione, ridurre le multe, e non richiedere alle piattaforme di rispondere ai “trusted flaggers” (entità scelte dai governi dell’UE per segnalare contenuti illegali).
Il paradosso irrisolvibile: Questo crea un paradosso senza soluzione apparente dentro l’attuale architettura: se permettiamo alla disinformazione e all’hate speech di circolare liberamente, la democrazia è minacciata dalla manipolazione e dalla violenza. Ma se permettiamo a corporations private di moderare unilateralmente, la democrazia è minacciata dalla censura privata non-elettiva. E se governi democratici tentano di regolamentare, vengono accusati di “censura” e affrontano ritorsioni economiche e geopolitiche.
Come ha scritto un’analisi del German Marshall Fund: “La retorica attraverso l’Atlantico dipinge un quadro di visioni vastamente divergenti da parti che si sono trincerate.” E mentre Europa e USA litigano sulla regolamentazione, la tecnologia evolve più velocemente delle leggi, e i cittadini rimangono intrappolati in un sistema che nessuno controlla veramente.
Tecnologia Autoritaria: Quando gli Strumenti Digitali Servono le Dittature
Se le piattaforme digitali creano problemi per le democrazie, si rivelano strumenti perfetti per i regimi autoritari. La Cina ha dimostrato come sia possibile combinare sorveglianza digitale totale (il panopticon foucaultiano applicato su scala nazionale) con controllo algoritmico dell’informazione (il Network-making Power di Castells usato dallo stato) per creare un sistema di controllo sociale senza precedenti storici.
Il “Great Firewall” cinese censura automaticamente contenuti indesiderati. WeChat, l’app di messaggistica dominante, monitora tutte le comunicazioni private. Il sistema di “credito sociale” punisce comportamenti considerati “antisociali” dal regime, limitando l’accesso a servizi, viaggi, opportunità. Il riconoscimento facciale traccia i movimenti di 1.4 miliardi di persone. È un sistema integrato dove tecnologie digitali originariamente sviluppate in Occidente per il marketing pubblicitario vengono riproposte per il controllo autoritario.
Il caso ChatGPT e la sorveglianza Uigura: Nell’ottobre 2025, OpenAI ha pubblicato un report allarmante. Operatori collegati al governo cinese hanno utilizzato ChatGPT per scrivere proposte di strumenti che analizzano “movimenti di viaggio e record di polizia degli Uiguri e altre persone ad alto rischio”. Come ha spiegato Ben Nimmo, investigatore principale di OpenAI: “C’è una spinta all’interno della Repubblica Popolare Cinese per migliorare l’uso dell’intelligenza artificiale per cose su larga scala come la sorveglianza. Il Partito Comunista Cinese sorvegliava già la propria popolazione, ma ora hanno sentito parlare di AI e pensano, forse possiamo usarla per migliorare un po’.”
Il caso EPA-Trump-Musk: Ma la sorveglianza AI non è più solo una minaccia di governi stranieri. Nell’ottobre 2025, Reuters ha riportato che alcuni manager dell’Environmental Protection Agency (EPA) americana sarebbero stati informati da nominati di Trump che “il team di Musk sta implementando AI per monitorare i lavoratori, inclusa la ricerca di linguaggio nelle comunicazioni considerato ostile a Trump o Musk.” L’EPA ha negato categoricamente, definendo il report “categoricamente falso”. Ma il fatto stesso che tali report emergano — e siano credibili — indica quanto il confine tra sorveglianza autoritaria e pratiche democratiche si stia assottigliando.
L’Occidente critica il sistema cinese, ma esporta le stesse tecnologie. Aziende come Palantir vendono sistemi di sorveglianza predittiva a governi autoritari. NSO Group (il gruppo israeliano dietro lo spyware Pegasus) vende strumenti di sorveglianza a regimi oppressivi che li usano contro giornalisti e dissidenti. Meta e Google operano in paesi non-democratici, adattando le loro policy alle richieste di censura governativa.
L’AI State Department “catch and revoke”: A marzo 2025, Axios ha riportato di un nuovo piano “alimentato da AI” del Department of State americano per revocare i visti di studenti con presunte “simpatie terroristiche”. Giorni dopo, l’ICE (Immigration and Customs Enforcement) ha arrestato Mahmoud Khalil, uno studente di Columbia University, parte di proteste pro-Gaza. Trump ha promesso: “Questo è il primo arresto di molti che verranno.” L’uso di AI per sorveglianza di immigrati e comunità marginalizzate non è nuovo, ma la scala e l’aggressività con cui viene implementato nel 2025 solleva allarmi senza precedenti.
Questo solleva una domanda fondamentale: la tecnologia digitale ha una tendenza intrinseca verso l’autoritarismo? O le democrazie possono ancora riappropriarsi dell’infrastruttura informativa e governarla democraticamente? La risposta dipenderà dalle scelte politiche e tecnologiche che verranno fatte nei prossimi anni — e dal fatto che i cittadini riescano a vedere il problema prima che sia troppo tardi.
Il Costo Umano del Sistema
L’analisi teorica rischia di restare astratta se non la connettiamo alle conseguenze materiali, ai corpi reali che subiscono le conseguenze di questa architettura di potere.
Prendiamo il caso di Dylan Mulvaney, influencer transgender che dopo una partnership con Bud Light — che costò all’azienda 1.4 miliardi di dollari in crollo di valore — visse mesi di paura per la propria incolumità fisica, senza ricevere supporto adeguato dall’azienda. O Hamish Steele, che riceve quotidianamente email antisemite dopo campagne di odio amplificate sui social. Il problema non è solo ciò che singoli individui dicono o fanno online. È l’ecosistema che amplifica sistematicamente l’odio:
- Algoritmi ottimizzati per engagement: I contenuti polarizzanti e carichi di odio ottengono naturalmente più reach, più condivisioni, più commenti. Questo è la conseguenza diretta del modello economico che abbiamo analizzato: massimizzare l’engagement significa massimizzare i ricavi pubblicitari.
- Moderazione reattiva, non proattiva: I contenuti di hate speech vengono rimossi solo dopo che il danno è già stato fatto, dopo le denunce degli utenti. La moderazione proattiva costa troppo, riduce i margini di profitto.
- Campagne di harassment coordinate: Organizzate su Discord o Telegram, eseguite su Twitter o Instagram, praticamente impossibili da fermare una volta innescate. La rete stessa facilita il coordinamento della violenza collettiva.
- Doxing facilitato: Informazioni personali aggregate da data brokers (quelle stesse aziende che vendono i nostri dati) vengono pubblicate da account anonimi, mettendo in pericolo persone reali.
I Moderatori: Le Vittime Invisibili del Sistema
Meta, Google, TikTok impiegano decine di migliaia di moderatori di contenuti, spesso in paesi come Filippine, India, Kenya. Vengono pagati tra 2 e 5 dollari l’ora. Il loro lavoro? Essere esposti a contenuti traumatici — violenza grafica, abusi su minori, terrorismo — per 8 o più ore al giorno. Il disturbo post-traumatico da stress (PTSD) è diffuso tra questi lavoratori, mentre il supporto psicologico fornito è spesso inadeguato.
Questo è il costo nascosto della moderazione delle piattaforme. Questi lavoratori sono dentro la rete, hanno accesso materiale e competenze digitali, ma sono completamente sfruttati. Hanno zero capacità di uso strategico della tecnologia e zero outcomes positivi dalla loro posizione. Sono simultaneamente esecutori del panopticon (decidono cosa moderare basandosi su linee guida aziendali) e vittime del panopticon (sorvegliati algoritmicamente, misurati su KPI impossibili, rimpiazzabili istantaneamente).
Il sistema non è crudele per una scelta individuale malvagia. È crudele per design economico: la moderazione costa denaro, l’engagement genera profitto. L’imperativo strutturale è minimizzare il primo, massimizzare il secondo. I corpi dei moderatori sono un costo da minimizzare, non persone da proteggere.
Informazione e Potere: Algoritmi, Capitale, Infrastruttura
Google Search: Monopolio della Conoscenza
93% ricerche web passano per Google. Ma “Google” non è Sundar Pichai. È sistema algoritmico gestito da team distribuiti: Quality Raters anonimi, Machine Learning Engineers, Policy Committees. Decision-makers invisibili. Non hanno Twitter. Operano sotto NDA. Le loro decisioni aggregate determinano quale informazione esiste per miliardi.
Questo realizza simultaneamente: panopticon foucaultiano (osservazione dei comportamenti di ricerca), Network-making Power di Castells (Google decide architettura della conoscenza accessibile). Potere senza volto. Più pericoloso del principe visibile perché non puoi contestarlo. È tecnico, quindi apparentemente neutrale. È distribuito, quindi senza accountability individuale. È opaco, quindi impossibile da audit esterno.
Meta Algorithm: Ingegneria Sociale Automatizzata
News Feed Facebook, For You Instagram — algoritmi che processano 4 petabyte dati al giorno. Chi decide parametri? Team interi con obiettivi in conflitto: Growth Team (massimizza engagement), Integrity Team (minimizza harm), Monetization Team (ottimizza revenue), AI Research (sviluppa modelli predittivi).
Policy finale Meta è compromesso emergente, mai completamente controllato da singoli individui. Meta ha ammesso (leaked documents, 2021) di non capire completamente come algoritmi influenzano comportamento utenti. Sanno che funzionano, ma non perché o come.
Potere che nemmeno chi lo possiede controlla completamente. Sistemi complessi auto-evolvono verso obiettivi (engagement, revenue), con effetti collaterali (polarizzazione, radicalizzazione, dipendenza). Qui vediamo limite del controllo umano: anche il Network-making Power è parziale quando i sistemi diventano troppo complessi per essere compresi completamente.
BlackRock & Vanguard: Il Capitale Come Governance Invisibile
BlackRock gestisce circa 10 trilioni di dollari di asset. Vanguard gestisce 8.5 trilioni. Per avere un’idea della scala: il PIL annuale dell’Italia è circa 2 trilioni. Questi due fondi di investimento sono tra i primi tre azionisti di praticamente tutte le grandi aziende tecnologiche: Apple, Microsoft, Amazon, Google, Meta, Netflix. Ma anche Disney, ExxonMobil, Pfizer, JPMorgan.
La loro influenza si esercita attraverso il voto degli azionisti e la pressione strategica sui consigli di amministrazione. Il risultato? Una convergenza strategica tra aziende che dovrebbero essere competitors. Google, Meta e Amazon competono per gli utenti e i ricavi pubblicitari, ma hanno gli stessi major shareholders. Dal punto di vista di BlackRock, che possiede quote significative in tutte e tre, un oligopolio stabile è meglio per i rendimenti finanziari di una competizione distruttiva.
Ma chi decide le strategie di questi fondi? Non Larry Fink (CEO di BlackRock) da solo. Sono centinaia di portfolio managers anonimi, risk committees, modelli quantitativi. Vanguard è ancora più opaco: è “mutually owned” (posseduto dai suoi fondi), ha una struttura quasi cooperativa, ed è governato in gran parte da algoritmi di index tracking automatici.
Questo è il livello dove convergono tutti i nostri framework teorici: questi fondi esercitano Network-making Power al livello macro (determinano la direzione strategica delle piattaforme attraverso l’ownership), operano come guardiani invisibili del panopticon (finanziano l’infrastruttura di sorveglianza), e sono quasi completamente opachi al controllo pubblico.
L’Asimmetria Fondamentale del Potere
Confrontiamo diversi tipi di potere nel panorama digitale:
Individui visibili come Musk:
- Trasparenza: Alta (ogni tweet è pubblico)
- Accountability: Media (possono essere criticati pubblicamente)
- Controllo diretto: Basso-medio (limitato da consigli, azionisti, leggi)
- Vulnerabilità: Alta (possono perdere influenza rapidamente)
Algoritmi proprietari:
- Trasparenza: Nulla (codice segreto, decisioni opache)
- Accountability: Zero (nessuno può contestarli direttamente)
- Controllo diretto: Assoluto su miliardi di utenti
- Vulnerabilità: Bassa (cambiano lentamente, difficili da regolamentare)
Fondi di investimento come BlackRock:
- Trasparenza: Minima (strategie non pubbliche)
- Accountability: Quasi zero (rispondono solo agli investitori)
- Controllo: Sistemico e indiretto (attraverso ownership azionario)
- Vulnerabilità: Bassissima (troppo grandi per fallire)
Infrastruttura cloud (AWS, Azure, Google Cloud):
- Trasparenza: Parziale (alcuni aspetti tecnici pubblici)
- Accountability: Bassa (contratti privati, poche alternative)
- Controllo: Assoluto sul layer fisico di Internet
- Vulnerabilità: Media (costosi da rimpiazzare ma possibile)
La conclusione è chiara: gli attori meno trasparenti e meno soggetti ad accountability esercitano il potere più sistemico e pervasivo. Quelli più visibili (i CEO famosi) attirano tutta l’attenzione mediatica, ma hanno un potere relativamente limitato e vincolato da molteplici fattori.
Questa è esattamente la dinamica che Foucault descriveva: il potere più efficace è quello invisibile, che opera attraverso normalizzazione e strutture che diamo per scontate. Castells aggiunge: questo potere opera programmando l’architettura delle reti stesse, non solo usando le reti esistenti.
Il Volto Invisibile del Potere sull’informazione
Il vero potere nella società in rete non è dove guardiamo (individui visibili sui social), ma dove non guardiamo (algoritmi nei data center, voti nelle assemblee degli azionisti, decisioni nei comitati di compliance).
Mentre scriviamo il campo di battaglia è chiaramente delineato:
In Europa, la Commissione ha appena accusato TikTok e Meta di violare il Digital Services Act. Dodici paesi membri hanno scritto una lettera urgente chiedendo alla Commissione di “accelerare le investigazioni in corso” per salvaguardare le elezioni europee da interferenze straniere. Il Primo Ministro spagnolo Pedro Sánchez ha dichiarato al World Economic Forum di Davos: “La tecnologia che doveva liberarci è diventata lo strumento della nostra oppressione. I social media che dovevano portare unità, chiarezza e democrazia hanno invece dato divisione, vizio e un’agenda reazionaria.”
Negli Stati Uniti, l’amministrazione Trump sta intensificando la pressione sull’Europa, con minacce di tariffe e ritiro del supporto alla NATO. Il vicepresidente JD Vance ha dichiarato pubblicamente che le regole europee sulla tecnologia “riflettono un approccio molto più restrittivo all’espressione online e all’innovazione che equivale a censura.” Contemporaneamente, rapporti emergono su uso di AI per sorveglianza interna di agenzie governative, mentre l’NSA — l’agenzia di intelligence più prolifera nell’uso di AI — opera con opacità quasi totale nonostante cause dell’ACLU per trasparenza.
In Cina, il governo usa ChatGPT per sviluppare proposte di sorveglianza di massa più efficienti. Il sistema di telecamere con riconoscimento facciale, credito sociale, e controllo delle comunicazioni continua ad espandersi, servendo da modello — positivo o negativo a seconda di chi guarda — per altri regimi autoritari.
Sulle piattaforme, ricerche su 51 milioni di account TikTok confermano camere dell’eco politiche sempre più polarizzate. Meta ha recentemente cambiato le sue policy sull’hate speech per permettere linguaggio che descrive persone trans come “mentalmente malate” e donne come “oggetti domestici” — una genuflexion all’agenda Trump, secondo critici. L’engagement algoritmicamente ottimizzato continua a premiare contenuti emotivi e polarizzanti a scapito di accuratezza e dialogo costruttivo.
Netflix perderà qualche abbonato. Elon Musk continuerà a twittare. I casi specifici passeranno. Ma la struttura resta.
La domanda centrale rimane aperta: in una democrazia, chi dovrebbe decidere le regole dello spazio pubblico digitale?
Se la risposta è “ecosistemi opachi di algoritmi proprietari, finanziati da capitali globali, gestiti da consigli anonimi, protetti da minacce geopolitiche,” allora il problema è strutturale, non accidentale. Non dipende dalle intenzioni buone o cattive di singoli individui, ma dall’architettura stessa del sistema.
Foucault ci ha mostrato come il potere diventa invisibile attraverso meccanismi di sorveglianza e autodisciplina. Castells ci ha mostrato come quel potere opera attraverso la programmazione delle reti e il controllo degli standard che rendono possibile l’interazione sociale. L’analisi economica ci ha mostrato chi finanzia questa architettura e perché: la massimizzazione del profitto attraverso l’estrazione di valore dai dati comportamentali. L’analisi dell’informazione ci ha mostrato come questa architettura mette in discussione la possibilità stessa di un discorso democratico razionale.
Il problema non è che Musk twitta o che Zuckerberg prende decisioni controverse. Il problema è l’ecosistema che permette a reti invisibili di algoritmi, capitali, e infrastrutture di controllare il discorso pubblico senza accountability democratica.
Riconoscere i meccanismi del panopticon digitale (Foucault), comprendere dove risiede il Network-making Power (Castells), vedere come l’economia politica delle piattaforme è strutturata su basi estrattive piuttosto che democratiche — questo è il primo passo per capire la realtà in cui viviamo.
La tecnologia si evolve insieme all’uomo, in una co-evoluzione dove è sempre più difficile distinguere dove finisce uno e inizia l’altro. Gli algoritmi non sono solo strumenti: sono diventati parte dell’ambiente cognitivo in cui pensiamo, decidiamo, formiamo le nostre identità.
La risposta non è sui social. È nella comprensione della struttura delle reti stesse.
Nota: Ottobre 2025
Questo articolo è stato scritto in un momento di particolare tensione nel panorama digitale globale. Mentre la Commissione Europea persegue le prime violazioni del Digital Services Act, l’amministrazione Trump intensifica la pressione geopolitica sulla regolamentazione europea. Operatori governativi in Cina e USA utilizzano AI per sorveglianza di massa. Ricerche confermano camere dell’eco sempre più polarizzate su piattaforme come TikTok.
Non sappiamo se tra sei mesi, un anno, cinque anni, il DSA sarà ancora in vigore, se l’UE avrà resistito alle pressioni americane, se nuove forme di sorveglianza AI saranno normalizzate, o se le piattaforme avranno trovato nuovi modi di eludere ogni forma di accountability. Quello che sappiamo è che la battaglia per chi controlla l’infrastruttura cognitiva della civiltà è in pieno svolgimento, e le sue conseguenze determineranno il futuro stesso della democrazia.
Gli algoritmi producono distrazione concentrando l’attenzione su individui visibili. Ma il potere reale risiede nell’architettura invisibile che determina chi parla, chi ascolta, cosa circola, cosa conta come vero. Comprendere questa architettura — come funziona, chi la controlla, perché è strutturata in questo modo — è il punto di partenza per ogni riflessione seria sul futuro della democrazia nell’era digitale.
La tecnologia si evolve insieme all’uomo, in una co-evoluzione dove è sempre più difficile distinguere dove finisce uno e inizia l’altro. Gli algoritmi non sono solo strumenti: sono diventati parte dell’ambiente cognitivo in cui pensiamo, decidiamo, formiamo le nostre identità. E chi controlla quell’ambiente, controlla il futuro possibile.
Fonti e Riferimenti
Teoria Critica e Filosofia del Potere
- Foucault, M. (1975). Surveiller et punir: Naissance de la prison. Gallimard.
- Castells, M. (2009). Communication Power. Oxford University Press.
- Van Dijck, J. (2006). “Digital divide research, achievements and shortcomings”. Poetics, 34(4-5).
Platform Society ed Ecologia Digitale
- Van Dijck, J., Poell, T., & de Waal, M. (2018). The Platform Society: Public Values in a Connective World. Oxford University Press.
- Li, Y., Cheng, Z., & Gil de Zúñiga, H. (2025). “TikTok’s political landscape: Examining echo chambers”. New Media & Society.
Regolamentazione e Digital Services Act (2025)
- CNBC (24 ottobre 2025). “EU says TikTok and Meta broke transparency rules under tech law”.
- Commissione Europea. “The Digital Services Act package”.
- German Marshall Fund of the United States (2025). Analisi sul conflitto regolatorio transatlantico su disinformazione, moderazione e DSA.
Sorveglianza AI e Governi (2025)
- CNN (7 ottobre 2025). “Chinese-linked actors used ChatGPT to pitch mass surveillance proposals targeting Uyghurs”, citando OpenAI.
- Reuters (ottobre 2025). Report sull’uso interno di AI all’EPA per monitorare linguaggio “ostile a Trump o Musk”. (EPA ha smentito ufficialmente).
- ACLU (2024). “How is one of America’s biggest spy agencies using AI? We’re suing to find out.”
- Axios (marzo 2025). Note interne del Dipartimento di Stato USA sul piano AI per revoca visti (“catch and revoke”) e dichiarazioni di Trump dopo l’arresto di Mahmoud Khalil.
Economia Politica delle Piattaforme
- Khan, L. M. (2017). “Amazon’s Antitrust Paradox”. Yale Law Journal, 126(3).
- Srnicek, N. (2017). Platform Capitalism. Polity Press.
- Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
Disinformazione e Manipolazione Algoritmica
- Cadwalladr, C. & Graham-Harrison, E. (2018). “Revealed: 50 million Facebook profiles harvested for Cambridge Analytica”. The Guardian.
- Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
- Vosoughi, S., Roy, D., & Aral, S. (2018). “The spread of true and false news online”. Science, 359(6380).








