L’Architettura Social del Potere Digitale
Come le piattaforme Social ci governano attraverso il codice e perché “usarle meglio” non è la risposta
Hai mai pensato a cosa succede nel secondo tra quando apri l’app e quando appare il primo post?
Non lo fai. Nessuno lo fa. È istantaneo e “naturale”.
Ed è esattamente così che ci fregano.
Perché in quel secondo si compie un atto di potere più sofisticato di qualsiasi propaganda e più pervasivo di qualsiasi sorveglianza.
Chiamala architettura. Chiamalo codice. Chiamalo algoritmo. Ma è: POTERE.
“Code is law”. Ma oggi il codice programma il desiderio.
L’Architettura Social che Decide Per Te
Le piattaforme social non sono strumenti. Non sono spazi. Sono ambienti.
E come tutti gli ambienti, hanno un’architettura. Ma non è un’architettura che vedi. È un’architettura che ti attraversa. Disegna spazi cognitivi, scrive percorsi di attenzione, premia specifiche emozioni. Ti offre la sensazione di scegliere mentre pre-configura ciò che è pensabile, visibile, desiderabile.
Prendi il feed. Sembra semplice, vero? Una lista di contenuti. Ma non è una lista. È una cascata di decisioni prese al posto tuo, migliaia di volte al secondo, su miliardi di persone contemporaneamente.
Il sistema raccoglie segnali. Quanto ti sei fermato su quel video. Quali post hai guardato senza reagire. Cosa hai cercato ieri sera alle 2 di notte quando non riuscivi a dormire. Poi calcola probabilità: chi reagirà, come reagirà, quanto tempo resterà. Poi classifica: questo sopra, questo sotto, questo mai. E solo alla fine – dopo che tutte queste decisioni sono state prese – ti consegna il contenuto.
Ti sembra di scegliere. Ma stai solo scegliendo tra ciò che è già stato scelto per te.
Langdon Winner si chiese negli anni ’80 se gli artefatti abbiano una politica. La risposta è sì. L’autoplay non è una “feature” – è una scelta politica sul controllo dell’attenzione. Ogni interfaccia è un manifesto nascosto.
Michel Foucault lo chiama potere autodisciplinare: un potere che non comanda dall’alto, ma controlla la tua soggettività. L’algoritmo non ti dice cosa fare. Ti fa diventare qualcuno che vuole farlo.
Social Roulette
Ma perché? Perché costruire macchine così sofisticate per “mostrarti contenuti”?
Perché non ti stanno mostrando contenuti. Ti stanno estraendo.
Shoshana Zuboff la chiama surveillance capitalism. Ma il termine è quasi troppo gentile. Fa pensare a telecamere, a spie, a qualcuno che ti guarda. La realtà è più sottile e più totale. Non ti stanno guardando. Ti stanno modellando.
Ogni click, ogni pausa, ogni scroll, ogni momento in cui NON fai qualcosa – tutto è segnale. Tutto è dato. Tutto è surplus comportamentale: materiale grezzo da cui estrarre pattern, previsioni, certezze.
Perché le piattaforme non vendono attenzione agli inserzionisti. Vendono qualcosa di molto più prezioso: vendono certezza comportamentale. La capacità di dire “se mostro questo a questo tipo di persona, con il 73% di probabilità reagirà così”.
Tu non sei il cliente. Non sei nemmeno il prodotto. Sei la miniera abbandonata da cui estrarre materia prima gratis, ventiquattr’ore su ventiquattro, sette giorni su sette, per sempre.
E il ciclo si auto-rinforza. Più dati raccolgono, più accurato diventa il modello. Più accurato diventa il modello, più tempo riesci a trattenerti. Più tempo trattieni, più dati generi. Nick Srnicek lo chiama platform capitalism: chi controlla la piattaforma controlla i dati, chi controlla i dati controlla il mercato.
Julie Cohen parla di “modulazione”. Non persuasione – modulazione. Micro-aggiustamenti continui del tuo comportamento, così piccoli che non li noti, così costanti che diventano te. Il potere algoritmico non convince. Ottimizza. Non argomenta. Modula.
Ogni volta che il sistema ti mostra qualcosa e tu reagisci, sta testando un’ipotesi. Ogni volta che reagisci nel modo previsto, l’ipotesi si rafforza. Il profilo converge. E dopo abbastanza iterazioni, il sistema ti conosce meglio di quanto tu conosca te stesso. Non perché sia magico. Perché ha visto milioni di persone come te reagire a milioni di stimoli come quello.
Non è sorveglianza. È architettura predittiva
Nella rete dei Social
Ma l’attenzione è solo l’inizio.
La competizione tra piattaforme ha superato la “quota di tempo”. Ora punta alla quota di identità. Perché l’utente che si identifica con la piattaforma è più prevedibile, più fidelizzato, più monetizzabile. Non vuole solo usare il servizio. Vuole essere parte del servizio.
Byung-Chul Han lo vede chiaramente: siamo passati dalla società disciplinare alla società della prestazione. La società disciplinare diceva “devi”. La società della prestazione dice “puoi”. Ma il “puoi” è ancora più oppressivo del “devi”, perché ti fa credere che la costrizione sia libertà.
Sui social non ti impongono di performare. Ti fanno desiderare di performare. Perché hai interiorizzato la metrica. Perché la visibilità è diventata esistenza. Perché il riconoscimento algoritmico è diventato riconoscimento sociale.
Jodi Dean la chiama communicative capitalism: il valore non è in cosa dici, ma nel fatto che continui a dire. Il contenuto è irrilevante.
L’identità diventa performance obbligata. Erving Goffman diceva che la vita sociale è teatro, ma almeno c’erano i retroscena dove togliersi la maschera. Oggi non ci sono più retroscena. Il palco è ovunque. La performance non finisce mai.
E poi c’è il tempo. Le piattaforme non competono per quote di mercato. Competono per quote di vita. Il tempo è l’ultima frontiera estrattiva. E a differenza dell’attenzione, il tempo non si rigenera. Quando è andato, è andato per sempre.
Il feed infinito non è un bug. È il prodotto. Perché il feed infinito significa che non c’è mai un momento naturale per fermarsi. Non c’è conclusione. Non c’è soddisfazione. Solo la promessa che scorri ancora una volta vedrai qualcosa che vale la pena.
Natasha Dow Schüll ha studiato le slot machine per anni. Ha scoperto che il piacere non è nella vincita. È nella “machine zone” – quello stato di flusso ipnotico dove il tempo scompare e rimane solo il gesto meccanico di tirare la leva. Il feed è una slot machine perfetta. Pull-to-refresh è la leva. La ricompensa variabile è il contenuto. E la machine zone è quello stato in cui ti ritrovi a scrollare senza nemmeno sapere cosa stai cercando.
Perché Non Puoi “Usar Meeglio” i Social
A questo punto qualcuno dice sempre: “Basta usarlo con consapevolezza”.
No. Non basta.
Questa è la parte che la maggior parte delle persone non capisce. Non è un problema di uso. È un problema di architettura. E l’architettura vince sempre contro la volontà individuale.
Tristan Harris e il Center for Humane Technology hanno documentato tutte le tecniche: notifiche intermittenti, ricompense variabili, infinite scroll, autoplay, contatori progettati per creare ansia sociale. Non è “dipendenza accidentale”. È dipendenza progettata. Ogni elemento dell’interfaccia è stato testato su milioni di persone per massimizzare il tempo speso.
Non stai usando male il social. Il social sta usando bene te.
Il problema non è la “forza di volontà”. Il problema è che stai combattendo contro team di centinaia di ingegneri, miliardi di dollari di R&D, e algoritmi di machine learning addestrati su miliardi di persone per trovare esattamente quale bottone premere nel tuo cervello per tenerti lì ancora cinque minuti.
E vinci qualche battaglia. Ti metti dei limiti. Disattivi le notifiche. Ma l’architettura trova altri modi. Perché l’architettura si adatta più velocemente di quanto tu possa resistere.
David Lyon parla di “surveillance culture”: non è più sorveglianza coercitiva, è sorveglianza seduttiva. Ti offre servizio in cambio di dati. Ti “conosce”. Ti “anticipa”. Ti “aiuta”. E nel processo ti abitua all’idea che essere tracciato è normale, che la privacy è un prezzo giusto per la convenienza.
L’autosorveglianza diventa volontaria, desiderata. Perché la sorveglianza è confezionata come cura
Ma il sistema non ha interessi umani. Ha metriche. E le metriche non misurano il tuo benessere. Misurano il tuo engagement. E il tuo engagement massimo non coincide con la tua felicità massima. Anzi, spesso sono inversamente correlati.
Timothy Mitchell mostra come i sistemi di misurazione creano le realtà che pretendono di misurare. Le metriche – engagement, reach, virality – non “misurano” il successo dei contenuti. Lo definiscono. E nel definirlo, creano una realtà dove solo certi tipi di contenuto possono avere successo.
Come l’algoritmo classifica i contenuti è una scelta morale. Chi non rientra nelle categorie algoritmiche diventa invisibile.
Ecco perché i discorsi su “usare bene i social” sono insufficienti. L’unità di analisi non è l’uso individuale. È l’architettura. È lì che l’asservimento agli interessi proprietari diventa sistemico: metrica → ranking → esposizione → consenso.
Primavera De Filippi parla di “lex cryptographica”: quando le regole sono nel codice, chi controlla il codice fa la legge.
Evgeny Morozov ci ha avvertiti del “technological solutionism”. Le piattaforme presentano disinformazione e polarizzazione come bug da fixare con algoritmi migliori. Ma non sono bug: sono features del modello di business.
La soluzione è riscrivere l’architettura: protocolli, governance, interoperabilità, audit, provenance, diritti sul tempo.
“Il potere non ti proibisce più di fare qualcosa. Ti fa desiderare di fare esattamente quello che serve a lui. E quando il desiderio è architettato, la libertà è un’illusione.”








