L’ articolo è pubblicato nell’ultimo numero della rivista trimestrale cartacea La Nuova Europa (ottobre-dicembre 2025)

 

Ogni giorno clicchiamo “Accetto”. È un gesto rapido, distratto, quasi stanco, apparentemente innocuo, ma segna un confine profondo: per non perdere tempo, perdiamo frammenti di noi stessi. Con quel clic cediamo il destino dei nostri dati personali, offrendolo a un’economia che vive di masse sterminate di informazioni personali. È il prezzo della comodità, rapidamente e distrattamente raggiunta.

La battaglia per il controllo dei dati personali è probabilmente già perduta. Non per mancanza di regole, ma per limiti profondamente umani: la stanchezza, la fretta, l’ingenua fiducia illuministica nella tecnologia. Appariamo sempre più disposti a rinunciare a un po’ di privacy pur di ottenere servizi rapidi, personalizzati, gratuiti. Così il consenso, nato come strumento di libertà, è diventato una fastidiosa formalità.

Le piattaforme digitali lo sanno bene. Le loro interfacce sono costruite per ottenere i nostri sì e i loro percorsi oscuri non impongono, ma guidano dolcemente. È una forma di persuasione che non costringe, ma accompagna. E noi, rassicurati dall’abitudine, accettiamo.

Con l’intelligenza artificiale, questa dinamica si è amplificata. Le grandi imprese tecnologiche usano i contenuti pubblici degli utenti per addestrare modelli predittivi sempre più sofisticati che magnificano l’efficienza dell’uso dei (non più) nostri dati personali. La coppia “profilazione-AI” non si limita più a registrare comportamenti: li anticipa.

La profilazione, in sé, è un atto di conoscenza: descrive ciò che siamo, costruendo modelli delle nostre abitudini e preferenze. La manipolazione, invece, usa quella conoscenza per ottenere un risultato che non coincide con il nostro interesse. Una piattaforma di streaming che ci suggerisce film in linea con i nostri gusti ci offre una profilazione come un utile servizio ed appare fermarsi a ciò; un social network che calibra le emozioni dei contenuti per trattenerci più a lungo compie un’indiscutibile manipolazione. Nel primo caso il sistema ci osserva e suggerisce; nel secondo ci osserva e suggerisce orientandoci. Labile il confine fra le due attività.

Resta inevitabile la domanda del perché un’impresa dovrebbe profilarci senza volerci influenzare. La profilazione neutrale è un’astrazione. Il mercato digitale non paga la conoscenza, paga l’attenzione e, come sempre, il successo di un prodotto o di un servizio. Conoscere per comprendere non produce profitto; conoscere per modificare orientamenti di acquisto sì.

Il diritto europeo – dal GDPR al Digital Services Act fino all’AI Act – tenta di salvaguardare la distinzione tra personalizzazione e influenza, ma questa distinzione giuridica si scontra con la logica economica delle piattaforme, fondate sulla capacità di predire e orientare comportamenti.

Non siamo più in tempo per difendere la privacy come recinto individuale, ma forse possiamo ancora controllare il potere che nasce dalla conoscenza totale. Chi possiede tutti i dati non ha soltanto un vantaggio economico: ha la capacità di prevedere, influenzare e orientare le decisioni collettive. È un potere politico, capace di modellare opinioni, preferenze, desideri.

In un mondo in cui la conoscenza diventa dominio, la libertà coincide con la trasparenza e con il controllo democratico di chi detiene quei dati e quell’intelligenza. Il rischio non è più la violazione della privacy, ma la concentrazione di un sapere che può trasformarsi in abuso da parte di nuovi poteri e in una nuova forma di dittatura invisibile.

Non possiamo evitare di essere conosciuti, ma possiamo e dobbiamo pretendere che nessuno usi quella conoscenza per governarci a nostra insaputa, senza che i governati possano scegliere chi li governa davvero.