13 Giugno 2025
Algoritmi e libertà individuale
Gli algoritmi profilano, prevedono e giudicano. Ma a quale costo? Il controllo sociale predittivo minaccia la libertà individuale e la dignità digitale.

Nel nome della sicurezza, dell’efficienza e della personalizzazione dei servizi, l’intelligenza artificiale sta ridisegnando i confini tra sfera pubblica e privata. Ma a che prezzo? L’uso crescente di algoritmi predittivi nella gestione dei dati personali ha fatto emergere un inquietante fenomeno: la profilazione automatizzata degli individui non solo per scopi commerciali, ma anche per finalità di controllo sociale, sicurezza pubblica e gestione del rischio.

Secondo l’art. 4 del GDPR, la profilazione consiste in «qualsiasi forma di trattamento automatizzato di dati personali per valutare aspetti personali di una persona fisica, in particolare per analizzare o prevedere comportamento, interessi, salute, affidabilità, movimenti».

Questa pratica, sempre più raffinata grazie a tecniche come la SOCMINT (Social Media Intelligence), consente a enti pubblici e privati di costruire profili comportamentali dettagliati, aggregando le cosiddette digital footprints — le tracce digitali lasciate inconsapevolmente dagli utenti durante la navigazione on-line.

L’obiettivo? Anticipare i comportamenti, influenzare le scelte, esercitare un controllo preventivo.

Il rischio, come bene osserva il Prof. Santosuosso, è che gli algoritmi sostituiscano alla libertà umana una probabilità calcolata: l’individuo viene trattato non per ciò che è o fa, ma per ciò che un modello statistico prevede che potrebbe fare.

Un esempio concreto: se un algoritmo segnala che una persona ha caratteristiche simili a soggetti ritenuti “a rischio”, questa potrebbe subire limitazioni nella concessione di un mutuo, nell’accesso a un lavoro, perfino nella libertà vigilata. Senza possibilità di smentita, di spiegazione, di difesa.

È una forma subdola di determinismo tecnologico, che trasforma la probabilità in destino e nega la possibilità di redenzione o cambiamento.

Il pericolo è acuito dall’opacità tecnica dei sistemi predittivi: spesso basati su modelli di deep learning, questi sistemi non spiegano i criteri decisionali né sono pienamente accessibili all’utente. Il GDPR cerca di colmare questa asimmetria con prescrizioni su trasparenza, diritto di opposizione e valutazione d’impatto, ma i limiti strutturali restano.

L’utente, in molti casi, non sa di essere profilato, e se lo scopre, non sa come difendersi.

Nel contesto europeo, la Carta etica della CEPEJ e la Convenzione n. 108 del Consiglio d’Europa richiamano con forza la necessità di garantire i diritti fondamentali contro ogni abuso algoritmico, prevedendo meccanismi di audit, supervisione e controllo umano sulle decisioni automatizzate.

In particolare, è necessario riconoscere il diritto all’autodeterminazione informativa, come proiezione della dignità umana digitale, evitare che le decisioni aventi effetti giuridici siano affidate esclusivamente all’intelligenza artificiale (art. 22 GDPR) e garantire il principio di non discriminazione nei trattamenti automatizzati.

Ma l’intelligenza artificiale non è una semplice tecnologia: è un costrutto normativo e sociale, che riflette e amplifica le intenzioni dei suoi programmatori. Chiaramente se non correttamente regolata, essa può divenire strumento di sorveglianza predittiva e controllo sociale, compromettendo le libertà fondamentali in nome della sicurezza o dell’efficienza.

E oggi allora non è più così distopico affermare che è ormai giunto il tempo di una nuova stagione giuridica: una stagione in cui la libertà non sia solo un valore costituzionale, ma anche un parametro algoritmico.

Per approfondire:

- G. SARTOR - A. SANTOSUOSSO, Giustizia predittiva: una visione realistica, in Giurisprudenza Italiana, 2022, p. 1760 ss.;

- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, pp. 90-101;

- C.E.P.E.J., Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari, Strasburgo, Consiglio d’Europa, 2018.

Sull'autore