
L’intelligenza artificiale si sta rapidamente radicando nei processi pubblici e privati, ridefinendo in profondità modalità decisionali, strumenti diagnostici, sistemi di sorveglianza e pratiche di consumo. Ma questa transizione verso sistemi digitali “intelligenti” evidenzia un disallineamento preoccupante: la mancanza di competenze specifiche in materia di protezione dei dati. L’EDPB (European Data Protection Board) ha riconosciuto il deficit e ha reagito con un’iniziativa ambiziosa, articolata in due report di formazione. I documenti forniscono una base metodologica e normativa per costruire sistemi di intelligenza artificiale che siano compatibili con la tutela dei diritti fondamentali.
Due percorsi complementari per formare competenze integrate
I due rapporti pubblicati nel giugno 2025—“Law & Compliance in AI Security & Data Protection” di Marco Almada e “Fundamentals of Secure AI Systems with Personal Data” di Enrico Glerean—offrono strumenti convergenti ma differenziati:
- il primo, di orientamento giuridico, è indirizzato a professionisti della privacy; affronta le problematiche lungo l’intero ciclo di vita dei sistemi di intelligenza artificiale, integrando le disposizioni del GDPR con quelle dell’AI Act (Regolamento UE 2024/1689);
- il secondo, più tecnico e applicativo, è pensato per figure ICT e security engineer, ma accessibile anche a non sviluppatori. Si focalizza sulla progettazione sicura dei sistemi in conformità con i princìpi di riservatezza, integrità e disponibilità dei dati.
Competenze trasversali e approccio modulare
Un elemento di forza di entrambi i percorsi è la loro modularità. I corsi possono essere seguiti linearmente oppure selettivamente, secondo il fabbisogno formativo del singolo o dell’organizzazione. Il modulo curato da Almada, ad esempio, esplora la rilevanza della protezione dei dati in tutte le fasi dell’implementazione dell’intelligenza artificiale, distinguendo tra:
- progettazione e sviluppo del sistema (ruoli, basi giuridiche, misure tecniche);
- verifica e validazione (audit, valutazioni di impatto, criteri di affidabilità);
- distribuzione e monitoraggio (alfabetizzazione digitale, diritti degli interessati, trasparenza);
- temi avanzati, come l’equità algoritmica, la documentazione tecnica e l’interazione tra modello e sistema.
Il manuale di Glerean, invece, struttura l’insegnamento in cinque giornate didattiche, accompagnando i discenti dal vocabolario tecnico alle checklist operative per l’audit. Particolare attenzione viene dedicata alle Privacy Enhancing Technologies, al ciclo sicuro del software (Secure MLOps), alla gestione delle vulnerabilità e alla valutazione continua della conformità dei sistemi nel tempo.
Una risposta sistemica al rischio sistemico
Questa iniziativa va oltre la semplice diffusione di conoscenza. È una risposta istituzionale alla necessità di professionalità ibride, capaci di dialogare tra discipline e ruoli: giuristi, sviluppatori, responsabili IT, DPO e manager. Gli autori ribadiscono che l’assenza di dialogo tra funzioni—data scientist, ingegneri della sicurezza, esperti di protezione dati—può produrre conflitti interni e rischi di non conformità. Le guide dell’EDPB forniscono un linguaggio comune, strumenti pratici e riferimenti normativi aggiornati per una governance dell’intelligenza artificiale basata su accountability, trasparenza e precauzione.
La formazione come infrastruttura per l’etica digitale
Le due pubblicazioni dell’EDPB non sono semplici risorse formative. Rappresentano un’infrastruttura culturale essenziale per la transizione digitale europea. Una transizione che non può realizzarsi solo con l’adozione tecnica di strumenti, ma richiede una consapevolezza profonda delle responsabilità etiche, giuridiche e sociali legate all’uso dell’intelligenza artificiale. In definitiva, formare chi protegge i dati significa proteggere le persone, anche (e soprattutto) quando la decisione non è più umana.