L’Italia è il primo paese d’Europa ad emanare una legge nazionale sull’intelligenza artificiale (legge n.132 del 23 settembre 2025). Un primato che sicuramente ha profili di interesse.
La legge non si discosta particolarmente da quelli che sono i principi generali già in vigore con l’arrivo dell’AI Act europeo. Anche in questo caso, infatti, l’uso dell’AI dovrà essere improntato alla sicurezza, alla trasparenza, alla spiegabilità e all’antropocentrismo.
Le novità più rilevanti, invece, si rifanno alla regolamentazione degli ambiti specifici previsti al capo II e, soprattutto, alla scelta delle autorità di controllo e del sistema sanzionatorio per le violazioni in materia di AI.
Per procedere con ordine, la seguente analisi verrà suddivisa in quattro parti, seguendo l’ordine suggerito dai Capi della nuova legge.
Capo I: i principi e gli obiettivi della legge italiana sull’intelligenza artificiale
| Capo I – PRINCIPI E FINALITA’ | |
| Art. 1 | Finalità e ambito di applicaizone |
| Art. 2 | Definizioni |
| Art. 3 | Principi generali |
| Art. 4 | Principi in materia di informazione e di riservatezza dei dati personali |
| Art. 5 | Principi in materia di sviluppo economico |
| Art. 6 | Disposizione in materia di sicurezza e difesa nazionale |
La finalità è quella di “Promuovere un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità. Garantire la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale”.
Si prosegue con l’articolo 2 che, sostanzialmente, opera un rimando alle definizioni già ampiamente date nel Regolamento europeo, eccetto la definizione di “dato”, ispirata a quella di “dato informatico” che si trova nella Convenzione di Budapest.
Quanto ai principi generali elencati all’art. 3, è interessante osservare l’inserimento al comma 5 di una prescrizione dove si dichiara che “la presente legge non produce nuovi obblighi rispetto a quelli previsti dal Regolamento (UE) 2024/1689”. Una dichiarazione che vuole forse incoraggiare un’interpretazione restrittiva della nuova fonte normativa ma che, di fatto, risulta incoerente con la funzione stessa della legge italiana.
In ambito di competenza concorrente tra Unione Europea e Stato nazionale, la legge italiana deve rispettare il diritto europeo, senza introdurre norme in contrasto con esso. Tuttavia, può integrarlo disciplinando aspetti non trattati dalla normativa europea. È quindi normale che una legge nazionale aggiunga nuove regole o obblighi in tali materie e, anzi, non potrebbe fare altrimenti.
Al netto di ciò, la funzione sostanziale del comma 5 dell’art. 3 risulta poco consistente, assomigliando più che altro ad uno slogan politico o ad una rassicurazione diretta agli operatori di mercato.
A dimostrazione dell’incongruenza della prescrizione appena citata, l’AI Act si limita a “lasciare impregiudicati” il Reg. (UE) 2016/679 (GDPR) ed a trattare genericamente la sicurezza informatica come prerequisito di alcuni sistemi AI.
La legge italiana sull’intelligenza artificiale, invece, ritiene che:
- debba essere assicurata, quale precondizione essenziale, la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale per finalità generali, secondo un approccio proporzionale e basato sul rischio (art. 3, c. 6);
- debba essere garantito il trattamento lecito, corretto e trasparente dei dati personali e la compatibilità con le finalità per le quali sono stati raccolti, in conformità al diritto dell’Unione europea in materia di dati per sonali e di tutela della riservatezza (art. 4, c. 7).
L’intento pare quello di rafforzare degli obblighi, già esistenti e derivanti dal rispetto delle normative in materia di sicurezza informatica e gestione dei dati, rendendoli prerequisiti essenziali all’idoneità della tecnologia AI.
L’art. 4, poi, introduce anche una novità per i minori di 14 anni: l’accesso a tecnologie AI, ed il conseguente trattamento dei dati, potrà avvenire solo con il consenso di chi esercita la responsabilità genitoriale. Per i minori tra i 14 ed i 18 anni, invece, si raccomanda ai gestori di rendere le informazioni chiare, facilmente accessibili e comprensibili per un minore di tale età, altrimenti anche in questo caso servirà il consenso dell’adulto.
Con l’art. 5, invece, si cerca di incoraggiare lo sviluppo e il mercato dell’AI verso una sovranità tecnologica italiana, prevedendo anche che la PA sia indirizzata, nella scelta dei fornitori di sistemi e di modelli di intelligenza artificiale, verso soluzioni che garantiscano la localizzazione e l’elaborazione dei dati strategici presso data center posti nel territorio nazionale.
Infine, con l’art. 6 si prevedono ampie deroghe all’applicazione della legge sull’AI per – praticamente – quasi tutte le attività svolte in materia di sicurezza e difesa nazionale.
***
In conclusione, possiamo affermare che il Capo I della legge italiana sull’intelligenza artificiale non introduca grandi novità rispetto all’AI Act, riprendendo in buona sostanza quelli che sono i suoi principi e le sue definizioni ed incoraggiandone uno sviluppo a livello nazionale.
Viene rafforzata la connessione normativa tra Intelligenza Artificiale, sicurezza informatica e dato, tre elementi che operano insieme in modo concreto e profondamente interconnesso. Appare quindi comprensibile la volontà del Legislatore di sottolineare ulteriormente come la responsabilità, nell’uso dell’AI, non possa prescindere dalla responsabilità nella gestione dei dati e della sicurezza informatica.
Nei prossimi articoli approfondiremo gli altri Capi, per analizzare nel dettaglio tutte le novità introdotte dalla nuova legge italiana.
Capo II: come l’AI sarà regolata nei settori critici
| Capo II – DISPOSIZIONI DI SETTORE | |
| Art. 7 | Uso dell’Intelligenza Artificiale in ambito sanitario e di disabilità |
| Art. 8 | Ricerca e sperimentazione scientifica nella realizzazione di sistemi di IA in ambito sanitario |
| Art. 9 | Disposizioni in materia di trattamento dei dati personali |
| Art. 10 | Disposizioni in materia di fascicolo elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale |
| Art. 11 | Disposizioni sull’uso dell’intelligenza artificiale in materia di lavoro |
| Art. 12 | Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro |
| Art. 13 | Disposizioni in materia di professioni intellettuali |
| Art. 14 | Uso dell’intelligenza artificiale nella pubblica amministrazione |
| Art. 15 | Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria |
| Art. 16 | Delega al Governo in materia di dati, algoritmi e metodi matematici per l’addestramento di sistemi di intelligenza artificiale |
| Art. 17 | Modifica al codice di procedura civile |
| Art. 18 | Uso dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale |
Il Capo II si occupa di disciplinare l’uso dell’AI nei singoli settori, di cui molti considerati “critici”.
Ambito sanitario
Tra questi, una delle applicazioni più dibattute è indubbiamente quella in ambito sanitario, a cui vengono dedicati gli articoli 7, 8, 9 e 10.
Nello specifico, parte della dottrina ha evidenziato criticità nel far convivere l’intelligenza artificiale con i rischi legati ai dati sensibili, soprattutto considerando l’ingente quantità di dati di cui necessitano gli algoritmi per essere addestrati. Dall’altro lato, però, impedire l’uso di questi dati avrebbe completamente paralizzato la ricerca e lo sviluppo in ambito sanitario.
Ai temi appena esposti, il Legislatore ha risposto indicando una serie di principi generali applicabili all’ambito sanitario (art. 7), tra cui: “I sistemi di intelligenza artificiale utilizzati in ambito sanitario e i relativi dati impiegati devono essere affidabili, periodicamente verificati e aggiornati al fine di minimizzare il rischio di errori e migliorare la sicurezza dei pazienti”.
Viene poi prevista una deroga generale per i casi di “Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario” (art. 8), ritenuti di rilevante interesse pubblico e, pertanto, sempre autorizzati all’uso secondario di dati personali privi degli elementi identificativi diretti (quindi pseudonomizzati), anche appartenenti alle categorie indicate all’articolo 9 del GDPR. La base giuridica è, dunque, l’interesse pubblico e pertanto non occorre più il consenso dell’interessato.
La norma stessa, poi, aggiunge un’ulteriore deroga, prevedendo che possono essere utilizzati per il suddetto fine anche i dati che comportano la conoscenza dell’identità degli interessati, ogni volta in cui tale conoscenza risulti inevitabile, o necessaria, al fine della tutela della loro salute.
In ogni caso, resta fermo l’obbligo di informativa, il quale può essere assolto anche con una semplice informativa generale pubblicata sul sito web del titolare del trattamento.
Considerata la delicatezza dei dati trattati, viene sempre previsto un controllo del Garante e un costante monitoraggio delle procedure di anonimizzazione e pseudoanonimizzazione dei dati.
L’art. 9, invece, si propone di disciplinare le modalità del trattamento dei dati usati dall’AI per finalità di ricerca e sperimentazione. L’articolo non cita riferimenti specifici all’ambito sanitario, lasciando dubbi circa la portata della sua applicazione: riguarda tutti gli ambiti di ricerca e sviluppo o solo quelli sanitari? In particolare, desta confusione la previsione di una delega al Ministro della Salute, il quale dovrà emettere un decreto entro 120 giorni dall’entrata in vigore della Legge, sentiti il Garante per la protezione dei dati personali, gli enti di ricerca, i presidi sanitari nonché le autorità e gli operatori del settore.
Infine, viene prevista esplicitamente la possibilità di utilizzare tecnologie AI per la gestione del fascicolo sanitario elettronico (art. 10).
Ambito lavorativo
Al mondo del lavoro vengono poi dedicati gli articoli 11, 12 e 13, nei quali si prevede un uso etico dell’Intelligenza Artificiale, in linea con i principi europei di non discriminazione, affidabilità, trasparenza e sicurezza.
I lavoratori dovranno essere sempre informati dell’uso di tecnologie AI nell’ambito dei loro rapporti di lavoro e, d’altro canto, chi opera nell’ambito delle professioni intellettuali dovrà sempre informare i propri clienti circa l’uso di sistemi AI a supporto della propria attività professionale.
Viene stabilito chiaramente che l’uso dell’AI deve essere solo strumentale e di supporto al lavoro intellettuale, il quale resta la parte prevalente della prestazione d’opera.
Considerata la delicatezza dell’ambito lavorativo, caratterizzato da rapporti di forza sbilanciati e alto interesse socio-economico, la Legge introduce un apposito “Osservatorio sull’adozione di sistemi di AI nel mondo del lavoro”, con il compito di massimizzare i benefici e contenere i rischi derivanti dall’uso di tali sistemi. La composizione ed il funzionamento dell’Osservatorio verrà regolato con decreto, la cui delega è demandata al Ministro del lavoro e delle politiche sociali.
Ambito statale
Gli ultimi articoli, infine, si occupano di disciplinare l’uso dell’AI negli apparati statali, ossia nella Pubblica Amministrazione, nelle attività di Giustizia e nella sicurezza nazionale.
L’obbiettivo è quello di incentivare un uso dei sistemi AI finalizzato all’efficientamento, ma senza rinunciare alla conoscibilità dei procedimenti, alla supervisione umana e, soprattutto, all’autonomia ed al potere decisionale. Non a caso, viene ribadito a più riprese che “la persona resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale” (art. 13) o che “è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti” (art. 15).
Merita attenzione l’art. 16, recante l’ennesima delega prevista dalla Legge italiana sull’AI.
Questa volta viene demandata al Governo ed è di carattere generico, con l’obbiettivo di definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi AI.
I principi guida che il Governo dovrà seguire nella stesura dei decreti legislativi sono:
- individuazione di diritti e obblighi gravanti su chi intenda procedere al suddetto utilizzo;
- previsione di strumenti di tutela di carattere risarcitorio, inibitorio e sanzionatorio;
- attribuzione alle sezioni specializzate in materia di impresa le controversie relative alla disciplina introdotta.
Anche in questo caso, oltre l’indeterminatezza generata da una delega in tal senso, si pongono perplessità sul fatto che, i suddetti decreti legislativi, dovrebbero disciplinare la materia ma “senza obblighi ulteriori, negli ambiti soggetti al regolamento (UE) 2024/1689, rispetto a quanto già ivi stabilito”.
***
Ad oggi, la legge italiana sull’Intelligenza Artificiale disciplina tra le “disposizioni di settore” solo gli ambiti appena citati, dandone i principi e le direttive generali.
La legge, infatti, non risulta ancora completa e diventerà totalmente operativa solo con l’emanazione dei numerosi decreti delega, entro 12 mesi dall’entrata in vigore della norma nazionale.
L’intervento italiano, sotto questo aspetto, appare celere ma non risolutivo.
Capo III: Strategia e Autorità nazionali
| Capo III – STRATEGIA NAZIONALE, AUTORITÀ NAZIONALI E AZIONI DI PROMOZIONE | |
| Art. 19 | Strategia nazionale per l’intelligenza artificiale e Comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni che operano nel campo dell’innovazione digitale e dell’intelligenza artificiale |
| Art. 20 | Autorità nazionali per l’intelligenza artificiale |
| Art. 21 | Applicazione sperimentale dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale |
| Art. 22 | Misure di sostegno ai giovani e allo sport |
| Art. 23 | Investimenti nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico |
| Art. 24 | Deleghe al Governo in materia di intelligenza artificiale |
Il Capo III concretizza la strategia nazionale e attua, con la nomina delle autorità nazionali, quanto demandato dall’art. 70 dell’AI Act “Designazione delle autorità nazionali competenti e dei punti di contatto unici”.
In particolare, vengono nominate due Autorità, con funzioni concorrenti:
- l’AgID, Agenzia per l’Italia Digitale, sarà responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale e svolgerà le funzioni di notifica;
- l’ACN, Agenzia per la Cybersicurezza Nazionale, sarà responsabile per la vigilanza e il monitoraggio del mercato, incluse le attività ispettive e sanzionatorie dei sistemi di intelligenza artificiale, e costituirà il punto di contatto unico con le istituzioni dell’Unione europea.
Entrambe le Agenzie poi, nell’ambito delle proprie competenze, dovranno assicurare l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi AI conformi alla normativa.
Si tratta, in buona sostanza, delle cd. sand box, la cui istituzione è stata demandata agli stati europei attraverso l’AI Act, il quale dedica l’intero Capo VI alle “Misure a sostegno dell’innovazione”.
Ciò che l’AI Act voleva incentivare, infatti, era proprio uno sviluppo strategico e interno all’UE di sistemi di AI, affidando ai singoli stati la gestione e il finanziamento idoneo allo sviluppo.
La legge italiana, ad oggi, ha solo indicato chi saranno gli enti gestori di queste sand box, ma di fatto nulla sappiamo ancora su come e quando verranno disciplinate nel concreto.
Dopo la nomina di AgID e ACN, la legge italiana ha devoluto il finanziamento di 300.000 euro annui, per ciascuno degli anni 2025 e 2026, per la realizzazione di progetti sperimentali volti all’applicazione dell’AI, ma solo per i servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale a cittadini e imprese (art. 21).
All’articolo 23, invece, viene autorizzato un investimento (sotto forma di equity e quasi equity) fino all’ammontare complessivo di un miliardo di euro, nel capitale di rischio di:
- PMI con elevato potenziale di sviluppo e innovative, aventi sede operativa in Italia, oppure
- imprese non italiane, ma aventi sede operativa in Italia, al fine di promuoverne lo sviluppo come campioni tecnologici nazionali.
È opportuno osservare che, la gestione di questi fondi e delle sand box, così come in generale le attività di vigilanza e controllo, sono tutte gestite da Agenzie non indipendenti, in quanto sia AgID che ACN vengono elette dal governo stesso. Questa scelta presenta profili di contrasto con quanto imposto dall’art. 70 AI Act, laddove prevede che:
“Tali autorità nazionali competenti esercitano i loro poteri in modo indipendente, imparziale e senza pregiudizi, in modo da salvaguardare i principi di obiettività delle loro attività e dei loro compiti e garantire l’applicazione e l’attuazione del presente regolamento. I membri di tali autorità si astengono da qualsiasi atto incompatibile con le loro funzioni”.
In aggiunta alle Autorità nazionali nominate, il Legislatore italiano istituisce un Comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni che operano nel campo dell’innovazione digitale e dell’intelligenza artificiale.
Anche il Comitato presenta una forte impronta politica, in quanto viene presieduto dal Presidente del Consiglio dei ministri ed è composto da una serie di ministri in posizioni strategiche (economia, finanza, made in Italy, università, ricerca, salute, etc.) e da due Autorità politiche, quella delegata per la sicurezza e quella per la transizione digitale.
Le Deleghe al Governo
La gestione politica e governativa, improntata ad un accentramento di potere, è indubbiamente un tratto distintivo di questa Legge, la quale, infatti, si caratterizza anche per la previsione di innumerevoli deleghe al Governo.
Oltre all’art. 16, di cui si è già parlato, e le delega ai singoli Ministeri, anche l’intero art. 24 viene ulteriormente dedicato alle “Deleghe al Governo in materia di intelligenza artificiale”.
Nel seguente riquadro si riporta un elenco dei principali ambiti che dovranno essere disciplinati tramite l’emanazione di decreti legislativi, entro 12 mesi dall’entrata in vigore della presente legge. Come è possibile osservare, la quantità è ingente.
- Attribuire tutti i poteri di vigilanza, ispettivi e sanzionatori previsti dal regolamento (UE) 2024/1689 in capo alle autorità nazionali di cui all’articolo 20;
- Apportare alla normativa vigente, ivi inclusa quella in materia di servizi bancari, finanziari, assicurativi e di pagamento, le modifiche, le integrazioni e le abrogazioni necessarie al corretto e integrale adeguamento al regolamento (UE) 2024/1689;
- Attribuire alle autorità di cui all’arti colo 20 il potere di imporre le sanzioni e le altre misure amministrative previste dall’articolo 99 del regolamento (UE) 2024/1689;
- Prevedere percorsi di alfabetizzazione e formazione in materia di utilizzo dei sistemi di intelligenza artificiale anche da parte degli ordini professionali e delle associazioni di categoria maggiormente rappresentative;
- Potenziare, all’interno dei curricolare scolastici, lo sviluppo di competenze scientifiche, tecnologiche, ingegneristiche e matematiche legate alle discipline STEM;
- Prevedere un’apposita disciplina per l’utilizzo di sistemi di intelligenza artificiale per l’attività di polizia;
- Prevedere, nei corsi universitari e delle istituzioni di alta formazione artistica, musicale e coreutica (AFAM), nonché nei percorsi di istruzione tecnologica superiore (ITS Academy), coerentemente con i rispettivi profili culturali e professionali, attività formative per la comprensione tecnica e l’utilizzo consapevole anche sotto il profilo giuridico delle tecnologie;
- Valorizzare le attività di ricerca in materia di intelligenza artificiale da parte di università, istituzioni AFAM, ITS Academy ed enti pubblici di ricerca e agevolare le collaborazioni universitarie;
- Definire poteri di vigilanza per imporre ai fornitori di trasmettere informazioni, effettuare ispezioni a distanza o in loco, anche senza preavviso, e di svolgere controlli sulla conduzione delle prove in condizioni reali e sui relativi sistemi di intelligenza artificiale ad alto rischio;
- Adeguare il quadro sanzionatorio e definire le misure di esecuzione applicabili ai sensi dell’AI ACT, nonché il procedimento applicabile per l’irrogazione delle sanzioni o l’applicazione delle misure di esecuzione;
- Adeguare e specificare la disciplina dei casi di realizzazione e impiego illeciti di sistemi di intelligenza artificiale;
- Prevedere strumenti, anche cautelari, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, assistiti da un sistema di sanzioni effettive, proporzionate e dissuasive;
- Introdurre autonome fattispecie di reato, incentrate sull’omessa adozione o sull’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale, quando da tali omissioni deriva pericolo concreto per la vita o l’incolumità pubblica o individuale o per la sicurezza dello Stato;
- Precisare criteri di imputazione della responsabilità penale delle persone fisiche e amministrativa degli enti per gli illeciti inerenti a sistemi di intelligenza artificiale;
- Prevedere strumenti di responsabilità civile a tutela del danneggiato;
- Regolare l’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari;
Modificare, a fini di coordinamento e di razionalizzazione del sistema, la normativa sostanziale e processuale vigente, in conformità ai princìpi e ai criteri enunciati.
***
Le deleghe, come noto, hanno il pregio di non rendere “statico” un testo di legge, vincolandolo nel tempo a soluzioni interpretative forzate che mal si adattano al cambiamento tecnologico. Dall’altro lato, però, un eccessivo ricorso allo strumento di delega crea confusione applicativa, dispersione e mancanza di certezza nel diritto.
I continui rimandi a futuri documenti integrativi, delegati al Governo o a chi vi collabora, rendono ancora incerti molti aspetti pratici e impongono un continuo monitoraggio e un continuo aggiornamento da parte di chi opera nel campo IT.
L’accentramento di potere, di fatto attuato tramite questa legge, è stato fortemente criticato anche da Amnesty International. Nell’articolo citato viene denunciato il fatto che le autorità nazionali incaricate di regolare l’intelligenza artificiale sono affiliate al Governo e che, inoltre, non sono stati previsti meccanismi di ricorso in caso di errori dei sistemi AI. Viene poi fatta una riflessione sulla regolamentazione dell’uso di sistemi AI per l’identificazione biometrica, ambito invasivo e potenzialmente molto lesivo delle libertà dei cittadini.
Capo IV e successivi : Strategia e Autorità nazionali
| Capo IV – DISPOSIZIONI A TUTELA DEGLI UTENTI E IN MATERIA DI DIRITTO D’AUTORE | |
| Art. 25 | Tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale |
| Capo V – DISPOSIZIONI PENALI | |
| Art. 26 | Modifiche al codice penale e ad ulteriori disposizioni penali |
| Capo VI – DISPOSIZIONI FINANZIARIE E FINALI | |
| Art. 27 | Clausola di invarianza finanziaria |
| Art. 28 | Disposizioni finali |
Diritto d’autore e intelligenza artificiale: cosa cambia
Venendo agli ultimi articoli, la disciplina sul diritto d’autore risulta una delle norme più attese. La materia, infatti, non viene regolamentata dall’AI Act, il quale si limita a ribadire genericamente che le norme a tutela del diritto d’autore devono essere rispettate.
La legge italiana sull’AI, dunque, sceglie di intervenire nel complesso dibattito prevedendo alcune importanti modifiche alla LDA (L. 633/1941):
- all’art. 1 viene aggiunta la parola “umano”, sicché oggi l’oggetto di protezione della legge sono le opere di ingegno umano. Viene quindi categoricamente esclusa la possibilità di tutelare opere prodotte autonomamente dai sistemi AI. La posizione del Legislatore è in linea con quella della maggioranza della dottrina, la quale aveva già dato interpretazione pacifica in tal senso, ritenendo che la tutela deve essere garantita all’umano in quanto è umana la responsabilità giuridica ed è umano il centro d’imputazione dei diritti.
Desta invece maggior interesse la seconda aggiunta all’art.1, volta a tutelare ogni forma di espressione “anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell’autore”. Viene quindi eliminata ogni forma di riferimento a criteri di misurazione dell’intervento umano, come invece citavano le prime formulazioni di questo articolo, nelle quali si riteneva tutelabile la forma espressiva – creata con strumenti AI – solo se il contributo umano risultava “creativo, rilevante e dimostrabile”.
La scelta mostra un’evoluzione dell’analisi del Legislatore, indirizzata ad ampliare la tutela ma, soprattutto, ad evitare prove diaboliche e criteri troppo discrezionali. Come facilmente immaginabile, l’inserimento di una soglia dettata da un termine totalmente generico e arbitrario, quale la “rilevanza”, avrebbe destato diversi dubbi interpretativi ed anche applicativi. Forse per tale ragione, nella versione finale è stato tolto ogni riferimento a criteri di “misura”, lasciando solo come requisito la presenza di un lavoro intellettuale che, a norma di legge, dovrà anche presentare le dovute caratteristiche di creatività e ingegno.
- il secondo intervento, invece, è volto alla regolamentazione delle tecniche di scraping, il quale deve essere fatto riconoscendo il cd. diritto di opt-out. Nello specifico,il web scraping è una tecnica che utilizza software automatizzati per estrarre dati da siti web. Questi programmi, chiamati bot, analizzano il codice HTML di una pagina per raccogliere e organizzare le informazioni in un formato strutturato, come un database, rendendole utilizzabili per analisi, ricerca e altre applicazioni utili per lo sviluppo di sistemi AI.
In questo contesto, le informazioni “fagocitate” dall’AI sono spesso fuori dal controllo umano, rischiando di ledere i diritti d’autore di chi pubblica materiale online. Per tale motivo, l’Unione Europea prevede la possibilità, per gli autori, di esercitare il diritto di opt-out, ossia la facoltà dell’autore di impedire che le proprie opere vengano utilizzate per l’addestramento dell’AI.
Questa facoltà trova le sue basi normative nella Direttiva UE 2019/790 (DCDSM), recepita in Italia con l’articolo 70-quater della legge 22 aprile 1941 n. 633, che riconosce il diritto di riserva per le opere e per i materiali protetti presenti online o in banche dati.
Le ultime disposizioni
Un’ulteriore novità, introdotta con la Legge italiana sull’AI, sono le disposizioni in materia penale (art. 26). Si tratta essenzialmente di aggravanti (aggravante generica all’art. 61 cp; aggravante del reato di attentato ai diritti politici del cittadino all’art. 294 cp, aggravante del reato di aggiotaggio all’art. 2637 cc) e del nuovo art. 612-quater che punisce il reato di deep fake.
Quanto alle disposizioni finali, si attenziona l’art. 27 “Clausola di invarianza finanziaria” che riporta il tema sulla fattibilità economica su cui si scontrano gli intenti ideali di questa legge che, come spesso accade, dovrà fronteggiarsi con l’impossibilità di richiedere nuovi fondi.
La norma infatti specifica: “Dall’attuazione della presente legge, ad esclusione dell’articolo 21, non devono derivare nuovi o maggiori oneri a carico della finanza pubblica. Le amministrazioni pubbliche interessate provvedono all’adempimento delle disposizioni della presente legge con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente”.
L’unica esclusione è quindi l’art. 21, che autorizza una spesa di 300.000 euro solo per l’applicazione dell’AI ad appannaggio del Ministero degli affari esteri. I fondi dedicati alle PMI, invece, non sono finanziamenti ma investimenti in forme di equity e quasi equity.
Ciò significa che lo Stato acquisisce partecipazioni nella proprietà delle imprese, diventando socio e condividendo rischi e potenziali profitti, ma anche influenzando le strategie aziendali e assumendo il rischio di perdite di capitale se l’investimento non ha successo.
Conclusioni
Il messaggio è chiaro: l’uso di intelligenza artificiale va incentivato, ma va incentivato in modo responsabile, nella consapevolezza che le tecnologie AI costituiscono sistemi complessi.
La fruibilità d’uso dei sistemi AI (soprattutto dopo l’arrivo di Chatgpt) ha dato l’illusione che si tratti di uno strumento adatto a tutti, anche a chi non ha le competenze per capirne il funzionamento tecnico. Il mercato e le sue leggi stanno già mostrando che non è così, la maggior parte dei nuovi progetti di AI si stanno rivelando un fallimento e moltissimi investimenti sono andati persi. Tra qualche anno si assisterà ad una scrematura e sarà chiaro chi ha saputo gestire e governare l’AI e chi invece l’ha solo subita.
Dal canto loro, gli Stati sono coinvolti nella corsa alla governance e la sfida nella gestione e regolamentazione rimane centrale. L’obbiettivo auspicabile è quello di una sovranità tecnologica che svincoli le politiche europee dagli umori delle Big Tech.
Articolo pubblicato anche su brevettinnews.it – link
