1.La nuova legge sull’intelligenza artificiale: principi generali, finalità e principali novità
Il 10 ottobre 2025 è entrata in vigore la Legge n.132 del 17 settembre 2025, che concretizza il primo tentativo del legislatore italiano di fissare una disciplina nazionale per l’intelligenza artificiale.
Il testo normativo, strutturato in 28 articoli suddivisi in sei Capi, non si propone di sostituire il Regolamento europeo (UE) 2024/1689 (c.d. AI Act) – per la cui analisi si rinvia ad un precedente contributo – bensì di affiancarlo e di integrarlo. La nuova legge, dunque, non duplica il quadro europeo, ma lo completa, ribadendo principi generali quali trasparenza, proporzionalità, sicurezza e sorveglianza umana, e introducendo meccanismi interni di coordinamento e controllo.
Infatti, all’articolo 1, la legge nazionale enuncia che essa «reca princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale» e promuove un utilizzo «corretto, trasparente e responsabile, in una dimensione antropocentrica» dell’IA, con vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali. Inoltre, il testo afferma che le sue disposizioni devono interpretarsi e applicarsi conformemente al Regolamento (UE) 2024/1689, sancendo così esplicitamente che esso si pone in linea di continuità con la disciplina europea. In tal senso, la legge mira a colmare gli spazi di discrezionalità, a declinare i principi generali nel contesto nazionale e a definire i profili sanzionatori che, nel Regolamento comunitario, sono lasciati alle decisioni degli Stati membri.
In questa prospettiva, la norma attribuisce compiti specifici a diverse autorità nazionali – AgID, ACN, Garante per la protezione dei dati personali e Agcom –, istituendo altresì un Comitato di coordinamento presso la Presidenza del Consiglio dei Ministri e prevedendo deleghe al Governo per la futura adozione di decreti legislativi volti a disciplinare i profili più critici, quali la gestione dei dati, l’uso degli algoritmi e i metodi matematici sottesi ai sistemi di IA.
Un elemento di particolare rilievo, introdotto nel corso dell’esame parlamentare, è la clausola di salvaguardia approvata dalla Camera dei Deputati, la quale impedisce ai decreti nazionali di introdurre obblighi ulteriori rispetto all’AI Act. Tale disposizione, finalizzata a scongiurare fenomeni di gold plating regolatorio, assicura la coerenza sistemica tra normativa nazionale ed europea e tutela le imprese da un potenziale aggravio amministrativo interno. In tal modo, la legge italiana si configura come strumento di coordinamento e attuazione, volto a garantire uniformità interpretativa e certezza del diritto, precisando ruoli, responsabilità e strumenti di supporto senza alterare l’impianto regolatorio europeo.
Sul versante penalistico, per quanto d’interesse in questa sede, la Legge n. 132 del 2025 definisce un complesso di interventi di notevole rilievo sistematico.
In primo luogo, è prevista una nuova circostanza aggravante comune, disciplinata al comma 11-decies dell’art. 61 c.p., che trova applicazione ogniqualvolta il fatto sia commesso «mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato».
La suddetta previsione assume una funzione trasversale, destinata a punire più severamente condotte nelle quali l’utilizzo dell’intelligenza artificiale si traduce in una maggiore offensività, in una riduzione delle possibilità difensive o in un aggravamento delle conseguenze lesive del fatto.
Accanto a tale novità normativa, il legislatore ha introdotto alcune circostanze aggravanti speciali riferite a determinate figure criminose in cui l’impiego di strumenti di IA risulta particolarmente insidioso o idoneo a incidere sulla formazione della volontà collettiva e sull’integrità dei mercati. In particolare:
- attentati contro i diritti politici del cittadino (art. 294 c.p.): è prevista la pena della reclusione da due a sei anni qualora l’inganno sia realizzato mediante sistemi di intelligenza artificiale;
- aggiotaggio (art. 2637 c.c.): la pena viene elevata alla reclusione da due a sette anni se il fatto è commesso attraverso l’impiego di tali sistemi;
- per il reato di manipolazione del mercato (art. 185, comma 1, TUF), la reclusione viene elevata da due a sette anni e la multa da 25.000 a 6.000.000 di euro qualora la condotta sia posta in essere mediante strumenti di intelligenza artificiale.
Di particolare importanza risulta, inoltre, l’introduzione di due nuove fattispecie incriminatrici, che mirano a colmare specifiche lacune di tutela emerse con la nascita e la capillare diffusione dei contenuti generati artificialmente.
La prima è prevista dal nuovo art. 612-quater c.p., rubricato ‘‘Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. La nuova figura di reato punisce con la reclusione da uno a cinque anni chiunque cagioni un danno ingiusto a una persona «cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità».
La fattispecie è procedibile a querela della persona offesa, salvo che il fatto sia connesso con altro delitto procedibile d’ufficio, ovvero sia commesso nei confronti di persona incapace, per età o infermità, o di una pubblica autorità a causa delle funzioni esercitate. La norma è chiaramente ispirata all’esigenza di contrastare il fenomeno del c.d. deepfake, definito dall’art. 3 dell’AI Act come «un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona».
Infine, il legislatore è intervenuto anche in materia di diritto d’autore, modificando l’art. 171 della legge n. 633/1941 (Legge sulla protezione del diritto d’autore) mediante l’introduzione, alla lettera a-ter, di una nuova ipotesi di reato: la riproduzione o estrazione di testo o dati da opere o materiali disponibili in rete o in banche dati, in violazione degli artt. 70-ter e 70-quater, anche quando realizzata mediante sistemi di intelligenza artificiale. Tale intervento si inserisce nella più ampia strategia di adeguamento del sistema penale alle sfide poste dall’uso degli algoritmi generativi e dai processi di data mining non autorizzati.
In considerazione del fatto che alcune delle modifiche previste dalla riforma impatteranno sulla struttura dei reati c.d. presupposti della responsabilità amministrativa degli enti di cui al d.lgs. 231/2001, l’entrata in vigore della legge n. 132 del 2025 comporterà per tutti i soggetti tenuti all’adozione di modelli organizzativi l’obbligo di procedere a un attento aggiornamento dei propri sistemi di prevenzione e controllo.
Occorre infatti considerare, da un lato, che la nuova circostanza aggravante comune di cui all’art. 61, comma 11- decies, c.p. troverà applicazione rispetto a tutti i reati – ivi compresi quelli elencati nel catalogo dei reati presupposto – e, dall’altro, che il reato di manipolazione del mercato, come modificato dalla legge in commento, è espressamente previsto dall’art. 25-sexies del decreto. Sarà pertanto necessario tenere conto di tali novità nell’attività di predisposizione e aggiornamento del modello di organizzazione, gestione e controllo.
Inoltre, sarà indispensabile effettuare un processo di risk assessment finalizzato a individuare le nuove aree di rischio correlate all’impiego di sistemi di intelligenza artificiale. Tale attività di adeguamento si configura come requisito essenziale per assicurare l’efficacia esimente dei modelli e la coerenza dell’assetto di compliance rispetto al mutato contesto normativo e tecnologico.
Infine, è opportuno precisare che, ai sensi dell’art. 24, co.5, lett. b) e c) della nuova legge, il Governo sarà chiamato a provvedere alla «introduzione di autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sull’omessa adozione o sull’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale, quando da tali omissioni deriva pericolo concreto per la vita o l’incolumità pubblica o individuale o per la sicurezza dello Stato».
In secondo luogo, il legislatore delegato dovrà precisare « […] i criteri di imputazione della responsabilità penale delle persone fisiche e amministrativa degli enti per gli illeciti inerenti a sistemi di intelligenza artificiale, che tenga conto del livello effettivo di controllo dei sistemi predetti da parte dell’agente».
In riferimento a tale ultima ipotesi, e come si avrà modo di approfondire nel prosieguo, la progressiva evoluzione dei più avanzati sistemi di intelligenza artificiale potrebbe indurre a un necessario ripensamento dei criteri di imputazione della responsabilità da reato dell’ente, anche nella prospettiva di valorizzare questo strumento giuridico quale possibile soluzione al vuoto di responsabilità che l’autonomia operativa di questi sistemi tende a determinare sul piano penalistico.
2.Autorità nazionali, Comitato di coordinamento e deleghe al Governo
Uno dei profili di maggior rilievo della nuova legge è rappresentato dalla previsione e strutturazione di un vero e proprio sistema nazionale di governance dell’intelligenza artificiale, volto ad assicurare una gestione coordinata e coerente delle competenze istituzionali.
La disciplina si pone in linea di continuità con il modello europeo delineato dall’AI Act, il quale si articola su un doppio livello. Quello sovranazionale e quello nazionale. Il livello sovranazionale comprende quattro nuove strutture (l’Ufficio per l’IA presso la Commissione, il Comitato europeo per l’IA composto da rappresentanti degli Stati membri, l’Advisory Forum composto dagli stakeholders e il Comitato Scientifico formato da esperti scientifici scelti dalla Commissione).
Mentre il livello nazionale si affida ad un’autorità di notifica e ad un’autorità di vigilanza del mercato operante conformemente al reg. (UE) 2019/102.
Ai sensi dell’art. 70 dell’AI Act, gli Stati membri devono quindi designare una nuova Autorità di notifica e una di vigilanza del mercato o attribuire i poteri a un’autorità già esistente. Il Regolamento poi, all’art. 74, co. 6, prescrive che per i sistemi di AI ad alto rischio immessi sul mercato, posti in servizio o usati da istituti finanziari, l’Autorità di vigilanza del mercato sia l’Autorità nazionale responsabile della vigilanza finanziaria, nella misura in cui l’immissione sul mercato, la messa in servizio o l’uso del sistema di AI siano direttamente collegati alla fornitura di tali servizi.
L’Italia, attraverso la nuova legge n. 132/2025, ha adempiuto ai descritti obblighi. Sono state infatti individuate quali Autorità nazionali per l’intelligenza artificiale l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN): la prima con il compito di promuovere l’innovazione e lo sviluppo della nuova tecnologia, la seconda al fine di garantire la tutela della cybersicurezza, con la responsabilità della vigilanza sui sistemi di intelligenza artificiale, comprese le attività ispettive e sanzionatorie, secondo quanto previsto dalla normativa nazionale ed europea.
L’art. 24 della medesima legge, inoltre, conferisce delega al Governo per procedere all’istituzione dei poteri – anche sanzionatori – delle autorità nazionali competenti. Ciò che preme evidenziare in questa sede, anche ai fini delle riflessioni che si intendono svolgere, è la natura dei suddetti poteri: accanto ad un ruolo di tipo consultivo e para regolativo, l’AI Act, rinviando in larga misura al regolamento 2019/1020/UE, riconosce a tali organismi poteri ispettivi e di controllo, nonché un potere di adozione di misure correttive e sanzionatorie.
Inoltre, al Garante per la protezione dei dati personali spetterà il compito di vigilare sul rispetto dei principi di trasparenza e tutela della privacy, assicurando che l’impiego dell’IA non comprometta i diritti fondamentali della persona.
L’ Autorità per le Garanzie nelle Comunicazioni (AgCom), invece, sarà investita di competenze relative ai profili informativi e mediatici, con particolare attenzione all’imparzialità, all’attendibilità e alla correttezza dei contenuti generati o diffusi tramite sistemi di IA.
Le suddette autorità sono chiamate a operare in modo coordinato, attraverso meccanismi di cooperazione funzionale e scambio informativo, al fine di garantire una visione integrata delle molteplici sfide – tecnologiche, etiche e giuridiche – poste dallo sviluppo e dall’impiego dell’intelligenza artificiale.
A presidio dell’unitarietà del sistema, la legge istituisce presso la Presidenza del Consiglio dei ministri un Comitato di coordinamento per l’intelligenza artificiale, con funzioni di indirizzo strategico, monitoraggio dell’attuazione delle politiche nazionali e raccordo tra le diverse autorità competenti.
Tale organismo costituisce il fulcro del modello di governance delineato dal legislatore, nella misura in cui assicura la coerenza complessiva dell’azione pubblica ed evita sovrapposizioni o contraddizioni tra i compiti dei vari soggetti coinvolti.
In tal modo, la legge dovrebbe delineare un impianto generale, strutturato su principi programmatici, riservando alla normativa delegata la definizione delle regole applicative e degli standard tecnici, in un equilibrio che coniuga la flessibilità necessaria all’evoluzione tecnologica con l’esigenza di garantire certezza e uniformità nell’attuazione del diritto dell’Unione.
3.Le ripercussioni sul d.lgs. 231/2001: responsabilità degli enti tra presente e futuro
Le modifiche introdotte dalla nuova legge in materia di intelligenza artificiale sono destinate a determinare rilevanti ripercussioni, sia direttamente che indirettamente, anche sulla disciplina della responsabilità da reato degli enti ai sensi del d.lgs. 231/2001.
Come già evidenziato, l’introduzione delle nuove circostanze aggravanti è destinata a incidere in modo strutturale sui reati c.d. presupposto già previsti dal decreto, modificandone l’assetto normativo complessivo e determinando, di riflesso, un ampliamento significativo dell’area di rischio penalmente rilevante per gli enti.
Dall’altro, le nuove fattispecie incriminatrici, pur non essendo espressamente menzionate nell’attuale ‘catalogo’ del decreto, potrebbero costituire il presupposto per un futuro intervento di modifica in senso estensivo della normativa, volto a ricomprendere anche le nuove figure criminose. In tale prospettiva, la delega al Governo potrebbe rivelarsi risolutiva, soprattutto alla luce del fatto che le nuove fattispecie si prestano agevolmente, sotto il profilo criminologico, alla commissione anche in un contesto aziendale.
Al di là degli interventi legislativi diretti, l’impatto della diffusione dei sistemi di IA sulla disciplina del d.lgs. 231/2001 appare comunque inevitabile. È ormai dato acquisito che le imprese, indipendentemente dal settore di appartenenza, utilizzano in modo crescente strumenti basati sull’intelligenza artificiale, i quali possono generare eventi lesivi o concorrere alla realizzazione di fatti penalmente rilevanti.
Di conseguenza, e come già anticipato, tutti i soggetti destinatari del decreto saranno chiamati a intraprendere un nuovo e approfondito processo di risk assessment, finalizzato all’individuazione delle nuove aree di “rischio reato” connesse all’impiego della tecnologia.
Il primo passo consisterà, dunque, nell’adeguamento dei modelli organizzativi e dei sistemi di controllo preventivo, in modo da renderli coerenti con le peculiarità dell’intelligenza artificiale, e in particolare la sua autonomia decisionale, l’opacità dei processi e la difficoltà di prevedere ex ante gli esiti del suo impiego. Si tratterà, in altri termini, di procedere a una mappatura del rischio derivante da IA, al fine di prevenire l’insorgenza di responsabilità ai sensi del decreto.
In questo contesto, occorre considerare come l’adeguamento richiesto alle imprese si collochi parallelamente al quadro di obblighi e prescrizioni introdotti a livello europeo dall’AI Act, il quale istituisce un sistema di regolamentazione di tipo orizzontale fondato su un approccio basato sul rischio (risk-based approach). Il regolamento, infatti, distingue tra sistemi di IA a rischio inaccettabile, ad alto rischio, a rischio limitato e a rischio minimo, prevedendo per ciascuna categoria un diverso livello di obblighi di conformità. In particolare, come è ormai noto, per i sistemi di IA classificati come “ad alto rischio”, l’AI Act impone una serie di adempimenti stringenti a carico degli operatori economici coinvolti nelle diverse fasi della catena del valore (fornitori, importatori, distributori e utilizzatori). In questi obblighi rientrano, a titolo esemplificativo:
- la predisposizione, attuazione e documentazione di un sistema di gestione dei rischi (art. 9);
- l’adozione di misure di governance dei dati, finalizzate ad assicurare che i dati di addestramento, validazione e test siano di elevata qualità, rappresentativi, privi di errori e di bias discriminatori art. 10);
- la redazione di una documentazione tecnica completa e aggiornata, atta a dimostrare la conformità del sistema ai requisiti previsti dal Regolamento (art. 11);
- l’istituzione e il mantenimento di registri automatici delle operazioni (“logging”) (art. 12), per consentire la tracciabilità e la ricostruzione del funzionamento del sistema;
- l’implementazione di misure di supervisione umana efficaci (art. 14), al fine di prevenire o correggere risultati che possano compromettere la sicurezza o i diritti degli interessati;
- l’adozione di procedure di valutazione della conformità e di monitoraggio post-commercializzazione (artt. 16-17);
- la tenuta della documentazione tecnica e la registrazione dei sistemi nel database europeo dedicato (art. 51);
- la cooperazione con le autorità competenti e l’obbligo di fornire su richiesta tutte le informazioni necessarie per la verifica della conformità (art. 23).
A ciò si aggiungano, ai sensi dell’art. 26, gli obblighi specifici gravanti sul deployer del sistema di IA ad alto rischio, tra i quali:
- adottare idonee misure tecniche e organizzative a garanzia dell’utilizzo dei sistemi in conformità alle istruzioni per l’uso fornite dai fornitori;
- affidare la sorveglianza umana a persone fisiche che dispongano della necessaria competenza, formazione e autorità, nonché del sostegno adeguato per l’esercizio effettivo delle funzioni di controllo;
- monitorare il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l’uso e, se del caso, informare tempestivamente i fornitori in merito a eventuali anomalie o rischi riscontrati;
- informare senza ritardo il fornitore, il distributore e la competente autorità di vigilanza del mercato, sospendendo l’uso del sistema qualora vi sia motivo di ritenere che il suo impiego, anche conforme alle istruzioni, possa presentare un rischio per la salute, la sicurezza o i diritti fondamentali delle persone;
- informare immediatamente il fornitore, e successivamente l’importatore o il distributore e le autorità di vigilanza del mercato, qualora venga individuato un incidente grave, assicurando la tracciabilità e la tempestiva comunicazione dell’evento.
Si tratta, dunque, di un impianto normativo che mira a introdurre un modello di compliance by design, in cui la conformità giuridica e la sicurezza del sistema vengono integrate sin dalla fase di progettazione.
Infine, nel quadro descritto si inserisce la delega conferita al Governo per la revisione dei criteri di imputazione della responsabilità da reato degli enti (art. 24, co.5, lett. b) e c) L. 132/2025).
L’intervento si colloca in realtà in un contesto di riflessione più ampio, che la dottrina penalistica ha già da tempo avviato, in relazione alle difficoltà di individuare un criterio di imputazione della responsabilità penale personale in presenza di condotte o eventi ascrivibili a sistemi dotati di autonomia operativa. Una delle soluzioni più accreditate, anche in sede comparatistica, consiste proprio nel valorizzare l’istituto della responsabilità da reato degli enti quale modello di imputazione alternativa o complementare, capace di assorbire le specificità delle condotte mediate da sistemi intelligenti. Non è escluso, anzi, che in prospettiva futura possa affermarsi l’esigenza di elaborare criteri di imputazione dell’ente sempre più autonomi rispetto a quelli della persona fisica, al fine di rispondere in modo adeguato alle nuove forme di rischio tecnologico e organizzativo introdotte dall’intelligenza artificiale.
4.Influenza sulla compliance aziendale e sul modello AI-compliant
L’Intelligenza Artificiale, oltre a essere considerata quale potenziale strumento o fonte di commissione di fatti penalmente rilevanti, può altresì essere interpretata come un elemento cruciale per l’implementazione e l’efficacia della prevenzione del rischio reato all’interno delle imprese. Le sue potenzialità, superando il mero ambito dell’automazione, consentono una gestione più efficiente e tempestiva del rischio, in linea con i principi della Digital Criminal Compliance. Gli algoritmi, infatti, sono in grado di elaborare e fornire dati significativi ‘in tempo reale’, superando i limiti dei modelli convenzionali basati unicamente su informazioni storiche. Tale capacità permette di monitorare l’evoluzione dei comportamenti organizzativi, distinguendo in anticipo le situazioni in cui le regole saranno verosimilmente rispettate o trasgredite, incrementando in maniera sostanziale l’efficacia dei sistemi di compliance.
L’IA, pertanto, può contribuire a migliorare la gestione dei rischi, riducendo gli errori, accelerando i processi decisionali e contenendo i costi, configurandosi come elemento imprescindibile di una vigilanza riformulata su base tecnologica. Ne consegue che le imprese, nell’ambito della strutturazione del proprio Modello di Organizzazione e Gestione (MOG 231), possano integrare tali tecnologie, dotando l’Organismo di Vigilanza (OdV) di strumenti capaci di rilevare rischi di non conformità in maniera rapida ed efficace.
Le implicazioni di questa dinamica risultano particolarmente rilevanti: l’accuratezza e la maggiore effettività della compliance digitale potrebbero determinare una progressiva standardizzazione dei sistemi di controllo e, conseguentemente, influenzare il giudizio di idoneità dei modelli organizzativi che non adottano strumenti tecnologici ritenuti essenziali o che si avvalgono di sistemi poco performanti. Ciò potrebbe incidere profondamente sulla concezione e sull’applicazione del concetto di colpa d’organizzazione. Il rimprovero all’ente, in prospettiva, potrebbe concentrarsi su un’idea di “agente modello collettivo” tecnologicamente sofisticato, assimilabile a un vero e proprio agente modello algoritmico implicito.
L’adozione di tecnologie complesse all’interno dell’organizzazione comporta che il loro eventuale malfunzionamento possa concorrere a configurare un difetto organizzativo, con effetti che risalgono alla fase di progettazione del sistema di gestione del rischio. Accanto a questa eventualità, emerge tuttavia un’altra criticità: le imprese potrebbero essere rimproverate automaticamente qualora non integrino tali strumenti nei propri sistemi di prevenzione e controllo. In altri termini, l’agente modello rischia di coincidere con l’uso stesso dell’IA, trasformando la semplice adozione tecnologica in parametro imprescindibile ai fini del giudizio di adeguatezza organizzativa. In tale scenario, l’affidamento a esperti esterni per l’elaborazione di metodologie complesse di analisi organizzativa può compromettere la logica di auto-normazione su cui si fonda il concetto di compliance, incidendo profondamente sul nucleo del giudizio di rimproverabilità dell’ente.