U.S. Justice AI: per la gestione delle potenzialità e dei rischi nell’impiego dell’intelligenza artificiale

di Claudia Cantisani,   Dottoressa di ricerca in diritto penale  e  docente a contratto

 

1. Introduzione

Lo scorso 14 febbraio, presso la Oxford University, la Deputy Attorney General del Department of Justice(DOJ) Lisa Monaco ha reso pubbliche alcune considerazioni critiche relative all’impiego dell’intelligenza artificiale (IA), annunciando in quale direzione saranno orientate le nuove politiche dipartimentali sul tema, compendiate nella sintetica formula “Justice AI” (v. link).

 

L’indirizzo seguito dal DOJ, in senso politicamente conforme peraltro a quanto accade attualmente sul fronte europeo (si rinvia al link per la trattazione delle ultime novità normative sul tema), è di creare un ponte tra gli strumenti di law enforcement e la tutela dei diritti civili, di cui si occupano studiosi ed esperti all’interno degli uffici dipartimentali (in particolare, la Civil Rights Division).

 

Ciò in concreto si traduce nella predisposizione di luoghi di confronto che coinvolgano membri della società civile, del mondo accademico e scientifico, ed esponenti del settore industriale e commerciale, allo scopo di capire in che modo sfruttare al massimo grado le potenzialità dell’IA, prevenendo i pericoli che più comunemente derivano dal suo impiego. Ai dibattiti prenderanno parte, altresì, soggetti stranieri che abbiano analogo interesse ad esaminare le questioni via via prese in considerazione. Si prevede, inoltre, che i contenuti della discussion e i risultati acquisiti confluiscano in un report sull’utilizzo dell’IA nel settore penale, da presentare al Presidente Biden al termine dell’anno.

 

Tra gli strumenti menzionati viene fatto riferimento all’Emerging Technology Board: una commissione con il compito di tenere informate le autorità apicali del DOJ sulle responsabilità e sui profili etici dell’impiego di IA all’interno del Dipartimento (ora diretta da Jonathan Mayer, recentemente nominato come Justice Department’s First Chief Science and Technology Advisor and Chief AI Officer).

 

Di seguito i rilievi essenziali presentati dalla Vice Procuratore del DOJ.

 

 

2. IA: arma a doppio taglio

 

Il motivo principale da cui prendono le mosse le considerazioni svolte in tema di IA sta nella preoccupazione generata dall’ambivalenza di questo strumento. Da un lato, infatti, l’intelligenza artificiale è mezzo fondamentale nelle attività di prevenzione del DOJ; d’altra parte, essa può rappresentare un preoccupante pericolo dal quale difendersi, a causa del suo potenziale impiego illecito e delle sue difficoltà di accertamento (in particolare, si pensi all’hackeraggio dei sistemi informatici).

 

Gli ambiti nei quali l’IA è impiegata sono molteplici: nella lotta al traffico di stupefacenti è utile per rintracciare le rotte del mercato illegale; nelle attività di intelligence è il mezzo principale per analizzare le denunce ricevute dall’FBI nel settore pubblico, nonché per elaborare la considerevole mole di prove raccolte in relazione ai casi di maggior rilevanza.

 

Quanto ai possibili rischi per la sicurezza e per l’incolumità pubbliche, essi sono in parte dovuti al fatto che l’IA tende a generare bias e pratiche discriminatorie; può incentivare ed estendere a macchia d’olio la creazione di materiale dal contenuto illecito e socialmente dannoso (si pensi alla pornografia minorile). Ancora, può incrementare le forme di autoritarismo digitale, diffondendo messaggi illiberali, e favorire la disinformazione. Essa rappresenta lo strumento indispensabile delle più sofisticate forme di criminalità informatica e crea nuove opportunità per il diffondersi di hackeraggi da parte di professionisti “in erba” (“wanna-be-hackers”). Infine, costituisce un pericolo significativo per la sicurezza elettorale. L’IA può infatti essere impiegata per dividere e fuorviare l’elettorato, per promuovere la radicalizzazione degli utenti sui social media attraverso la divulgazione di contenuti “incendiari” e violenti, diretti a incrementare le forme di hate speech; inoltre, può rappresentare un mezzo estremamente insidioso per la diffusione di fake news di facile creazione, ma non agevolmente individuabili. Infatti, l’IA permette di riprodurre voci e immagini capaci di trarre in inganno gli utenti con messaggi artefatti, così da impedire, in pratica, il libero esercizio del diritto di voto.

 

In estrema sintesi, si rileva che se lasciata senza argini l’IA rappresenta una grande sfida per le odierne democrazie. Per questo si ritiene doveroso investire sulla regolamentazione del suo impiego all’interno del DOJ, facendo di essa il principale strumento di prevenzione. D’altra parte, questo “investimento” si edifica sulla già vigente disciplina, nonché su progetti lanciati durante il mandato Biden.

 

 

3. I precedenti interventi in tema IA

 

L’urgenza di trattare il tema trova una traccia evidente in alcune precedenti iniziative governative e, segnatamente, nell’ordine esecutivo annunciato da Biden nell’ottobre 2023: il cd.  Safe, Secure, and Trustworthy AI, diretto a massimizzare i vantaggi dell’impiego dell’intelligenza artificiale attraverso la minimizzazione dei rischi che essa comporta.

 

Trattandosi di un tema da cui dipende la sicurezza nazionale, il provvedimento propone un intervento coordinato del Governo Federale orientato da otto principi-guida:

 

  • a) La sicurezza dell’IA. Essa dipende dall’assoggettabilità dei sistemi di IA a test di valutazionestandardizzati, affidabili e ripetibili, che permettano di verificare il grado di resistenza a possibili manipolazioni. Il controllo viene eseguito anche dopo l’implementazione (cd. post-deployment performance monitoring), ed è diretto ad assicurare che l’IA sia stata correttamente impiegata, che risponda ai requisiti etici e che sia conforme alla normativa e alle politiche federali. Per assicurare la trasparenza sono inoltre previsti meccanismi di etichettatura (cd. effective labeling and content provenance mechanisms).
  • b) Promuovere innovazione, concorrenza e collaborazione responsabili per sfruttare il potenziale delle nuove tecnologie a vantaggio delle sfide della società contemporanea. Ciò significa, in termini pratici: investire nella formazione, nello sviluppo e nella ricerca, tenendo conto, altresì, delle potenziali questioni relative alla proprietà intellettuale e alla tutela delle invenzioni. Lo scopo è di valorizzare e trattenere le competenze e l’expertise negli Stati Uniti, assicurando al Paese un ruolo preminente in materia. Per la realizzazione di questi obiettivi il Governo Federale promuove la concorrenza in modo da incentivare soprattutto le piccole imprese, e tutelarle dal potere di controllo degli attori dominanti sul mercato.
  • c) Tutela dei lavoratori come espressione di un impiego responsabile dell’IA. Lo sviluppo di nuovi posti di lavoro e la delocalizzazione delle mansioni, dovuti all’impiego delle nuove tecnologie, impongono di intervenire su almeno due fronti: da un lato, sul fronte della formazione dei lavoratori, a promozione e sostegno dell’inclusione e dell’occupazione; dall’altro, su quello delle tutele per prevenire un impiego disfunzionale dell’IA, a danno del dipendenti (come accade nei casi di sorveglianza invasiva e introduzione di nuovi rischi per la salute e la sicurezza sul luogo di lavoro). Secondo la prospettiva del Governo Federale gli aspetti critici implicati nello sviluppo delle nuove tecnologie devono comunque passare dal serrato confronto con la platea degli attori coinvolti (lavoratori, sindacati, datori di lavoro), secondo un approccio integrato, fondato sulla partecipazione e sulla regolazione orizzontale.
  • d) Conformità delle politiche sullo sviluppo dell’IA al sistema dei diritti civili. Poiché l’uso dell’IA può comportare discriminazioni, disuguaglianze e forme di abuso, le politiche federali si impegnano a implementare sistemi di controllo fondate su attente valutazioni tecniche, in conformità, peraltro, a quanto già previsto da precedenti interventi a tutela della legalità dell’impiego dell’IA nei vari settori: vengono in particolare richiamati il Blueprint for an AI Bill of Rights, l’AI Risk Management Framework (AI RMF) – sulla base del quale, peraltro, il National Institute of Standards and Technology (NIST) ha da ultimo pubblicato un documento sull’intelligenza artificiale generativa (il cd. Draft AI RMF Generative AI Profile), come strumento di ausilio per le organizzazioni nell’identificazione dei rischi correlati all’impiego della Generative AI – nonché l’Ordine Esecutivo 14091 del 16 febbraio 2023 intitolato Further Advancing Racial Equity and Support for Underserved Communities Through the Federal Government.
  • e) Tutela dei consumatori. Il Governo Federale s’impegna a tutelare i consumatori dalle forme di abuso o di uso discriminatorio dell’IA nei settori finanziario, scolastico, sanitario, giuridico e logisticoattraverso interventi volti ad aumentare la qualità dei beni e dei servizi, la loro disponibilità, nonché a ridurre i prezzi.
  • f) Tutela della privacy. La riservatezza dei dati di persone fisiche e di imprese viene considerata estremamente esposta ai pericoli di un impiego illegale degli strumenti d’intelligenza artificiale. Tra i rimedi proposti si menzionano le cd. privacy-enhancing technologies” (PETs) dirette a minimizzare l’uso dei dati personali per evitarne la diffusione o la raccolta illecite.
  • g) Incentivare i controlli interni agli Uffici del Governo Federale per un uso corretto dell’IA, attraverso la creazione e la promozione di figure specializzate nell’impiego dell’IA nei pubblici servizi (cd. public service-oriented AI professionals).
  • h) Collaborazione con partners di altri Paesi per lo sviluppo di una leadership nel settore e a tutela di un impiego dell’IA in senso conforme al rispetto dei diritti umani.

 

Lo sforzo dimostrato dai contenuti e dai principi ispiratori dell’ordine esecutivo in commento si è peraltro esteso a livello mondiale, con il cd. Hiroshima AI process, finalizzato all’internazionalizzazione di codici di condotta responsabili nell’impiego dell’IA.

 

Tra gli esempi virtuosi la Vice Procuratore richiama, inoltre, l’istituzione da parte del governo britannico del AI Safety Institute, come annunciato durante il Global AI Safety Summit dell’anno passato: si tratta della prima organizzazione statale che si occupa di sicurezza avanzata dell’IA a tutela del pubblico interesse, e trova un suo corrispondente statunitense nel Safety Institute del U.S. Commerce Department.

 

Tra le sfide globali avviate dal Dipartimento di Giustizia statunitense viene infine richiamata la Disruptive Technology Strike Force, lanciata l’anno passato, di concerto con il Department of Commerce, allo scopo di proteggere le tecnologie avanzate statunitensi da illecite acquisizioni da parte di nation-state actorsinteressati ad impiegare tali strumenti contro la sicurezza nazionale.

 

4. Bilancio conclusivo

 

I “Remarks on the promise and Peril of AI” si pongono in continuità con le precedenti iniziative politiche e con la normativa attualmente in vigore.

 

Per quanto, infatti, non siano mancate opinioni secondo le quali l’IA dovrebbe ricevere una disciplina completamente nuova, nel discorso qui in commento viene ribadito che il valore aggiunto delle politiche in materia di IA sta proprio nel fatto che queste seguono un approccio “integrato”, di progressivo (e armonico) adattamento alla normativa già vigente, la quale funge, infatti, da fondamento necessario alla regolamentazione di una materia più esposta di altre a rimanere priva di argini.

 

Viene segnalato apertamente, infine, il fine di deterrenza delle attuali politiche sul tema.

 

Si afferma, infatti, che quando condotte già illecite vengano perpetrate mediante l’impiego di strumenti di IA, tale impiego potrà comportare una risposta sanzionatoria più severa; e, ove questa non sia prevista o non sia adeguata nel quantum applicato dal giudice, secondo la vigente disciplina, il Governo Federale si riserverà il potere di intervenire con riforme in senso marcatamente repressivo allo scopo di colmare tale lacuna (“to close that gap”).