La direzione Europea e l’evoluzione dei principi etici 

All’interno dell’Unione Europea è in corso da anni il tentativo di fornire risposte regolatorie secondo una normazione prevalentemente per principi, nella consapevolezza di poter fruire dei benefici che tale strumento può apportare. 

Il quadro di riferimento Europeo si muove sia in ambito normativo che etico, con l’obiettivo di definire e normare in maniera unitaria l’ intelligenza artificiale (IA) cominciando dalla definizione di IA contenuta nella Comunicazione Artificial Intelligence for Europe 25.04.2018 che indica come l’intelligenza artificiale concerna sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente, compiendo azioni con un certo grado di autonomia, per raggiungere specifici obiettivi. 

I sistemi basati sulla IA possono consistere solo in software che agiscono nel mondo virtuale (ad esempio, assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure incorporare l’IA in dispositivi hardware (ad esempio i robot avanzati, auto a guida autonoma, droni, o applicazioni internet con impatto sulla realtà materiale). 

In ambito giudiziario la Commissione Europea per l’Efficienza della Giustizia (CEPEJ) aveva già indicato sin dal 2016 le Linee guida su come guidare il cambiamento verso le Cybergiustizia (4) in cui, oltre a enucleare i vantaggi di una maggiore informatizzazione dei sistemi giudiziari, si cominciavano a delineare le problematiche del ricorso alla giustizia predittiva da parte degli operatori di ODR (risoluzione delle controversie online). 

In tale documento si evidenziava, altresì, come l’uso di modelli predittivi consentisse di aumentare l’efficienza per casi semplici e ripetitivi, nonché l’indipendenza dei giudici, che erano e sono coloro su cui doveva cadere l’assunzione della responsabilità del processo decisionale (§ 49), nel rispetto del principio del contraddittorio e della parità delle “armi” per tutte le parti processuali (§ 50). Le medesime linee guida indicavano le criticità del passaggio ad una completa informatizzazione dei dati, soprattutto anche per
i rischi connessi alle vulnerabilità dei sistemi informatici, soprattutto per quanto attiene
le banche dati pubbliche (§75).

Successivamente, è stata sottoscritta da 25 Paesi, in data 10 aprile 2018, la Dichiarazione di Cooperazione sull’Intelligenza Artificiale, che stabiliva un piano coordinato sull’IA, a cui ha fatto seguito, da parte della Commissione Europea sull’Efficienza della Giustizia (CEPEJ), l’adozione della Carta Etica Europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari. (5)

Tale documento è destinato agli attori pubblici e privati incaricati di creare e lanciare strumenti e servizi di intelligenza artificiale, relativi al trattamento di decisioni e dati giudiziari, oltre che a coloro che prendono decisioni in materia di quadro legislativo, o regolamentano tali servizi. 

L’adozione di servizi di intelligenza artificiale nei sistemi giudiziari dovrebbe avere lo scopo di migliorarne l’efficienza, ma solo mediante un utilizzo responsabile nel rispetto dei diritti fondamentali della persona, enunciati nella Convenzione europea sui diritti dell’uomo e nella Convenzione per la protezione dei dati di carattere personale, in conformità agli altri principi fondamentali. 

Tale tipologia di software, quale che sia il suo fine (agevolare la consulenza, o la redazione di un atto), deve essere costruito in modo che sia garantita la trasparenza, l’imparzialità e l’equità da un “ente” esterno ed indipendente. 

Tale documento identifica cinque principi sull’utilizzo dell’IA nei sistemi giudiziari e negli ambiti connessi 

1) PRINCIPIO DEL RISPETTO DEI DIRITTI FONDAMENTALI: assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale che siano compatibili con i diritti fondamentali. Privilegiare gli approcci etici rispettosi dei diritti umani fin dall’elaborazione dei dati, in modo da garantire che il programma non violi i valori fondamentali protetti dalla Convenzioni. 

2) PRINCIPIO DI NON-DISCRIMINAZIONE: prevenire specificamente lo
sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone.
Il trattamento standardizzato dei dati e la mera classificazione statistica potrebbeportare ad aggravare le discriminazioni esistenti, in modo deterministico. In tal
senso devono essere apportati i giusti correttivi per prevenire tale problematica
dell’IA. 

3) PRINCIPIO DI QUALITÁ E SICUREZZA: in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro. I creators di modelli di apprendimento automatico giudiziario devono interagire con i professionisti della giustizia e delle scienze sociali, per poter apportare le salvaguardie etiche necessarie. Oltre a ciò, le fonti utilizzate come dati giudiziari da inserire nel software dovrebbero venire da fonti certificate e tracciabili. 

4) PRINCIPIO DI TRASPARENZA, IMPARZIALITÁ ED EQUITÁ: rendere le metodologie di trattamento dei dati accessibili e comprensibili, oltre che autorizzare verifiche esterne. Deve sussistere un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza (accesso al processo creativo), imparzialità (assenza di pregiudizi) equità e integrità intellettuale (privilegiare gli interessi della giustizia) quando si utilizzano strumenti che possono avere conseguenze giuridiche, o che possono incidere significativamente sulla vita delle persone. Valutare anche la possibilità di open source dei codici e della documentazione, anche se tali opzioni possono sembrare utopistiche nel contesto industriale dove i codici degli sviluppatori sono considerati segreti. 

5) PRINCIPIO “DEL CONTROLLO DA PARTE DELL’UTILIZZATORE”: precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte. L’utilizzatore deve essere informato con un linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse possibilità disponibili, e del suo diritto di ricevere assistenza legale e di accedere a un tribunale. Deve inoltre essere informato in modo chiaro di qualsiasi precedente trattamento di un caso mediante l’intelligenza artificiale,
prima o nel corso di un procedimento giudiziario, e deve avere il diritto di opporvisi, al fine di far giudicare il suo caso direttamente da un tribunale ai sensi dell’articolo 6 della CEDU. 

La Commissione Europea, in data 19 febbraio 2020, ha provveduto ad adottare il Libro Bianco sull’intelligenza artificiale “Un approccio europeo all’eccellenza e alla fiducia” (6) con l’obiettivo di favorire i progressi scientifici, a preservare la leadership tecnologica dell’UE e a garantire che le nuove tecnologie siano al servizio di tutti gli Europei e ne migliorino la vita rispettandone i diritti. Tuttavia, nonostante il sottotitolo del Libro Bianco sia ottimistico, all’interno del medesimo si evidenzia l’esigenza di un quadro normativo che porti ad uno sviluppo sostenibile e responsabile dell’IA, anche e soprattutto nel contesto della cooperazione internazionale dove la Commissione si fa promotrice di un approccio che promuova i diritti fondamentali, tra cui la dignità umana, il pluralismo, l’inclusione, la non discriminazione e la protezione della privacy e dei dati personali. 

E d’altronde, è lo stesso Libro Bianco ad indicare come “L’uso dell’IA può pregiudicare i valori su cui si fonda l’Unione e causare violazioni dei diritti fondamentali, compresi i diritti alle libertà di espressione e di riunione, la dignità umana, la non discriminazione fondata sul sesso, sulla razza, sull’origine etnica, sulla religione o sulle convinzioni personali, sulla disabilità, sull’età o sull’orientamento sessuale (ove applicabili in determinati settori), la protezione dei dati personali e della vita privata, o il diritto a un ricorso giurisdizionale effettivo e a un giudice imparziale, nonché la tutela dei consumatori”. Quanto sopra parte dal presupposto che se il processo decisionale umano non è immune da errori e distorsioni, queste stesse distorsioni, se presenti nell’IA, potrebbero tuttavia avere effetti molto maggiori e colpire, o discriminare numerose persone in assenza dei meccanismi di controllo sociale che disciplinano il comportamento umano. Ciò può accadere anche quando il sistema di IA “apprende” nel corso del suo funzionamento. Ciò potrebbe creare problemi nell’applicazione corretta delle norme di legge ed impedire ai cittadini di verificare le modalità con cui le decisioni sono state prese dall’IA.

Le dichiarazioni di principio indicate nel Libro Bianco sull’Intelligenza Artificiale e nelle Linee Guida Etiche del 2019, sono di fatto i principi base che dovrebbero fondare le direttrici dell’azione legislativa per vincolare lo sviluppo dell’Intelligenza Artificiale e, nei limiti del possibile, garantirne l’affidabilità. In tal senso si enucleano i criteri in base ai quali l’Intelligenza Artificiale viene considerata sicura: 

1) L’IA dovrebbe rispettare le previsioni di legge che la regolano nella sua ideazione e nel suo utilizzo; 

2) Dovrebbe osservare i principi etici;

3) Dovrebbe dimostrare robustezza. 

Ciò mediante una lista di controllo dei sistemi di IA e della loro produzione che serve a verificare sia che i requisisti per una IA affidabile siano rispettati e sia quali prescrizioni giuridiche obbligatorie imporre ai soggetti interessati. La lista di controllo comprende:
– i dati di addestramento; 

– la tenuta dei dati e dei registri; – le informazioni da fornire;
– la robustezza e la precisione;
– la sorveglianza umana;
– prescrizioni specifiche per determinate applicazioni particolari dell’IA, come quelle utilizzate a fini di identificazione biometrica remota.

Da quanto sin qui indicato non si può non rilevare una grande attenzione da parte delle istituzioni europee in materia. Tuttavia, tale mole di documentazione sconta il fatto che si tratta di mere regole etiche che costituiscono una soft law, autorevole ma che non può che costituire una mera raccomandazione per i produttori (e per gli utilizzatori). 

Ciò introduce il problema della responsabilità dei difetti e degli errori della progettazione dei sistemi di IA, con la possibilità di confliggere con la Direttiva sulla responsabilità per danno da prodotti difettosi, secondo cui il produttore è responsabile dei danni causati da un prodotto difettoso. Tuttavia, nel caso di sistemi basati sull’IA,
come quelli delle auto a guida autonoma, può rivelarsi difficile provare che il prodotto
sia difettoso e dimostrare il danno cagionato e il nesso di causalità tra difetto e danno. In aggiunta non è chiaro come, e in che misura, si applichi la Direttiva sulla responsabilità
per danno da prodotti difettosi nel caso di alcuni tipi di difetti, ad esempio per quelli
risultanti da carenze della cibersicurezza dei prodotti. Tale problema diventa di particolare sensibilità nel caso di bias applicativi dell’IA nel contesto legale. 

In tale contesto, partendo dall’analisi delle potenzialità e dei rischi, la Commissione presenta, in data 21 aprile 2021, la Proposta di regolamento sui sistemi di intelligenza artificiale (7), denominata anche Artificial Intelligence ACT (AIA). 

L’AIA ha inteso porre regole di protezione preventiva, funzionali a ridurre, ovvero azzerare, le probabilità stesse delle violazioni, richiedendo l’adozione di comportamenti e adempimenti preventivi, piuttosto che ricorrere ad un complesso sistema di tutele successive. In questo senso il percorso normativo europeo si caratterizza per l’obiettivo, più volte dichiarato, di individuare soluzioni finalizzate all’introduzione di regole conformi a parametri di equità, antropocentrismo e solidarietà, quale linea di mediazione tra le esigenze del mercato europeo e globale ed i valori costituzionali fondanti l’UE. 

L’AIA è il primo atto al mondo che cerca di dare una normazione universale e trasversale dell’intelligenza artificiale con lo scopo di trovare un equilibrio fra la tutela dei diritti fondamentali riconosciuti nell’Unione Europea e lo sviluppo della tecnologia delle intelligenze artificiale all’interno dell’Unione. 

Nell’art. 3 delle definizioni allegate all’AIA si propone una definizione di Sistemi di intelligenza artificiale per cui è “sistema di intelligenza artificiale (sistema di IA) un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I e in grado, per una determinata serie di obiettivi definiti dall’uomo, di generare risultati quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”. 

Muovendo da tale definizione, l’AIA distingue i sistemi di IA sulla base del rischio che comportano suddividendoli in sistemi: 

  • a)  Livello di rischio inaccettabile;
  • b)  Livello di rischio elevato;
  • c)  Livello di rischio minimo.

a) I sistemi della prima categoria sono quelli che includono sistemi che utilizzano tecniche subliminali al fine di distorcere inconsapevolmente il comportamento di un individuo, determinando il pregiudizio di costui, il danno fisico, o psicologico, oppure che sfruttano le vulnerabilità di uno specifico gruppo di persone fino a determinare pregiudizio nei loro confronti, o che possono essere utilizzati da autorità pubbliche per classificare l’affidabilità delle persone fisiche sulla base del loro comportamento sociale o di caratteristiche personali o di caratteristiche della personalità note o previste (social scoring, in essere per esempio in Cina), oppure ancora si avvalgono di sistemi di identificazione biometrica remota in tempo reale. Tutti tali sistemi sono vietati. 

b) e c) Sono sistemi consentiti, purché utilizzati nel rispetto di una serie di misure di sicurezza da assumere e declinate sulla base dello specifico contesto nel quale il sistema è utilizzato, tenuto conto dei rischi concreti che il sistema di IA è in grado di cagionare. Per questi sistemi si prevedono regole che riguardano i requisiti in termini di conformità del prodotto e le responsabilità dei fornitori dello stesso, le modalità di gestione dei rischi e di sorveglianza del sistema software, le strategie per il controllo e la governance dei dati di cui l’intelligenza artificiale si avvale, le informazioni da fornire agli utenti e alle autorità pubbliche di sorveglianza. 

L’AIA introduce, poi, obblighi di trasparenza per alcune categorie e sistemi di intelligenza artificiale, che interagendo con gli esseri umani, utilizzando il riconoscimento della categorizzazione biometrica, la manipolazione di immagini, o documenti effettuati da IA, siano in grado di trarli potenzialmente in inganno. 

Costruire un’intelligenza artificiale affidabile creerà un ambiente sicuro e favorevole all’innovazione per utenti e sviluppatori. 

A corollario dell’AIA, in data 28 settembre 2022 hanno fatto seguito le presentazioni di due Proposte di Direttiva: 

  • Proposta di Direttiva sulla responsabilità per danno da prodotti difettosi (PL) (8)
  • Proposta di Direttiva sull’adeguamento delle norme in materia di responsabilità
    civile extracontrattuale dell’IA (Direttiva responsabilità IA) (9)
    In sintesi, de iure condendo, la Commissione ha proposto tre iniziative giuridiche interconnesse che contribuiranno a costruire un’IA affidabile, dove sicurezza e responsabilità sono elementi che si rafforzano a vicenda.
    Infatti da un lato, la Proposta di Regolamento del 2021 mira a ridurre i rischi per la sicurezza ed i diritti fondamentali, fissando regole di natura preventiva sull’immissione, la messa in servizio e l’uso di sistemi di IA.
    Dall’altro, le due Proposte di Direttiva del 2022 mirano ad adeguare le norme in materia di responsabilità all’IA, garantendo una armonizzazione con una tutela ex post.
    E d’altronde, le tre Proposte della Commissione si devono armonizzare con le normative interne degli Stati membri e con le altre recenti norme europee:
    REG. UE 2016/679 (GDPR)
    REG. UE 265/2022 Legge sui servizi digitali
    REG. UE 2019/881 Cybersicurezza
    COM (2022)454 Proposta di regolamento sulla cyberesilienza.
    Ciò detto, cercando di non menomare la libertà di ricerca e di sviluppo dell’IA, il Legislatore Europeo mira a garantire i propri cittadini negli aspetti di sicurezza di tali strumenti, cercando di costituire un quadro normativo coordinato dell’Unione che eviti la frammentazione delle regole giuridiche dei singoli Stati membri in materia, pur incentivando l’innovazione relativa all’IA, che viene vista come propellente per lo sviluppo delle PMI che costituiscono l’ossatura economica dell’Unione, mantenendo in tutto ciò l’orizzonte intellettuale per cui l’IA deve rimanere al servizio dell’essere umano e non viceversa. 

Si noti come nelle due proposte del 2022 la Commissione ha preferito adottare proposte di Direttive anziché di Regolamenti, in dettaglio: 

La Proposta di Direttiva PL (10) interviene sulla vecchia Direttiva in materia di responsabilità confermando il principio che il danneggiato non deve provare la colpa del fabbricante, ma il difetto del bene-software-file per fabbricazione digitale che rimane il pre-requisito della responsabilità. I soggetti tenuti responsabili sono i fabbricanti, gli importatori, i rappresentanti autorizzati, i fornitori di servizi di logistica e qualunque soggetto abbia il potere di modificare il prodotto incidendo sulla sicurezza. Residua una responsabilità sussidiaria per il distributore e per il fornitore delle piattaforme online. 

La Proposta di Direttiva IA (11) Questa proposta riguarda prevalentemente i sistemi di intelligenza artificiale ad alto rischio, così come individuati dalla proposta di regolamento sull’intelligenza artificiale, e trova applicazione ogni volta che il risarcimento del danno sia richiesto ai sensi delle regole nazionali, o delle normative dell’Unione Europea. 

Le regole di questa proposta non presuppongono il difetto del bene, ma la colpa. Pertanto, le azioni di risarcimento possono essere intentate nei confronti di qualunque operatore, incluso l’utente dei sistemi di intelligenza artificiale, oppure gli enti pubblici che possano aver contribuito a creare qualsiasi tipo di danno. 

La Proposta di Direttiva stabilisce che la mancata compliance agli obblighi di diligenza, cioè ai requisiti di sicurezza stabiliti dal regolamento sulle intelligenze artificiale, importi di per sé la prova della colpa, fermo restando che il rispetto di tali requisiti vada valutato alla luce del grado di pericolosità del sistema di IA, individuato ai sensi della Proposta di Regolamento IA. 

In conclusione, al termine di questa disamina, certamente incompleta, del quadro del
diritto dell’Unione Europea in materia di IA e, segnatamente, di IA applicata ai sistemi giudiziari, si deve osservare come lo sforzo dell’Unione di razionalizzare la disciplina 14 sia stato profuso sia mediante la produzione di materiale normativo di natura non vincolante (come i libri bianchi le carte etiche e tutti gli strumenti di soft law), sia come produzione di strumenti giuridici, quali la Proposta di Regolamento e le due Proposte di Direttiva, che mirano a garantire, sia in forma preventiva che a posteriore, la sicurezza
dei cittadini dell’Unione nell’utilizzo delle intelligenze artificiali, e la messa al servizio delle stesse nell’esclusivo interesse dell’essere umano, e non viceversa.

A cura di Raffaella Bianconi 

Note

4) Fonte: https://rm.coe.int/16807482de

5) Fonte: https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

6) Fonte: https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en

7) https://digital-strategy.ec.europa.eu/en/library/communication-fostering-european-approach-artificial-intelligence

8) Fonte: https://ec.europa.eu/transparency/documents-register/detail?ref=COM(2022)495&lang=en

9) Fonte: https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52022PC0496&from=EN

10) Fonte: https://ec.europa.eu/transparency/documents-register/detail?ref=COM(2022)495&lang=en, cit.

11) Fonte: https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52022PC0496&from=EN , cit.

NON SEI ASSOCIATO AD ANF?

Scopri il nostro statuto e invia subito la tua domanda di iscrizione.

ANF Associazione Nazionale Forense

Press room

Esclusivamente per rapporti con la stampa