La personalità elettronica dei robot 

Recentemente si discute sull’opportunità di attribuire soggettività giuridica ai robot, ovvero di riconoscere ai sistemi di intelligenza artificiale “forti” la capacità di essere titolari di diritti e di doveri. 

L’argomento sembrerebbe ancora molto distante dalla realtà, tanto da pensare di non doversi occupare della questione, ma come sappiamo bene la tecnologia viaggia alla velocità della luce e, prima ancora di pensare che l’argomento possa essere prematuro, ci accorgiamo invece che è molto attuale e che è necessario affrontarlo, soprattutto in un contesto sociale, come quello odierno, in cui l’intelligenza artificiale spazia in tutti i settori della nostra esistenza (12)

A ben vedere l’Unione Europea si è già posta la questione, tant’è che ha provato a disciplinare la materia, anche se purtroppo non ha trovato il favore di molti. 

Il Parlamento Europeo, in particolare, è intervenuto con la Risoluzione del 16 febbraio 2017, recante “raccomandazioni alla Commissione concernenti norme di diritto civile 

12 Cfr. SAIA M.G., “La soggettività giuridica dei robot” in “Rassegna degli Avvocati Italiani Newsletter” realizzata da 24 Ore Professionale in collaborazione con Associazione Nazionale Forense. © 2023 Il Sole 24 ORE S.p.a., Milano, n. 2_marzo 2023, pag. 57 sulla robotica (2015/2103(INL)(13), sul presupposto che, a differenza del passato, i robot
sono oggi in grado di sviluppare una determinata autonomia e capacità cognitiva, quali ad esempio quella di apprendere dall’esperienza, di prendere decisioni quasi autonomamente, così da rendersi sempre più simili ad agenti che si relazionano con l’ambiente circostante, con la possibilità anche di manipolarlo significativamente, e pertanto, la questione della responsabilità giuridica dell’azione dannosa dei robot diventava essenziale. 

Invero, considerata l’autonomia dei robot, definita dalla medesima Risoluzione, alla lettera AA), come «la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; che tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente», il Parlamento Europeo sollevava la questione in ordine alla loro natura rispetto alle categorie giuridiche già esistenti e sull’opportunità di crearne una nuova con caratteristiche proprie e specifiche, considerato che: 

i) nell’attuale quadro giuridico, i robot non sono considerati responsabili in proprio di atti od omissioni che causano danni a terzi, in quanto le norme esistenti in materia fanno risalire la responsabilità dei robot ad uno specifico agente umano, ad esempio al fabbricante, all’operatore, al proprietario o all’utilizzatore, anche sotto il profilo della responsabilità oggettiva; 

ii) nell’ipotesi in cui un robot sia in grado di prendere delle decisioni autonomamente, tuttavia, le norme esistenti non sono in grado di attivare sufficientemente la responsabilità per i danni causati dallo stesso, poiché non consentirebbero di individuare il soggetto responsabile del risarcimento né della riparazione del danno causato; 

iii) la carenza dell’attuale quadro normativo è palese, anche in materia di responsabilità contrattuale, stante che le norme tradizionali non possono trovare applicazione ai casi come quelli, ad esempio, in cui sono le macchine a scegliersi la controparte, negoziare termini contrattuali, concludere contratti ecc., ponendo così in evidenza la necessità dell’introduzione di nuove norme che siano efficaci e al passo con i tempi, che corrispondano alle innovazioni e agli sviluppi tecnologici. 

Sulla scorta di ciò il Parlamento Europeo, ritenendo che «la responsabilità civile per i danni causati dai robot sia una questione fondamentale che deve essere altresì analizzata e affrontata a livello di Unione al fine di garantire il medesimo livello di efficienza, trasparenza e coerenza nell’attuazione della certezza giuridica in tutta l’Unione europea nell’interesse tanto dei cittadini e dei consumatori quanto delle imprese» (14) , chiedeva alla Commissione di presentare una proposta di atto legislativo in ordine alle questioni giuridiche in materia di sviluppo e utilizzo della robotica e dell’intelligenza artificiale prevedibili nei successivi 10-15 anni, unitamente ad atti non legislativi, quali linee guida e codici di condotta; e che detto atto legislativo – a prescindere dalla soluzione giuridica ritenuta applicabile alla responsabilità civile per i danni causati dai robot in casi diversi da quelli di danni alle cose – non avrebbe dovuto in alcun modo limitare il tipo o l’entità dei danni da risarcire, né avrebbe dovuto limitare le forme di risarcimento da offrire alla parte lesa per il semplice fatto che il danno fosse provocato da un soggetto non umano. 

Infine, il medesimo Parlamento invitava la Commissione a valutare, tra le soluzioni giuridiche possibili, «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi» (15)

Come prima accennato, la soluzione prospettata dal Parlamento Europeo, in merito alla costituzione di un tertium genus titolare di personalità elettronica, tuttavia ad oggi non ha avuto seguito, forse perché il contesto sociale non ha ancora maturato quella sensibilità che gli consenta di mettere sullo stesso piano l’intelligenza artificiale autonoma con quella naturale. 

A tal proposito, infatti, la Commissione Europea, nella formulazione della Proposta di 

“Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione” (16) , del 21 aprile 2021, contenente il quadro normativo sull’intelligenza artificiale, non ha previsto l’introduzione dell’istituto della persona elettronica. 

Più in particolare, la Commissione è intervenuta a introdurre delle disposizioni per le azioni di responsabilità civile da esperire soltanto nei confronti delle persone fisiche o giuridiche, quali operatori di sistemi di intelligenza artificiale, qualora detti sistemi cagionino pregiudizio alla vita, alla salute, all’integrità fisica di una persona fisica, ovvero al patrimonio di persone fisiche che giuridiche. 

Pertanto, ha previsto una classificazione dei sistemi di intelligenza artificiale sulla scorta del potenziale livello di rischio: più autonomo è un sistema, maggiore sarà il grado di rischio che lo stesso possa causare danni o pregiudizi in maniera casuale. Ad ogni livello di rischio corrisponderà, dunque, uno specifico grado di responsabilità. 

Gli operatori di sistemi ad alto rischio saranno ritenuti oggettivamente responsabili per qualsiasi danno o pregiudizio causati dalle attività, dispositivi, processi derivanti dai sistemi di intelligenza artificiale, e non potranno sottrarsi dalla loro responsabilità sostenendo di avere agito con la dovuta diligenza o che derivi dall’autonomia del sistema, salvo che nei soli casi in cui il danno o il pregiudizio derivi da causa di forza maggiore. 

In conclusione, l’introduzione dell’istituto della “persona elettronica” appare oggi ancora più impellente rispetto al passato. Basti pensare alle recenti sperimentazioni di robotica sempre più simili all’intelligenza umana, dotati di capacità cognitiva e autonomia decisionale. 

La scelta della Commissione, pur allo stato percorribile, non appare comunque lungimirante in proiezione futura, in quanto non potrà soddisfare le evolute esigenze digitali.

Se ne dovrà prenderne atto e fare i conti con la realtà virtuale che ci circonda, spingendo le coscienze verso quel processo di sensibilizzazione che conduca verso il medesimo percorso già intrapreso per le persone giuridiche, fino ad arrivare al riconoscimento della personalità elettronica.

A cura di Maria Gabriella Saia 

Note

12) Cfr. SAIA M.G., “La soggettività giuridica dei robot” in “Rassegna degli Avvocati Italiani Newsletter” realizzata da 24 Ore Professionale in collaborazione con Associazione Nazionale Forense. © 2023 Il Sole 24 ORE S.p.a., Milano, n. 2_marzo 2023, pag. 57

13) Fonte: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.html#title1.

14) Cfr. punto n. 49 della Risoluzione del Parlamento Europeo del 16 febbraio 2017, in https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_IT.html#title1.

15) Cfr. punto n. 59, lett. f) cit. Risoluzione.

16) Fonte: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206.

NON SEI ASSOCIATO AD ANF?

Scopri il nostro statuto e invia subito la tua domanda di iscrizione.

ANF Associazione Nazionale Forense

Press room

Esclusivamente per rapporti con la stampa