NEWS

Intelligenza artificiale: quale responsabilità in caso di danni?

Nel settembre 2022, la Commissione Europea ha presentato una proposta di direttiva per l'adattamento delle norme di responsabilità civile extracontrattuale all'intelligenza artificiale (AILD), accompagnata da una valutazione d'impatto. La Commissione per gli Affari Giuridici (JURI) del Parlamento Europeo ha richiesto una valutazione d'impatto complementare della proposta, che si concentra su specifiche questioni di ricerca.

ichele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy

(Nella foto: l'Avv. Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy)

Il tema della direttiva proposta dalla Commissione europea sull'adattamento delle norme di responsabilità civile extracontrattuale all'intelligenza artificiale tocca un aspetto centrale della regolamentazione delle tecnologie emergenti, ossia la necessità di bilanciare i benefici offerti dall'AI con la protezione degli individui e della società dai rischi associati a queste tecnologie.

La Commissione Europea ha riconosciuto che, sebbene l'intelligenza artificiale offra opportunità straordinarie, essa comporta anche rischi specifici, come la discriminazione o la violazione dei diritti della personalità, che non sono adeguatamente trattati dalle normative esistenti, in particolare dalla direttiva sulla responsabilità dei prodotti (PLD).

La proposta di direttiva è stata presentata dalla Commissione Europea nel settembre 2022, insieme a una valutazione di impatto. Tale proposta si inserisce nel quadro più ampio della regolamentazione dell'intelligenza artificiale nell'Unione Europea, accanto ad altre normative quali il regolamento sull'intelligenza artificiale (AI Act) e la revisione della direttiva sulla responsabilità per i prodotti difettosi (PLD).

L'obiettivo principale dell’AILD è quello di colmare le lacune legislative esistenti nel trattare i danni causati dai sistemi di intelligenza artificiale, specie quelli ad alto rischio.

Sebbene altre normative europee già contemplino responsabilità per i danni provocati da certe categorie di IA, come la protezione dei dati o la discriminazione, la proposta di direttiva si focalizza sull'introduzione di regole armonizzate per garantire una copertura più ampia e completa di tutti i rischi potenziali, inclusi quelli derivanti dall'uso di software di intelligenza artificiale generativa, come i chatbot o i sistemi predittivi.

Uno degli aspetti critici rilevati nella valutazione di impatto complementare richiesta dal Parlamento Europeo riguarda la limitata considerazione di alcune opzioni politiche e normative, tra cui la possibilità di combinare regimi di responsabilità oggettiva (strict liability) con limiti di responsabilità. La valutazione di impatto della Commissione, infatti, non ha esplorato a fondo le implicazioni economiche e sociali dell'introduzione di un regime di responsabilità senza colpa (strict liability), che avrebbe potuto offrire maggiore certezza giuridica e una migliore protezione per le vittime di danni causati da sistemi di IA.

La relazione complementare suggerisce l'introduzione di un regime misto, che combini elementi di responsabilità basata sulla colpa e responsabilità oggettiva. In particolare, il regime di responsabilità per colpa rimarrebbe applicabile in generale, mentre un regime di responsabilità oggettiva sarebbe riservato ai casi di danni causati da sistemi di IA ad alto impatto o general-purpose, come i sistemi autonomi nei trasporti o quelli utilizzati nella sanità. Questo approccio bilancerebbe meglio la necessità di promuovere l'innovazione con l'esigenza di proteggere gli utenti finali dai rischi potenziali dell'IA.

Un altro aspetto fondamentale della proposta di direttiva riguarda la presunzione di colpa e gli obblighi di divulgazione delle prove. L'AILD prevede che, in determinate circostanze, le parti danneggiate abbiano il diritto di ottenere prove da chi sviluppa o utilizza un sistema di IA, al fine di dimostrare che il danno è stato causato da una negligenza o da un errore di progettazione. Questo aspetto è cruciale per affrontare una delle principali difficoltà legate all'accertamento della responsabilità civile in relazione all'intelligenza artificiale: l'opacità e la complessità dei sistemi di IA rendono spesso difficile per le vittime provare la colpa o il difetto del sistema. La direttiva, quindi, cerca di agevolare le vittime, in particolare per quanto riguarda l'accesso alle informazioni tecniche necessarie per dimostrare il nesso di causalità tra il danno e l'IA.

La proposta di direttiva sulla responsabilità civile si interseca con altre normative europee, tra cui l'AI Act e la PLD. Mentre l'AI Act si concentra sull'armonizzazione delle regole per lo sviluppo, la commercializzazione e l'uso di sistemi di intelligenza artificiale nell'Unione, la revisione della PLD mira a migliorare la protezione dei consumatori contro i danni causati da prodotti difettosi, inclusi i prodotti basati su IA. Tuttavia, né l'AI Act né la PLD affrontano in modo esaustivo i rischi specifici posti dall'intelligenza artificiale, in particolare per quanto riguarda la responsabilità per danni immateriali, come la violazione della privacy o i pregiudizi discriminatori.

L’ AILD, quindi, colma questa lacuna, estendendo la protezione alle vittime di danni causati non solo da difetti materiali dell'IA, ma anche da utilizzi impropri o pericolosi dei sistemi di intelligenza artificiale in settori critici, come la sanità o i trasporti.

Nonostante le buone intenzioni della proposta di direttiva, alcune criticità rimangono. La principale preoccupazione riguarda la possibilità che un regime di responsabilità troppo rigido possa scoraggiare l'innovazione e lo sviluppo di nuove tecnologie basate sull'IA nell'Unione Europea. Le aziende potrebbero infatti essere riluttanti a investire in tecnologie avanzate se temono di essere soggette a regimi di responsabilità oggettiva troppo severi, che non tengono conto della difficoltà di prevedere e controllare tutti i rischi associati ai sistemi di IA.

Un'altra questione riguarda la necessità di garantire una maggiore coerenza tra le diverse normative europee. In particolare, è essenziale che l'AILD si allinei con le definizioni e le categorie di rischio previste dall'AI Act, per evitare discrepanze normative che potrebbero creare incertezza giuridica per le imprese e gli operatori del settore.

In conclusione, la proposta di direttiva sull'adattamento delle norme di responsabilità civile extracontrattuale all'intelligenza artificiale rappresenta un passo importante verso la creazione di un quadro normativo più equo e trasparente per la gestione dei rischi associati alle nuove tecnologie. Tuttavia, sarà cruciale monitorare attentamente gli sviluppi normativi e assicurare che le nuove regole promuovano tanto l'innovazione quanto la protezione dei diritti fondamentali degli individui.

Note sull'Autore

Michele Iaselli Michele Iaselli

Coordinatore del Comitato Scientifico di Federprivacy. Avvocato, docente di logica ed informatica giuridica presso l’Università degli Studi di Napoli Federico II. Docente a contratto di informatica giuridica presso LUISS - dipartimento di giurisprudenza. Specializzato presso l'Università degli Studi di Napoli Federico II in "Tecniche e Metodologie informatiche giuridiche". Presidente dell’Associazione Nazionale per la Difesa della Privacy. Funzionario del Ministero della Difesa - Twitter: @miasell

Prev Un modello compliant di AI Corporate Governance
Next Fino a che punto i ragazzi possono gestire la propria privacy?

Privacy Day Forum: il servizio di Ansa

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy