NEWS

La responsabilità civile in materia di Intelligenza Artificiale: implicazioni per la protezione dati

Come noto è in corso in ambito comunitario un processo tendente a proporre nuove regole e azioni volte a trasformare l'Europa nel polo mondiale per un'intelligenza artificiale (IA) affidabile. L'unione tra il primo quadro giuridico sull'IA mai realizzato e un nuovo piano coordinato con gli Stati membri deve garantire la sicurezza e i diritti fondamentali di persone e imprese, rafforzando nel contempo l'adozione dell'IA e gli investimenti e l'innovazione nel settore in tutta l'UE.

Michele Iaselli

(Nella foto: l'Avv. Michele Iaselli, coordinatore del Comitato Scientifico di Federprivacy)

E’ fondamentale che i cittadini possano fidarsi di ciò che l'IA ha da offrire, grazie a regole proporzionate e flessibili che affronteranno i rischi specifici posti dai sistemi di IA e fisseranno i più elevati standard a livello mondiale. Il piano coordinato delinea i cambiamenti strategici e gli investimenti necessari a livello di Stati membri per rafforzare la posizione di primo piano dell'Europa nello sviluppo di un'IA sostenibile, sicura, inclusiva e affidabile.

Alla continua diffusione dei progressi tecnologici deve corrispondere la messa in essere di garanzie volte a far sì che i consumatori dell'UE beneficino dei più elevati livelli di tutela, anche nell'era digitale.

Con la recente proposta di direttiva sulla responsabilità da intelligenza artificiale la Commissione si impegna a garantire che le innovazioni tecnologiche pionieristiche non vadano mai a scapito delle garanzie per i cittadini. È necessario un quadro giuridico armonizzato a livello dell'UE per evitare il rischio di frammentazione giuridica al momento di colmare i vuoti dovuti a questi progressi tecnologici senza precedenti.

Le norme nazionali vigenti in materia di responsabilità non sono adatte a gestire le domande di risarcimento dei danni causati da prodotti e servizi basati sull'IA. Nelle azioni di responsabilità per colpa il danneggiato deve identificare chi citare in giudizio e spiegare in dettaglio la colpa, il danno e il nesso di causalità tra i due. Ciò non è sempre facile, in particolare quando si tratta di IA. I sistemi possono spesso essere complessi, opachi e autonomi, rendendo eccessivamente difficile, se non impossibile, il soddisfacimento dell'onere della prova da parte del danneggiato.

Una delle funzioni più importanti delle norme in materia di responsabilità civile è garantire che i danneggiati possano chiedere un risarcimento. Se le sfide poste dall'IA rendono eccessivamente difficile l'accesso al risarcimento, non vi è un accesso effettivo alla giustizia. Garantendo un risarcimento effettivo, queste norme contribuiscono alla tutela del diritto a un ricorso effettivo e a un giudice imparziale sancito dalla Carta dei diritti fondamentali dell'Unione europea.

Le nuove norme garantiranno che qualsiasi tipo di danneggiato (persone fisiche o imprese) possa disporre di un'equa possibilità di risarcimento qualora abbia subito danni causati da colpa o omissione di un fornitore, di uno sviluppatore o di un utente dell'IA. Inoltre, investire nella fiducia e stabilire garanzie in caso di problemi significa investire nel settore e contribuire alla sua diffusione nell'UE. Norme efficaci in materia di responsabilità costituiscono inoltre un incentivo economico a rispettare le norme di sicurezza, contribuendo pertanto alla prevenzione dei danni.

Naturalmente questa proposta con riferimento alla materia della protezione dei dati personali e principalmente con riferimento al risarcimento di danni derivanti da un trattamento illegittimo del dato è da vedere in diretto collegamento con quanto previsto dall’art. 82 del GDPR il quale prevede che chiunque subisca un danno materiale o immateriale cagionato da una violazione del Regolamento ha il diritto di ottenere il risarcimento del danno dal titolare del trattamento o dal responsabile del trattamento. Come sappiamo, difatti, un titolare del trattamento coinvolto nel trattamento risponde per il danno cagionato dal suo trattamento non conforme al Regolamento. Un responsabile, invece, del trattamento risponde per il danno cagionato dallo stesso solo se non ha adempiuto agli obblighi del Regolamento specificatamente diretti ai responsabili del trattamento o ha agito in modo esterno o contrario alle legittime istruzioni del titolare del trattamento.

Intelligenza Artificiale: implicazioni privacy e responsabilità civile

Alla luce poi delle ultime pronunce della giurisprudenza di legittimità che con riferimento al risarcimento del danno non patrimoniale derivante dalla violazione della privacy ha posto dei paletti ben precisi quali la necessità di provare adeguatamente il danno e di accertare la gravità della lesione e la serietà del danno, le norme introdotte dalla direttiva possono rivelarsi particolarmente utili.

Difatti, in particolare le nuove norme introducono due garanzie principali: in primo luogo, la direttiva sulla responsabilità da intelligenza artificiale alleggerisce l'onere della prova a carico dei danneggiati introducendo la "presunzione di causalità": se i danneggiati possono dimostrare che qualcuno ha agito con colpa non rispettando un determinato obbligo pertinente al danno e che è ragionevolmente probabile un nesso di causalità con le prestazioni dell'IA, il giudice può presumere che tale inosservanza abbia causato il danno; in secondo luogo, quando il danno è dovuto al fatto che un fornitore non ottempera alle prescrizioni quando utilizza servizi connessi alle assunzioni basati sull'IA, la nuova direttiva sulla responsabilità da intelligenza artificiale aiuterà i danneggiati ad accedere a elementi di prova pertinenti. I danneggiati potranno chiedere al giudice di ordinare la divulgazione di informazioni sui sistemi di IA ad alto rischio. Ciò consentirà ai danneggiati di identificare la persona che potrebbe essere ritenuta responsabile e di scoprire cosa non ha funzionato. D'altro canto, la divulgazione sarà soggetta a garanzie adeguate per proteggere le informazioni sensibili, come i segreti commerciali.

Note Autore

Michele Iaselli Michele Iaselli

Coordinatore del Comitato Scientifico di Federprivacy. Avvocato, docente di logica ed informatica giuridica presso l’Università degli Studi di Napoli Federico II. Docente a contratto di informatica giuridica presso LUISS - dipartimento di giurisprudenza. Specializzato presso l'Università degli Studi di Napoli Federico II in "Tecniche e Metodologie informatiche giuridiche". Presidente dell’Associazione Nazionale per la Difesa della Privacy. Funzionario del Ministero della Difesa - Twitter: @miasell

Prev La raffica di richieste di accesso civico di MonitoraPA ha aperto un dibattito nel mondo scolastico ma rispondere è inevitabile
Next Il 76% dei consumatori non comprerebbe da un’azienda di cui non si fida riguardo al rispetto della privacy

Privacy Day Forum 2024: intervista a Guido Scorza

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy