NEWS

Approvato l’Artificial Intelligence Act: adesso inizia la vera sfida etica

L'intelligenza artificiale rappresenta uno degli sviluppi tecnologici più significativi e in rapida evoluzione del nostro tempo, con impatti profondi su economia, società, etica e diritto. La sua natura pervasiva e le potenziali implicazioni su vasta scala hanno sollevato la necessità di un quadro normativo robusto che possa indirizzare lo sviluppo e l'impiego delle tecnologie di IA in modo responsabile, garantendo sicurezza, trasparenza, e rispetto dei diritti fondamentali.

Approvato l’Artificial Intelligence Act: adesso inizia la vera sfida antropocentrica

Le sfide etiche e la responsabilità sociale saranno al centro del dibattito del Privacy Day Forum 2024

L'Unione Europea ha assunto un ruolo pionieristico nell'affrontare queste sfide, elaborando il primo tentativo al mondo di regolamentazione dell'IA con l’ormai approvato Artificial Intelligence Act.

Questo sforzo normativo si inserisce nel contesto più ampio della strategia digitale dell'UE, che mira a promuovere e sostenere lo sviluppo di tecnologie digitali etiche, sicure e all'avanguardia. Il regolamento rappresenta un passo cruciale verso la creazione di uno spazio digitale che ponga al centro i diritti umani e i valori democratici, cercando di bilanciare i benefici derivanti dall'uso dell'IA con la necessità di mitigarne i rischi.

Il regolamento si prefigge diversi obiettivi chiave:

- Promuovere l'innovazione tecnologica assicurando che l'Europa rimanga all'avanguardia nello sviluppo e nell'applicazione dell'IA, sostenendo la ricerca e l'innovazione nel rispetto dei valori e dei diritti fondamentali.
- Garantire la sicurezza e i diritti fondamentali imponendo requisiti rigorosi per i sistemi di IA ad alto rischio e stabilendo norme trasparenti e prevedibili per promuovere la fiducia dei consumatori e delle imprese.
- Stabilire un quadro di governance e di conformità attraverso meccanismi di sorveglianza del mercato e sanzioni per garantire che i sistemi di IA siano sviluppati e utilizzati in modo etico e legale.

Il contesto normativo che ha portato all'elaborazione del regolamento da parte dell'Unione Europea è frutto di una complessa interazione di fattori tecnologici, etici, economici e sociali che hanno evidenziato la necessità di una regolamentazione specifica per questa tecnologia emergente. L'IA, con le sue promesse di rivoluzionare settori che vanno dalla medicina alla mobilità, dalla produzione industriale all'amministrazione pubblica, ha suscitato un ampio dibattito su come massimizzare i suoi benefici minimizzando al contempo i rischi potenziali.

L'Unione Europea, riconosciuta a livello globale per il suo impegno nel garantire elevati standard di protezione dei dati personali con il Regolamento Generale sulla Protezione dei Dati (GDPR), ha intrapreso un percorso simile per l'IA.

Il processo che ha portato al regolamento sull'IA è stato caratterizzato da un'ampia consultazione pubblica e da un intenso scambio tra stakeholder, istituzioni accademiche, industria, organizzazioni della società civile e cittadini, allo scopo di raccogliere una varietà di prospettive e di esigenze. Questo processo inclusivo ha sottolineato la complessità della materia, evidenziando questioni chiave come la necessità di bilanciare innovazione e regolamentazione, la tutela dei diritti fondamentali, la prevenzione della discriminazione e la garanzia della sicurezza e della trasparenza dei sistemi di IA.

Nel contesto della rapida evoluzione tecnologica, il regolamento sull'IA dell'UE rappresenta un tentativo pionieristico di fornire una risposta normativa che sia flessibile e in grado di adattarsi ai cambiamenti. La sua adozione e implementazione saranno attentamente monitorate per valutarne l'efficacia e, se necessario, apportare modifiche per assicurare che continui a rispondere adeguatamente alle sfide poste dall'IA. Questo processo di evoluzione normativa riflette il riconoscimento da parte dell'UE dell'importanza di una governance dinamica delle tecnologie emergenti, che possa sostenere l'innovazione tecnologica pur tutelando i valori fondamentali europei.

Una delle pietre miliari del regolamento è la sua classificazione dei sistemi di IA in base al livello di rischio. Questa categorizzazione permette di applicare un regime normativo differenziato, concentrando le regole più stringenti sui cosiddetti sistemi ad "alto rischio", quali quelli impiegati in ambiti sensibili come la gestione delle infrastrutture critiche, l'istruzione, l'occupazione, la sicurezza pubblica e il settore giudiziario. Per queste applicazioni, il regolamento impone rigorose valutazioni del rischio, requisiti di trasparenza, obblighi di sorveglianza umana e standard elevati di sicurezza.

Particolare attenzione è dedicata alla tutela dei diritti individuali e alla prevenzione di pratiche discriminatorie, aspetti che trovano specifica menzione nel testo regolamentare. Gli sviluppatori e i fornitori di sistemi di IA sono tenuti a condurre valutazioni d'impatto approfondite, che devono includere analisi dettagliate delle potenziali conseguenze sui diritti umani e sulle libertà individuali.

Questi obblighi sono volti a garantire che l'utilizzo dell'IA sia sempre equo, trasparente e soggetto a un adeguato livello di controllo umano.

Il regolamento stabilisce, inoltre, un quadro per la governance e il monitoraggio della conformità, affidando a specifici organismi nazionali e a un comitato europeo sull'IA il compito di sorvegliare l'attuazione delle norme. Attraverso un sistema di sanzioni, che include multe pecuniarie proporzionate alla gravità delle violazioni, il regolamento mira a garantire l'effettiva osservanza delle sue disposizioni.

Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy

(Nella foto: l'Avv. Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy)

Un elemento distintivo del regolamento è il suo tentativo di bilanciare la promozione dell'innovazione con la necessità di regolamentazione. Mentre impone requisiti rigorosi per i sistemi ad alto rischio, il testo prevede anche misure per sostenere la ricerca e lo sviluppo nell'IA, attraverso deroghe specifiche e l'istituzione di spazi di sperimentazione regolamentare (sandbox).

Inoltre, il regolamento introduce un meccanismo di aggiornamento dinamico, riconoscendo la necessità di adattarsi continuamente all'evoluzione del panorama tecnologico. Questo approccio consente di rivedere periodicamente la classificazione dei rischi e di aggiornare le disposizioni normative in risposta ai nuovi sviluppi tecnologici e alle emergenti sfide etiche e sociali.

Il provvedimento ha naturalmente suscitato anche un vivace dibattito critico che riguarda vari aspetti della sua applicazione e delle potenziali implicazioni.

Una delle critiche principali riguarda la preoccupazione che norme troppo stringenti possano soffocare l'innovazione e limitare la competitività delle aziende europee nel campo dell'IA. Gli esperti del settore tecnologico avvertono che l'eccessiva regolamentazione potrebbe imporre oneri burocratici e costi aggiuntivi che frenerebbero la ricerca e lo sviluppo, spingendo talenti e investimenti al di fuori dell'Europa. In particolare, le startup e le piccole imprese, che potrebbero non avere le risorse necessarie per navigare in un quadro normativo complesso, potrebbero trovarsi in una posizione di svantaggio.

Dall'altro lato, attivisti per i diritti civili e gruppi di difesa esprimono preoccupazioni sul fatto che il regolamento possa non andare abbastanza lontano nella protezione dei cittadini dai rischi potenziali dell'IA, come la sorveglianza di massa, il profiling etnico e altre forme di discriminazione automatizzata. La questione della trasparenza degli algoritmi e del diritto degli individui di comprendere e contestare le decisioni prese con l'ausilio dell'IA è un altro punto focale di queste critiche. La paura è che senza meccanismi di controllo efficaci, l'uso dell'IA potrebbe rafforzare le disuguaglianze esistenti e creare nuove forme di esclusione sociale.

Un altro ambito di preoccupazione è legato alla fattibilità e all'efficacia dei meccanismi di enforcement proposti. Alcuni critici sostengono che, data la rapidità con cui l'IA sta evolvendo e la sua natura intrinsecamente globale, potrebbe essere estremamente difficile monitorare e far rispettare le regole in modo efficace. Ciò solleva dubbi sulla capacità del regolamento di raggiungere i suoi obiettivi di protezione dei consumatori e di promozione di un'innovazione responsabile.

Sul fronte degli impatti potenziali, il regolamento sull'IA si pone l'ambizioso obiettivo di bilanciare il sostegno all'innovazione con la tutela dei diritti fondamentali. Tuttavia, la realizzazione pratica di questo equilibrio è complessa. Da un lato, il regolamento potrebbe posizionarsi come un riferimento globale, promuovendo pratiche etiche nello sviluppo dell'IA e rafforzando la posizione dell'Europa come leader nella definizione di standard normativi. Dall'altro lato, le preoccupazioni relative al potenziale soffocamento dell'innovazione potrebbero materializzarsi, influenzando la dinamica del mercato dell'IA e il posizionamento internazionale delle imprese europee.

Diventa, quindi, fondamentale trovare un equilibrio dinamico che possa stimolare l'innovazione tecnologica pur tutelando i diritti dei cittadini e la sicurezza collettiva. In questo contesto, la riflessione si sposta verso un processo di continua valutazione e aggiustamento del quadro normativo in risposta ai rapidi sviluppi tecnologici e alle emergenti sfide etiche.

Le prospettive future vedono l'UE posizionarsi come un attore globale chiave nella governance dell'IA, esportando i suoi standard etici e normativi oltre i propri confini. La cooperazione internazionale sarà cruciale per affrontare le sfide globali poste dall'IA, inclusa la necessità di norme condivise che regolino l'uso responsabile e la distribuzione equa dei benefici delle tecnologie di IA. L'adozione di approcci regolamentari simili da parte di altre giurisdizioni potrebbe facilitare la creazione di un mercato globale dell'IA basato su valori condivisi di fiducia, sicurezza e rispetto dei diritti umani.

Il regolamento sull'IA rappresenta un punto di partenza vitale per navigare nell'era digitale, ma il suo successo dipenderà dalla capacità di adattarsi e rispondere alle dinamiche in continua evoluzione dell'IA e della società. La chiave per il futuro sarà un impegno costante verso l'innovazione responsabile, la protezione dei diritti e la promozione di un dialogo aperto tra tutti gli stakeholder coinvolti.

Note sull'Autore

Michele Iaselli Michele Iaselli

Coordinatore del Comitato Scientifico di Federprivacy. Avvocato, docente di logica ed informatica giuridica presso l’Università degli Studi di Napoli Federico II. Docente a contratto di informatica giuridica presso LUISS - dipartimento di giurisprudenza. Specializzato presso l'Università degli Studi di Napoli Federico II in "Tecniche e Metodologie informatiche giuridiche". Presidente dell’Associazione Nazionale per la Difesa della Privacy. Funzionario del Ministero della Difesa - Twitter: @miasell

Prev Intelligenza Artificiale, un approccio standardizzato e unificato con la Norma ISO 42001:2023 e la terminologia della ISO 22989
Next Oltre la bolla: riscoprire la magia della scoperta in un mondo post-profilazione

Privacy Day Forum 2024, il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy