DDL Intelligenza Artificiale: ribadito il ruolo centrale della protezione dati
Come noto, recentemente il Consiglio dei Ministri, su proposta del Presidente Giorgia Meloni e del Ministro della Giustizia Carlo Nordio, ha approvato, con la previsione della richiesta alle Camere di sollecita calendarizzazione nel rispetto dei regolamenti dei due rami del Parlamento, un disegno di legge per l’introduzione di disposizioni e la delega al Governo in materia di intelligenza artificiale.
Il disegno di legge individua criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso. Inoltre, introduce norme di principio e disposizioni di settore che, da un lato, promuovano l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica.
Il DDL sull'intelligenza artificiale enfatizza l'importanza di rispettare i diritti fondamentali, come la dignità umana, la libertà individuale e la privacy, nel contesto dello sviluppo e dell'utilizzo delle tecnologie IA.
La legge stabilisce chiaramente che l'intelligenza artificiale deve operare in modo trasparente, sicuro e non discriminatorio, aderendo strettamente ai principi di sostenibilità ambientale ed economica.
L'approccio antropocentrico è al centro della legislazione, assicurando che la tecnologia serva l'umanità e non viceversa, un principio rafforzato dall'impegno a garantire la sorveglianza umana sui sistemi di IA, specialmente in contesti critici dove decisioni autonome potrebbero avere impatti significativi sui diritti individuali.
Il Disegno di Legge si inserisce in un contesto legislativo globale che sta progressivamente cercando di bilanciare lo sviluppo e l'impiego delle tecnologie di intelligenza artificiale con la necessità di proteggere i dati personali e la privacy degli individui. La protezione dei dati personali è un tema centrale in molte discussioni relative all'IA, poiché l'elaborazione e l'analisi di grandi quantità di dati sono spesso fondamentali per il funzionamento di tali tecnologie.
In particolare il provvedimento si concentra su due aspetti cruciali legati all'utilizzo dell'intelligenza artificiale: l'informazione e la riservatezza dei dati personali. L’intento è quello di garantire che l'uso di sistemi di intelligenza artificiale nel campo dell'informazione e della comunicazione rispetti i principi fondamentali di libertà, obiettività e trasparenza, nonché la tutela dei dati personali secondo le normative dell'Unione europea.
Nel disegno di legge si chiarisce che l'uso dell'intelligenza artificiale nell'informazione non deve compromettere la libertà e il pluralismo dei mezzi di comunicazione. Questo si riferisce alla necessità di mantenere un ambiente informativo libero e variegato, dove l'intelligenza artificiale non crea monopoli informativi o distorce le notizie a favore di specifici attori o interessi. È fondamentale che l'intelligenza artificiale contribuisca a un'informazione che rimanga obiettiva, completa, imparziale e leale, evitando così la diffusione di informazioni parziali o manipolate.
Naturalmente viene ribadito il concetto di trattamento lecito, corretto e trasparente dei dati personali. Questo significa che ogni utilizzo di dati personali attraverso sistemi di IA deve essere effettuato nel rispetto delle normative esistenti, soprattutto il GDPR. Questo implica che i dati devono essere raccolti per finalità legittime, esplicitamente dichiarate, e trattati solo entro quei confini.
La raccolta e il trattamento dei dati costituiscono la spina dorsale dei sistemi di intelligenza artificiale. Queste operazioni non solo determinano l'efficacia e l'accuratezza dei modelli di IA, ma pongono anche significative sfide in termini di privacy, sicurezza e conformità normativa.
(Nella foto: Michele Iaselli, Coordinatore del Comitato Scientifico di Federprivacy, sarà speaker al Privacy Day Forum 2024)
I sistemi di IA attingono a una varietà di fonti per raccogliere dati. Queste includono sensori IoT, interazioni online, transazioni commerciali, database pubblici e privati, e input utente, tra gli altri. La scelta delle fonti di dati dipende dall'obiettivo specifico dell'IA e dalla necessità di dati pertinenti e di alta qualità.
Le tecniche di raccolta dei dati devono essere attentamente progettate per garantire che i dati siano rappresentativi, accurati e validi. Ciò comporta l'utilizzo di metodi di campionamento, tecniche di scraping, sistemi di monitoraggio e altre metodologie di raccolta dati. È fondamentale che queste tecniche rispettino le leggi sulla privacy e la protezione dei dati.
Una volta raccolti, i dati spesso richiedono pulizia e pre-elaborazione. Questo include la rimozione di errori, la gestione di valori mancanti, la normalizzazione, e la categorizzazione. La pre-elaborazione è cruciale per migliorare la qualità dei dati e renderli adatti all'uso in modelli di IA.
L'analisi dei dati comporta l'uso di algoritmi di IA per identificare pattern, tendenze e correlazioni. Questo può includere tecniche di apprendimento automatico, analisi statistica e data mining.
L'interpretazione di questi risultati è fondamentale per trasformare i dati grezzi in insight utili e informazioni azionabili.
La sicurezza dei dati durante la raccolta e il trattamento è quindi di vitale importanza. Ciò include l'uso di crittografia, autenticazione, controllo degli accessi e altre misure di sicurezza per proteggere i dati da accessi non autorizzati, perdite o furti. Le strategie di sicurezza devono essere aggiornate regolarmente per far fronte a minacce in evoluzione.
Il provvedimento insiste anche sulla necessità che tutte le comunicazioni relative al trattamento dei dati personali siano fatte in linguaggio chiaro e semplice. Questo è particolarmente importante per garantire che tutti gli utenti, indipendentemente dal loro livello di competenza tecnica, possano comprendere come i loro dati vengano utilizzati e siano in grado di esercitare i loro diritti, come l'opposizione al trattamento dei dati in situazioni inappropriate.
Un occhio particolare è sempre dedicato alla protezione dei minori nell'ambito dell'uso dell'intelligenza artificiale, stabilendo regole specifiche per il consenso al trattamento dei loro dati personali. Per i minori di quattordici anni, è necessario il consenso di chi esercita la responsabilità genitoriale. I minori tra quattordici e diciotto anni possono dare il loro consenso, purché le informazioni siano presentate in modo che siano facilmente accessibili e comprensibili.
Il DDL IA mira, quindi, a integrare i principi di etica e responsabilità nell'uso dell'intelligenza artificiale, assicurando che il progresso tecnologico non comprometta i diritti fondamentali degli individui e il corretto funzionamento delle democrazie. Mantenere la trasparenza e la correttezza nell'uso dell'IA è essenziale per costruire e mantenere la fiducia del pubblico in queste tecnologie avanzate. La legge vuole quindi porre le basi per uno sviluppo sostenibile dell'intelligenza artificiale che sia in armonia con i valori sociali, etici e legali fondamentali.