NEWS

Privacy e Intelligenza Artificiale: vademecum per una guida etica all'uso responsabile della tecnologia

Negli ultimi anni, l’intelligenza artificiale (AI) ha invaso ogni aspetto della nostra vita quotidiana, promettendo di rivoluzionare settori che spaziano dalla sanità alla finanza, dall’educazione alla logistica. Tuttavia, con grandi poteri vengono grandi responsabilità. Mentre le opportunità offerte dall’AI sono immense, altrettanto significativi sono i rischi e le sfide, soprattutto in termini di privacy e sicurezza dei dati.

Per questo motivo, è essenziale che lo sviluppo e l’implementazione dell’AI seguano linee guida etiche rigorose. Di seguito, esploreremo una proposta di vademecum in sette punti per garantire un uso responsabile ed etico dell’AI, ispirato dalle recenti normative, inclusi i principi delineati nel Regolamento UE sull'intelligenza artificiale.

Ma prima di addentrarci nei dettagli del vademecum, è importante comprendere i quattro principali attori coinvolti nell’utilizzo dell’AI:

1. Aziende Utilizzatrici Finali: Queste sono le imprese che adottano l'AI per migliorare i loro processi operativi, prodotti e servizi. Possono utilizzare l’AI sviluppata internamente o affidarsi a soluzioni fornite da terze parti.

2. Configuratori di Software AI: Professionisti che utilizzano e configurano software di intelligenza artificiale esistenti per risolvere problemi specifici. Non sviluppano nuovi software o algoritmi, ma implementano e personalizzano le soluzioni già disponibili per adattarle alle esigenze aziendali. Ad esempio, un configuratore potrebbe impostare un sistema di riconoscimento vocale per una società di call center, adattando le impostazioni del software per migliorare la precisione del riconoscimento in base agli accenti locali.

3. Sviluppatori di Software AI: Programmatori che creano applicazioni e software che utilizzano algoritmi di intelligenza artificiale. Hanno una buona conoscenza della programmazione e delle tecniche di machine learning, ma utilizzano principalmente algoritmi esistenti piuttosto che crearne di nuovi. Ad esempio, uno sviluppatore di software AI potrebbe costruire un'applicazione che utilizza algoritmi di machine learning per analizzare i dati dei clienti e prevedere quali prodotti potrebbero essere di loro interesse.

4. Sviluppatori di Algoritmi di Apprendimento: Esperti avanzati nel campo dell'intelligenza artificiale che si occupano di progettare e sviluppare nuovi algoritmi di machine learning e deep learning.

Hanno competenze avanzate in matematica, statistica e programmazione. Ad esempio, uno sviluppatore di algoritmi di apprendimento potrebbe creare un nuovo algoritmo per il riconoscimento delle immagini che migliora la precisione rispetto agli algoritmi esistenti, utilizzando tecniche avanzate di deep learning.

La nostra azienda può trovarsi in uno qualsiasi di questi quattro ruoli, e comprendere la specificità di ciascuno è fondamentale per adottare le migliori pratiche etiche nell'uso dell'AI.

Quelle che segue sono, a mio avviso, i principi che ogni attore dovrebbe considerare, ispirati soprattutto dai lavori già compiuti nel 2019, come indicato nelle Linee guida etiche per un'IA affidabile (Ethics Guidelines for Trustworthy AI).

Analogamente ai principi dell'articolo 5 del GDPR, che stabiliscono i fondamentali per il trattamento dei dati personali, quello che segue è un possibile vademecum che contiene le linee di base di tutto ciò che dovremmo considerare.

Un primo aspetto è la trasparenza attraverso comunicazioni chiare e se possibile l’apertura del codice. La trasparenza è la base su cui si costruisce la fiducia. È cruciale che le organizzazioni che utilizzano l’AI comunichino chiaramente agli utenti le funzionalità, le capacità e le limitazioni dei sistemi AI. Questo include non solo le potenzialità, ma anche i rischi e le aree di applicazione. Gli utenti devono essere informati quando stanno interagendo con un sistema AI e devono comprendere come e perché vengono prese determinate decisioni.

Ad esempio, se un’applicazione di assistenza virtuale utilizza l’AI per rispondere alle domande degli utenti, quest'ultimi dovrebbero essere chiaramente avvisati di ciò e delle modalità con cui vengono gestiti i loro dati.

Ove possibile, rendere il codice sorgente disponibile per revisioni esterne e audit è un passo importante verso la trasparenza. Questo non solo consente una maggiore fiducia da parte degli utenti, ma permette anche a ricercatrici e ricercatori e professionisti di verificare la correttezza e la sicurezza degli algoritmi utilizzati. L'apertura del codice promuove un ambiente di collaborazione e miglioramento continuo, essenziale per lo sviluppo di sistemi AI robusti e affidabili.

Un secondo aspetto concerne una maggiore equità ed evitare forme di discriminazione, con test e validazione per garantire che i sistemi AI non perpetuino errori o discriminazioni, è fondamentale implementare test regolari che identifichino e mitighino eventuali pregiudizi nei dati o nel comportamento dell’algoritmo. Questo processo deve essere continuo, con verifiche periodiche per adattarsi a nuove informazioni e contesti. Ad esempio, un sistema di reclutamento basato su AI dovrebbe essere testato per evitare discriminazioni di genere o etnia nei processi di selezione.

Ma equità e non discriminazione si raggiungono anche con la diversità dei dati. Utilizzare set di dati diversificati è cruciale per allenare l’AI in modo equo. I dati utilizzati per l’addestramento devono rappresentare equamente differenti gruppi demografici per evitare che l’algoritmo favorisca inconsapevolmente un gruppo rispetto ad un altro. La diversità nei dati contribuisce a creare sistemi AI più inclusivi e giusti.

Terzo aspetto, ma non per ordine di importanza, è il rispetto della privacy e della protezione dei dati, che passa nel modo dell’AI per la minimizzazione dei dati e in una gestione sicura degli stessi. È un principio fondamentale del GDPR, e una best practice generale, è la minimizzazione dei dati. Questo significa raccogliere solo i dati strettamente necessari per il funzionamento dell’AI. Ad esempio, un’applicazione di AI per la diagnosi medica dovrebbe raccogliere solo le informazioni essenziali per fornire una diagnosi accurata, evitando di accumulare dati superflui che potrebbero esporre gli utenti a rischi inutili.

Ma alla pari proteggere i dati raccolti e trattati dall’AI è una priorità. Le migliori pratiche di sicurezza, inclusa la crittografia e il controllo degli accessi, devono essere implementate per salvaguardare i dati da accessi non autorizzati e attacchi informatici. Inoltre, è essenziale assicurarsi che tutte le operazioni di trattamento dati rispettino il GDPR, garantendo così una protezione adeguata della privacy degli utenti.

Il quarto aspetto è certamente la Responsabilità del Titolare del trattamento, che con una corretta accountability e il relativo monitoraggio. Definire chiaramente chi è responsabile per le decisioni prese dall’AI è fondamentale. Ci deve sempre essere un punto di riferimento umano che possa intervenire e rispondere delle azioni del sistema AI. Questo è particolarmente importante in settori critici come la sanità o la finanza, dove le decisioni possono avere conseguenze significative sulla vita delle persone.

L’AI non è un sistema che si può impostare e dimenticare. È necessario un monitoraggio continuo per assicurarsi che il sistema operi come previsto e per intervenire rapidamente in caso di problemi. Il monitoraggio deve includere controlli regolari delle prestazioni e della sicurezza, così come aggiornamenti e manutenzione periodica.

Un possibile beneficio sociale e ambientale può essere un quinto aspetto. L’AI deve essere sviluppata e impiegata con l’obiettivo di migliorare il benessere sociale e ambientale. È fondamentale identificare e promuovere attivamente gli usi dell’AI che possono portare benefici significativi alla società. Ad esempio, l’AI può essere utilizzata per migliorare i servizi sanitari, ridurre le emissioni di carbonio, o ottimizzare la gestione delle risorse naturali.

Le macchine “mangiano”, e sarebbe utile valutare l’impatto ambientale delle operazioni di AI è essenziale per uno sviluppo sostenibile. Le organizzazioni devono mirare a ridurre il consumo di energia e l’uso di risorse non rinnovabili, implementando pratiche di efficienza energetica e adottando tecnologie verdi.

L’AI non ha sentimenti, ed un sesto aspetto è dare la possibilità alla Ricorribilità e al Diritto di Revisione. Gli utenti devono avere la possibilità di contestare o richiedere una revisione delle decisioni prese dall’AI. Questo garantisce processi di ricorso efficaci e trasparenti, che permettono agli individui di far valere i propri diritti e di ottenere spiegazioni sulle decisioni automatizzate. Un esempio potrebbe essere un sistema di credito basato su AI che deve fornire ai richiedenti la possibilità di contestare una decisione di rifiuto del credito.

Non dimentichiamoci mai poi di assicurare la possibilità di un intervento umano significativo in qualsiasi processo decisionale automatizzato, è fondamentale per mitigare i rischi di errori o ingiustizie.

Questo significa che le decisioni critiche non dovrebbero essere lasciate esclusivamente nelle mani dell’AI, ma devono sempre essere supervisionate e, se necessario, modificate da un essere umano.

Infine il settimo tassello, indirizzato a coloro che poi sono i veri utilizzatori, non solo l’interessato, ma anche i nostri collaboratori. Offrire formazione e risorse educative agli utenti dell’AI, in modo specifico i dipendenti della nostra azienda, è essenziale per aumentare la loro consapevolezza e comprensione delle tecnologie AI. Gli utenti ben informati sono più propensi a utilizzare l’AI in modo sicuro e responsabile. Le aziende dovrebbero fornire tutorial, guide e supporto continuo per aiutare gli utenti a navigare nel mondo dell’AI.

Promuovere l'aggiornamento continuo per i professionisti che lavorano con o a contatto stretto con l’AI è altrettanto importante. Questo include non solo il mantenimento delle competenze tecniche, ma anche l’aggiornamento sulle pratiche etiche e sulle nuove normative. In un campo in continua evoluzione come quello dell’intelligenza artificiale, rimanere aggiornati è cruciale per garantire un utilizzo responsabile e sicuro della tecnologia.

Allo stesso modo, questi principi devono essere ulteriormente sviluppati e dettagliati per essere efficacemente implementati nella pratica quotidiana. Ogni punto del vademecum richiede una specifica attenzione e una serie di misure pratiche per garantire che l'uso dell'intelligenza artificiale sia etico, sicuro e in linea con le normative vigenti.

Questo vademecum può servire a mio avviso come punto di partenza per le organizzazioni e gli individui che desiderano impegnarsi nell'uso responsabile e etico dell'intelligenza artificiale, garantendo che la tecnologia operi a beneficio di tutti senza compromettere i diritti fondamentali o la sicurezza. La recente pubblicazione del Regolamento UE sull’intelligenza artificiale rappresenta un passo importante verso la regolamentazione e la promozione di pratiche etiche nel campo dell’AI. Adottando queste linee guida, possiamo sfruttare il potenziale dell’AI per il progresso sociale ed economico, minimizzando al contempo i rischi associati alla privacy e alla sicurezza dei dati.

Note Autore

Paolo Romani Paolo Romani

Consulente Privacy e Sicurezza IT presso Delmiele Digital Agency, Delegato Federprivacy nella provincia di Lodi. Professionista certificato Privacy Officer e Consulente della Privacy (CDP) con TÜV Italia.

Prev PornHub, qualche passo avanti sulla privacy, ma l’accountability richiede un percorso di miglioramento continuo
Next Fra cybersecurity e GDPR nella pubblica amministrazione: occorre un gioco di squadra

Privacy Day Forum 2024, il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy