NEWS

Trasparenza algoritmica: un obiettivo possibile o un’illusione?

La trasparenza nelle nuove tecnologie è un concetto che le normative europee pongono al centro dell'ecosistema digitale, ma la sua effettiva realizzazione è un problema di straordinaria complessità, soprattutto per gli algoritmi di intelligenza artificiale.

Il GDPR stabilisce obblighi informativi e diritti di accesso ai dati personali, mentre l’AI Act impone requisiti di trasparenza per i sistemi ad alto rischio e vieta quelli manipolativi o il social scoring. Il Digital Services Act disciplina la trasparenza degli algoritmi di raccomandazione, il Digital Markets Act interviene sui motori di ranking delle grandi piattaforme, e il Data Act, insieme al DGA, crea un quadro per la condivisione trasparente dei dati.

Il problema fondamentale è che la trasparenza non è una caratteristica binaria, ma varia a seconda dell’obiettivo. Un sistema può essere trasparente a livello di codice sorgente, ma rimanere incomprensibile a chi non possiede conoscenze avanzate di programmazione. Può essere trasparente nei criteri generali di funzionamento, ma opaco nei meccanismi specifici di decisione. E può essere trasparente nella documentazione tecnica, ma inaccessibile agli utenti finali.

Questa difficoltà si manifesta in modo particolarmente acuto negli algoritmi di intelligenza artificiale. Le reti neurali profonde, ad esempio, apprendono attraverso processi che sono assimilabili a una "scatola nera": anche i progettisti spesso non possono spiegare esattamente perché il modello abbia generato un certo output. I modelli di apprendimento automatico funzionano su una base statistica, trovando correlazioni nei dati che non sempre sono immediatamente interpretabili. Anche quando un’IA è costruita con tecniche di Explainable AI (XAI), le spiegazioni ottenute possono essere di valore limitato, perché semplificano un processo estremamente complesso.

Questa opacità è ulteriormente aggravata dal problema della trasparenza dei dati di addestramento. Le aziende che sviluppano modelli avanzati, come quelli linguistici o di riconoscimento visivo, spesso addestrano le loro IA su vasti set di dati che non possono essere completamente resi pubblici per ragioni di segreto industriale, sicurezza o rispetto della privacy. Un altro ostacolo è dato dal problema dell’evoluzione dell’IA: un modello può essere trasparente oggi, ma diventare progressivamente più opaco man mano che impara e si aggiorna in modo autonomo.

(Nella foto: l'Avv. Michele Iaselli, docente al Corso di alta formazione "Privacy e gestione del personale")

Per affrontare questo problema, il concetto di trasparenza deve essere ridefinito in termini di responsabilità. Non si può pretendere che ogni cittadino comprenda il funzionamento dettagliato di un algoritmo, ma è necessario che esistano meccanismi di verifica, controllo e accountability. Questo significa prevedere audit algoritmici indipendenti, rendere obbligatoria la documentazione sulle modalità con cui un modello è stato addestrato e sulle metriche di performance adottate, e introdurre forme di certificazione della trasparenza, come avviene per la sicurezza dei prodotti informatici.

Un sistema potrebbe essere valutato secondo diversi livelli di trasparenza: un livello informativo per il pubblico generico, un livello tecnico per i ricercatori e un livello di accesso avanzato per le autorità di controllo.

Ma esiste un limite fondamentale. Alcuni algoritmi, per loro natura, non saranno mai completamente trasparenti nel senso classico del termine. Qui si pone la necessità di un compromesso regolamentare: in alcuni casi, la trasparenza potrebbe essere ottenuta non attraverso la spiegabilità diretta del modello, ma garantendo che il suo utilizzo avvenga in un quadro di supervisione adeguata. L’intervento umano nelle decisioni automatizzate critiche è una delle soluzioni che il GDPR ha già previsto, ma deve essere rafforzato da norme specifiche per i sistemi più avanzati.

Un'altra strada è quella di progettare modelli più interpretabili fin dalla loro costruzione. Alcuni approcci, come gli alberi decisionali o i modelli basati su regole, sono più facilmente comprensibili rispetto alle reti neurali profonde, e potrebbero essere preferiti in ambiti dove la trasparenza è essenziale, come nel settore sanitario o finanziario. Tuttavia, questi modelli sono spesso meno potenti in termini di prestazioni, il che crea un conflitto tra efficienza e trasparenza.

Alla luce di questi elementi, il futuro della trasparenza nelle nuove tecnologie potrebbe svilupparsi secondo un modello basato su tre pilastri: la spiegabilità dei modelli quando possibile, la verifica indipendente quando la spiegabilità non è sufficiente, e la responsabilità legale per chi utilizza sistemi opachi in contesti critici.

La spiegabilità è il primo elemento fondamentale. Non è sufficiente che un algoritmo produca un output; è necessario comprendere come e perché è arrivato a quella decisione. Tuttavia, la spiegabilità è un concetto sfuggente, perché dipende dal tipo di modello utilizzato.

Quando la spiegabilità non è sufficiente o non è praticabile, entra in gioco la verifica indipendente. Affidarsi esclusivamente alla documentazione fornita dagli sviluppatori non è un’opzione sostenibile, poiché le aziende hanno incentivi economici a minimizzare i problemi legati ai loro algoritmi. L’unico modo per garantire che un sistema di IA sia equo, non discriminatorio e affidabile è prevedere audit algoritmici condotti da enti indipendenti. La verifica può avvenire a più livelli, analizzando il codice sorgente, i dati di addestramento, le metriche di prestazione e gli output effettivi del modello. L’AI Act ha introdotto obblighi di valutazione per i sistemi ad alto rischio, ma questo principio potrebbe essere esteso a molte altre applicazioni, come gli algoritmi di raccomandazione o di selezione del personale.

Anche con le migliori tecniche di spiegabilità e verifica, alcuni sistemi rimarranno inevitabilmente opachi. In questi casi, è necessario spostare il focus dalla trasparenza assoluta alla responsabilità legale. Se un sistema non può essere spiegato in modo chiaro, chi lo utilizza deve essere responsabile delle sue conseguenze e deve garantire meccanismi di ricorso per chi subisce un danno. Il GDPR ha già introdotto il principio secondo cui le decisioni automatizzate che hanno un impatto significativo sugli individui devono essere sottoposte a supervisione umana, ma questa tutela è ancora poco applicata nella pratica. Per rendere efficace la responsabilità, è necessario definire obblighi precisi sia per gli sviluppatori sia per gli utilizzatori dell’IA.

L’aspetto chiave è che la responsabilità non deve ricadere esclusivamente sull’utente finale, ma deve essere distribuita lungo tutta la catena del valore, coinvolgendo chi progetta, chi implementa e chi utilizza le tecnologie.

Questi tre fattori non devono essere considerati in modo separato, ma come elementi di un unico sistema. La spiegabilità permette di comprendere il funzionamento di un modello, la verifica indipendente garantisce che non ci siano effetti indesiderati e la responsabilità legale assicura che ci siano conseguenze in caso di abusi.

Il concetto di trasparenza non deve essere visto come un limite all’innovazione, ma come un elemento che può rafforzare la fiducia nelle nuove tecnologie. La società deve accettare che alcuni modelli di IA rimarranno opachi, ma ciò non significa che debbano essere accettati acriticamente. Creare un quadro di trasparenza stratificata, basato su spiegabilità, verifica indipendente e responsabilità, permette di trovare un equilibrio tra protezione degli utenti, incentivo all’innovazione e tutela della democrazia.

Note sull'Autore

Michele Iaselli Michele Iaselli

Coordinatore del Comitato Scientifico di Federprivacy. Avvocato, docente di logica ed informatica giuridica presso l’Università degli Studi di Napoli Federico II. Docente a contratto di informatica giuridica presso LUISS - dipartimento di giurisprudenza. Specializzato presso l'Università degli Studi di Napoli Federico II in "Tecniche e Metodologie informatiche giuridiche". Presidente dell’Associazione Nazionale per la Difesa della Privacy. Funzionario del Ministero della Difesa - Twitter: @miasell

Prev Inoltrare gli screenshot delle chat WhatsApp è una pessima abitudine e può violare la privacy

App di incontri e rischi sulla privacy

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy