Intelligenza Artificiale, necessario riflettere sulla natura delle decisioni algoritmiche affinché siano a vantaggio dell’uomo e non gli si ritorcano contro
È questa l’epoca in cui, grazie alla disponibilità di dati e alla crescente capacità computazionale delle macchine, gli algoritmi possono sostituirsi efficacemente alla tipica capacità dell’uomo: decidere. Ed è questa l’epoca in cui ai regolatori di tutto il mondo spetta il delicato compito di disciplinarne l’impiego, in modo che queste decisioni siano a vantaggio dell’uomo e non gli si ritorcano contro.
Tutti osserviamo la capacità di questi algoritmi di formulare decisioni molto accurate, sia quando si tratta di prevedere le nostre preferenze, sia quando si tratta di elaborare un testo complesso, come oggi è in grado di fare chat GPT.
Però intuiamo pure i rischi, associati a questo approccio algoritmico, di possibili decisioni stereotipate e per certi versi discriminatorie. In uno scenario caratterizzato dall’abbondanza di dati e della potenza di calcolo non è possibile pensare a un futuro caratterizzato esclusivamente da decisioni umane.
Bisogna riflettere sulla natura delle decisioni algoritmiche. Non c’è solo un cambiamento del soggetto che assume la decisione, che diventa la macchina mentre prima era l’uomo, ma anche e soprattutto un cambiamento oggettivo: una decisione algoritmica è un “oggetto” concettualmente diverso da una decisione umana.
Le decisioni dell’uomo sono assunte sulla base di valori condivisi socialmente: l’equità, la trasparenza, la causalità.
Le decisioni di una macchina sono invece razionali. Noi chiediamo alla macchina, che sa essere logica, di essere anche “giusta” o equa. Serve un’opera paziente di riconciliazione tra concetti in origine molto diversi tra loro. Questo allineamento di linguaggi ci consentirà di sperimentare nuove forme di regolamentazione, non più basate unicamente sull’attribuzione di responsabilità giuridiche ai soggetti sviluppatori degli algoritmi, ma anche sull’efficienza di tali algoritmi.
In presenza di rischi o sovraesposizioni indesiderate, gli algoritmi, attraverso un calibrato intervento regolatorio, possono essere “rallentati”, se vi è un interesse pubblico a farlo, in modo che i loro risultati non sfuggano di mano agli stessi progettisti.
Questo approccio ingegneristico è particolarmente adatto a tutte quelle situazioni (destinate ad aumentare) in cui la complessità dell’algoritmo è tale da non consentire una agevole applicazione dei principi giuridici.
Noi oggi non abbiamo ancora sviluppato una progettazione degli algoritmi che sia capace di incorporare by design il corpus di tutele previsto dall’ordinamento europeo (ad esempio, in materia di protezione dei dati personali, ma il discorso è di carattere più generale). Spesso siamo portati a ricondurre le tutele a categorie esistenti (la trasparenza, l’esercizio dei diritti, il controllo umano), ma tanto non sempre basta per orientare il funzionamento degli algoritmi, in particolare quando questi diventano molto complessi. Nello sviluppo degli algoritmi di intelligenza artificiale esistono contrapposti interessi di accuratezza e di tutela che non sono adeguatamente rappresentati nella attuale fase di progetto.
(Nella foto: Giuseppe D'Acquisto, funzionario direttivo del Garante per la protezione dei dati personali. E' stato speaker del Privacy Day Forum 2023)
Il solo sguardo del progettista potrebbe non considerare adeguatamente i vari interessi contrapposti, e non scongiurare eventuali conseguenze dannose per l’uomo che derivano dall’impiego della tecnologia.
Oggi esiste una scienza della causalità che si fonda in modo molto rigoroso sui risultati della teoria della probabilità, e si parla di misurazione del grado di equità degli algoritmi di machine learning secondo criteri oggettivi.
È un’area di ricerca molto fertile. Questi concetti stanno entrando nei documenti di policy dell’Unione Europea. Ad esempio, nel Parere congiunto 5/2021 dell’EDPB e dell’EDPS sulla proposta di regolamento europeo sull’intelligenza artificiale si legge “Garantire la trasparenza nei sistemi di IA è un obiettivo molto difficile da conseguire. L’approccio interamente quantitativo di molti sistemi di IA al processo decisionale, che è intrinsecamente diverso dall’approccio umano fondato principalmente sul ragionamento teorico e per nessi causali, può confliggere con la necessità di ottenere una previa spiegazione comprensibile dei risultati prodotti dalla macchina”.
Considerazioni simili entreranno presto nella giurisprudenza delle Autorità nazionali.
Questa è dunque l’epoca. E servirà lo sforzo di tutti, tecnologi e giuristi, per fare uscire l’intelligenza artificiale dall’alone di opacità che speso circonda l’impiego degli algoritmi.
I primi a beneficiarne saranno gli sviluppatori e i soggetti economici che se ne avvalgono, i quali necessitano di un quadro di certezze per fondare su questa tecnologia solide prospettive di crescita economica.
Nel video: lo speech di Giuseppe D'Acquisto al Privacy Day Forum 2023. Sotto le slides dell'intervento)