Intelligenza Artificiale: quando si trattano dati personali il pregiudizio può rappresentare un rischio elevato
L’intelligenza Artificiale (IA)concerne lo sviluppo di sistemi informatici capaci di svolgere compiti propri dell’intelligenza umana. Si pensi, a titolo esemplificativo, alle attività di traduzione linguistica, riconoscimento vocale, facciale, di immagini, ecc.
Generalmente l’espressione “IA” viene utilizzata in riferimento ad algoritmi di apprendimento automatico che possono imparare dai dati.
Un sottocampo dell’intelligenza artificiale è il Machine Learning che prevede lo sviluppo di algoritmi e modelli di apprendimento automatico che consentono ai computer di apprendere, fare previsioni o prendere decisioni basate sui dati.
Il progresso tecnologico del XXI secolo in termini di potenza di calcolo, archiviazione dei dati e sviluppo di algoritmi di apprendimento automatico ha contribuito allo sviluppo del c.d. deep learning.
Quest’ultimo è un sottoinsieme del machine learning che si concentra sulla costruzione e sull’addestramento di reti neurali artificiali . Le reti neurali sono una classe di algoritmi di Machine Learning che si ispirano alla struttura del cervello umano. Una rete neurale artificiale è costituita da nodi o neuroni interconnessi che elaborano le informazioni simulando il funzionamento del cervello umano.
Quest’ultimo, però, è caratterizzato da una serie di abilità tra cui l’interazione sociale, la creatività e le emozioni che consentono di prendere decisioni, ragionare e studiare nuove situazioni. I sistemi di intelligenza artificiale non posseggono le capacità emotive e sociali dell’intelligenza umana.
Al riguardo famoso è il c.d. Test di Turing, proposto nel 1950 dal matematico Alan Turing (noto per aver decifrato i codici di “enigma”) e consistente nel far sì che una persona si cimenti in una conversazione fatta a terminale con un essere umano e un computer, senza sapere dall’altra parte quale dei due fosse la persona o la macchina. Se la persona non riesce a distinguere la macchina dall’uomo si afferma che la macchina ha superato il Test di Turing.
Un neurone artificiale, o nodo, è, quindi, l’elemento fondamentale di una rete neurale artificiale. Esso, riceve input da più fonti, li elabora e produce un output. L’input può provenire da dati esterni o da altri neuroni della rete.
Gli algoritmi di deep learning consentono, pertanto, alle macchine di elaborare e analizzare grandi quantità di dati, identificare modelli e fare previsioni. Le applicazioni del deep learning si trovano in diversi ambiti, tra cui la computer vision, l’elaborazione del linguaggio naturale, il riconoscimento vocale, riconoscimento facciale, sistemi di raccomandazione, ecc.
Queste brevi considerazioni ci portano inevitabilmente a porre particolare attenzione ai “dati” trattati dagli algoritmi di deep learning e utilizzati per “addestrarsi”. La cura nella raccolta e selezione dei dati rappresenta una delle principali sfide nel campo dell’intelligenza artificiale. Infatti, i dati possono contenere “pregiudizi” intrinseci dovuti a fattori storici o sociali, con la conseguenza che l’algoritmo amplifichi questi pregiudizi portando a risultati ingiusti e discriminatori.
Ad esempio, nell’utilizzo della tecnologia di riconoscimento facciale è stato riscontrato un tasso di errore più elevato quando il processo decisionale algoritmico identifica individui di determinate origini razziali ed etniche (c.d. bad facial recognition).
Allo stesso modo nell’ambito delle assunzioni automatizzate attraverso sistemi di IA si possono favorire candidati con specifiche caratteristiche demografiche o di provenienza, rafforzando le disuguaglianze esistenti nel mercato del lavoro.
In conclusione, quando si trattano dati personali comuni o sensibili, il pregiudizio può rappresentare un elevato rischio inerente il trattamento, in quanto capace di produrre conseguenze gravi sui diritti, le libertà fondamentali o la dignità delle persone.