NEWS

Intelligenza Artificiale: quando si trattano dati personali il pregiudizio può rappresentare un rischio elevato

L’intelligenza Artificiale (IA)concerne lo sviluppo di sistemi informatici capaci di svolgere compiti propri dell’intelligenza umana. Si pensi, a titolo esemplificativo, alle attività di traduzione linguistica, riconoscimento vocale, facciale, di immagini, ecc.

L’intelligenza Artificiale concerne lo sviluppo di sistemi informatici capaci di svolgere compiti propri dell’intelligenza umana

Generalmente l’espressione “IA” viene utilizzata in riferimento ad algoritmi di apprendimento automatico che possono imparare dai dati.

Un sottocampo dell’intelligenza artificiale è il Machine Learning che prevede lo sviluppo di algoritmi e modelli di apprendimento automatico che consentono ai computer di apprendere, fare previsioni o prendere decisioni basate sui dati.

Il progresso tecnologico del XXI secolo in termini di potenza di calcolo, archiviazione dei dati e sviluppo di algoritmi di apprendimento automatico ha contribuito allo sviluppo del c.d. deep learning.

Quest’ultimo è un sottoinsieme del machine learning che si concentra sulla costruzione e sull’addestramento di reti neurali artificiali . Le reti neurali sono una classe di algoritmi di Machine Learning che si ispirano alla struttura del cervello umano. Una rete neurale artificiale è costituita da nodi o neuroni interconnessi che elaborano le informazioni simulando il funzionamento del cervello umano.

Quest’ultimo, però, è caratterizzato da una serie di abilità tra cui l’interazione sociale, la creatività e le emozioni che consentono di prendere decisioni, ragionare e studiare nuove situazioni. I sistemi di intelligenza artificiale non posseggono le capacità emotive e sociali dell’intelligenza umana.

Al riguardo famoso è il c.d. Test di Turing, proposto nel 1950 dal matematico Alan Turing (noto per aver decifrato i codici di “enigma”) e consistente nel far sì che una persona si cimenti in una conversazione fatta a terminale con un essere umano e un computer, senza sapere dall’altra parte quale dei due fosse la persona o la macchina. Se la persona non riesce a distinguere la macchina dall’uomo si afferma che la macchina ha superato il Test di Turing.

Un neurone artificiale, o nodo, è, quindi, l’elemento fondamentale di una rete neurale artificiale. Esso, riceve input da più fonti, li elabora e produce un output. L’input può provenire da dati esterni o da altri neuroni della rete.

Gli algoritmi di deep learning consentono, pertanto, alle macchine di elaborare e analizzare grandi quantità di dati, identificare modelli e fare previsioni. Le applicazioni del deep learning si trovano in diversi ambiti, tra cui la computer vision, l’elaborazione del linguaggio naturale, il riconoscimento vocale, riconoscimento facciale, sistemi di raccomandazione, ecc.

Queste brevi considerazioni ci portano inevitabilmente a porre particolare attenzione ai “dati” trattati dagli algoritmi di deep learning e utilizzati per “addestrarsi”. La cura nella raccolta e selezione dei dati rappresenta una delle principali sfide nel campo dell’intelligenza artificiale. Infatti, i dati possono contenere “pregiudizi” intrinseci dovuti a fattori storici o sociali, con la conseguenza che l’algoritmo amplifichi questi pregiudizi portando a risultati ingiusti e discriminatori.

Ad esempio, nell’utilizzo della tecnologia di riconoscimento facciale è stato riscontrato un tasso di errore più elevato quando il processo decisionale algoritmico identifica individui di determinate origini razziali ed etniche (c.d. bad facial recognition).

Allo stesso modo nell’ambito delle assunzioni automatizzate attraverso sistemi di IA si possono favorire candidati con specifiche caratteristiche demografiche o di provenienza, rafforzando le disuguaglianze esistenti nel mercato del lavoro.

In conclusione, quando si trattano dati personali comuni o sensibili, il pregiudizio può rappresentare un elevato rischio inerente il trattamento, in quanto capace di produrre conseguenze gravi sui diritti, le libertà fondamentali o la dignità delle persone.

Note Autore

Marco Soffientini Marco Soffientini

Avvocato esperto di protezione dei dati personali, Data Protection Officer di Federprivacy. Autore Ipsoa, docente Unitelma Sapienza, Privacy Officer certificato TÜV Italia, Fellow Istituto Italiano Privacy.  - Twitter: @msoffientini1

Prev Se le fototrappole non rispettano la privacy il comune che le installa rischia di passare da controllore a controllato sanzionato
Next Il DPO alle prese con lo stato dell’arte

Privacy Day Forum 2024, il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy