NEWS

Per sviluppare un approccio etico all’intelligenza artificiale occorre prendere posizione

L’intelligenza artificiale forse cambierà la vita dell’uomo e dell’umanità. In futuro molti di noi, intelligenze naturali, saranno connesse con Intelligenza Artificiale (IA), Blockchain, Big Data, IoT, robotica, etc..

L’IA non va rifiutata o esaltata, va adottata, come se fosse un bimbo, e come un figlio educata, sgridata, indirizzata, … ci farà preoccupare, gioire, arrabbiare … e come un figlio potrebbe procurarci dolori immensi.

Detto questo, la messa a terra delle soluzioni di intelligenza artificiale nelle organizzazioni di qualsiasi tipo implica anche un approccio etico delle funzioni che devono valutarle preventivamente.

La domanda ricorrente in questa fase storica è: come sviluppare questo approccio?

Se non si ha una preparazione filosofica e se in azienda non vi sono organismi o competenze specifiche su questa materia non resta che ricorrere ad una pratica “fai da te” molto concreta che consiste nel “prendere posizione”; in altre parole, come esperti privacy bisogna recuperare criteri di valutazione dai valori del personale patrimonio di conoscenze e dai disvalori (leggi problemi) del mondo contemporaneo.

Le cose da fare sarebbero due: una operativa e una teorica.

L’operativa - Se l’organizzazione ha già impiantato la Privacy by design, bene! Altrimenti male. In questo caso meglio fare subito una normativa interna che dica “Le soluzioni di I.A. devono essere preliminarmente valutate dalla funzione competente in materia di protezione dei dati personali”. Invece, i sistemi by design potrebbero essere integrati con una tabellina contenente 5 punti di valutazione - che ci aiutino a declinare un posizionamento etico di massima lato data protection verso l’I.A. - che chiameremo “i cinque consumi”: 1) consumo di energia, 2) consumo di dati, 3) consumo di lavoro, 4) consumo di diritti, 5) consumo geopolitico.

Ad esempio, se si consuma energia rinnovabile si può spuntare l’ok; se la creazione o l’addestramento ha usato dati impropriamente o illegalmente si può dare ko; se per l’allenamento si è sfruttato lavoro si può dare ko; se la soluzione ha un black box oppure presenta una logica di algoritmi con “pesature” di dati che possono causare discriminazioni si può dare ko; infine se le soluzioni provengono da aree del mondo non coerenti con quella europea o, diciamo così, Atlantica si può dare ko… e così via.

La teorica - Quello che abbiamo nel nostro cervello (e nel nostro cuore) potrebbe considerarsi un big data. Il recupero e l’elaborazione del nostro passato per dedurre concetti potrebbe dirsi un machine learning? Facciamo finta di sì, e facciamo finta di rivolgerci alla nostra mente come se fosse una I.A. generativa per chiedergli tre cose: dei contenuti per crearci un posizionamento professionale etico verso l’IA e due versioni di questo posizionamento, uno che prenda in considerazione in genere la specie Umana e uno individualmente il singolo uomo. Cominciamo questo esperimento allora? “Chat DP” (il mio nome è Davide Panella quindi la chiamo DP) mi estrai contenuti utili a formarmi un posizionamento etico verso l’IA?

Lei mi estrae, video di tre film famosi e 4 libri. La scena di “Matrix” (1995, regia Wachowski) dove Morpheus racconta a Neo la verità e dice “L’umanità intera si trovò unita all’insegna dei festeggiamenti …. Grande fu la meraviglia per la nostra magnificenza mentre davamo alla luce l’IA” e dove si vede un pianeta buio e distrutto e le famose uova contenenti essere umani coltivati dalle macchine per produrre energia “rinnovabile” e “pulita”; la scena di “Blade Runner” (1982, regia Scott) dove il Replicante Roy Batty, modello Nexus 6, si trova seduto morente, in cima ad un grattacielo, sotto una scura pioggia battente mentre pronuncia la frase «Io ne ho viste cose che voi umani non potreste immaginarvi” e “è tempo di morire” perché la durata quadriennale della sua esistenza sta scadendo; la scena di “Lei” (2014, regia Jonze) dove c’è il dialogo “Samantha ma con quante persone parli mentre parli con me?". "8.316" "E di quanti di questi ti sei innamorata?" "641”.

I libri sono “Mondo Nuovo” di Huxley, “1984” di Orwell, “Fahrenheit 451” di Bradbury e il “Processo” di Kafka.

(Nella foto: Davide Panella, Team Leader Funzione Data Protection nel settore bancario)

A questo punto chiedo a “Chat DP” di ipotizzare due posizionamenti etici verso umanità e uomo?

Ecco le risposte.

Verso l’umanità: “L’IA prometterebbe tre cose principalmente: ricchezze, poteri e libertà, le prime due alle élite, la terza ai popoli. Le caratteristiche della realizzazione queste promesse sarebbero velocità e arbitrio. Le conseguenze di questo mix potrebbero essere delle disuguaglianze, gli effetti delle disuguaglianze potrebbero essere forme diverse e ad oggi non configurabili di violenze.”

Verso l’uomo:L’IA rappresenterebbe una richiesta del singolo individuo, una domanda di emancipazione, di indipendenza da ogni forma di conoscenza, dalle asimmetrie e dalla fatica che essa produce. Il giorno più bello per ogni bambino non è l’ultimo giorno di scuola? I momenti più brutti sul lavoro non coincidono con cose che non sapevamo? L’uomo vuole trasferire la conoscenza all’IA per tornare libero, per tornare ad essere una nuova “libera scimmia”, cedere due “sapiens” in cambio di un mondo dove uno vale uno, di un Eden dove la solitudine dalla conoscenza è bene.”

A fronte di queste risposte potete immaginare il mio sgomento nel pensare che tutto questo si trova dentro di me, io che ho sul mio smartphone diverse app di intelligenza artificiale … e pure le versioni a pagamento!

Allora clicco sulla funzionalità di generazione immagini e, sconsolato, chiedo - specificando che non voglio più leggere nient’altro - di generare una istantanea che faccia sintesi del mio approccio etico, in una prospettiva futura di lungo periodo. La chat allora disegna in pochi secondi una immagine che riproduce la scena finale di un famoso film del passato “Il pianeta delle scimmie” (1968, regia di Schaffner) laddove il protagonista, a cavallo insieme alla sua Eva, si trova su una spiaggia deserta di fronte ad un enorme monumento emblema della nostra civiltà, quasi completamente sepolto, mentre urla “voi uomini l’avete distrutta … voi uomini maledetti per l’eternità …”, però … attenzione … la chat sostituisce la “Statua della Libertà”, presente nel film originale, con un altro monumento ossia il “Monolite” presente nel celebre film “2001, Odissea nello spazio” (1968, regia di Kubrick).

Infine, io, affranto, disorientato, soffermo lo sguardo su quel monolite - parallelepipedo lineare, sottile, perfetto, misterioso, nero - fino a quando gli occhi, ormai stanchi, cadono sulla mia scrivania dove in carica, retto, silenzioso, sinistro e serio mi osserva il mio nuovo smartphone.

Note Autore

Davide Panella Davide Panella

Team Leader Funzione Data Protection di grande Gruppo Bancario Italiano ed Europeo. Nota: Le opinioni espresse sono a titolo esclusivamente personale e non coinvolgono l’azienda di appartenenza dell’autore.

Prev L’alba dell’intelligenza artificiale: un affascinante percorso che continuerà a sorprenderci
Next Quanto vale la nostra privacy? Il caso di ClearviewAI: se mi paghi, ti perdono

Privacy Day Forum 2024: intervista a Pasquale Stanzione

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
I agree with the Privacy e Termini di Utilizzo