Intelligenza Artificiale fuori controllo: il problema non è solo etico ma anche giuridico
Una recente notizia battuta dalle principali agenzie di stampa riporta che un avvocato di New York è accusato di aver riportato come precedenti in una causa (c.d. “stare decisis”) diverse sentenze inesistenti reperite a suo dire attraverso la piattaforma di intelligenza artificiale ChatGPT.
(Nella foto: l'Avv. Marco Soffientini. E' Data Protection Officer di Federprivacy)
Si trattava di un caso di lesioni subite da una persona colpita al ginocchio da un carrello poco prima di imbarcarsi su di un aereo all'aeroporto internazionale Kennedy di New York.
Il legale decise di citare in giudizio la compagnia aerea producendo un fascicolo di dieci pagine con altri casi simili: Martinez contro Delta Air Lines, Zicherman contro Korean Air Lines e, Varghese contro China Southern Airlines. Tutti casi inesistenti perché inventati da ChatGPT. (Fonte: Fanpage.it).
L'avvocato ha detto di non essere a conoscenza del fatto che i contenuti prodotti dall'intelligenza artificiale "fossero falsi". Il legale si è giustificato dicendo di non aver mai usato la chatbox prima e ha assicurato che non utilizzerà mai più l'intelligenza artificiale per "integrare" la sua ricerca "senza verificare l'autenticità" dei contenuti. (Fonte Ansa).
Si tratta di un caso (il primo del genere) che ripropone un tema sempre più dibattuto in merito alla consapevolezza da parte di chi utilizza questa tecnologia dei limiti degli algoritmi di intelligenza artificiale.
Sono strumenti sicuramente potenti ed evoluti ma che necessitano (ancora) della valutazione umana e di una precisa regolamentazione. Se ne stanno occupando i Garanti Europei che a seguito del provvedimento di limitazione provvisoria del Garante italiano (Provv. 30.03.2023) hanno lanciato una task force su ChatGPT, con l’obiettivo di promuovere la cooperazione e lo scambio di informazioni su eventuali iniziative per l'applicazione del Regolamento europeo condotte dalle Autorità di protezione dati.
Siamo di fronte a una iniziativa che si muove nell’alveo dell’articolo 65 GDPR e che dimostra come nell’immediato futuro i rischi inerenti il trattamento e cioè gli impatti negativi sui diritti e le libertà fondamentali delle persone siano destinati a crescere notevolmente e ciò proprio per l’uso sconsiderato dell’intelligenza artificiale.
Immaginate cosa potrebbe accadere se ad ed esempio lasciassimo alla intelligenza artificiale la decisione sulla vita o la morte di una persona. Fantascienza? No. Pensate ai veicoli con guida autonoma i cui algoritmi di intelligenza artificiale sono programmati per decidere di ammazzare il conducente al fine di salvare un gruppo di pedoni “sbucati” all’improvviso.
Il problema è stato affrontato da un team di ricercatori guidato da Jean-Francois Bonnefon della Toulouse School of Economics, secondo i quali questo tipo di incidenti - dove l'auto "sceglierà" chi uccidere - saranno inevitabili con l'aumento della diffusione dei veicoli senza pilota.
La programmazione è semplice quando le self driving car si troveranno in una situazione potenzialmente mortale sceglieranno sempre il male minore, ovvero fra salvare la vita di un gruppo di pedoni o quella del conducente/passeggero sceglieranno la prima opzione. Abbiamo, in altre parole, un codice di morte scritto da qualcuno. Il problema non è solo etico ma anche giuridico.