NEWS

Norvegia: un uomo scopre che ChatGPT lo accusa di avere ucciso due suoi figli e denuncia OpenAI

OpenAI sotto i riflettori in Norvegia a causa di una denuncia per violazione della privacy legata alle famigerate "allucinazioni" di ChatGPT, ovvero la tendenza del modello a inventare informazioni errate. Il caso, supportato dall'organizzazione per i diritti digitali noyb, riguarda un uomo norvegese che ha scoperto che ChatGPT lo aveva erroneamente accusato di un crimine atroce: l'omicidio dei suoi due figli e il tentato omicidio del terzo.

Questo episodio solleva gravi questioni sulla responsabilità legale di OpenAI e sull'applicabilità del GDPR ai modelli di intelligenza artificiale generativa. Le conseguenze per l'azienda potrebbero essere sanzioni pesanti e l'obbligo di modificare radicalmente il funzionamento di ChatGPT.

Secondo quanto riportato da noyb, ChatGPT ha fornito informazioni completamente false sull'uomo, sostenendo che fosse stato condannato a 21 anni di carcere per aver ucciso i suoi figli. Anche se la chatbot abbia riportato alcuni dettagli corretti, come il nome dell'uomo, il numero e il genere dei suoi figli e la sua città di residenza, il resto della narrazione è stato completamente inventato.

Il problema non è nuovo: sono già emersi diversi casi in cui ChatGPT ha fornito informazioni errate e potenzialmente dannose su individui, incluso un giornalista tedesco accusato di abusi su minori e un politico australiano coinvolto in uno scandalo di corruzione inesistente.

"Il GDPR è chiaro: i dati personali devono essere accurati," ha dichiarato Joakim Söderberg, avvocato specializzato in protezione dei dati presso noyb. "Se non lo sono, gli utenti hanno il diritto di correggerli. Mostrare un semplice disclaimer che avverte che ChatGPT può sbagliare non è sufficiente. Non si possono diffondere informazioni false e poi aggiungere una nota che dice che potrebbero non essere vere."

Ai sensi del GDPR, OpenAI, in quanto sviluppatore di ChatGPT, è legalmente obbligata a garantire che i dati personali trattati dall'intelligenza artificiale siano esatti e aggiornati. Il fatto che l'azienda non offra agli utenti la possibilità di correggere le informazioni sbagliate generate dal modello è una potenziale violazione del regolamento.

Se le autorità per la protezione dei dati confermassero la violazione, OpenAI potrebbe affrontare multe fino al 4% del fatturato globale, che potrebbero quindi ammontare a diverse centinaia di milioni di euro.

Fonte: noyb.eu

Note sull'Autore

Federprivacy Federprivacy

Federprivacy è la principale associazione di riferimento in Italia dei professionisti della privacy e della protezione dei dati, iscritta presso il Ministero delle Imprese e del Made in Italy (MISE) ai sensi della Legge 4/2013. Email: [email protected] 

Prev Russia: telecamere 'intelligenti' a San Pietroburgo in grado di distinguere i passanti per etnia

Camera dei Deputati: Artificial intelligence e sostenibilità

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy