La questione posta è rilevante considerando anche che intelligenza artificiale e big data sono una coppia forse inscindibile nel nuovo contesto tecno-economico.
A mio avviso la risposta è nel senso che il Responsabile della protezione dei dati debba essere sempre presente in una organizzazione privata (in quella pubblica la nomina è comunque dovuta) che si avvalga di sistemi di intelligenza artificiale che comportino trattamenti di dati personali e che utilizzino algoritmi per adottare decisioni automatizzate.
Presumibilmente i processi svolti tramite IA comporteranno trattamenti basati sul monitoraggio regolare e sistematico degli interessati su larga scala e/o anche su larga scala, di categorie particolari di dati personali (cfr anche la faq sul RPD nel settore privato n, 3 del Garante privacy).
Spunti interessanti sul ruolo del RPD nel contesto dell’IA sono forniti da alcuni paper reperibili sul portale della CEPDO (il più recente di pochi giorni fa su Generative AI: The Data Protection Implications).
Peraltro, nella eventualità che se attività svolte si limitassero a utilizzare SOLO dati che, se personali, fossero acquisiti in forma già anonimizzata e/o dati sintetici (acquisiti già come tali), la questione potrebbe anche avere una diversa risposta. Su questo aspetto rimanderei alle considerazioni svolte in un mio intervento su questo portale “Oltre il reale, oltre il GDPR: i dati ‘personali’ sintetici”). Ma si tratterebbe di situazioni più teoriche che effettive, atteso il predetto connubbio fra IA e big data e la considerazione che al crescere dei set dei dati disponibili l’anonimizzazione potrebbe non essere “resistente”.
Infine, ho provato a “sentire” poca fat Chat-GPT sulla questione ed ecco lo scambio di battute:
Domanda: ChatGPT ha un resposnabile per la protezione dei dati?
Risposta: No, ChatGPT in sé non ha un responsabile per la protezione dei dati (DPO, Data Protection Officer). Tuttavia, OpenAI, l'organizzazione dietro ChatGPT, ha politiche e pratiche per garantire la protezione dei dati e la privacy. Se hai domande o preoccupazioni specifiche sulla protezione dei dati o sulla privacy in relazione a OpenAI o ChatGPT, ti suggerisco di contattare direttamente OpenAI o di consultare la loro politica sulla privacy e altri documenti correlati sul loro sito web.
Domanda: nella inforrmativa privacy di OpenAI è scritto che c'è un data protection officer : quindi ChatGPT è supervisionata da un DPO
Risposta: Hai ragione, mi scuso per l'errore. OpenAI, l'organizzazione dietro ChatGPT, ha un Data Protection Officer (DPO) come indicato nella loro informativa sulla privacy. Pertanto, tutte le attività e i prodotti di OpenAI, inclusa ChatGPT, sono supervisionati e gestiti in conformità con le politiche e le pratiche di protezione dei dati di OpenAI. Se hai domande o preoccupazioni specifiche, puoi rivolgerti al DPO di OpenAI per ulteriori chiarimenti.
PM