A 5 anni dal GDPR la società digitale cerca sviluppo sostenibile e privacy inclusiva
Il 25 maggio 2018 l’introduzione del Regolamento europeo sulla protezione dei dati. Da allora 5 miliardi di euro di sanzioni per violazioni della privacy nei paesi dell’UE. Cerrina Feroni: “Le norme del GDPR sono al momento l'unica difesa fra il cittadino europeo ed i Leviatani digitali”. Scorza: “L’educazione al valore dei dati e la difesa del diritto alla privacy rappresentano le migliori risorse”. Pizzetti sull’Intelligenza Artificiale: “Per gli utenti occorre conoscibilità effettiva dei soggetti operanti e presenti sulla rete da rischi che altrimenti possono diventare elevatissimi”. Bernardi: “Con ripercussioni così invasive non si può più parlare di privacy come di mero adempimento burocratico; servono soluzioni sostenibili”. Il dibattito degli esperti al CNR di Pisa per il Privacy Day Forum
Firenze, 25 maggio 2023 – Esattamente il 25 maggio di 5 anni fa entrava definitivamente in vigore il Regolamento europeo sulla protezione dei dati personali, segnando una svolta storica con l’introduzione di un’unica normativa valida per tutti i 27 paesi dell’Unione Europea. Nello stesso giorno del quinto anniversario dall’entrata in vigore del GDPR esperti e rappresentanti delle istituzioni si ritrovano oggi al CNR di Pisa per il Privacy Day Forum, dedicato quest’anno a “Protezione dei dati personali inclusiva e sviluppo sostenibile della società digitale”
Nell’ambito della sua partecipazione ai lavori, Ginevra Cerrina Feroni, Vice Presidente del Garante della protezione dei dati personali ha dichiarato:
«Dopo cinque anni il GDPR deve dimostrare di essere all'altezza degli obiettivi per i quali è stato pensato: rappresentare un modello etico e giuridico su scala globale; proteggere i diritti degli interessati europei dentro, ma anche oltre i confini dell'UE; avere un orizzonte temporale di lungo periodo, adattandosi efficacemente a nuove tecnologie dirompenti sempre più invasive. La sua forza sono proprio la flessibilità, ma da sfruttare senza perdere di rigore, ed una governance esigente. Le singole autorità di controllo nazionali ed il Comitato europeo in queste settimane hanno dimostrato di saper fronteggiare sfide importanti dando applicazione coerente, cogente e credibile alle norme del GDPR, al momento l'unica difesa fra il cittadino europeo ed i Leviatani digitali».
Se in questi cinque anni le autorità di controllo dell’UE hanno fatto la loro parte irrogando ben 5 miliardi di euro di sanzioni per violazioni della privacy, d’altra parte spesso le persone hanno ancora bisogno di acquisire maggiore consapevolezza, come ha rimarcato Guido Scorza, componente dell’Authority per la protezione dei dati personali:
«L’educazione al valore dei dati e la difesa del diritto alla privacy rappresentano le migliori risorse delle quali disponiamo per liberare la società dalle discriminazioni e diseguaglianze che l’affliggono e fare in modo che la società digitale sia migliore di quella analogica, più egalitaria, più partecipata e più inclusiva e non drammaticamente peggiore».
E che a cinque anni di distanza dall’introduzione del GDPR ci sia il rischio che uno sviluppo del digitale non coerente che possa finire per penalizzare le persone svantaggiate, lo ha messo in evidenza anche uno studio condotto da Federprivacy, il quale ha rilevato che il 98,7% dei siti web italiani non mette a disposizione i contenuti delle informative privacy sotto forma di video, audio, icone ed altre modalità agevolate per chi ha una qualche forma di disagio, come un rifugiato di guerra, una persona con un basso livello di istruzione, un ipovedente, o un adolescente.
Al centro del dibattito del Privacy Day Forum vi sono stati poi i temi dell’Intelligenza Artificiale, per cui si attende dall’UE l’approvazione di un Regolamento che avrà il delicato obiettivo di favorire l’innovazione tecnologia senza però penalizzare i diritti delle persone, come ha sottolineato Francesco Pizzetti, Presidente emerito del Garante della protezione dei dati personali:
«Non basta l’informativa sul trattamento dei dati, pure prevista del GDPR, a tutelare i diritti fondamentali delle persone nella società digitale. Occorre operare anche per garantire la “conoscibilità” effettiva dei soggetti operanti e presenti sulla rete, anche per adottare le misure psicologiche e comportamentali da parte degli utenti che li pongano al riparo da rischi che altrimenti possono diventare elevatissimi, come nel caso di chatbot che mirino a manipolare la psicologia degli interlocutori o a diffondere informazioni del tutto false e costruite proprio per manipolare gli utenti, come già la vicenda di Cambridge Analytica dimostrò alcuni anni fa.»
E se i dati personali possono essere utilizzati per influenzare le decisioni delle persone e avere su di esse dei rilevanti impatti psicologici, c’è sicuramente necessità di cambiare anche mentalità rispetto a una materia che ormai da molti anni viene spesso considerata una burocrazia inutile, come ha spiegato Nicola Bernardi, Presidente di Federprivacy:
«Quando l’operato degli algoritmi è talmente invasivo da avere ripercussioni negative sulla psiche delle persone o da condizionare le loro opinioni non si può più parlare del rispetto della normativa sulla protezione dei dati personali come di un mero adempimento burocratico, ma specialmente con la diffusione dei sistemi di intelligenza artificiale ci troviamo di fronte a una vera e propria questione sociale di portata planetaria a cui vanno trovate soluzioni sostenibili».