NEWS

Privacy, protezione dei dati e intelligenza artificiale nelle scuole e nelle università: il (lungo) percorso dell’alfabetizzazione informatica

I dati ufficiali dell’Unione Europea, in particolare quelli dell’indice DESI (Digital Economy and Society Index), sulle digital skills e sul livello di alfabetizzazione informatica dei cittadini dell’Unione Europea, sono a dir poco preoccupanti: quasi un cittadino su due, nella fascia d’età dai 14 agli 80 anni, non ha competenze informatiche di base.

La speranza dell’Unione Europea, assai ambiziosa, è quella di chiudere il cosiddetto “decennio digitale”, nel 2030, arrivando all’85% di persone con competenze di base tecnologiche.

Questo punto di partenza, quando si parla di conoscenze digitali anche un po’ più sofisticate – si pensi all’idea di privacy, di protezione dei dati o, persino, di intelligenza artificiale, tema assai ostico tecnicamente – è uno scoglio che non è semplice da affrontare e che deve essere superato in ogni ambito: in quello aziendale, dove gli investimenti in formazione sono, in molti casi, visti come semplici e formali “adempimenti di legge”, così come nel percorso scolastico, soprattutto dopo l’accelerazione che ha avuto la società digitale nel post-pandemia.

Eppure, i tre grandi temi della privacy (intesa alla nordamericana, ossia come diritto alla riservatezza e intimità della persona), della data protection (intesa all’europea, ossa come la protezione dei dati che unisce, anche, gli aspetti di cybersecurity e l’azione delle autorità di controllo) e dell’intelligenza artificiale (diventata di grande attualità e, direi quasi, “pop” negli ultimi quattro anni) non sono solo ambiti di studio prettamente tecnici, ma sono strettamente connessi alla cultura, all’essere umano, alla società in cui vive e ai grandi valori giuridici, sociali ed etici del nostro tempo.

Prendiamo in considerazione, ad esempio, la privacy. Studiare l’importanza della privacy significa affrontare i primi problemi posti dalla stampa popolare nel Novecento americano (e la nascita dell’idea di pettegolezzo e di invasione della sfera domestica altrui) ma, anche, il riconoscimento che l’uso dei dati degli immigrati, allora in arrivo nelle grandi città, per discriminarli poneva un problema giuridico nuovo.

Privacy è, poi, il ruolo dei personaggi pubblici e della loro vita personale e intima (con una “attenuazione” della protezione per i politici e i personaggi pubblici), è l’11 settembre e la “morte della privacy”, è Facebook e Cambridge Analytica, sino ad arrivare alla profilazione attuale e a molti studiosi che vedono, ormai, tramontata questa idea e questa tutela.

L’idea di data protection in Europa, d’altro canto, si collega ai terribili fatti del “secolo breve”, a fascismo, nazismo e totalitarismo, alla Stasi e all’uso dei dati delle persone, soprattutto di quelli dei gruppi più vulnerabili, per perseguirle o sterminarle.

Proprio in Europa nascono due idee di controllo (anche dei dati) passate alla storia, quella orwelliana e quella kafkiana. È una storia che, da metà degli anni Ottanta del secolo scorso, è giunta sino a oggi e al GDPR, con un filo che non si è mai interrotto, e che mette al centro la dignità della persona, la non discriminazione, l’importanza e la centralità di un consenso libero e la necessità di limitare il trattamento dei dati dei cittadini anche da parte del potere pubblico e dell’autorità (soprattutto investigativa).

Giovanni Ziccardi, Professore di Informatica Giuridica, Università degli Studi di Milano

(Nella foto: Giovanni Ziccardi, Professore di Informatica Giuridica, Università degli Studi di Milano)

Infine, si pensi al recente regolamento sull’intelligenza artificiale, entrato in vigore il 1° agosto di quest’anno: anch’esso ha al centro la nostra storia e l’idea della tutela della persona umana, con un approccio, appunto, “antropocentrico” che si risolve in due principi fondamentali: che qualsiasi sistema o servizio di intelligenza artificiale debba rispettare la dignità, la non discriminazione e la privacy della persona, e che vi sia sempre un essere umano a supervisionare qualsiasi sistema di intelligenza artificiale per poter intervenire in caso di problemi.

Si noti, per incidens, che per la prima volta in un regolamento così importante dal punto di vista tecnologico abbiamo, nell’articolo 4, una norma specifica sull’obbligo di alfabetizzazione in tema di intelligenza artificiale, ossia la convinzione che un tema così complesso sia impossibile da regolamentare se, prima, non vi è piena consapevolezza di come funzionino delle tecnologie che, obiettivamente, non sono alla portata di tutti.

Come procedere, allora, nelle scuole di tutti i gradi al fine di colmare questo gap tecnologico e culturale e per far comprendere l’importanza di temi a noi così cari?

Fondamentale è non perdere mai i riferimenti culturali: la tecnologia non è un fenomeno a sé, ma è legata a doppio filo ai diritti delle persone e alla società nella quale le persone vivono.

Per comprendere bene gli aspetti più complessi è fondamentale collocare le tecnologie in un contesto culturale e storico ben preciso, che unisca elementi di storia, geopolitica e democrazia.

Si pensi, tanto per fare un esempio chiaro, alla tripartizione mondiale che si è creata sul tema intelligenza artificiale con Europa (attenta ai diritti delle persone), Cina (attenta al controllo) e Stati Uniti d’America (attenta all’idea di consumatore).

Per fortuna, rendere questi temi affascinanti è interessante anche grazie agli innumerevoli riferimenti letterari, culturali, cinematografici e presi da serie televisive: il bravo docente dovrà “pesare” tutti questi elementi per arrivare all’obiettivo di rendere semplici passaggi tecnici complessi e, al contempo, far comprendere come la tecnologia non sia un vezzo – o una semplice competenza, o abilità – ma come sia ormai inscindibile dalla nostra vita quotidiana.

Note Autore

Giovanni Ziccardi Giovanni Ziccardi

Professore di informatica giuridica, Università di Milano. Scrittore. Editorialista. Chitarrista. Beagle fan. Moto da motociclista lento. Amante di Praga, Matera e San Francisco. Twitter: @gziccardi

Prev Fino a che punto i ragazzi possono gestire la propria privacy?
Next Sul caso della violazione della privacy dei clienti della banca non è tutta colpa del dipendente spione

Il presidente di Federprivacy a Report Rai 3

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy