Algoritmi e cattedre: quanto lavora il docente lo decide l’intelligenza artificiale
La scuola è il cuore pulsante della nostra società, e dietro ogni aula ci sono scelte cruciali, i cui effetti si riverberano sui docenti ma anche sugli alunni. L'assegnazione delle cattedre è una di queste scelte. Ma cosa succede quando queste decisioni, invece che essere frutto di valutazioni umane, vengono affidate a un algoritmo?
(Nella foto: l'Avv. Domenico Battaglia, docente al Corso di alta formazione su privacy e gestione del personale)
La recente sentenza del Tribunale di Torino del 19 settembre 2024 accende i riflettori su un tema di grande attualità: l'utilizzo dei sistemi automatizzati per l'assegnazione delle supplenze e le conseguenze che queste tecnologie possono avere sui diritti dei lavoratori.
Al centro della vicenda c’è una docente precaria che, nell’anno scolastico 2021/2022, si è vista assegnare un contratto a tempo determinato di sole nove ore settimanali, nonostante fossero disponibili incarichi a tempo pieno. La scelta è stata compiuta da un sistema informatizzato utilizzato dal Ministero dell’Istruzione per elaborare le graduatorie e distribuire i posti. La docente ha chiesto il completamento dell'orario di lavoro e, a fronte della mancata assegnazione automatica, ha ottenuto un contratto aggiuntivo soltanto dopo alcune settimane.
Il Tribunale ha riconosciuto l’errore dell’algoritmo, rilevando che la ricorrente avrebbe avuto diritto al completamento orario già dall’inizio. Il Ministero è stato quindi condannato al risarcimento del danno economico subito dalla docente.
Il caso solleva interrogativi cruciali sulla trasparenza e l'affidabilità dei processi decisionali automatizzati e, comunque, dei sistemi di intelligenza artificiale che impattano in modo significativo sulla sfera giuridica degli interessati. Se da un lato questi sistemi offrono la possibilità di analizzare grandi quantità di dati in modo rapido ed efficiente, dall'altro pongono seri rischi per la privacy e l'equità, soprattutto quando le decisioni prese hanno un impatto diretto e significativo sulla vita delle persone.
Un elemento chiave della vicenda è che l’algoritmo non ha considerato appieno le posizioni e i diritti dei candidati, assegnando posti parziali anche quando erano disponibili cattedre intere. Ciò evidenzia una mancanza di flessibilità e di capacità di adattamento del sistema a situazioni complesse. Il risultato è stato un danno concreto per la docente e una violazione dei suoi diritti lavorativi.
L’uso di processi decisionali automatizzati nel settore scolastico, e più in generale, nella pubblica amministrazione non è di per sé problematico; anzi, può rappresentare uno strumento potente per migliorarne l’efficienza. Sul punto, la strategia europea è piuttosto chiara. Nel febbraio 2020 la Commissione Europea ha adottato il Libro bianco sull’IA, allo scopo di rendere l’Europa leader in questo settore. Il 9 marzo 2021 ha presentato un programma da 7,5 miliardi che punta a rafforzare l’autonomia dell’Unione in cinque ambiti tra cui l’IA. Il c.d. “Digital Compass” prevede, tra l’altro, che entro il 2030 il 75% delle aziende utilizzino servizi di cloud per la gestione dei dati e sistemi di IA.
E’ innegabile che le soluzioni di IA possono comportare molteplici benefici per le PA. D’altra parte, la vicenda analizzata dal Tribunale di Torino dimostra che le decisioni automatizzate non possono essere considerate infallibili. Tale consapevolezza ha spinto il Legislatore Europeo, il 25 maggio 2023, ad emanare la Decisione C(2023)3215 - Standardisation request M/5932 con la quale ha affidato agli enti di normazione europei CEN e CENELEC la redazione di norme tecniche europee a vantaggio dei sistemi di IA. Con l’AI Act sono state armonizzare le norme sull’IA con un approccio “basato sul rischio”, al fine di promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato Ue da parte di attori sia pubblici che privati. In particolare vengono stabilite regole di trasparenza armonizzate per determinati sistemi di IA. Nel contesto internazionale, nel marzo 2024 è stata sottoscritta la Dichiarazione di Trento sull’Intelligenza Artificiale che evidenzia il riconoscimento collettivo delle istituzioni, organizzazioni, sviluppatori e utenti del loro ruolo nello sviluppo responsabile e inclusivo dell’IA.
Il testo normativo offre l’opportunità per un ulteriore approfondimento. Nell’ambito del diritto amministrativo si sta facendo strada il concetto di “legalità algoritmica”, secondo cui sia nella fase istruttoria che in quella decisoria l’impiego delle nuove tecnologie deve essere condotto in conformità con i principi costituzionali e le regole del procedimento amministrativo. Tanto più che l’IA segna il passaggio dal procedimento informatico a quello algoritmico. Tanto che si inizia a distinguere tra “atto in forma elettronica” e “atto a elaborazione elettronica”.
Ecco qual è la sfida che il P.A. si troverà ad affrontare. Invero è necessario assicurare diversi gradi di trasparenza, in modo che l’Amministrazione garantisca non solo l’ostensione dell’algoritmo ma anche la logica e le modalità di funzionamento, così consentendo all’interessato non solo di sapere ma anche di comprendere.
Un problema particolare si impone per garantire il diritto al contraddittorio, che deve poter avere a oggetto non solo l’esito del calcolo algoritmico ma anche l’iter logico e la ragionevolezza dell’attività istruttoria, per cui l’Amministrazione deve fornire gli elementi utili a capire come gli strumenti algoritmici e di IA funzionano e attraverso quali passaggi si giunge a un determinato esito.
Il principio stabilito dalla legge sul procedimento secondo cui la motivazione del provvedimento deve indicare i presupposti di fatto e le ragioni di diritto della decisione deve essere applicato e rispettato, infatti, anche quando i presupposti di fatto e le ragioni di diritto sono, in effetti, inseriti nell’algoritmo. Non sarà sufficiente, dunque, ai fini della motivazione, un mero rinvio all’esito prodotto dall’applicazione dell’algoritmo, ma "dovranno essere rese chiare le ragioni che, tramite l’algoritmo, vengono poste alla base della decisione che conclude il procedimento algoritmico”.
Inoltre si profila l’ulteriore dilemma della protezione dei dati personali, tema sul quale già l’art. 17 del D.Lgs. n. 675/1996 aveva disposto che nessun atto o procedimento giudiziario o amministrativo che implichi una valutazione del comportamento umano può essere fondato unicamente su un trattamento automatizzato di dati personali volto a definire il profilo o la personalità dell’interessato.
Principio ripreso dall’art. 8 del D.Lgs. n. 51/2018, che vieta le decisioni basate unicamente su un trattamento automatizzato che producono effetti negativi nei confronti dell’interessato, basato sull’art. 22 del GDPR (Reg. UE 2016/679), che sancisce il diritto dell’interessato “di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”.
A questo proposito il Governo italiano, nel tentare di raccogliere la sfida appena menzionata, ha depositato in Senato il 20 maggio 2024 il DDL recante “Disposizioni e delega al Governo in materia di intelligenza artificiale”, che contiene i princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di IA. L’art. 13 tratta specificamente dell’uso dell’IA nella PA e afferma principi:
- la IA deve essere utilizzata … assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo (comma 1);
- l’utilizzo dell’IA avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata (comma 2).
I principi sono assolutamente condivisibili ed opportuni, appaiono di difficile applicazione soprattutto qualora vengano utilizzati algoritmi che operano secondo il machine learning non supervisionato, nei quali è sostanzialmente impossibile verificare ex post quali siano i dati impiegati, con la conseguente opacità delle inferenze operate dall’algoritmo stesso, che per questo restano prive di spiegazione (e di motivazione).
In conclusione, citando il prof. Pizzetti, si può certamente affermare che in una “epoca di trapasso di enormi proporzioni non ci si può accontentare di un approccio puramente o prevalentemente etico né può bastare limitarsi a dire che occorre un sistema regolatorio che metta l’uomo al centro, ma bisogna invece mettere lucidamente al centro la necessità di adottare regole che rendano comprensibili i programmi usati dalla (o dalle) IA, verificabili e sindacabili i dati usati per l’addestramento di queste tecnologie e per la loro attività di analisi e compatibili i sistemi adottati con la necessità di salvaguardare e rafforzare il mercato unico digitale europeo e la competizione globale”.