NEWS

Intelligenza Artificiale in azienda, come evitare i rischi e favorire l’innovazione: le raccomandazioni dell’OCSE

È sempre più frequente che i dipendenti, spinti dalla curiosità e dalla voglia di semplificare i propri compiti, installino strumenti di intelligenza artificiale generativa su browser e dispositivi aziendali. In molti casi, questi tool operano senza alcuna supervisione da parte dell’organizzazione. Il fenomeno, secondo un recente rapporto di settore, riguarda l’89% delle applicazioni di IA utilizzate in azienda: un dato che mette in luce una falla di sicurezza grande quanto un varco lasciato aperto, attraverso cui potrebbero passare informazioni riservate senza che nessuno se ne renda conto.

Sebbene lo standard ISO 42001 rappresenti un riferimento formale importante per la governance dell’IA, in questa sede si è ritenuto più opportuno ricorrere ai Principi sull’IA dell’OCSE (OECD AI Principles). Questi offrono un quadro operativo snello e universalmente condiviso per definire l’uso responsabile, trasparente e sicuro delle tecnologie di intelligenza artificiale. Inoltre, i suggerimenti forniti dai Principi OCSE risultano più facilmente declinabili in contesti di dimensioni diverse, comprese quelle organizzazioni che non dispongono delle risorse necessarie per implementare un modello ISO completo.

Uno dei punti centrali di tali principi riguarda l’attenzione alla robustezza e alla sicurezza (Principio 4). Applicato in ambito aziendale, significa garantire che i sistemi di IA non diventino varchi incontrollati per l’uscita di informazioni sensibili. Il problema più frequente emerge quando i dipendenti scaricano estensioni “miracolose” per i propri browser o utilizzano servizi generativi “gratuiti” che richiedono, in cambio, poteri di accesso critici. Se queste estensioni sono mal progettate o gestite in modo opaco, possono rilevare cookie, leggere i contenuti di navigazione o addirittura sottrarre dati strategici.

Un ulteriore aspetto messo in luce dai Principi OCSE è la trasparenza (Principio 3): quando ci si affida a un’applicazione IA, bisogna conoscere e rendere comprensibili i suoi meccanismi di funzionamento, i dati che elabora e le finalità per cui li utilizza. Ciò richiede un’adeguata formazione dei dipendenti, che devono capire cosa succede quando, per esempio, incollano parti di un documento riservato in un prompt di un chatbot. Se non si è certi delle policy di conservazione dei dati di tale applicazione, o si ignorano i permessi concessi, si rischia di diffondere informazioni riservate senza accorgersene.

Affinché l’adozione dell’IA sia coerente con i valori umani e l’equità (Principio 2), le aziende dovrebbero garantire che i diritti alla privacy e alla protezione dei dati personali siano rispettati e tutelati.

Ciò significa, tra le altre cose, evitare l’uso di account personali per finalità lavorative e, invece, predisporre un Single Sign-On (SSO) centralizzato. Se un dipendente utilizza il proprio profilo privato, l’azienda non può monitorare né controllare le informazioni scambiate; tramite SSO, invece, si assicura che ogni interazione con l’IA sia tracciabile e basata su credenziali aziendali, limitando il rischio di dispersione di dati sensibili.

Un ulteriore pilastro dei Principi sull’IA dell’OCSE è la responsabilità (Principio 5), che in pratica si traduce nella definizione di regole e procedure interne per prevenire, rilevare e gestire violazioni o anomalie. Una politica aziendale ben strutturata dovrebbe precisare il processo di auditing: controlli periodici, software di monitoraggio e report che analizzino l’uso di strumenti di IA. Se, per esempio, si scopre che un dipendente ha installato in autonomia un’estensione non autorizzata, occorre stabilire come intervenire, a chi segnalare l’evento e quali azioni correttive adottare (sospensione dell’estensione, formazione supplementare, revisione delle policy di sicurezza).

Parallelamente, è importante affrontare il principio dell’inclusività e del benessere generale (Principio 1), in quanto un’adozione corretta dell’IA può apportare benefici a tutti i reparti di un’azienda: dal miglioramento dei processi interni fino a una maggiore soddisfazione dei clienti. Tuttavia, ciò avviene solo se l’utilizzo dell’IA è equilibrato da adeguate tutele e linee guida, che rendano la tecnologia un fattore di crescita piuttosto che un pericolo per i dati e per la reputazione.

Spesso, un ostacolo alla piena applicazione di questi principi è la convinzione che tecnologie avanzate richiedano tempi lunghissimi di implementazione o investimenti insostenibili. In realtà, molti strumenti di auditing e gestione delle estensioni sono disponibili a costi contenuti e possono essere integrati gradualmente. Il vero valore risiede nell’avere un approccio metodico: stabilire una roadmap con obiettivi specifici, definire ruoli e responsabilità, indicare le scadenze per l’aggiornamento delle policy e formare il personale sui rischi e sui vantaggi dell’IA.

È ugualmente opportuno ricordare che l’IA evolve a ritmi estremamente rapidi. Ciò implica un costante aggiornamento dei protocolli di sicurezza, delle regole di utilizzo e delle competenze del personale. Un tool considerato sicuro qualche mese fa potrebbe rivelarsi inadeguato di fronte alle nuove tecniche d’attacco o agli sviluppi dei modelli di IA. La tempestività e la flessibilità nel rispondere a queste novità fanno la differenza tra un’azienda che utilizza l’intelligenza artificiale in modo responsabile e una che, invece, si espone a rischi costanti.

Il punto comune tra tutti i principi dell’OCSE è il riconoscimento del valore dell’accountability. L’azienda deve potersi assumere la responsabilità sia delle opportunità sia delle vulnerabilità aperte dall’IA. Se il dipartimento risorse umane ritiene di velocizzare certi compiti ripetitivi mediante l’uso di chatbot, la direzione deve approvare tali strumenti in modo consapevole, verificarne le misure di sicurezza e fornire un’adeguata formazione ai collaboratori. Solo in questo modo i lavoratori sapranno muoversi all’interno di confini chiari, massimizzando l’utilità dell’innovazione tecnologica e riducendo al minimo l’esposizione a incidenti o violazioni.

Per fornire una guida operativa coerente con i principi OCSE, è utile prevedere un elenco di best practical che traducono i valori in azioni concrete:

1. Mappare l’ecosistema IA interno: verificare quali estensioni e applicazioni sono installate, distinguendo tra quelle ufficiali e quelle introdotte spontaneamente dai dipendenti.
2. Definire policy chiare e condivise: stabilire i limiti di utilizzo, i ruoli e le responsabilità, le modalità di accesso (SSO) e le procedure da seguire in caso di violazione o sospetto incidente.
3. Formare e sensibilizzare: preparare corsi e contenuti ad hoc in cui si spiegano i rischi connessi all’impiego di strumenti IA non autorizzati, illustrando come maneggiare i dati in sicurezza.
4. Implementare sistemi di auditing: monitorare regolarmente le estensioni installate, i permessi concessi e gli eventuali comportamenti anomali, predisponendo un meccanismo di allarme in caso di criticità.
5. Aggiornare il piano di sicurezza: riesaminare periodicamente i protocolli, adeguandoli ai progressi tecnologici e alle nuove minacce.
6. Promuovere trasparenza e responsabilità: incentivare i dipendenti a segnalare tempestivamente problemi o dubbi, premiando comportamenti virtuosi e sanzionando eventuali abusi.
7. Predisporre un registro e un piano di emergenza: annotare i casi di sospetta violazione, stabilire chi deve essere coinvolto e come informare l’Autorità garante, se necessario.

E chissà che le best practice aziendali, suggerite dall’OCSE, non diventino presto una base indispensabile per promuovere un uso dell’IA sempre più responsabile. D’altra parte, nel momento in cui la tecnologia continua a correre, la corretta gestione di strumenti tanto potenti non può che offrire opportunità significative di crescita per tutti, a patto di non sottovalutare le precauzioni.

Note sull'Autore

Paolo Romani Paolo Romani

Consulente Privacy e Sicurezza IT presso Delmiele Digital Agency, Delegato Federprivacy nella provincia di Lodi. Professionista certificato Privacy Officer e Consulente della Privacy (CDP) con TÜV Italia.

Prev Quando l’uso improprio di tool di intelligenza artificiale al lavoro diventa un rischio sia per l’azienda che per gli stessi dipendenti
Next Uso indiscriminato di AI in azienda: la formazione dei dipendenti gioca un ruolo chiave per la compliance privacy

Il presidente di Federprivacy intervistato su Rai 4

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy