NEWS

Intelligenza artificiale e giornalismo: rischi e contromisure

Con l’avvento dell’intelligenza artificiale generativa la necessità di un’informazione corretta e soprattutto veritiera si è imposta in tutta la sua evidenza. I rischi derivanti dall’introduzione e dall’uso dei Large Language Models, in grado di comprendere il linguaggio umano e generare contenuti, sono ormai sotto gli occhi di tutti.

Le ben note “allucinazioni”, i risultati di errate risposte alle nostre domande su persone o eventi, si basano su informazioni spesso non aggiornate, incomplete, quando non palesemente fasulle. Va ricordato che spesso i database sui quali si addestrano i chatbot scontano ritardi. E così i bias, le distorsioni cognitive che inficiano la comprensione reale di una situazione economica o di un fenomeno sociale derivano dall’utilizzo di statistiche formatesi su serie storiche e dati accumulati spesso sulla base di pregiudizi o discriminazioni: l’esempio delle sentenze Usa che vedono condannati in maggioranza afroamericani è ormai diventato paradigmatico.

Per quanto i vari ChatGpt, Llama e Gemini e altri lavorino incessantemente al miglioramento dei sistemi di deep learning e alla rimozione degli errori, i problemi per il momento restano.

Stessa questione di validità pongono le fonti: il web scraping utilizzato da ChatGpt & Co pesca ovunque, in tutto ciò che gira in rete, siano siti, social, piattaforme di vario tipo. In pochi secondi il chatbot formula una risposta, la più adatta sulla base delle informazioni a sua disposizione e di un calcolo probabilistico, alla interrogazione (il prompt) che abbiamo rivolto, senza riuscire a valutare la veridicità o meno di quello che elabora.

I due interventi messi in atto dal Garante Privacy, nei confronti di ChatGpt prima e di recente nei confronti di DeepSeek, hanno posto con chiarezza la questione della trasparenza degli algoritmi e della qualità dei dati di addestramento.

L’azione del Garante punta a due obiettivi basilari. Da una parte, assicurare agli utenti di sapere con certezza a quali fini vengono utilizzati i loro dati personali al momento in cui utilizzano l’AI generativa e pongono domande; dall’altra, assicurare agli interessati, le persone cioè oggetto della domanda, di poter controllare la veridicità di quanto li riguarda, eventualmente poter correggere le inesattezze, ma anche di poter negare che i loro dati personali vengano utilizzati nelle risposte: il cosiddetto diritto di opposizione, riconosciuto dalla normativa europea.

Esistono però problematiche ancor più pericolose. L’immissione nel web di informazioni ed elementi volutamente errati o manipolati nei data set di addestramento di chatbot e algoritmi possono causare danni gravissimi alle persone, così come a soggetti pubblici e privati. È come immettere benzina in un motore diesel.

I rischi di questo vero e proprio “avvelenamento dei pozzi” è evidente. Stesso discorso vale per la formazione su basi errate di “profili” di persone, consumatori, utenti o la riproposizione di dati di natura sensibile o giudiziari che avrebbero dovuto rimanere riservati. Vanno guardate con estrema attenzione, a questo proposito, l’attività di Clearview, società statunitense che ha costruito, grazie ad un metodico scraping sulla rete, un gigantesco archivio di immagini facciali utilizzato, spesso acriticamente, dalle forze di polizia per motivi di indagine o di ordine pubblico; o quella di Palantir, un colosso della data analytics che elabora e categorizza dati forniti anche dalle istituzioni per il controllo dell’immigrazione o per funzioni legate alla difesa nazionale e ha sviluppato prodotti per l’antiterrorismo, la frode, lo spionaggio, anche industriale, per le emergenze naturali o in grado di rispondere ad ogni possibile richiesta di controllo, prevenzione e sorveglianza di massa.

Ultima, ma non da ultima, questione da considerare, la possibilità che si determinino inferenze errate su dati tuttavia corretti. È dunque sulla qualità dei dati su cui occorre oggi concentrare gli sforzi di tutti. E lo è innanzitutto per quanti lavorano nel mondo dell’informazione e contribuiscono alla formazione dell’opinione pubblica e alla conoscenza dei fatti. Garantire un’informazione di qualità e far fronte alla disinformazione sempre più e incontrollabile, dalle fake news ai micidiali deep fake, necessità di azioni urgenti.

Una soluzione per le aziende editoriali potrebbe essere quella di fissare, in accordo con Fieg e Ordine nazionale dei giornalisti, regole al proprio interno: delle vere e proprie linee guida che definiscano standard di affidabilità delle notizie e richiedano ai giornalisti, nella stesura degli articoli, il rispetto dei principi di accuratezza e completezza. Dovrà naturalmente essere sviluppato e implementato il lavoro di debunking e di fact checking, per la verifica di fonti e notizie, e un sempre più routinario ricorso a tecniche, come il grounding, per ridurre le allucinazioni dell’AI. Altro strumento utile potrebbe essere la costruzione di data base ancorati a fonti certificate.

Lato utenti, appare quanto mai indispensabile lavorare sull’educazione digitale per costruire un lettore consapevole dei possibili pericoli, dando quanta maggiore accessibilità ad informazioni di supporto e confronto attraverso link o, come sta già avvenendo, tramite etichette che indichino la matrice “artificiale” dei prodotti editoriali.

Tutto ciò consentirebbe al mondo del giornalismo di rafforzare il proprio ruolo di fonte credibile e di (ri)conquistare la fiducia da parte dei lettori, la cui dieta mediatica risulta sempre più costituita dai social media.

Ma c’è un aspetto davvero imprescindibile per chi fa informazione per raggiungere questi obiettivi ed è il rispetto dei doveri contenuti nel Codice deontologico delle giornaliste e dei giornalisti che entrerà in vigore il 1º giugno di quest’anno, che rinsalda i principi etici sanciti dal Codice privacy e dalle Regole deontologiche in materia di protezione dei dati personali.

Se con l’avvento di Internet e dei motori di ricerca un’informazione errata, inesatta o decisamente falsa contenuta in un articolo poteva causare danni alle persone a causa della sua persistenza e reperibilità, potenzialmente perenne, sulla rete (tanto da doversi introdurre il diritto all’oblio), con l’AI generativa i rischi si sono amplificati.

Davanti a risposte articolate e coerenti come quelle fornite dai chatbot risulta molto più difficile distinguere dati fasulli o errati o frutto di manipolazione, così come risulta decisamente più complicato esercitare il diritto all’oblio non conoscendo le fonti da cui gli elementi inseriti nella risposta sono stati raccolti.

In quest’epoca di cambiamenti senza precedenti, quello che si richiede al giornalista è quindi un “in più” di responsabilità, una sempre maggiore capacità, anche tecnologica, di vagliare la correttezza e la veridicità delle informazioni da divulgare. E una competenza anche tecnologica nel seguire un mondo in vorticoso cambiamento.

Note sull'Autore

Baldo Meo Baldo Meo

Giornalista, già Direttore del servizio relazioni esterne e media del Garante per la protezione dei dati personali.

Prev I rischi cyber per la salute e la privacy delle tecnologie mediche cervello-computer
Next NIS2 e GDPR: due normative differenti che richiedono sinergia tra esperti IT e consulenti legali

Il presidente di Federprivacy a Report Rai 3

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy