NEWS

Big Data, medicina e privacy nel nuovo contesto di sviluppo tecnologico 4.0

I big data sono diventati la parola d'ordine dell'innovazione medica. Il rapido sviluppo di queste tecniche di apprendimento automatico e dell'intelligenza artificiale, in particolare, ha ripromesso di rivoluzionare la pratica medica, dall'allocazione delle risorse alla diagnosi di malattie complesse, per esempio. Ma con i big data arrivano anche grandi rischi e sfide, tra cui importanti questioni legate alla privacy dei pazienti. In primis le sfide legali ed etiche che i big data comportano per la privacy dei pazienti.

Amedeo Leone

(Nella foto: Amedeo Leone, Delegato Federprivacy nella provincia di Biella)

I big data sono pertanto arrivati in medicina ed i suoi sostenitori promettono una maggiore responsabilità, qualità, efficienza e innovazione. Più di recente, il rapido sviluppo delle tecniche di apprendimento automatico e dell'intelligenza artificiale ha promesso di trarre dai big data applicazioni ancora più utili, dall'allocazione delle risorse alla diagnosi di malattie complesse.

Ma dai big data derivano grandi rischi e sfide, tra cui importanti questioni relative alla privacy dei pazienti. Tuttavia, i tentativi di ridurre i rischi per la privacy comportano anche dei costi che devono essere considerati, sia per i pazienti attuali che per il sistema nel suo complesso.

Concentriamoci su di una preoccupazione importante (ma non l'unica) che l’utilizzo dei big data in campo medico portano con sé: la violazione della privacy. Presentiamo una teoria di base della privacy sanitaria ed esaminiamo come i problemi di privacy si manifestino in due fasi del ciclo di vita dell'applicazione dei big data all'assistenza sanitaria: la raccolta ed il conseguente utilizzo dei dati. Se è vero che una privacy troppo limitata solleva preoccupazioni, è anche vero che una privacy eccessiva in questo settore può creare problemi.

Il concetto di privacy è notoriamente difficile da definire. Una visione attualmente prevalente collega la privacy al suo contesto di utilizzo. Esistono, pertanto, delle regole contestuali sul flusso delle informazioni che dipendono dagli attori coinvolti, dal processo di accesso alle informazioni, dalla frequenza dell'accesso e dallo scopo di tale accesso. Quando queste regole contestuali vengono violate, si dice che c'è stata una violazione della privacy. Tali violazioni possono verificarsi perché l'accesso alle informazioni avviene da parte dell'attore sbagliato, perché viene violato il processo di accesso alle informazioni, perché lo scopo dell'accesso è inappropriato, ecc. Quando pensiamo alle ragioni normative per cui tali violazioni sono problematiche, possiamo dividerle (con qualche semplificazione) in due categorie: le preoccupazioni consequenzialiste e quelle deontologiche. Due avvertenze sono d'obbligo: in primo luogo, alcune violazioni della privacy sollevano problemi in entrambe le categorie. In secondo luogo, alcune preoccupazioni che discutiamo sono presenti anche per la raccolta di “small data”. I grandi dati, tuttavia, tendono ad aumentare il numero di persone colpite, la gravità degli effetti e la difficoltà per gli individui danneggiati di adottare misure preventive o di auto-aiuto.

Preoccupazioni di tipo consequenzialista -  Le preoccupazioni consequenzialiste derivano dalle conseguenze negative che colpiscono la persona la cui privacy è stata violata. Può trattarsi di conseguenze negative tangibili - ad esempio, il premio dell'assicurazione per l'assistenza a lungo termine aumenta a causa delle informazioni aggiuntive ora disponibili in seguito alla violazione della privacy, si subisce una discriminazione sul lavoro, la propria condizione di sieropositività diventa nota a chi fa parte della propria cerchia sociale, ecc.

Preoccupazioni deontologiche - Le preoccupazioni deontologiche non dipendono dal subire conseguenze negative. In questa categoria, la preoccupazione per una violazione della privacy si manifesta anche se nessuno usa le informazioni di una persona contro di lei o se la persona non viene mai a conoscenza di una violazione. Si può subire un torto da una violazione della privacy anche se non si è stati danneggiati. Ad esempio, supponiamo che un'organizzazione acceda, senza scrupoli o inavvertitamente, ai dati memorizzati sul vostro smartphone nell'ambito di una rete di dati più ampia. Dopo averli esaminati, comprese le foto di un disturbo personale imbarazzante, l'organizzazione si rende conto che i dati non hanno alcun valore e li distrugge. Non scoprirete mai che è successo. Chi esamina i vostri dati vive all'estero e non incontrerà mai voi o qualcuno che vi conosce. È difficile dire che siete stati danneggiati in senso consequenzialista, ma molti pensano che la perdita di controllo sui vostri dati, l'invasione, sia di per sé eticamente problematica anche in assenza di danni. Si tratta di una preoccupazione deontologica.

Una reazione alle violazioni della privacy sanitaria descritte, sia per quanto riguarda quella deontologica che per quanto riguarda quella consequenzialista, è quella di limitare drasticamente l'accesso ai dati dei pazienti. Soprattutto se le preoccupazioni deontologiche e consequenzialiste sono difficili da ridurre ex post, diminuire l'accesso ai dati ex ante sembra una soluzione attraente. Secondo questo approccio, forse la condivisione dei dati dovrebbe essere limitata alla quantità minima necessaria in tutti i contesti, i dati dovrebbero essere conservati solo per un periodo di tempo limitato, o i dati dovrebbero essere intenzionalmente offuscati, se i danni conseguenti sono difficili da limitare. Tuttavia, sosteniamo che i limiti all'accesso ai dati possono comportare i loro danni.

Sono grandi le sfide legali ed etiche che i big data comportano per la privacy dei pazienti

Le protezioni della privacy limitano sia l'aggregazione dei dati, sia la creazione di registri longitudinali o la raccolta di dati da fonti diverse allo stesso tempo, sia l'uso innovativo dei dati. Per fare un esempio immediato, la de-identificazione dei dati è un modo comune, ma i dati de-identificati sono molto più difficili da collegare tra loro quando un paziente si rivolge a diversi fornitori, ottiene l'assicurazione attraverso diversi pagatori nel corso del tempo o si sposta da uno Stato all'altro. La frammentarietà e la frammentazione dei dati sanitari rendono difficile l'innovazione guidata dai dati, imponendo ostacoli sia tecnologici che economici.

Alcuni approcci possono proteggere la privacy riducendo al minimo i costi dell'innovazione e dovrebbero essere perseguiti. In alcuni contesti, i ricercatori potrebbero utilizzare tecniche che prevedono la pseudonimizzazione dei dati o la privacy differenziale piuttosto che l'identificazione dei dati. I controlli sulla privacy possono garantire un uso appropriato e gli standard di sicurezza dovrebbero proteggere dall'uso non autorizzato. I titolari dei dati dovrebbero essere gestori dei dati, non intermediari privacy-agnostici. Ma in molti contesti esisterà comunque un compromesso tra privacy e innovazione.

La privacy interagisce in modo problematico anche con la segretezza. Come descritto in precedenza, ci sono molte innovazioni potenziali che possono nascere dai dati e alcune di queste possono essere molto redditizie, come ad esempio un algoritmo che seleziona con precisione i farmaci contro il cancro. Gli innovatori sono incentivati a tenere segreti i dati per mantenere un vantaggio competitivo nello sviluppo e nella diffusione di tali innovazioni di valore. Tuttavia, potremmo preferire, come società, avere accesso ai dati su cui si basano tali innovazioni: altri possono utilizzare tali dati per creare migliori predittori a partire dagli stessi dati, per aggregare i dati per trovare modelli più sottili o per convalidare e verificare l'accuratezza della ricerca dell'innovatore originale.

La segretezza giustificata dalla privacy può erodere la fiducia nelle innovazioni già opache dei big data. Quando i big data producono intuizioni sorprendenti su come fornire assistenza, i fornitori e i pazienti devono fidarsi dei risultati per metterli in pratica. Questo crea già delle sfide quando le intuizioni provengono da analisi esplicite dei big data; quando sono coinvolti algoritmi di apprendimento automatico e opachi, la fiducia può essere ancora più difficile da instaurare. Nella misura in cui i dati e gli algoritmi sono tenuti segreti sotto un velo potenzialmente ingannevole di protezione della privacy, i fornitori e i pazienti avranno ancora meno motivi per fidarsi dei risultati. Per essere sicuri, ci sono molti processi medici il cui funzionamento interno è avvolto dal segreto commerciale e molto opaco per i pazienti, ma l'attenzione dei media e la novità dei big data e dell'intelligenza artificiale possono rendere i pazienti particolarmente nervosi riguardo alla loro integrazione nelle cure.

D'altra parte, se i pazienti preoccupati per la privacy rifiutano di partecipare a un sistema basato sui dati, questi algoritmi potrebbero anche non essere sviluppati. Trovare il giusto equilibrio - proteggere la privacy in modo che i pazienti siano a proprio agio nel fornire i loro dati, ma non permettere che la privacy porti a una segretezza che riduce la convalida e la fiducia nei potenziali benefici derivanti da quei dati - sarà una sfida difficile per i sostenitori dei big data, dell'apprendimento automatico e dei sistemi sanitari di apprendimento. Inoltre, la risposta non sarà uniforme. Il futuro della privacy dei big data sarà sensibile alla fonte dei dati, al custode dei dati e al tipo di dati, nonché all'importanza della triangolazione dei dati da più fonti. Ma è importante non dare per scontato che il massimalismo della privacy sia la strada da seguire. La sottoprotezione e l'iperprotezione della privacy creano danni riconoscibili per i pazienti di oggi e di domani.

Note Autore

Amedeo Leone Amedeo Leone

Consulente della sicurezza informatica, Socio membro e Delegato provinciale per Biella di Federprivacy

Prev Il 76% dei consumatori non comprerebbe da un’azienda di cui non si fida riguardo al rispetto della privacy
Next Per i cookie wall c'è uno spiraglio: non sono illegittimi in assoluto

Privacy Day Forum 2024, il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy