NEWS

Videosorveglianza, slides e video dell'intervento di Marco Soffientini al Privacy Day Forum 2023

Un film degli anni ’80 intitolato “Le vite degli altri” narrava la storia di una coppia che viveva nella DDR e che era spiata nella vita quotidiana dalla Stasi. Il film racconta una storia reale, come molte altre di quel periodo storico, nella quale lo spionaggio avveniva con l’uso delle tecniche più sofisticate dell’epoca, ma che oggi risultano superate rispetto alle opportunità che la scienza e la tecnica attuali ci offrono, grazie ad algoritmi di intelligenza artificiale sempre più sofisticati.

Avv. Marco Soffientini

(Nella foto:Marco Soffientini, è stato speaker al Privacy Day Forum 2023, dove ha presentato il suo nuovo manuale sulla videosorvelgianza)

Si pensi al clamore suscitati dal caso “Pegasus, un software spia di natura militare concesso in licenza ai governi da una società israeliana leader nella sorveglianza informatica, capace di hackerare i cellulari e, ancor più, all’ultima invenzione salita agli onori della cronaca consistente in una soluzione tecnologica nel settore della videosorveglianza, basata sull’intelligenza artificiale e capace di modificare le immagini, sostituendo o eliminando le persone dal contesto ripreso dalle telecamere di sorveglianza. “Toka” - così si chiama questo software di videoanalisi – è stato sviluppato, anche questo, da una società israeliana impegnata nel settore dell’intelligence.

Nel video: lo speech di Marco Soffientini al Privacy Day Forum 2023. Sotto le slides dell'intervento)

L’utilizzo di una tale tecnologia, sotto il profilo della lesione di diritti e libertà fondamentali, è potenzialmente enorme. Si pensi alle immagini delle telecamere a circuito chiuso di banche, negozi, aziende, stazioni di servizio, ecc. che riprendono aggressioni o rapine. Cosa potrebbe accadere se la persona dell’aggressore o del rapinatore venisse sostituita con quella di un’altra persona ? E’ facile smascherare un video falso? Capire se ci sono state manomissioni ? Di questi temi si occupa l’analisi forense.

L’alterazione di un video o di un audio genera un deepfake. Grazie all’utilizzo dell’intelligenza artificiale è possibile inserire una persona in un ambiente in cui non è mai stata. Gli algoritmi di deep learning lavorano al meglio se hanno a disposizione un’enorme mole di dati audio e video della persona da riprodurre (video, fotografie, registrazioni vocali). Attraverso specifiche tecniche è possibile riprodurre il viso con le diverse espressioni facciali, aggiungere la voce e sincronizzare la voce con il video.

Il proliferare di soluzioni tecnologiche di intelligenza artificiale richiederà una risposta legislativa coerente, articolata e al passo con i tempi come si prefigge la proposta di Regolamento UE

Il risultato finale può essere un falso grossolano se si hanno a disposizione pochi dati della persona target, ma anche un video estremamente realistico, qualora l’algoritmo sia stato addestrato con una mole enorme di dati. In quest’ultimo caso avrò un video difficile da smascherare, perché anche la ricerca forense delle c.d. “incoerenze statistiche” e cioè di quelle tracce invisibili, che rendono evidente la contraddittorietà statistica dei dati contenuti, risulterà ardua.

Questo significa che in un procedimento penale un consulente potrebbe non essere in grado di dire se il video è genuino o se è stato alterato, essendo in presenza di un dato digitale discutibile, dal momento che l’intelligenza artificiale si basa sul principio di probabilità. Le conseguenze giuridiche sarebbero a dir poco sconcertanti.

Al fine di evitare queste conseguenze, l’Autorità Garante è già intervenuta, irrogando anche sanzioni a chi aveva raccolto una mole impressionante di dati personali da internet. Si pensi al caso Clearview Artificial Intelligence Inc destinataria da parte dell’Autorità Garante per la protezione dei dati personali, di una sanzione da venti milioni di euro (Provv. 10 Febbraio 2022 – doc. web n. 9751362) per aver raccolto da internet miliardi di volti di persone, al fine di addestrare un algoritmo di intelligenza artificiale con lo scopo di riconoscere qualsiasi persona, o al più recente caso ChatGPT, dove alla società statunitense OpenAI è stato imposto di informare le persone dell’avvenuta probabile raccolta dei loro dati personali ai fini dell’addestramento degli algoritmi”(Provv. 11 aprile 2023 doc. web n. 9874702).

Sicuramente il proliferare di soluzioni tecnologiche di intelligenza artificiale (vedi google deepMind, TruthGpT, PizzaGPT , GigaChat, ecc) richiederà una risposta legislativa coerente, articolata e al passo con i tempi come si prefigge il Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale – COM(2021) 206 final -2021/0106 (COD).

Note sull'Autore

Marco Soffientini Marco Soffientini

Avvocato esperto di protezione dei dati personali, Data Protection Officer di Federprivacy. Autore Ipsoa, docente Unitelma Sapienza, Privacy Officer certificato TÜV Italia, Fellow Istituto Italiano Privacy.  - Twitter: @msoffientini1

Prev Dopo il Digital Services Act in vigore anche il Data Governance Act
Next Rendere la privacy 'pop' tramite percorsi di cybersecurity compliance

App di incontri e rischi sulla privacy

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy