‘Il riconoscimento facciale viola la privacy degli utenti’: le autorità di Francia e Regno Unito contro Clearview
Le autorità europee per la protezione dei dati personali sono sempre più sul piede di guerra contro Clearview AI, la nota azienda statunitense che sviluppa un software di riconoscimento facciale usato dalle forze di polizia in diversi paesi, ma che potrebbe vedere successivamente una più ampia diffusione in altre parti del mondo.
Già ad ottobre si era mosso il Parlamento europeo che aveva adottato una risoluzione per vietare l'identificazione biometrica, rilevando in particolare le preoccupazioni sul modello adottato da Clearview, poi nelle settimane scorse il garante del Regno Unito (ICO) ha annunciato l'intenzione di imporre una maxi sanzione di circa 17 milioni di sterline a Clearview AI, e adesso è l’autorità di controllo francese (CNIL) ad annunciare di aver ordinato alla Clearview AI di interrompere la raccolta di dati personali dei soggetti residenti sul territorio francese e di cancellare tutti i dati che li riguardano esistenti nei suoi immensi archivi.
A seguito delle denunce di Privacy International e di diversi interessati, la CNIL ha infatti indagato per accertare se Clearview abbia violato il GDPR, rilevando che quest’ultima estrae immagini di volti degli utenti da siti di social media, siti web professionali, blog e video pubblicati online, e secondo la ICO attraverso la tecnica dello “scraping” Clearview avrebbe immagazzinato oltre 10 miliardi di immagini nel proprio database.
(Nella foto: Nicola Bernardi, presidente di Federprivacy)
Poiché l’algoritmo del "modello biometrico" matematico di intelligenza artificiale utilizzato da Clearview analizza ciascun volto delle persone in base alle sue caratteristiche, consentendo di abbinarlo ad altre immagini con modelli simili reperite dalle varie fonti online, a quanto pare ogni utente che pubblica una propria foto sui social o su un sito web può essere potenzialmente schedato dal software della società americana.
Nel comunicato pubblicato dalla CNIL il 16 dicembre 2021, l’autorità francese ha rimarcato che la natura “pubblicamente accessibile” delle immagini non ne autorizza il libero riutilizzo da parte di Clearview senza il consenso e la messa a conoscenza dei soggetti interessati. Infatti, l'art. 6 del GDPR permette di trattare i dati personali degli utenti solo in determinati casi, trai quali quando la persona è stata dovutamente informata e ha prestato il proprio consenso, oppure per un “legittimo interesse”, che deve però avere una fondata base giuridica, sempreché l'utilizzo di tali immagini non violi i diritti fondamentali dell’interessato.
Secondo la CNIL, Clearview ha inoltre violato gli articoli 12, 15 e 17 del Regolamento europeo, che conferiscono all'interessato il diritto di accesso e di cancellazione dei suoi dati personali.
Le preoccupazioni per i rischi sulla privacy e sulla potenziale schedatura di massa non sono però in corso solo in Europa, in quanto Clearview di recente ha già dovuto affrontare azioni legali in altri paesi come l’Australia e anche negli USA nello stato federale dell'Illinois, mentre in Italia, con la conversione del decreto capienze, è stata appena approvata la norma che prevede la “sospensione” dei trattamenti di riconoscimento facciale nei luoghi pubblici fino al 31 dicembre 2023, quando è previsto che entri in vigore una disciplina normativa che regoli dovutamente la materia, in particolare il regolamento sull’Intelligenza Artificiale che dovrebbe auspicabilmente essere introdotto dall’Unione Europea.
Intanto si attendono i prossimi sviluppi in Europa, in particolare per la maxi sanzione minacciata dal Regno Unito, e di vedere quello che scaturirà in Francia a seguito dell’ordinanza emanata dalla CNIL, che ha concesso alla società Clearview AI due mesi di tempo per cessare la raccolta delle immagini intimandole di cancellare tutti i dati dei cittadini francesi.