I limiti della sorveglianza
Colpirne uno per educarne dieci milioni. Non è il piano di un’organizzazione terroristica: si direbbe che sia piuttosto il progetto della polizia di Romford, Londra. Le forze dell’ordine stanno sperimentando una nuova tecnologia che serve a riconoscere i criminali inquadrandoli con una telecamera connessa a un’intelligenza artificiale che opera sul gigantesco insieme di dati costruito nel tempo nella megalopoli britannica, vice campione del mondo, dopo Pechino, nella sorveglianza con telecamere: i criminali eventualmente individuati sarebbero arrestati seduta stante.
Un passante rifiuta di collaborare, si copre il viso con la visiera del cappello e tenta di andarsene. Viene fermato. Segue un alterco e una multa. L’uomo non aveva precedenti. Tutto è filmato da giornalisti. La polizia si giustifica: «Il fatto che quel signore si copra il volto per evitare la nostra telecamera è un buon motivo per fermarlo». È l’attacco cruciale di un’inchiesta del Financial Times. Una tecnologia che registra il volto di tutti i cittadini e lo confronta con un database di persone ritenute pericolose genera come unico vero automatismo il sospetto nei confronti di chiunque non si adatti al sistema.
Da notare che, come riportato da Forbes, alcuni ricercatori dell’università dell’Essex avevano appena pubblicato un paper che mostrava come la polizia di Londra con i suoi sistemi di sorveglianza veda falsi positivi nell’80% dei casi. Può darsi che la tecnologia migliori: ma è accettabile in una democrazia che la polizia arresti anche una singola persona innocente esclusivamente in base al responso di un sistema automatico?
Un fatto è certo. Gli errori, con questi sistemi, sono fisiologici. Si tratta di machine learning che funziona facendo uso di varie tecniche statistiche a base di calcolo delle probabilità per le quali una certa quota di errori è minimizzata ma mai abolita. Inoltre, queste tecnologie si basano su insiemi di dati organizzati da umani secondo logiche varie. Il recentissimo, magnifico libro di Luca Rosati, “Sense-making” (UxUniversity 2019) non si occupa di intelligenza artificiale ma di organizzazione dell’informazione: ed è una guida raffinatissima alle problematiche che si incontrano nella classificazione dei dati. Dimostra che l’interpretazione umana è parte integrante di ogni organizzazione dell’informazione e che non esiste una classificazione oggettiva dell’informazione.
Sicché una lettura di questo testo aiuta anche a immaginare quello che non si deve fare con un sistema per il riconoscimento facciale, che evidentemente produce classificazioni macinando dati a loro volta classificati. Con queste macchine non si può decidere automaticamente un arresto.
Non si può interpretare una persona che rifiuti questa tecnologia come un potenziale criminale. E non si può registrare impunemente qualunque cosa faccia qualunque cittadino in attesa che i dati archiviati possano servire. Il caso Ed Bridges è destinato a lasciare il segno: il cittadino gallese combatte in tribunale contro la polizia che gli ha registrato il volto durante una manifestazione di protesta contro le armi. Sostiene che se la polizia potesse sorvegliare sistematicamente tutti, le persone non potrebbero più sentirsi libere di manifestare. Alcuni diritti umani fondamentali sono in gioco. Il progresso non si ferma. Ma l’umanità può decidere che cosa sia, il progresso.
Fonte: Nòva Il Sole 24 Ore del 4 agosto 2019 - di Luca De Biase