Taci! Il nemico ti ascolta
Una ricerca della Ruhr-Universität Bochum e Max Planck Institute for Security and Privacy ha messo in evidenza i pericoli associati agli assistenti vocali (AV) tipo Alexa, Siri, Google Assist che oramai sono di ampia diffusione: Amazon nel 2019 ha dichiarato di aver venduto più di 100 milioni di dispositivi che integrano Alexa.
Il metodo di “innesco” di questi strumenti è basato su espressioni che ne determinano l’operatività (es. “Alexa”, “Hey Siri” cosiddette “wake words”): l’assistente vocale, in stato di pausa, rimane all’ascolto di suoni che richiamano le wake words, quando le riconoscono, si attivano, registrano le parole e trasmettono il contenuto ad un server in cloud per processarle, una sorta di consenso dell’utente al relativo trattamento (molto dubbio che esso sia “informato” e “libero”).
(Nella foto: l'Avv. Rosario Imperiali)
La ricerca ha scoperto che le wake words sono condizionate da “falsi positivi”: così come “cocaine noodles” può essere scambiato foneticamente per “Ok Google”, ve ne sarebbero centinaia che azionano la registrazione all’insaputa dell’utente.
Possono ipotizzarsi contromisure ma la protezione dell’individuo sarà una sfida persa in partenza se i regolatori continueranno a rincorrere la tecnologia anziché imporre standard privacy friendly per i prodotti.