Apple scansionerà il tuo iPhone per tutelare i minori. Ma scatta l'allarme sulla privacy
La nuova mossa di Apple contro la pedopornografia è destinata a far discutere. Fermo restando il sostegno alla lotta contro gli abusi sui minori, i mezzi scelti dall'azienda di Cupertino hanno lasciato aperto più di un interrogativo sul fronte della privacy.
Secondo quanto riferito da alcune fonti statunitensi, Apple starebbe per introdurre un sistema di scansione automatico dei dispositivi come iPhone e iPad, per la ricerca di immagini di abusi su minori. A preoccupare come sempre sono i possibili abusi a danno della privacy degli utenti, ai quali non sarà chiesta alcuna autorizzazione per procedere ai controlli.
Il primo ad anticipare la mossa di Apple è stato il Financial Times, secondo il quale il programma dedicato a questi controlli prenderà il nome di neuralMatch. Verranno effettuati confronti tra le foto, presenti ad esempio su iPhone e iCloud, e quelle contenute all'interno di un database di scatti illegali fornito dal National Center for Missing & Exploited Children.
Inizialmente, la procedura riguarderà la nuvola. Ogni foto destinata ad arrivare su iCloud verrà scansionata e riceverà un contrassegno di sicurezza: ogni volta che tale giudizio sarà negativo, ovvero la foto verrà ritenuta potenzialmente illegale, l'utente riceverà una sorta di punto negativo; raggiunto un certo tot di segnalazioni, Apple segnalerà la persona alle autorità di polizia che procederà con le indagini.
Come confermato successivamente da Apple, la verifica è prevista ogni volta che una foto verrà caricata su iCloud. Tuttavia, sottolinea la società, i controlli avverranno anche sul dispositivo. Una volta terminato, il "voucher" (contenente il giudizio in merito alla foto) verrà caricato su iCloud unitamente all'immagine.
Verranno inoltre eseguiti controlli anche sulle applicazioni Apple destinate alla messaggistica. Le foto inviate e ricevute ad esempio su iMessage verranno scansionate alla ricerca di contenuti interenti abusi sessuali sui bambini.
La necessità di contrastare la circolazione di materiale pedopornografico è senza dubbio una priorità. Tuttavia la metodologia scelta da Apple ha destato non pochi dubbi tra gli accademici statunitensi. Il timore è che si tratti di un "apripista" per ulteriori e più pesanti violazioni della privacy.
A preoccupare sono soprattutto l'assenza di richieste di autorizzazione, gli utenti subiranno quindi la decisione non appena installeranno iOS 15. Stesso discorso anche per coloro che acquisteranno iPhone 13, in arrivo a metà settembre, nuovo modello dello smartphone con la Mela morsicata.
Come ha sottolineato su Twitter Matthew Green, docente e crittografo presso la John Hopkins University, questo strumento "può rappresentare un vantaggio per la ricerca di materiale pedopornografico sui telefoni delle persone, ma immaginate - ha proseguito - cosa potrebbe succedere se cadesse nelle mani di un governo autoritario?". Green ha aggiunto: "Anche se vuoi credere che Apple non permetterà che questi strumenti vengano utilizzati in maniera impropria, c'è ancora molta preoccupazione al riguardo. Questi sistemi si basano su un database di un 'groviglio di media a rischio' che tu, in quanto consumatore, non puoi verificare".
(Fonte: Il Giornale)