NEWS

Le IA nelle chatbot come le sirene di Ulisse: quali pericoli comportano per gli adolescenti, anche a livello privacy?

Dal 1966, anno della creazione e utilizzo della prima chatbot chiamata “ELIZA”, sono cambiate molte cose, ma non i pericoli che ne possono derivare. Infatti, il creatore di ELIZA, Jospeh Weizenbaum, professore del MIT di Boston, dopo aver realizzato quanto facilmente le persone rimanessero coinvolte da un semplice calcolatore in grado solamente di rispondere tramite ulteriori domande, passò il resto della propria vita, come una moderna Cassandra, a cercare di avvertire il pubblico sui potenziali pericoli di un’umanità sempre più dipendente da questa tecnologia.

Appaiono profetiche le sue parole, pubblicate in un articolo del giornale “New Age” nel 1985, dove egli affermò che “La dipendenza dai computer è solamente il più recente, ed estremo, esempio di come l’Uomo si affidi alla tecnologia per sfuggire al peso del libero arbitrio” (N.B. traduzione degli Autori).

E in quale momento della crescita di una persona, se non nell’adolescenza, si soffre di più nel fare delle scelte che potrebbero potenzialmente influenzare il resto della vita?

La facilità con cui un adolescente si approccia ad una nuova tecnologia spesso non è accompagnata dalla consapevolezza sui possibili effetti collaterali del suo utilizzo. Oramai, avendo tutti un computer tascabile, siamo a pochi click di distanza dal poter conversare con una chatbot, ovvero come da definizione della Treccani, un “Programma informatico capace di interagire vocalmente con l’utente”. Se, però, una tradizionale chatbot può facilmente rompere la parvenza di umanità, in quanto basata su rigide regole conversazionali, una chatbot basata sull’IA, detta anche “IA conversazionale”, riesce maggiormente ad ingannare l’umano, esponendolo al rischio di rivelare informazioni sensibili o che comunque ne mettono in pericolo i diritti e le libertà fondamentali.

Risulta, pertanto, facile immaginare quanto un adolescente possa, in un’ipotetica situazione di disagio sociale o psicologico che non è raro riscontrare in tale fase della vita, fare affidamento su una chatbot basata sull’IA che acconsenta a tutte le sue richieste, preferendola ai rapporti con altri esseri umani, i quali richiedono invece impegno, per essere mantenuti, e un costante bilanciamento tra i propri interessi e quelli della persona con la quale interagisce.

Ma dietro a queste chatbot basate sull’IA, chi si cela? A quali server arriveranno infine i dati personali che un adolescente immette nel sistema mentre chiacchera con una IA conversazionale? Che utilizzo ne faranno le società che trattano questi dati?

Matteo Alessandro Pagani, Delegato Federprivacy nell'area metropolitana di Milano

(Nella foto: l'Avv. Matteo Alessandro Pagani, Delegato Federprivacy nell'area metropolitana di Milano)

Vediamo assieme alcuni esempi.

Iniziamo con Nectar AI, della Nectar AI LLC, società basata negli Stati Uniti. Le possibilità di utilizzo di tale IA sono molteplici, ma la maggiore, che viene pubblicizzata, sia sul loro sito principale in lingua inglese, che tramite articoli in italiano, anche pubblicati da siti sponsorizzati da grandi aziende, è quella relativa alla creazione di una “fidanzata virtuale” con la quale l’utente può “giocare”.

Anzi, la componente sessuale viene già annunciata nella pagina principale del sito, dove si possono anche vedere numerose immagini di donne artificiali in pose suggestive. Cliccando su “Nectar Roleplay”, si viene guidati attraverso una serie di decisioni per creare una “fidanzata virtuale”. L’unico spiraglio di legalità sembra essere l’obbligo di dichiarare l’età, che di default è impostata su “18” e che non permette di scegliere un’età minore.

Tuttavia, è bene osservare che nessuna informativa privacy si frappone tra l’utente e l’iniziare una conversazione con tale chatbot basato sull’IA. Ad occhio, infatti, l’unica informativa presente sembra essere quella relativa al sito, all’interno della quale solo vagamente si fa riferimento ai servizi proposti e, soprattutto, non vi è alcun chiaro riferimento ad eventuali categorie particolari di dati personali, le quali certamente verrebbero trattate nel caso in cui un interessato conversi con una fidanzata virtuale. Infatti, è innegabile come, nel rapportarsi e nel confidarsi con una tale tipologia di chatbot, vengano trattate categorie particolari di dati personali ex art. 9 del GDPR come l’orientamento sessuale, quello politico, lo stato di salute fisica e/o psicologica.

Inoltre, la società Nectar AI LLC non sembra né aver aderito allo EU – US Data Privacy Framework né regolato in alcuna altra maniera il trasferimento di tutti questi dati personali al di fuori dell’Unione Europea.

Passando ad un altro esempio, troviamo il sito di “Aichatting”, più facilmente accessibile dagli adolescenti nostrani in quanto è anche disponibile in lingua italiana, in cui, tra le personalità delle chatbot basate sulle AI, vengono pubblicizzate, oltre a quelle relative a personaggi famosi, anche quelle relative a professionisti del settore psicologico, come, ad esempio, “Dr Lawson”, indicata nella propria presentazione come “La tua psicologa”. Cliccando su tasto “Chattare”, siamo immediatamente catapultati una stanza per la chat con tale figura professionale.

Si rileva che la modalità è la medesima per altre figure quali, ad esempio, l’astrologo, il life coach, l’interpretatore dei sogni, il consulente finanziario, nonché il consulente del lavoro, il dating coach e così via. In tutti questi casi si accede direttamente alla chat, mancando una qualunque informativa che ci metta a conoscenza delle modalità con cui i dati, anche particolari, vengono trattati. Inoltre, sia per i termini e condizioni di utilizzo che per quelli relativi ad una informativa sul trattamento dei dati personali, le rispettive pagine ci portano ad una pagina di errore “404”. Pertanto, in questo caso la cura per gli adempimenti nell’ambito della protezione dei dati personali risulta, almeno ad un primo approccio, prossima allo zero. È evidente come un minore possa, nel sentirsi perduto e impreparato di fronte alle sfide dell’adolescenza, affidarsi a questi servizi.

In conclusione, abbiamo una serie di servizi facilmente accessibili a chiunque sia in possesso di uno smartphone o di un computer e di una connessione ad Internet, i quali possono, grazie all’IA conversazionale, risultare molto convincenti per una persona, soprattutto se minore, vulnerabile e in una fase critica della crescita, nel fornire i propri dati personali, anche particolari, come l’orientamento sessuale e lo stato di salute psicofisica.

Alla luce di tali informazioni è bene domandarsi, anche a fronte di quella che sembra essere una scarsa attenzione per la compliance privacy, che fine fanno questi dati personali? Cosa succede se una di queste società viene venduta e i suoi database iniziano a passare di mano in mano finendo magari in possesso a dei malintenzionati?

Immaginiamo per un secondo di trovarci nei panni di una persona che, magari qualche anno prima, da adolescente fragile, ha fornito una serie di propri dati personali particolari ad una chatbot basata sull’IA che prometteva di essere sua amica e confidente. E se poi questi dati personali vengono coinvolti in una violazione o vengono ceduti attraverso la vendita della società o dei suoi asset, quale tutela avrà questa persona? Cosa potrebbe succedere se i malintenzionati iniziassero a ricattare tale persona? Ed è da notare che non abbiamo neanche menzionato le ulteriori criticità che potrebbero sorgere a seguito dell’applicazione dell’Artificial Intelligence Act europeo a questa situazione.

Dal 1966 a oggi molte cose sono cambiate, e tra di esse possiamo fortunatamente contare anche la maggiore sensibilità verso la protezione dei dati personali. Le attività svolte dalle società che forniscono servizi di chatbot basate sull’IA non sono di per sé negative, ma richiedono un’attenzione particolarmente intesa rispetto alla salvaguardia dei dati personali degli interessati che usufruiscono di tali servizi.

Un buon consulente privacy sa quanto sia importante, per una società che investe od opera anche nel campo dell’IA, evitare che il lato “pioneristico” queste attività si imponga prepotentemente sul rispetto della normativa privacy e degli esseri umani che essa tutela, inclusi quei soggetti fragili come gli adolescenti, i quali potrebbero vedersi gravemente danneggiati da una inadeguata gestione del sistema privacy applicato a queste nuove ed incredibilmente potenti tecnologie.

Note Autore

Matteo Alessandro Pagani Matteo Alessandro Pagani

Avvocato, Socio Fondatore PLS Legal, Delegato Federprivacy nell'area metropolitana di Milano - Web: www.plslegal.eu

Prev Telegram e l’arresto di Durov: il «conflitto» tra privacy e sicurezza
Next Giovani e mondo del lavoro: la privacy e i big data nella top ten delle professioni del futuro

Privacy Day Forum 2024, il trailer della giornata

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy