Visualizza articoli per tag: intelligenza artificiale
Responsabilità civile e Intelligenza Artificiale: i Garanti europei scrivono alla Commissione Ue
Il Comitato europeo per la protezione dei dati personali (EDPB) ha inviato alla Commissione Europea una lettera nella quale ha rivolto alcune raccomandazioni riguardo all’Artificial Intelligence Act (AI Act) proposto recentemente dalla Commissione Ue anche richiamandosi al recente parere congiunto adottato sull’AI Act con l’EDPS.
Riconoscimento facciale, attacco hacker alla banca dati di Clearview AI
Un massiccio data breach mette in difficoltà Clearview Ai, la startup di New York specializzata in tecnologie per il riconoscimento facciale. L’intera banca dati della società, che conta su miliardi di immagini, è finita nelle mani degli hacker. Ad ammetterlo è la stessa azienda, impegnata a inviare comunicazione di quanto accaduto ai propri clienti, che ha anche annunciato di aver posto rimedio al problema. “Sfortunatamente i data breach fanno parte della vita – afferma Tor Ekeland, avvocato di Clearview AI – Finora nessuno era mai riuscito ad accedere ai nostri server. E continuiamo a lavorare per rafforzare la nostra sicurezza”.
Sempre più Intelligenza Artificiale nella Financial Technology: nuove sfide per i Data Protection Officer e i Data Digital Manager
Di recente sul Wall Street Journal è apparso un articolo di Angus Loten intitolato “Financial Technology Firms Tap AI to Reach More Borrowers”, in cui viene sottolineato come sia sempre più diffuso il ricorso a tecnologie di Intelligenza Artificiale per aiutare le fintech companies operanti nel settore della concessione di prestiti per aiutare imprese e anche singole persone, in primo luogo gli studenti, a reperire denaro da prestatori professionali e non per sostenere le loro attività di impresa o comunque orientate a implementare le capacità dei destinatari dei prestiti e quindi anche il valore delle loro attività presenti o future.
Sicurezza e responsabilità nei sistemi robotici
Assicurare una sicurezza elevata dei propri prodotti e prospettare risposte adeguate per l’eventualità che essi arrechino danni a chi li usa o a terzi costituisce una delle preoccupazioni costanti dell'industria robotica. I sistemi robotici sono sempre più pensati per essere introdotti in ambienti comuni, a stretto contatto con l'uomo e ciò aumenta, insieme alla versatilità della tecnologia, le occasioni di contatto e di impatto accidentale. Rispetto ai robot industriali - macchine che sono confinate in spazi predisposti per accoglierle da barriere fisiche e virtuali, e munite di dispositivi che ne arrestano o ne riducono il movimento nel caso in cui una persona faccia ingresso nell' area delimitata - il rischio di incidenti è contenuto.
Sicurezza economica UE: Intelligenza Artificiale e tecnologie quantistiche ritenute 'settori critici' anche per la tutela dei diritti umani
La Commissione europea ha adottato il 3 ottobre scorso una raccomandazione sui settori tecnologici critici per la sicurezza economica dell'UE, ai fini di un'ulteriore valutazione dei rischi con gli Stati membri.
Sistemi di Intelligenza Artificiale a misura di privacy
Intelligenze artificiali personalizzate, ma nel rispetto della privacy. Gli operatori economici, che offrono i propri servizi gestiti da sistemi di IA, devono osservare le disposizioni del Gdpr e, quindi, scrivere documenti interni di valutazione dell'impatto derivante dall'uso di queste tecniche.
Per leggere questo articolo devi essere registrato ed effettuare il login!
Stop a ChatGPT: davvero dobbiamo scegliere tra progresso, diritti e libertà?
La decisione del Garante per la protezione dei dati personali di avviare un’istruttoria nei confronti di OpenAI, la società che gestisce, tra gli altri servizi, ChatGPT e di ordinarle uno stop temporaneo dei trattamenti dei dati personali e la conseguente decisione della società americana di rendere temporaneamente inaccessibile il servizio dall’Italia hanno acceso un vivace dibattito sui social. Da una parte ci sono coloro che, per la verità meno numerosi, plaudono all’iniziativa e dall’altra quelli che la criticano, talvolta anche senza mezze misure, accusando il Garante di condannare l’Italia a rinunciare a uno dei più gettonati e, forse, utili ritrovati del progresso tecnologico e, così facendo, in qualche modo, a restare fuori dalle rotte del futuro.
Sud Africa: Linkedin accusato di violare la privacy degli utenti utilizzando senza consenso i loro dati per addestrare l’intelligenza artificiale
La “South African Artificial Intelligence Association” (SAAIA) ha presentato un reclamo formale all'Information Regulator accusando Linkedin di violare le leggi sulla privacy sudafricane utilizzando i dati degli utenti per addestrare i suoi modelli di AI senza il consenso esplicito.
Sull’etica le Big Tech hanno dato un pessimo esempio, ma la spinta che serve può venire dai DPO
Oltre alle opportunità dell'Intelligenza Artificiale, crescono anche le preoccupazioni per le conseguenze negative che possono derivarne da un uso sconsiderato. L’etica, potrebbe essere la soluzione, ma le Big Tech non hanno dato il buon esempio. La spinta potrebbe però partire dal basso, ovvero dai Data Protection Officer, che sono chiamati a sorvegliare per far rispettare le regole del GDPR.
Task force europea su Chat GPT: il Garante italiano ha segnato una strada fondamentale per lo sviluppo democratico dello spazio unico digitale europeo
Il 13 aprile nella riunione dello European Data Protection Board (EDBP) tenutasi a Bruxelles le Autorità garanti della UE, nell’ambito della discussione sui provvedimenti adottati dalla Autorità italiana rispetto alla Chat GPT, ai quali già hanno fatto seguito azioni specifiche assunte sullo stesso tema dalle Autorità garanti dei principali Paesi UE, hanno deciso di istituire una task force “per promuovere la cooperazione e lo scambio di informazioni su eventuali azioni di applicazione condotte alle Autorità di protezione dei dati”.