NEWS

Best practice e moral suasion per l’eccellenza di micro imprese e pmi nella filiera dell’intelligenza artificiale

L’Italia e l’Europa sono da sempre un motore propulsore dell’economia e della società: una leadership ed eccellenza che possiamo riscontrare già nel primato dell’adozione dell’Artificial Intelligence Act, che coniuga la visione strategica di favorire lo sviluppo tecnologico, con la centralità della persona umana, in un bilanciamento che deve garantire nel lungo periodo, il well-being e la fiducia.

Infatti, è fuori di dubbio che l’efficacia sociale e tecnologica attesa dall’AI-Act è raggiungibile solo se tutti gli attori “navigano” compatti ed insieme, senza lasciare alcuno indietro: per tale ragione, è d’uopo una riflessione sul tessuto produttivo e sul contesto sociale, in cui la tecnologia si colloca ed interagisce come “utile strumento” (e non di certo finalità, o peggio ancora “moda” del momento), non sempre scevro da rischi.

Pertanto, un tale approccio poliedrico (le cui sfaccettature sono riguardano l’ambito tecnologico, sociale, legale, economico, etc.) si declina in una strategia multidimensionale, essenzialmente basata sulla consapevolezza (awareness) e sul Risk-Based-Approach.

Invero, l’AI-Act, inter alia, individua quattro differenti categorie di rischio (inaccettabile, elevato, limitato, minimo) con molteplici obiettivi strategici e tattici, tra cui rendere consapevole e responsabile l’impiego di tali tecnologie, sia a livello di singola entità utilizzatrice; ma, soprattutto, rafforzando la contestualizzazione di ruolo quale anello di una più ampia supply-chain, sin dalla ideazione, passando per la implementazione e l’applicazione.

Il tutto con un approccio “antropocentrico” (trasversale e continuo) di porre al centro dei benefici e la tutela della persona umana (end-users).

Sebbene la posizione del legislatore Europeo sia largamente condivisibile, probabilmente si registra uno “sbilanciamento di taratura” in favore di imprese/Entità di maggiori dimensioni: andrebbe ricordato come il tessuto produttivo dei singoli Paesi su tutto il globo (quindi non solo dell’Italia) è costituito da una molteplicità di Micro e PMI, certamente meno visibili, ma che costituiscono l’ossatura delle singole filiere, di tutti i settori.

Sul punto è da notare come queste potrebbero trovare significative difficoltà a condurre un AI-Risk-Assessment, sia in termini di competenze, organizzativi, tecnici quanto economici e finanziarie.

A fronte di questa difficoltà di “sostenibilità di sistema” (ossia, dell’insieme delle diverse filiere che interagiscono tra loro), insorge un nuovo rischio: un assolvimento burocratico (compilazione di schede e moduli) riducendo ad un inutile formalismo, la necessità di una avanzata digital-awareness, e di implementazione ed adeguamento a nuove misure integrate, tra Corporate Governance e IT.

In tal senso, vi sono (almeno) due possibili soluzioni (complementari) in una visione strategica di approccio olistico complesso.

In primis, favorendo quantomeno la predisposizione e divulgazione di una (o più) “Prassi di Riferimento” (PdR) per le micro e PMI ovvero delle best practice, che possano esemplificare e descrivere il modus operandi più idoneo ed adeguato. Questo, peraltro, è assolutamente in linea con la mission del The European AI Office istituito per sovrintendere all'applicazione ed all'attuazione della legge sull'IA negli Stati membri dell'UE nonché, inter alia, di elaborare un “codice di buone pratiche”.

In secondo luogo, attraverso una azione legislativa, regolamentare e/o di moral suasion, al fine di immettere sul mercato esclusivamente “prodotti a contenuto AI” muniti di una certificazione e di quel set di informazioni necessarie che possano descrivere (in compliance con i principi di interpretabilità, spiegabilità e di trasparenza) in dettaglio i relativi rischi, sia diretti che sistema/filiera, in ragione dei singoli settori/operatori a cui si rivolgono.

(Nella foto: il Prof. Manlio d'Agostino Panebianco, speaker al Privacy Symposium 2025)

Con tale soluzione, si ottengono due risultati: l’onere tecnico-economico viene proporzionalmente redistribuito su ciascun prodotto/servizio venduto; una significativa semplificazione del processo di AI-Risk-Assessment per il singolo utilizzatore, il quale dovrà “solamente” provvedere alla contestualizzazione nel proprio ambito.

Ciò favorirebbe anche l’integrazione tra i diversi Sistemi di Gestione Aziendale (SGA), anche ispirati o certificati ai sensi degli standard UNI/ISO, nonché la compliance e l’adempimento razionale di altre norme cogenti e vigenti che hanno un rilevante impatto sui dati personali. (A mero titolo esemplificativo, GDPR, DORA, NIS-2, etc.)

Note sull'Autore

Manlio d'Agostino Panebianco Manlio d'Agostino Panebianco

Consulente di strategie organizzative aziendali ed esperto nella prevenzione e contrasto di reati digitali. Holistic Complexity Managment, Intelligence Analyst, Data Protection Specialist. Presidente Institute for Research of Law Economical and Social Studies - Membro del Comitato Scientifico di Federprivacy - Membro del Comitato di Presidenza dell’Ente Nazionale per l’Intelligenza Artificiale (E.N.I.A.) Web: www.manliodagostino.com

Prev Trasparenza algoritmica: un obiettivo possibile o un’illusione?

Il furto d'identità con l'intelligenza artificiale

Mappa dell'Italia Puglia Molise Campania Abruzzo Marche Lazio Umbria Basilicata Toscana Emilia Romagna Calabria

Rimani aggiornato gratuitamente con la nostra newsletter settimanale
Ho letto l'Informativa Privacy