Il principio del mondo stabile nell’era degli algoritmi
Viviamo un periodo storico in cui si fa un gran parlare delle qualità dell’intelligenza artificiale. Forte, veloce, potente e in grado di battere l’intelligenza umana in ogni campo applicativo. Le cose stanno veramente in questi termini?
In effetti, all’indomani della sconfitta del campione di scacchi Garry Kasparov avvenuta nel 1997 ad opera del supercomputer “Deep Blue” dell’IBM e del Campione di “Go” (antico gioco da tavolo Cinese) Ke Jie nel 2017, dinanzi a 280 milioni di spettatori in Cina, ad opera del programma informatico “AlphaGo” sembrava giunta l’era della super intelligenza capace di scardinare anche la migliore mente umana. “Alpha Go” e il suo successore “Alpha zero” utilizzavano reti neurali profonde, con la differenza che “Alpha Go” imparava dai giochi giocati dagli umani, mentre “Alpha zero” non necessitava di input umani ma aveva bisogno, solo, di conoscere le regole del gioco.
In altri termini, utilizzava una rete neurale convoluzionale profonda addestrata con la tecnica dell’apprendimento per rinforzo. A queste caratteristiche va aggiunta la crescente potenza di calcolo che consentiva a Deep Blue di calcolare circa 200 milioni di mosse al secondo (contro le tre o quattro del campione russo) e ad Alpha Go di utilizzare enormi capacità di calcolo.
Tutto sembra perfetto e allora perché l’algoritmo è in grado di vincere a scacchi o a Go ma non riesce a trovare il miglior partner nella vita? Se ci pensiamo è sufficiente attribuire dei punteggi e poi scegliere il candidato migliore. Il problema è rappresentato dal fatto che nel gioco degli scacchi e del Go le regole sono fisse e restano invariate mentre negli incontri online alla ricerca del miglior partner il profilo che viene creato non corrisponde alla persona, in quanto non sarà mai in grado di cogliere le mille sfumature dell’essere umano. Questa considerazione è nota come “principio del mondo stabile”:
Gli algoritmi complessi funzionano al meglio in situazioni ben definite, stabili, in cui sono disponibili grandi quantità di dati. L’intelligenza umana, invece, si è evoluta in modo da gestire l’incertezza e prescinde dalla quantità di dati disponibili (Gerd Gigerenzer Perché l’intelligenza umana batte ancora gli algoritmi – Cortina Editore e Decoding human behavior with big data? Critical constructive input from the decision sciences: Konstantinos V. Katsikopoulos- Marc C. Canellas (2020) in wileyonlinelibrary.com/journal/aaai).
(Nella foto: l'Avv. Marco Soffientini, Data Protection Officer di Federprivacy)
“Il principio del mondo stabile chiarisce che, con l’aumento della potenza di calcolo, le macchine ben presto risolveranno tutti i problemi emersi in situazioni stabili meglio degli umani [OMISSIS] tuttavia ciò non è possibile nelle situazioni instabili [OMISSIS] grazie a questa intuizione, possiamo comprendere meglio quando algoritmi complessi alimentati da big data hanno probabilità di avere successo e quando invece gli umani sono indispensabili”. (Gerd Gigerenzer cit. pag. 57).
Queste brevi considerazioni sono fondamentali per comprendere i limiti e i punti di forza dell’intelligenza artificiale evitando esagerati entusiasmi o visioni catastrofiche in quanto: “l'intelligenza artificiale deve essere in grado di potenziare la tecnologia, ma anche di impedire di compromettere la tenuta dell'impianto normativo di tutti i diritti e libertà dell'individuo” (Il primato dell'uomo sulle macchine intelligenti - Intervento di Ginevra Cerrina Feroni - Il Messaggero 22.04.2021). In conclusione, “il problema non è l’ascesa delle macchine intelligenti, ma l’istupidimento dell’umanità” (Astra Taylor).