Il mondo in cui viviamo rimane altamente prevedibile a breve termine, ma incomprensibile nel medio e lungo periodo, perché fuori dalla portata dei nostri modelli di conoscenza. Il digitale esalta il futuro prossimo. Ci accompagna nel vivere in un eterno presente e facilita la visione a breve, attraverso algoritmi che prevedono quello che ci piacerà. Schemi lineari di analisi che, basandosi su comportamenti e preferenze, forniscono un quadro con poche azioni tra cui scegliere; ottimizzano la risposta migliore a un evento (una strada da prendere, un libro da comprare, un ristorante dove andare a cena).
Ogni giorno, i nostri oggetti digitali proiettano una piccola parte di futuro sulla nostra vita.
Ma cosa accade quando il valore precedente è uno scarso predittore? Quando la conoscenza di un evento o di un comportamento passato non riesce a delineare il passo conseguente o stimare il valore atteso?
I sistemi intelligenti producono effetti sull’ambiente in cui si applicano. La combinazione di una soluzione di Intelligenza Artificiale e di un ambiente (non meno intelligente) diventa un sistema complesso le cui conseguenze possono essere difficili da prevedere (ad esempio: l’introduzione di veicoli a guida autonoma nei movimenti delle folle). La complessità e l’incertezza sono due condizioni che portano ad abbandonare le previsioni, sostituendo la definizione di “piani” con l’analisi di “scenari” per sviluppare pensiero (teoria + narrazione). Quell’approfondire un ragionamento che aiuta ad ampliare la conoscenza.
È importante dunque integrare i modelli di analisi lineare con modelli di conoscenza abduttiva, “indiziaria”. Guidare l’esplorazione dei dati attraverso la decifrazione di segni, l’individuazione di “indizi”, che consentano di costruire ipotesi di scenari. Risalire da una grande mole di dati, a prima vista “caotici”, a ipotesi su una realtà complessa e non direttamente verificabile. Sperimentare, senza sapere in anticipo ciò che si troverà, e imparare a pensare il futuro. Non per prevedere ciò che accadrà, ma per sapere come reagire a ciò che potrebbe accadere e tentare di orientarne la direzione.
La quarta rivoluzione richiede nuovi modelli epistemologici e di analisi per comprendere il presente e pensarne l’evoluzione.
Ciò che si prospetta è un ciclo di apprendimento permanente in cui Umano e IA cooperano.
Il pensiero si forma categorizzando similarità e differenze. Da ogni esperienza estraiamo quelle regole che generano strategie utili per apprendere un’altra esperienza parzialmente o totalmente diversa dalla prima. Come ben descritto da Jerry Kaplan nel libro “Intelligenza Artificiale”, individuando correlazioni sofisticate e complesse tra varie immagini apprese, l’IA impara da sola a riconoscere i gatti. “Dopo un allenamento svolto su qualcosa come milioni e milioni di immagini, una rete neurale artificiale sviluppa la capacità di individuare schemi simili in immagini mai viste in precedenza”.
Anche nel gioco degli scacchi, ad esempio, l’Intelligenza Artificiale “apprende” giocando una partita dopo l’altra, riuscendo a migliorare se stessa giocando. L’esperienza accumulata gli consente di processare un numero minore di possibili mosse e di analizzare a fondo quelle più “promettenti”. È così che l’IA, come il cervello umano, apprende ad apprendere. Ed è così che il machine learning ci aiuterà a comprendere il funzionamento del cervello umano. Come scrive Massimo Buscema “Sviluppare una vera Intelligenza artificiale non deve servire solo a produrre nuove applicazioni e tanti soldi, ma a capire meglio chi siamo e quanto siamo strani. Forse siamo un capriccio della natura. Ma questo capriccio si è trasformato in ciò che alla natura manca: un pensiero che ha un forte bisogno di futuro.
Già il futuro. Torniamo alla questione iniziale. Perché facciamo così fatica a pensare il futuro? Perché in questo momento storico abbiamo così paura del futuro? Perché ne vediamo proiettate solo minacce? Nate Silver nel suo libro “Il segnale e il rumore: arte e scienza della previsione” descrive i risultati di alcuni studi condotti sull’uso di particolari parole nel linguaggio comune. Un’analisi, realizzata sui quotidiani dei primi anni del ventesimo secolo, evidenzia come le parole prevedibile e imprevedibile siano state usate, all’incirca, lo stesso numero di volte. La Grande Depressione e la Seconda guerra mondiale catapultarono invece la parola imprevedibile nella posizione dominante. La Grande Depressione si concretizzò nel crollo dell’economia mondiale tra le due guerre ed ebbe un effetto profondo sugli avvenimenti storici successivi (in primis l’ascesa dei regimi totalitari) e, in generale, su tutta la storia del Novecento.
Sarebbe interessante ripetere lo studio nel nostro presente. Quanto è frequente l’uso della parola “imprevedibile” negli attuali articoli di stampa e nei post sui social network?
“Non abbiamo visto arrivare la crisi, non abbiamo compreso che avrebbe causato la recessione economica e che quella recessione avrebbe provocato una crisi sociale e politica – ha detto Gurria, Segretaio Generale dell’OCSE – Non abbiamo compreso che la crisi sociale e politica avrebbe portato a crescenti disuguaglianze, a una massiccia erosione della fiducia e della credibilità delle istituzioni e quindi a un crescente populismo“.
È colpa nostra se ci siamo illusi.