IA, cinque principi per un modello di sviluppo etico

Riconosciamo che una tecnologia così potente solleva domande altrettanto potenti sul suo utilizzo.” (Sundar Pichai, Ceo Google)

Il fatto che l’intelligenza artificiale avrà un impatto importante sulla società non è più in discussione. Josh Cowls e Luciano Floridi hanno appena pubblicato sul tema un interessante paper in cui esplorano i cinque principi etici che dovrebbero guidare lo sviluppo dell’ IA*.

Cinque principi: i primi quattro basati sui principi di bioetica esistenti e l’ultimo, il quinto, aggiuntivo e specifico dell’IA.

  1. Principio di Beneficenza (“fare solo bene”)

Creare una tecnologia di IA che sia benefica per l’umanità e che metta al centro la promozione del benessere delle persone e del pianeta. “Dignità umana”, “bene comune”, “sostenibilità”: le parole chiave di riferimento.

  1. Principio di Non Maleficenza (“non nuocere”)

Prevenire le violazioni della privacy personale; evitare l’uso improprio delle tecnologie IA (corsa agli armamenti); essere cauti rispetto alle future capacità dell’intelligenza artificiale (auto-miglioramento ricorsivo). Prevenire dunque i danni che sorgono sia dall’intenzione degli esseri umani che dal comportamento delle macchine.

  1. Principio di Autonomia (“il potere di decidere”)

Quando adottiamo l’IA e il suo agire intelligente, cediamo volontariamente parte del nostro potere decisionale alle macchine. Pertanto, affermare il principio di autonomia nel contesto dell’IA significa raggiungere un equilibrio tra il potere decisionale che manteniamo per noi stessi e quello che deleghiamo agli agenti artificiali. Non solo dovrebbe essere promossa l’autonomia degli umani, ma anche l’autonomia delle macchine dovrebbe essere ristretta e resa intrinsecamente reversibile.

Il punto centrale è proteggere il valore intrinseco della scelta umana – almeno per decisioni significative – e, come corollario, contenere il rischio di delegare troppo alle macchine. Gli umani dovrebbero mantenere il potere di decidere quali decisioni prendere, esercitando la libertà di scegliere dove necessario, e cedendola nei casi in cui altri interessi, come l’efficienza, superino la perdita del controllo sul processo decisionale.

  1. Principio di Giustizia (“prosperità e solidarietà”)

La giustizia si riferisce all’usare l’intelligenza artificiale per correggere errori del passato, eliminando la discriminazione; assicurare che l’uso dell’IA crei benefici condivisi (o almeno condivisibili); prevenire la creazione di nuovi danni, come l’indebolimento delle strutture sociali esistenti.

  1. Principio della Esplicabilità (“intelligibilità e responsabilità”)

Affinché l’IA sia benefica e non malata, dobbiamo essere in grado di comprendere il bene o il danno che sta effettivamente facendo alla società e in quali modi; perché l’IA possa promuovere e non limitare l’autonomia umana, la nostra “decisione su chi dovrebbe decidere” deve essere informata dalla conoscenza di come l’IA agirà al posto nostro; e per fare in modo che l’intelligenza artificiale sia giusta, dobbiamo garantire che la tecnologia, compresi i suoi sviluppatori umani, sia ritenuta responsabile in caso di un risultato negativo serio, che richiederebbe a sua volta una certa comprensione del perché di questo risultato.

 

Quello offerto dagli autori è un quadro all’interno del quale poter fare in futuro raccomandazioni più concrete per la legge, le politiche e le migliori pratiche. L’Italia non può rimanere fuori da questo dibattito, non può non contribuire alla riflessione. L’agenda politica italiana, le imprese, le università devono mettere l’innovazione al centro dei loro interessi e priorità. Si tratta di futuro.

 

*Nota metodologica:  i cinque principi sono stati individuati a partire dall’analisi dei seguenti documenti: the Asilomar AI Principles; the Montréal Declaration for Responsible AI; the General Principles offered in the second version of Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems; the Ethical Principles offered in the Statement on Artificial Intelligence, Robotics and ‘Autonomous’ Systems; the “five overarching principles for an AI code”offered in paragraph 415 of the UK House of Lords Artificial Intelligence Committee’s report.