Nel 2024, la metà del mondo – inclusi India e Stati Uniti – andrà alle urne. Mai come in questo momento, il futuro della democrazia sembra intrecciarsi con le dinamiche delle piattaforme digitali e l’avvento di tecnologie avanzate, come l’Intelligenza Artificiale generativa.
L’IA generativa, fondata su parole e linguaggio, ha un potenziale enorme nel ridefinire le nostre culture e, di conseguenza, le nostre democrazie. Il linguaggio, infatti, è al cuore della partecipazione politica: le istituzioni democratiche, come il Parlamento, si fondano sul dibattito, sulla discussione pubblica, sulla capacità di esprimere idee e deliberare. L’arrivo delle macchine conversazionali, come ChatGPT che genera oltre 100 miliardi di parole al giorno, ha il potenziale per avere un impatto di vasta portata sulla democrazia in tutto il mondo.
Disinformazione, polarizzazione e persuasione automatizzata. Uno recente studio ha evidenziato come i messaggi generati da modelli di IA come GPT-4 risultino spesso più persuasivi rispetto a quelli scritti da consulenti politici. E allora, quali saranno le conseguenze per la democrazia se tali tecnologie inizieranno a influenzare le elezioni, le opinioni pubbliche e le nostre stesse decisioni?
Le minacce non sono poche. L’IA potrebbe:
- ridurre la responsabilità umana,
- marginalizzare le minoranze,
- potenziare la sorveglianza ingiusta o altre forme di oppressione sostenuta dallo Stato,
- e alterare l’equilibrio di potere e ricchezza, minando gli ideali di libertà e uguaglianza su cui si basa il processo democratico.
Tuttavia, l’IA potrebbe anche migliorare l’esperienza democratica:
- assimilando prospettive diverse
- aprendo nuove possibilità di partecipazione politica,
- e alleviando il senso di esclusione che molti cittadini avvertono.
Dipende da noi. Il futuro dell’IA dipende dagli obiettivi che ci diamo.
Se lo sviluppo dell’Intelligenza Artificiale rimane concentrato nelle mani di poche Big Tech private, chi è che fisserà gli obiettivi di sviluppo dell’AI? Il mercato? Per quale finalità?
Ma se invece pensiamo all’IA per le persone, per tentare di trovare soluzioni alle grandi sfide dell’umanità – dalla salute pubblica alla sostenibilità ambientale – la prospettiva cambia. Ad esempio utilizzare il potenziale dei dati sanitari e dell’IA per combattere il cancro, risolvere l’antibiotico resistenza o promuovere l’invecchiamento attivo. Ma chi se ne dovrà occupare? E come raccogliere e condividere questi dati in modo sicuro ed etico?
Le grandi aziende tecnologiche sembrano già molto attente al mondo della salute. Nel 2019, Tim Cook dichiarava “Il più grande contributo di Apple al genere umano sarà nel campo della salute“. E Microsoft ha annunciato, per i prossimi due anni, investimenti importanti in Italia (4,3 miliardi) e in Europa, con un focus sulla salute digitale. Con quali finalità?
C’è spazio per un approccio di sostenibilità collettiva?
L’Europa sottolinea la necessità di una strategia unica e di un intervento di governance, varando regolamenti come l’AI Act, il Data Act e lo European Health Data Space (EHDS). Quest’ultimo, in particolare, punta a creare uno spazio europeo dei dati sanitari che possa:
- Consentire ai cittadini di assumere il controllo dei propri dati sanitari (con un accesso immediato e semplice all’interno dell’Unione Europea)
- Facilitare lo scambio di dati per la fornitura di assistenza sanitaria in tutta l’UE (sostenendo la libera circolazione e garantendo che i dati sanitari seguano le persone) – dati primari
- Stabilire regole rigorose per l’uso di dati sanitari resi anonimi o pseudonimizzati per la ricerca, l’innovazione e l’elaborazione delle politiche – dati secondari
A questo punto la domanda etica che ci poniamo è: se possiamo utilizzare dati e sistemi di IA per migliorare la salute delle persone, perché non farlo? Ovviamente entro regole chiare e tutelando la privacy e i diritti umani fondamentali.
La proposta di regolamento dell’’EHDS è stata adottata dal Parlamento e dal Consiglio europeo nell’aprile 2024 e si attende ora la pubblicazione in Gazzetta ufficiale. Ma la vera sfida sarà conquistare la fiducia dei cittadini. Come reagiranno? Quanti saranno disposti a condividere i propri dati sanitari per l’innovazione e la ricerca scientifica?
Anche sui dati sanitari, così come sta avvenendo per l’intelligenza artificiale con l’AI PACT, sarà importante creare una comunità collaborativa con imprese, mondo accademico e associazioni, per condividere esperienze e conoscenze, e diffondere una migliore comprensione del regolamento e dell’attuazione dell’EHDS. A tutela dei cittadini in un processo di co-costruzione e sostenibilità collettiva.
Fiducia, governance e narrazioni: il ruolo centrale della trasparenza
A conclusione del G7 dei Garanti Privacy “La privacy nell’era dei dati” è stata sottolineata una parola TRUST: sviluppare una AI affidabile di cui i cittadini possano avere fiducia. “Una IA che sia amplificatore di diritti e non di diseguaglianze, senza accentramenti di potere pubblici o privati.”, ha sottolineato il Presidente dell’Autorità Garante, Pasquale Stanzione
E qui si apre una riflessione importante.
E’ fondamentale garantire governance e regole in modo da tutelare i cittadini e, al tempo stesso, aiutare i cittadini a superare incertezze e diffidenze.
Abbiamo giustamente insegnato alle persone a tutelare la propria privacy nella condivisione dei propri dati sulle piattaforme digitali. “Se il servizio è gratis, allora il prodotto sei tu”.
Ma qui dovremmo essere su un altro piano, per un altro obiettivo, che è quello della Salute Pubblica, del condividere i dati per la sostenibilità collettiva, per il bene comune. Però, i cittadini dovranno essere garantiti rispetto all’integrità democratica dello Stato e all’uso etico del dato.
Il dato sanitario è un dato complesso. E’ un bene individuale, giustamente riservato, ma rappresenta anche un bene di sostenibilità collettiva in caso di pandemie o per aiutarci a trovare nuove diagnosi, nuovi trattamenti per cancro, cronicità, malattie rare.
Quale futuro per l’umanità?
Concludo con una riflessione ispirata dal romanzo Macchine come me di Ian McEwan. Nel racconto, 25 rari e costosissimi robot umanoidi entrano a far parte della vita delle persone che li hanno acquistati: diventano i loro factotum, amici, e anche innamorati. Ma a un certo punto, uno alla volta, i robot iniziano a suicidarsi. Perchè?
Perchè rimangono senza speranza di fronte al male del mondo.
Non riescono a comprendere l’assurdità e la crudeltà della condizione umana: la violenza, le guerre, l’ingiustizia. Di fronte alla malvagità umana e all’apparente mancanza di speranza, si autodistruggono.
“Abbiamo creato una macchina intelligente e consapevole e l’abbiamo gettata nel nostro mondo imperfetto. Noi ci siamo abituati…”
Non ci fidiamo delle macchine, pensiamo che le possibilità offerte dall’apprendimento automatico porteranno a macchine autonome che… prenderanno il potere e si sostituiranno al genere umano.
Credo che la questione non sia persone contro macchine, ma ripensare i valori del nostro essere umani.
©Relazione al Convegno AiSDeT “La cultura della sicurezza e della privacy nell’ecosistema digitale della sanità”, del 14 ottobre 2024, presso l’Aula degli Atti Parlamentari del Senato della Repubblica.
©Foto di Roberto Cotroneo