Rispetto della dignità umana, della sicurezza, della trasparenza e dell’eticità per i sistemi di intelligenza artificiale. Sono questi i principi di riferimento indicati nelle Linee Guida pubblicate con Decreto della Pontificia Commissione per lo Stato della Città del Vaticano.
In vigore dal 1° gennaio 2025, il Decreto si compone di tre capitoli (Disposizioni generali, Principi generali e Disposizioni finali) e quindici articoli. Con una premessa che chiarisce da subito come “la scienza e la tecnologia sono un prodotto della creatività umana intesa come dono di Dio che hanno posto rimedio ad innumerevoli mali che affliggevano e limitavano l’essere umano”. Ribadendo, altresì, che “i progressi tecnico – scientifici, al tempo stesso, possono rappresentare un rischio per la sopravvivenza e un pericolo per il bene comune “. Dove per rischio si intende l’utilizzo dei sistemi di intelligenza artificiale che espongono ad un’elevata probabilità del verificarsi di un danno.
Per dirlo con p. Paolo Benanti, “l’intelligenza artificiale non è solo una tecnologia ma una nuova frontiera”. Dove per sistema di intelligenza artificiale si intende un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dai dati analizzati che riceve come generare risposte quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. Tenendo conto, come richiama il Decreto, che i modelli di intelligenza artificiale sono sistemi di software e hardware che, attraverso l’utilizzo di tecniche di apprendimento automatico e la capacità di identificare strutture ricorrenti in collezioni di dati, sono in grado di eseguire compiti e attività tipicamente associati all’intelligenza umana.
Ecco la necessità di “garantire eticità nell’orientamento delle scelte” richiamando principi imprescindibili quali, in particolare, dignità umana, sicurezza e trasparenza per un utilizzo etico, responsabile e controllato dell’intelligenza artificiale.
Ciò non significa certo una limitazione o un impedimento, piuttosto una guida per “attività di ricerca, sperimentazione e sviluppo” orientate al bene comune. È la visione che pone al centro la persona (umanocentrismo) rispetto all’assolutizzazione della tecnica (tecnocentrismo). Senza mai sostituire l’uomo, rispettando la sua autonomia. Al servizio della persona senza dominarla, in modo che le decisioni ultime spettino sempre all’uomo.
È l’orizzonte della cooperazione e non dello strapotere tecnocratico. Un umanesimo digitale sostanziale che, richiamando Julian Nida-Rumelin e Nathalie Weidenfeld, riconosce le peculiarità dell’essere umano e delle sue capacità, servendosi delle tecnologie digitali per ampliarle non per restringerle.
Ciò significa altri e non secondari principi fondamentali come la non discriminazione. Risulta evidente, come già ampiamente rilevato dalla cronaca e dalla copiosa letteratura specialistica, che il rischio di creare discriminazioni o disuguaglianze sociali è già insito nella selezione dei dati che alimentano i sistemi di intelligenza artificiale. Senza tralasciare, poi, la profilazione delle persone con la “manipolazione subliminale”.
Il Decreto, nell’articolo dedicato ai principi in materia di informazione e trattamento dei dati (ovvero qualsiasi informazione, atto o fatto rappresentati in forma digitale) ribadisce, che “la circolazione delle informazioni, l’elaborazione del dato e il trattamento dei dati personali mediante sistemi e modelli di intelligenza artificiale non deve essere finalizzato a produrre effetti discriminatori, a ledere la dignità umana e a danneggiare l’immagine dello Stato della Città del Vaticano e della Chiesa cattolica”.
È un tema, questo, di particolare rilievo e criticità. Il dominio degli algoritmi (algocrazia) può aprire a un nuovo paradigma: il paternalismo digitale. Un insieme di pratiche e interventi che limitano o indirizzano scelte e comportamenti delle persone. Fino a rappresentarsi come una forma di controllo sociale che, favorendo determinati valori e interessi, limita la libertà degli individui di esprimere proprie opinioni e prendere decisioni. Insomma, un nuovo decisore sociale. Il Leviatano dei nostri tempi.
Indicando i principi a fondamento delle Linee Guida, il Decreto prende in considerazione molteplici ambiti: diritto di autore; beni culturali; infrastrutture e servizi; procedure amministrative; lavoro; attività giudiziaria; sicurezza; ricerca scientifica e sanità.
Una qualche considerazione per gli ambiti che sono a tutt’oggi di maggiore interesse nel dibattito pubblico. Vale a dire quello inerente all’attività giudiziaria, alla ricerca scientifica e alla sanità.
Sono ben noti gli interrogativi circa le implicazioni dell’intelligenza artificiale nel campo del diritto. Con particolare riferimento al diritto penale, ci ricorda Paola Severino che “una delle questioni di partenza riguarda in primo luogo la scelta etica alla base di alcune interazioni e applicazioni, in un contesto che è ancora carente o addirittura privo di regole. Oggi, cioè, spetta all’etica il difficile compito di fungere da prima barriera, in un contesto in cui l’apparato di regole giuridiche appare insufficiente e spesso non corrispondente alle concrete esigenze di tutela”. Ebbene, il Decreto richiama il ruolo imprescindibile e decisivo del giudice a cui si “lascia la piena autonomia decisionale, riservando esclusivamente al giudicante ogni decisione su fatti, prove e interpretazione della legge”.
Non mancano certo i principi in materia di ricerca scientifica e sanità. In questo ambito si incentiva e si favorisce l’introduzione di sistemi e modelli di intelligenza artificiale che contribuiscano al miglioramento della cura della salute della persona e della tutela della sanità e igiene pubblica. Nella garanzia del rispetto dei diritti umani, delle libertà fondamentali e della protezione nel trattamento dei dati personali. Ribadendo che i sistemi di intelligenza artificiale, sviluppati ed applicati all’ambito della ricerca scientifica e della sanità, non devono arrecare pregiudizio o limitazioni alla valutazione decisionale degli esercenti la professione medica. Inoltre, i sistemi e modelli di intelligenza artificiale utilizzati in ambito sanitario e i relativi dati impiegati, dovranno essere periodicamente verificati e aggiornati per garantire l’affidabilità dei medesimi e minimizzare il rischio.
In definitiva, possiamo dire che il filo conduttore delle Linee Guida del Decreto rileva la valorizzazione e la promozione di un utilizzo etico e trasparente dell’intelligenza artificiale in una dimensione antropocentrica, nel rispetto della dignità umana e del bene comune.
(Foto di Drew Dizzy Graham su Unsplash)