«Solo se sarà garantita la loro vocazione al servizio dell’umano, gli strumenti tecnologici riveleranno non solo la grandezza e la dignità unica dell’essere umano, ma anche il mandato che quest’ultimo ha ricevuto di “coltivare e custodire” (cfr Gen 2,15) il pianeta e tutti i suoi abitanti. Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica».

Così Papa Francesco nel Discorso sull’intelligenza artificiale (IA) al G7 di questi giorni presieduto dall’Italia. Una sfida sul futuro dell’umanità. Ovvero, «la maniera in cui concepiamo la nostra identità di esseri umani.» Perché è immediatamente rilevabile che il ricorso a strumenti basati sull’IA può «operare scelte indipendenti dall’essere umano per raggiungere l’obiettivo prefissato.» Anche perché «il cosiddetto “algoritmo” – non è dotato né di oggettività né di neutralità».

Essenzialmente due sono gli orizzonti antropologici che Francesco richiamano alla nostra riflessione, nonché ad una specifica assunzione di responsabilità: il tecnocentrismo e l’umanocentrismo (human-centric / human-centred).

Con il tecnocentrismo si riduce la soggettività umana. Fino a scivolare nel paradigma tecnocratico. Infatti, «il paradigma tecnologico incarnato dall’IA rischia allora di fare spazio a un paradigma ben più pericoloso, che ho già identificato con il nome di “paradigma tecnocratico”. Non possiamo permettere a uno strumento così potente e così indispensabile come l’IA di rinforzare un tale paradigma, ma anzi, dobbiamo fare dell’IA un baluardo proprio contro la sua espansione».

Quale altro aspetto ci allarma nella visione tecnocratica? Certamente quella tecnocrazia che riduce e accantona la soggettività umana. Per giungere a una nuova forma di riduzionismo antropologico. Per dirlo con Remo Bodei, l’individuo moderno abbandona la pretesa di essere l’unico depositario di una razionalità legata in maniera indissolubile a un corpo vivente e a una intelligenza consapevole.

Tutto ciò significa, forse, tecnofobia o tecnocatastrofismo da parte del Papa? Una sorta di neoluddismo? Certamente no. La risposta è nell’umanocentrismo che rappresenta l’elemento di riferimento ineludibile. Vale a dire l’orientamento antropologico che non accantona la tecnica ma la declina in una visione di alleanza.

«Conviene sempre ricordare», ribadisce Francesco, «che la macchina può, in alcune forme e con questi nuovi mezzi, produrre delle scelte algoritmiche. Ciò che la macchina fa è una scelta tecnica tra più possibilità e si basa o su criteri ben definiti o su inferenze statistiche. L’essere umano, invece, non solo sceglie, ma in cuor suo è capace di decidere. La decisione è un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica. A volte, spesso nel difficile compito del governare, siamo chiamati a decidere con conseguenze anche su molte persone. Da sempre la riflessione umana parla a tale proposito di saggezza, la phronesis della filosofia greca e almeno in parte la sapienza della Sacra Scrittura. Di fronte ai prodigi delle macchine, che sembrano saper scegliere in maniera indipendente, dobbiamo aver ben chiaro che all’essere umano deve sempre rimanere la decisione, anche con i toni drammatici e urgenti con cui a volte questa si presenta nella nostra vita».

Ecco la visione umanocentrica, «altrimenti condanneremmo l’umanità a un futuro senza speranza, se sottraessimo alle persone la capacità di decidere su loro stesse e sulla loro vita condannandole a dipendere dalle scelte delle macchine. Abbiamo bisogno di garantire e tutelare uno spazio di controllo significativo dell’essere umano sul processo di scelta dei programmi di IA: ne va della stessa dignità umana».

In sintesi – come abbiamo rappresentato nel 2020 con il Parere congiunto Comitato Nazionale per la Bioetica e CNBBSV – nella visione umanocentrica l’IA non è autonoma, ovvero non deve rappresentare un sistema decisionale autonomo ma deve svolgere un’assistenza cognitiva automatizzata. È di supporto alle decisioni umane ma non le sostituisce con una illimitata delega tecnologica. Non neutralizza la persona ma è di completamento alle azioni umane. Si promuove il bilanciamento tra dimensione umana e dimensione artificiale, evitando reciproche esclusioni e favorendo atteggiamenti di fiducia e cautela.  È questa la nuova sfida che l’innovazione tecnologica pone allo sviluppo umano.

Premessa la centralità della persona, Francesco ha delineato essenzialmente tre obiettivi prioritari: abitare, nella consapevolezza, l’innovazione tecnologica finalizzata allo sviluppo umano; cooperare sulla base della dignità umana; governare attraverso regolamentazione basata su condivisibili principi etici.

A fronte dell’algocrazia, dominio assoluto degli algoritmi, si propone la nuova e imprescindibile algoretica. «Forma di moderazione etica degli algoritmi e dei programmi di IA» che apre alla possibilità di individuare principi condivisi in un contesto mondiale caratterizzato da «gerarchie plurali dei valori».  Presentanti e sottoscritti nella Rome Call for Artificial Intelligence Ethics, e ribaditi dal Papa al G7, principi ben definiti «possono rappresentare ragionevolmente una piattaforma globale e plurale in grado di trovare il supporto di culture, religioni, organizzazioni internazionali e grandi aziende».

Ebbene, quali principi etici? Trasparenza, inclusione, responsabilità, imparzialità, affidabilità, sicurezza e privacy. Che non sono principi teorici in quanto hanno concrete ricadute.

Con la trasparenza i sistemi di IA devono essere spiegabili. Inclusione significa che i bisogni di tutti gli esseri umani devono essere presi in considerazione affinché tutti possano trarne beneficio e a tutti gli individui possano essere offerte le migliori condizioni possibili per esprimersi e svilupparsi. Con la responsabilità, coloro che progettano e implementano l’uso dell’IA devono procedere con trasparenza nella consapevolezza delle conseguenze. L’imparzialità salvaguarda l’equità e l’umana dignità, senza creare o agire secondo pregiudizi. Non ultimi, l’affidabilità e la sicurezza dei sistemi e la privacy degli utenti.

Principi che richiamano necessariamente il coinvolgimento della politica. Ancor più in un settore, quale quello dei sistemi di IA, che non conoscono confini nazionali in quanto agenti ubiquitari. Basti pensare, poi, alle capitalizzazioni da vertigine dei principali player nel settore. È notizia di questi giorni che Nvidia, colosso dei chip, Microsoft ed Apple valgono da soli l’equivalente di ben un terzo di tutto il Pil americano.

Recentemente il Parlamento europeo ha approvato l’AI-Act che, peraltro, entrerà completamente in vigore nel 2026. Così il Governo ha presentato un Ddl delega sull’IA volto alla regolamentazione in vari settori, richiamando il rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione Europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.

Emerge, ineludibile, «la politica di cui c’è bisogno». Si rileva, appunto, condivisa l’urgenza e l’attualità dell’appello alla politica di Papa Francesco a conclusione del Discorso al G7. «Questa mia riflessione sugli effetti dell’intelligenza artificiale sul futuro dell’umanità ci conduce così alla considerazione dell’importanza della “sana politica” per guardare con speranza e fiducia al nostro avvenire. Come ho già detto altrove, “la società mondiale ha gravi carenze strutturali che non si risolvono con rattoppi o soluzioni veloci meramente occasionali. Ci sono cose che devono essere cambiate con reimpostazioni di fondo e trasformazioni importanti. Solo una sana politica potrebbe averne la guida, coinvolgendo i più diversi settori e i più vari saperi. In tal modo, un’economia integrata in un progetto politico, sociale, culturale e popolare che tenda al bene comune può “aprire la strada a opportunità differenti, che non implicano di fermare la creatività umana e il suo sogno di progresso, ma piuttosto di incanalare tale energia in modo nuovo” (Laudato si’, 191). «Questo è proprio il caso dell’intelligenza artificiale. Spetta ad ognuno farne buon uso e spetta alla politica creare le condizioni perché un tale buon uso sia possibile e fruttuoso».

Non è un passaggio di testimone. È assunzione di responsabilità, comunitaria.

(Foto: www.vaticannews.va)

  • Lucio Romano

    Medico Chirurgo e docente di Bioetica. Componente Comitato Scientifico “Centro Interuniversitario di Ricerca Bioetica”. Senatore della Repubblica nella XVII Legislatura. https://lucioromano.it