La capacità dei sistemi di intelligenza artificiale (IA) di influenzare comportamenti, percezioni, decisioni individuali e collettive impone una riflessione sul rapporto tra potere tecnologico, responsabilità politica e dignità umana. Infatti, non si ridisegnano soltanto nuovi equilibri di forza tra Stati ma si ridefiniscono, sostanzialmente, le condizioni dell’agire umano, i confini delle libertà fino a incidere sulla percezione stessa di ciò che significa essere persone e soggetti morali.
Come ha ricordato Papa Leone XIV nel messaggio ai partecipanti del Builders AI Forum, è “questione importante del nostro tempo non soltanto ciò che l’IA è in grado di fare, ma chi stiamo diventando attraverso le tecnologie che costruiamo. […] In quanto tale, essa porta con sé un peso etico e spirituale, poiché ogni scelta progettuale esprime una visione dell’umanità. La Chiesa invita quindi tutti i costruttori di IA a coltivare il discernimento morale come parte fondamentale del loro lavoro, sviluppando sistemi che riflettano giustizia, solidarietà e una autentica riverenza per la vita.”
Tra geopolitica e antropologia: modelli diversi
Partiamo dal profilo geopolitico per rilevare il collegamento con alcuni aspetti antropologici ed etici. Ebbene, la competizione tra Stati Uniti, Cina e Unione Europea sta producendo modelli di sviluppo dell’IA profondamente diversi, non solo sul piano tecnico ma soprattutto sul piano antropologico. Il modello statunitense, fortemente orientato al mercato e all’innovazione privata, tende a delegare a posteriori la regolazione dei rischi, lasciando spesso l’individuo esposto ad asimmetrie informative e operative. Il modello cinese integra l’IA negli apparati statali, mettendo in tensione sicurezza collettiva e libertà individuali in cui la tecnologia diviene uno strumento di controllo sociale e di ottimizzazione comportamentale su larga scala. L’Unione Europea, invece, si fonda sui paradigmi dei diritti fondamentali e della protezione della persona con l’obiettivo che le innovazioni tecnologiche debbano essere subordinate al fondamento dell’umanocentrismo ovvero in una cornice antropologica democratica.
Come si può rilevare, questa eterogeneità di modelli non è neutra. Essa veicola differenti visioni dell’essere umano: come consumatore, come ingranaggio di un sistema collettivo o come titolare di diritti inviolabili. La geopolitica dell’IA non è quindi solo una competizione per l’egemonia tecnologica, ma una sfida tra antropologie che potremmo sintetizzare in tecnocentrismo, collettivismo algoritmico e umanesimo regolativo.
L’aspetto etico: controllo, diseguaglianze, deresponsabilizzazione
Dal punto di vista etico, il primo nodo riguarda la dignità della persona in un contesto dove sistemi opachi di profilazione, classificazione e previsione tendono a trasformare l’individuo in un insieme di dati. Con la riduzione della complessità umana a variabile computazionale si rischia di minare la capacità delle persone di autodeterminarsi e di costruire narrazioni autentiche e consapevoli di sé. Il rischio non è soltanto la discriminazione algoritmica ma una profonda colonizzazione cognitiva: le preferenze, le scelte e persino le emozioni vengono progressivamente orientate da sistemi che operano in modo difficilmente esplicabile e confutabile.
Un secondo nodo riguarda la distribuzione equa e responsabile dei benefici dell’IA. Le grandi potenze investono in infrastrutture e formazione di modelli su larga scala, ma molti Paesi restano esclusi. Si configura così una nuova forma di disuguaglianza che potremmo definire come disuguaglianza cognitiva, in cui alcuni Stati modellano il futuro digitale mentre altri rimangono semplici destinatari passivi di tecnologie prodotte altrove. Su queste considerazioni si basa un interrogativo fondamentale: come garantire la giustizia distributiva in un mondo governato da sistemi di IA concentrati nelle mani di pochi attori?
Un terzo elemento riguarda i rischi della delega decisionale. Man mano che l’IA supporta sistemi sanitari, giuridici, economici e militari aumenta il rischio di deresponsabilizzazione: se è l’algoritmo a suggerire, filtrare o decidere, chi è moralmente responsabile delle conseguenze? La geopolitica dell’IA si intreccia così con l’etica della responsabilità che ci rimanda alla necessità di evitare che la complessità tecnica divenga un alibi per sottrarre agenti politici e istituzionali alla valutazione etica.
Un quarto nodo riguarda il controllo sociale nelle mani del “Grande altro”, citando “Il capitalismo della sorveglianza” di Shosana Zuboff. Sistemi di riconoscimento facciale, analisi predittiva e profilazione di massa sono già impiegati da alcuni Stati come strumenti di sicurezza interna o stabilizzazione del potere politico. La geopolitica dell’IA mostra come queste tecnologie rappresentano “parte di una preoccupante deriva, che secondo molti analisti politici sta portando a non ritenere più la democrazia una necessità inviolabile.” L’etica, pertanto, si interroga sul rischio di una “normalizzazione della sorveglianza”, in cui l’erosione delle libertà verrebbe giustificata in nome dell’efficienza o della protezione collettiva.
Dignità, uguaglianza e libertà
Da queste criticità emerge la questione di fondo: che tipo di umanità vogliamo promuovere in un mondo dominato dai sistemi di IA? Se la geopolitica analizza i rapporti di forza in cui ogni tecnologia incorpora una visione dell’essere umano, con l’etica personalista e comunitaria si delinea il governo delle innovazioni orientandolo alla promozione della dignità, dell’uguaglianza e delle libertà. La governance dell’IA può trovare legittimità solo se integra questi valori.
In definitiva, risulta evidente che la geopolitica dell’IA non può essere disgiunta da una profonda riflessione etica. Non è una questione che riguarda il futuro perché è già in corso con la possibilità di ribaltare assetti mondiali consolidati. Chi controlla l’IA non controlla solo la tecnologia ma potenzialmente intere economie, diritti, istituzioni e la stessa idea di sovranità democratica.
Per questi motivi si richiede una visione politica con strategia globale e responsabilità etica. richiede non solo capacità tecnologica, ma anche visione politica, strategia globale e responsabilità etica. Non possiamo limitarci a chiedere “chi vince?”, ma dobbiamo chiederci “comesi vince e a quali condizioni”. Per l’Europa e per i paesi globalmente meno potenti, la sfida non è solo tecnologica: è una sfida di sovranità, diritti e democrazia. La posta in gioco non è solo chi guida le IA, ma che tipo di mondo vogliamo costruire con esse.
Come sottolineato da Next Forbes Leaders “in un’epoca in cui la fiducia è la moneta più rara, il vero vantaggio competitivo non sarà possedere il modello più complesso, ma quello più responsabile. L’IA potrà davvero trasformare la finanza in un motore di progresso solo se saprà mantenere umano ciò che sta rendendo intelligente.”
È proprio l’incontro tra potere e responsabilità, tra innovazioni e tutela, tra capacità tecniche e valori umani a determinare se l’IA sarà uno strumento di emancipazione, di sviluppo umano o piuttosto di dominio. La sfida è aperta per riconoscere al centro l’essere umano nella sua intrinseca e irriducibile dignità inscritta nei diritti fondamentali.

