L’intelligenza artificiale (IA) è entrata ufficialmente nell’agenda diplomatica mondiale. Durante l’80ª sessione dell’Assemblea generale delle Nazioni unite è stato lanciato un appello globale per introdurre “linee rosse” sull’IA. La finalità è impedire che lo sviluppo tecnologico superi i confini della sicurezza, dell’etica e del controllo umano. Oltre duecento gli scienziati, premi Nobel e politici che hanno sottoscritto l’appello. Solo per ricordare alcuni tra i promotori: i premi Nobel per la fisica Giorgio Parisi e Geoffrey Hinton premio Touring; Joseph Stiglitz, John Hopfield e Daron Acemoğlu, Nobel per l’economia; lo storico e filosofo Yuval Noah Harari; scienziati di OpenAI, Antropic e Google; Yoshua Bengio e Joseph Sifakis, premi Turing.
Rischi inevitabili e controlli necessari
L’iniziativa, presentata nel corso della High-Level Week, evidenzia da un lato “l’enorme potenziale dell’IA per migliorare il benessere umano” e rileva, altresì, che “l’attuale traiettoria di sviluppo comporta pericoli senza precedenti. Che potrebbe presto superare di molto le capacità umane ed amplificare minacce come pandemie ingegnerizzate, disinformazione diffusa, manipolazione delle persone su larga scala – inclusi i minori – rischi per la sicurezza nazionale e internazionale, disoccupazione di massa e violazioni sistematiche di diritti umani”.
I promotori sottolineano che “alcuni sistemi di IA avanzata hanno già manifestato comportamenti ingannevoli e dannosi, eppure a questi sistemi viene concessa un’autonomia sempre maggiore nell’agire e nel prendere decisioni nel mondo reale”. Ciò significa che “molti esperti – compresi coloro che sono in prima linea nel suo sviluppo – avvertono che, se non adeguatamente governata, nei prossimi anni diventerà sempre più difficile garantire un controllo umano effettivo dell’IA”.
Nell’appello si rivolge una esortazione ai governi “affinché si raggiunga un accordo internazionale, intervenendo con decisione e garantendo l’effettiva applicazione attraverso solidi meccanismi di controllo e di attuazione. Necessario un accordo internazionale che stabilisca limiti chiari e verificabili per prevenire rischi universalmente inaccettabili”. Senza escludere le imprese, “così da assicurare che tutti i fornitori di IA avanzata siano soggetti a criteri condivisi”.
Il tutto si fonda su un principio sostanziale: la governance deve essere umanocentrica. Ma la strada per tradurre l’appello in prescrizioni è un percorso prevedibilmente complicato con diversi ostacoli. Tra questi, soprattutto le sovranità nazionali e gli interessi economici delle big tech. A cui si aggiunge il divario significativo tra rapidità delle innovazioni tecnologiche e tempi dei decisori politici (pacing problem). Altro aspetto, certo non secondario, è che le big tech, pur sostenendo l’opportunità di limiti, avvertono che vincoli eccessivi potrebbero rallentare l’innovazione tecnologica.
Una governance flessibile
Una possibile prospettiva per dare risposte coerenti e fattibili a queste criticità potrebbe essere solo una governance flessibile, basata su criteri di rischio e valutazione indipendente in grado di coniugare sicurezza, competitività e innovazioni.
Un appello, un progetto ambizioso che non può non avere come interlocutore la politica che, per dirlo con Carlo Galli, “contrapponga alla superficie la profondità e la trascendenza, al presente la storia, al progresso come destino l’avvenire come libera creazione, al formicaio la città, all’oligarchia la democrazia, al virtuale il reale.”
In questa prospettiva il Nobel Giorgio Parisi e Pierluigi Contucci, docente dell’Università di Bologna Alma Mater, unitamente ad autorevoli studiosi, hanno lanciato il Manifesto per l’istituzione di un Centro europeo di ricerca sull’IA che, sul modello del Cern, consenta di lavorare fianco a fianco scienziati di discipline diverse ma complementari a un comune sforzo sia scientifico che umanistico. Dando priorità allo sviluppo open-source, affinché gli strumenti dell’IA siano accessibili a ricercatori, istituzioni, imprese e cittadini, rafforzando l’accesso democratico e promuovendo l’innovazione. Con una particolare attenzione ad integrare la riflessione etica e la valutazione dell’impatto anticipando le conseguenze sociali, economiche e culturali. Coinvolgendo decisori politici, società civile e opinione pubblica per allineare l’innovazione ai valori democratici, ai diritti umani e all’interesse collettivo.
L’appello presentato all’Assemblea generale delle Nazioni unite ed il Manifesto di Giorgio Parisi evidenziano l’attualità di questioni che non possono non interrogarci né tantomeno essere sottovalutate. Tra queste, chi può governare e sono governabili i sistemi artificiali intelligenti? Intrecciandosi questioni tecniche, etiche e geopolitiche: chi stabilisce cosa è accettabile? Chi decide quando un sistema di IA diventa una minaccia?
Un prima risposta è stata data con l’AI Act, il Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’IA. Tuttavia, lo sviluppo planetario dei sistemi artificiali intelligenti richiede un orizzonte ancor più ampio da prendere in considerazione. Sempre più necessario visti gli sviluppi di tecnologie che si alimentano con un ritmo incessante e veloce secondo una prospettiva di preponderanza dell’intelligenza statistico-computazionale rispetto a quella logico-simbolica dell’umano.
Democrazie o algocrazie?
È in questione il rapporto tra democrazia e sistemi artificiali intelligenti ovvero l’oligopolio delle big tech che rappresentano dei veri e propri attori globali. Potenze computazionali che ampliano le capacità umane ma che sono dotate di un enorme potere, non solo economico ma anche cognitivo e politico. Si definiscono i criteri con cui l’IA viene progettata, le priorità e i valori che possono orientare la vita collettiva. Gli algoritmi diventano nuove forme di autorità. Algocrazie, per dirlo con p. Paolo Benanti, che sottraggono alla deliberazione pubblica questioni decisive per la democrazia in cui il sapere e il potere sono diffusi, plurali, sottoposti a controllo pubblico. Altrimenti, cittadinanze esposte a poteri opachi, capaci di influenzare comportamenti e opinioni.
Il rischio è la democrazia svuotata dall’interno e sostituita da processi automatizzati delegati a decidere al posto nostro con una concentrazione di potere che genera una dipendenza strutturale degli Stati. Senza escludere il ricorso a sistemi di IA da parte di democrazie illiberali e autocrazie populiste per sostenere i propri poteri.
Contrastare queste derive non significa fermare il progresso, ma restituire l’orizzonte politico del bene comune e investire sull’intelligenza sociale diffusa. Solo così l’IA potrà diventare strumento di libertà condivisa e non di dominio concentrato.
Crediti foto di Markus Winkler su Unsplash

