È possibile per una macchina comporre un testo simile a quello scritto da un essere umano? È cronaca di questi giorni la vasta attenzione, non solo mediatica, riservata al modello Generative Pre-Training (Chat-GPT3) di OpenAI. Una nuova tappa che segna le avvincenti evoluzioni delle tecnologie basate sull’uso dell’Intelligenza Artificiale (IA).

Si tratta di un modello di IA, definita appunto generativa, che produce testi simili a quelli umani, utilizzando il deep learning ovvero un autoapprendimento “profondo” e “automatico” della macchina attraverso algoritmi ispirati alla struttura e alla funzione del cervello (c.d. reti neurali artificiali). Si possono generare testi di qualsiasi tipo sulla base di una vasta raccolta di dati selezionati (libri, articoli, siti web, …).

L’arrivo di Chat-GPT3 e l’interesse suscitato hanno reso ancor più suggestivo, attraente e popolare l’IA. Basti pensare che, solo nei primi cinque giorni dal lancio, ben cinque milioni di utenti hanno scaricato il programma.

È un nuovo mondo che rileva problematici interrogativi. Come riportato in Agenda Digitale, chi definisce il processo decisionale da attivare per stabilire le “regole del gioco”, volte a garantire il funzionamento – corretto, trasparente e non discriminatorio – di tali sistemi? Nell’ambito di una complessa governance globale prende progressivamente forma la nuova fisionomia del potere (politico ed economico) delle BigTech rispetto al gap degli Stati sovrani, che riflette il rapporto asimmetrico tra la rapidità dell’evoluzione tecnologica e la stasi dei tradizionali policy maker rappresentativi del settore pubblico.

Diversi recenti studi hanno evidenziato, poi, potenziali pericoli inerenti a pregiudizi discriminatori con il pervadente uso strumentale della tecnologia volta al condizionamento delle opinioni. Con machine learning sufficientemente potenti, ci saranno poche aziende che avranno in mano l’intelligenza globale del pianeta (global repository of intelligence). Un monopolio di imprese con un possesso illimitato di dati sensibili. Una vera e propria ingegneria sociale. Sono temi, questi, che non possono essere riservati agli addetti ai lavori ma sono di interesse comune, ovvero coinvolgono la politica.

In una visione più ampia, si ripropone l’attualità di interrogativi sostanziali. Che cosa si intende per IA? Non è forse un linguaggio metaforico? Una macchina può o potrà avere capacità analoghe all’uomo di riflessione, decisione, autodeterminazione? Quale conflitto tra una visione del mondo governata da leggi deterministiche a fronte di una visione della persona come attore morale libero e responsabile?

L’IA si basa sulla registrazione di una immensa quantità di dati, di macchine che imparano dall’esperienza (machine learning). Dispositivi capaci di apprendimento continuo, grazie alle tecniche di deep learning, sulla base di una raccolta massiva di dati (big data) e al collegamento al cloud. Un insieme di server remoti che offrono servizi per l’archiviazione e la gestione delle informazioni, ossia un potente hub computazionale in grado di conservare, elaborare ed erogare enormi masse di dati, da cui attingere continuamente per gli aggiornamenti (upgrading). Dal collegamento delle machine learning, poi, le “reti neuronali artificiali” (artificial neural network) composte da elementi che possono lavorare in sincrono – sul modello dei neuroni biologici e delle loro sinapsi – in connessione veloce, istantanea e a bassa latenza (<10 millisecondi, quasi come il cervello umano).

Il termine “intelligenza” non designa qualità propriamente umane conferite alle macchine ma descrive funzioni che rendono alcuni comportamenti delle macchine simili a quelli di un essere umano. Per dirlo con il filosofo Remo Bodei in “Dominio e sottomissione”, la questione non riguarda una similitudine piuttosto l’evidenza che il genere di conoscenza di cui le macchine sono fornite dipende per ora da una nostra delega: è un prodotto umano che si serve di linguaggi che non somigliano a quello naturale. In secondo luogo, non occorre dimenticare – come spesso inavvertitamente accade – che quando parliamo di intelligenza, coscienza, emozioni o lavoro delle macchine usiamo un linguaggio metaforico, attribuendo loro qualità di cui sono prive. Il tipo di lògos, di “coscienza” o di “autocoscienza” di cui sono dotate è costituito da algoritmi, sequenze di comandi da seguire passo per passo come una ricetta per l’esecuzione di determinate operazioni. L’idea di copiare il funzionamento del cervello e della mente umana attraverso l’IA al di fuori del contesto delle relazioni, dell’ambiente e della cultura in cui ciascuno è immerso, ha condotto a delle semplificazioni e a degli errori di valutazione fuorvianti.

Ecco il malinteso di fondo: ritenere che l’agire artificiale significcomportamento intelligente. C’è una separazione tra capacità di risolvere un problema ed esigenza di essere intelligenti nel farlo.

Può ritornare utile richiamare la distinzione tra “definizione forte” e “definizione debole” dell’IA. Per “definizione forte” si fa riferimento a un modello antropomorfico in cui avviene la simulazione dell’intelligenza con riproduzione di comportamenti indistinguibili da quelli umani fino al riprodurne poteri cognitivi. Questa definizione è sottoposta a critiche in quanto l’intelligenza non può essere entità astratta e logico-formale, bensì concreto e storico essere-nel-mondo di cui fanno parte corporeità ed emotività. Secondo la “definizione debole”, invece, si fa riferimento a un modello non antropomorfico in cui avviene l’emulazione dell’intelligenza e si fa fare ai computer cose che gli uomini sanno fare meglio.

Possiamo fare anche una distinzione tra riprodurre il risultato dei nostri comportamenti intelligenti (IA riproduttiva o ingegneristica) e produrre l’equivalente della nostra intelligenza (IA produttiva o cognitiva). Come evidenzia Luciano Floridi, l’IA riproduttiva, in quanto settore dell’ingegneria impegnato a riprodurre il comportamento intelligente, ha avuto un enorme successo. L’IA produttiva, invece, in quanto settore delle scienze cognitive volto a produrre intelligenza, si è rilevata quanto mai deludente. Non solo le sue prestazioni sono ben inferiori a quelle dell’intelligenza umana, ma si può dire che la competizione non sia ancora iniziata.

In sintesi, IA non designa qualità propriamente umane conferite alle macchine ma descrive funzioni che rendono alcuni comportamenti delle macchine simili a quelli di un essere umano.

Nei suoi vari e quotidiani usi dell’IA, la riflessione bioetica e biopolitica non può essere accantonata o ritenuta ancillare. Basta appena porsi alcuni interrogativi che già il cardinale Carlo Maria Martini esponeva nei dialoghi de “Le cattedre dei non credenti”: «Sono così minacciose tutte le tecnologie del virtuale? L’intero cammino verso l’intelligenza artificiale finirà per svalutare il valore della persona, riducendola a pura meccanica? O, invece, saranno i valori dell’uomo a indurre la scienza ad aprire nuovi fronti grazie alle conquiste tecnologiche? [scenario, questo] molto incoraggiante, purché l’intelligenza umana rimanga padrona dei processi.»

Sono gli interrogativi che tipizzano le ricerche nell’ambito della bioetica: studio sistematico delle dimensioni morali (inclusa la visione morale, le decisioni, la condotta, le linee guida ecc.) delle scienze della vita e della salute, con l’impiego di una varietà di metodologie etiche in una impostazione interdisciplinare. Sono gli interrogativi che hanno segnato, secondo classica determinazione, l’origine della bioetica che, con gli sviluppi delle scienze e delle tecnologie fino all’IA, si apre a nuovi e impegnativi campi di riflessione. Ovvero nuovi paradigmi sul futuro dell’uomo, come nel caso del transumanesimo, finalizzato a ridisegnare l’identità umana e l’evoluzione della specie nel postumano.

Una rivoluzione antropologica e quindi una questione antropologica. Transumanesimo, inteso come movimento culturale, intellettuale e scientifico che afferma il dovere morale di migliorare le capacità fisiche e cognitive della specie umana e di applicare le nuove tecnologie all’uomo, affinché si possano eliminare aspetti non desiderati e non necessari della condizione umana come la sofferenza, la malattia, l’invecchiamento, e persino l’essere mortali. Da cui il postumano, vale a dire un essere “naturale” o “artificiale” con capacità fisiche, intellettuali e psicologiche “migliori” rispetto ad un “umano normale”. Concapacità cognitive maggiori degli altri; controllo emozionale totale senza sofferenza psicologica; ampliamento della vita senza deteriorarsi; corpo in concordanza con i propri desideri.

Ecco la necessità di un nuovo umanesimo digitale, di un’etica per le tecnologie digitali. Ovvero di un’etica per gli algoritmi (algoretica) che possa limitare il dominio e l’autonomia delle macchine (algocrazia). Ciò non significa certo rifiutare i progressi tecnologici ma governarli e abitarli con discernimento. Evitando che la decisione ultima sia in capo solo all’automatismo di un software.

Un umanesimo digitale che non trasforma l’essere umano in una macchina e non interpreta le macchine come esseri umani; che riconosce la peculiarità dell’essere umano e delle sue capacità, servendosi delle tecnologie digitali per ampliare, non per restringerle. Un umanesimo che sappia distinguersi dalle posizioni apocalittiche e dalle posizioni euforiche, perché confida nella ragione propria degli esseri umani e considera i limiti della tecnologia digitale.

Ma non è coinvolta solo la sensibilità morale di chi fa ricerca sull’IA, progetta algoritmi e dispositivi. Ricorda Papa Francesco: «Non basta la semplice educazione all’uso corretto delle nuove tecnologie: non sono infatti strumenti “neutrali”, perché, come abbiamo visto, plasmano il mondo e impegnano le coscienze sul piano dei valori. C’è bisogno di un’azione educativa più ampia. Occorre maturare motivazioni forti per perseverare nella ricerca del bene comune, anche quando non ne deriva un immediato tornaconto. Esiste una dimensione politica nella produzione e nell’uso della cosiddetta “Intelligenza Artificiale” che non riguarda solo la distribuzione dei suoi vantaggi individuali e astrattamente funzionali. In altri termini: non basta semplicemente affidarci alla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi; occorre invece creare corpi sociali intermedi che assicurino rappresentanza alla sensibilità etica degli utilizzatori e degli educatori.»

Emerge il compito della bioetica e il doveroso coinvolgimento di una politica che abbia come èthos di riferimento la centralità della persona, «il pensiero critico e l’esercizio consapevole della libertà.» A fronte della necessità di un nuovo umanesimo emerge l’opportunità di costruire nuovi ponti tra filosofia, tecnologia, scienze naturali, teologia, economia e la politica. Perché molteplici sono le nuove sfide che ci offrono le tecnologie digitali. Perché domani è già l’oggi.

 

 

Crediti foto DeepMind @deepmind su Unsplash

  • Lucio Romano

    Medico Chirurgo e docente di Bioetica. Componente Comitato Scientifico “Centro Interuniversitario di Ricerca Bioetica”. Senatore della Repubblica nella XVII Legislatura. https://lucioromano.it