Può un sistema di intelligenza artificiale (IA) sviluppare una qualche forma di pensiero? E se così fosse che tipo di pensiero sarebbe? Sono questi interrogativi ricorrenti nelle ininterrotte innovazioni tecnologiche e nelle sue più varie applicazioni.

Recente la pubblicazione dell’articolo The case for human–AI interaction as system 0 thinking sull’autorevole rivista Nature Human Behavior, in cui si presenta un nuovo e distinto schema  cognitivo, definito Sistema 0, che emerge dalle interazioni uomo-IA e capace di potenziarne le abilità. Il Sistema 0 si aggiunge al Sistema 1 (pensiero intuitivo, rapido e automatico) e al Sistema 2 (pensiero  analitico e riflessivo) introdotti dal premio Nobel Daniel Kahneman in Thinking, Fast and Slow.

Sistema 0 capace di elaborare grandi quantità di informazioni che sarebbero difficili da gestire per la mente umana e svolgendo compiti che gli esseri umani delegano all’IA. Sfruttando l’enorme potenza di elaborazione dati per decisioni e compiti che si estendono oltre le naturali capacità umane. Una sorta di estensione cognitiva. Un assistente invisibile che potenzia le nostre capacità filtrando, organizzando e arricchendo le informazioni ancor prima che raggiungano la nostra mente. Rimodellando così la cognizione, l’etica e l’autonomia umana. Insomma, un nuovo paradigma di interazione tra IA e intelligenza umana.

Ma con un particolare sostanziale: a differenza del pensiero umano, che è intuitivo e analitico, il Sistema 0 non “comprende” i dati che elabora. In altre parole, il Sistema 0 può percepire il mondo e “pensare” in modo computazionale, ma non possiede una comprensione intrinseca della realtà come i Sistemi 1 e 2. Potremmo dire che, processando enormi quantità di dati, il Sistema 0 conosce la “sintassi” che rappresenta le regole per la disposizione e la manipolazione dei dati ma gli è estranea la “semantica” che riguarda invece il significato. Detto in altri termini, sviluppa un “apprendimento” secondo le correlazioni meccaniche (inconsce e automatiche) tra input e output ma non la “comprensione” che è libero arbitrio e coscienza. L’interpretazione e la valutazione critica delle informazioni restano dominio della mente umana “pensante” che può comprendere sfumature, emozioni e significati impliciti non accessibili all’IA.

Sebbene il Sistema 0 rappresenti un potente strumento per l’ampliamento delle capacità cognitive, presenta anche criticità significative.

Tra queste, e non secondaria, è l’utilizzo estensivo, come supporto cognitivo, che potrebbe indurre le persone a limitare la propria capacità di riflessione critica, compromettendo la percezione della realtà e influenzandone un’analisi indipendente. Rischiando così di sviluppare una dipendenza. Una sorta di subordinazione al paradigma tecnocratico per una straripante delega tecnologica. Dalle imprevedibili conseguenze sulla molteplicità delle azioni umane. La «tirannia dell’algoritmo», richiamando Miguel Benasayag.  

Altro rischio riguarda i bias o pregiudizi. Se i dati del Sistema 0 sono già influenzati da stereotipi o preconcetti, ne consegue la loro amplificazione. Da cui la necessità di trasparenza e comunque di principi etici, ovvero dell’algoretica come «sviluppo etico degli algoritmi.»

In sintesi, possiamo dire che il Sistema 0 rappresenta una rivoluzione nel rapporto tra IA e pensiero umano, fornendo un supporto potente per la gestione delle informazioni e il potenziamento cognitivo. Il Sistema 0 non può sostituire i Sistemi 1 e 2, ma li completa, aprendo la strada a nuove forme di cooperazione. Come rileva P. Paolo Benanti «il paradigma fondamentale che deve guidare un’etica delle IA deve essere pensato in termini di cooperazione. In altre parole, le IA non sono degli avversari evolutivi dell’homo sapiens bensì strumenti (artefatti) che devono essere pensati come cooperativi alla persona.» Perché riconoscere e bilanciare il potenziale del Sistema 0 con i suoi propri limiti etici e cognitivi risulta essenziale per non compromettere l’autonomia e l’unicità del pensiero umano.

Il nuovo paradigma Sistema 0 richiama la necessità di alcune pur sintetiche considerazioni in merito alla visione “forte” (strong AI)  e “debole” (weak AI) delle IA, pur tralasciando la molteplicità delle teorie sottese.

L’IA forte, definita anche IA generale (AGI, Artificial General Intelligence) o cognitiva in quanto “produzione” dell’equivalente della nostra intelligenza, è una forma teorica di IA che non si limita a seguire istruzioni o a eseguire calcoli avanzati. Sarebbe dotata di caratteristiche simili alla mente umana, quali comprensione autonoma; autocoscienza ovvero consapevolezza del proprio esistere e delle proprie azioni; capacità di apprendimento integrando nuove informazioni in modo indipendente e adattativo. I fautori dell’AGI sostengono che una macchina possa essere dotata di una mente e che prima o poi lo sarà.  Certo è che una particolare enfasi o un uso improprio nell’attribuire intelligenza a una macchina finisce con l’assegnare capacità di autonomia a fronte della concretezza di una  funzione che è solo automatica.

E sulla scia dell’AGI, ecco la prospettiva della “singolarità” delineata da Ray Kurzweil: «Le capacità dell’IA crescono, le informazioni diventano più accessibili e noi integriamo sempre più strettamente quelle capacità con la nostra intelligenza biologica naturale. Alla fine, la nanotecnologia farà sì che queste tendenze arrivino al culmine e estendano direttamente il nostro cervello con strati di neuroni virtuali nel cloud. In questo modo ci fonderemo con l’IA e aumenteremo noi stessi con una potenza di calcolo milioni di volte superiore a quella che ci ha dato la nostra biologia. La nostra intelligenza e la nostra coscienza si espanderanno e si approfondiranno in una misura che è difficile da comprendere. Questo evento è quello che chiamo la Singolarità»

L’IA debole o leggera, a sua volta,definita anche “ristretta” (ANI, Artificial Narrow Intelligence) o ingegneristica impegnata a “riprodurre” il risultato dei nostri comportamenti intelligenti, si riferisce a sistemi addestrati a eseguire attività specifiche sulla base di determinati set di dati. Applicata in una  molteplicità di settori, la motivazione principale coincide con lo sfruttare la maggiore efficienza e capacità di elaborazione della macchina rispetto all’uomo liberandolo da operazioni ripetitive o che richiederebbero un maggior tempo (problem solving).

Possiamo dire senza alcun dubbio che l’applicazione di sistemi “deboli” di IA è pressoché ubiquitaria. Vorrei ricordare gli aspetti rimarchevoli, come esempio e tra i tanti che potrebbero essere menzionati, nell’applicazione nei vari campi della medicina. Dalla diagnostica alla pianificazione dei trattamenti, dallo sviluppo dei farmaci al monitoraggio del paziente. Avere la capacità di analizzare una grande quantità di dati in rapidità e accuratezza significa sviluppo della ricerca in tempi ridotti, maggiore precisione nella diagnostica, personalizzazione e medicina di precisione, aumentata efficienza nell’erogazione dell’assistenza sanitaria. Che non escludono questioni inerenti alla privacy, alla sicurezza dei dati, alla necessità di trasparenza, all’etica degli algoritmi.

Così per quanto riguarda l’applicazione dell’IA debole o leggera nella finanza. Nel settore finanziario, l’IA è diventata una componente essenziale per le aziende che devono navigare in mercati sempre più complessi. Queste tecnologie avanzate sono fondamentali per processare e analizzare enormi quantità di dati con una velocità e una precisione che superano di gran lunga le capacità umane. Oltre a migliorare l’efficienza operativa, l’IA fornisce anche prospettive anticipatorie su tendenze e rischi di mercato. L’adozione dell’IA sta così ridefinendo il modo in cui le aziende finanziarie operano, spingendole verso un futuro in cui l’analisi basata sui dati e l’ottimizzazione delle strategie di mercato sono standardizzate, rivoluzionando il settore in modo profondo e permanente.

Si ripropone, in definitiva, l’esigenza etica e politica di abitare le innovazioni tecnologiche nell’alfabetizzazione digitale, cooperando nella interdisciplinarità delle competenze e governandole nella regolamentazione. In una visione umanocentrica. Questa è la sfida. Questa è l’orizzonte dell’etica della responsabilità.

Crediti foto di Bernard Hermant su Unsplash

  • Lucio Romano

    Medico Chirurgo e docente di Bioetica. Componente Comitato Scientifico “Centro Interuniversitario di Ricerca Bioetica”. Senatore della Repubblica nella XVII Legislatura. https://lucioromano.it