Il vaso di Pandora
Quale relazione tra le macchine e l’uomo e quale potere delle une sull’altro?
Ciò che ha caratterizzato lo sviluppo scientifico degli ultimi cinquecento anni è il progressivo connubio fra scienza e tecnica, un processo che abbiamo interiorizzato così profondamente, che ci sembra impensabile mantenerle separate. Non è sempre stato così: per millenni la scienza è stata un patrimonio di pochi, trasmesso dai maestri ai discepoli e mantenuto all’interno di circoli chiusi che tramandavano la conoscenza dei segreti della natura a una cerchia privilegiata di iniziati, e la tecnica un’attività da artigiani o artisti. L’importanza assunta dall’intreccio fra scienza e tecnica rappresenta, dunque, una svolta epocale, la cui portata supera di gran lunga l’ambito della ricerca o della produzione. Ed è la tecnica, con il suo potere di trasformare la realtà, a imporci anche di “pensare altrimenti”: “poiché la tecnica – scriveva negli anni Settanta Hans Jonas – è entrata a far parte di tutto ciò che riguarda l’uomo – vivere e morire, pensare e sentire, agire e patire, ambiente e uomo, desideri e destino, presente e futuro – in breve poiché è divenuta un problema centrale e pressante per l’intera esistenza dell’uomo sulla terra, essa concerne anche la filosofia e deve esistere perciò una sorta di filosofia della tecnologia”.
Ultima soglia
In questo contesto, l’affacciarsi dell’Intelligenza Artificiale (IA) non è solo l’ultima soglia dello sviluppo scientifico-tecnologico, ma anche una delle sfide più complesse per la riflessione teologica, filosofica, politica, poiché ciò che la caratterizza è il tentativo di riprodurre in una macchina i processi che stanno alla base dello sviluppo dell’intelligenza umana. In questo modo, si lascia alle spalle il modello del pc come strumento di mero calcolo e immagazzinamento dei dati, per portare all’interno della macchina una concezione più complessa di intelligenza. In altre parole, l’IA non si muove solo sugli assi tradizionali dell’intelligenza linguistica e logico-matematica, ma tende a integrare nei suoi processi anche quelle forme di intelligenza che Gardner considera peculiarità dell’umano: spaziale, sociale-interpersonale, intrapersonale, corporeo-cinestetica, musicale. Per prendere due estremi, potremmo dire che a un capo troviamo Enigma, la macchina usata dai tedeschi per la crittografia, e il calcolatore di Alan Turing che ne decifra i codici; all’altro macchine in grado di raggiungere obiettivi (buoni o cattivi, e qui sta il problema) attraverso processi di analisi e decisionali sempre più simili a quelli dell’intelligenza umana. È ben vero che a oggi gli obiettivi delle IA sono stabiliti rigorosamente dall’uomo; ma il fatto che nel processo per raggiungere quegli obiettivi la scelta dei mezzi e dei percorsi sia sempre maggiormente affidata alla macchina ci riporta al problema della dialettica fra fini e mezzi che da Machiavelli (il fine giustifica i mezzi) a Weber (l’inconciliabilità fra etiche della convinzione e della responsabilità) a Gandhi e Capitini (il fine è contenuto nei mezzi) ha animato il dibattito etico e politico dell’Occidente negli ultimi secoli.
La vittoria della macchina
I primi studi sulla possibilità di riprodurre in una macchina i processi dell’intelligenza umana risalgono agli anni Cinquanta e Sessanta. Ma è negli anni Novanta del secolo scorso che le ricerche della IBM per costruire un computer che sfidasse il campione mondiale di scacchi Kasparov segnano un punto di non ritorno. Fra il 1996 e il 1997 la sfida fra il pc della IMB Deep Blue e Kasparov portò, dopo una prima sconfitta, alla vittoria della macchina. E nonostante il sospetto di Kasparov che la creatività della macchina nascondesse in realtà un aiuto umano durante le partite, la direzione era segnata: si poteva immaginare una forma di intelligenza che affiancasse alla capacità di calcolo la creatività caratteristica dell’intelligenza umana.
Vent’anni dopo, Deep Blue è ormai nella preistoria delle IA; ma proprio la velocità del cambiamento impone di chiederci a che punto siamo e quali strade stia imboccando il vertiginoso sviluppo delle IA. Una questione che non è solo tecnico-scientifica, ma invoca risposte su altri piani, da quello filosofico a quello teologico, da quello sociale a quello politico.
Per comprendere la portata del cambiamento possiamo posare lo sguardo sulle tre modalità di apprendimento di una IA: supervisionato, non supervisionato, per rinforzo.
Nel primo, alla IA vengono forniti degli esempi di obiettivi da raggiungere, vincolando così ad essi le sue scelte; nel non supervisionato, all’IA non sono fornite esemplificazioni di obiettivi ma, sulla base di input iniziali, impara dai propri errori; nell’apprendimento per rinforzo, infine, la macchina non ha nessun input e quindi potrà solo alla fine del processo verificare se le scelte operate sono state più o meno corrette. A questo ultimo livello, le opzioni dell’IA nascono anche dall’interazione con l’ambiente circostante e questo richiede l’implementazione con apparati che ne registrino i cambiamenti. È il caso delle auto senza pilota, ma è chiaro che questo è anche il livello di una IA che operi in un teatro di guerra. Si passa, in altre parole, da modelli di apprendimento e di interazione con l’ambiente in cui si vincolano procedure e soluzioni, a modelli nei quali si lascia alla IA una “libertà di scelta” (sempre che sia corretto parlare di libertà senza porsi il problema della coscienza), per il perseguimento degli obiettivi, quasi assoluta. Un tale livello di indipendenza nella scelta delle strade da percorrere per raggiungere un obiettivo è resa possibile dal ricorso a reti neurali artificiali che si ispirano ai neuroni e alle reti neurali umane e che, come accade per l’uomo, hanno la capacità di adattarsi continuamente sulla base della situazione di partenza, degli stimoli esterni, delle variabili interne. In un modello di tal genere, diventa praticamente impossibile stabilire quale percorso abbia condotto una IA a operare una scelta per raggiungere un obiettivo, ed è questa autonomia nelle procedure a sollevare problemi etici inimmaginabili solo pochi anni fa.
Quali questioni?
Siamo, insomma, alla soglia di una svolta che solleva almeno tre ordini di problemi.
Il primo in relazione alla sua portata. Per avere un termine di paragone, possiamo paragonare il momento attuale a quella “perdita dell’innocenza” con cui i fisici dovettero fare i conti con la costruzione della prima bomba nucleare. Un passaggio qualitativo che introduceva l’umanità in una concezione nuova della storia. A fronte della possibilità concreta che l’uomo possa porre fine alla storia, diventava necessario, scrisse Karl Jaspers, riscoprire la paura: occorre “accrescere l’angoscia” affinché gli uomini sappiano “portare la distrazione a diventare accortezza”, perché in ballo non c’è una forma di sopravvivenza ma la sopravvivenza stessa del genere umano.
A un secondo livello si colloca la questione del rapporto fra tecnologie e potere. Vale la pena di rileggere quanto Romano Guardini aveva scritto nel lontano 1963: “L’epoca futura in definitiva non dovrà affrontare il problema dell’aumento del potere, ma quello del suo dominio. Il senso centrale di questa epoca sarà il dovere di ordinare il potere in modo che l’uomo, facendone uso, possa rimanere uomo. L’uomo dovrà essere in grado di esercitare non soltanto un potere sulla natura, ma anche un potere sul proprio potere, apprendere a essere reggitore, impedendo che ogni cosa crolli nella violenza e nel caos”.
Infine, dobbiamo interrogarci sulla possibilità di limitare le ricerche qualora i risultati attesi portino con sé un pericolo, a breve o lunga scadenza, per l’umanità. Il problema è serissimo, perché si scontra con la libertà di ricerca che rappresenta di fatto uno dei tratti distintivi del pensiero scientifico occidentale. Ma risulta sempre più chiaro che questo problema non può più essere demandato semplicemente alla sensibilità personale o a inefficaci richiami alla responsabilità del ricercatore, soprattutto quando è chiaro che gli interessi economici determinano ampi ambiti della ricerca.
Difficile pensare che il vaso di Pandora dello sviluppo delle IA possa essere tenuto a lungo chiuso. Già negli anni Settanta, Hans Jonas considerava necessario un salto di qualità nella riflessione sulla responsabilità in ragione del fatto che lo sviluppo tecnologico tende, proprio per ragioni economiche, ad assumere estensioni globali nel tempo e nello spazio, condizionando pesantemente la possibilità stessa di una vita umana futura. Ed è proprio questa la ragione per la quale il problema non può restare nelle mani degli specialisti, né tantomeno in quelle dei signori della guerra. Se non altro perché, come ha messo in luce uno studio elaborato a Stanford del 2015, non è impossibile che si sviluppino in ambito militare “super-intelligenze che non agiscono in accordo con i desideri umani” e “che tali potenti sistemi possano minacciare l’umanità”.
Jaspers si chiedeva se l’angoscia sarebbe stata in grado di provocare l’emergere di una classe politica all’altezza delle sfide. Oggi mi chiedo se, di fronte a questa nuova sfida, non dovrebbe esserci uno scatto ancora più diffuso di responsabilità. Perché la posta in gioco, ad ogni superamento di soglia, è il bene insostituibile e irrecuperabile della vita.