Tag

, , , , ,

Una leggenda narra che nel 1580 Leone ben Bezabel, rabbino di Praga, costruì un’enorme figura umana di argilla chiamata Golem. Ad essa era affidato il compito di difendere il popolo ebraico attraverso la parola emet impressagli sulla fronte che gli dava la vita. Quando diventava troppo violento bastava cancellare la prima lettera, che così diventava met, cioè morte, e riportarla al suo stato originario di massa informe che è il significato letterale di Golem. Nel Novecento il mito ebraico è stato più volte ripreso, come metafora di un sogno antico dell’uomo, a proposito della rivoluzione informatica, soprattutto nel campo delle telecomunicazioni e della robotica. In questi contesti di speranze e attese fiduciose fiorisce l’idea che le macchine, un giorno, possano pensare e svolgere mansioni specificamente umane e il progetto di dar vita a macchine intelligenti, molto simili, se non addirittura indistinguibili dalla mente umana. La mente è stata sempre paragonata ai prodotti artificiali più complessi  e sofisticati di ogni epoca, in ultimo al computer: la mente, simile ad un software, non sarebbe altro che l’insieme delle informazioni contenute nel cervello, simile ad un hardware. I primi programmi di Intelligenza Artificiale (IA) furono elaborati in America verso la fine degli anni Cinquanta con l’obiettivo di imitare non la mente, bensì le capacità di calcolo, quindi solo gli aspetti  computazionali e razionali di quest’ultima. Il logico e matematico Alan Turing è stato un pioniere in questo campo, elaborando un test che porta il suo nome, ideato per capire “come si deve comportare una macchina per autorizzarci a pensare che essa pensi”. La risposta fu: se un essere umano non riesce a distinguere le prestazioni intelligenti di una macchina da quelle di un uomo, se ne può dedurre che ha di fronte una macchina intelligente, e che dunque le macchine possono competere con gli esseri umani. Sebbene esse superino di gran lunga l’intelligenza naturale riguardo la capacità di memorizzare, elaborare, gestire dati, qualora si trovino alle prese con ragionamenti o fatti che presuppongo conoscenze derivanti dal contesto di vita, o che richiedono fantasia e intuizione, si trovano in seria difficoltà. Alla IA manca la plasticità, la versatilità e la flessibilità della intelligenza umana, ma soprattutto la coscienza di sé e di quello che sta svolgendo.

Sono convinto che, per quanto l’intelligenza artificiale possa svilupparsi e progredire, non sarà mai in grado di elaborare un programma capace di interagire con il mondo e di orientarsi con successo nelle scelte complesse, ma talvolta anche semplici e  banali, che caratterizzano la vita quotidiana. Credo che sul piano teoretico l’IA si stia rivelando un grande fallimento, e non vedo sviluppi futuri, almeno in relazione ad una comprensione filosofica del mondo.[1]

In altri termini la capacità della mente di attribuire un significato non dipende dalla mera connessione di numeri e vocaboli, ma dai contesti sociali e linguistici in cui l’uomo, il suo corpo, il suo cervello sono inseriti. Il linguaggio, secondo Wittgenstein, non è astratto, è una forma di vita e dipende dal contesto. Il famoso esperimento della “stanza cinese” di John Searle, allo stesso modo, differenziando la capacità di combinare i simboli (sintassi) dalla comprensione del significato (semantica), attribuisce la prima alle macchine e la seconda esclusivamente agli esseri umani. Il cervello è una macchina biologica cosciente, e la coscienza, pur derivando da processi cerebrali, non è riproducibile, poiché è fatta di processi mentali interiori, di carattere qualitativo e soggettivo. L’IA è erede di una tradizione riduzionista, acontestualista del pensiero filosofico e soprattutto dualista: l’attenzione è puntata unicamente sul cervello, la mente e la facoltà di pensare scissi, separati, e assolutamente indipendenti dal corpo, dalla dimensione propriamente carnale dell’essere umano. Gli scienziati sono piuttosto fiduciosi nel credere che a fine secolo si potrà trasferire una persona, e tutte le sue irriducibili caratteristiche in una macchina (robot), che allora diventerà letteralmente la sua fotocopia. Come se quella delle macchine fosse semplicemente una delle tante tappe dell’evoluzione della specie umana.

Lord Martin Rees, docente di Astrofisica all’Università di Cambridge e astronomo della Regina, la vede un po’ diversamente: i robot sono utili per lavorare in ambienti proibitivi per l’uomo — piattaforme petrolifere in fiamme, miniere semidistrutte da un crollo, centrali in avaria che perdono sostanze radioattive — oltre che per svolgere mestieri ripetitivi. Ma devono restare al livello di «utili idioti: la loro intelligenza artificiale va limitata, non devono poter svolgere mestieri intellettuali complessi. Con occhi rivolti più alle glorie del passato che alle speranze e alle incognite di un futuro comunque problematico, egli propone una ricetta  anacronistica ed estrema che si spiega con l’angoscia che prende molti di noi davanti alla rapidità con la quale la civiltà dei robot — della quale abbiamo favoleggiato per decenni e che sembrava destinata a restare nei libri di fantascienza — sta entrando nelle nostre vite.[2]

Alle macchine mancano molte caratteristiche ontologiche degli esseri umani: l’intuito, la fantasia, la creatività, una storia personale, l’autonomia, un ruolo in società, un rapporto di interazione con l’ambiente circostante, stati d’animo ed emozioni, capacità di apprendimento e cognitive superiori, tutte possibili grazie al possesso di un corpo concreto, individuale e materiale, garante di identità e riconoscimento. Una macchina non nasce e non muore, non prova piacere né dolore: potremmo dire, in termini heideggeriani, che “la macchina è senza mondo”.  È un semplice strumento, un mezzo utile, pronto, destro per l’uomo.[3] Ci troviamo di fronte ad una reale necessità o ad un puro spirito di progresso? Si crea qualcosa che davvero serve o ci si appella al mito “tutto è possibile” per raggiungere la perfezione?

[1] Hubert Dreyfus, What computers can’t do: the limits of artificial, 1972.

[2] Massimo Gaggi, E il robot prepara cocktail e fa la guerra, 26 gennaio 2014, Corriere della sera. La lettura.

[3] Martin Heidegger, Concetti fondamentali della metafisica. Mondo, finitezza, solitudine, 1992, il Melangolo.

Annunci