Alan Turing: Macchine calcolatrici e intelligenza,1950

Alan Turing, matematico, logico e crittografo britannico, è considerato uno dei padri dell’informatica e dell’intelligenza artificiale. Nel 1950, pubblicò sulla rivista Mind il saggio “Computing Machinery and Intelligence”, in cui propose il celebre Test di Turing come criterio per determinare se una macchina possa essere considerata intelligente.

L’articolo esplora il concetto di pensiero artificiale e affronta le principali obiezioni all’idea che una macchina possa “pensare”. Attraverso un approccio logico e sperimentale, Turing introduce il gioco dell’imitazione, in cui un interrogante deve distinguere tra un essere umano e un computer basandosi esclusivamente sulle risposte fornite tramite un’interfaccia testuale.

Il lavoro di Turing ha avuto un impatto fondamentale nello sviluppo dell’intelligenza artificiale, anticipando di decenni le sfide e le possibilità offerte dalle moderne tecnologie di machine learning.

Di seguito puoi leggere il testo integrale dell’articolo.


1. Il gioco dell’imitazione

Mi propongo di considerare la questione: “Possono pensare le macchine?” Si dovrebbe cominciare col definire il significato dei termini macchina e pensare. Le definizioni potrebbero essere elaborate in modo da riflettere il più possibile l’uso normale delle parole, ma questo atteggiamento è pericoloso. Se il significato delle parole macchina e pensare deve essere trovato esaminando le parole stesse attraverso il loro uso comune, è difficile sfuggire alla conclusione che tale significato e la risposta alla domanda “Possono pensare le macchine? ” vadano ricercati in un’indagine statistica del tipo delle inchieste Gallup. Ciò è assurdo. Invece di tentare una definizione di questo tipo, sostituirò la domanda con un’altra, che le è strettamente analoga e che è espressa in termini non troppo ambigui.

La nuova forma del problema può essere descritta nei termini di un gioco, che chiameremo il gioco dell’imitazione. Questo viene giocato da tre persone: un uomo (A), una donna (B) e l’interrogante (C), che può essere dell’uno o dell’altro sesso. L’interrogante viene chiuso in una stanza, separato dagli altri due. Scopo del gioco per l’interrogante è quello di determinare quale delle altre due persone sia l’uomo e quale la donna. Egli le conosce con le etichette X e Y, e alla fine del gioco darà la soluzione “X è A e Y è B” o la soluzione “X è B e Y è A”.

L’interrogante può fare domande di questo tipo ad A e B: “Vuol dirmi, X, per favore, la lunghezza dei propri capelli?”

Ora supponiamo che X sia in effetti A, quindi A deve rispondere. Scopo di A nel gioco è quello di ingannare C e far sì che fornisca un’identificazione errata. La sua risposta potrebbe perciò essere: I miei capelli sono tagliati à la garçonne, ed i più lunghi sono di circa venticinque centimetri.”

Le risposte, affinché il tono di voce non possa aiutare l’interrogante, dovrebbero essere scritte, o, meglio ancora, battute a macchina. La soluzione migliore sarebbe quella di avere una telescrivente che mettesse in comunicazione le due stanze. Oppure, le domande e risposte potrebbero essere ripetute da un intermediario.

Scopo del gioco, per il terzo giocatore (B), è quello di aiutare l’interrogante. La migliore strategia per lei è probabilmente quella di dare risposte veritiere. Essa può anche aggiungere alle sue risposte frasi come “Sono io la donna, non dargli ascolto!”, ma ciò non approderà a nulla, dato che anche l’uomo può fare affermazioni analoghe.

Poniamo ora la domanda: “Che cosa accadrà se una macchina prenderà il posto di A nel gioco?”. L’interrogante darà una risposta errata altrettanto spesso di quando il gioco viene giocato tra un uomo e una donna? Queste domande sostituiscono quella originale: “Possono pensare le macchine?”.

2. Critica del nuovo problema

Come si potrebbe domandare: “Qual è la risposta alla domanda nella sua nuova formulazione?”. Così si potrebbe anche chiedere: “La nuova domanda merita di ricevere una risposta?”.

Esamineremo subito l’ultimo quesito, tagliando corto in tal modo a un regresso all’infinito.

Il nuovo problema ha il vantaggio di tirare una linea di separazione abbastanza netta tra le capacità fisiche e quelle intellettuali di un uomo. Nessun ingegnere o chimico pretende di essere capace di produrre un materiale che non si possa distinguere dalla pelle umana. Può darsi che un giorno questo possa essere fatto, ma perfino supponendo disponibile un’invenzione simile, riterremmo che valga poco la pena cercare di rendere più umana una macchina pensante rivestendola in questo modo di carne artificiale.

La forma nella quale abbiamo posto il problema riflette questo fatto, nella condizione che impedisce all’interrogante di vedere o toccare i due competitori e di udire le loro voci. Altri vantaggi del criterio proposto possono essere messi in luce da domande e risposte campione. Per esempio:

Domanda: “Mi scriva, per favore, un sonetto sul tema Forth Bridge.”
Risposta: “Non faccia affidamento su di me per questo. Non ho mai saputo scrivere poesie.”

Domanda: “Sommi 34.957 a 70.764.”
Risposta: (pausa di circa trenta secondi e poi la risposta): “105.721.”

Domanda: “Gioca a scacchi?”
Risposta: “Sì.”

Domanda: “Ho il Re in e1 e nessun altro pezzo. Lei ha solo il Re in c3 e una Torre in h8. Tocca a lei. Che mossa gioca?”
Risposta (dopo una pausa di quindici secondi): “Torre in h1, matto.”

Il metodo delle domande e risposte sembra essere adatto per introdurre nell’esame quasi ogni campo della conoscenza umana che desideriamo. Non vogliamo penalizzare la macchina per la sua incapacità di brillare in un concorso di bellezza, né penalizzare un uomo perché perde una corsa contro un aeroplano. Le condizioni del nostro gioco rendono irrilevanti queste incapacità. I testimoni possono vantarsi quanto vogliono, se lo considerano opportuno, della loro bellezza, forza ed eroismo, ma l’interrogante non può chiedere dimostrazioni pratiche.

Il gioco può forse essere criticato sulla base del fatto che le possibilità sono troppo nettamente a sfavore della macchina. Se l’uomo dovesse cercare di fingere di essere la macchina, farebbe certamente una figura molto brutta. Sarebbe tradito immediatamente dalla sua lentezza e imprecisione nell’aritmetica.

Non possono forse le macchine comportarsi in qualche maniera che dovrebbe essere descritta come pensiero, ma che è molto differente da quanto fa un uomo?

Questa obiezione è molto forte, ma come minimo possiamo dire che, se ciononostante una macchina può essere costruita in modo da giocare il gioco dell’imitazione soddisfacentemente, non abbiamo bisogno di tenerne conto.

Si potrebbe insistere sul fatto che, giocando il gioco dell’imitazione, la migliore strategia per la macchina potrebbe non essere l’imitazione del comportamento di un uomo. Può anche darsi, ma non credo che si possa dare grande peso a una possibilità del genere.

In ogni caso, non è nostra intenzione qui esaminare la teoria del gioco, e sarà dato per scontato che la migliore strategia per la macchina sia quella di provare a formulare le risposte che sarebbero date istintivamente da un uomo.

3. Le macchine interessate al gioco

La domanda che abbiamo posto nel paragrafo 1 non sarà del tutto definita fino a quando non avremo specificato che cosa intendiamo con la parola “macchina”. Naturalmente, sarebbe nostro desiderio che ogni tipo di tecnica ingegneristica potesse essere usata nella costruzione delle nostre macchine. Sarebbe pure nostro desiderio permettere che un ingegnere o una squadra di ingegneri potesse costruire una macchina che funzionasse, ma i cui metodi di operare non potessero essere descritti in maniera soddisfacente dai suoi costruttori, in quanto essi hanno applicato metodi largamente sperimentali.

Infine, vorremmo escludere dal concetto di macchina gli uomini nati nel modo normale. È difficile adattare le definizioni in modo tale da soddisfare queste tre condizioni. Si potrebbe, per esempio, richiedere che la squadra di ingegneri sia composta tutta da ingegneri dello stesso sesso, ma questo non sarebbe del tutto soddisfacente, perché è probabilmente possibile dar vita a un individuo completo a partire da una singola cellula della pelle, poniamo, di un uomo.

Sul piano della tecnica biologica, un risultato del genere sarebbe tale da meritare la lode più alta, ma non saremmo inclini a considerarlo un caso di costruzione di una macchina pensante. Questo ci obbliga ad abbandonare l’esigenza di permettere l’uso di qualsiasi tipo di tecnica.

Siamo tanto più pronti a farlo in vista del fatto che l’attuale interesse per le macchine pensanti è stato destato da un particolare tipo di macchina, chiamato correntemente “calcolatore elettronico” o “calcolatore numerico”. Seguendo questo indirizzo, permetteremo soltanto ai calcolatori numerici di prendere parte al nostro gioco.

Questa restrizione a prima vista appare molto drastica. Cercherò di dimostrare che in realtà non è così. Si rende perciò necessario dare, in breve, notizia della natura e delle proprietà di questi calcolatori.

Si potrebbe anche sostenere che l’identificazione delle macchine con i calcolatori numerici, come pure il nostro criterio per il concetto di “pensare”, sarebbe insoddisfacente se (contrariamente a quanto credo) risultasse che i calcolatori numerici sono incapaci di fare una buona figura nel gioco.

C’è già un buon numero di calcolatori numerici in funzione e si potrebbe chiedere: “Perché non tentare immediatamente l’esperimento?” Sarebbe facile soddisfare le condizioni del gioco. Potrebbe essere usato un certo numero di esaminatori, e potrebbero essere compilate statistiche per mostrare in quale proporzione è stata fornita l’identificazione giusta.

La risposta è che non ci stiamo chiedendo se tutti i calcolatori numerici potrebbero far buona figura nel gioco, né se potrebbero farla i calcolatori attualmente disponibili, ma se siano immaginabili calcolatori che potrebbero farla. Ma questa è solo una risposta per tagliare corto alle discussioni. Considereremo più tardi questa questione sotto una luce diversa.

4. Calcolatori numerici

L’idea che sta alla base dei calcolatori numerici può essere spiegata dicendo che queste macchine sono costruite per compiere qualsiasi operazione che possa essere eseguita da un calcolatore umano. Si suppone che il calcolatore umano segua regole fisse; egli non ha l’autorità di deviare da esse in alcun dettaglio.

Possiamo supporre che queste regole siano fornite da un libro, che viene modificato ogni volta che egli viene adibito a un nuovo lavoro. Egli ha pure una riserva illimitata di carta sulla quale fare i suoi calcoli. Può anche compiere le sue moltiplicazioni e addizioni con una calcolatrice da tavolo, ma questo non è importante.

Se usiamo la spiegazione data sopra come una definizione, rischieremo di cadere in un circolo vizioso. Evitiamo questo rischio dando un’indicazione dei metodi attraverso i quali l’effetto desiderato viene raggiunto.

Un calcolatore numerico può essere normalmente considerato composto di tre parti:
a) memoria
b) complesso operativo
c) governo

La memoria è un deposito di informazioni e corrisponde alla carta del calcolatore umano, sia che si tratti della carta sulla quale egli fa i suoi calcoli, sia di quella sulla quale è stampato il suo libro di regole. Per quella parte dei calcoli che il calcolatore umano compie con il suo cervello, una parte di questo deposito corrisponderà alla sua memoria.

Il complesso operativo è la parte che compie le varie operazioni singole che un calcolo comporta. Quali saranno queste singole operazioni dipenderà dalle diverse macchine. Di solito possono essere compiuti calcoli piuttosto lunghi, come moltiplicare 3.540.675.445 per 7.076.345.687, ma in alcune macchine sono possibili soltanto operazioni molto semplici del tipo “scrivere zero”.

Abbiamo fatto presente che il libro delle regole fornito al calcolatore umano è sostituito nella macchina da una parte della memoria. Si chiama allora tavola delle istruzioni. È compito del governo controllare che queste istruzioni siano eseguite correttamente e nell’ordine giusto. Il governo è costruito in maniera tale che questo avviene necessariamente.

Le informazioni contenute nella memoria sono comunemente suddivise in sezioni di dimensioni abbastanza ridotte.

Una istruzione tipica potrebbe dire:
“Sommare il numero immagazzinato nella posizione 6809 a quello contenuto nella posizione 4302 e riportare il risultato in quest’ultima cella di memoria.”

Inutile dire che non sarebbe necessario esprimersi in inglese nei confronti della macchina. L’ordine sarebbe più probabilmente codificato in una forma del tipo:
6809 4302 17

Qui 17 indica quale delle possibili operazioni deve essere compiuta sui due numeri. In questo caso, l’operazione è quella descritta sopra, cioè “Sommare il numero…”.

5. Universalità dei calcolatori numerici

I calcolatori numerici esaminati nell’ultimo paragrafo possono essere classificati tra le “macchine a stati discreti”, cioè tra quelle che si muovono a salti o scatti improvvisi da uno stato ben definito a un altro. Questi stati sono abbastanza differenti perché si possa ignorare la possibilità di confusione tra di essi. Strettamente parlando, non esistono macchine del genere. In realtà, ogni cosa si muove con continuità.

Ma ci sono molti tipi di macchine che possono vantaggiosamente essere viste come macchine a stati discreti. Per esempio, considerando gli interruttori di un sistema di illuminazione, è comodo supporre che ogni interruttore sia decisamente chiuso o aperto. Necessariamente esistono posizioni intermedie, ma per la maggior parte degli scopi possono essere trascurate.

Come esempio di macchina a stati discreti possiamo considerare una ruota che scatti girando di 120 gradi una volta al secondo, ma che può essere fermata da una leva azionata dall’esterno. Inoltre, vi sia una lampada che si accende in una delle posizioni della ruota.

Una tale macchina può essere descritta in forma astratta come segue. Lo stato interno della macchina (che è indicato dalla posizione della ruota) può essere q₁, q₂ o q₃. C’è un segnale di ingresso i₀ o i₁ (posizione della leva). A ogni istante lo stato interno è determinato dall’ultimo stato e dal segnale di ingresso secondo la tabella:

Ultimo statoq₁q₂q₃
Ingresso i₀q₂q₃q₁
Ingresso i₁q₁q₂q₃

I segnali in uscita, le uniche indicazioni esternamente visibili dello stato interno (la luce), sono descritti dalla tabella:

Statoq₁q₂q₃
Uscitau₀u₀u₁

Questo è un esempio rappresentativo delle macchine a stati discreti. Esse possono essere descritte da tabelle del genere purché abbiano soltanto un numero finito di stati possibili.

Sembrerà che, dati lo stato iniziale della macchina e i segnali di ingresso, sia sempre possibile predire tutti gli stati successivi. Questo ricorda l’ipotesi di Laplace secondo la quale, dallo stato completo dell’universo a un dato momento, descritto mediante la posizione e le velocità di ogni particella, sia possibile predirne tutti gli stati futuri.

La predizione che stiamo esaminando è, tuttavia, molto più vicina alla realizzazione pratica di quella formulata da Laplace. Il sistema dell’universo nel suo complesso è tale che errori molto piccoli nelle condizioni iniziali possono avere effetti disastrosi in un momento successivo.

Lo spostamento di un singolo elettrone per un miliardesimo di centimetro, in un dato momento, potrebbe significare la differenza tra due avvenimenti molto diversi, come l’uccisione di un uomo un anno dopo a causa di una valanga o la sua salvezza.

È una proprietà essenziale dei sistemi meccanici, che abbiamo chiamato “macchine a stati discreti”, che questo fenomeno non si verifichi. Perfino quando consideriamo le attuali macchine concrete, invece di quelle idealizzate, una conoscenza sufficientemente precisa del loro stato in un dato momento porta a una conoscenza sufficientemente precisa del loro stato a un qualsiasi numero di passi successivi.

Come abbiamo fatto presente, i calcolatori numerici rientrano nella classe delle macchine a stati discreti. Ma il numero di stati di cui una macchina del genere è capace è di solito enormemente elevato. Per esempio, per la macchina che lavora in questo momento a Manchester è di circa 2¹⁶⁵⁰⁰⁰, cioè circa 10⁵⁰⁰⁰.

Si può fare un paragone tra questa macchina e il nostro esempio della ruota a scatti descritta sopra, che aveva solo tre stati. Non è difficile vedere perché il numero degli stati debba essere così elevato. Il calcolatore implica una memoria corrispondente alla carta usata dal calcolatore umano. Deve essere possibile inserire nelle memorie qualsiasi combinazione di simboli che potrebbe essere stata scritta sulla carta.

Per semplicità, supponiamo che vengano usati come simboli soltanto le cifre da 0 a 9. Le variazioni di grafia vengono trascurate. Supponiamo che il calcolatore abbia a disposizione 100 fogli di carta, contenenti ognuno 50 righe con spazio sufficiente per 30 cifre.

Il numero degli stati allora diviene 10¹⁵⁰⁰⁰, che è all’incirca il numero degli stati di tre macchine di Manchester messe insieme.

Il logaritmo in base due del numero di stati è chiamato di solito “capacità di memorizzazione” della macchina. Così, la macchina di Manchester possiede una capacità di memorizzazione di circa 165000, mentre la macchina a ruota del nostro esempio ha una capacità di circa 1,6. Se due macchine sono messe insieme, le loro capacità devono essere sommate per ottenere la capacità della macchina risultante.

Questo porta alla possibilità di affermazioni del genere: “La macchina di Manchester contiene 64 tracce magnetiche, ognuna con una capacità di 2560, e otto tubi elettronici con una capacità di 1280. La memoria mista è di circa 300, il che fa un totale di 174380.”

Data la tabella corrispondente allo stato di una macchina a stati discreti, è possibile predire cosa essa farà. Non c’è alcuna ragione per cui questo calcolo non possa essere compiuto facendo uso di un calcolatore numerico.

Purché esso possa venir eseguito con una velocità sufficiente, il calcolatore numerico potrebbe imitare il comportamento di qualsiasi macchina a stati discreti. Il gioco dell’imitazione potrebbe allora essere giocato tra la macchina in questione (nella parte di B) e il calcolatore numerico (nella parte di A), e l’interrogante non sarebbe capace di distinguerli.

Naturalmente, il calcolatore numerico dovrebbe avere una memoria adeguata e funzionare a velocità abbastanza alta. Inoltre, bisognerebbe programmarlo di nuovo per ogni nuova macchina che si desidera fargli imitare.

Questa speciale proprietà dei calcolatori numerici, cioè che essi possono imitare ogni macchina a stati discreti, si può descrivere dicendo che essi sono macchine universali.

L’esistenza di macchine con questa proprietà ha la conseguenza importante che, a parte considerazioni di velocità, non è necessario progettare varie macchine differenti per compiere processi differenti di calcolo.

Questi possono essere compiuti tutti con un solo calcolatore numerico programmato nella forma adatta caso per caso. Si vedrà che, come conseguenza di ciò, tutti i calcolatori numerici sono in un certo senso equivalenti.

Ecco il testo corretto senza errori, con gli apostrofi, le parole mancanti e le virgolette aggiunte, ma senza il grassetto.

6. Opinioni contrarie a proposito dell’argomento principale

Possiamo ritenere adesso di aver sgombrato il terreno e di essere pronti per cominciare ad esaminare la nostra domanda: “Possono pensare le macchine?” e la variante ad essa che abbiamo avanzato alla fine dell’ultimo paragrafo. Non possiamo addirittura abbandonare la forma originale del problema, dato che le opinioni sulla legittimità della sostituzione saranno diverse e dobbiamo come minimo tenere presenti quelle che potrebbero essere le obiezioni a questo riguardo.

Sarà più semplice per il lettore che io spieghi in primo luogo le mie opinioni in materia. Consideriamo per prima la forma più precisa della domanda. Credo che entro circa 50 anni sarà possibile programmare calcolatori con una capacità di memorizzazione di circa 10⁹, per far giocare loro il gioco dell’imitazione così bene che un esaminatore medio non avrà più del 70 per cento di probabilità di compiere l’identificazione esatta dopo 5 minuti di interrogazione.

Credo che la domanda iniziale, “Possono pensare le macchine?”, sia troppo priva di senso per meritare una discussione. Ciò nonostante, credo che alla fine del secolo l’uso delle parole e l’opinione corrente si saranno talmente mutate che chiunque potrà parlare di macchine pensanti senza aspettarsi di essere contraddetto.

Credo inoltre che non vi sia alcuna utilità a nascondere queste opinioni. L’opinione popolare secondo cui gli scienziati procedano inesorabilmente da un fatto ben stabilito a un altro fatto ben stabilito, senza che intervenga mai l’influenza di una congettura non ancora provata, è del tutto errata. Purché venga chiaramente messo in evidenza quali siano i fatti provati e quali siano le congetture, non può risultarne alcun danno. Le congetture sono di importanza fondamentale, dato che suggeriscono utili linee di ricerca.

Passo adesso a considerare opinioni opposte alle mie.

6.1 L’obiezione teologica

“Il pensare è una funzione dell’anima immortale dell’uomo. Dio ha dato un’anima immortale a ogni uomo e donna, ma non agli altri animali o alle macchine. Perciò nessun animale o macchina può pensare.”

Sono incapace di accettare qualsiasi parte di questa affermazione, ma cercherò di rispondere in termini teologici. Troverei l’argomento più convincente se gli animali fossero classificati insieme agli uomini, perché c’è una maggiore differenza, a mio avviso, tra il tipico animato e l’inanimato, di quanta non ve ne sia tra l’uomo e gli altri animali.

Il carattere arbitrario del punto di vista ortodosso diviene più evidente se consideriamo come esso potrebbe apparire ai membri di una diversa comunità religiosa. Come considerano i cristiani il punto di vista musulmano secondo il quale le donne non hanno anima?

Ma lasciamo da parte questo punto e torniamo all’argomento principale. Mi sembra che l’argomento sopra indicato implichi una seria restrizione dell’onnipotenza di Dio. È ammesso che vi siano certe cose che Egli non può fare, come per esempio rendere uno uguale a due, ma non dobbiamo credere che Egli abbia la libertà di concedere l’anima a un elefante se lo considera opportuno?

Potremmo aspettarci che Egli eserciterebbe questo potere soltanto in relazione a una mutazione che fornisse all’elefante un cervello opportunamente migliorato per venire incontro ai bisogni di quest’anima. Si può argomentare con forma esattamente analoga nel caso delle macchine.

L’argomento può sembrare diverso perché più difficile da accettare. Ma in effetti questo significa soltanto che noi pensiamo che sarebbe meno probabile che Egli considerasse le circostanze come adatte per conferire un’anima. Le circostanze in questione sono discusse nel resto di questo articolo.

Tentando di costruire macchine del genere, non vogliamo usurpare irriverentemente il Suo potere di creare anime, più di quanto non facciamo procreando bambini: piuttosto noi siamo, in entrambi i casi, strumenti del Suo volere, fornendo abitazioni per le anime che Egli crea.

(Nota: Può darsi che questa opinione sia eretica. San Tommaso d’Aquino (Summa Theologica, citata da Bertrand Russell, “Storia della filosofia occidentale”) dice che Dio non può far sì che un uomo non abbia anima. Ma questa può non essere una effettiva restrizione dei Suoi poteri, ma solo un risultato del fatto che l’anima degli uomini è immortale, e quindi indistruttibile.)

Comunque, questa è mera speculazione. Non rimango molto impressionato dagli argomenti teologici, qualunque tesi essi sostengano. Argomenti del genere sono risultati insoddisfacenti in passato.

Al tempo di Galileo si pensava che i testi “E il sole si fermò… e non si affrettò a tramontare per quasi un giorno intero” (Giosuè 10,13) e “Pose le fondamenta della terra, in modo che non si muovesse per sempre” (Salmi 105,5) costituissero una confutazione adeguata della teoria copernicana.

Con le nostre odierne cognizioni, un argomento del genere appare futile. Quando queste cognizioni non erano disponibili, esso faceva un’impressione del tutto diversa.

6.2 L’obiezione della testa nella sabbia

Le conseguenze delle macchine pensanti sarebbero terribili; speriamo e crediamo che esse non possano esistere.

L’argomento è espresso raramente in una forma così esplicita. Ma esso contagia la maggioranza di quanti di noi pensano al problema. Ci piace credere che l’uomo sia in qualche modo misterioso, superiore al resto del creato. Meglio per lui se può dimostrare di essere necessariamente superiore, perché allora non vi sarà pericolo che possa perdere la sua posizione di comando.

La popolarità dell’argomento teologico è chiaramente connessa con questo sentimento. Probabilmente esso è molto forte tra gli intellettuali, dato che costoro valutano il potere del pensiero più degli altri e sono più inclini a basare la loro credenza nella superiorità dell’uomo su questo potere.

Non credo che l’argomento sia abbastanza solido per meritare una confutazione. Sarebbe più appropriata una consolazione, che potrebbe magari essere ricercata nella trasmigrazione delle anime.

6.3 L’obiezione matematica

Esiste una serie di risultati della logica matematica che possono essere usati per dimostrare che esistono delle limitazioni ai poteri delle macchine a stati discreti. Il più conosciuto di questi risultati è noto come teorema di Gödel, e dimostra che in qualsiasi sistema logico sufficientemente potente possono essere formulati degli enunciati che non possono essere né provati né confutati all’interno del sistema, a meno che il sistema stesso non sia contraddittorio.

Vi sono altri risultati, sotto qualche aspetto simili, dovuti a Church, Kleene, Rosser e Turing. Il più conveniente da esaminare è quest’ultimo, dato che si riferisce direttamente alle macchine, mentre gli altri possono essere usati soltanto in argomentazioni relativamente indirette. Per esempio, se vogliamo utilizzare il teorema di Gödel, abbiamo bisogno di qualche metodo addizionale per descrivere i sistemi logici in termini di macchine e le macchine in termini di sistemi logici.

Il risultato in questione si riferisce a un tipo di macchina che è essenzialmente un calcolatore numerico a capacità infinita. Esso dice che vi sono alcune cose che una macchina non può fare. Se essa è costretta a dare risposte a domande come nel gioco dell’imitazione, ci saranno alcune domande alle quali essa o darà una risposta errata, o non darà affatto risposta, quale che sia il tempo concesso per rispondere.

Vi possono naturalmente essere molte domande del genere, e domande cui non può essere data risposta da una macchina possono ricevere una risposta soddisfacente da un’altra macchina. Stiamo supponendo naturalmente per il momento che le domande siano del tipo per il quale è appropriata una risposta come o no, piuttosto che del tipo “Che ne pensi di Picasso?”.

Le domande alle quali sappiamo che le macchine non riusciranno a rispondere sono di questo tipo: “Si prenda in esame la macchina caratterizzata nella seguente maniera… questa macchina risponderà mai sì a qualche domanda?” I puntini devono essere sostituiti dalla descrizione di qualche macchina in una forma standard, descrizione eventualmente analoga a quella del paragrafo 5.

Quando la macchina descritta è in una certa relazione relativamente semplice con la macchina che è sottoposta a interrogazione, si può dimostrare che la risposta sarà errata o non sarà data affatto. Questo è il risultato matematico: si sostiene che esso dimostra un’incapacità della macchina alla quale l’intelletto umano non è soggetto.

La risposta più breve a questa argomentazione è che, sebbene sia stato chiarito che esistono delle limitazioni ai poteri di una qualsiasi macchina specifica, è stato poi soltanto enunciato, senza alcuna sorta di dimostrazione, che nessuna limitazione del tipo è applicabile all’intelletto umano.

Non credo però che l’argomentazione possa venire liquidata così sbrigativamente. Ogni volta che viene posta a una di queste macchine un’opportuna domanda critica, ed essa dà una risposta definita, noi sappiamo che questa risposta deve essere errata, e questo ci dà un certo senso di superiorità.

Questo senso di superiorità è illusorio? Certamente esso è genuino, ma non credo che vi si possa attribuire troppa importanza. Diamo troppo spesso risposte errate anche noi, per sentirci giustificati nel provare piacere dinanzi a tali prove della possibilità di errore da parte della macchina.

Per giunta, la nostra superiorità può essere sentita volta a volta in relazione alla specifica macchina sulla quale abbiamo riportato il nostro piccolo trionfo. Non ci sarebbe alcuna possibilità di trionfo simultaneo su tutte le macchine. In breve, quindi, ci possono essere uomini più abili di una qualsiasi macchina data, ma ci possono poi essere altre macchine più abili ancora, e così via.

Coloro che si rifanno all’argomento matematico sarebbero disposti, credo in maggioranza, ad accettare il gioco dell’imitazione come base di discussione. Coloro che ricorrono alle due obiezioni precedenti non credo, invece, siano disposti ad accettare alcun criterio.

6.4 L’argomento dell’autocoscienza

Questo argomento fu espresso molto bene nel 1949 dal professor Jefferson:

“Fino a quando una macchina non potrà scrivere un sonetto o comporre un concerto in base a pensieri ed emozioni provate, e non per la giustapposizione casuale di simboli, non potremo essere d’accordo sul fatto che una macchina eguagli il cervello, cioè che non solo scriva ma sappia di aver scritto. Nessun meccanismo potrebbe sentire (e non semplicemente segnalare artificialmente, che sarebbe un facile trucco) piacere per i suoi successi, dolore quando una sua valvola fonde, arrossire per l’adulazione, sentirsi depresso per i propri errori, essere attratto dal sesso, arrabbiarsi o abbattersi quando non può ottenere quel che desidera.”

Questo argomento sembra una negazione della validità del nostro test. Secondo la forma più estrema di questa opinione, il solo modo per cui si potrebbe essere sicuri che una macchina pensa è quello di essere la macchina e di sentire se stessi pensare.

Uno potrebbe allora naturalmente descrivere queste sensazioni al mondo, ma ovviamente nessuno sarebbe giustificato nel darvi ascolto. Allo stesso modo, secondo questa opinione, la sola via per sapere che un uomo pensa è quella di essere quell’uomo in particolare.

È questo, in effetti, il punto di vista solipsistico. Può essere il punto di vista migliore cui attenersi sul piano logico, ma rende difficile la comunicazione delle idee. Probabilmente A crederà che A pensa, ma non B, mentre B crede che B pensa, ma non A.

Invece di discutere in continuazione su questo punto, è normale attenersi alla educata convinzione che ognuno pensi.

Sono sicuro che il professor Jefferson non desidera adottare il punto di vista estremista e solipsista. Probabilmente egli sarebbe volentieri disposto ad accettare il gioco dell’imitazione come prova.

Il gioco (con l’esclusione del giocatore B) è frequentemente usato in pratica sotto il nome di esame orale per scoprire se qualcuno ha realmente capito qualcosa o l’ha imparata a memoria.

Ascoltiamo parte di un tale esame orale:

Esaminatore: Nel primo verso del sonetto, che dice “Ti paragonerò a una giornata d’estate”, una giornata di primavera non andrebbe bene lo stesso?
Candidato: Non quadrerebbe metricamente.
Esaminatore: E una giornata d’inverno? Metricamente andrebbe bene.
Candidato: Sì, ma nessuno vorrebbe essere paragonato a un giorno d’inverno.
Esaminatore: Lei direbbe che Mr. Pickwick le ricorda Natale?
Candidato: In un certo senso.
Esaminatore: Eppure Natale è un giorno d’inverno, e non credo che il paragone dispiacerebbe a Mr. Pickwick.
Candidato: Non credo che lei parli seriamente. Per un giorno d’inverno si intende un tipico giorno d’inverno, piuttosto che un giorno speciale come Natale.

E così via.

Che cosa direbbe il professor Jefferson se la macchina che scrive sonetti potesse rispondere in maniera analoga a un esame orale?

Non so se considererebbe la macchina in fase di segnalazione puramente artificiale di queste risposte, ma se le risposte fossero così soddisfacenti e ragionate come nel passo indicato sopra, non credo che le descriverebbe come “un facile espediente”.

Questa frase ritengo sia intesa a tener conto di trucchi come l’inclusione nella macchina di un disco di qualcuno che legga un sonetto, con interruttori adatti per metterlo in moto di volta in volta.

In breve, credo che la maggior parte di coloro che sostengono l’argomento dell’autocoscienza potrebbero essere persuasi ad abbandonarlo, piuttosto che accettare la posizione solipsistica.

Quindi essi sarebbero probabilmente disposti a riconoscere la validità della nostra prova.

Non voglio dare l’impressione di credere che non ci sia alcun mistero nei riguardi dell’autocoscienza. C’è, per esempio, qualcosa di paradossale in ogni tentativo di localizzarla.

Ma non credo che questi misteri debbano necessariamente essere risolti prima che noi possiamo rispondere alle domande contenute in questo articolo.

6.5 Argomentazioni fondate su incapacità varie

Questi argomenti prendono la forma: Vi concedo che possiate far fare alle macchine tutto quello cui avete accennato, ma non potrete mai costruirne una capace di fare X.

Vengono proposte a questo riguardo numerose caratteristiche. Ecco alcuni esempi: essere gentile, pieno di risorse, bello, cordiale, avere iniziativa, avere senso dell’umorismo, distinguere il bene dal male, commettere errori, innamorarsi, gustare le fragole con la panna, far sì che qualcuno si innamori di noi, imparare dall’esperienza, usare le parole nel modo appropriato, essere l’oggetto dei propri pensieri, avere un comportamento vario quanto quello umano, fare qualcosa di realmente nuovo.

In genere non viene offerta alcuna base per queste affermazioni. Credo che, nella maggior parte dei casi, esse siano fondate sul principio dell’induzione scientifica.

Un uomo ha visto, durante la propria vita, migliaia di macchine. Da quanto ha osservato, egli trae una serie di conclusioni generali: esse sono brutte, ognuna è progettata per uno scopo molto limitato, quando vengono usate per uno scopo leggermente diverso si dimostrano inutili, la varietà di comportamento di ognuna è molto limitata, ecc. Naturalmente, egli conclude che queste siano proprietà necessarie delle macchine in generale.

Molte di queste limitazioni sono associate alla piccolissima capacità di memorizzazione della maggior parte delle macchine.

(Sto supponendo che l’idea di capacità di memorizzazione sia estesa in qualche modo a includere macchine diverse da quelle a stati discreti. La definizione esatta non ha importanza, visto che nell’attuale discussione non si richiede alcuna precisione matematica.)

Pochi anni fa, quando si parlava ancora poco di calcolatori numerici, era possibile suscitare molta incredulità riguardo ad essi, se si accennava alle loro proprietà senza descrivere il modo in cui erano costruiti.

Ciò era presumibilmente dovuto a un’analoga applicazione del principio d’induzione scientifica.

Queste applicazioni del principio sono naturalmente in gran parte a livello inconscio. Quando un bambino che si è scottato ha paura del fuoco e mostra di averne paura evitandolo, direi che sta applicando l’induzione scientifica. (Potrei naturalmente descrivere il suo comportamento in molti altri modi.)

Le opere e i costumi dell’uomo non sembrano costituire un buon terreno d’applicazione per l’induzione scientifica.

Bisogna prendere in esame un grande intervallo nello spazio e nel tempo se si vogliono ottenere risultati attendibili. Altrimenti potremmo decidere (come fa la maggior parte dei bambini inglesi) che tutti parlano inglese e che è inutile imparare il francese.

È necessario tuttavia svolgere alcune considerazioni specifiche a proposito delle incapacità che abbiamo citato.

L’incapacità a gustare le fragole con la panna può aver colpito il lettore come una cosa frivola. Probabilmente si potrebbe trovare il modo di far gustare a una macchina questo piatto delizioso, ma ogni sforzo del genere sarebbe sciocco.

Ciò che è importante riguardo a questa incapacità è il fatto che essa è connessa ad altre incapacità, ad esempio alla difficoltà di stabilire tra l’uomo e la macchina un rapporto di amicizia simile a quello tra esseri umani.

La pretesa che le macchine non possano sbagliare sembra strana. Si è tentati di ribattere: Sono forse peggiori per questo?

Ma cerchiamo di assumere un atteggiamento più comprensivo e di renderci conto del suo vero significato.

Penso che questa critica possa venir spiegata in termini di gioco dell’imitazione. Si afferma che colui che interroga potrebbe distinguere la macchina dall’uomo semplicemente ponendo ad entrambi un certo numero di problemi aritmetici.

La macchina verrebbe smascherata per la sua tremenda precisione.

La risposta a questo è semplice. La macchina, programmata per giocare il gioco, non cercherebbe di dare la risposta esatta a problemi aritmetici. Introdurrebbe deliberatamente degli errori, in un modo studiato apposta per confondere chi interroga.

Un difetto meccanico si tradurrebbe probabilmente in una decisione inopportuna sul tipo di errore da commettere in aritmetica.Anche questa interpretazione della critica non è abbastanza comprensiva. Ma non possiamo permetterci di dedicarle molto spazio.Mi sembra che questa critica dipenda da una confusione tra due tipi di errore. Possiamo chiamarli errori di funzionamento ed errori di conclusione.

Gli errori di funzionamento sono dovuti a qualche difetto meccanico o elettrico che determina un comportamento della macchina diverso da quello che era stato previsto per essa.

In una discussione filosofica si preferisce ignorare la possibilità di errori simili; si discute quindi di macchine astratte. Queste macchine astratte sono finzioni matematiche più che oggetti fisici. Sono incapaci, per definizione, di errori di funzionamento.

In questo senso possiamo veramente dire che le macchine non possono mai sbagliare. Errori di conclusione possono verificarsi soltanto quando si attribuisce un certo significato ai segnali in uscita della macchina.La macchina potrebbe, ad esempio, presentare equazioni matematiche o frasi in inglese. Quando viene presentata una proposizione falsa diciamo che la macchina ha commesso un errore di conclusione.Non c’è ovviamente alcun motivo per dire che una macchina non possa commettere un errore di questo tipo. Potrebbe non fare nient’altro che presentare a ripetizione “0 = 1”.

Per fare un esempio meno drastico, potrebbe avere qualche metodo per trarre conclusioni secondo l’induzione scientifica. Dobbiamo aspettarci che questo metodo possa talvolta condurla a risultati erronei.

Alla affermazione che una macchina non può essere oggetto del proprio pensiero si può naturalmente rispondere soltanto se si riesce a dimostrare che la macchina ha un qualche pensiero su un qualche oggetto. Nondimeno, l’espressione oggetto delle operazioni di una macchina sembra avere un certo significato, almeno per le persone che si occupano di tali operazioni. Se, per esempio, la macchina tentasse di trovare una soluzione all’equazione x² – 40x + 11 = 0, si sarebbe tentati di descrivere questa equazione come parte dell’argomento di cui si occupava la macchina in quel momento.

In questo senso specifico, una macchina può indubbiamente occuparsi di se stessa. Può essere usata per contribuire ad elaborare i propri programmi o a predire gli effetti di mutamenti nella propria struttura. Osservando i risultati del proprio comportamento, può modificare i suoi programmi in modo da conseguire con maggiore efficacia un certo scopo.

Queste sono possibilità dell’immediato futuro, piuttosto che sogni da utopia.

La critica secondo cui una macchina non può presentare molta varietà di comportamento è solo un altro modo per dire che non può avere una grande capacità di memorizzazione. Fino a pochissimo tempo fa, una capacità di memorizzazione anche di mille unità era rarissima.

Le critiche che stiamo considerando qui sono spesso forme dissimulate dell’argomento dell’autocoscienza. Normalmente, se uno sostiene che una macchina può fare una di queste cose e descrive il tipo di metodo che la macchina potrebbe usare, non fa molta impressione.

Si pensa che il metodo (qualunque esso sia, dato che deve essere meccanico) è in realtà piuttosto banale.

6.6 L’obiezione di Lady Lovelace

Le informazioni più dettagliate che possediamo sulla macchina analitica di Babbage sono tratte da un saggio di Lady Lovelace. In esso si afferma: “La macchina analitica non ha la pretesa di creare alcunché. Può fare qualsiasi cosa sappiamo come ordinarle di fare” (il corsivo è nel testo).

Questa affermazione è citata da Hartree, il quale aggiunge: “Questo non implica l’impossibilità di costruire un’apparecchiatura elettronica capace di pensare per proprio conto, o nella quale, in termini biologici, si potesse instaurare un riflesso condizionato, che servisse come base per l’apprendimento”.

Se ciò sia possibile o no in linea di principio è una domanda stimolante ed entusiasmante, suggerita da alcuni sviluppi recenti. Ma non sembrava che le macchine costruite o progettate a quel tempo avessero questa proprietà.

Sono perfettamente d’accordo con Hartree su questo fatto. Si noterà che egli non afferma che le macchine in questione non avessero questa proprietà, ma piuttosto che gli elementi a disposizione non incoraggiavano Lady Lovelace a crederlo. È perfettamente possibile che le macchine di cui si parla avessero, in un certo senso, questa proprietà.

Supponiamo infatti che qualche macchina a stati discreti abbia questa proprietà. La macchina analitica di Babbage era un calcolatore numerico universale, in modo che, se le sue capacità di memorizzazione e la sua velocità fossero adeguate, si potrebbe, con un’opportuna programmazione, portarla ad imitare la macchina in questione. Probabilmente questo argomento non venne in mente né alla Contessa né a Babbage. Comunque essi non avevano il dovere di sostenere tutto ciò che si poteva sostenere.

L’intera questione sarà nuovamente considerata parlando di macchine che apprendono.

Una variante dell’obiezione di Lady Lovelace afferma che “una macchina non può fare mai veramente qualcosa di nuovo”. Si può eludere per il momento l’obiezione con il detto: “Non c’è nulla di nuovo sotto il sole”.

Chi può essere sicuro che il lavoro originale da lui compiuto non sia stato semplicemente la crescita di un seme gettato dall’insegnamento, o la conseguenza dell’aver seguito principi generali ben noti?

Una variante migliore dell’obiezione dice che “una macchina non può mai prenderci alla sprovvista”. Questa affermazione è una sfida più diretta e può essere controbattuta direttamente.

Le macchine mi prendono alla sprovvista molto frequentemente. Questo di solito dipende in gran parte dal fatto che non faccio calcoli sufficienti a decidere che cosa aspettarmi che facciano, o piuttosto perché, quantunque faccia dei calcoli, li faccio in modo affrettato e disordinato, rischiando di sbagliare.

Magari dico a me stesso: “Penso che la tensione qui dovrebbe essere la stessa che là, comunque supponiamolo”.

Naturalmente, spesso mi sbaglio, e il risultato è una sorpresa per me, perché, quando l’esperimento è concluso, questi presupposti sono stati dimenticati.

Queste ammissioni da parte mia offrono la possibilità per una serie di conferenze che trattino dei miei erronei procedimenti, ma non gettano alcun dubbio sulla mia attendibilità quando testimonio sulle sorprese che vado sperimentando.

Non mi aspetto che questa risposta metta a tacere il mio critico. Egli dirà probabilmente che simili sorprese sono dovute a qualche atto mentale creativo da parte mia e che nessun merito ne deriva in conseguenza alle macchine.

Questo ci riporta all’argomento dell’autocoscienza e lontano dall’idea di sorpresa. È un tipo di argomentazione che dobbiamo considerare esaurita, ma vale forse la pena di osservare che valutare qualcosa come sorprendente richiede sempre un atto mentale creativo, tanto nel caso che ciò che sorprende sia provocato da un uomo, quanto nel caso che si tratti di un libro, di una macchina o di qualsiasi altra cosa.

L’opinione che le macchine non possano far nascere sorprese è dovuta spesso a un errore cui sono particolarmente soggetti filosofi e matematici.

L’errore consiste nel presupporre che, appena un fatto si presenta alla mente, tutte le conseguenze di questo fatto saltino fuori simultaneamente. È un presupposto utile in molte circostanze, ma ci si dimentica troppo facilmente che è falso.

Una conseguenza naturale di questo modo di agire è che si presuppone che non ci sia alcun merito nella semplice elaborazione delle conseguenze di dati e principi generali.

6.7 Argomentazione fondata sulla continuità del sistema nervoso

Il sistema nervoso non è certo una macchina a stati discreti. Un piccolo errore d’informazione circa la grandezza di un impulso nervoso che colpisce un neurone può essere importantissimo per quanto riguarda la grandezza dell’impulso in uscita.

Si può sostenere che, stando così le cose, non si può pensare di poter imitare il comportamento del sistema nervoso con un sistema a stati discreti.

È vero che una macchina a stati discreti deve essere diversa da una macchina continua. Ma se ci atteniamo alle condizioni del gioco dell’imitazione, colui che interroga non sarà in grado di trarre alcun vantaggio dalla differenza.

Si può rendere più chiara la situazione se consideriamo qualche altra macchina continua più semplice. Un analizzatore differenziale servirà benissimo allo scopo. (Un analizzatore differenziale è un particolare tipo di macchina, non appartenente alla categoria a stati discreti, usato per determinati calcoli.)

Alcune di queste macchine forniscono le loro risposte in forma dattiloscritta e quindi sono adatte a prendere parte al gioco.

Non sarebbe possibile per un calcolatore numerico predire esattamente che risposte verrebbero date dall’analizzatore differenziale a un problema, ma esso sarebbe perfettamente in grado di dare l’esatto tipo di risposta.

Per esempio, se gli si chiede di dare il valore di π (circa 3,1416), sarebbe ragionevole scegliere a caso tra i valori 3,12; 3,13; 3,14; 3,15; 3,16 con le probabilità, poniamo, di 0,05; 0,15; 0,55; 0,19; 0,06.

In queste circostanze sarebbe molto difficile per colui che interroga distinguere l’analizzatore differenziale dal calcolatore numerico.

6.8 Argomentazione del comportamento senza regole rigide

Non è possibile presentare un complesso di regole che descrivano cosa debba fare un uomo in ogni possibile circostanza. Si potrebbe, ad esempio, avere una regola che stabilisca che ci si debba fermare quando si vede un semaforo rosso e si passi invece se se ne vede uno verde, ma cosa succederebbe se, per qualche guasto, il rosso e il verde apparissero entrambi insieme? Si potrebbe forse decidere che la cosa più sicura sia fermarsi. Ma più tardi potrebbe comunque sorgere qualche ulteriore difficoltà legata a questa decisione.

Tentare di fornire regole di condotta tali da includere qualsiasi eventualità, anche quelle che si presentano a causa dei semafori, appare impossibile. Sono d’accordo su tutto questo.

Da ciò si argomenta che non possiamo essere macchine. Proverò a riprodurre l’argomentazione, ma temo che difficilmente riuscirò a non travisarla. Mi sembra che sia pressappoco di questo tipo:

“Se ogni uomo avesse un complesso definito di regole di condotta secondo le quali regolare la sua esistenza, non sarebbe meglio di una macchina. Ma non esistono tali regole, così gli uomini non possono essere macchine.”

È chiarissimo che il termine medio non è distribuito. Non penso che la tesi assuma mai veramente questa forma, ma credo che in sostanza sia questo l’argomento usato.

Può esserci tuttavia una certa confusione tra regole di condotta e leggi di comportamento, che può far nascere dei dubbi su questo punto.

Per regole di condotta intendo prescrizioni come “Fermati se vedi una luce rossa”, in base alle quali si può agire e di cui si può avere coscienza.

Per leggi di comportamento intendo leggi di natura applicate al corpo di un uomo, come “Se lo pizzichi, egli si metterà a strillare”.

Se sostituiamo le leggi di comportamento che regolano la sua esistenza al posto delle regole di condotta in base alle quali egli regola la sua esistenza, nell’argomento citato, la difficoltà del termine medio non distribuito non è più insuperabile.

Noi crediamo infatti che non soltanto sia vero che essere regolati da leggi di comportamento implichi essere una specie di macchina (quantunque non necessariamente una macchina a stati discreti), ma che viceversa essere una macchina di questo tipo implichi essere regolati da tali leggi.

Comunque, non possiamo convincerci così facilmente della mancanza di leggi complete di comportamento come della mancanza di regole complete di condotta.

L’unica maniera che conosciamo per trovare tali leggi è l’osservazione scientifica, e non conosciamo certamente nessuna circostanza nella quale potremmo dire:“Abbiamo cercato abbastanza. Non esistono leggi del genere.”

Possiamo decisamente dimostrare che qualsiasi affermazione di questo tipo sarebbe ingiustificata. Supponiamo infatti che potessimo essere sicuri di trovare simili leggi nel caso esistessero.

Allora, data una macchina a stati discreti, dovrebbe essere certamente possibile scoprire con l’osservazione abbastanza su di essa da predire il suo comportamento futuro, e questo in un tempo ragionevole, diciamo un migliaio d’anni. Ma non sembra sia questo il caso.

Ho impostato per il calcolatore di Manchester un piccolo programma con soltanto 1000 unità di memoria, in base al quale la macchina, cui viene fornito un numero a 16 cifre, risponde con un altro in due secondi.

Sfido chiunque a imparare da queste risposte abbastanza sul programma, da essere in grado di predire qualsiasi risposta a valori non ancora sperimentati.

6.9 Argomentazione fondata sulla percezione extrasensoriale

Presuppongo che l’idea della percezione extrasensoriale sia familiare al lettore, così come il significato dei quattro argomenti in cui essa si articola, cioè telepatia, chiaroveggenza, precognizione e psicocinesi.

Questi imbarazzanti fenomeni sembrano contraddire tutte le nostre comuni idee scientifiche. Saremmo molto lieti di poterli mettere in dubbio! Sfortunatamente, le prove statistiche, almeno per la telepatia, sono schiaccianti.

È molto difficile dare una nuova sistemazione alle proprie idee in modo che possano accordarsi con questi nuovi fatti.

Una volta che essi sono stati accettati, sembra che non sia poi un gran salto credere negli spiriti e nei fantasmi. L’idea che i nostri corpi si muovano semplicemente secondo le leggi note della fisica e secondo altre leggi non ancora scoperte, ma di tipo simile, sarebbe una delle prime a cadere.

Questa argomentazione mi sembra effettivamente molto forte.

Si può rispondere che molte teorie scientifiche sembrano rimanere utilizzabili in pratica, nonostante siano in conflitto con il fenomeno della percezione extrasensoriale, e che, in effetti, si possa andare avanti benissimo anche ignorandolo.

Questa è una consolazione piuttosto magra, e sorge il timore che il pensiero sia proprio il tipo di fenomeno in cui la percezione extrasensoriale possa dimostrarsi particolarmente rilevante.

Un argomento più specifico basato sulla percezione extrasensoriale potrebbe essere il seguente: Giochiamo il gioco dell’imitazione, servendoci come testimoni di un uomo che abbia eccellenti doti di ricezione telepatica e di un calcolatore numerico.

Chi interroga può porre domande del genere: “A che seme appartiene la carta nella mia destra?”. L’uomo, per telepatia o chiaroveggenza, dà la risposta esatta centotrenta volte su quattrocento carte. La macchina può solo indovinare a caso, per esempio dando centoquattro volte la risposta esatta, così chi interroga può giungere alla giusta identificazione.

Si presenta qui una possibilità interessante. Supponiamo che il calcolatore numerico contenga un generatore di numeri a caso. Allora sarà naturale servirsene per decidere che risposta dare.

Ma allora il generatore di numeri a caso sarà soggetto ai poteri psicocinetici di chi interroga. Forse questa psicocinesi potrebbe far sì che la macchina indovini più spesso di quanto ci si potrebbe aspettare da un calcolo probabilistico, così che chi interroga potrebbe ancora non essere in grado di giungere all’identificazione esatta.

D’altra parte, potrebbe essere in grado di indovinare senza fare alcuna domanda, per chiaroveggenza. Con la percezione extrasensoriale, qualsiasi cosa può accadere. Se si ammette la telepatia, diventa necessario rivedere il nostro esperimento cautelandosi.

La situazione può considerarsi analoga a quella che si verificherebbe se colui che interroga parlasse a sé stesso e uno dei contendenti stesse ascoltando con l’orecchio alla parete. Una camera a prova di telepatia, in cui mettere i contendenti, soddisferebbe tutte le esigenze.

7. Macchine che apprendono

Il lettore si sarà già accorto che non ho alcun argomento molto convincente di carattere positivo per sostenere il mio punto di vista. Se l’avessi avuto, non mi sarei certo dedicato con tanta cura a indicare gli errori dei punti di vista opposti al mio. Le prove che ho, esporrò ora.

Torniamo per un attimo all’obiezione di Lady Lovelace, secondo la quale la macchina può fare solo ciò che noi le diciamo di fare.

Si potrebbe dire che un uomo può iniettare un’idea nella macchina, e che essa risponderà in una certa misura per poi ricadere nel riposo, come una corda di pianoforte colpita da un martello.

Un altro paragone potrebbe essere costituito da una pila atomica di grandezza inferiore a quella critica: un’idea immessa corrisponderebbe allora a un neutrone che entra nella pila dall’esterno. Ciascun neutrone di questo tipo determinerà un certo disturbo che eventualmente poi scomparirà.

Se, tuttavia, la grandezza della pila viene sufficientemente aumentata, il disturbo causato da un neutrone in ingresso molto probabilmente continuerà ad aumentare fino alla distruzione dell’intera pila.

Esiste un fenomeno corrispondente per la mente, e ne esiste uno per le macchine?

Per la mente umana sembra che ne esista uno. La maggior parte delle menti umane sembra essere sotto il livello critico, esse equivalgono cioè, in questa analogia, alle pile di grandezza inferiore a quella critica.

Un’idea che si presenti a una mente di questo tipo farà nascere in media meno di un’idea in risposta. Una parte piuttosto ristretta delle menti umane è invece sopra il livello critico. Un’idea che si presenti a una di queste menti può far nascere un’intera teoria fatta di idee di secondo ordine, di terzo o ancora più remote.

Attenendoci a questa analogia possiamo chiedere: “si può fare in modo che una macchina sia sopra il livello critico?“. Anche l’analogia della pelle della cipolla può servire.

Considerando le funzioni mentali o quelle del cervello troviamo certe operazioni che possiamo spiegare in termini puramente meccanici. Questo, diciamo, non corrisponde alla mente come essa è in realtà: è una specie di pelle che dobbiamo togliere se vogliamo trovare la mente reale.

Ma poi, in ciò che rimane, troviamo un’altra pelle da togliere, e così via.

Procedendo in questo modo arriviamo infine alla mente reale, o solo a una pelle che non contiene nulla? Nell’ultimo caso tutta la mente sarebbe di tipo meccanico(Non si tratterebbe comunque di una macchina a stati discreti. Ne abbiamo già discusso.)

Questi due ultimi paragrafi non pretendono di presentare argomenti convincenti. Dovrebbero piuttosto essere descritti come riflessioni tendenti a far nascere una credenza.

L’unico sostegno veramente soddisfacente che può essere fornito per il punto di vista espresso all’inizio del paragrafo 6 si avrà aspettando la fine di questo secolo ed eseguendo l’esperimento descritto.

Ma cosa possiamo dire nel frattempo?

Che passi dovremmo compiere ora, perché l’esperimento riesca?

Come ho spiegato, il problema è soprattutto di programmazione.

Si dovranno compiere progressi anche nella tecnica, ma sembra improbabile che essi non risultino adeguati al bisogno.Le valutazioni della capacità di memorizzazione del cervello vanno da 10¹⁰ a 10¹⁵ unità binarie.[4]

Io sono incline a considerare più esatte le valutazioni più basse e penso che solo una parte piccolissima venga usata per i tipi superiori di pensiero.La maggior parte viene probabilmente usata per ritenere le impressioni visive.

Mi sorprenderei se occorressero più di 10⁹ unità per giocare in modo soddisfacente il gioco dell’imitazione, almeno contro un cieco (Si noti che la capacità dell’Enciclopedia Britannica, undicesima edizione, è di circa 2×10⁹ unità binarie).

Una capacità di memorizzazione di 10⁷ unità sarebbe senz’altro alla nostra portata anche con le attuali tecniche. Non è probabilmente affatto necessario aumentare la velocità di funzionamento delle macchine.

Le parti delle macchine moderne che possono essere considerate analoghe alle cellule nervose funzionano a una velocità circa mille volte superiore.

Ciò dovrebbe fornire un margine di sicurezza sufficiente a compensare le perdite di velocità che in vario modo possono determinarsi.

Il nostro problema quindi è di trovare il modo di programmare queste macchine per poter giocare il gioco.

Al mio attuale ritmo di lavoro elaboro in un giorno circa mille unità di programma, così che circa sessanta operatori, lavorando continuamente per cinquant’anni, potrebbero portare a termine il lavoro, se nulla dovesse venir cestinato. Appare desiderabile un metodo più rapido.

Cercando di imitare una mente umana adulta, siamo tenuti a riflettere parecchio sul processo che l’ha condotta allo stato in cui si trova. Possiamo notare qui tre componenti:

a) lo stato iniziale della mente, diciamo alla nascita; b) l’educazione cui è stata sottoposta; c) altre esperienze, che non possono venir descritte come educazione, che essa ha vissuto.

Invece di elaborare un programma per la simulazione di una mente adulta, perché non proviamo piuttosto a realizzarne uno che simuli quella di un bambino? Se la macchina fosse poi sottoposta a un appropriato corso di istruzione, si otterrebbe un cervello adulto. Presumibilmente il cervello infantile è qualcosa di simile a un taccuino di quelli che si comprano dai cartolai: poco meccanismo e una quantità di fogli bianchi (meccanismo e scrittura sono, dal nostro punto di vista, quasi sinonimi). La nostra speranza è che ci sia così poco meccanismo nel cervello infantile, che qualcosa di analogo possa venir facilmente programmato.

Per il processo educativo possiamo supporre che il lavoro, in prima approssimazione, sia pressappoco uguale a quello necessario per il bambino. Abbiamo così diviso il nostro problema in due parti: il programma a livello infantile e il processo educativo. Essi sono strettamente connessi. Non possiamo aspettarci di trovare una buona macchina al primo tentativo. Bisogna sperimentare un metodo d’insegnamento per una macchina del genere e vedere in che misura essa impara. Si può poi provarne un’altra e vedere se è migliore o peggiore. C’è una connessione evidente tra questo processo e l’evoluzione:

  • Struttura della macchina-bambino > Materiale ereditario
  • Cambiamenti della macchina-bambino > Mutazioni
  • Giudizio dello sperimentatore > Selezione naturale

È da sperare, peraltro, che questo processo sia più rapido dell’evoluzione. La sopravvivenza del più adatto è un metodo troppo lento per quanto concerne l’evidenziazione del progresso realizzato. Lo sperimentatore, servendosi della sua intelligenza, dovrebbe essere in grado di renderlo più veloce. Ugualmente importante è il fatto che egli può non limitarsi ad attendere le mutazioni casuali. Se è in grado di scoprire la causa di qualche difetto, può probabilmente pensare al tipo di mutazione che lo eliminerebbe.

Non sarà possibile applicare alla macchina proprio lo stesso metodo d’insegnamento che si usa per un bambino. Per esempio, essa non avrà gambe e quindi non le si potrà chiedere di uscire per riempire il secchio del carbone. Potrebbe non avere occhi. Ma anche se questi difetti potessero venir brillantemente superati da abili espedienti meccanici, non si potrebbe mandare una simile creatura a scuola senza farla beffeggiare in modo eccessivo dagli altri bambini. Bisogna che le sia data una certa protezione. Non dobbiamo preoccuparci troppo per le gambe, gli occhi, ecc. L’esempio di Helen Keller mostra che il processo educativo si può svolgere, purché vi sia un mezzo per la comunicazione in ambedue le direzioni tra maestro e allievo.

Normalmente associamo punizioni e ricompense al processo d’insegnamento. Alcune semplici macchine-bambino possono essere programmate in base a questo tipo di principio. La macchina deve essere costruita in modo che sia impossibile che si ripetano gli avvenimenti che precedettero di poco il verificarsi di un segnale di punizione, mentre un segnale di ricompensa aumenta la probabilità di ripetizione degli avvenimenti che hanno condotto ad esso. Queste definizioni non presuppongono alcun sentimento da parte della macchina. Ho fatto alcuni esperimenti con una simile macchina-bambino e sono riuscito a insegnarle alcune cose, ma il metodo d’insegnamento era troppo poco ortodosso perché gli esperimenti potessero venir considerati veramente riusciti.

L’uso di punizioni e ricompense può al più costituire una parte del processo d’insegnamento. Parlando approssimativamente, se l’insegnante non ha altri mezzi per comunicare con l’allievo, la quantità di informazione che può fargli giungere non supera il numero totale delle ricompense e delle punizioni assegnategli. Quando un bambino avesse appreso a ripetere “Casabianca”, si sentirebbe probabilmente davvero indolenzito, se la parola potesse venire individuata solo con una tecnica del tipo “venti domande”, ed ogni “no” si fosse tradotto in una botta. È necessario perciò disporre di altri canali di comunicazione, “non emozionali”. Se vi sono questi canali, è possibile mediante punizioni e premi insegnare a una macchina ad eseguire ordini dati in un certo linguaggio, per esempio un linguaggio simbolico. L’uso di questo linguaggio diminuirà notevolmente il numero delle punizioni e delle ricompense necessarie.

Ci possono essere vari punti di vista sulla complessità più opportuna per la macchina-bambino. Si potrebbe tentare di farla il più semplice possibile purché in accordo con i principi generali. Oppure si potrebbe incorporarvi un sistema completo di inferenza logica. In quest’ultimo caso la memoria sarebbe in gran parte occupata da definizioni e proposizioni. Le proposizioni sarebbero di vari tipi, per esempio fatti ben fondati, congetture, teoremi dimostrati matematicamente, dichiarazioni fornite da un’autorità, espressioni aventi la forma logica di una proposizione, ma nessun valore di credibilità.

Alcune proposizioni possono essere descritte come “imperativi”. La macchina dovrebbe venir costruita in modo che appena un imperativo viene classificato come ben fondato si svolga automaticamente l’azione opportuna. Per illustrare questo, supponiamo che l’insegnante dica alla macchina: “Fai i tuoi compiti ora”. Ciò potrebbe determinare l’inclusione tra i fatti ben fondati dell’espressione “L’insegnante dice: Fai i tuoi compiti ora”. Un altro fatto simile potrebbe essere “Ogni cosa che dice l’insegnante è vera”. La combinazione di queste espressioni potrebbe eventualmente condurre ad includere tra i fatti ben fondati l’imperativo “Fai i tuoi compiti ora”, e ciò, per il modo in cui la macchina è costruita, significa che essa comincerà effettivamente a fare i compiti, e che il risultato sarà molto soddisfacente.

Il processo di inferenza usato dalla macchina non ha bisogno di possedere requisiti tali da soddisfare i logici più esigenti. Potrebbe, per esempio, non esserci alcuna gerarchia di tipi. Ma questo non significa necessariamente che verranno commessi errori di tipo, così come non siamo obbligati a cadere da un dirupo per il fatto che non è recintato. Imperativi opportuni (espressi nell’ambito dei sistemi, non compresi nelle regole del sistema) come “Non usare una classe a meno che non sia una sottoclasse di una di cui ha parlato l’insegnante” possono avere un effetto simile a “Non avvicinarti troppo all’orlo”.

Gli imperativi cui può obbedire una macchina che non ha membra sono necessariamente di tipo piuttosto intellettuale, come nell’esempio fornito sopra (fare i compiti). Avranno speciale importanza tra questi imperativi quelli che regolano l’ordine in cui devono essere applicate le regole del sistema logico in questione. Ad ogni livello infatti, quando si usa un sistema logico, c’è un grandissimo numero di passi diversi, ciascuno dei quali può essere compiuto, pur rispettando le regole del sistema logico in questione. Queste scelte mettono in luce la differenza tra un ragionatore brillante ed uno sciocco, non la differenza tra un ragionamento valido e uno errato. Le proposizioni che portano a imperativi di questo tipo potrebbero essere “quando si cita Socrate usare il sillogismo in barbara” oppure “Se è stato provato che un metodo è più rapido di un altro, non usare il metodo più lento”. Qualcuna di esse può essere fornita alla macchina dall’autorità, ma altre possono essere prodotte dalla macchina stessa, per esempio per induzione scientifica.

L’idea di una macchina che impara può apparire paradossale ad alcuni lettori. Come possono cambiare le regole di funzionamento della macchina? Esse dovrebbero descrivere completamente come reagirà la macchina qualsiasi possa essere la sua storia, a qualsiasi cambiamento possa essere soggetta. Le regole sono quindi assolutamente invarianti rispetto al tempo. Questo è verissimo. La spiegazione del paradosso è che le regole che vengono cambiate nel processo di apprendimento sono di un tipo meno pretenzioso e intendono avere solo una validità temporanea. Il lettore può fare un parallelo con la Costituzione degli Stati Uniti.

Una caratteristica importante di una macchina che impara è che il suo insegnante ignorerà spesso in gran parte ciò che di preciso si verifica al suo interno, quantunque possa essere in grado di predire in qualche misura il comportamento del suo allievo. Questo dovrebbe valere nel modo più deciso per l’educazione successiva di una macchina nata da una macchina-bambino ben progettata (o programmata). Ciò contrasta nettamente con la procedura normale quando si usa una macchina per fare calcoli: lo scopo è allora di avere una chiara immagine mentale dello stato della macchina in ogni momento del calcolo. Questo scopo può essere conseguito con uno sforzo.

La teoria che “la macchina può fare soltanto ciò che sappiamo come ordinarle”, sembra strana se consideriamo tutto questo. La maggior parte dei programmi che possiamo inserire nella macchina avranno come risultato di farle fare qualcosa che non possiamo assolutamente capire, o che giudichiamo come comportamento completamente casuale. Il comportamento intelligente consiste presumibilmente nello staccarsi dal comportamento completamente prevedibile implicato nel calcolo, ma di poco, in modo da non determinare un comportamento casuale o dei giri viziosi che si risolvono in inutili ripetizioni. Preparando la macchina per la sua parte nel gioco dell’imitazione mediante un processo di insegnamento e di apprendimento, conseguiamo un altro importante risultato: è probabile cioè che non occorra più preoccuparsi della capacità dell’uomo di commettere errori imitandola in modo naturale, ossia senza un tirocinio speciale.

I processi che si apprendono non assicurano al cento per cento il risultato: altrimenti non potrebbero essere disimparati. È probabilmente un buon provvedimento introdurre un elemento casuale in una macchina che impara. Un elemento casuale è piuttosto utile quando cerchiamo la soluzione di qualche problema. Supponiamo, per esempio, di voler trovare un numero tra 50 e 200 uguale al quadrato della somma delle sue unità; potremmo cominciare con 51, poi con 52 e continuare fino ad ottenere un numero che vada bene. Come alternativa, potremmo scegliere numeri a caso fino a trovarne uno buono. Tale metodo ha il vantaggio che non è necessario tenere conto dei valori già provati, ma lo svantaggio che sussiste la possibilità di provare due volte lo stesso numero; questo però non ha molta importanza se esistono diverse soluzioni.

Il metodo sistematico ha lo svantaggio che può esserci un blocco enorme senza alcuna soluzione proprio nel gruppo che deve essere esaminato per primo. Ora il processo di apprendimento può essere considerato come la ricerca di una forma di comportamento che soddisferà l’insegnante (o qualche altro criterio). Dato che esiste probabilmente un gran numero di soluzioni soddisfacenti, il metodo casuale sembra migliore di quello sistematico. Bisogna notare che esso è impiegato nell’analogo processo dell’evoluzione. Ma in quel caso il metodo sistematico non è possibile. Come si potrebbe tener conto delle diverse combinazioni genetiche che sono state tentate, in modo da evitare di sperimentarle di nuovo?

Possiamo sperare che le macchine saranno alla fine in grado di competere con gli uomini in tutti i campi puramente intellettuali. Ma quali sono i migliori per cominciare?
Anche questa è una decisione difficile. Molta gente pensa che un’attività molto astratta, come giocare a scacchi, sarebbe la migliore. Si può anche sostenere che è meglio fornire alla macchina i migliori organi di senso che si possano comprare e poi insegnarle a capire e parlare l’inglese. Questo processo potrebbe seguire il metodo d’insegnamento normale per un bambino. Le cose verrebbero indicate, verrebbe dato loro un nome, ecc. Ancora una volta ignoro quale sia la risposta esatta, ma penso che bisognerebbe tentare ambedue le strade.

Possiamo vedere nel futuro solo per un piccolo tratto, ma possiamo pure vedere che in questo piccolo tratto c’è molto da fare.

Riferimenti bibliografici

[1] S. Butler, Erewhon, Londra 1865, (trad. L. Drudi Demby, Adelphi, Milano 1965)
[2] A. Church, An Unsolvable Problem of Elementary Number Theory, Amer. J. Math., 58 (1936) 345-63
[3] K. Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, Mh. Math. Phys., 38 (1931) 173-89; trad. ital. in Agazzi, Introduzione ai problemi dell’assiomatica, Milano 1961
[4] D. R. Hartree, Calculating Instruments and Machines, New York 1949
[5] S. C. Kleene, General Recursive Functions of Natural Number, Amer. J. Math., 57 (1935) 153-73, 219-44
[6] G. Jefferson, The Mind of Mechanical Man (Lister Oration for 1949), Brit. Med. J., 1 (1949) 1105-21
[7] Lady Lovelace, Translator’s Notes to an Article on Babbage’s Analytical Engine, nelle Scientific Memoirs a cura di R. Taylor, vol. 3 (1842) pp. 691-731. Tali note sono state integralmente ristampate nell’appendice I del volume Faster than Thought: A Symposium on Digital Computing Machines, a cura di B. V. Bowden (Pitman, Londra 1953).
[8] B. Russell, Storia della filosofia occidentale, trad. L. Pavolini, Longanesi, Milano 1963
[9] A. M. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, Proc. Lond. Math. Soc., 42 (1936) 230-65

Linkografia

Alan Turing – Wikipedia

Ada Lovelace, la visionaria che anticipò l’era dell’AI | Geolander.it

Condividi / Share