CAN MACHINES THINK? L\'eco di Turing tra naturalismo e connessionismo

Share Embed


Descrição do Produto

CAN MACHINES THINK? L’eco di Turing: tra naturalismo e connessionismo

Tesina in Filosofia della mente Alessandra Nardini

INTRODUZIONE Partendo dalla celebre domanda "Can machines think?" posta dal matematico Alan Turing nell’articolo Computing machinery and intelligence del 1950, cercheremo di delineare brevemente le lo scenario che si è aperto da quel momento nella filosofia della mente. L’articolo di Turing ha, infatti, avuto una grande eco sia nel campo dell’intelligenza artificiale e della scienza cognitiva, sia in campo filosofico. Il problema posto da Turing era di una portata rivoluzionaria: da quel momento la filosofia della mente non si sarebbe più interrogata soltanto sulle capacità e sui limiti del pensiero umano, ma anche sul rapporto tra macchina e pensiero. Prospettare l’intero scenario filosofico apertosi con gli studi sul Turing Test (TT) sarebbe un’impresa titanica, che non avremmo modo di affrontare, per motivi di tempo (il dibattito è tutt’ora aperto e in continua evoluzione); cercheremo, quindi, di illustrare alcuni dei passaggi teorici più significativi che, a partire dal 1950, hanno caratterizzato il dibattito su mente e macchine in intelligenza artificiale, cognitivismo e filosofia della mente attraverso due noti esperimenti mentali: quello della stanza cinese e quello della stanza luminosa. Nel primo capitolo illustreremo in cosa consiste il TT; nel secondo, analizzeremo una delle critiche più note al TT, l’argomento della stanza cinese di Searle; infine, esporremo una delle risposte all’esperimento mentale di Searle, quella dei coniugi Churchland, nota anche come “la Stanza luminosa”.

“PUÒ UNA MACCHINA PENSARE?”: L’INIZIO DEL DIBATTITO I propose to consider the question, "Can machines think?" This should begin with definitions of the meaning of the terms "machine" and "think". The definitions might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous (Alan M. Turing, Computing Machinery and Intelligence. «Mind» 49, 1950: p. 433)

Siccome sarebbe facile cadere nella trappola pericolosa di dare una risposta ambigua, che dipende dal significato comunemente attribuito ai termini “macchina” e “pensare”, Turing pensa di riformulare la domanda nei termini di un gioco, che chiama the imitation game. Il gioco può essere descritto come segue. Vi sono tre giocatori: un uomo (A), una donna (B) e un interrogante, che può essere di ambo i sessi (C); quest’ultimo, rivolgendo domande ad A e B, senza conoscerne le rispettive identità, deve scoprire se le risposte date sono state scritte da A o da B. Supponendo di sostituire uno dei due partecipanti con una macchina, Turing si chiede se C sarà in grado di distinguere le risposte dell’uomo da quelle di quest’ultima. Così come i partecipanti dovranno tentare di ingannare C, anche la macchina dovrà essere costruita in modo da dissimulare delle risposte umane. Turing domanda quindi se possa esistere una macchina che sia capace di indurre in errore gli interroganti come quando gli interlocutori sono entrambi esseri umani. Ed ecco che arriviamo a sostituire la domanda iniziale: “‘Can machines think? ’ should be replaced by ‘Are there imaginable digital computers which would do well in the imitation game? ’”1. Il nuovo problema fa nascere nuove perplessità, ovvero, basta dare risposte formalmente corrette e pertinenti per avere una mente o addirittura basterebbero capacità linguistiche per essere considerati sistema pensanti? Le obiezioni in merito, come scrive Jaegwon Kim, potrebbero essere tra le più disparate: Some have objected that the test is too tough and too narrow. Too tough because something does not have to be smart enough to outwit a human to have mentality or intelligence; in particular, the possession of a language should not be a prerequisite for mentality (think of mute animals). […] The test is perhaps also too narrow in that it seems at best to be a test for the presence of humanlike 1

A. M. Turing, Computing Machinery and Intelligence, cit, p. 442.

mentality […]. Why couldn’t there be creatures, or machines, that are intelligent and have a psychology but would fail the Turing test, which, after all, is designed to test whether the computer can fool a human interrogator into thinking it is a human? […] To see something as a full psychological system we must see it in a real-life context, we might argue; we must see it coping with its environment, receiving sensory information from its surroundings, and behaving appropriately in response to it. (Jaegwon Kim, Philosophy of Mind, Philadelphia, Westview Press, 2011: pp. 97-98)

Queste obiezioni deriverebbero proprio da quei fraintendimenti figli di una concezione di “pensare” così come inteso nel linguaggio comune. In merito alle possibili obiezioni, Turing spiega che uno dei pregi del test è proprio quello di separare nettamente le capacità fisiche da quelle intellettuali, è ovvio che su un piano fisico il sistema “uomo” e il sistema “macchina” sono troppo lontani e una loro equiparazione sarebbe iniqua e sterile. Inoltre, non essendoci limitazioni al contenuto delle domande, questa separazione ci permetterebbe di testare le capacità intellettuali dei due interlocutori in modo molto ampio. Il secondo punto, poi, concerne la questione di un tipo di una humanlike mentality, caratteristica solo della specie umana: il test, in effetti, è troppo sfavorevole alle macchine, in quanto, se chiedessimo a un uomo di fare calcoli con la velocità di un calcolatore elettronico, egli fallirebbe. Il dubbio che possano esistere forme di intelligenza radicalmente diverse da quella umana è presente in Turing, ma questo non svilisce il senso del test2. Il superamento di quest’ultimo, infatti, è considerato da Turing, condizione sufficiente, ma non necessaria perché

una

macchina

possa

essere

considerata

intelligente.

Consideriamo la questione da un altro punto di vista, il TT considera unicamente il sistema di input/output, dunque, se due sistemi – che siano essi umani o digitali – producono gli stessi output per lo stesso input, allora le loro risposte al Turing test saranno identiche e si potrà ascrivere ad entrambi lo stesso status psicologico: If something passes the test, it is at least as smart as we are, and since we have intelligence and mentality, it would be only fair to grant it 2

Cfr. A. M. Turing, Computing Machinery and Intelligence, cit., p. 435: «May not machines carry out something which ought to be described as thinking but which is very different from what a man does? This objection is a very strong one, but at least we can say that if, nevertheless, a machine can be constructed to play the imitation game satisfactorily, we need not be troubled by this objection».

the same status—or so we might argue. […] This means that if two Turing machines are correct behavioral descriptions of some system (relative to the same input-output specification), they are psychological systems to the same degree. (idem, p. 98)

Ma quali sono le “macchine” che potranno giocare al gioco dell’imitazione? Per Turing, i digital computers avranno buone possibilità di poter superare il test in futuro. Passando alla struttura di tali calcolatori, essi sono costituiti da tre parti interagenti: (a) memoria; (b) unità operativa; (c) governo. (a) contiene sia i dati su cui vengono effettuati i calcoli, sia i programmi per effettuare tali calcoli; (b) modifica i dati contenuti nella memoria seguendo le istruzioni fornite dal programma; infine, (c) fa in modo che l’unità operativa esegua le istruzioni del programma nella giusta sequenza. In pratica, il calcolatore può riprodurre una qualsiasi attività di calcolo compiuta da un calcolatore umano, dove per calcolo si intenderà un’attività di trasformazione di simboli attraverso l’applicazione di regole formali. Spesso si tende ad attribuire a Turing una formulazione di teorie della mente proto-funzionaliste, secondo cui i processi mentali sarebbero processi di elaborazione d’informazioni3; Kim invece fa notare come il gioco dell’imitazione, equiparando due sistemi solo sulla base di input/output, sottenda più una tesi comportamentista che funzionalista4. In realtà Turing non trarrà mai esplicitamente delle conclusioni sul piano filosofico, il suo intento nell’articolo del ’50, d’altronde, non è certo quello di formulare una tesi in filosofia della mente; né tantomeno il matematico riesce a dare una risposta alla sua domanda, anche se ammette che sia ragionevole ipotizzare che, già in un futuro non lontano dal tempo in cui scrive i calcolatori digitali potranno giocare il gioco dell’imitazione abbastanza bene:

3

Questo deriverebbe dalla successiva formulazione del funzionalismo computazionale da parte di Hilary Putnam secondo cui ci sarebbe una corrispondenza analogica tra la relazione che sussiste tra gli stati del cervello e gli stati mentali, e quella che sussiste tra gli stati strutturali di una macchina e gli stati della macchina di Turing, di cui quella macchina fisica è una realizzazione. Quindi i calcolatori digitali di Turing e la macchina di Turing di cui parla Putnam sono due cose diverse. Riguardo il finzionalismo computazionale, cfr.: Hilary Putnam, Minds and Machines, in Mind Language and Reality, Cambridge UK, Cambridge Univ. Press, 1975. 4 Cfr. J. Kim, Philosophy of Mind, cit., p. 98.

I believe that in about fifty years' time it will be possible, to programme computers, with a storage capacity of about 109, to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification after five minutes of questioning. (A. M. Turing, Computing Machinery and Intelligence, cit., p. 442)

LA STANZA CINESE L’idea che si possa ascrivere uno status di ‘mentale’ a una macchina manipolatrice di segni (come i calcolatori digitali di Turing) solo perché risultano in grado di dare risposte formalmente corrette, è stata fortemente criticata dal filosofo John Searle attraverso il noto esperimento mentale della stanza cinese. Suppose that I'm locked in a room and given a large batch of Chinese writing. Suppose furthermore […] that I know no Chinese […] Now suppose further that […] I am given a second batch of Chinese script together with a set of rules for correlating the second batch with the first batch. The rules are in English, and I understand these rules […]. They enable me to correlate one set of formal symbols with another set of formal symbols […]. Now suppose also that I am given a third batch of Chinese symbols together with some instructions, again in English, that enable me to correlate elements of this third batch with the first two batches, and these rules instruct me how to give back certain Chinese symbols with certain sorts of shapes in response to certain sorts of shapes given me in the third batch. Unknown to me, the people who are giving me all of these symbols call the first batch "a script," they call the second batch a "story." and they call the third batch "questions." Furthermore, they call the symbols I give them back in response to the third batch "answers to the questions." and the set of rules in English that they gave me, they call "the program." (John R. Searle, (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): p. 3)

L’esperimento mentale, dunque, si baserebbe su una metafora: la stanza cinese è uno dei calcolatori-giocatori dell’imitation game5. Searle immagine di essere in una stanza che comunica con l’esterno soltanto attraverso una feritoia. All’esterno dei cinesi passano a Searle domande in cinese, Searle però, non ha nessuna conoscenza del cinese, gli ideogrammi per lui non sono altro che “meaningless squiggles”. All’interno della stanza, però, Searle dispone di un manuale per le 5

In realtà Searle, nell’articolo del 1980 fa riferimento al programma di Schank (capace di rispondere a domande relative a una storia anche se l’informazione che egli fornisce non era esplicitamente presente in essa), prendendolo come esempio di IA forte.

istruzioni, scritto in inglese, per combinare i diversi simboli tra di loro, per poi scrivere una risposta corretta ai cinesi fuori dalla stanza. I signori all’esterno, capiscono le risposte, ed essendo tali risposte pienamente sensate, sono certi che nella stanza ci sia qualcuno che, come loro, intende perfettamente il cinese. In realtà sappiamo che non è così: Searle riesce solo manipolare correttamente i simboli identificandoli in base a criteri puramente formali: “all that 'formal' means here is that I can identify the symbols entirely by their shapes”6. La conclusione per Serale è che la correttezza formale dei criteri di manipolazione dei simboli non presuppone, né tanto meno necessita di un’interpretazione, e quindi di una comprensione di tali simboli: “As far as the Chinese is concerned, I simply behave like a computer; I perform computational operations on formally specified elements”7. La differenza fondamentale sta nella distinzione tra il piano sintattico e quello semantico. La sintassi è la capacità di elaborare contenuti formali, come tale quindi anche il nostro cervello è un calcolatore, ma la capacità di attribuire significati e quindi la possibilità di una comprensione vera appartiene alla sfera semantica. Fuor di metafora, se ciò che succede dentro il computer è lo stesso che avviene nella stanza cinese, ovvero manipolazioni di simboli in base a criteri puramente formali, possiamo affermare che neanche nel computer ci sarà comprensione del cinese. Dunque, il superamento del TT non costituisce una condizione sufficiente perché si possa parlare di ‘mente’: The conclusion to be drawn, Searle argues, is that mentality is more than rule-governed syntactic manipulation of symbols, and the Turing test, therefore, is invalid as a test of mentality (J. Kim, Philosophy of Mind, cit., p. 100)

Per Searle non importa quanto si possa andare avanti nella progettazione di software, dalla sintassi non potrà mai aver luogo nessun fenomeno semantico. La capacità di attribuire senso e

6 7

J. R. Searle, (1980) Minds, brains, and programs, cit., p.3. Ibidem.

significato al mondo circostante sembra essere prerogativa solo degli esseri biologici. L’argomento di Serale ha sicuramente il pregio di essere molto intuitivo e per questo altamente persuasivo. Ciò non toglie che, a un esame più approfondito, esso presenti molti punti deboli. Alcune delle critiche che gli vengono rivolte vengono citate nello stesso articolo per essere puntualmente confutate. Esponiamo di seguito le più significative. 2.1 Le risposte alla stanza cinese Una delle critiche che è stata mossa all’esperimento mentale della stanza cinese è quella che viene chiamata “la risposta del sistema”: While it is true that the individual person who is locked in the room does not understand the story, the fact is that he is merely part of a whole system, and the system does understand the story. The person has a large ledger in front of him in which are written the rules, he has a lot of scratch paper and pencils for doing calculations, he has 'data banks' of sets of Chinese symbols. (J. R. Searle, (1980) Minds, brains, and programs, cit., p.5)

Per i sostenitori di tale tesi, il punto focale della questione non è se l’uomo all’interno della stanza capisce o meno, quello che importa è che il sistema nel suo insieme comprenda, ovvero che riesca ad elaborare le informazioni in entrata dandone altre (corrette e pertinenti) in uscita. Il problema, per Searle, rimane: è sempre una comprensione basata sull’applicazione di regole formali. Potremmo, infatti, far imparare a un uomo l’intero set di istruzioni per la manipolazione dei segni, così il sistema sarà all’interno dell’uomo. Ma comunque non arriveremo alla comprensione di ciò che si sta scrivendo, perché senza la produzione di contenuti semantici, l’uomo continuerà ad applicare delle semplici procedure vuote per manipolare i simboli. A questo punto Searle fornisce un altro esempio: se accettiamo la risposta dell’IA forte possiamo dire che a un certo livello descrittivo, il nostro stomaco si occupa di elaborazione dati e che quindi è un sistema pensante, ma nessuno affermerebbe mai una cosa del genere. Il sistemastomaco, come il sistema-cinese fonderebbe la sua comprensione su un sistema di input che, manipolati adeguatamente tramite un set di istruzioni, formula determinati output.

It is, by the way, not an answer to this point to say that the Chinese system has information as input and output and the stomach has food and food products as input and output, since from the point of view of the agent, from my point of view, there is no information in either the food or the Chinese. (idem, p.6)

La successiva risposta che Searle si accinge ad esaminare è quella “del robot”: Suppose we put a computer inside a robot, and this computer would not just take in formal symbols as input and give out formal symbols as output, but rather would actually operate the robot in such a way that the robot does something very much like perceiving, walking, moving about, hammering nails, eating, drinking -- anything you like. The robot would, for example have a television camera attached to it that enabled it to 'see,' it would have arms and legs that enabled it to 'act,' and all of this would be controlled by its computer 'brain.' Such a robot would, unlike Schank's computer, have genuine understanding and other mental states. (idem, p.7)

I presupposti teorici di questa risposta sono (a) una concezione di comprensione come mera manipolazione di simboli formali risulta insufficiente, (b) il fatto che nella comprensione entrano a far parte relazioni causali con il mondo esterno. Il robot in questione insomma sarebbe quanto di più simile ci sia a un umano, avendo una sorta di apparato senso-motorio. Il problema, però, per Searle, è che questa aggiunta di capacità senso-motorie di fatto non aggiunge nulla sulla questione della comprensione e, più in generale dell’intenzionalità. Così, Searle immagina di porre la stanza cinese all’interno del robot, al posto del programma, e immagina quindi che l’uomo nella stanza cinese riceva ulteriori simboli cinesi e altrettante informazioni per combinare i vari simboli per poi produrre in uscita i simboli adeguati. Immaginiamo che alcuni di questi simboli in entrata provengano da un apparecchio televisivo collegato al robot e altri simboli in uscita servano a mettere in moto una qualche parte del corpo del robot. A questo punto sarà impossibile affermare che nel robot si dia luogo ad atti di comprensione, perché il movimento di quest’ultimo non sarebbe che il risultato degli output che l’uomo nella stanza cinese immette nel suo circuito elettrico e nei suoi programmi. Anche la “risposta del simulatore elettronico” si basa su una maggiore vicinanza con il corpo umano, ipotizzando la costruzione di

un programma che simuli l’effettiva sequenza di scariche neuronali che avvengono nelle sinapsi del cervello di un madrelingua cinese: Suppose we design a program that doesn't represent information that we have about the world, such as the information in Schank's scripts, but simulates the actual sequence of neuron firings at the synapses of the brain of a native Chinese speaker when he understands stories in Chinese and gives answers to them. […]. We can even imagine that the machine operates, not with a single serial program, but with a whole set of programs operating in parallel, in the manner that actual human brains presumably operate when they process natural language (idem, p.8)

Anche se si afferma di non usare più gli script come input e quindi di non far più riferimento unicamente alla manipolazione di simboli in entrata o in uscita, in realtà non si fa altro che simulare la struttura formale del cervello. Il simulatore, infatti, non simulerebbe le proprietà causali del cervello, ovvero quelle che consentono la sua capacità di generare stati intenzionali. Il problema deriverebbe, per Searle da un fraintendimento di base: per i sostenitori dell’IA forte (o del funzionalismo computazionale), per comprendere come funziona la mente non abbiamo bisogno di capire come funziona il cervello e data l’equazione [mente:cervello=software:hardware], per l’IA forte possiamo comprendere la mente ignorando completamente la neurofisiologia. In altre parole, mentre Searle si sta chiedendo come funziona il cervello, i sostenitori dell’IA forte proporranno sempre risposte che non terranno conto di questa domanda iniziale: “If we had to know how the brain worked to do AI, we wouldn't bother with AI”8. Il problema di tutte questa risposte è che presuppongono ancora una nozione di comprensione basata su una conoscenza di tipo formale; la risposta cosiddetta “della combinazione”, invece, tenta di superare questo problema mettendo insieme le precedenti riposte: If you take all three [replies] together they are collectively much more convincing and even decisive. Imagine a robot with a brainshaped computer lodged in its cranial cavity, imagine the computer programmed with all the synapses of a human brain, imagine the whole behavior of the robot is indistinguishable from human behavior, and now think of the whole thing as a unified system and

8

Ibidem.

not just as a computer with inputs and outputs. Surely in such a case we would have to ascribe intentionality to the system (idem, pp.8-9)

In questo caso, Searle afferma che si può attribuire intenzionalità al robot, perché l'attribuzione d'intenzionalità non ha nulla a che fare con i programmi formali. Questa attribuzione però, si basa semplicemente sull'assunto che, se il robot ha un aspetto e un comportamento sufficientemente simili ai nostri, noi dovremmo supporre che esso abbia stati mentali simili ai nostri che causano il suo comportamento, e che inoltre abbia un meccanismo interno in grado di generare questi stati mentali. Dunque, l’intenzionalità, in questo caso non si basa sui programmi formali dell’IA forte. LA CRITICA DEI CONIUGI CHURCHLAND Nel 1990 viene pubblicato su Scientific America un’articolo di Patricia e Paul Churchland9 in cui gli scenziati propongono un controesempio alla stanza cinese. I due partono dal rifiuto dell’assunto di Searle per cui la sintassi, di per sé, non sarebbe condizione essenziale, né sufficiente, per la determinazione della semantica; quest’assioma infatti escluderebbe a priori il programma di ricerca dell'IA classica, dal momento che tale programma è fondato proprio sull’ipotesi che, se si riesce ad “avviare una danza interna di elementi sintattici, opportunamente strutturata e opportunamente collegata agli ingressi e alle uscite, essa può produrre gli stessi stati e risultati cognitivi che si trovano

negli

esseri

umani”10.

Per

dimostrare

l’illegittimità

dell’assioma di Serale, i coniugi presentano un argomento analogo a quello della stanza cinese, da loro denominato la stanza luminosa. I Churchland immaginano che, poco dopo la formulazione della teoria di Maxwell (che implica che la luce sia costituita di onde elettromagnetiche) un critico di tale teoria proponga il seguente esperimento mentale: Un uomo in una stanza buia tiene in mano un magnete a barra o un oggetto elettricamente carico. Secondo la teoria di Maxwell sulla luminosità artificiale, se l'uomo sposta il magnete su e giù, ne deriva 9

Paul M. e Patricia S. Churchland, Could a Machine think? in «Scientific America» N. 262, January 1990) in Le Scienze Vol. 44 N. 259, Milano Marzo 1990. 10 Idem, p.24.

un cerchio sempre più ampio di onde elettromagnetiche e pertanto il magnete diviene luminoso. Tuttavia, come ben sanno tutti coloro che hanno giocherellato con magneti o con sfere cariche, le loro forze (o, se è per questo, tutte le forze), anche se messe in movimento, non producono luminosità. È assurdo pensare di produrre luminosità semplicemente spostando delle forze! (P. M., P. S. Churchland, «Può una macchina pensare?», cit., p. 25)

Quello di Searle – spiegano i Churchland – così come quello di quest’ipotetico critico della teoria di Maxwell, è uno scetticismo che ha numerosi precedenti nella storia della scienza. Il problema dell’esperimento mentale qui riportato è che in realtà la luminosità si produce, ma se il magnete non oscilla con frequenza sufficientemente elevata (come nel caso dell’oscillazione del braccio umano) essa è troppo debole per essere osservata. A questo punto il critico potrebbe obiettare dicendo che l’oscillazione non c’entra nulla, perché nella stanza sono presenti tutti gli strumenti per la produzione della luce. Così, alla luce di questo esperimento notiamo le seguenti analogie: luce=pensiero; luminosità=semantica/intenzionalità; movimento del magnete=manipolazioni simboliche; teoria di Maxwell=IA forte. Date queste corrispondenze, tornando all’esperimento di Searle, se, per i sostenitori dell’IA, il pensiero consiste di trasformazioni formali di simboli, le semplici manipolazioni di Searle produrranno pensiero. Per Searle però, la semantica o l’intenzionalità non si producono affatto. Searle conclude quindi, in generale, che la semantica non può essere il prodotto di una mera manipolazione di simboli attraverso l’esecuzione di regole formali. Inoltre, venendo a mancare semantica e intenzionalità, verrebbero a mancare proprio le condizioni essenziali del pensiero. È dunque facile capire che Searle sta in realtà assumendo, ma non argomentando che la semantica o l’intenzionalità non si produrranno dalla manipolazione di simboli. Dunque, per i Churchland, la stanza cinese ha solo l’apparenza di essere buia: Sebbene la stanza cinese di Searle possa apparire «semanticamente buia», non vi è nessunissima giustificazione alla sua pretesa, fondata su quest'apparenza, che la manipolazione di simboli secondo certe regole non potrà mai dar luogo a fenomeni semantici, specie se i lettori hanno soltanto una concezione vaga e basata sul buon senso dei fenomeni semantici e cognitivi di cui si cerca una spiegazione. Invece di sfruttare la comprensione che i lettori hanno di queste cose,

l'argomento di Searle sfrutta senza troppi scrupoli la loro ignoranza in proposito. (ibidem)

Dunque la grande presa intuitiva dell’esperimento mentale deriverebbe da quello che si rivela essere anche il suo punto di debolezza: le sue premesse si basano su opinioni del senso comune largamente condivise. 3.1 L’approccio connessionista A una pima lettura, l’argomento dei Churchland potrebbe sembrare convincente e inattaccabile, il punto è che, mentre la teoria di Maxwell definisce precisamente il tipo di onde elettromagnetiche che costituiscono la luce, riguardo la generazione di semantica e intenzionalità gli scienziati non forniscono appropriate regole formali la cui esecuzione sta alla base del pensiero. Gli stessi Churchland sono consapevoli di ciò e sanno che le tradizionali macchine manipolatrici di simboli non possono essere un modello soddisfacente della mente umana; sebbene essi riconoscano di non avere una soluzione diretta al problema, si preoccupano però di indicare almeno una direzione di ricerca, quella fornita dall’approccio connessionista. Connectionism is an approach to the study of human cognition that utilizes mathematical models, known as connectionist networks or artificial neural networks. Often, these come in the form of highly interconnected, neuron-like processing units. There is no sharp dividing line between connectionism and computational neuroscience, but connectionists tend more often to abstract away from the specific details of neural functioning to focus on high-level cognitive processes (“Connectionism," by Jonathan Waskan, The Internet Encyclopedia of Philosophy)

Per i due scienziati la difficoltà maggiore sta nel comprendere il funzionamento della struttura logica del nostro cervello. L’approccio connessionista supera la nota analogia mente-software cervellohardware utilizzando modelli molto diversi da quelli simbolici dell’approccio computazionale classico: gli elaboratori a rete, ossia processori formati “da unità simili a neuroni collegate a tutte le unità dello strato successivo da connessioni simili ad assoni”11.Questi elaboratori sono composti da un numero elevato di unità semplici, o

11

Idem, p. 26

neuroni artificiali, organizzate in una rete mediante connessioni fra le uscite e le entrate delle diverse unità. Ogni unità emette una risposta in funzione del segnale globale ricevuto e il segnale in uscita viene poi inviato, attraverso le opportune connessioni, ad altri neuroni e così via. In conclusione, possiamo dire che per i Churchland il pensiero consiste nell’attività di calcolo delle complesse reti costituite dai neuroni del nostro cervello. Dunque, l’attività costitutiva del pensiero sarebbe comunque di tipo computazionale, ma del tutto diversa da quelle ipotizzate dalle classiche teorie computazionali. Infatti, nell’elaboratore a rete, l’informazione è elaborata parallelamente da molte unità di elaborazione elementari (non sarebbe seriale come nei calcolatori classici) e la distribuzione dei pesi delle connessioni di tutta la rete determina in modo dinamico l’immagazzinamento simultaneo di molte rappresentazioni, a differenza del computazionalismo classico dove le strutture simboliche costituivano rappresentazioni esplicite e localizzate in una ben definita sezione della memoria. Possiamo dire, in conclusione che il computazionalismo connessionista, a differenza della tesi computazionale classica non si basa sull’analogia fra cervello/mente e calcolatore digitale ma, piuttosto, su quella con le reti neurali. Inoltre, i calcoli di un elaboratore dipendono dalla costituzione stessa della rete e non dall’esecuzione di regole formali. Per questo motivo, i Churchland possono affermare che gli elaboratori a rete sono immuni dall’argomento della stanza cinese di Searle. Noi, come Searle, non accettiamo il test di Turing come una condizione sufficiente per l'intelligenza cosciente. […] La nostra posizione si basa invece sugli specifici insuccessi delle macchine MS classiche e sulle specifiche virtù delle macchine con un'architettura più simile a quella del cervello (P. M., P. S. Churchland, «Può una macchina pensare?», cit., p. 27)

CONCLUSIONI Turing aveva affermato che già a cinquant’anni di distanza dal suo articolo ci sarebbero state buone possibilità perché una macchina riesca a giocare al gioco dell’imitazione e oggi, possiamo solo stupirci di quanto la tecnica faccia ogni giorno passi da gigante. Probabilmente molti di noi affermerebbero senza problemi che ad oggi esistono macchine in grado di giocare eccellentemente al gioco dell’imitazione, basti pensare ai più semplici simulatori vocali che possediamo comunemente sui nostri cellulari (sul sito della Apple, Siri è definita “l'assistente personale intelligente che ti aiuta in tutto”). Ma per quanto riguarda il pensiero continuano ad esserci delle problematiche ancestrali, la nostra mente è un universo tutto da comprendere e questo sarà possibile solo grazie alla sinergia di scienza, filosofia, psicologia e nuove tecnologie. In questo breve lavoro abbiamo cercato di ripercorrere alcune delle tappe fondamentali del dibattito scaturito dall’articolo del 1950, esponendo gli argomenti del naturalismo biologico di Searle attraverso il suo celebre esperimento mentale, e la critica connessionista dei coniugi Churchland. Sicuramente l’esperimento della stanza cinese mostra delle difficoltà strutturali, come hanno fatto notare i Churchland, ma d’altro canto, è possibile assumere in modo acritico che l’attività di una rete neurale sia un’attività di calcolo? Possiamo descrivere ciò che una rete neurale fa come una computazione? Risposte non ne abbiamo, ma si sicuro “l'intelligenza artificiale, in una macchina non biologica ma con alto grado di parallelismo, resta una prospettiva stimolante e plausibile”12.

12

Ibidem

BIBLIOGRAFIA

CHURCHLAND, Paul e Patricia, “Could a machine think?”, «Scientific American» 262, 1 1990:32-37. Trad. it. “Può una macchina pensare?”, «Le Scienze» 259, 3 1990:22-27. KIM Jaegon, Philosophy of Mind, Philadelphia, Westview Press, 2011 PUTNAM Hilary, “Minds and machines”, in Hook, Dimensions of mind, New York: New York University Press, 148-179 SERLE John R., “Minds, brains and programs”, «Behavioral and Brain Sciences», 3 1980:417-457 (http://cogprints.org/7150/1/10.1.1.83.5248.pdf) TURING Alan, Computing Machinery and Intelligence. «Mind» 49, 1950:433-460 WASKAN Jonathan, “Connectionism” in The Internet Encyclopedia of Philosophy, http://www.iep.utm.edu/ (4/7/2016)

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.