Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Intelligenza Artificiale: dalle origini ai giorni nostri, Tesi di laurea di Filosofia

Tesi di laurea triennale su storia, sviluppi e prospettive dell'Intelligenza Artifciale.

Tipologia: Tesi di laurea

2016/2017

Caricato il 04/04/2017

Utente sconosciuto
Utente sconosciuto 🇮🇹

4.4

(13)

6 documenti

1 / 47

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Intelligenza Artificiale: dalle origini ai giorni nostri e più Tesi di laurea in PDF di Filosofia solo su Docsity! A mia sorella e ai miei gattoni. 5 Indice INDICE ......................................................................................................... 4 CAPITOLO 1 ............................................................................................... 7 CENNI STORICI E FONDAMENTI......................................................... 7 1.1. ORIGINI: PRECURSORI DELL’INTELLIGENZA ARTIFICIALE...................... 7 1.2. FONDAMENTI TEORICI: I LAVORI DI BOOLE E FREGE .......................... 10 1.3. NASCITA DEL PROGETTO DELL’INTELLIGENZA ARTIFICIALE .............. 11 CAPITOLO 2 ............................................................................................. 16 SVILUPPI TEORICI, DIBATTITI E CRITICHE................................. 16 2.1. SVILUPPI TEORICI................................................................................ 16 2.1.1. Approcci allo studio dell’Intelligenza Artificiale ....................... 16 2.1.1.1. Reti neurali .............................................................................. 17 2.1.2. Teoria della ricorsività e computazione ..................................... 20 2.1.3. La Teoria della Mente Modulare di Fodor................................. 22 2.2. DIBATTITI PRINCIPALI E CRITICHE AL PROGETTO DELL’INTELLIGENZA ARTIFICIALE .............................................................................................. 24 2.2.1. Intelligenza Artificiale Forte VS Intelligenza Artificiale Debole24 2.2.2. Il fallimento dell’Intelligenza Artificiale di Dreyfus................... 27 CAPITOLO 3 ............................................................................................. 31 DALLA MACCHINA DI TURING AI SISTEMI ESPERTI ................ 31 3.1. ALAN TURING E IL «GIOCO DELL’IMITAZIONE» .................................. 31 3.1.2. IMPLEMENTAZIONI PRATICHE .......................................................... 34 3.1.2.1 Il Logic Theorist........................................................................ 34 3.1.2.2. Il General Problem Solver....................................................... 37 3.1.2.3. Il dottor Eliza e il paranoico Parry ......................................... 38 8 governano la parte razionale della mente e permettono a chiunque, in via di principio, di generare meccanicamente le conclusioni [22]. Dal Medioevo in poi lo studio di forme di automatizzazione del pensiero assume una struttura più rigorosa e precisa. In particolare qualcosa di più simile a ciò che conosciamo, e più concreto, fu suggerito da Raimondo Lullo1 che immaginò un meccanismo che avrebbe dovuto ridurre il ragionamento ad un calcolo e che, mediante un esame esaustivo di tutte le possibili combinazioni di elementi semplici, avrebbe scoperto i principi di tutte le scienze [1][2]. Ma Lullo non fu il solo. Leonardo Da Vinci stesso progettò una macchina, un rudimentale antenato dei moderni calcolatori, che però non fu mai realizzata. Grazie a delle ricostruzioni è stato recentemente dimostrato che avrebbe funzionato [22]; il genio di Leonardo non smette mai di stupirci! Nel XVIII secolo l’idea e la prospettiva della simulazione assumono importanza centrale. Il celebre filosofo ed enciclopedista francese Denis Diderot esprime l’idea che la mente umana possa essere simulata da dispositivi meccanici tanto da non poter distinguere un cervello funzionante per effetto della natura da uno funzionante per effetto della meccanica. Per fare questo, secondo Diderot, sarebbe stato necessario dotare la macchina di proprietà biologiche in modo da realizzare un’autentica sensibilità. Ecco allora che vengono mossi i primi passi vero ciò che più compiutamente avrebbe rappresentato uno dei cardini degli studi sull’Intelligenza Artificiale: il desiderio di imitare la vita, non semplicemente di emularla. In questi anni, tra le schiere degli Illuministi, spicca il pensiero di chi, come il 1 fu un teologo, logico, filosofo, scrittore e missionario tra i più celebri dell’Europa tra XIII e XIV secolo. Nell’Ars generalis (1308) espone la sua “arte combinatoria”, che sarà alla base del calcolo computazionale, fondamentale per lo sviluppo dell’Intelligenza Artificiale. 9 medico francese Julien Offray de La Mettrie, crede che la vita potesse essere compresa mediante le sole leggi della meccanica note. Egli sosteneva che gli esseri umani fossero congegni dotati di molle in grado di caricarsi vicendevolmente e che il cervello fosse un simile meccanismo. Pertanto sia il cervello che il pensiero avrebbero potuto essere riprodotti attraverso dispositivi meccanici. La cosiddetta “filosofia degli automi” non ebbe sviluppi nel secolo successivo, fu piuttosto oggetto di rappresentazioni negative ed inquietanti (come la leggenda ebraica del Golem2 e il Frankenstein3 di Mary Shelley), come spesso accade quando un concetto non viene compreso e più che suscitare meraviglia genera paura. Ma l’idea di simulare il corpo per mezzo di automi non era certo nuova; Descartes stesso l’aveva fatta propria, escludendo però la possibilità di simulare nello stesso modo la mente [1][4]. Egli affermava infatti che se la mente fosse stata riducibile ad un sistema fisico allora “non avrebbe più volontà di una roccia che decide di cadere verso il centro della Terra”. Sebbene forte sostenitore del potere del ragionamento, Cartesio propugnava anche il dualismo, sostenendo che ci fosse una parte della mente esente dalle leggi fisiche: un’anima [22]. Col passare del tempo assistiamo ad uno spostamento del focus. L’attenzione non è più rivolta alla riproduzione di esseri viventi o intelligenti mediante automi, ma alla realizzazione di apparecchi per finalità 2 nella leggenda il Golem prende vita grazie al nome di Dio o da altre lettere con significato particolare, secondo la concezione della Cabbala per la quale la creazione del mondo è avvenuta per emanazione dal nome divino. Tali lettere vengono o impresse sulla fronte o scritte su un foglio posto nella bocca della creatura. Cancellando tali lettere o togliendo il foglio la creatura perisce. Il Golem quindi è un'antichissima leggenda ebraica sul mito dell'uomo artificiale creato da un altro uomo. Questo atto è una sfida a Dio, un tentativo di impossessarsi della sua forza creatrice, il che genera una punizione, che arriva tramite la creatura. (Macchine come noi? http://www.istitutocalvino.it/studenti/siti/ia/mito/golem.html). 3 Shelley M. W. (1818) “Frankenstein” Arnoldo Mondadori Editore. 10 pratiche. Si sviluppano meccanismi autoregolativi a partire dalle macchine a vapore e automatismi finalizzati a funzioni di calcolo come nelle macchine di Babbage, il quale ideò un congegno calcolatore automatico capace di eseguire calcoli complessi relativi alla navigazione e alla balistica. La macchina non fu realizzata a causa dei costi, ma oggi si ritiene che avrebbe funzionato. Lo stesso Babbage ipotizzò la costruzione di una macchina in grado di risolvere qualunque problema aritmetico e di giocare a scacchi, idea che, sebbene qualche secolo dopo, sarà effettivamente messa in pratica [1]. 1.2. Fondamenti teorici: i lavori di Boole e Frege Un passo decisivo nella direzione del percorso intellettuale che porterà alla nascita vera e propria dell’Intelligenza Artificiale è rappresentato dal lavoro del matematico inglese George Boole che nel XIX secolo tentò di formulare le leggi che avrebbero dovuto costituire la base dei processi di pensiero degli esseri umani. Al fine di eliminare l’arbitrarietà propria del linguaggio naturale, Boole utilizzò un insieme di simboli per rappresentare le diverse componenti del pensiero. Questi simboli potevano essere combinati tra loro attraverso l’applicazione di operazioni quali somma (operatore logico OR), sottrazione (operatore logico NOT) o moltiplicazione (operatore logico AND) definite da Boole “leggi del pensiero” per ottenere nuove espressioni definite “funzioni booleane”. La logica di Boole (detta anche algebra di Boole o albegra booleana) opera con i soli valori 1 (affermazione o vero o tutto) e 0 (negazione o falso o niente). Se le equazioni formulate nel sistema ideato da Boole costituissero realmente le leggi alla base del pensiero, quest’ultimo allora potrebbe essere realmente riprodotto attraverso macchine elettroniche implementando sulle stesse il sistema formale booleano alla base del pensiero umano. 13 indipendentemente da queste. Tale prospettiva si basa sul funzionalismo5, secondo cui l’essenza del funzionamento del cervello risiede nelle sue prestazioni e non nella sua struttura, perciò è indifferente il supporto materiale. L’Intelligenza Artificiale, propriamente detta, si sviluppa proprio a partire da ricerche di queste orientamento. La svolta in senso emulazionista si verifica in seguito al fallimento dei primi programmi di tipo simulazionista, di cui fu grande sostenitore J. Von Neumann6, convinto che l’attività del cervello potesse essere descritta in modo completo in termini logico-assiomatici astratti, cioè nei termini di un automa che elabora informazioni in modo seriale. In Von Neumann la corrispondenza tra sistema nervoso e calcolatori viene portata all’estremo, tanto che egli identifica le unità di introduzione dei dati con i neuroni sensoriali e quelle di emissione dei dati con quelli motori, oltre ad identificare le memorie del calcolatore con quelle cerebrali e le unità centrali di controllo con i neuroni associativi del cervello. In generale Von Neumann aderiva all’idea di Turing di una macchina universale funzionante in modo da rendere indistinguibile il suo comportamento comunicativo da quello di un essere umano normale. In seguito lo stesso Von Neumann però prese coscienza del fallimento di una tale pretesa, definendo una svolta delle ricerche in senso funzionalista. I sistemi artificiali possono sostituire, secondo tale prospettiva, i cervelli umani non perché simili ad essi ma perché capaci di eseguire a loro modo le stesse funzioni [1]. I lavori di Von Neumann costituiranno le basi per i progetti di un gruppo di giovani studiosi riunitisi nell’estate del 1956 al Dartmouth College per discutere della possibilità di realizzare programmi in grado di comportarsi e 5 vedi capitolo 2 6 fu uno dei più grandi matematici del ‘900 e una delle menti più brillanti della storia moderna. A lui si devono contributi fondamentali in campi che vanno dalla matematica alla fisica, dall’informatica all’Intelligenza Artificiale. 14 pensare come un essere umano. A tale seminario parteciparono alcuni degli studiosi che avrebbero avuto un ruolo centrale nello sviluppo dell’Intelligenza Artificiale come: John McCarthy, Marvin Minsky, Herbert Simon e Allen Newell. Durante questo simposio si introduce ufficialmente l’espressione di «Intelligenza Artificiale». E’ in questa occasione che John McCarthy afferma che “…ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza può in linea di principio essere descritto in maniera tanto precisa da permettere la costruzione di una macchina che lo simuli.”[2]. Uno dei temi principali dello studio dell’Intelligenza Artificiale è sempre stata, infatti, la capacità di dimostrare teoremi costruendo macchine in grado di ragionare. Risalgono agli anni ’30 i primi studi sulla possibilità di meccanizzare il ragionamento logico. Contemporaneamente a questo vengono sviluppati i primi programmi di gioco, soprattutto il gioco degli scacchi. Lo studio dei giochi contribuisce a concentrare l’attenzione sulla soluzione automatica di problemi, riconoscendo che gran parte delle attività intelligenti possono essere viste come processi di soluzione di problemi (come nel General Problem Solver7). Ricordiamo anche i lavori di Warren McCulloch e Walter Pitts, che proposero un modello neuronale artificiale e mostrarono che ogni funzione computabile poteva essere calcolata da una rete di neuroni collegati e che tale rete fosse addirittura capace di apprendere8. Nel 1951 assistiamo alla costruzione del primo computer basato su rete neurale, SNARC9, da parte di due studenti di dottorato del dipartimento di matematica di Princeton, il già citato Marvin Minsky e Dean Edmonds. Centrale, come già detto, fu anche e soprattutto 7 vedi capitolo 3. 8 vedi capitolo 2. 9 Stochastic Neural-Analog Reinforcement Computer, fu un dispositivo a valvole considerato il primo esempio di rete neurale, basato sull’apprendimento hebbiano. Simulava un topo che usciva da un labirinto. AA.VV. (2014) Alan Mathison Turing: l'indecidibilità della vita, Franco Angeli. 15 l’apprendimento. Una macchina non può essere infatti considerata intelligente se non è in grado di imparare nuovi concetti e metodi di soluzione dei problemi. Lo studio sull’apprendimento automatico portò alla nascita di alcuni programmi, negli anni ’60, in grado di automodificarsi, come il gioco della dama di Arthur Samuel oppure un programma in grado di apprendere il significato di alcuni concetti di Patrick Winston del MIT. Altro settore importante nello studio dell’IA fu l’elaborazione e comprensione del linguaggio naturale. I primi lavori risalgono agli anni ’50 e tra i primi sistemi ricordiamo ELIZA10 [2]. 10 vedi capitolo 3. 18 adattabile, in continuo mutamento a seconda delle esigenze, della situazione e del contesto. Le nostre facoltà cognitive ci permettono in ogni momento di discriminare tra gli stimoli che riceviamo dall’ambiente e di far fronte a numerosi problemi anche quando non possediamo tutte le informazioni o quando queste sono frammentate. Un problema dei calcolatori è appunto quello di non essere in grado di far fronte a situazioni in cui possiedono soltanto informazioni incomplete o errate. Questa difficoltà dipende, secondo alcuni studiosi, dalle differenze tra la struttura cerebrale umana e l’organizzazione interna dei computer, e in particolare dalla netta separazione, in questi, tra memoria centrale, che resta sostanzialmente passiva per la maggior parte del tempo, e unità di calcolo, che invece attinge continuamente alla prima. Tale separazione comporterebbe uno sfruttamento delle risorse inefficiente e una velocità di computazione minore. Nel sistema nervoso invece, non esiste una separazione del genere. I neuroni eseguono, singolarmente, compiti molto semplici e, sebbene più lenti di un calcolatore elettronico, riescono comunque a portare a termine un compito con successo in tempi relativamente brevi e anche con poche informazioni disponibili. La forza del sistema nervoso, le sue alte prestazioni, nascono quindi dalla collaborazione tra tutti i neuroni presenti nel sistema nervoso (si stima che siano circa 100 miliardi) e non da un’effettiva maggiore velocità di computazione. Queste differenze potrebbero essere la causa delle difficoltà incontrate dall’Intelligenza Artificiale nel trattamento delle operazioni cognitive di basso livello come percezione e capacità motoria. Per superare queste difficoltà sono stati proposti modelli di reti neurali artificiali [4]. Le prime ricerche sulle reti neurali artificiali risalgono al 1943, quando i già citati Warren McCulloch e Walter Pitts misero a punto un primo modello funzionale di neurone capace di sommare un numero di impulsi, confrontare il risultato con un valore soglia e trasmettere un impulso. Sino alla metà del secolo scorso, lo studio sulle reti neurali artificiali si è limitato 19 ai processi di apprendimento e classificazione, poi, intorno al 1980, ha ripreso vigore e sono stati proposti nuovi e più avanzati modelli neuronali, sempre meno ispirati ai neuroni biologici [26]. Una rete neurale artificiale definisce un modello matematico per la simulazione di una rete di neuroni biologici, come per esempio il sistema nervoso umano, e simula i diversi aspetti legati al comportamento e alle capacità del cervello umano. Caratteristiche di queste reti neurali sono: • un’ elaborazione intelligente delle informazioni; • un’ elaborazione distribuita; • un elevato livello di parallelismo; • la facoltà di apprendimento, di generalizzazione e di adattamento; • un’ alta tolleranza ad informazioni poco precise (o sbagliate) [27]. Una rete neurale è costituita da una serie di nodi detti unità, che corrispondono ai neuroni del sistema nervoso, collegati da archi orientati detti connessioni, che corrispondono alle sinapsi. Ogni unità ha un certo numero di connessioni atte a portare informazioni alla stessa, i cosiddetti input, e verso altre unità, gli output (fig. 1). Fig. 1: struttura di una rete neurale artificiale. 20 Le unità elaborano valori numerici e il processo computazionale avviene in parallelo, non ci sono unità centrali di calcolo a dirigere le operazioni. Come per il sistema nervoso, anche nelle reti neurali il livello di complessità dei calcoli dipende dal numero di unità e connessioni. Allo stesso modo, non vi è distinzione tra immagazzinamento ed elaborazione. I campi di applicazione delle reti neurali artificiali vanno dal riconoscimento facciale alla classificazione, dai sistemi di filtraggio del segnale (per esempio, l’eliminazione del rumore) ai sistemi di allarme e previsione, ecc… Per i sostenitori dell’approccio connessionista, le caratteristiche delle reti neurali, così simili al sistema nervoso, le renderebbero indispensabili per lo studio di alcune facoltà cognitive. 2.1.2. Teoria della ricorsività e computazione Sebbene, come già detto, il progetto dell’Intelligenza Artificiale abbia origini lontane nel tempo, vi sono delle differenze importanti tra i primi tentativi di sviluppare macchine pensanti e l’Intelligenza Artificiale come oggi noi la conosciamo. Una svolta, in particolare, è stata operata dallo sviluppo del concetto di computabilità, introdotto dalla teoria della ricorsività, che “…affronta lo studio delle funzioni con lo scopo di classificarle dal punto di vista della loro difficoltà di calcolo. Una prima classificazione consiste nel distinguere le funzioni ricorsive (cioè, per definizione, quelle calcolabili mediante un computer) dalle altre. Ulteriori e più raffinate classificazioni si possono ottenere individuando varie altre classi di funzioni, alcune più estese e altre più ristrette della classe delle funzioni ricorsive.” [3]. La nozione di ricorsività è fondamentale per comprendere la “classe delle funzioni algoritmicamente computabili” [4] cioè quelle operazioni che possono essere svolte da un calcolatore 23 dal soggetto. A questi sistemi Fodor dà il nome di moduli, per il fatto di essere circoscritti e delimitati (incapsulamento informazionale, come lo definisce lo stesso Fodor). Tali moduli possono essere attivati soltanto da una classe di stimoli, quindi è legittimo ritenere che esistano moduli diversi dedicati a stimoli differenti. “…io immagino che all’interno, e, più che probabilmente, attraverso le modalità tradizionali, vi siano dei meccanismi computazionali altamente specializzati – ad esempio dei campi della percezione del colore o dell’udito – che hanno il compito di generare ipotesi sulle fonti distali delle stimolazioni prossimali. La specializzazione di questi meccanismi è costituita da limiti o dalla gamma delle informazioni a cui essi possono accedere nel corso della proiezione di tali ipotesi, o nella gamma delle proprietà distali su cui possono proiettare tali ipotesi, o, come più spesso avviene, in entrambe le cose.” [33]. In ultima analisi, possiamo dire che il modularismo di Fodor propone un’architettura cognitiva (struttura della mente) disposta in strutture verticali specializzate (moduli) e adibite all’analisi dell’input. Questi ultimi vengono trasformati in rappresentazioni (la codificazione dell’informazione sul mondo) che vengono offerte ai sistemi centrali per le elaborazioni più complesse (fig.3). Fig. 3: schema del concetto di modularità di Fodor. 24 Tale organizzazione sarebbe il prodotto dell’evoluzione e si sarebbe costituita in modo da rendere accessibili le possibili varianti dell’informazione percettiva afferente da ogni modulo [23][25]. La teoria della mente modulare è stata criticata perché proporrebbe una visione auto- limitativa dell’intelligenza umana. A queste critiche Fodor risponde “Tutte le psicologie dei processi cognitivi che sono state proposte, fossero o meno modulari, implicano l'esistenza di limiti; e alcune delle psicologie meno modulari implicano i limiti epistemici più drastici." mettendo anche in evidenza l’ostacolo, probabilmente maggiore, che si frappone tra la teorie e la pratica dell’Intelligenza Artificiale: la difficoltà di spiegare l’attività dei sistemi cognitivi centrali e in, ultima istanza, cosa sia realmente l’intelligenza e come essa possa essere efficacemente replicata tramite un calcolatore elettronico che non sia solamente un’imitazione del cervello umano. 2.2. Dibattiti principali e critiche al progetto dell’Intelligenza Artificiale 2.2.1. Intelligenza Artificiale Forte VS Intelligenza Artificiale Debole Come per ogni argomento di grande interesse e rilevanza che si rispetti, anche nel caso dell’Intelligenza Artificiale assistiamo allo svilupparsi di punti di vista differenti, talvolta in forte contrapposizione. Nel nostro caso possiamo fare riferimento ad un importate dibattito, tra i sostenitori dell’Intelligenza Artificiale Debole e quelli dell’Intelligenza Artificiale Forte, posizioni introdotte dal filosofo John Searle (in foto) nel 1980 [19]. “[…] Ritengo utile distinguere tra un’IA (intelligenza artificiale) che chiamerò “forte” e un’IA che chiamerò “debole” o “cauta”. Secondo l’IA 25 debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette, ad esempio, di formulare e verificare le ipotesi in un modo più preciso e rigoroso. Secondo l’IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente, ma piuttosto, quando sia programmato opportunamente, è una vera mente; è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, letteralmente capiscono e posseggono altri stati cognitivi. Per l’IA forte, poiché il calcolatore programmato possiede stati cognitivi, i programmi non sono semplici strumenti che ci permettono di verificare le spiegazioni psicologiche: i programmi sono essi stessi quelle spiegazioni.” [28]. I primi sostengono quindi che la realizzazione di programmi intelligenti deve essere considerata semplicemente come uno strumento per verificare teorie riguardanti l’esecuzione delle operazioni cognitive umane, che le macchine non dovrebbero “aspirare” ad avere una reale coscienza e intelligenza, per come la intendiamo noi esseri umani [4][19]. Le macchine perciò dovrebbero limitarsi al proprio ruolo di strumenti, a nostro uso e consumo. I sostenitori dell’approccio avverso, cioè l’Intelligenza Artificiale Forte, portano avanti l’idea che i computer dovrebbero essere dotati di una mente grazie alla quale sarebbero in grado di riprodurre processi psicologici. Secondo Searle l’Intelligenza Artificiale Forte si pone quindi l’obiettivo di realizzare vere e proprie menti artificiali e non soltanto programmi, 28 Simon14[21]. La radicale obiezione filosofica nei confronti dell’ipotesi forte dell’Intelligenza Artificiale, contenuta nella sua opera principale What Computers Can’t Do, pubblicata per la prima volta nel 1972, ha contribuito non poco a “scalfire” le presunte certezze dei più accesi sostenitori dell’Intelligenza Artificiale. Dreyfus sostiene infatti il fallimento dell’Intelligenza Artificiale tanto da rendere opportuna una riflessione sulla sua effettiva plausibilità. Bersaglio della critica di Dreyfus è il tentativo di ridurre la mente a pura razionalità, a semplice capacità di calcolo come una macchina e in grado di essere immediatamente riprodotta tramite un programma. Il problema è appunto il concetto di ragione umana, molto più esteso di quanto non ritenga il razionalismo e non immediatamente replicabile [4][21]. Dreyfus parte da una riflessione essenziale per sostenere la sua tesi: nonostante la possibilità di elaborare un dizionario automatico in grado di tradurre elementi linguistici (parole e frasi) in un’altra lingua, nessuno è stato in grado di dotare una macchina della capacità di tradurre una parola in modo adeguato al contesto, tenendo conto dell’ambiguità che caratterizza il linguaggio naturale. L’Intelligenza Artificiale, continua lo studioso, è stata caratterizzata da un inizio promettente e da rapidi sviluppi seguiti poi da una serie di fallimenti. Questa situazione è stata causata dall’esistenza di una forma globale di trattamento dell’informazione, una coscienza marginale attraverso cui l’informazione non viene semplicemente acquisita ma giace ai margini della coscienza per essere esaminata solamente in modo implicito. Dimostrazione di questo è, per esempio, la capacità degli esseri umani di comprendere espressioni linguistiche ambigue. Tale capacità è assente nelle macchine, che non riescono a cogliere la dimensione globale del problema, lo sfondo, ma continuano a proseguire per prove ed errori. Fondamentale 14 dei lavori di Newell e Simon si parlerà in modo approfondito nel capitolo 3. 29 poi, nella sua visione del problema, risulta l’intuito grazie a cui, noi esseri umani, siamo capaci di distinguere elementi essenziali ed elementi accessori all’interno di un problema, di discriminare tra le informazioni disponibili e selezionare le più appropriate alla situazione. Dreyfus mette in dubbio poi la convinzione, particolarmente diffusa tra gli studiosi del settore dell’Intelligenza Artificiale, che i comportamenti intelligenti propri degli esseri umani siano il risultato di un trattamento dell’informazione analogo a quello attuato dai calcolatori, un po’ come in Searle. Per confermare questa idea dovrebbero essere veri tre assunti fondamentali: 1. uno biologico, a livello dei neuroni il cervello dovrebbe trattare le informazioni per mezzo di operazioni distinte; 2. uno psicologico, la mente dovrebbe essere considerata come congegno che opera su piccole parti dell’informazione, sulla base di regole formali; 3. uno epistemologico, l’intera conoscenza dovrebbe essere formalizzabile. La direzione assunta dagli studi sull’Intelligenza Artificiale sembra implicare poi una teoria del comportamento intelligente che non considera il possesso di un corpo fondamentale per lo sviluppo delle capacità cognitive. Al contrario, secondo Dreyfus, esso potrebbe essere indispensabile per la realizzazione di un comportamento intelligente, visto che le sue caratteristiche danno un contributo basilare a qualunque atto umano, compreso, naturalmente, il pensiero [29]. Convinzione questa che è andata maturando anche negli ultimi anni, soprattutto in seguito ad alcuni fallimenti, specialmente per quanto riguarda il raggiungimento della padronanza di un linguaggio naturale o la reazione a situazioni nuove e impreviste. A tal proposito Giuseppe O. Longo scrive: “Nel solco della filosofia razionalistica, anche l’IA funzionalistica considera la conoscenza astratta più nobile di quella legata al senso comune: l’intelligenza che dimostra un teorema sarebbe superiore a 30 quella che riconosce una scena o ci guida nelle azioni quotidiane. Ma la lunga tradizione che privilegia la conoscenza logica, immersa in un’atmosfera rarefatta in cui si staglia nitido ciò che è formale, generale e ben definito, rappresentato e pianificato in anticipo, oggi viene messa in discussione. Addirittura si assiste a un capovolgimento: si riconosce che la maggior parte delle conoscenze, specie quelle vitali, sono espresse nella struttura stessa del corpo e della sua interazione con l’ambiente; si riconosce che la loro matrice è storica; che sono sempre immerse in un contesto il quale, con le sue continue perturbazioni, lungi dall’ostacolarle (come ritiene l’IA funzionalistica) dà loro significato. Insomma il concreto non è solo un gradino verso l’astratto: è già conoscenza, anzi costituisce la parte fondamentale e fondante di tutta la conoscenza, compresa quella astratta. […] Se l’IA volesse costituire un modello più adeguato dell’intelligenza umana, dovrebbe rivalutare il significato cognitivo delle azioni semplici, incarnate e contestualizzate che compiamo di continuo nella vita di tutti i giorni.” [30] 33 nella celletta e la situazione globale o configurazione in cui si trova la macchina, definita da Turing stati mentali. Ad ogni configurazione corrispondono una specifica serie di operazioni. La macchina segue quindi delle norme che possono essere indicate su un foglio (codice) [7]. A partire dall’idea di questo genere di macchine, i ricercatori impegnati nello studio del pensiero umano giunsero a ritenere possibile la costruzione di calcolatori in grado di operare in modo analogo a quello del cervello umano, di pensare come un essere umano e agire come tale, a patto di fornire le giuste istruzioni, chiare e non ambigue. Nel 1950 Turing sviluppò quello che oggi conosciamo come test di Turing e che egli definì il «gioco dell’imitazione», un mezzo per dare una risposta alla sua domanda. Alla base del gioco dell’imitazione un’assunzione semplice: se una macchina riesce a sostenere una conversazione scritta senza svelare mai la propria natura allora possiamo dire che è intelligente. Per il test sono necessarie due persone, la prima, l’interrogante, si troverà in una stanza diversa da quella del calcolatore e dell’altra persona e potrà comunicare con entrambi battendo delle domande a macchina, senza sapere chi è l’uno e chi l’altro e identificandoli semplicemente come A e B. Lo scopo della macchina è ingannare, con ogni mezzo, l’interrogante facendogli credere di essere l’altro individuo. Il test di Turing è piuttosto severo e, nonostante l’ottimismo diffuso, e condiviso dallo stesso Turing, sulla possibilità di costruire calcolatori in 34 grado di “giocare”, tutt’oggi nessun calcolatore è riuscito a superarlo (e c’è chi ritiene che non accadrà mai) [6]. 3.1.2. Implementazioni pratiche L’Intelligenza Artificiale ha visto numerosi tentativi e progetti di implementazione pratica, dai più fantascientifici ai più concreti. Nati dai sogni di uomini di scienza dalla molteplice e varia formazione, tali progetti, portati a fine o meno, rappresentano tappe fondamentali dello sviluppo di questo campo di studi, dalla storia tanto travagliata quanto appassionante. La macchina di Turing, e tutti i suoi studi, hanno sicuramente segnato una svolta e dato energia a questo settore, ma non è stato, ovviamente, l’unico tentativo di implementazione pratica. Successivamente molti sono stati i programmi elaborati al fine di imitare i processi di pensiero e in particolare l’apprendimento, la risoluzione di problemi e il linguaggio. Di seguito prenderò in considerazione alcuni dei lavori più significativi cercando di esporne al meglio origini e finalità. 3.1.2.1 Il Logic Theorist Il Logic Theorist ideato nel 1957 da Allen Newell, J. C. Shaw e Herbert Simon, pionieri nel settore dell’Intelligenza Artificiale, fu il primo, vero programma in grado di dimostrare i principi matematici contenuti nei Principia Matematica15 di Alfred North Whitehead e Bertrand Russell [32], attraverso l’imitazione delle capacità di problem solving tipiche degli esseri umani [8][9]. L’ispirazione giunge ai creatori in modo diverso e inaspettato. Simon, economista, psicologo e informatico statunitense, nel 1950, osservando una stampante in funzionamento e notando che utilizzava 15 Principia Mathematica è un'opera sui fondamenti della matematica divisa in tre volumi. 35 lettere, cifre e comuni segni come simboli, realizzò che se una macchina era effettivamente in grado di manipolare simboli allora avrebbe potuto, altrettanto efficacemente, simulare un processo decisionale ed eventualmente anche il pensiero umano. Per Newell invece, psicologo, informatico e matematico statunitense, che aveva scritto il programma utilizzato dalla stampante osservata da Simon, il momento decisivo arrivò nel 1954 durante una presentazione sulla combinazione di schemi. Osservando l’interazione di unità semplici e programmabili, giunse alla conclusione che queste potessero essere utilizzate per riprodurre un comportamento complesso, inclusa l’intelligenza degli esseri umani. Conosciutisi presso la RAND Corporation e affascinati dalle capacità dei nuovi calcolatori di manipolare rappresentazioni simboliche, i ricercatori, con la collaborazione di John Clifford Shaw, programmatore al lavoro sul calcolatore Johnniac16 [9], si imbarcarono in quella avventura che avrebbe dato al mondo il celebre Logic Theorist. Primo problema da affrontare fu il linguaggio. Newell e Simon erano coscienti del fatto che sarebbe stato troppo complesso scrivere un programma direttamente nel linguaggio della macchina (in questo caso il calcolatore Johnniac), perciò giunsero alla conclusione che la cosa migliore da fare sarebbe stata generare un linguaggio più congeniale ad un programmatore umano ma tale da poter essere tradotto automaticamente nel linguaggio della macchina. Ben presto, il gruppo di ricerca riuscì a realizzare questo linguaggio e fu in grado quindi di passare alla fase successiva, cioè la dimostrazione dei teoremi del Principia Matematica [4]. Inizialmente si pensò di raccogliere tutti i postulati contenuti nell’opera di Whitehead e Russel e combinarli con varie regole della matematica in modo da trovare tutti i risultati possibili. L’idea si rivelò ben presto impraticabile, poiché avrebbe richiesto un dispendio di 16 calcolatore costruito nel 1954 alla RAND Corporation (California, USA) su progetto del matematico John Von Neumann. 38 uno stato all’altro, o a stati intermedi, attraverso tutti i possibili operatori mentali. E’ possibile, in poche parole, suddividere il problema in sotto obiettivi in modo da accelerare e facilitare la soluzione del problema. Ogni stato del problema è caratterizzato da un differente “stato della conoscenza”, che naturalmente aumenta man mano che ci si approssima alla soluzione, al cosiddetto goal state. Il processo viene ripetuto sino a quando non si arriva alla soluzione o si dimostra l’impossibilità di raggiungere tale obiettivo. Newell e Simon utilizzarono il GPS per la risoluzione di undici differenti problemi (completamento di serie di lettere, missionari e cannibali, la torre di Hanoi18) ma alla fine abbandonarono il progetto, insoddisfatti dal grado di generalità raggiunto [4]. Il GPS, per quanto fosse un progetto ambizioso, soffriva di una grossa pecca, cioè quella di necessitare di informazioni dettagliatissime per risolvere un problema, talmente dettagliate da contenere praticamente già la soluzione[12]. Il programma forse poteva effettivamente risolvere qualunque problema, purtroppo però non sempre allo stesso modo di un essere umano [11]. Nonostante tutto, ha occupato un posto importante nel settore dell’Intelligenza Artificiale e soprattutto nelle riflessioni dei suoi creatori. Newell e Simon giunsero infatti a ritenere che qualunque forma di intelligenza avrebbe implicato la manipolazione di sistemi di simboli, in primis quelli della matematica e della logica, e che quindi i computer potessero essere assimilati al cervello umano, con caratteristiche analoghe, poiché in grado di compiere tali manipolazioni, effettuate in passato soltanto da esseri umani [4]. 3.1.2.3. Il dottor Eliza e il paranoico Parry Il Dottor Eliza fu realizzato da Joseph Weizenbaum, allora giovane ricercatore del MIT, nel 1964 e consisteva in un programma in grado di 18 una serie di rompicapo matematici. 39 simulare la conversazione di uno psicoterapeuta durante un colloquio con un paziente umano. Il dialogo avveniva con le stesse modalità di una moderna chat: il paziente digitava delle frasi su una tastiera e riceveva la risposta tramite una stampante. Eliza era in grado di sostenere una conversazione in inglese basandosi su copioni prestabiliti di diverso argomento (quindi a seconda del copione Eliza poteva essere in grado di sostenere discussioni su vari argomenti come cucina, economia, psicologia, ecc…). Il primo copione che Weizenbaum diede ad Eliza fu quello per recitare la parte di uno psicoterapeuta e sottopose il programma a varie persone. Con sua grande sorpresa ebbe un enorme successo [13]. Barbara Giolito (2007) scrive in proposito “I proferimenti linguistici generati dal programma si rivelarono tanto simili a quanto viene generalmente detto da uno psicoterapeuta umano da possedere per i pazienti coinvolti la stessa valenza emotiva che caratterizza solitamente il primo incontro tra un analista e il suo paziente.” [4]. Kenneth Colby, uno psichiatra, arrivò a sostenere che di lì a pochi anni programmi come Eliza sarebbero stati utilizzati per l’uso clinico (un’affermazione piuttosto azzardata in realtà, specialmente per uno psichiatra). Ecco un esempio di conversazione, molto popolare, tra Eliza (in maiuscolo) e la segretaria di Weizenbaum: Gli uomini sono tutti uguali. IN CHE SENSO? Trovano sempre il modo di tormentarci. PUÒ FARMI UN ESEMPIO? Beh, è il mio ragazzo che mi ha fatto venire qui. È IL SUO RAGAZZO CHE L’HA FATTA VENIRE? Dice che sono sempre depressa. MI DISPIACE SENTIRE CHE È DEPRESSA. È vero. Sono infelice. 40 PENSA CHE IL FATTO DI VENIRE QUI L’AIUTERÀ A NON ESSERE INFELICE? Ho bisogno di aiuto, questo mi sembra chiaro. COSA SIGNIFICHEREBBE PER LEI POTER RICEVERE AIUTO? Forse potrei imparare a tollerare mia madre. MI DICA DI PIÙ SULLA SUA FAMIGLIA. Mia madre si prende cura di me. CHI ALTRO NELLA SUA FAMIGLIA SI PRENDE CURA DI LEI? Mio padre [14]. Una delle strategie di Eliza era quella di fornire delle risposte basandosi sull’analisi di parole chiave come io, tu, madre, padre, sé per costruire frasi che le contenessero a partire da un repertorio di termini limitato [4] [13]. Il resto stava tutto nel coinvolgimento emotivo dell’interlocutore e nella nostra innata tendenza come esseri umani ad antropomorfizzare ciò che umano non è, come se questo rendesse speciale o migliore qualunque altra cosa. Un ruolo importante, se non centrale, è giocato quindi dalle emozioni [14]. A distanza di poco, Colby realizzò un programma capace di simulare il comportamento linguistico di un paranoico, denominato Parry, con le stesse modalità di Eliza. Per garantire la massima verosimiglianza delle conversazioni, Colby chiese ad alcuni psichiatri di intervistare dei pazienti, tra cui Parry, per mezzo di un telescrivente, per poi distribuire tali interviste ad un secondo gruppo di psichiatri chiedendo loro di distinguere le risposte di Parry da quelle di pazienti umani. Né il primo gruppo né tantomeno il secondo furono in grado di individuare la presenza di un interlocutore non umano [4]. Dottore: Perché sei in ospedale? Parry: Io non dovrei essere qui. 43 i Sistemi Esperti fanno riferimento a domini non ben strutturati e formalizzati [2]. Un Sistema Esperto è fondamentalmente strutturato in tre componenti di base tra loro indipendenti: • una base di conoscenza, sostanzialmente stabile, che contiene le conoscenze necessarie al programma per risolvere i problemi relativi al proprio dominio. Queste possono essere rappresentate tramite frames19; • un motore inferenziale, in continuo aggiornamento e mutamento. Funziona basandosi sulle regole della logica classica e, applicando determinate strategie, permette di identificare obiettivi intermedi, ipotesi da considerare, ecc…; • un’interfaccia, abbastanza semplice in modo da poter essere utilizzata con comodità anche da chi non è pratico di Sistemi Esperti (e nella maggior parte dei casi accade che i Sistemi Esperti vengano utilizzati proprio da profani del settore)[2]. 3.2.1. Sviluppo dei Sistemi Esperti La storia dei Sistemi Esperti si snoda lungo tre generazioni: • sistemi di prima generazione, sviluppati nei primi anni ’70, si tratta di Sistemi Esperti basati sull’algebra booleana e sul ragionamento logico; • sistemi di seconda generazione, sviluppati sulla base del calcolo probabilistico, sebbene riescano a rappresentare maggiormente la 19 termine usato nel linguaggio scient. e tecn. (per es., in genetica e, in informatica, nella tecnica dei calcolatori elettronici e nelle ricerche sull’intelligenza artificiale) per indicare una struttura o un’immagine, spec. una struttura ideale rappresentativa di qualcosa, una sequenza di elementi, ecc. 44 realtà rispetto ai Sistemi Esperti di prima generazione, si scontrano con la complessità dei calcoli probabilistici; • sistemi di terza generazione, sviluppati tra gli anni ‘80 e ’90, utilizzano processi inferenziali avanzati e logica fuzzy20 e riescono ad ottenere buoni risultati con un minor dispendio di tempo ed energie [15]. 3.2.2. Alcuni esempi di Sistemi Esperti I Sistemi Esperti più famosi sono sicuramente DENDRAL e, ancora di più, MYCIN. Sviluppati entrambi da Feigenbaum e collaboratori all’Università di Stanford nella seconda metà del ‘900, questi programmi rappresentano più compiutamente la concretizzazione di quella ramificazione dell’Intelligenza Artificiale che ha avuto la più ampia diffusione commerciale, tanto che negli anni ’80 c’è stata la tendenza ad identificare la stessa disciplina con i Sistemi Esperti [2]. DENDRAL era un Sistema Esperto programmato per stabilire la struttura di una molecola in base alla sua formula atomica e al suo spettro di massa [2]. Nasce nel 1967 da Edward Feigenbaum, considerato il padre dei Sistemi Esperti e introduttore del termine nel linguaggio scientifico, con la collaborazione del premio Nobel per la medicina Joshua Lederberg. Programmato in linguaggio Lisp21 il DENDRAL si basava a sua volta su due sottoprogrammi con funzioni differenti: 20 logica in cui si può attribuire a ciascuna proposizione un grado di verità compreso tra 0 e 1. 21 sigla che sta per "List Processor language" (linguaggio per processare liste), è un linguaggio di programmazione che nasce ad opera di John McCarthy nel 1959 molto utilizzato nel campo dell’Intelligenza Artificiale. 45 • l’HEURISTIC DENDRAL, che elaborava i dati della massa delle molecole e proponeva possibili strutture chimiche; • il META-DENDRAL, che riceveva i dati dal primo e deduceva una serie di ipotesi [18]. MYCIN invece era un Sistema Esperto utilizzato per effettuare diagnosi mediche in particolare di malattie infettive, realizzato nel 1972 da Feigenbaum, Buchanan e Shortliffe. MYCIN ricorreva alla sua conoscenza sulla sintomatologia di tutte le sindromi infettive conosciute e le confrontava con la cartella clinica del paziente, grazie all’utilizzo di una serie di euristiche che gli permettevano non soltanto di ipotizzare diagnosi ma anche di verificarne l’esattezza [2] [17]. MYCIN in particolare operava attraverso una serie di domande “sì/no”, associando ad ogni regola un numero da 0 a 1 (che stava a rappresentare il grado di certezza dell’inferenza) per poi combinare le varie informazioni e giungere ad una conclusione quasi certa. Alcune regole potevano essere la colorazione, la morfologia o la crescita dell’organismo. “Ragionando” a partire da queste regole, MYCIN era in grado di procedere verso i dati clinici a disposizione e, una volta identificato l’organismo, di selezionare una terapia [2]. Sebbene gli studi all’Università di Stanford fossero stati piuttosto promettenti, MYCIN non fu mai utilizzato al di fuori di un laboratorio, sia per motivi etici (legati alle conseguenze per i medici in caso di morte del paziente con o senza l’utilizzo di MYCIN), sia per motivi di tempo. Al sistema infatti occorreva più di mezz’ora per compiere un’analisi completa del un paziente [2]. 48 Bibliografia e sitografia [1] Rossi A. (1998): Il fantasma dell’intelligenza. Alla ricerca della mente artificiale. Napoli, CUEN. [2] Carlucci Aiello L.; Cialdea Mayer M. (1995): Invito all’intelligenza artificiale. Milano, Franco Angeli. [3] Odifreddi P. (2004) “La seconda rivoluzione scientifica: matematica e logica. Teoria della ricorsività”, in Enciclopedia Treccani Online, http://www.treccani.it/enciclopedia/la-seconda-rivoluzione-scientifica- matematica-e-logica-teoria-della-ricorsivita_(Storia-della-Scienza)/ [4] Giolito B. (2007): Intelligenza artificiale. Una guida filosofica. Roma, Carocci Editore. [5] “Teoria della calcolabilità” in Wikipedia, l’Enciclopedia libera, https://it.wikipedia.org/wiki/Teoria_della_calcolabilità. [6] Rich E. (1989): Intelligenza artificiale. Milano, Edigeo. [7] Ballo E.; Bozzi S.; Cappuccio M.; D’Agostino M.; D’Alessandro P.; Fabrichesi Leo R.; Frixione M.; Giolito B.; Giorello G.; Lolli G.; Longo G.; Magnani L.; Numerico T.; Odifreddi P.; Patera V.; Saltalamacchia I.; Sinigaglia C. (2005): L’eredità di Alan Turing. 50 anni di intelligenza artificiale. Milano, Edizioni Albo Versorio. [8] “Logic Theorist”, in History of computers, http://history- computer.com/ModernComputer/Software/LogicTheorist.html. [9] “Herbert Alexander Simon”, in Macchine come noi? La sfida dell'intelligenza artificiale, http://www.istitutocalvino.it/studenti/siti/ia/protagonisti/simon.html. [10] A. Newell, J.C. Shaw e H.A. Simon (1962): The Process Of Creative Thinking, New York, Atherton. [11] Eysenck M.W. (2004): Psychology, An International Perspective. Psychology Press. 49 [12] Chiappi R. (2005): Problem Solving nelle organizzazioni: idee, metodi e strumenti da Mosè a Mintzberg: Piccola antologia filosofica per managers e project managers. Springer. [13] Ciotti F. : “Introduzione all’Intelligenza Artificiale” in MediaMente: Attualità, alfabetizzazione nuovi media. http://www.mediamente.rai.it/mediamentetv/learning/corsi/9912c2_2.asp#2. [14] Nutricati A.S. (2008): La psiche umana e la simulazione cibernetica, Università del Salento. [15] “Sistema Esperto” in OkPedia http://www.okpedia.it/sistema- esperto#la_storia_dei_sistemi_esperti. [16] Muscari A. (1994): Cardiologia al computer. Un sistema esperto per l'apprendimento e la diagnosi. Etas. [17] “I primi sistemi esperti” in Web Tiscali, http://web.tiscali.it/ssercol/storia/se_ia.htm. [18] Sartor G. (2012): L'informatica giuridica e le tecnologie dell'informazione .Giappichelli Editore [19] VV. AA. (2014): Alan Mathison Turing: l'indecidibilità della vita. Franco Angeli. [20] “Alan Turing Intelligenza Artificiale” in Biografie Online, http://biografieonline.it/biografia.htm?BioID=191&biografia=Alan+Turing. [21] Carli E. (2003): Cervelli che parlano. Il dibattito su mente, coscienza e intelligenza artificiale. Mondadori. [22] Russell Stuart J., Norvig P. (2010): Intelligenza artificiale, un approccio moderno. Vol.1. Pearson Addison-Wesley. [23] La Forgia M. (2000) “Jerry Alan Fodor” in Enciclopedia Treccani Online, VI appendice, http://www.treccani.it/enciclopedia/jerry-alan- fodor_(Enciclopedia-Italiana)/. [24] Fornero G. (1996): Intelligenza artificiale e filosofia, in N. Abbagnano, Storia della filosofia, vol. X, La filosofia contemporanea (di G. Fornero e F. Restaino), TEA, Milano. 50 [25] Bastianon E. (2002): I paradigmi fondamentali della formazione. Armando Editore. [26] Tamburrini G. (2002): I matematici e le macchine intelligenti: spiegazione e unificazione nella scienza cognitiva. Mondadori. [27] Turricchia E.: Artificial Neural Network (ANN) http://bias.csr.unibo.it/golfarelli/DataMiningSTI/ MaterialeDidattico/Reti%20Neurali.pdf, Università di Bologna. [28] Searle J. (1980): Minds, Brains and Programs in Behavioral and Brain Sciences 3, California USA. [29] Dreyfus H.L. (1972): What Computers Can’t Do, Harper & Row. [30] Longo G. O. (1998): Il nuovo Golem. Come il computer cambia la nostra cultura, Laterza. [31] Turing A. M. (1950): Computing Machinery and Intelligence in Mind. [32] Whitehead A.N., Russell B.A.W. (1910): Principia Matematica. Cambridge University Press. [33] Fodor J.A. (1983): The Modularity of Mind: an Essay on Faculty Psychology, MIT Press.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved