Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Nascita ed evoluzione del concetto di IA - Intelligenza Artificiale (da Turing a oggi), Tesi di laurea di Psicologia dell'Intelligenza

Capitolo descrittivo per tesi sull'intelligenza artificiale che comprende la storia e l'importanza di Alan Turing sugli studi dell'IA passando per il congresso di Dartmouth, le teorie di Searle, Focault e Dreyfus, fino ad arrivare agli studi moderni sul machine learning e il deep learning con le nuove tecnologie sviluppate dalle aziende hi-tech e implementate nella società. Un quadro generale evolutivo del cammino svolto da informatici, scienziati e matematici verso il futuro della nostra specie

Tipologia: Tesi di laurea

2021/2022

In vendita dal 09/11/2022

Gigi.A
Gigi.A 🇮🇹

4.1

(25)

37 documenti

1 / 46

Toggle sidebar

Anteprima parziale del testo

Scarica Nascita ed evoluzione del concetto di IA - Intelligenza Artificiale (da Turing a oggi) e più Tesi di laurea in PDF di Psicologia dell'Intelligenza solo su Docsity! Sommario CAPITOLO 1 Nascita ed evoluzione del concetto di IA .............................. 2 1.1. L’importanza di Alan Turing ............................................................ 2 1.2. Dalla Conferenza di Dartmouth ai primi sviluppi tecnologici ........ 14 1.3. Le macchine come menti umane ..................................................... 25 1.4. Machine Learning e Deep Learning ................................................ 35 BIBLIOGRAFIA ........................................................................................... 42 SITOGRAFIA ................................................................................................ 46 2 CAPITOLO 1 Nascita ed evoluzione del concetto di IA 1.1. L’importanza di Alan Turing L’informatica o scienza dei calcolatori, come la definiscono gli inglesi, non esiste da sempre così come la conosciamo ma ha attraversato una serie di momenti storici che ne hanno plasmato i contenuti. Prendendo in considerazione la storia infatti, risulta riduttivo indicare che il processo evolutivo dell’informatica sia iniziato durante la Seconda Guerra Mondiale con enormi elaboratori matematici che occupavano interi laboratori. Risulta ancora più semplicistico sostenere che, nel secondo dopoguerra, grazie al miglioramento e potenziamento di componenti tecnologici, il colosso Microsoft abbia avuto la strada spianata per distribuire in tutte le case i computer desktop che oggi conosciamo. La professoressa Numerico [2010] sottolinea come queste contingenze storiche vengano spesso ignorate, favorendo l’idea che l’evoluzione dei computer, in fondo breve e sbrigativa, sia dovuta principalmente allo sviluppo dell’hardware e al potenziamento di tutte quelle caratteristiche ingegneristiche posseduta dalla macchina. Questo punto di vista prende in considerazione solo uno dei processi evolutivi che ha riguardato la scienza dei calcolatori, ignorando completamente l’evoluzione del linguaggio della macchina, i miglioramenti della logica di funzionamento e tutti quei fatti storici che hanno dato vita a questo processo ancora oggi in evoluzione, ed è proprio la profonda rilevanza storica di alcuni eventi ad aver avuto un’enorme ripercussione sulla moderna tecnologia [Numerico, 2010, 15-16]. Il punto in comune tra i diversi approcci allo studio dell’informatica riguarda la sua data di nascita, un periodo che può essere effettivamente collocato intorno agli anni della Seconda Guerra Mondiale, durante i quali, molti studiosi si dedicarono unicamente alla costruzione di macchine calcolatrici per l’esecuzione di grandi quantità di operazioni da effettuare nel minor tempo possibile. L’idea, inizialmente il sogno, di automatizzare tutte quelle attività che potessero aiutare l’uomo nelle sue incombenze quotidiane, ha radici molto più lontane dal secolo scorso e trova testimonianze già in epoca classica. Guardando alla storia più recente, Mugnai [2001] ci descrive come circa tre secoli prima della Seconda Guerra Mondiale, matematici come Pascal1 e Leibniz2 progettarono, rispettivamente nel 1649 e nel 1 Pascal, Blaise: Filosofo e matematico francese (Clermont 1623 - Parigi 1662). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/ricerca/blaise-pascal. 2 Leibniz, Gottfried Wilhelm von: Filosofo e scienziato tedesco (Lipsia 1646 - Hannover 1716). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/gottfried-wilhelm-von-leibniz 5 solitari, avevano serie ripercussioni etiche e morali nel mondo reale, pertanto era giusto che essi si assumessero le proprie responsabilità e prendessero posizioni precise in merito a futuri progetti di ricerca [Foucault, 1977, 21-23]. Wiener prese una posizione di netto contrasto con le scoperte scientifiche che arrecavano danno all’umanità, rifiutando, dopo la guerra, qualunque progetto di ricerca che fosse finanziato, anche solo indirettamente, dal dipartimento della Difesa americano, pagando di persona le conseguenze della sua scelta in termini di isolamento. In un suo documento [1948] esplorò più dettagliatamente alcuni probabili effetti delle tecnologie su valori cardine per l’essere umano quali la vita, la salute, la felicità affermando che Quelli di noi che hanno contribuito alla nuova scienza della cibernetica si trovano in una posizione morale a dir poco scomoda. Abbiamo contribuito alla nascita di una nuova scienza che, come ho detto, comporta sviluppo tecnici con grandi possibilità per il bene e il male. Non possiamo fare altro che consegnarla al mondo che ci circonda, e questo è il mondo di Belsen e Hiroshima. Non abbiamo neanche la scelta di arrestare questi nuovi sviluppi tecnici. Essi appartengono alla nostra epoca, e il massimo che riusciremmo ad ottenere cercando di sopprimerli sarebbe di metterli nelle mani dei più irresponsabili e venali dei nostri ingegneri [Wiener 1948; trad. it. 1968, 28]. In un certo senso, come affermano Bianchini et.al. [2007], le speranze e le paure di Wiener per le tecnologie cibernetiche erano già presenti prima di Hiroshima, ma furono moltiplicate in seguito al bombardamento nucleare del Giappone nell’estate del 1945. La sua principale idea era che le macchine per il controllo e la comunicazione, una volta costruite, avrebbero sostituito l’uomo sia nei lavori manovali che logici, creando una vera e propria disoccupazione intellettuale. Inoltre riteneva che imporre il segreto alle ricerche, per evitare di farle conoscere al nemico, significasse soltanto rallentarle, in quanto il nemico aveva sicuramente strategie di spionaggio per accedere ugualmente alle notizie importanti [Bianchini et.al., 2007, 67-68]. Durante il conflitto, se da una parte Wiener poté mettere in pratica gli studi sulla cibernetica progettando il metodo per abbattere gli aerei nemici, dall’altra Vannevar Bush riuscì a sfruttare il conflitto mondiale per approfondire le sue attività di ricerca scientifica. Numerico et.al. [2010] evidenziano come la nomina a direttore d’ufficio per la ricerca e lo sviluppo in ambito scientifico, avvenuta nel 1941, garantì a Bush un ruolo di tramite tra gli scienziati che lavoravano al Progetto Manhattan, un programma di ricerca e sviluppo in ambito militare, e il presidente Franklin Delano Roosevelt8. Il doppio 8 Roosvelt, Frankiln Delano: Politico statunitense (Hyde Park, New York, 1882 – Warm Springs, Georgia, 1945). Fu presidente degli Stati Uniti d’America per quattro mandati consecutivi dal 1933 al 1945. Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/franklin-delano-roosvelt. 6 ruolo svolto da Bush, di scienziato e burocrate incaricato di finanziare la scienza in un momento molto delicato della storia del suo paese, lo spinse ad approfondire il ruolo della tecnologia nello sviluppo scientifico con particolare riguardo al problema della gestione delle informazioni. [Numerico et.al., 2010, 25-26]. Egli scommetteva su di una futura società dell’informazione, cioè prevedeva una società in cui si sarebbe affermato un accumulo continuamente crescente di informazioni e di documenti. Di fronte a questa previsione Bush, come evidenziano D’Alessandro e Domanin [2005], vedeva una sostanziale inadeguatezza della mente umana, incapace di gestire una mole di dati importanti e che quindi aveva bisogno quantomeno di essere aiutata dalle tecnologie disponibili. Con questi presupposti, egli si chiedeva se una macchina avrebbe potuto addirittura sostituire la mente umana, per rispondere a questo quesito, egli prendeva in considerazione il rapporto tra uomo e macchina. Bush non riteneva che la macchina potesse davvero emulare la memoria umana, almeno non a breve termine, ma era convinto che la macchina potesse aumentare il potere naturale del cervello umano di costruire associazioni utili ed efficaci. Secondo l’ingegnere americano infatti, la tendenza fino ad allora, di catalogare per indici alfabetici e numerici le informazioni, era un sistema che si discostava completamente dalla modalità di approccio della mente umana all’informazione, perché, come egli sosteneva, la mente umana funzionava per associazione: era capace di passare da un’informazione all’altra attraverso associazioni di idee sfruttando la rete neurale. Il sogno di trasferire direttamente i meccanismi mentali dell’associazione di idee e di indicizzazione e archiviazione delle informazioni in una macchina non divenne concretamente realtà, ma diede un grande contributo ai futuri sviluppi del web, infatti, al termine della guerra, Bush pubblicò quello che probabilmente è considerato l’articolo più citato negli studi sull’ipertestualità: As We May Think. Si trattava di un lungo articolo che, nella parte conclusiva, esponeva il progetto visionario della sua macchina per la gestione della conoscenza, il Memex. Questo strumento era descritto come una scrivania dotata di schermi traslucidi, una tastiera, un set di bottoni e di leve. Il suo compito era quello di memorizzare libri, documenti e comunicazioni di un individuo, in maniera meccanizzata. La consultazione di queste informazioni era rapida e flessibile perché sarebbe dovuta avvenire non attraverso sistemi di classificazione ma tramite percorsi associativi, emulando la mente umana. Memex non sostituiva la mente umana ma era un’estensione personale della sua memoria [D’Alessandro, Domanin, 2005, 77-80]. Tornando alla Seconda Guerra Mondiale, come sostiene il professor Maffi [2012], il ruolo di Bush all’interno del Progetto Manhattan fu fondamentale. Il suo compito fu quello di riunire i migliori fisici del mondo per studiare applicazioni strategiche coperte da segreto 7 militare. Gli Stati Uniti si erano da poco impegnati nella guerra che prometteva di essere difficile, lunga e dolorosa, e nella quale la supremazia tecnologica ed industriale avrebbe alla lunga assegnato la vittoria. Molti progetti di ricerca, anche di base, e ritenuti strategici dal Governo, erano finanziati negli Stati Uniti attraverso la US Army. L’obiettivo principale e non dichiarato, almeno inizialmente, era quello di costruire la prima bomba atomica. Gli scienziati impegnati in questa impresa, con le loro ricerche nel campo nucleare, avrebbero dato in breve tempo un risvolto fondamentale all’esito finale della guerra in corso [Maffi, 2012, 496-497]. È evidente che i governi interessati dal conflitto, durante la Seconda Guerra Mondiale, investivano ingenti somme di denaro nelle armi e nel campo della scienza per riuscire ad ottenere risultati rapidi e importanti. I ricercatori impegnati in questi progetti governativi, grazie ai fondi messi a disposizione dallo Stato, potevano mettere in pratica le loro ricerche, favorendo una serie di scoperte e dimostrazioni empiriche in ambito scientifico. Oltre al Progetto Manhattan, gli enormi investimenti miravano anche a costruire un dispositivo di calcolo potente che potesse coadiuvare il settore della crittografia nel decodificare i messaggi in codice dell’esercito nemico. In questo campo, sia la Gran Bretagna che la Germania, stavano combattendo via radio una guerra parallela, ed entrambe provavano ad individuare i messaggi della controparte per anticiparne le mosse ed avere la meglio in battaglia. Gli inglesi avevano come base operativa un sobborgo londinese, precisamente Bletchley Park, un luogo che Hodges [1991] descrive come il quartier generale delle grandi menti, in cui venivano riuniti non solo matematici, ingegneri e fisici, ma anche esperti di linguistica, enigmistica, scacchisti e statistici, come un’ordinaria villa di campagna in mezzo ai mattonifici del Buckinghamshire. Il lavoro di un ufficio crittografico dell’epoca non possedeva nessun fascino particolare: si trattava di una mansione incolore e monotona perché bisognava semplicemente provare a decifrare il messaggio contenuto nelle comunicazioni radio del nemico, i ricercatori che vi lavoravano infatti, somigliavano molto più ad un gruppo di studenti di una università, costretti a stare tutti insieme e a lavorare in silenzio senza lamentarsi. Svolgere questa operazione significava mettere in preventivo una serie di errori, di restrizioni, e soprattutto ore e ore di faticoso lavoro su ciascun messaggio: tutti inconvenienti assolutamente inevitabili [Hodges, 1991, 219]. In concreto, il compito difficile, se non impossibile, era quello di provare ad individuare il significato delle comunicazioni radio tedesche che venivano criptate con la macchina Enigma, un calcolatore capace di generare un codice che mutava ogni giorno. La svolta si ebbe quando all’inizio del 10 un articolo intitolato On computable numbers, with an application to the entscheidungsproblem, un documento che può essere considerato come l’atto di nascita della struttura teorica dei calcolatori. Turing [1937], per rispondere alla domanda di Hilbert, dovette innanzitutto definire cosa fosse una procedura e quale tipo di macchina fosse adatta a svolgerla. Non aveva bisogno di costruire un tale dispositivo, ma ne doveva definire il funzionamento dal punto di vista teorico. La macchina ideale, denominata in seguito Macchina di Turing (MdT), come mostra lo schema in figura 1.1, era un dispositivo costituito da un nastro bidimensionale diviso in quadrati e lungo a piacere, sebbene non di lunghezza infinita, di una testina di lettura, scrittura, cancellazione e spostamento lungo il nastro e di una tavola di istruzioni che rappresentava in modo preciso e non ambiguo la procedura che doveva eseguire: l’idea di Turing, in pratica, era di rendere automatica una macchina da scrivere. Definito il funzionamento della macchina astratta, il matematico proponeva un parallelismo tra il funzionamento della mente e il funzionamento della macchina affermando che la sua macchina astratta era in grado di replicare, attraverso le proprie configurazioni, i processi mentali del pensiero umano. Se l’insieme di processi mentali permettevano all’individuo di trovare una soluzione a qualunque problema risolvibile, in modo analogo, la macchina poteva essere in grado di svolgere la stessa attività perché replicava meccanicamente le operazioni che avrebbe svolto manualmente un operatore. A questo punto, mise in pratica il problema dell’arresto13 ovvero, assegnando alla macchina un algoritmo da risolvere e un determinato input finito, non era sempre possibile stabilire se l’algoritmo in questione avrebbe indotto la macchina a terminare o continuare all’infinito le operazioni di calcolo. In questo modo Turing fu in grado di sostenere la tesi che alcuni problemi non ammettono nessuna soluzione generale calcolabile dando così una dimostrazione negativa al problema della decisione posto da Hilbert, perché, se una MdT non era in grado di risolvere un algoritmo, allora il problema poteva essere considerato incomputabile o irrisolvibile [Turing, 1937]. 13 Problema dell’arresto: Primo esempio di problema indecidibile, cioè che non ammette alcun algoritmo di risoluzione. Il problema dell’arresto nacque nel 1936, sulla base di studi sugli insiemi infiniti della fine del XIX sec. La sua enunciazione è dovuta ad Alan Turing ed è basata sulla formalizzazione dei modelli primitivi di calcolo sviluppati all’inizio di quel secolo, tra cui la macchina dello stesso autore. Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/problema-dell-arresto 11 Fig. 1.1 La Macchina di Turing Fonte: Capponi, 2015 La progettazione da parte di Turing di una macchina astratta così potente, racchiudeva in sé una scoperta sensazionale e inaspettata, come sosteneva anche Somenzi [1965]. Nel riuscire a dare una risposta al quesito della decidibilità infatti, il matematico si ritrovò, a sua insaputa, a porre le basi della rivoluzione informatica del secondo dopoguerra, stabilendo quali fossero i limiti della computabilità, discutendo di argomenti che avrebbero portato allo sviluppo della Teoria Computazionale della Mente. [Somenzi, 1965, 97-98]. Un altro fondamentale concetto sviluppato da Turing in questo articolo del 1936, come sostiene Davis [2003], riguardava la possibilità di creare una Macchina Universale (MTU) ovvero, era possibile inventare una singola macchina che potesse essere usata per calcolare ogni sequenza computabile. In pratica, una MTU, ricevendo in input le istruzioni appropriate, era in grado, non solo di computare funzioni numeriche, ma anche di eseguire qualsiasi processo in base alle regole impostate. Si trattava di un grande balzo in avanti, almeno concettualmente, perché fino a quel momento i meccanismi delle macchine, pensati o realizzati, erano in grado di eseguire solo una serie fissata di compiti. L’ipotesi di Turing era invece di una macchina di calcolo con programma memorizzato a parte e quindi la distinzione tra hardware e 12 software. La macchina assumeva di per sé un uso generale mentre i programmi che le permettevano di eseguire compiti diversi le venivano forniti allo stesso modo dei dati. Inoltre, questa MTU si distingueva da quelle del passato per il fatto che affondava le sue radici nella logica. Grazie alle ricerche nel periodo bellico, Turing aveva avuto la possibilità di conoscere l’elettronica anche sul piano pratico avendo lavorato concretamente su macchine calcolatrici. Finita la guerra, il matematico riprese in mano l’articolo giovanile del 1936, lo ampliò ed approfondì ulteriormente i tratti connotativi della sua MTU dedicandosi principalmente alla progettazione di un dispositivo in grado di emulare alcune capacità del cervello umano. A questo punto aveva soltanto bisogno di mezzi finanziari e materiali per trasformare in realtà il suo grande progetto [Davis, 2003, 204-216]. Nel 1948, come ricorda la professoressa Petrocelli [2014], Turing scrisse una prima relazione in cui argomentava la sua teoria sui processi computazionali e sul fatto che l’intelligenza umana derivasse dalle capacità auto-organizzative di un sistema in grado di elaborare informazioni. I suoi studi fornivano la prima descrizione di reti neurali artificiali, oggi usate per simulare i neuroni. Turing fu uno dei primi a pensare alla realizzazione di strumenti di computazione basati su semplici elementi che, come i neuroni, fossero organizzati in reti di collegamenti. Egli proponeva la similitudine tra la mente di un neonato e il sistema di una macchina non organizzata: mediante la simulazione di un processo di apprendimento, la macchina poteva essere addestrata e organizzata. Questa sua idea derivava dagli studi che aveva cominciato a portare avanti nei campi della neurologia e della fisiologia, nell’intento di riprodurre un’intelligenza artificiale o, come lui la definiva, una Macchina Intelligente [Petrocelli, 2014, 81-83]. Egli si rendeva conto che, per ottenere prestazioni più interessanti in termini di intelligenza della macchina, era necessario immaginare, oltre a un metodo per obbedire completamente alle regole, anche un sistema per apprendere la capacità di iniziativa, giacché una macchina, sia pure universale, forse non era sufficiente di per sé alla simulazione dell’intelligenza. Le idee rivoluzionarie per quel momento storico, furono esposte all’interno di un secondo articolo pubblicato su Mind e che conteneva al suo interno la famosa domanda provocatoria posta da Turing [1950]: “Can machines think?” [Turing, 1950, LIX, 236, 433]. Con questa dichiarazione di intenti, come racconta Bennato [1994], l’inglese affrontava la prima trattazione dei problemi relativi all’Intelligenza Artificiale intesa in senso moderno, utilizzando un linguaggio insolitamente colloquiale, per essere redatto da un matematico di professione. Buona parte delle ricerche nel campo dell’IA, si sarebbero basate sugli argomenti proposti in questo articolo, in cui Turing esponeva un suo iniziale punto di vista sul funzionamento della mente anche in maniera filosofica chiedendosi se le macchine 15 ricerca informatica esponendo la loro tesi in un articolo pubblicato nel 1943 con il titolo di Behavior, purpose and teleology. Tra questi ricercatori, bisogna evidenziare il contributo offerto soprattutto da Wiener. Lo statunitense fu un brillante matematico che sviluppò un interesse per i sistemi di controllo biologici e meccanici e la loro relazione con la cognizione. Insieme ai suoi colleghi, Wiener sfidò l’ortodossia behaviorista affermando che il comportamento volontario scaturiva da un meccanismo di regolazione che cercava di minimizzare l’errore, e descriveva questo errore come la differenza tra lo stato corrente del sistema e quello desiderato. Alla fine degli anni ’40, Wiener insieme a Warren McCulloch16, Walter Pitts 17e John von Neumann18, organizzò una serie di incontri dedicati ai nuovi modelli cognitivi matematici e computazionali che influenzarono molti altri ricercatori nelle scienze comportamentali. Il libro di Wiener, Cybernetics, divenne un bestseller e rivelò al grande pubblico la possibilità di realizzare macchine intelligenti [Russell, Novig, 2005, 23- 25]. Oggi viene considerato come primo lavoro appartenente all’IA quello svolto da McCulloch e Pitts, entrambi interessati a ottenere un modello formale delle reti neuronali del sistema nervoso umano. Come descrivono Israel e Gasca [2008], i due scienziati americani, sollecitati dalle riflessioni sull’emulazione e la sostituzione dell’essere umano con la macchina, pubblicarono nel 1943 un articolo intitolato A logical calculus of the ideas immanent in nervous activity, nel quale venivano rappresentati i neuroni come delle scatole articolate all’interno di reti. Dentro queste reti venivano trasmessi impulsi o segnali, vincolati a leggi di tipo logico-matematico [Israel, Gasca, 2008, 197-198]. Con questo lavoro, veniva proposto per la prima volta un modello neuronale artificiale attraverso il quale ogni funzione computabile poteva essere calcolata dalla rete che, a sua volta, era anche capace di apprendere. Nel 1945, come raccontano Battistini [2016] e Aspray [1990], un gruppo di scienziati, guidato da Presper Eckert19 e John Mauchly20, progettò e creò ENIAC, un elaboratore che occupava una superficie di 180 metri quadrati e pesante diverse tonnellate, costruito principalmente per risolvere i problemi di calcolo balistico per il lancio 16 McCulloch, Warren Sturgis: neurofisiologo statunitense (Orange, New Jersey, 1898 – Cambridge, Massachusetts, 1969). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/warren-sturgis-mcculloch. 17 Pitts, Walter: matematico statunitense (Detroit, Michigan, 1923 – Cambridge, Massachusetts, 1969). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/walter-pitts. 18 von Neumann, John: matematico ungherese (Budapest 1903 – Washington 1957). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/john-von-neumann. 19 Eckert, John Presper: ingegnere elettronico statunitense (Filadelfia 1919 – Bryn Mawr, Pennsylvania, 1995). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/john-presper-eckert. 20 Mauchly, John William: ingegnere elettronico statunitense (Cincinnati, Ohio, 1907 – Ambler, Pennsylvania, 1980). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/john-william-mauchly. 16 dei proiettili d’artiglieria. ENIAC, pur essendo un calcolatore elettronico, non era ancora un computer nel senso moderno del termine, si trattava veramente di un organismo primordiale. Il matematico John Von Neumann venne a conoscenza del lavoro del gruppo di Eckert e Mauchly soltanto a lavoro ultimato ma, sfruttando i concetti esposti da Turing sulla macchina universale, la teoria della cibernetica di Wiener, le prime ricerche riguardanti le reti neuronali e facendo leva sulle prime esperienze di ENIAC, si mise all’opera per costruire una macchina che potesse essere più performante di quest’ultima. John Von Neumann è considerato ancora oggi una delle menti più brillanti e straordinarie del secolo scorso a cui si devono fondamentali contributi nel settore della matematica ed anche nel campo dell’intelligenza artificiale. Grazie alla sua capacità di penetrazione dei problemi, le sue competenze multidisciplinari, matematiche e non, sintetizzò in un documento i principi teorici e tecnici per la creazione di un calcolatore digitale generale. Il documento fu scritto nel 1945 e intitolato First Draft of a Report on the Edvac, ed è considerato oggi una pietra miliare nell’evoluzione dei computer. Lo scienziato ungherese, pur essendo convinto dell’importanza dei nuovi apparati tecnologici riteneva che, per realizzare nuove macchine più potenti ed efficienti e ottenere miglioramenti rispetto al passato, fosse necessaria una fondazione teorica della loro struttura. Forte delle conoscenze acquisite tramite i lavori di McCulloch e Pitts, dai quali attinse gli studi sia sulle analogie tra la struttura complessa di un calcolatore e quella del sistema nervoso, sia le nozioni sulle macchine autoriproducenti, Von Neumann iniziò un’intensa corrispondenza con il fisico ungherese Rudolf Ortvay21 per approfondire queste tematiche di funzionamento [Battistini, 2016, 337; Aspray, 1990, 178]. Nel 1951, grazie al grande lavoro di von Neumann e del team che aveva già lavorato ad ENIAC, venne costruito EDVAC, il primo computer digitale programmabile tramite un software e basato su di una tecnologia che prese il nome di Architettura von Neumann, un’architettura hardware su cui sono basati la maggior parte dei computer moderni. Come spiega Pisciotta [2014], la macchina prevedeva una CPU con un set elementare di istruzioni in grado di leggere e scrivere i dati e di eseguire dei calcoli basilari. Memorizzare il programma voleva dire poterlo sostituire all’occorrenza con un altro per eseguire un algoritmo diverso senza la necessità di dover riconfigurare l’hardware dell’elaboratore. La vera peculiarità di questa architettura era quella di avere una memoria unica per memorizzare sia le istruzioni da eseguire che i dati da manipolare. L’influenza di Turing su von Neumann 21 Ortway, Rudlf: fisico ungherese (Budapest 1885 – Budapest 1945). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/rudolf-ortway. 17 nella progettazione di EDVAC era evidente, anche se nei documenti per la progettazione della macchina non veniva mai menzionato il nome del matematico. L’ungherese si rendeva conto che i princìpi base della progettazione dei calcolatori elettronici si fondavano sulla logica e, più di una volta, affermò che il cervello umano doveva parte delle sue notevolissime capacità al fatto di saper funzionare come un calcolatore universale, come sosteneva nel suo manoscritto incompiuto del 1958 intitolato The Computer and the brain. Con il grande lavoro di von Neumann nasceva la prima vera macchina che Turing aveva ipotizzato circa dieci anni prima, ovvero un calcolatore capace di emulare le funzioni della mente [Pisciotta, 2014, 125-126]. All’inizio degli anni ‘50 furono mossi i primi e decisivi passi nel campo della ricerca verso l’Intelligenza Artificiale. L’incontro tra diverse menti, su tematiche aperte soprattutto da Alan Turing, accendeva i riflettori sullo studio delle macchine intelligenti. In quegli anni, come sostiene il professor Giglietto [2006], l’ingegnere e matematico statunitense Claude Shannon22, comunemente considerato come il padre della teoria dell’informazione, dedicò tutti i suoi sforzi proprio alla progettazione di queste macchine. Shannon aveva già collaborato negli anni precedenti con Bush e presso il MIT aveva avuto l’opportunità di conoscere Wiener. Nei suoi studi ebbe l’intuizione di utilizzare i due valori della logica binaria e gli strumenti dell’algebra di Boole23 per rappresentare gli stati aperto e chiuso di un circuito. Questa intuizione gettò le basi per lo sviluppo della teoria dell’informazione. Ebbe poi modo di incontrare Turing in visita negli Stati Uniti. Con il matematico inglese, Shannon lavorò per alcuni mesi alla realizzazione di un sistema di conversazione telefonico crittografato che consentì a Roosvelt e Churcill24 di tenere conversazioni transatlantiche sicure durante la guerra [Giglietto, 2006, 21-23]. Russel e Norvig [2005] ricordano che nel 1951, uno studente di dottorato del dipartimento di matematica di Princerton, Marvin Lee Minsky25, costruì, insieme ad un collega, il primo computer basato su rete neurale: lo SNARC. Questo computer utilizzava 3000 valvole termoioniche e un sistema automatico di pilotaggio riciclato da un aereo da guerra per 22 Shannon, Claude Elwood: Matematico statunitense (Gaylord, Michigan, 1916 – Medford 2001). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/claude-shannon. 23 Algebra di Boole: Permette di effettuare un calcolo algebrico che ha come oggetti non i numeri, ma i valori di verità di enunciati. Poiché questi ultimi, nella logica classica, possono assumere soltanto due valori. L’algebra di Boole nasce come algebra binaria e le sue variabili, dette variabili booleane, possono assumere solo i due valori 0 e 1. Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/algebra-di-boole. 24 Churchill, Sir Winston Leonard Spencer: Statista inglese (Blenheim Palace, Oxford, 1874 - Londra 1965). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/sir-winston-leonard-spencer-churchill. 25 Minsky, Marvin Lee. - Studioso di scienze cognitive statunitense (New York 1927 - Boston 2016). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/marvin-lee-minsky. 20 macchina intelligente. Le prime scoperte sensazionali si ebbero riuscendo a modellare il ragionamento umano all’interno di sistemi, permettendo ad una macchina di vincere ad un gioco oppure dimostrare un teorema. L’obiettivo principale era quello di progettare algoritmi basati sulla tecnica di esplorare passo dopo passo, in maniera esaustiva, un determinato spazio di ricerca. Nel caso di un gioco, un passo elementare poteva essere quello di effettuare una determinata mossa compatibile con le regole del gioco, mentre nel caso della dimostrazione di un teorema poteva essere quello di effettuare una deduzione a partire dai dati e dalle informazioni disponibili fino a quel momento. La ricerca dell’obiettivo finale poteva quindi essere condotta in modo molto simile alla ricerca della via d’uscita in un labirinto: si esploravano tutte le strade possibili e quando si rimaneva bloccati, cioè si raggiungeva un punto che non ammetteva ulteriori vie di fuga, si tornava indietro sui propri passi per procedere all’ esplorazione di nuove possibilità, effettuando un’operazione nota come backtracking. Il principale limite di questo approccio era che in molti casi pratici lo spazio delle soluzioni dei problemi considerati aveva una dimensione proibitiva, e quindi, esplorare tutte le soluzioni con le tecnologie disponibili all’epoca, poteva rivelarsi fisicamente impossibile. Un’altra area di ricerca che si andò formando in quegli anni fu quella dell’elaborazione del linguaggio naturale che aveva l’obiettivo di consentire a un computer di comunicare con gli utenti in un linguaggio naturale, come ad esempio l’inglese. Anche se il legame tra intelligenza e prestazioni linguistiche effettive fu pressoché assente nel seminario di Dartmouth, riuscire a dotare una macchina della capacità di dialogare con un essere umano, obiettivo dichiarato da Turing nel suo famoso Test, affascinava molti scienziati i quali si cimentarono nell’impresa proposta anni prima dal matematico. [Pizzetti, 2018, 209-210]. Turing infatti, pur essendo morto prima dell’evento di Dartmouth, ricopriva ancora un ruolo fondamentale nel panorama della ricerca dello studio sulle macchine intelligenti, come ricorda anche Bordoni [2008]. Tra i ricercatori che tentarono di superare il Test di Turing ci fu Joseph Weizenbaum28 che, nel 1964, progettò Eliza, uno dei primi esperimenti di vita artificiale che sfruttava il linguaggio naturale. Questa macchina era programmata per conversare in linguaggio naturale con un essere umano, tramite un accurato uso di alcune formule retoriche, che consentivano di rielaborare i contenuti della domanda per costruire risposte. Eliza fu uno dei primi esempi in cui lo scopo della realizzazione informatica, ottenuta con le tecnologie del natural language processing, era la simulazione 28 Wiezenbaum, Joseph: informatico tedesco (Berlino 1923 – Groben 2008). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/joseph-weizenbaum. 21 di un’interazione credibile tra soggetti umani. La macchina si comportava come una sorta di terapeuta virtuale con il quale si poteva dialogare dei propri problemi, ricevendo per i primi scambi di battute, risposte plausibili. La modalità di interazione tra l’interlocutore ed Eliza era di tipo teatrale, in quanto il principale compito era di intrattenere, persuadere, far dimenticare l’irrealtà dell’evento rispondendo al concetto principale a cui doveva tenere conto l’attività di un agente artificiale ovvero la credibilità [Bordoni, 2008, 124-125]. Malgrado ci troviamo oggi ad utilizzare software molto più sofisticati rispetto a quello progettato da Weizenbaum, Restak [2013] sostiene che Eliza, continui ad essere rilevante come argomento di studio grazie ai risultati che riuscì ad ottenere. Quando la macchina venne messa in funzione infatti, dopo i primi esperimenti, Weizenbaum cominciò a notare uno strano comportamento da parte di alcuni di coloro che vi interagivano. Pur sapendo di avere a che fare con un programma informatico, le persone sottoposte al test, conversavano con il computer rivolgendosi in termini intimi, come se ad ascoltarli ci fosse realmente un’altra persona. Partendo dal presupposto che il Test di Turing poteva dirsi superato se una macchina riusciva ad ingannare coloro che interagivano con essa, facendo credere loro di avere a che fare con un essere umano, si poteva affermare che Eliza superava pienamente il test [Restak, 2013, 10-12]. I primi anni furono per la ricerca dell’IA un grande successo perché i programmi sviluppati durante questo periodo, per la maggior parte di casi, risultavano sorprendenti. Il MIT ottenne molte sovvenzioni per progetti di ricerca avanzata e una situazione simile accadeva all’Università di Edimburgo. I ricercatori esprimevano quindi un largo ottimismo prevedendo che una macchina completamente intelligente sarebbe stata costruita in meno di 20 anni. All’inizio degli anni ‘60, l’enorme sviluppo tecnologico diede la possibilità ai ricercatori di poter utilizzare più computer contemporaneamente da parte di più utenti, una modalità che prese il nome di time sharing. Come sostiene Blasi [1999], tale tecnologia fu alla base della nascita della telematica, che veniva tra le altre cose pensata come la possibilità per più utenti di collegarsi alle risorse remote di una macchina tramite una rete telematica e sfruttarne le risorse di calcolo. [Blasi, 1999, 17-18]. Tra i promotori di questa tecnologia figurava Joseph Carl Robnett Licklider29. Hauben [2007] afferma che, Licklider, nei primi anni della sua carriera universitaria, si occupò in particolare di psicoacustica, ossia delle capacita uditive del cervello umano. Licklider si inserì con le 29 Licklider, Joseh Carl Robnett: informatico e psicologo statunitense (Arlington 1915 – Alington 1990). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/joseph-carl-robnett-licklider. 22 sue ricerche nella grande stagione aperta da Paul Broca30 sugli del cervello inteso come organo elettrico, le cui parti erano specificatamente dedicate a funzioni sensoriali. Il cervello veniva visto come una potente macchina elettrica e come tale analizzabile mediante modellizzazioni elettriche, e perfino curabile con impulsi elettrici. Licklider aveva familiarità con le macchine, una conoscenza nata sin dagli anni della formazione universitaria; l’incontro con il computer fu una naturale conseguenza dei suoi approfondimenti perché grazie ad esso, il matematico poteva compiere ricerche nel campo dei suoi studi. In pochi anni però, se il computer era inizialmente utilizzato per svolgere determinati lavori, in un secondo momento divenne esso stesso l’oggetto di ricerca. Licklider infatti, passò dallo studio del cervello umano sfruttando le macchine, allo studio delle macchine intese come cervelli umani [Hauben, 2007, 110]. Castellucci [2009] ricorda che operando questa svolta nell’approccio ai propri studi, Licklider si dedicò totalmente a percepire il computer come un mezzo di comunicazione e così, nel 1960, scrisse l’articolo Man-Computer Symbiosis, in cui teorizzò la possibilità che il computer fosse uno strumento con cui tutti potevano interagire e nel quale definì l’esigenza di una semplificazione della interazione uomo-macchina, introducendo il concetto di informatica personale come supporto al potenziamento dell’intelligenza umana [Castellucci, 2009, 80- 82]. Nel concetto di simbiosi esposto nell’articolo del 1960, Licklider auspicava lo sviluppo della interazione cooperativa fra gli uomini e i computer elettronici, in modo da raggiungere due importanti obiettivi: il primo, consentire ai computer di semplificare il pensiero nelle operazioni di calcolo, e secondo consentire agli uomini e ai computer di cooperare nella presa di decisioni e nel controllo di situazioni complesse, evitando una rigida dipendenza da situazioni predeterminate. Nello specifico egli dichiarava [Licklider, 1960]: Lo scopo è portare le macchine calcolatrici effettivamente dentro i processi di pensiero, cosa che deve avvenire in «tempo reale», tempo che scorre troppo velocemente per permettere di usare i computer in modi convenzionali. […] Pensare in interazione con il computer nello stesso modo in cui pensi insieme con un collega le cui competenze completano le tue richiederà un collegamento più stretto tra uomo e macchina di quello […] che è possibile oggi [Licklider 1960, 4]. 30 Broca, Pierre-Paul: Chirurgo e antropologo francese (Sainte-Foy.la-Grande, Gironda, 1824 – Parigi 1880). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/pierre-paul-broca. 25 un senso compiuto perché tradurre un testo, richiede anche e soprattutto una conoscenza generale di base per dare un senso reale all’argomento trattato. Per questo motivo, i finanziamenti americani per la traduzione automatica di testi scientifici, vennero completamente cancellati. Il secondo problema era l’intrattabilità di molti dei problemi che l’IA stava cercando di risolvere. Molti dei primi programmi giungevano alla soluzione provando varie combinazioni di passi. Questa strategia inizialmente funzionava perché le azioni possibili erano molto poche. L’ottimismo che aveva accompagnato lo sviluppo dei dimostratori automatici di teoremi fu smorzato quando i ricercatori non riuscirono a dimostrare teoremi che coinvolgessero più di qualche dozzina di elementi, motivo per cui il governo britannico tagliò i finanziamenti per l’IA in tutte le università. Un terzo problema sorse a causa di alcuni limiti fondamentali delle strutture di base usate per generare comportamento intelligente, come dimostrò Minsky nel 1969 con lo studio sui percettroni, una forma semplice di reti neurali. La ridotta capacità computazionale di questi percettroni, determinò una perdita di interesse sull’argomento per più di 10 anni, ponendo fine a ciò che il matematico Douglas Hofstadter33, autore di Godel, Escher e Bach, aveva definito come l’età dell’oro del sogno booleano dell’intelligenza artificiale [Russel, Norvig, 2005, 29-31]. 1.3. Le macchine come menti umane Le delusioni di quegli anni diedero vita ad un periodo definito come “il primo inverno dell’IA”. A fronte di queste prime difficoltà cominciarono ad emergere sempre più critiche verso questa nuova scienza: il primo ad attaccare duramente gli studi svolti sull’IA, fu Hubert Dreyfus, docente di filosofia presso l’Università di Berkeley in California. In uno dei suoi saggi [1988] esponeva una critica filosofica delle ambizioni dell’IA, dimostrando come gli studi venissero presentati dai ricercatori in modo retorico con pochi fondamenti scientifici. Secondo Dreyfus, gli scienziati credevano di aver simulato con successo il processo essenziale del pensiero umano con semplici programmi, ma negavano che l’intelligenza a cui facevano riferimento non era come quella umana, bensì un’intelligenza astratta, dovuta alla confluenza di due importanti concezioni: la riduzione del ragionamento a regole esplicite e l’invenzione del computer. Le sue affermazioni evidenziavano il fatto che le caratteristiche ontologiche del comportamento umano impedivano di considerare l’uomo come un 33 Hofstadter, Robert: Fisico statunitense (New York 1915 - Stanford 1990). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/robert-hofstadter. 26 dispositivo. La mente umana possedeva un’intelligenza fondamentalmente corporea e quindi il comportamento dell’individuo poteva essere disciplinato senza la necessità di ricorrere a regole, permettendogli di tollerare l’ambiguità delle diverse situazioni. Inoltre l’intelligenza e l’esperienza umana dipendevano principalmente da processi inconsci piuttosto che sulla manipolazione simbolica conscia, e queste abilità inconsce non potevano mai essere pienamente catturate in regole formali. Secondo Dreyfus, la riuscita di alcuni programmi era dovuta solo alla scelta accurata del problema da risolvere, in maniera da poter dare una soluzione semplice e concepita appositamente. In particolare come accadeva col programma ELIZA di Weizenbaum, si trattava semplicemente di un software costruito per ottenere risultati spettacolari ma delimitati da un campo di comprensione minimo. Se davvero si voleva ottenere un modello significativo, occorreva concepirlo in modo da coprire una vasta gamma di concetti, provando ad avvicinarsi a quelli presenti nella mente umana e quindi provando ad operare con strutture cognitive di base. Dreyfus criticava anche la posizione filosofica del computazionalismo sostenuta da Jerry Fodor enfatizzando il concetto che la mente non era come un computer e non procedeva nei suoi ragionamenti nello stesso modo di una macchina [Dreyfus, 1988, 44-322-381]. Lo stesso Weizenbaum [1976] che aveva progettato ELIZA, riconobbe la validità della critica di Dreyfus. Anch’egli infatti affermava che esistevano atti del pensiero che restavano esclusivamente ad appannaggio degli uomini e andavano quindi difesi dal tentativo della scienza di ascriverli a sé. Le due maggiori obiezioni nei confronti del computer erano una di ordine metodologico, l’altro di ordine etico. Per quanto riguarda la critica metodologica, Weizenbaum faceva notare che una macchina non applicava delle leggi scientifiche, ma era l’incarnazione stessa di quelle leggi. La conseguenza era che le macchine erano il risultato di un gioco di cui l’uomo stabiliva le regole, facendo un chiaro riferimento alla macchina di Turing. Le potenzialità della macchina dipendevano dalle proprie limitazioni tecniche. Per quanto riguardava la critica di ordine etico, Weizenbaum sottolineava che la ragione strumentale sottesa alla tecnologia del computer, rischiava di trasformare l’uomo in uno strumento di un’ideologia cieca incapace di porsi il concetto di responsabilità. Riteneva infatti che, chiamare scienza quella del computer era solo un espediente che serviva a legittimare il lavoro dei ricercatori [Weizenbaum, 1976, 21-33]. Per superare le critiche e soprattutto questo primo periodo di arresto e sconforto, i ricercatori cambiarono approccio al metodo di studio. Inizialmente, infatti, i programmi di IA erano stati pensati per giungere alla simulazione di un problema attraverso un ragionamento, il più delle volte simile a quello umano. Dalla metà degli anni ‘70 si iniziò ad adottare invece, un approccio basato sulla conoscenza, in questo modo i 27 sistemi venivano programmati per conoscere, non per ragionare, di conseguenza venne anche momentaneamente abbandonato il modello delle reti neurali a favore di programmi definiti esperti. Amato [2015] definisce questi sistemi come computer dotati di notevoli competenze e mediante i quali ci si proponeva di usare in modo intelligente le informazioni, trasformando i dati acquisiti in conoscenza. Uno di questi sistemi fu progettato da Feigenbaum34 col nome di DENDRAL e aveva il compito di mappare la struttura delle molecole, di confrontarle e poi fornire i dati raccolti, senza sviluppare ragionamenti di logica ma semplicemente partendo dall’acquisizione di dati spettrografici ricavati dall’analisi chimica di un determinato composto [Amato, 2015, 81]. L’importanza di programmi esperti come DENDRAL, fu ancora più ampliata nel 1972 con il programma MYCIN. Come spiegano Russell e Norvig [2005], MYCIN era un sistema specializzato nella diagnosi di malattie infettive, faceva ricorso ad una base di conoscenza molto dettagliata sulla sintomatologia di tutte le sindromi infettive conosciute, e utilizzava queste conoscenze come confronto con la cartella clinica e con dati sulla storia clinica del singolo paziente sotto esame. Inoltre le euristiche di cui era dotato gli permettevano non solo di ipotizzare una diagnosi, ma anche di dare una valutazione sul grado di esattezza delle diagnosi proposte [Russell, Norvig, 2005, 33]. Questi sistemi esperti costituivano nel loro insieme un metodo applicativo interessante dell’IA tanto da essere utilizzati nell’industria e in tanti altri settori. Tuttavia, il loro successo nasceva dalle difficoltà incontrate nello sviluppo di computer basati sulla capacità di ragionamento, infatti, sempre citando Amato [2015], un sistema esperto, pur essendo molto abile nel suo campo, non era in grado di applicare la sua abilità ad altri domini ma risultava efficace soltanto nel proprio micromondo, e soprattutto, per quanto potesse essere esperto grazie alle conoscenze acquisite in una determinata materia, non sarebbe mai riuscito a trovare la soluzione ad un qualsiasi banale problema quotidiano che ciascun essere umano avrebbe potuto risolvere con il solo buon senso e quindi con un semplice ragionamento, tanto è vero che le trasformazione di informazioni in conoscenza che questi sistemi elaboravano, non avvenivano in modo autonomo ma vi era alla base l’intervento di persone pratiche di quel determinato campo di applicazione che offrivano informazioni fondamentali al sistema per permettergli di gestire i processi [Amato, 2015, 82-83]. A riportare l’interesse dell’IA sull’apprendimento dei processi della mente, sulla possibilità di riprodurre questi processi in un computer e sulla logica delle reti neurali ci pensò la nascita di una nuova disciplina: le scienze cognitive. Questo nuovo campo di ricerca 34 Feigenbaum, Mitchell Jay: Fisico statunitense (Filadelfia 1944). Enciclopedia Treccani online Url: https://www.treccani.it/enciclopedia/mitchell-jay-feigenbaum/. 30 faceva. [Mazzoli, 2016, 60]. Searle [1980] tentò di dimostrare l’inconsistenza pratica e teorica dei sostenitori di Turing e dei funzionalisti per da avvalorare la tesi che un computer, anche se opportunamente programmato, non poteva essere considerato al pari di una mente umana. La dimostrazione venne argomentata nel suo articolo attraverso un esperimento mentale divenuto famoso con il titolo della Stanza Cinese. L’esperimento supponeva che, in un futuro prossimo, si fosse riusciti a costruire un computer capace di capire il linguaggio cinese. Il computer, all’interno di una stanza chiusa, prendendo simboli cinesi in ingresso ed eseguendo un programma, doveva essere in grado di produrre altri simboli cinesi in uscita A tutte le domande dell’umano di lingua cinese, il computer avrebbe dovuto rispondere appropriatamente nella stessa lingua, ingannando chiunque sulla sua natura di macchina e superando inequivocabilmente il Test di Turing. I sostenitori dell’intelligenza artificiale forte, concludevano che il computer capiva la lingua cinese al pari di una persona, in quanto non c’era nessuna differenza tra il comportamento della macchina e di un uomo che conosceva la lingua. A questo punto Searle chiedeva di suppore che, all’interno della stanza, sedesse un individuo con un libro contenente la versione in inglese del programma utilizzato dal computer. L’individuo, come mostrato in figura 1.3, poteva ricevere scritte in cinese attraverso una finestra di ingresso, elaborarle seguendo le istruzioni del programma, e produrre altri simboli cinesi in uscita, in modo identico a quanto faceva il calcolatore. Per ogni domanda ricevuta in caratteri per lui incomprensibili, il soggetto aveva una determinata istruzione che gli consentiva di rispondere in modo opportuno, pur rimanendo ignaro del significato di ciò che scriveva. Searle fece notare che l’individuo, al pari del computer, non comprendeva il cinese, ma entrambi erano semplici manipolatori di simboli che, pur non capendo il significato delle parole, riuscivano a dare risposte sensate. Searle fece capire che era possibile creare un sistema automatico di dialogo in una certa lingua senza però che vi fosse comprensione delle parole di tale lingua. Il filosofo quindi, concludeva dicendo che intrattenere una discussione per una macchina, non era sinonimo di pensare ma l’esecuzione di una serie di operazioni guidate [Searle, 1980, 417-457]. Con tale esperimento mentale, Searle voleva mettere in luce il valore fondamentale del significato nei processi di pensiero umani, senza il quale un uomo poteva essere considerato al pari di una macchina, ovvero privo di capacità di reale comprensione: per Searle quindi, la sintattica non poteva fare a meno della semantica. Jerry Kaplan [2017] riprende la questione discussa da Searle nel 1980 sottolineando come il filosofo volesse semplicemente affermare che nel nostro cervello, accadevano cose impossibili da comprendere, riuscire a capire quei processi sconosciuti avrebbe spianato la strada per decifrare il funzionamento di fenomeni come il pensare, la 31 coscienza, la sensazione di provare delle cose, la consapevolezza di esistere. Kaplan, malgrado gli sforzi continui da parte di generazioni di ricercatori nel campo dell’IA di controbattere le osservazioni di Searle, si schiera in favore dell’ideatore della Stanza Cinese, approvando la tesi che una macchina non è capace di duplicare i processi che avvengono nelle menti delle persone mentre svolgono determinate attività. Un programma può essere in grado solo di simulare il pensiero umano, ad esempio un software programmato per suonare il pianoforte non è paragonabile a un musicista che esegue un concerto, anche se l’effetto è lo stesso [Kaplan, 2017, 96]. Fig. 1.3 La stanza cinese Fonte: Brugnola, 2019 All’argomento della Stanza Cinese furono mosse molte contro argomentazioni. Una di queste, definita come replica dei sistemi, ammetteva che l’uomo nella stanza non capiva il cinese, ma negava la tesi secondo cui non vi era alcuna comprensione delle domande in cinese e che il computazionalismo era falso. Margaret Boden [1988] invece, portava avanti delle considerazioni in merito al modo di eseguire l’esperimento da parte del filosofo americano. Secondo la Boden infatti, la psicologia computazionale non attribuiva al cervello il merito di capire l’inglese perché stati intenzionali come questi erano proprietà delle persone e non del cervello, quindi, l’esperimento comportava un errore di categoria paragonabile a quello di trattare il cervello come ciò che detiene l’intelligenza, in 32 contrapposizione alla base causale. La professoressa sottolineava che l’operatore della stanza era un agente conscio, mentre la CPU del computer non lo era. Vista da questa prospettiva, l’esperimento mentale della stanza cinese evidenziava solo la prospettiva dell’esecutore, motivo per cui non sorprendeva che non si riuscisse ad avere una visione d’insieme. [Boden, 1988, 244]. Per quanto riguardava invece i sostenitori dell’IA debole, questi non erano schierati contro i fautori dell’IA forte, ma affermavano che, in linea di principio, come raccontano Grassi et.al. [2010], non vi era alcun limite alla computerizzazione di tutte quelle funzionalità proprie dell’essere umano come il pensare, percepire, decidere o sentire. Il pensiero dei sostenitori di questa teoria era che tutti i procedimenti umani potevano al massimo essere simulati eguagliando l’intelligenza umana, differentemente dalla posizione dell’IA forte che aveva invece un sapore di vera e propria disciplina metafisica e secondo la quale ogni dominio della conoscenza poteva essere scritto da una teoria formale e quindi superare di fatto l’intelligenza umana. Sintetizzando i due approcci differenti, si poteva dire che l’IA forte provava a ricostruire il modo in cui l’uomo riusciva a pensare per poi andare oltre, l’IA debole invece si poneva un obiettivo molto più modesto ovvero simulare le capacità umane. Prendendo come esempio pratico il gioco degli scacchi, una macchina di IA debole si concentrava nel battere uno specifico avversario, trovando le contromisure al suo gioco, analizzando più mosse possibili, esaminando tutte le partite giocate fino ad allora, mentre la AI forte non si poneva il problema di un rivale specifico ma aveva come unico obiettivo diventare il giocatore di scacchi più forte possibile. Per quanto elementare, questa differenza di prospettiva dimostrava quanto la AI forte presentasse un approccio molto più ambizioso rispetto alla AI debole e quindi comportava un dispendio di risorse estremamente più elevato. Proprio per questo motivo, nel corso degli anni ‘80 e ‘90, i ricercatori si concentrarono maggiormente sul paradigma debole aiutati anche dai progressi di natura tecnologica che diedero una spinta alla progettazione di software complessi, e permisero di superare alcune barriere degli anni precedenti. I computer di quegli anni infatti, registrarono una notevole crescita sia nella capacità di memoria che nella potenza di calcolo computazionale. La nuova intelligenza artificiale venne applicata per risolvere problemi complessi come l’interpretazione del linguaggio naturale, il riconoscimento visivo delle immagini e la rappresentazione generale della realtà [Grassi et.al., 2010, 206-210]. Kaplan [2017] ricorda che, la prima pietra miliare per gli sviluppi dell’IA debole che si può oggettivamente considerare tale e che attirò l’opinione pubblica fu probabilmente il progetto Deep Blue, un computer che, nel 1997, in un torneo di sei gare, sconfisse Garry Kasparov, all’epoca campione mondiale di scacchi. La vittoria di Deep Blue ricevette enorme 35 1.4. Machine Learning e Deep Learning Machine Learning e Deep Learning pur essendo dei sottoinsiemi dell’Intelligenza Artificiale come dimostrato in figura 1.4, hanno delle differenze importanti che li contraddistinguono. Il Machine Learning, come lo definisce Tom Mitchell [1997], è l’insieme delle tecniche volte ad allenare l’intelligenza artificiale perché possa svolgere attività non programmate, apprendendo e migliorando dagli errori commessi e dalla propria esperienza [Mitchell, 1997, 7]. Questa definizione è rilevante poiché formula il Machine Learning in termini fondamentalmente operazionali piuttosto che cognitivi, e dunque offre una risposta anche alla proposta formulata da Alan Turing sostenendo che sia più appropriato chiedersi se una macchina sia in grado di fare ciò che l’uomo sa fare e non se una macchina sia in grado di pensare. Lo sviluppo di questa tecnica è strettamente connesso ad altre discipline come la teoria del controllo, la filosofia, la psicologia e la neurobiologia. Tuttavia, nei modelli di Machine Learning il programmatore deve comunque guidare esplicitamente l’algoritmo in caso di previsione errata; problematica affrontata invece nel Deep Learning. Nel Machine Learning, si considera avvenuto l’apprendimento quando le prestazioni del programma migliorano dopo lo svolgimento di un compito o il completamento di un’azione. Fig. 1.4 Deep Learning vs Machine Learning: le due sottocategorie dell’intelligenza artificiale Fonte: ionos.it, 2020 36 Russell e Norvig [2005] spiegano che i compiti dell’apprendimento automatico nel Macine Learning, vengono solitamente classificati in tre categorie, o paradigmi. Il primo viene denominato come “Apprendimento Supervisionato” perché la presenza delle soluzioni è fornita nell’insieme dei dati di addestramento dal programmatore, che pertanto ne diviene supervisore. L’intervento umano fornisce all’algoritmo degli esempi di cui sono indicate le variabili di input con la previsione corretta e, attraverso tali esempi, l’algoritmo elabora un modello predittivo. Un esempio pratico è il filtro della casella e-mail per distinguere le mail di “spam” da quelle “no spam”. Il secondo prende il nome di “Apprendimento Non Supervisionato”: in questo caso le etichette non vengono fornite e sarà l’algoritmo, per come è strutturato, a trovare una logica di classificazione. Esempi pratici si hanno negli attuali motori di ricerca, i quali, data una parola chiave, sono in grado di creare una lista di link rimandanti alle pagine che l’algoritmo di ricerca ritiene attinenti a quella effettuata. Il terzo paradigma è denominato “Apprendimento per Rinforzo”. In questo caso non vi sono esempi di associazioni input-output, né tantomeno aggiustamenti espliciti degli output da ottimizzare in quanto l’algoritmo apprende esclusivamente interagendo con l’ambiente, ovvero attraverso una politica di incentivi, se l’azione compiuta è positiva, e disincentivi, in caso contrario. Un esempio è stato quello del videogioco Arcade Breakout, in cui, dopo sole quattro ore, la rete trovò una strategia di approccio al gioco mai pensata prima da un essere umano. [Russell, Norvig, 2005, 313-316]. Una delle applicazioni più frequenti per le tecniche di Machine Learning è, come afferma Mazzetti [1991] quella delle reti neurali artificiali. Un algoritmo di apprendimento che utilizza questo metodo di apprendimento, è un algoritmo che si ispira, sia dal punto di vista strutturale che del funzionamento, alle reti neurali biologiche. La computazione è strutturata in termini di gruppi interconnessi di neuroni artificiali e segue un approccio di tipo connettivista in cui il risultato si manifesta come comportamento emergente di un insieme interconnesso di unità semplici [Mazzetti, 1991, 2-6]. Parisi [1999] prova a formulare una descrizione più semplice di rete neurale indicandola come una struttura formata da un certo numero di unità collegate tra loro da connessioni. Attraverso le connessioni un'unità influenza fisicamente le altre unità con cui è collegata. Le unità hanno alcune caratteristiche essenziali delle cellule nervose, i neuroni del sistema nervoso reale, mentre le connessioni alcune delle caratteristiche essenziali dei collegamenti sinaptici tra neuroni [Parisi, 1999, 80]. I sistemi di Machine Learning stanno ottenendo un ruolo di sempre maggior rilevo nei moderni apparati decisionali. Tale ruolo è destinato a crescere ulteriormente in numerosi settori e per gli scopi più disparati, dall’industria alla sanità, dai web service alla finanza. Il fattore determinante di questa 37 profonda trasformazione, come spiega l’informatico Zambonelli [2021], è l’inedita disponibilità di ampi volumi di dati provenienti dalle moderne applicazioni ICT. È grazie a questi dati acquisiti definiti big data, che il Machine Learning riesce a gestire sistemi come riconoscimento vocale o identificazione della scrittura manuale. Gli algoritmi basano il loro modo di acquisire dati sull’intervento attivo degli individui, sono le persone che interagendo su sistemi come social network o app presenti sugli smartphone, attivano e rafforzano le capacità di autoapprendimento delle macchine. Altri interessanti esempi di Machine Learning arrivano dal settore della ricerca scientifica in campo medico dove gli algoritmi imparano a fare previsioni sempre più accurate per prevenire lo scatenarsi di epidemie oppure per effettuare diagnosi di tumori o malattie rare in modo accurato e tempestivo. Il Machine Learning è anche alla base dello sviluppo delle auto a guida autonoma che, proprio attraverso l’autoapprendimento, imparano a riconoscere l’ambiente circostante e ad adattare il loro comportamento in base alle specifiche situazioni che devono affrontare [Zambonelli, 2021, 45-48]. Sistemi di machine learning vengono utilizzati anche e soprattutto per gestire l’ormai difficile situazione dell’inquinamento ambientale, un argomento sempre più presente e importante nell’era moderna, in particolar modo per i paesi industrializzati alle prese con il tema dell’antropocene, ovvero dell’impatto dell’uomo sull’ambiente. La necessità di preservare l’ambiente in cui viviamo e le sue risorse richiede l’adozione di nuovi modelli di sviluppo, per questo motivo scienze informatiche e scienze ambientali hanno dato vita ad una disciplina nota come informatica ambientale, che rappresenta un’area multidisciplinare in grado di analizzare dati per ottenere una migliore comprensione dell’ambiente, per identificare e gestire i rischi e per valutare le opportunità offerte dall’interazione tra i sistemi naturali, le attività umane e la società. Proprio nell’ultimo decennio, il Machine Learning applicato all’ecosistema ha svolto un ruolo centrale nella pianificazione e nel controllo dei processi ambientali. Una degli esempi più concreti, come sostengono Salviotti e Meregalli [2017], è quello fornito dall’agricoltura intelligente che consente di minimizzare l’impiego di acqua, fertilizzanti, pesticidi e insetticidi, diminuendo i danni sull’ambiente, ma di migliorare la qualità dei prodotti finali; oltretutto, permette anche la raccolta automatizzata di dati per la diagnosi precoce delle malattie e dei problemi delle varie colture, così da eliminare possibili rischi futuri, aumentando, invece, la resistenza a eventi climatici estremi. In questo modo, l’agricoltura intelligente, anche detta Agricoltura 4.0, può contrastare la situazione attuale del nostro pianeta che vive una scarsità di terre coltivabili, causata da una serie di fattori umani e climatici, combinata all’aumento della domanda globale di cibo. Grazie alle nuove tecniche 40 Come sostiene Boden [2017], grazie al collegamento di ogni livello con il successivo le informazioni si sommano e l’analisi diventa sempre più precisa, fino ad arrivare all’ultimo livello che sarà la ricostruzione precisa del volto, inteso come la sommatoria di tutti i livelli precedenti. La costruzione basata su una molteplicità di livelli può dare alla rete neurale un vantaggio enorme nell’imparare a risolvere complessi problemi di riconoscimento di schemi, proprio perché ogni strato è in grado di aggiungere informazioni utili e sempre più accurate per ottenere un risultato più attendibile [Boden, 2017, 134]. Questo carattere stratificato proprio del Deep Learning, come sottolinea Hinton [2015], è ciò che più di tutto lo differenzia rispetto al Machine Learning, in quanto esso fa sì che l’apprendimento migliori all’aumentare dei dati, perché essendo possibili più confronti, il livello di apprendimento risulterà sempre più elevato, a differenza invece del secondo metodo, in cui, una volta raggiunta una determinata performance non è più possibile scalare e raggiungere un ulteriore livello, perché il sistema non funziona in verticale, ma in orizzontale. L’apprendimento automatico offerto dal Deep Learning negli ultimi anni ha riscosso un enorme successo, consentendo ai computer di porre in essere delle prestazioni che sono vicine a quelle umane, come ad esempio la capacità di riconoscere una voce, oltre ad un volto [Hinton, 2015, 436- 444]. Vi sono anche altri esempi di utilizzo del Deep Learning che possono aiutare a comprendere meglio il valore concreto di questa tecnologia nella nostra quotidianità. D’Acquisto et.al. [2018] descrivono alcuni esempi come i servizi online per tradurre automaticamente da una lingua ad un’altra dei testi. Ovviamente la traduzione non sempre risulta essere perfetta ma grazie all’utilizzo del Deep Learning, questi limiti stanno per essere velocemente superati: la macchina, anche grazie ai feedback degli utenti, sarà in grado di imparare gli errori più frequenti, correggerli e nel tempo offrire un servizio di traduzione migliore e preciso. Restando in tema di lingue e assodato che l’inglese è sicuramente una delle più diffuse al mondo, ci si imbatte spesso in una pronuncia diversa per una stessa parola. Diventerebbe quindi complicato per il sistema tradurre un vocabolo che assume ogni volta un accento o una sfumatura diversa a seconda di chi la pronuncia. Eppure sembra che il traduttore online non risenta di queste differenze e questo grazie al fondamentale ruolo svolto dal Deep Learning che addestra la macchina a riconoscere tutte queste differenze. Nel tempo arriverà non solo a comprendere la diversa pronuncia ma anche le sfumature semantiche che ci sono a livello dialettale. Passando al campo televisivo e cinematografico, negli ultimi anni è facile notare che i vecchi filmati di documentari degli anni ’30, una volta in bianco e nero, ultimamente vengono trasmessi a colori. Anche questo è possibile per merito del Deep Learning che è capace di aggiungere automaticamente il colore a vecchi 41 video e fotografie, utilizzando le reti neurali. Il software che aggiunge i colori viene infatti addestrato utilizzando un vastissimo database che gli permette di riconoscere, classificare ed intervenire sui colori di una specifica scena o foto. Grandi progressi sono stati fatti anche nel ramo della grafica per computer in cui si è riusciti a ricostruire immagini digitali in 3D partendo da una serie di immagini bidimensionali. In questo modo, acquisendo dati da una radiografia, è possibile costruire un modello tridimensionale che consente al medico di analizzare meglio la parta anatomica che potrebbe presentare un’eventuale anomalia o patologia. Sempre grazie ad un enorme database che ne permette l’addestramento e il continuo miglioramento, vi sono alcune soluzioni di Deep Learning che, riconoscendo cosa è rappresentato in un’immagine, possono scrivere una didascalia coerente con quanto mostrato o addirittura scegliere un brano musicale affine allo stato d’animo che quell’immagine può suscitare [D’Acquisto et.al., 2018, 296]. Vi sono ovviamente anche altre soluzioni di Deep Learning applicato alla vita di tutti i giorni e il miglioramento continuo in questo settore fa facilmente prevedere che in un prossimo futuro ci saranno sviluppi sempre più importanti. 42 BIBLIOGRAFIA Amato A.C. [2015], Informatica giuridica, Torino, Giappichelli Editore. Aspray W. [1990], John von Neumann and the Origins of Modern Computing, Cambridge, MIT. Barrow J. [1991], Il mondo dentro il mondo, Milano, Adelphi. Battistini E. [2016], In viaggio con Pi Greco. Il racconto di un numero tra idee matematiche e vicende umane, Macerata, Quodibet. Bennato D. [1994], Le metafore del computer. La costruzione sociale dell’informatica, Milano, Booklet. Bianchini F. et.al., [2007], Discipline filosofiche. Verso un’archeologia dell’intelligenza artificiale, Milano, FrancoAngeli. Boden M. [1988], Escape from the chinese room in Computer Models of Mind, Cambridge, Cambridge University Press. - [2017], Intelligenza artificiale in Il futuro che verrà, Milano, Bollati Boringhieri. - [2019], L’Intelligenza Artificiale, Bologna, Il Mulino. Bordoni L. [2008], Viaggi nell’animazione: interventi e testimonianze sul mondo animato da Émile Reynaud a Second life, Latina, Tunué. Castellucci P. [2009], Dall’ipertesto al Web: Storia culturale dell’informatica, Bari, Laterza. Chalmers, D. [2002], Philosophy of mind. Classical and contemporary readings, Oxford, Oxford University Press. Cini M. [2004], Un paradiso perduto. Dall’universo delle leggi naturali al mondo dei processi evolutivi, Milano, Felrinelli. Conway, F. e Siegelman, J. [2004], Dark Hero of the Information Age:In Search of Norbert Wiener, New York, Perseus Books; trad. it. L’eroe oscuro dell’età dell’informazione. Alla ricerca di Norbert Wiener, il padre della cibernetica, Torino, Codice, 2005. Copeland J.B. [2004], The essential Turing, Oxford, Clarendon Press. D’Acquisto G., et.al. [2018], Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, Giappichelli Editore. D’Alessandro P., Domanin I. [2005], Filosofia dell’ipertesto. Esperienza di pensiero, scrittura elettronica, sperimentazione didattica, Milano, Apogeo. 45 - [1950], The Human Use of Human Beings, Boston, Houghton Mifflin; trad. it. Introduzione alla cibernetica. L’uso umano degli esseri umani, Torino, Bollati Boringhieri, 1966. Zambonelli F. [1965], Algocrazia, Padova, Goodmood. 46 SITOGRAFIA Bhavsar D. [2020], Dispelling Myths: Deep Learning vs. Machine Learning, consultato in data 08/02/2022, alle ore 12:51 https://www.merkleinc.com/blog/dispelling-myths-deep-learning-vs-machine-learning Brugnola V.F. [2019], La stanza cinese di Searle contro la strong AI, consultato in data 04/02/2022, alle ore 12:30 https://www.prometheus-studio.it/prometheus_blog_wp/2019/08/14/la-stanza-cinese-di- searle/ Capponi M. [2015], Perché ricordare Alan Turing, consultato in data 09/01/2022, alle ore 10:35 https://www.studiumbri.it/scienza/perche-ricordare-alan-turing/ Hinton G., [2015], Deep Learning, in Nature, 521, 436-444, consultato in data 03/02/2022, alle ore 13:32 https://doi.org/10.1038/nature14539 Licklider J.C.R. [1960], Man-Computer Symbiosis, in Ieee Transactions on Human Factors in Electronics, Hfe-I, marzo, pp. 4-11, consultato in data 25/01/2022 alle ore 11:47 http://memex.org/licklider.pdf. Mancini M. [2019], Uomo + macchina. Il paradigma dell’Intelligenza Artificiale, consultato in data 14/01/2022, alle ore 11:32 https://www.economiaefinanzaverde.it/2019/10/04/uomo-macchina-il-paradigma- dellintelligenza-artificiale/ McCarthy et.al. [1955]. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, AI Magazine, 2006, volume 27, n.4, consultato in data 25/01/2022, alle ore 12:28 http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf Nagel T. [1974], What is it like to be a bat, in The Philosophical review, Vol. 83, n.4, pp.435-450, consultato in data 29/01/2022, alle ore 12:46 https://doi.org/10.2307/2183914. Turing A.M. [1937], On Computable Numbers with an Application to the Entscheidungsproblem, consultato in data 14/01/2022, alle ore 9:31 https://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf - [1950], Computing machinery and intelligence, in Mind, volume 59, n. 236, consultato in data 16/10/2022, alle ore 9:52 https://doi.org/10.1093/mind/LIX.236.433
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved