Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Domande e risposte all'esame di Bianchini, Appunti di Tecniche Di Intelligenza Artificiale

Domande e le risposte (scritte in maniera discorsiva) dell'esame del Prof. Bianchini del corso Intelligenza artificiale, problem solving e web semantico. Voto 30 e lode

Tipologia: Appunti

2021/2022

In vendita dal 19/12/2022

elena-baschieri
elena-baschieri 🇮🇹

4.5

(11)

8 documenti

1 / 17

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Domande e risposte all'esame di Bianchini e più Appunti in PDF di Tecniche Di Intelligenza Artificiale solo su Docsity! RISPOSTE A DOMANDE ULTIMA SPERANZA MACCHINA DI TURING, perché la costruisce in un linguaggio naturale, e quindi che cosa dimostra una macchina che pensa in modo umano Per Turing il computer si può definire intelligente quando: riesce ad interpretare il linguaggio naturale per comunicare con l’esaminatore; quando riesce a rappresentare la conoscenza per memorizzare quello che sente o che sa; quando c’è un ragionamento automatico per utilizzare la conoscenza memorizzata in modo da rispondere alle domande o trarre conclusioni e il suo apprendimento è per adattamento. Quindi sotto aspetto di ciò, le definizioni dell’ia son molteplici e sono da prendere in considerazione l’approccio che uno decide di usare, tra cui Turing fa parte di chi vede i sistemi che devono agire come essere umani; al contrario c’è anche preferisce sistemi che agiscono o pensano in maniera razionale tipo Aristotele con i suoi sillogismi che forniscono pattern di deduzione corrette. La macchina di turing viene creata nel 1963 ed era un dispositivo munito di nastro di carta illimitato diviso in caselle, era capace di eseguire operazioni come far scorrere il nastro avanti e indietro, scrivere un simbolo su una casella vuota o cancellare il contenuto di una casella scritta. Tutte queste operazioni mediante un algoritmo che serve a generare il numero di passi che arriva alla soluzione. La sua macchina quindi è in grado di scrivere le istruzioni con un linguaggio logico che compie operazioni sulla base di determinati input. Difatti la macchina ha 5 istruzioni principali: - Lo stato in cui si trova la macchina - Il simbolo letto sulla macchina - Stato nuovo della macchina - Il simbolo scritto - Se si deve spostare a sinistra o a destra. Sono le istruzione che vanno a realizzare il processo, non il realizzatore. La macchina viene vista come un programma che in base alle istruzioni si muoverà secondo dei principi. Turing è anche importante per l’epistomologia dell’ia articolo computing machinery and intelligence mind nel 1950. In questo articolo si pone il problema di che cosa sia l’intelligenza. Idee principali di questo articolo sono: - Imitazione, cioè il prodotto artificiale che imita il comportamento dell’essere umano. - Linguaggio è sicuramente un tema fondamentale, il linguaggio sostanzia la dimensione dell’intelligenza - Interazione quindi essere in grado di rispondere alle domande - Obiezioni è la parte più filosofica dell’articolo.( l’articolo è difatti in chiave filosofica ma comunque con una base matematica) Da qua infatti vediamo il test di turing che appunto viene usato per capire se una macchina è intelligente o no. Test aveva tre versioni anche se la prima era la più comune: tt-> idea di conversare umano con macchina e indovinare chi è chi; nel senso che un umano A conversa con una macchina B, e un umano C deve capire chi è la macchina. TTT si aggiungono fattori fisici e motori TTTT si considerano anche caratteristiche emotive. La sua proposta è che una macchina veramente pensante avrà una forma di apprendimento; in sostanza fa un’analogia con il cervello di un bambino. Il test in realtà mette più alla prova la capacità umana di attribuzione di intelligenza umana a macchine artificiali. • Cosa succede se l’essere umano non sa che sta conversando con un computer/programma? Effetto Eliza programma divulgato per simulare dialogo tra persone che pensano di parlare con uno psicoterapeuta, ma è in realtà u programma. Parry programma che simulava il comportamento di uno psicopatico con cui si testavano psichiatri e medici per vedere la risposta (risultati differenti, alcuni dicevano che era molto simile al reale, altri che le disconnessioni erano ben visibili). Volendo da Turing ti puoi collegare alla nascita della teoria computazione con chomsky la teoria della computazione corrisponde all’idea che il nostro pensiero può essere visto come un calcolo, la computazione è una scomposizione di passi successivi e sequenziali, ha inizio e fine. CHOMSKY- spiega tutto e in più perché secondo lui è difficile l’analisi semantica (questione di verità e ambiguità. Innanzitutto Chomsky parla della linguistica computazionale contemporanea. Per lui abbiamo dei modelli della realtà esterna dentro la mente, e soprattutto che questi modelli siano innati in ognuno di noi. Difatti quelle rappresentazioni mentali che abbiamo, ci permettono di operare mentalmente offline, nel senso che non c’è bisogno necessariamente di uno stimolo, lo stimolo diventa quindi “povero” in quantp non dice nulla riguardo all’origine del linguaggio. In generali quindi possiamo dire che le sue idee centrali sono tre e sono: - La sintassi viene descritta da un sistema generativo un sistema in grado di spiegare come si generano le strutture sintattiche in maniera formale; - Le frasi hanno più livelli di rappresentazione; - Riusciamo ad attuare delle trasformazioni grammaticali senza servirsi di regole (es. passare da una frase attiva a passiva). Opera Syntatic structures del 1957 in sostanza vede la mente umana come un computatore. Le grammatica formale, nella teoria dei linguaggi formali, è una struttura astratta che descrive un linguaggio formale in modo preciso; è cioè un sistema di regole che delineano matematicamente un insieme di sequenze finite di simboli appartenenti a un alfabeto anch’esso finito. Le grammatiche formali si suddividono in due categorie principali generativa e analatica. • Generativa genere più conosciuto, è un sistema di regole grazie alle quali tutte le possibili stringhe nella lingua da descrivere sono generate tramite la riscrittura successiva di stringhe che cominciano con un simbolo iniziale predefinito. Una grammatica generativa infatti formalizza un algoritmo che genera stringhe linguistiche. • Grammatica analitica è un sistema di regole che presuppone una stringa arbitraria come input e che successivamente riduce o analizza quella stringa di input finali concedendo ad un connettore booleano un risultato del tipo si/no; in breve descrive come leggere una lingua, mentre quella generativa come scriverla. In questa opera parla della grammatica generativa, per lui la grammatica è un sistema in grado di produrre il linguaggio e comprenderlo. Esiste anche una gerarchia delle grammatiche: sotto quelle semplici in cui abbiamo linguaggi e frasi limitate; e poi una grammatica complessa in cui ci sono linguaggi ricchi. Cosa cerca lui, sono tutte quelle regole che formano il linguaggio visto appunto come un insieme finito e infinito di frasi. Quindi l’interesse è verso ciò che sta dietro alle frasi, la struttura sintagmatica e la capacità di produrre frasi sempre più complesse. Per quanto riguarda invece la grammatica generativa, si concentra specialmente sull’aspetto mentale del linguaggio, su cosa hanno in comune le lingue naturali e l’insieme di regole che creano appunto una Il vero inizio di questo fenomeno viene datato nel 1956, con il Seminario di Darmoith che propone l’idea di simulare tramite la tecnologia quegli aspetti dell’intelligenza, caratteristici della razza umana. A questi nuovi studi abbiamo anche nomi importanti come Simon, Shannon, McCarthy e Newell.( Simone e newel, LT e GPs, Shannon teoria dlel’informazione, McCarthy in teoria conia il termine IA. E’ però Alan turing, inventore anche del primo computer, che viene considerato il primo a introdurre il concetto di IA. Ad oggi, per IA possiamo dire che intendiamo quella disciplina che mira a ricreare artefatti artificiali di tipo softweristico, sistemi che siano in grado di comportarsi in maniera autonoma. Si intendono quindi dispostivi che abbiano la capacità di risolvere problemi, imparare velocemente e imparare dall’esperienza. Tipologia di ricerca informata e non informata Ricerca non informata viene fornita solo la definizione del problema, ma senza ulteriori passaggi per trovare la soluzione. Ignora la sua destinazione fino a quando non si trova davanti l’obiettivo. Viene definita anche come ricerca cieca, perché procede meccanicamente senza una strategia. Consuma più tempo e non ha idea della soluzione rispetto a quella informata. E sono: ricerca per ampiezza, ricerca in profondità. • La ricerca informata tipologia di ricerca che utilizza la conoscenza specifica del problema per dare indizi sulla sua soluzione, così facendo impedisce agli algoritmi di perdersi in altre direzioni che non portano alla soluzione. Sono: hill climbing e best first. • Ricerca in ampiezza e in profondità Ampiezza trovare la soluzione più ottimale delle altre. (quindi quella che ha il cammino più corto, più vicino alla radice o livello più alto. Questa ricerca va ad analizzare tutti i nodi: - Parte dalla radice e si visitano tutti i figli e ciascuno di questi fino all’esaurimento dei nodi - È detta anche a ventaglio - I nodi figli vanno in coda nel senso che nell’argomento c’è coda e la fila. La coda è mettere in attesa la ricerca di certi nodi. - È completa e ottimale ma richiede molte risorse computazionali. - Se potessimo usare sempre questo tipo troveremmo sempre soluzioni ottimali quindi sarebbero ottimali ma non è sempre possibile per limiti computazionali. Tecnica del back tracking risalire al nodo padre e proseguire esplorando figli diversi, questo succede se il nodo foglia precedente non aveva soluzione quindi si deve torare indietro. Rischio: non ricordarsi il percorso ed entrare in un loop continuo. Profondità parte dalla radice e si concentra su un solo nodo padre con i suoi figli fichè non si arriva a una foglia; se non si ha una soluzione rifaccio un back tracking per vedere se il “fratello” ha una possibile soluzione. Va in profondità perché dal ramo fino alla foglia. La ricerca in profondità non è una strategia completa e nemmeno ottimale perché non è completa, ha dei cammini infiniti. È efficiente nella sua completezza, prende in considerazione il cammino attuale, non servono risorse per tenere memoria a tutti gli stati che sono stati aperti. Ciò che conta p il cammino che si svolge quindi che si basa su un ramo. DIFFERENZE TRA LE DUE: La ricerca in profondità non arriva per forza a una soluzione perché se il ramo è infinito, non si ferma pià a meno che non poniamo noi un limite. Non è detto che trovi la soluzione ottimale, magari ne trova una che sta al fondo al ramo ma magari ce ne era un’altra più vicina alla radice ma non su quel ramo. Però entrambe sono algoritmi di ricerca non informata, vanno alla cieca poiché non danno valore ai nodi dicendo quale sia il più promettente; non sanno dove stando andando e procedono senza una schema. Funzionano quindi solo quando si tratta di piccoli spazi. • Ricerca informata utilizza la conoscenza specifica del problema per dare indizi sulla sua soluzione, così facendo impedisce agli algoritmi di perdersi in altre direzioni che non portano alla soluzione. L’euristica è una strategia di ricerca informata (le altre sono non informate); è indirizzata e deriva dal greco Eureka quindi ho trovato. È l’utilizzo dei metodi più o meno intuitivi di buon senso che ha determinati ambiti. Il criterio della scelta è l’euristica stessa, che mi fa trovare il cammino migliore. Quindi l’euristica migliora la ricerca sacrificando ottimalità e completezza, non prende in considerazioni tutti i possibili rami dell’albero. Gli algoritmi che usano le euristiche si valgono di valutazioni: assegnare a un nodo che indica la stima del fatto che attraverso tale nodo si possa giungere a una soluzione. Assegnano un valore euristico. Algoritmi di ricerca euristica: Hill Climbing scegliere sempre il nodo con valore maggiore e che secondo la stima della valutazione potrebbe portare alla soluzione. Simile a quello in profondità; è pesata perché si guardano i valori. È un sistema monotono, regolare, diretto e che non può tornare indietro. Funziona solo se la soluzione migliore è raggiungibile direttamente, se si presuppone un andamento non uniforme, allora l’algoritmo fallisce. Best First ricerca golosa, cerca di espandere il nodo più vicino all’obiettivo sulla base che porterà alla soluzione più rapidamente. Non importa se il nodo scelto non sia il figlio di quello corrente, basta che abbia la soluzione. Simile a x ampiezza ma pesata in quanto tiene in considerazione tutti i nodi ma sceglie a seconda del peso. Algoritmo A* (usato anche per la pianificazione robotica) mette in atto una funziona euristica di tipo f(n)= g(n) + h(n) in cui n è il nodo, g è il costo per arrivare a quel nodo e h è il costo per arrivare da n a nodo obiettivo. È costruito per arrivare al cammino ottimale a condizione che H sia una sottostima del costo effettiovo che porta alla soluzione. Sottostimare= l’algoritmo è ottimista, quindi tanto più una funzione euristica mi darà valori più bassi e tanto più arriverò a trovare la soluzione ottimale. Tra due H(n) si sceglie la sottostima maggiore. Che cos’è il GPS Creato da Newell e Simon. Quando si incontrano, iniziano a domandarsi sull’uso del computer per simulare il problem solving umano. Il primo programma che viene sviluppato è Logic Theorist, e GPS, e si basa sulle euristiche( regolarità, punti di contatto e pratiche messe in atto dagli esperti per risolvere un problema di un determinato dominio. Non sono regole formali perché solitamente il passsaggio da un punto all’altro p un passaggio deduttivo, ma il motivo per cui si è usato quel meccanismo è esperienza e non regola deduttiva). Le euristiche di base corrispondevano nell’individuazione degli obiettivi e giustificare la risoluzione di quell’obiettivo con dei sotto-obiettivi, attraverso procedimenti di riduzione quindi diminuzione tra la distanza che c’è tra il teorema che devo dimostrare e quelli che già conosco. Questi programmi erano pensati per essere infallibili, potevano pero sbagliare quindi erano fallibili e potevano arrivare a dei punti morti. • L’obiettivo di questi programmi era proprio quello di sviluppare un programma intelligente capace di funzionare nello stesso modo in cui funzionano gli esseri umani. Inoltre questi programmi vengono utilizzati per modellizzare, criticare e migliorre le varie teorie peipsicologiche; non sono più solo modelli in pensiero numerico ma sono modelli contestualizzabili per i modelli che li caratterizza. Il GPS è il general purpose, un programma che appartiene ad un’estensione in grado di risolvere problemi in maniera generale. Si può quindi considerare il GPS come il primo programma ad adattotare l’approccio di pensare umanamente. • I due propongono anche il sistema fisico simbolico SFS un sistema che ha simboli che denotano o possono essere interpretati, è un sistema che pensa intelligente. Rappresentazione della conoscenza. È un sistema che ha a che fare con la logica, ha a che fare con i modelli, appartiene all’IA simbolica e tradizionale ed è strettamente connessa con i problemi semantici. Abbiamo questo meccanismo per creare e modificare le basi di conoscenza dei sistemi. Per costruirla ci sono due requisiti principali un linguaggio di rappresentazione, quindi un insieme di strutture sintattiche per codificare la conoscenza che possono essere implementate su un calcolatore; e un insieme di regole per manipolare le strutture sintattiche con il fine di ottenere inferenze. Inoltre queste info possono essere inserite tramite proposizioni o enunciati in formato logico; possiamo usare quindi regole di calcolo proposizionale, formule atomiche (piove, oggi è sabato) e possiamo agire tramite connettivi per creare formule più complesse. Regola importante: di inferenza; ossia ogni legame o base di conoscenza è valida se conservano la verità delle premesse. Alla base ci sono i cambiamenti che avvengono all’esterno in quanto i sistemi agiscono in ambito di confronto con il mondo reale. Se questo sistema si trova di fronte a qualcosa che potrebbe essere un cambiamento, in termini tecnici, mette tutte queste info insieme e vede se si crea o meno una contraddizione. (a differenza di noi umano che se incontriamo qualcosa di nuovo cancelliamo il vecchio). RETE SEMANTICA Fu Quillian il primo studioso a proporre le reti semantiche. Quindi dagli anni 60 nascono i primi veri tentativi sul cercare di rappresentare le nostre connessioni semantiche; una prima idea si può definire come quella che i nostri concetti siano appunto come una rete associativa, e quindi che i significati chen noi abbiamo in mente generano altri significati. Le reti semantiche sono i primi strumenti per cogliere questa struttura associativa, sono reti che catturano il potenziale semantico delle parole e dei concetti, quindi non più dal loro punto di vista CIBERNETICA Come ha contribuito all’IA e come si collega alla robotica È la scienza che si basa su come i sistemi biologici (o sistema naturale) si autoregolano e sono in grando di controllarsi e mantenersi in equilibrio; è considerata una disciplina ingegneristica e studia i meccanismi in equilibrio e di comando della trasmissione delle info che permette di far muovere questi sistemi e la loro produzione in artefatti. Possiamo dire che Weiner è stato il principale studioso della cibernetica. Fu introdotta per la prima volta x la bomba atomica; difatti l’origine risale al progetto di un meccanismo di puntamento x artiglieria autoaerea condotto nella seconda guerra mondiale. Il problema principale risiedeva nella necessità di lanciare il proiettile non direttamente sul bersaglio ma in un punto adiacente alla sua traiettori in modo tale che aereo e bersaglio giungessero ad incontrarsi, però nel frattempo l’aereo poteva cambiare direzione quindi era necessario uno strumento di previsione per adattare il puntamento verso il bersaglio. Questo poi doveva essere sempre corretto tramite un processo di retroazione, o feedback, per ricevere reale info sull’aereo nemico. Importante sottolineare che il feedback era di tipo negativo quindi in grado di correggere l’errore e ritornare in una situazione di equilibrio (tra variazioni dell’ambiente e variazioni interne che compensano le condizioni mutate) Wiener nello studiare questi tipi di meccanismi utilizzerà un vocabolario di tipo teoologico, un vocabolario che riguarda quindi le azioni orientate allo scopo. Lo si collega all’IA poiché lo scopo dell’entità cibernetica era quello di ridurre la differenza tra lo stato corrente e l’obiettivo, esattamente come i primi modi dell’IA. L’obiettivo però può essere sia statico che dinamico; per cui un sistema può anche avere come fine l’auto-equilibrio stabile, e da qui deriva la possibilità di artefatti autonomi come robot che non devono solo compiere azioni ma anche mantenersi in equilibrio. • Proto-robotica attraverso la cibernetica, si sviluppa una metodologia dove invece di costruire qualcosa per spiegare qualcosa, si costruisce qualcos’altro. Questa è anche detta metodologia sintetica si analizza il modello di qualcosa scomponendolo nelle sue parti collegati tra loro (attraverso questo modello nascerà poi L’IA). Al confine tra cibernetica e proto-robotica tartarughe di Walter; sono dei modelli robotici che mettono in atto la cibernetica con sensori e ruote collegati in un certo senso. Oppure anche Ashby con Homeostat ossia un sistema che riproduce lo stato di sistema di equilibrio che i sistemi viventi normalmente hanno. L’omeostato è una macchina che simula l’auto-equilibrio in cui i pezzi sono collegati tra loro e se c’è un problema la macchina cerca in maniera autonoma di tornare in equilibrio. Macchina che ha 4 pezzi collegati che si influenzano tra loro sulla base di impulsi elettromagnetici. L’equilibrio è dimostrato da delle frecce, da aghi magnetici al centro. In questo caso ci sono due tipi di feedback, uno individuale e uno collettivo poiché è in contatto con gli altri oltre che se stesso. Vuole anche essere la dimostrazione della fisicità di un essere vivente ossia tramite l’ultrastabilità. (noi esseri viventi siamo anche multistabili in quanto abbiamo tanti equilibri diversi. Si parla ancora però di black box perché non si sa i motivi dell’azioni compiute. Problema della spiegabilità della IA in questo tipo di macchine non c’è un comportamento analizzabile ma solo una spiegazione tecnica del comportamento della macchina. MODELLI NEL CERVELLO- simulazioni neurali Si sviluppa l’idea che per spiegare come funzionano i fenomeni cognitivi c’è il bisogno di rappresentazioni che modellizzano la realtà ( un modello è una rappresentazione). Visione del cervello come sistema relazionale poiché funziona anche offline, ossia privo di supporto esterno, quindi si inizia a pensare che sia il cervello quell’organo che elabora i modelli. • Craik con the nature of explanation ipotizza che il cervello ha dei modelli, rappresentazioni, del mondo reale che funzionano secondo una determinata dinamica. Questo generica domande su come ad esempio sia una rappresentazione psicologica. Le idee che Craik lancia diventeranno poi centrali anche nell’IA. Lui vede una sorta di parallelismo tra il sistema e gli eventi del mondo. Tra realtà e cervello in senso fisico, ci deve essere una similarità strutturale , una specie di isomorfismo. Queste relazioni sono percepite dai patterns di stimolazione neurale in cui con patterns si intende uno schema un modello che può diventare un simbolo, quindi modelli rappresentativi. I pattern neurali, inoltre, sono simboli attivi perché sono qualcosa che viene elaborato continuamente in un sistema all’interno del sistema celebrale. DOMANDA SULLE DUE ANIME DELL’IA Durante la nascita dell’IA si sviluppano due filoni principali, uno più concentrato sugli esseri umani come l’approccio al test di turing, e l’altro invece più rivolto alla razionalità quindi sfrutta di più una combinazione tra matematica e ingegneria. Anima ingegneristicadal punto di vista applicativo, interessa che la perfomance sia vista come intelligente. Anima psicologica l’idea che con un calcolatore imita le nostre azioni e possiamo pure spiegarle poiché anche la mente umana è un elaboratore di info. PLANNING( o PIANIFICAZIONE), dov’è importante la variabile del tempo e FRAME PROBLEM Planning= pianificare costantemente una sequenza di azioni. Si inizia qua a scorgere il problema del tempo, ossia che rispettiamo una certa temporalità non il tempo. Da qui lo studioso McCarthy si accorge che quando andiamo a descrivere un problema, ci portiamo dietro una caratteristica della logica ossia essere atemporali. Se introduciamo la variabile temporale, possiamo anche inserire come variabile il calcolo dei predicati inserendo indici di temporalità. Questo ha portato ad altri problematizzazioni, ossia che quando costruiamo un piano di azioni, dobbiamo dichiarare anche ciò che cambia e ciò che non  FRAME PROBLEM Problema del riquadro= ogni volta che un programma dà la descrizione di una situazione, deve sempre controllare se ci sono cambiamenti, il che porta via molte risorse; non sapendolo, il programma dovrebbe ogni volta riscrivere la configurazione generale del dominio (noi umani non abbiamo questo problema). Il frame problem è il problema di ciò che non cambia e ciò che cambia da ciò che non cambia. Per gli umano è scontato riuscire a definire quali aspetti cambiano e quali non, ma per un sistema questa azione non è scontata non avendo il nostro stesso modo di conoscere la realtà. Ci sono due aspetti del frame problem che riguardano la conoscenza dei sistemi: - Quali aspetti di una situazione cambiano e quali no; - Ragionamento con conoscenza o informazione incompleta. Una possibile soluzione STRIPS (es. se…allora). L’idea di base è quella di arricchire la pianificazione con più info possibili; utilizza la strategia mezzi-fini quindi per ottenere determinati fini, vedo quali mezzo ho. Sostanzialmente si fa una catena all’indietro, quindi si guarda a uno stato voluto cercando un operatore che porti alle sue precondizioni sempre con lo scopo di ridurre la differenza tra stato attuale e stato finale. Questo tipo di pianificazione, si costruisce una serie di obiettivi di sequenza che non tiene conto del fatto che alcune azioni possono interferire quindi può anche succedere che nel fare un’azione, si cancella una cosa che invece serviva per un’altra azione che doveva essere compiuta più avanti. Alcuni miglioramenti possibili possono essere quello della protezione degli obiettivi, cioè bloccare le condizioni di un obiettivo già raggiunto per tutto il processo; oppure la modifica dei piani ( se l’azione A danneggia l’azione B, allora farò prima B di A). Infine è possibile anche la gerarchizzazione degli obiettivi si possono attribuire valori diversi agli obiettivi del piano( come fanno gli umani). Es l’approccio top down. PIANIFICAZIONE NON LINEARE Viene usata per prevedere la possibilità nell’algoritmo di prevedere più percorsi in modo tale da riuscire a scegliere il migliore. Un es. è NOAH inventato da Sacerdoti in cui il programma non produce subito il piano definitivo ma fa tanti piani uno più raffinato dell’altro che analizza e sceglie il migliore. La scelta viene detta last commitment perché rimandata al più tardi possibile, solo quando costretto altrimenti cerca di andare più avanti con più strade. Anche qua ci sono delle sottoparti degli algoritmi che si chiamano critici e che sono delle sottoparti valutatorie, se però non ci sono conflitti il piano procede in parallelo. La pianificazione veniva collegata alla robotica come attività che serve per far interagire un sistema intelligente in un ambiente reale. Visione classica IA: sistema percettivo pianificazione sistema motorio/azione Questo genera un problema perché assume che noi sappiamo descrivere in maniera perfetta cosa vuol dire percepire e rappresentare (ma non avendolo risolto manco con gli esseri umani diventa difficile farlo roboticamente); poi anche sull’azione, come funziona? Tenere conto che il mondo esterno muta continuamente. • SOLUZIONI Vengono innazitutto fatte molte critiche al modello classico, alle rappresentazioni mentali e in generale al rappresentazionalismo ma anche al simbolismo. Si iniziano quindi a teorizzare nuovi approcci basati sul comportamento poiché è il comportamento che ha gli ostacoli che incontra o meno a determinare il suo funzionamento. NUOVA ROBOTICA Brooks propone una robotica situata Es. Mobot, primi robot ad essere stati prodotti (siamo negli anni 80 90)- mobile robot- ed era costruiti per muoversi in maniera plausibile nell’ambiente. Robot rappresentazionali. Ora questi robot contengono all’interno molti più sistemi uniti fra loro, interazioni, sensori ed elaboratori che possono far riferimento al neocomportamentismo. Questi moduli vengono anche gerarchizzati, architettura stratificata poiché ci sono alcuni più imp di altri. L’idea di fondo il nostro comportamento può essere scomposto in attività più semplici, ognuna simulabile può essere messa in atto da unità specifica del sistema. Non c’è più nessuna unità centrale (costosa, fragile ed ingrombrante). Ci sono delle critiche all’approccio, e ora si parla quindi di un approccio ibrido della robotica prendere il meglio di entrambi gli approcci quindi generalità, ragionamento + robustezza, flessibilità e risposta in tempo reale. SAMUEL CON IL CHECKERS Nel 1959 Samuel costruisce un programma per giocare a dama; è anche l’inventore dell’etichetta del machine learning ( sostanzialmente l’apprendimento automatico utilizzato per cogliere tutti quegli 1- I concetti sono innati 2- I concetti sono appresi quindi sono collezioni di esempi che ereditiamo attraverso forme di esperienza e generalizzazione induttiva. 3- I concetti sonno formati da altri concetti; questa teoria non esclude le prime due. Il significato di concetto rimane comunque un interrogativo, una teoria proposta è quella di Witgestein per lui era come una parola, quindi il concetto è l’uso che viene all’interno della struttura concettuale di riferimento quindi non tanto una lista di tratti ma gli usi che posso farne all’interno di un contesto. La sua idea di fonto è che la nostra struttura concettuale dal punto di vista cognitivo, non sia una semplice rete di nodi che si collegano ma piuttosto un insieme di nuvole che esprimono al loro centro i tratti prototipici dei concetti e i tratti più eccezionali o distanti dalla tipicalità. Non c’è ancora una risposta unica, altre teorie: - Concetti come prototipi ha una sua versione prototipica (il pettirosso è prototipo dell’uccello); - Concetti come collezioni di esempi ad es. il concetto di cane è formato dall’insieme di tutti i cani che abbiamo visto - Concetti come entità orientate all’azione, alla percezione e all’apparato senso motorio. Tutte queste visioni potrebbero portar fine al sistema fisico simboli PSS(Newell e Simon) in questi sistemi i simboli erano pattern fisici con effetti causali. In cui simbolo significa insieme di cambiamenti in un sistema a un oggetto o processore e quindi la loro attivazione corrisponde all’uso e impiego che svolgono nelle ricerche filosofiche. Si basa su 2 assunti fondamentali: - Che la computazione è ancora interpretabile come causazione di stati, cioè è ancora possibile dare una spiegazione funzionalista di che cosa avviene all’interno del sistema; - In alternativa a vedere i simboli che vengono elaborati si ha una base di rappresentazionalismo totale. SISTEMI ESPERTI Sono applicazione tecnologiche che appartengono al grande alveo dell’IA e possono essere identificati come programmi software che riproducono le prestazioni di una o più persone esperte in un determinato campo di attività. Non corrispondono al ragionamento umano ma vengono costruiti a partire dalle competenze e dall’expertise dell’essere umano. Inoltre certificano quello che è un po’ un’istituzione di un programma generalista e i suoi mancati successi. ELABORAZIONE DEL LINGUAGGIO ANALISI SINTATTICA, SEMANTICA, ONTOLOGIE. 1.ANALISI SINTATTICA È un’analisi a costituenti, ossia che gli algoritmi sono in grado di analizzare la frase a partire dalle loro componenti. Attraverso queste tecniche l’enunciato viene segmentato in modo tale da riuscire ad arrivare alla base (parole, locuzioni o categorie grammaticali). Anche qua vediamo le strutture ad albero. Principalmente si sofferma su cose che possono essere normalizzate o in generale sulle categorie grammaticali( nomi, proposizioni o verbi) che sono simboli non-terminali quando si costruire un albero sintattico non si può avere un simbolo finale. Gli oggetti lessicali sono simboli terminali che si devono inserire e che compongono le frasi. Regole di riscrittura o produzione che associano simboli non terminali a simboli terminali ( sintagma nominale ossia articolo + nome). Una grammatica formale detta G è fatta quindi da 3 elementi: insieme dei simboli terminali, un insieme di simboli non terminali e l’insieme delle regole che servono per passare da simbolo a simbolo. Possiamo anche dire che dal punto di vita formale, il linguaggio è quindi ogni sequenza di simboli terminali che si ottiene con le regole di produzione. Analisi sintattica è anche parsing= la G è tutte e sole le frasi generate da G. Serve a riconoscere le frasi di una lingua e a predisporre la struttura per la semantica composizionale. RAPPORTO TRA PARSING E LINGUAGGIO? Serve per produrre la frase, è un metodo iterativo ma è anche dispendioso dal punto di vista computazionale. Può essere anche più veloce poiché l’algoritmo ipotizza e assume che una stringa che viene data in input sia una frase e quindi va alla ricerca dei collegamenti che ci sono tra le parole in modo da creare qualcosa di coerente. Il lessico può essere conservato a parte, possiamo anche aggiungere costantemente nuove parole e assegnare categorie alle parole così come in un dizionario può essere arricchito di tratti (il genere, il singolare o plurale ecc) in questo modo ogni termine diventa una tripla: 1- Parola 2- Categoria grammaticale (sostantivo, verbo, aggettivo ecc) 3- Tratto-valore (genere, singolare e cosi via) I tratti servono all’algoritmo sia come valore ma anche perché lo aiutano a guidarlo a comprendere le frasi. 2.SEMANTICA Con un calcolo predicativo ma ha anche un punto di vista formale ovvero i simboli che vengono considerati a livello formale non sono soltano forme, ma le posso far corrispondere a qualcosa. Anche in questo caso si usano costanti, variabili, proprietà e relazioni; ogni elemento avrà la sua etichetta che denota a quale categoria appartiene. Vale anche il criterio della coerenza o un fatto è presente nella base di conoscenza, oppure si può inserire se non invalida altri fatti. Solitamente si usa la regola delle decenza x un sistema si sceglie l’ultimo elemento introdotto (oggi vedo Luca. Lo passo a prendere alle 4) il lo indica Luca. Per casi più complessi si possono usare euristiche come segmentare il discorso e poi la regola della decenza ma in sottogruppi. Anche l’analisi dei tratti può essere uno strumento utile per la semantica; ad es. la funzoone di unificazione è una funzione di controllo che serve a rispettare i tratti e quindi a dare anche unificazione che ci può portare all’accetbilità di una frase analizzata. Con la semantica PROBLEMA DEL SIGNIFICATO, cioè il problema di che cosa è il significato di una parola o di una frase. Il significato di una parole può corrispondere all’uso che gli do all’interno della mia lingua però a differenza dell’uso di un simbolo, questo cambia nel tempo. Wordnet divisione del lessico in nomi, verbi, aggettivi ed avverbi in cui ogni insieme rappresenta un concetto. Le parole poi possono essere polisemiche cioè con più significati. Se vogliamo capire quanto sono prossime due parole, con Wordnet si va alla ricerca del concetto sovraordinato comune più è alto più le parole sono simili. Manca horn Logica proposizionale Metodi di risoluzione TEORIA DELL’INFORMAZIONE È una teoria ingegneristica che è alla base delle telecomunicazioni. Ha dato degli strumenti matematici per gestire la trasmissione delle info; deriva da Shannon che è anche fondatore dell’IA. Misura la predizione di tipo statistico di un segnale fisico, come un segnale emesso da un emettitore possa arrivare a un recettore. L’unità di misura che decide di utilizzare è l’unità binaria Bit. Non importa in questo caso il significato trasmesso, in quanto viene dopo ma la teoria dell’info si occupa solo dell’inizio quindi del segnale trasmesso. l’informazione viene anche vista come il segnale elaborato dal neurone, a livello neuronale non ci sono simboli ma solo rappresentazioni. LOGICA PROPOSIZIONALE Studia le connessioni tra proposizioni e la verità delle proposizioni complesse a partire da quelle semplici, sulla base del connettivo che le unisce. È un calcolo complete e coerente. Non ha valore il significato intrinseco di una proposizione ma ciò che importa è il suo valore di verità (comumenete V o F).
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved