Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Storia e evoluzione dell'informatica: dai primi calcolatori a Internet e ipertesti, Appunti di Elementi di Informatica

Una panoramica della storia dell'informatica, dall'epoca dei primi calcolatori meccanici di leonardo da vinci ai moderni computer e alla nascita di internet e ipertesti. Viene trattato il ruolo chiave di figure chiave come blaise pascal, charles babbage, george boole, antonio meucci e guglielmo marconi. Inoltre, vengono spiegati i concetti base di informazione automatica e la struttura a cipolla del sistema operativo.

Tipologia: Appunti

2019/2020

Caricato il 15/01/2024

nicole-bet
nicole-bet 🇮🇹

2 documenti

1 / 42

Toggle sidebar

Documenti correlati


Anteprima parziale del testo

Scarica Storia e evoluzione dell'informatica: dai primi calcolatori a Internet e ipertesti e più Appunti in PDF di Elementi di Informatica solo su Docsity! LABORATORIO D’INFORMATICA prof. Tommaso Mazzoli Informazioni sul corso Esame in presenza: Test scritto 30 domande (15 scelta multipla, 15 domande aperte) Esame online: 30 domande a scelta multipla Voto: Approvato/ Non approvato. Per essere approvato 20 domande esatte o più Esame primi di febbraio. Testo di riferimento: Informatica di base, McGraw – Hill, 2016 Introduzione all’informatica Jean – Francois Lyotard  1979 disse: “L’incidenza delle trasformazioni tecnologiche sul sapere (conoscenza) sembra destinato ad essere considerevole. Esso ne viene o ne verrà colpito nelle sue 2 principali funzioni: RICERCA e TRASMISSIONE DELLA CONOSCENZA (trasmissione non solo “arrivarci prima” ma anche diffonderla, alzare la conoscenza in un popolo) Un'altra citazione è di Manuel Castells  2002 disse: “Prima di cominciare a cambiare la tecnologia, ricostruire le scuole e di riformare gli insegnanti, abbiamo bisogno di una nuova pedagogia, fondata sull’interattività, sulla personalizzazione e sullo sviluppo di capacità autonome di apprendimento e di pensiero. Rafforzando nel contemplo il carattere e la fiducia nella propria personalità. E questo è un terreno inesplorato. MONDO ANALOGICO VS MONDO DIGITALE -Macchina da scrivere -Word 6 (1994) -Diapositive proiettate -Powerpoint 97 -Disco in vinile -CD -Mp3 -Ipod -Videocamera/Cassetta -Cellulare per fare video -Libro -Kindle Cambia anche il linguaggio. Es:  Ti ho googlato  ho cercato notizie di te su Google  Ti mando un vocale di 10 minuti  È talmente pesante ‘sta tipa che manda una foto e finiscono i Giga Cambia il linguaggio, bisogna adattarsi e spiegarlo Caratteristiche dell’informazione digitale 4 caratteristiche fondamentali:  FLESSIBILITA’: è possibile modificare facilmente, senza traccia di cancellatura o cambiamento  RIPRODUCIBILITA’: è possibile realizzare un numero infinito di copie di file digitale senza utilizzarlo  RICERCABILITA’: è possibile fare ricerche approfondite anche incrociate su fonti diverse. Es: capire se un testo è scritto realmente da un autore  MACCHINA-DIPENDENZA: per la fruizione è necessario l’uso di una macchina adeguatamente programmata Definizione d’informatica - La parola INFORMATICA deriva da 2 termini: informazione automatica (indica un dato gestito in maniera automatica, macchina che gestisce senza l’aiuto dell’uomo - Questi si occupa dello sviluppo e della ricerca nell’automatizzazione dell’informazione, ed è a sua volta un campo della CIBERNETICA, scienza che studia la formazione, la trasmissione, l’apprendimento e l’elaborazione delle informazioni Ecco alcuni dei passaggi decisivi che hanno segnato la storia dell’informatica, dalla macchina per il calcolo meccanico di Leonardo Da Vinci ai moderni calcolatori.  1500 Leonardo da Vinci progetta una macchina per il calcolo meccanico. Questo aiutò a perdere meno tempo e a non sbagliare  1643 Blaise Pascal inventa una macchina calcolatrice meccanica chiamata pascalina  1834 Charles Babbage costruisce una macchina programmabile, ossia una macchina sempre meccanica che permette di impostare diverse operazioni, macchina alla quale si può inserire in ingresso non soltanto i dati da elaborare, ma anche la sequenza di operazioni che la macchina dovrà seguire  1847 George Boole scrive le prime relazioni tra matematica e logica, che saranno la base dei circuiti elettronici del computer  1871 l’italiano Antonio Meucci inventa il telefono: nasce l’era delle comunicazioni  1895 Guglielmo Marconi trasmette il primo segnale via radio.  1936 Alain Turing dà il modello teorico del modello calcolatore, la macchina di Turing  1938 il tedesco Konrad Zuse realizza il primo calcolatore programmabile elettromeccanico che viene usato per i calcoli balistici sulle “bombe volanti”, che verso la fine della Seconda Guerra Mondiale, i tedeschi lanciano sull’Inghilterra. Anche gli inglesi iniziano la costruzione di un calcolatore elettromeccanico per decifrare i massaggi in codice dell’esercito tedesco.  1939 il matematico George Robert Stibitz costruisce il primo calcolatore funzionante con codice binario, formato da 0 e 1.  1944 entra in funzione ad Harvard il calcolatore elettromeccanico Mark 1, costruito nei laboratori IBM nel 1943 per scopi bellici. Per la sua costruzione sono stati utilizzati 765.000 componenti e centinaia di chilometri di cavi. Una volta ultimato occupava una lunghezza di 16 metri e raggiungeva un peso di circa 4 tonnellate e mezzo. Riusciva a sommare due numeri di 23 cifre in meno di mezzo secondo. Una volta, durante un calcolo Mark 1 cominciò a dare dati errati, dopo una lunga ricerca venne trovato un insetto (Bug  mal funzionamento informatico) che era rimasto schiacciato dentro un relè. Da qui il termine bug che ancora oggi si usa per indicare un errore nell’esecuzione del programma.  1946 entra in funzione l’ENIAC (Electronic Numerical Integrator And Computer), finanziato dall’esercito americano prima della fine della Seconda Guerra Mondiale con l’obiettivo di calcolare i dati balistici della artiglieria americana. L’ENIAC è costituito da: 10.000 consideratori, 18.000 valvole termoioniche, 70.000 resistenze, pesa 30 tonnellate, occupa una superficie di 180 metri, effettua 5.000 addizioni al secondo, ed ha una memoria di 200 byte.  In quegli anni (1944-1946) il matematico (ungherese poi naturalizzato americano) John Von Neumann teorizza il funzionamento dei computer moderni.  Nasce così nel 1949 l’EDVAC (Electronic Discrete Variables Automatic Computer) la prima macchina digitale programmabile tramite un software basata sull’architettura di Von Neumann  Quindi la più piccola potenza di due (2,4,8,16…) in grado di contenere un set di caratteri ASCII e proprio quella di 8: con 8 bit si codificano 256 caratteri (2 all’ottava)  In concreto un singolo byte può rappresentare una lettera dell'alfabeto, un segno di punteggiatura, un numero o un carattere speciale  Oltre a bit byte sono stati introdotti anche altri ordini di grandezza  i multipli del byte, espressi con 2 (Il numero delle cifre nel sistema di numerazione binaria) elevato alle potenze di 10, sono:  Quindi, in generale, quando si parla di un kilobyte si intende generalmente un valore di 1000 byte, ma, se parlate con un informatico si intende un valore di 1024 byte. Dato che gran parte delle informazioni elaborate da un PC sono numeri o lettere, il byte è stato usato come unità di misura della quantità di dati memorizzati su un computer ed è la capacità di immagazzinamento dei dispositivi di memorizzazione. Ci sono dieci tipi di persone: quelli che capiscono il codice binario e quelli che non lo capiscono. Hardware e Software La grande flessibilità del computer deriva dal fatto che coesistono due componenti, una materiale, chiamata hardware, e una logica, denominata software. L’hardware è costituito dall'insieme di parti fisiche da cui è composta la macchina. Le istruzioni, i programmi eseguibili e i dati, per contrasto con la durezza della macchina rappresentano il software La differenza tra hardware e software può essere chiarita con la seguente metafora musicale: se l’hardware può essere considerato alla stregua di uno strumento musicale (la macchina), il software corrisponde alla partitura, mentre l'informazione elaborata, ossia output, equivale alla musica eseguita. NB: il file è una struttura logica principale in cui il PC archivia le informazioni. Un programma, o applicazione e un file che contiene le istruzioni necessarie al computer per svolgere determinate operazioni. I componenti del PC Di solito i componenti del PC vengono considerati separando l'unità centrale e le periferiche. L'unità centrale e un involucro (case) che contiene componenti elettronici e i circuiti integrati fondamentali per il funzionamento del computer. Le periferiche sono i dispositivi che permettono al PC di comunicare con l'esterno: possono servire per introdurre dati e programmi (dispositivi di input, come la tastiera o il mouse) ho per comunicare l'utente i risultati di un’elaborazione (dispositivi di output, come il video ho la stampante). Che cosa c’è dentro? Il computer è una macchina complessa, le cui funzionalità sono garantite dai vari componenti assemblati nell’unità centrale: schede, circuiti elettronici e cavi. Per comprendere, almeno nelle linee generali, la struttura globale del PC e il suo funzionamento proviamo a dare un’occhiata dentro. Al primo sguardo si nota la scheda madre (motherboard), il componente principale, ma non il più importante su cui si innestano tutti gli altri, quello che fa da tramite per lo scambio … SLIDE La scheda madre si presenta come un grosso circuito stampato di forma rettangolare, che contiene: il microprocessore, la memoria RAM e i circuiti che collegano le memorie di massa (cioè il disco fisso, il floppy disk e il CD-ROM), il controller, la scheda video e audio e le unità periferiche (monitor, tastiera, mouse, stampante, scanner). NB: il chip è un circuito composto da più componenti elettronici, integrati mediante processi di miniaturizzazione in un unico involucro (package) di dimensioni ridotte. La scheda madre è il supporto su cui viene messo un microprocessore che elabora le informazioni (CPU) Il cervello del computer Il microprocessore, detto anche CPU (Central Processing Unit- Unità centrale di Elaborazione), è la parte più importante del PC. È un chip integrato che dirige e controlla ogni attività del computer, costituito da una piccola piastra di silicio, situata sulla scheda madre, sulla cui superficie sono stati creati milioni di transistor miniaturizzato. L’era del personal computer è cominciata con l’avvento del microprocessore. La realizzazione di un circuito integrato di dimensione dell’ordine di pochi millimetri, in grado di presiedere e coordinare tutta l’attività della macchina, è stato il contributo fondamentale per la miniaturizzazione dei calcolatori, il miglioramento delle loro prestazioni e, di conseguenza, l’entrata prepotente dei PC nella vita quotidiana. La CPU svolge due funzioni fondamentali: governa tutte le operazioni richieste dalle applicazioni e dal sistema operativo (cioè genera tutti i segnali occorrenti per il funzionamento degli altri circuiti a essa collegati) ed esegue tutti i calcoli, poiché contiene al suo interno l’Unità Logica Aritmetica, l’ALU (Arithmetic Logic Unit); NB: il primo microprocessore, chiamato Intel 4004, venne realizzato da Intel nel 1971. Otto anni dopo, nel 1979, venne costruito il primo PC, contenente una CPU siglata 8088 e realizzata con 29.000 transistor è la CPU storica dalla quale deriva la famiglia di microprocessori x86 adottata da tutti i PC che utilizzano i sistemi operativi DOS e Windows. A partire da quel primo modello, grazie allo straordinario sviluppo tecnologico degli ultimi anni, sono stati fatti continui progressi nella costruzione di microprocessori, che hanno permesso di realizzare CPU contenenti transistor in quantità sempre maggiore e in grado di funzionare a velocità sempre più elevate. La legge di Moore (Gordon Moore, cofondatore di Intel) dice che: << le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiando ogni 18 mesi.>> Per capire le sue funzioni possiamo immaginare il microprocessore come suddiviso in due parti: l’unità di controllo (UC, Unit Control) e l’unità logico – aritmetica. L’unità di controllo ha il compito di controllare le informazioni e i comandi che vengono inseriti nel computer e di tradurli in un linguaggio comprensibile agli altri componenti del computer; è responsabile dello “stoccaggio” delle informazioni e dei comandi nella memoria di lavoro del computer, la RAM e dei comandi, e del loro trasferimento della RAM alla ALU e viceversa. L'unità logica - aritmetica esegue tutte le operazioni logiche aritmetiche che vengono passate dall'unità centrale. I bus I dati, però, restano nella RAM soltanto finché il computer è in funzione. quando si spegne il computer, la RAM si svuota. Il sistema operativo e tutti gli altri file verranno prelevati dal disco rigido e caricati di nuovo nella RAM quando sarà riacceso. Il processore sfrutta la velocità della RAM per elaborare dati informazioni nei tempi più rapidi. La RAM infatti è molto più veloce di qualsiasi altro supporto: se per estrarre un dato da un disco rigido sono necessari alcuni millisecondi (un millisecondo e uguale a millesimo di secondo), per compiere un’operazione analoga della RAM di sistema bastano qualche decina di nano secondi (un nanosecondo uguale a un miliardesimo di secondo). Livelli di memoria Dimensioni Velocità di accesso Memoria di massa (HD) 500 GB 10ms Memoria RAM 1 GB 100ns La memoria ROM e il BIOS Se al momento dell’accensione del computer la memoria RAM è vuota, dove sono conservate le informazioni che consentono al computer di ripartire e di eseguire i vari programmi? Le istruzioni di base devono essere trasmesse alla CPU all’avvio del sistema sono contenute nei circuiti della memoria ROM (Read Only Memory), una memoria permanente, sempre in funzione, anche ‘essa presente sulla scheda madre. Come dice il nome, è una memoria a sola lettura il cui contenuto è stato registrato in fase di costruzione del computer e quindi non dovrebbe essere modificato. Ogni volta che viene acceso, il computer esegue un piccolo programma contenuto nella ROM che gli permette di:  Identificare il processo istallato sulla scheda madre;  Controllare la quantità di memoria RAM in dotazione e verificarne il funzionamento;  Esaminare il disco rigido ed eventuali periferiche aggiuntive (ad esempio CD-ROM);  Leggere la traccia, cioè il settore del disco rigido, in cui sono contenute le istruzioni per l’avvio del sistema In particolare, la ROM che avvia il sistema è chiamato BIOS (Basic Input/Output System) NB: in realtà oggi il BIOS non è più completamente indelebile, ma è stato registrato su un chip di ROM che può essere aggiornato in caso di necessità, per esempio per eliminare eventuali difetti sfuggiti al costruttore oppure far riconoscere alla scheda madre microprocessori messi in commercio in tempi successivi. Il BIOS, inoltre, interfaccia i meccanismi di Input/Output del PC e fornisce altri servizi di sistema tra cui la gestione della tastiera, del disco, della stampante, delle comunicazioni e della data. È proprio nel corretto funzionamento del BIOS che si sono concentrate le maggiori preoccupazioni relative al Millennium Bug. UEFI (Unified Extensible Firmware Interface) UEFI è la nuova interfaccia che di recente ha sostituito l’ambiente BIOS. Caratteristiche: - Consente ai produttori di integrare nel firmware della scheda madre applicazioni e nuove funzionalità, fra cui strumenti per la diagnostica e il ripristino dei dati, servizi di crittografia e gestione dei consumi. - Riduce, anche drasticamente, i tempi di caricamento del sistema operativo quindi supporta forme di avvio quasi istantaneo. - Introduce un’interfaccia grafica efficace, facile da usare e in grado di supportare le risoluzioni video permesse dalle moderne schede grafiche Le memorie di massa Poiché la memoria RAM è soltanto temporanea, dati e programmi per non essere perduti devono essere salvati su memorie permanenti, le memorie di massa. Le più importatnti e diffuse memorie di massa sono il disco rigido (hard disk), le memorie flash e i CD e DVD-ROM. Flash e CD DVD-ROM sono i supporti più adatti al trasporto di dati e per la lettura di software commerciali. Il disco rappresenta il principale dispositivo per la memorizzazione dei dati. Il disco rigido È un’unità molto capiente in cui dati programmi possono essere archiviati proprio come in un grande magazzino di stoccaggio. Disco rigido è la traduzione letterale dell'inglese hard disk. Anche disco fisso è utilizzato come sinonimo, dato che un hard disk è un dispositivo che non si estrae facilmente dal computer. In realtà oggi è possibile trovare in commercio anche dischi rimovibili e per questa ragione il termine disco rigido sta diventando sempre più d'uso comune rispetto a disco fisso, l'hard disk è uno dei pochi componenti del personal computer che presenta componenti meccanici oltre che a elettronici: È alloggiato su un lettore (drive) ed è costituito da una serie di dischi o piattelli impilati l'uno sull'altro, che ruotano velocità molto elevate. Su ogni faccia di ciascun piattello vi è una testina magnetica che legge scrive i dati. Le testine sono tutte fissate sul medesimo supporto e quindi si muovono sempre tutte insieme. NB: Le testine magnetiche sono in grado di leggere e scrivere i dati su ogni piattello del disco rigido senza toccare la superficie (data la velocità di rotazione, se toccassero la rovinerebbero immediatamente) perché “galleggiano” su un cuscino d'aria microscopico, creato dalla rotazione dei dischi. Il disco rigido e chiuso in un contenitore sottovuoto hai visto dall'esterno di una scatola grigia, sul retro della quale si trovano i due connettori: uno per l'alimentazione l'altro per il cavo piatto del bus, adibito alla trasmissione dei dati. La parte inferiore della scatola è costituita da un circuito stampato, o piastra logica, in cui sono situati componenti elettronici che controllano il movimento dei dischi e delle testine. NB: Le informazioni sono memorizzate sul disco rigido “per cilindri”: prima è riempita una determinata traccia (per esempio la numero 10) e poi, dal momento che le testine sono posizionate sullo stesso cilindro, tutte le restanti tracce di quel cilindro. Finché un cilindro (per esempio il decimo) non è stato riempito completamente, la testina non si può spostare su un’altra traccia e quindi su un altro cilindro. Questo criterio semplifica le operazioni di lettura e scrittura, perché le informazioni correlate si trovano sullo stesso cilindro e comunque su cilindri successivi, facilitando il lavoro delle testine. Se si cancellano delle informazioni l'ordine di memorizzazione dei dati viene alterato perché negli spazi vuoti saranno registrate altre informazioni non collegate alle precedenti, costringendo così le testine muoversi avanti e indietro la ricerca dei frammenti dei file durante le operazioni di lettura. Per riordinare il disco rigido sono disponibili dei programmi appositi, chiamate i programmi di ottimizzazione o deframmentazione che permettono di riunire le informazioni secondo i criteri più utili per il lavoro delle testine e quindi migliorare le prestazioni del disco rigido. NB: La File Allocation Table (FAT) E lo schedario che consente al controller di organizzare i dati su un disco: nel caso in cui il settore su cui è registrata la FAT venga danneggiato, il controller perde tutti i riferimenti ai file registrati sul disco, che diventa così inutilizzabile. Quando si accende il computer i dischi iniziano a girare, mantenendosi costantemente in moto. Le testine di lettura e scrittura fissata all'estremità dei braccioli mobili, scivolano all’unisono sopra la superficie superiore e quella inferiore dei piatti di rotazione, si muovono dal punto più esterno al punto più interno, e viceversa, per assumere la posizione necessaria di volta in volta per leggere e scrivere i dati richiesti dal microprocessore. Il disco rigido è dotato di un dispositivo di controllo, chiamato controller, che si occupa di posizionare la testina dei dischi in modo che possa “rintracciare” le informazioni richieste. La superficie dei dischi, infatti, è ricoperta da particelle magnetizzate che formano delle tracce concentriche, suddivise in settori (o cluster). Ogni disco ha lo stesso numero di tracce e una serie di tracce corrispondenti è chiamato cilindro. Per esempio, se il disco rigido è costituito da quattro piantelli, ognuno con 600 tracce, ci saranno 600 cilindri e ogni cilindro sarà formata da 8 tracce. Per ritrovare le informazioni il controller ha bisogno di conoscere il numero di traccia, il settore d'inizio e la lista degli altri settori contenenti le informazioni desiderate. Quando la CPU richiede la lettura di una determinata traccia in un determinato settore, controller posiziona la testina inizia a recuperare i dati fino a riempire la memoria cache disponibile. Il controller, a sua volta, si occuperà di passarli alla CPU e quindi alla RAM, ecco alla memoria di lavoro del PC. NB: L’ Hard disk è uno dei componenti più delicati di tutto il computer, molto sensibile agli urti e alle vibrazioni. Se le testine toccassero la superficie del disco, infatti, possono graffiarla, causando una perdita di dati e la creazione di blocchi leggibili (i cosiddetti bad sector), oppure nell’ipotesi peggiore, possono rompersi, rendendo il disco inutilizzabile. Per quanto il disco rigido sia dotato di sofisticati per ammortizzare eventuali urti, è importante maneggiare con molta cura il case dell’unità centrale: anche nel caso di piccoli spostamenti, bisognerebbe sollevarlo completamente dal piano di appoggio per evitare di provocare vibrazioni che potrebbero appoggio per evitare di provocare vibrazioni che potrebbero anche compromettere il funzionamento. I Solid State Drive (SSD) Sono un dispositivo di memoria di massa basato su semiconduttore, che utilizzo memoria lo stesso stato solido (in particolare memoria flash) per l'archiviazione dei dati. A differenza dei supporti di tipo magnetico come nel caso del disco rigido a testina, e possibile memorizzare in maniera non volatile grandi quantità di dati, senza l'utilizzo di organi meccanici (piatti, testine, motori ecc.) come fanno invece gli hard disk tradizionali. Oggi questa tipologia di memoria si propone come sostituto per hard disk dei portatili o altri dispositivi portatili.  La totale assenza di parti meccaniche in movimento porta diversi vantaggi, di cui i principali sono:  Rumorosità assente, non essendo presente alcun componente (motore e disco magnetico) di rotazione, al contrario degli HDD tradizionali;  Minore possibilità di rottura: le unità a stato solido hanno mediante un tasso di rottura inferiori a quelli dei dischi rigidi.  Minori consumi elettrici durante le operazioni di lettura e scrittura;  Tempi di accesso e archiviazione ridotti: si lavora nell’ordine dei decimi di millisecondo; il tempo di accesso dei dischi magnetici e oltre 50 volte maggiore, attestandosi invece tra i 5 e 10 millisecondi;  Non necessitano di deframmentazione;  La scheda video oggi è un vero e proprio computer nel computer, dotato di processore, Memoria RAM e ROM, in grado di visualizzare filmati e animazioni sempre più “reali” per definizione delle immagini virgola e per la qualità del colore. All'interno di una scheda video, troviamo diversi componenti elettronici che ne determinano prestazioni nell’elaborazione grafica ed in genere nella potenza di calcolo. GPU L'equivalente della CPU in un computer vero e proprio. Il processore grafico (graphic processing unit, GPU) è un circuito elettronico realizzato appositamente per monitorare e manipolare il funzionamento della memoria grafica e accelerare la costruzione delle immagini da visualizzare tramite lo schermo. BIOS video Ogni scheda grafica è dotata di una piccola memoria ROM dove è installato un software molto semplice (chiamato firmware) e viene utilizzata solamente all’avvio del computer (la cosiddetta fase di bootstrap). Nelle prime fasi dopo l'accensione del dispositivo, la GPU della scheda video legge esegue le informazioni presenti in questa porzione di memoria, così da poter iniziare a elaborare le immagini da inviare alla periferica di output video. Memoria video Esattamente come un vero e proprio computer, anche la scheda video alla sua memoria di lavoro che “media” tra le informazioni in arrivo dalle altre componenti hardware e quelle in uscita verso lo schermo. Solitamente una scheda grafica tra i 512 MB e gli 16 GB di memoria RAM. Dato che la GPUE gli altri elementi della scheda video devono accedere contemporaneamente alla RAM, vengono impiegate memorie molto veloci o a porta multipla come la VRAM (video RAM). RAMDAC Acronimo di Random Access Memory Digital-to-Analog Converter è una componente che sta lentamente cadendo in disuso. Il RAMDAC era necessario per convertire in formato analogico i dati in uscita in formato digitale dalla GPU e renderli “digeribili” dai vecchi schemi a tubo catodico. Con la progressiva scomparsa dei tubi catodici a favore di schemi LCD e LED, questo componente sta diventando a sua volta obsoleto. Come funziona la scheda video Il funzionamento di una scheda video è molto semplice. La RAM video, esattamente come la RAM utilizzata dal computer, è divisa in tante locazioni o celle (una locazione è un piccolissimo circuito elettrico composto da un condensatore un transistor dove vengono fisicamente conservati i dati). Nel caso della RAM video, ogni locazione contiene le specifiche per visualizzare il colore di un pixel dello schermo: maggiore, quindi la quantità di RAM della scheda video, maggiore i pixel e i colori visualizzabili nello stesso momento dalla scheda grafica. Il chip grafico (GPU) si limita a leggere in sequenza e le locazioni sulla RAM, a registrarne le modifiche e trasformarli nel segnale digitale che sarà visualizzato dal monitor. Uscite video A seconda della tipologia di scheda video, questa potrebbe avere una o più uscite video grazie alla quale collegare il computer ad un monitor, ad un televisore o anche ad un proiettore. Quindi di seguito alcune tra per più note. Video Graphic Array (VGA) L'uscita VGA è uno standard analogico creato a inizio anni 80 è utilizzato soprattutto per collegare il computer con monitor a tubo cattolico e altre periferiche video analogiche. Oggi, invece virgola e soprattutto utilizzata per video ad alta e altissima risoluzione (da 1080P in su). A queste risoluzioni, però, l'utente potrebbe riscontrare degradazione nella qualità dell'immagine dipendente dalla lunghezza del cavo. Digital Visual Interface (DVI) L'uscita DVI ho uno standard piuttosto recente venne realizzato con la crescente diffusione di monitor digitali, quali gli schermi LCD, LED, ecc. Per metterti a girare alcuni dei problemi più noti dell’uscita VGA (come la distorsione dell'immagine) facendo per rispondere ad ogni pixel della scheda grafica in pixel sullo schermo. High Definition Multimedia Interface (HDMI) È lo standard più recente permette di trasferire il segnale audio e video non compreso a dispositivi compatibili con questo standard (televisioni HD e Ultra HD). Lo HDMI è lo standard che, nei prossimi anni, dovrebbe sostituire i vecchi standard analogici come il VGA. Il mercato delle schede grafiche e sostanzialmente dominato dal duopolio: - NVIDIA - ATI (Così come il mercato dei processori e nelle mani del duopolio INTEL – AMD). NVIDIA e ATI Tentano di miniaturizzare i circuiti elettrici che compongono il microchip della GPU. Più circuiti elettrici sono presenti all'interno del processore, maggiore il numero di operazioni grafiche questo potrà realizzare nell’unità di tempo e maggiore, quindi, la sua potenza di calcolo. Le immagini Immagine fotografica (analogica): è composta da milioni di pigmenti colorati molto piccoli e spazialmente irregolari. Si parla di grana della fotografia: sulla pellicola fotografica sono posti dei materiali fotosensibili che alterano il loro stato se colpiti dalla luce. L’immagine è ottenuta per analogia con la quantità di luce che ha impresso i diversi punti della pellicola durante la fase dell’esposizione. Immagine digitale: è composta da pixel (picture element) disposti su una griglia. I diversi colori che rappresentano le immagini sono memorizzati come numeri: - in fase di acquisizione delle immagini digitali (macchina fotografica digitale/scanner) ad ogni colore è associato un numero. - in fase di visualizzazione (monitor) ad ogni numero è fatto corrispondere un coloreIl processo che trasforma un'immagine in una sequenza ordinata di numeri è detto digitalizzazione. La digitalizzazione avviene con uno scanner (per una singola immagine) o con le macchine fotografiche digitali. Campionamento spaziale  Operazione con la quale ogni immagine continua è trasformata in un insieme di rettangoli più o meno grandi (immagine come matrice di pixel) Quantizzazione cromatica  Ad ogni pixel è associato un colore dato dalla media dei colori presenti all'interno della porzione di immagine sottesa al pixel Le immagini: approssimazione  Aumentare il numero di pixel (e ridurre quindi la loro dimensione) migliora la definizione dell’immagine  I monitor dei computer usano lo stesso procedimento per visualizzare le immagini.  La dimensione ridotta dei pixel e il numero elevato di colori fanno apparire il nostro occhio le immagini come.se fossero formate da linee continue e infinite sfumature di colore. Le immagini: risoluzione  Si definisce risoluzione dell'immagine  il numero di pixel (normalmente misurato in righe e colonne) e la profondità di colore (la dimensione della palette. Le immagini: comprensione Per limitare l'occupazione di memoria si ricorre a rappresentazioni compresse Alcune tecniche di compressione mantengono inalterata la qualità dell'immagine, eliminando soltanto le informazioni ridondanti Altri riducono il numero di byte complessivi ma comportano anche perdita di qualità. File non compresi - Questi formati di file hanno richieste di elaborazione minima virgola non essendo necessari algoritmi di comprensione (in fase di scrittura) e decompressione (in fase di lettura) - Mancando di comprensione, risultano particolarmente voluminosi, in termini di spazio occupato su disco (o altro dispositivo di memorizzazione) rispetto agli altri formati - raw - bmp RAW o La tecnica RAW (in inglese: grezzo) Consiste in un particolare metodo di memorizzazione dei dati di un’immagine. o Viene usata per non avere perdite di qualità nella registrazione su un qualsiasi supporto di memoria. o I formati di file RAW sono sempre più diffusi nei flussi di fotografia digitale, poiché offrono ai creativi un maggior controllo sui progetti. Tuttavia, le fotocamere utilizzano spesso formati diversi, le cui specifiche non sono sempre disponibili. o Ciò significa che non tutti i file RAW possono essere letti da tutte le applicazioni software. Di conseguenza, l'utilizzo di file RAW proprietari come soluzione di attivazione a lungo termine può risultare rischiosa e la condivisione di tali file, attraverso flussi di lavoro complessi, estremamente difficile. Bitmap Per ogni pixel sono indicati 3 byte, corrispondenti al rosso, al verde e al blu ▫ sono contenute altre informazioni necessarie per la corretta visualizzazione dell’immagine come numero di pixel in una riga, risoluzione spaziale, profondità di colore Dimensione file bitmap ▫ area * risoluzione grafica * profondità di bit ▫ esempio: un'immagine di dimensioni fisiche di 2,3 inch × 4,6 inch ha una risoluzione grafica di 150 dpi ed una profondità di colore RGB di 8 bit per canale cromatico. Quanta memoria occupa complessivamente? (5,3 × 4,6) × (150 × 150) × 3 = 1.645.650 byte = 1,57 Mb - Deve esistere qualcuno (cuoco) che esegua la ricetta - Le istruzioni devono essere eseguite in ordine per partire dagli ingredienti ed ottenere il piatto - Il cuoco deve conoscere la lingua italiana altrimenti serve un traduttore - Il cuoco non può preparare “cotoletta di aragosta” se non sa preparare la “besciamella” - La ricetta per la “besciamella” è riportata nel capitolo “salse” - Cuoco in difficoltà con istruzioni ambigue (abbiate la vertenza di cuocerli poco virgola in molta acqua) - L'ordine di esecuzione è importante (condite di spaghetti dopo cuocerli) - Istruzioni non infinite - Tempo non infinito - Eseguendo più volte la stessa ricetta si ottiene lo stesso piatto - Se una ricetta per quattro persone, raddoppiando le dosi degli ingredienti vale per 8 persone Metafora algoritmi - Deve esistere un esecutore (calcolatore) che esegua l'algoritmo - Le istruzioni devono essere eseguite in ordine per partire dai dati di input ed ottenere i dati di output - Il calcolatore deve conoscere il linguaggio dell’algoritmo altrimenti serve un traduttore - L'algoritmo deve prevedere solo istruzioni elementari per il calcolatore - Specificato un algoritmo, può essere richiamato per l'esecuzione di algoritmi più complessi - Il linguaggio dell’algoritmo non può essere ambiguo - L'ordine di esecuzione è importante - Istruzioni non infinite - Tempo non infinito - L'algoritmo deve essere deterministico: eseguito più volte sugli stessi dati di input genera sempre lo stesso output - Algoritmo parametrico: risolve una classe di problemi (al variare dei dati di input) Il software  le tipologie di software - la categoria del software si divide principalmente in software di base o di sistema (sistemi operativi) e software applicativi. - I sistemi operativi creano l'ambiente di base per far funzionare i software applicativi. - I software applicativi invece sono programmi sviluppati per eseguire compiti specifici appunto Una programmazione diretta della macchina hardware da parte degli utenti creerebbe delle serie difficoltà - L'utente dovrebbe conoscere l'organizzazione fisica dell'elaboratore e il suo linguaggio macchina - Ogni programma dovrebbe essere scritto utilizzando delle sequenze di bit ed ogni piccola differenza hardware comporterebbe una riscrittura del programma stesso Una programmazione diretta della macchina hardware da parte degli utenti non è accettabile. È necessario fornire un meccanismo per le strade dall’organizzazione fisica della macchina o Nei moderni sistemi di elaborazione questi obiettivi vengono raggiunti grazie alla definizione di macchine virtuali che vengono realizzate a di sopra della macchina hardware reale o Questa macchina si dice virtuale in quanto essa non esiste fisicamente o Si può fare in modo che macchine (fisicamente) differenti siano usabili in modo simile. Si tratta di costruire al di sopra delle diverse macchine fisiche la stessa macchina virtuale La macchina virtuale  La macchina virtuale viene realizzata mediante il software (software di base)  L'utente interagisce con la macchina virtuale grazie ad un opportuno linguaggio di comandi  Ogni computer ha un linguaggio macchina le cui istruzioni sono direttamente eseguibili dalla macchina hardware  La macchina virtuale si preoccupa della traduzione di ogni comando impartito dall’utente nella sequenza di comandi che realizzano la stessa funzione sono riconosciuti dalla macchina fisica sottostante Per esempio: interfaccia testuale - MS-DOS, Unix shell, Linux Shell - Lavorando con una interfaccia testuale i comandi vengono impartiti mediante la tastiera - Ogni comando ha un suo nome e una sintassi ben precisa Dai il messaggio di prompt all'utente  quando arriva il comando, riconoscerlo: - se è corretto, esegui l'azione corrispondente - Se errato, dai un messaggio di errore Al termine dell’operazione, torna all'inizio Interfaccia grafica  Nei calcolatori con interfaccia grafica molti comandi sono in partiti mediante l'interazione attraverso il mouse e la tastiera  Cioè il clic (il doppio clic, …) del mouse su un’icona viene tradotto in una opportuna sequenza di istruzioni che il computer esegue per soddisfare la richiesta dell’utente Il software di base Software di base: realizza la macchina virtuale Gli strumenti software che permettono all’utente (e ai programmi applicativi) -di interagire con l’elaboratore in modo semplice (funzioni di traduzione tra linguaggi diversi) e -di gestire le risorse fisiche Il sistema operativo fa parte del software di base Sistema operativo (OS, Operating System): insieme di programmi che forniscono all’utente  Intermediazione nell’utilizzo della macchina HW  Visione astratta dell’HW (macchina virtuale, macchina astratta)  Un ambiente per l’esecuzione del SW applicativo Componenti:  Nucleo (kernel)  controlla la CPU (programmi …)  Gestore della memoria  allocazione della memoria ai programmi in esecuzione  Gestore dei dispositivi di I/O  garantisce l’accesso ai dispositivi di I/O, maschera i dettagli di basso livello e gli eventuali conflitti  File system  archiviazione e reperimento dei dati sulla memoria di massa  Gestore della rete  interfaccia con risorse collegate via rete, comunicazione con processi su altri calcolatori  Interprete comandi  interfaccia diretta, semplice ed intuitiva con gli utenti Sistema operativo  Dal punto di vista strutturale il sistema operativo è formato da un insieme di livelli, che formano la così detta “struttura a cipolla”  Idealmente l’utente è ignaro di tutti i dettagli delle operazioni svolte dai livelli inferiori della gerarchia e conosce solo le operazioni del livello più alto Funzioni principali del sistema operativo  Avvio del computer  Gestione del processore e dei programmi in esecuzione (detti processi)  Gestione della memoria principale  Gestione della memoria virtuale  Gestione della memoria secondaria  Gestione dei dispositivi di input/output  Interazione con l’utente Una parte del sistema operativo deve essere sempre mantenuta in memoria principale e deve essere sempre pronta per l’esecuzione. Spesso durante questa fase sono eseguiti anche dei programmi che verificano l'eventuale presenza di virus sul disco dell'elaboratore. I virus possono danneggiare il funzionamento del laboratorio, possono essere trasmessi da un elaboratore ad un altro. Protezione del malware  Diffidenza verso: -Materiale scaricato da siti web dubbi -E-mail con contenuto e/o mittente strano -Documenti con macro -PC usati da molte persone  Antivirus: -Aggiornamento -Scansione avviata manualmente ed automaticamente -Controlli automatici costanti -Controllo e-mail  Firewall (muro tagliafuoco) è il software che ti protegge dalla rete ed è simile all’antivirus (molto importanti per le banche). Malware  software dannoso, nella sicurezza informatica, indica un qualsiasi programma informatico usato per disturbare le operazioni svolte da un utente di un computer. Precedentemente veniva chiamato virus per computer; in italiano viene anche comunemente chiamato codice maligno.  Malicious software  Computer virus: programma che può riprodursi attaccando il suo codice ad un altro programma, al settore di avvio di un disco o ad un documento con macro e virgola in generale, generare effetti collaterali dannosi  Worm (verme: programma che si diffonde tra gli elaboratori auto replicandosi mediante la rete (soprattutto e-mail)  Trojan horse (cavallo di troia): programma distruttivo nascosto all’interno di un programma applicativo o di un gioco. -Hacker (o cracker): individuo che aggira le protezioni di un sistema informatico per compiere accessi non autorizzati dividerlo in parti separate, che potessero viaggiare attraverso vari percorsi verso la destinazione, dove sarebbero stati ricomposti ● Bob Taylor si era brillantemente laureato in psicologia e matematica, aveva fatto una tesi di dottorato in psicoacustica. aveva conosciuto Licklider nel 1963, facendo una ottima impressione sul grande scienziato, e stabilendo con lui una relazione di amicizia e di stima reciproca. Per queste ragioni il successore di Lick all'ufficio tecniche di elaborazione dell'informazione (IPTO), dell’ARPA, Ivan Sutherland (il padre della computer graphic), lo chiamò come suo collaboratore nel 1965. Pochi mesi dopo anche Sutherland si dimise e Taylor, a soli 34 anni, ne assunse il posto. ● Taylor si rese conto in prima persona di quanto assurda fosse l'incomunicabilità reciproca che quelle potenti e costose macchine dimostravano. Possibile che non fosse possibile condividere risorse tanto costose, come Lick aveva più volte suggerito? ● Il finanziamento di un progetto volto a consentire la comunicazione e lo scambio di risorse tra i computer dei vari laboratori universitari finanziati dall'agenzia fu approvato e Taylor: iniziò così la storia di Arpanet, la rete dell'Arpa. ● Per molti mesi il problema di progettare una rete abbastanza affidabile e veloce da permettere l'elaborazione interattiva a distanza rimase insoluto. ● Finché alla fine del 1967 Larry Roberts (che aveva sostituito Taylor spedito in Vietnam con incarichi militari), partecipò a una conferenza alla quale intervenne un collaboratore di Donald Davies, che illustrò il principio della commutazione di pacchetto, e fece riferimento ai lavori precedenti di Baran su questo tema: fu Come trovare l'ago nel pagliaio. ● La rete dell'Arpa sarebbe stata una rete a commutazione di pacchetto in tempo reale ● Piuttosto che collegare direttamente i grandi computer, ogni nodo sarebbe stato gestito da un computer specializzato dedicato alla gestione del traffico (battezzato Interface Message Processor, IMP), al quale sarebbe stato connesso il computer che ospitava (Host), i veri propri servizi di elaborazione ● Dunque, se è vero che il progetto della rete nacque in un contesto militare, la diffusa opinione che essa dovesse fungere da strumento di comunicazione sicuro tra i centri di comando militari nell’evenienza di una guerra nucleare è frutto di un equivoco storiografico ● In realtà l'obiettivo perseguito da Bob Taylor era di aumentare la produttività e la qualità del lavoro scientifico nei centri finanziati dall’ ARPA, Permettendo ai ricercatori universitari di comunicare e di condividere le risorse informatiche, a quei tempi costosissime e di difficile manutenzione ● Parte dell'equivoco circa le origini belliche della rete, deriva dal fatto che nella stesura delle specifiche Larry Roberts riprese le idee elaborate da Baran all'inizio degli anni ‘60 ● La fase esecutiva del progetto Arpanet prese il via nel 1969 ● Il primo IMP (dimensioni di un frigorifero), fu consegnato alla University of California il 2 settembre, e fu immediatamente connesso al grande elaboratore SDS Sigma 7 della UCLA senza alcuna difficoltà ● Il primo di ottobre fu installato il secondo IMP presso lo Stanford Research Institute (SRI), Dove fu collegato a un mainframe SDS 940. Il progetto dell'Arpa sera finalmente materializzato in una vera rete, costituita da 2 nodi connessi con una linea dedicata a 50 Kbps. ● Dopo qualche giorno, fu tentato il primo collegamento tra Host facendo simulare al Sigma 7 il comportamento di un terminale remoto del 940: l'esperimento, seppure con qualche difficoltà, andò a buon fine, e dimostrò che la rete poteva funzionare ● Nei mesi successivi vennero collegati i nodi delle Università di Santa Barbara e dello Utah “LO and Behold - Internet: il futuro è oggi di Werner Herzog “ ● Il primo protocollo applicativo vero e proprio, dedicato al trasferimento di file da un Host all'altro Ful il File Transfer protocol ● Ma l'applicazione che forse ebbe la maggiore influenza nell'evoluzione successiva della rete fu la posta elettronica ● L'idea venne per caso nel marzo del 1972 a un ingegnere, Ray Tomlinson, che provò a adattare un sistema di messaggistica sviluppato L'anno prima per funzionare su un Mini computer multiutente. L’esperimento funzionò, il protocollo FTP Benne integrato con le specifiche per mandare e ricevere messaggi indirizzati a singoli utenti ● Nel frattempo, la rete Arpanet, come veniva ormai ufficialmente chiamata, cominciava a crescere. I nodi nel 1971 Erano divenuti 15, e gli utenti alcune centinaia. nel giro di pochi mesi tutti coloro che avevano accesso a un Host iniziarono a usare la rete per scambiarsi messaggi. E si trattava di messaggi di tutti i tipi due punti da quelli di lavoro a quelli personali. La rete dell’ARPA era divenuto un sistema di comunicazione tra una comunità di giovani ricercatori di informatica ● Intorno alla rete dell’ARPA, andava prendendo forma una sorta di rete delle reti ● A sancire la nascita definitiva di tale rete intervenne nel 1983 la decisione da parte della DCA di dividere Arpanet in due rami per motivi di sicurezza: uno militare e chiuso, inizialmente battezzato Defense Data Network e poi Milnet, e uno per la comunità scientifica, che ereditava il nome originario e che non avrebbe avuto limiti di interconnessione esterna ● La vecchia Arpanet poteva così divenire a tutti gli effetti il cuore della neonata internet IPERTESTI 1945: Vannevar Bush, direttore dell'ufficio per la ricerca e lo sviluppo scientifico del governo americano, scrive per Atlantic Monthly un articolo dal titolo “As we may think” Un po’ di storia “La mente umana opera per associazione. a partire da un soggetto salta immediatamente al successivo che è suggerito dall'associazione di pensieri, in accordo ad una qualche ragnatela intricata di cammini realizzata per mezzo delle cellule del cervello. La selezione per associazione, piuttosto che per indicizzazione, può ugualmente essere meccanizzata. Non si può sperare di uguagliare la velocità e la flessibilità con cui la mente umana segue un cammino associativo, ma dovrebbe essere possibile battere la mente quanto a permanenza e chiarezza dei componenti recuperati dalla memoria.” As we may think 1945 Ipertesti, un po' di storia L'articolo propone la realizzazione del MEMEX, una sorta di scrivania meccanizzata. “A Memex is a device in which an individual stores all his books, records, and communications, and which is mechanized so that it may be consulted with exceeding speed and flexibility. It is an enlarged intimate supplement to his memory” Vannevar Bush, As We May Think, 1945 1962 - 68: Douglas C. Engelbart, dello Stanford Research Institute, progetta e realizza il primo sistema ipertestuale funzionante: Augment (in funzione fino al ’75)  Nella fine degli anni Sessanta Doug Engelbart iniziò a lavorare sul concetto di personal computing, utilizzando costose workstation IBM per realizzare un sistema di video-conferenza, editing di testi gerarchici (outline processor) ed ipertestuali e di supporto per il lavoro cooperativo dotato di interfaccia a finestre, mouse e altri meccanismi rivoluzionari di input e output.  Esiste tuttora un video del 1967 dove si vedono Engelbart ed il suo team usare queste tecnologie che sarebbero diventate d’uso comune 15 anni dopo almeno!  L’idea di Engelbart era che il supporto di caratteristiche innovative potesse aumentare il potenziale intellettivo degli uomini, e che l’evidente difficoltà tecnica fosse un ostacolo superabile con un training adeguato.  Augment si chiamava così perché per Engelbart era uno strumento di human augmentation  Augment è basato sull’idea di una comunità di utenti che comunicano e condividono risorse  https://youtu.be/yJDv-zdhzMY Theodor Holm Nelson, nato a Chicago nel 1937, è uno studioso americano pioniere della tecnologia dell'informazione, filosofo e sociologo. PROGETTO XANADU Nelson concepisce il progetto Xanadu nel 1960, con l'obiettivo di creare una rete di computer con una semplice interfaccia utente. Lo sforzo è documentato nel suo libro del 1974 Computer Lib / Dream Machines e del 1981 Literary Machines. Gran parte della sua vita adulta è stata dedicata a lavorare su Xanadu e sostenendo per esso. È stata una visione in un sogno: uno schedario informatico che conserva e consegna il grande corpo della letteratura umana in tutte le sue versioni storiche e con tutte le sue interconnessioni disordinate, riconoscendone la paternità, la proprietà, la citazione e il collegamento. Come il WEB, ma molto meglio: nessun link sarebbe mai spezzato, nessun documento perso e i diritti d’autore e la proprietà sarebbero scrupolosamente conservati. Il luogo magico della memoria letteraria: XANADU In questo luogo, gli utenti sarebbero in grado di segnare e annotare tutti i documenti, vedere e intercomparare versioni di documenti fianco a fianco, seguire i collegamenti ipertestuali visibili da entrambe le estremità (link a due vie) e riutilizzare pezzi di contenuto e rimanere in contatto con i loro documenti di origine. Ci sarebbero diversi modi per visualizzare tutto questo sullo schermo del computer, ma la vista canonica sarebbe a strisce parallele fianco a fianco con connessioni a vista solo immaginarie. Il nome proviene dalla famosa poesia di Samuel T. Coleridge, “Kubla Khan” dove il poeta tratta metaforicamente dell’origine delle poesie. Coleridge disse di essersi risvegliato da un sogno con nella memoria due o trecento righe di una poesia. Subito aveva iniziato a trascriverne alcune quando fu interrotto da una visita ricevuta. Quando poco dopo tentò di riprendere il lavoro di scrittura, si rese conto che nella sua memoria il ricordo di quelle righe si era irrimediabilmente indebolito e offuscato. Il mitico paesaggio poetico di Xanadu era irrimediabilmente scomparso allo stesso modo in cui scompaiono le immagini riflesse in uno specchio d’acqua quando in esso viene scagliato un sasso: • Then all the charm Is broken, all that phantom world so fair, vanishes and a thousand circlets spread, And each mis-shape the other. (Coleridge citato in Nelson 1987, 142)  Come Nelson, Coleridge temeva il dispotismo dei sensi e la confusione della memoria senza senso, temeva la perdita di memoria.  Nelson, citando il poeta, vuole richiamare nella mente degli ascoltatori un ordinato vortice strutturale che deve alludere all’evoluzione e allo sviluppo della virtualità e complessità del progetto XANADU private. Una evoluzione delle WAN con le GAN (Global Area Network). Si tratta di reti che collegano computer dislocati in tutti i continenti. Caratteristiche di internet - Non ha un centro, quindi anche responsabilità e compiti limitati nelle varie sue componenti - Diventa presto “punto di incontro” e di scambio di informazioni non “guidato”, spontaneo Come funziona internet - Ogni sottorete che è parte di internet è assimilabile ad una rete ferroviaria nazionale - Internet può essere assimilata al sistema ferroviario mondiale - Si noti che affinché i treni possano passare da una rete nazionale ad un'altra, e necessario che esse condividono le norme di costruzione dei binari e che gli enti ferroviari si accorgono sugli orari in cui far passare i treni e così via: sono insomma necessari dei protocolli Come funziona internet Un aspetto importante di internet e la sua tipologia distribuita e decentrata. In questomodo.se un percorso è interrotto o troppo trafficato i dati possono prendere strade alternative. Gli indirizzi internet  Ma come fanno i computer a trovare più le strade giuste per ogni messaggio?  A questo fine viene impiegato uno schema di indirizzamento dei computer collegati in rete  Ogni Host e dotato di un suo indirizzo univoco, costituito da una sequenza di tre numeri da zero a 255 denominato indirizzo IP  Grazie agli indirizzi IP i ogni computer, e dunque ogni utente della rete, e in grado di individuare un nodo in particolare tra milioni e milioni, e di inviargli dati  Ma se il computer si trovano perfettamente a loro agio nel gestire numeri, lo stesso non può dirsi degli esseri umani  Per questo a sistema di indirizzi numerici è stato affiancato un sistema di nomi simbolici, assai più facile da ricordare per noi esseri umani I nomi di internet - Tale sistema si chiama Domain Name Service, e i nomi assegnati ai computer su Internet sono detti nomi di dominio - Essi sono composti da sequenze di caratteri alfanumerici divise da punti - Ogni suddivisione identifica in modo gerarchico: -Il singolo Host  dsp -la sottorete (o dominio) di cui fa parte  unipd -e così via a salire di livello fino ad arrivare ad una delle macro-sezioni (o domini di primo livello) in cui internet è stata suddivisa  it Classificazione delle desinenze  livello più alto -EDU università e centri ricerca -COM organizzazioni commerciali -GOV enti governativi -NET organizzazione di supporto gestione della rete -ORG altre organizzazioni (non governative, no profit)  Name server: struttura di database (gerarchica) che contiene la decodifica “nome logico - nome fisico” dei vari livelli di indirizzo La commutazione di pacchetto  i messaggi su internet non viaggiano tutti interi  essi vengono divisi in pacchetti che vengono spediti autonomamente sulla rete  ciascun pacchetto che fa parte di un determinato messaggio viene dotato di una etichetta che ne indica la destinazione e il numero d’ordine  così quando arriverà a destinazione l’Host potrà ricomporre il messaggio originario rimettendo in ordine tutti i pacchetti. Internet Protocol Suite I cui due protocolli più noti sono: - il TCP (Transmission Control Protocol) - l’IP (Internet Protocol). Il protocollo IP provvede a fornire il sistema di indirizzamento dei nodi terminali della rete, assegnando a ciascuno un nome univoco, formato da quattro gruppi di cifre. A livello immediatamente superiore, il protocollo TCP provvede a gestire il flusso dell’informazione tra i due nodi. Si fa riferimento a questa architettura di rete con la sigla TCP/IP. Il TCP/IP si è quindi imposto come standard de facto dell’architettura della rete internet proprio grazie alla sua diffusione e ai grandi investimenti fatti. Le applicazioni comuni sono: FTP, HTTP, SMTP:  FTP (File Transfer Protocol): permette il trasferimento di file tra due computer  SMTP (Simple Mail Transfert Protocol) per la gestione della posta elettronica  HTTP (HyperText Transfer Protocol): permette la visualizzazione di pagine web La presentazione all’utente (client) avviene a cura di un apposito programma installato sul client stesso (il Browser) La tipologia di connessione con Internet (fisiche)  Linee dedicate: l’utente (computer) è collegato alla rete con connessione permanente (es. università)  Linee commutate (doppino telefonico, ISDN, ADSL): l’utente (PC) si collega all’Host che a sua volta è collegato permanentemente alla rete. L’Host in questo caso è un Internet Service Provider (ISP) che offre il servizio di connessione a pagamento Cosa serve per il collegamento o Linea telefonica o Un computer o Un modem o Programmi che permettono il controllo del modem, la visualizzazione di pagine internet, la gestione della posta elettronica. o Un fornitore di connettività (ISP o Ente collegato permanentemente alla rete) Modem analogico  Il primo tipo di modem era molto comune fino alla fine degli anni ’90: ha caratterizzato la diffusione di internet. È un dispositivo esterno (anche se esistevano anche schede interne. Specie nei pc portatili) connessi al computer e alla linea telefonica. Consente di accedere ad internet attraverso la permettendo la realizzazione di progetti avanzati come le auto connesse, l’internate of Things, le Smart City e le Smart Home di nuova generazione. WI-FI  Wi-Fi, abbreviazione di Wireless Fidelity, è un termine che indica dispositivi che possono collegarsi a reti locali senza fili (WLAN-wireless local area network) basate sulle specifiche IEEE 8o2.11.  Le reti Wi-Fi sono infrastrutture relativamente economiche e di veloce attivazione e permettono di realizzare sistemi flessibili per la trasmissione di dati usando frequenze radio, estendendo o collegando reti esistenti ovvero creandone di nuove. La posta elettronica La posta elettronica o e-mail permette ad ogni utente di inviare e ricevere messaggi scritti a e da ogni utente di internet Ogni utente della rete internet dispone di una casella di posta elettronica collocata di norma sul computer del suo fornitore di accesso alla rete A ogni casella di posta elettronica corrisponde, come nella posta tradizionale, un indirizzo HTML: HyperText Markup Language  L’HTML è stato sviluppato a partire dal 1989 da Tim Berners-Lee al CERN di Ginevra assieme al protocollo http dedicato al trasferimento di documenti in tale formato.  L’HTML è un linguaggio di pubblico dominio, la cui sintassi è stabilita dal World Wide Web Consortium (W3C).  È derivato dall’SGML, un metalinguaggio finalizzato alla definizione di linguaggio utilizzabili per la stesura di documenti digitali.  La versione attuale, la quinta, è stata rilasciata dal W3C nell’ottobre 2014.  Permette: a. La formattazione del testo mediante l’uso di comandi (tag) b. Collegamenti (link) ad altre risorse disponibili sul WWW c. Definizione di maschere di inserimento dati d. Inclusione di altri oggetti complessi (immagini, suoni, etc) Serve per costruire una pagina web che ha estensione .htm o .html - Può essere scritto con il semplice blocco notes o con diversi software (editor) che sono specializzati per favorire e controllare la sintassi del linguaggio (Front Page, Dreamweaver, …) - La pagina web può essere visualizzata solo grazie ad un particolare programma che interpreta i Tags del linguaggio html (browser) Internet Explorer, Netscape, ecc. ITAGS, o elementi, che compongono HTML devono essere racchiusi tra parentesi angolari <cos>ì. Si tratta di parole chiave, termini in lingua inglese. L’elemento (tag) smette di produrre il suo effetto nel momento in cui lo stesso viene ripetuto facendolo precedere da una barra laterale / contenuta sempre all'interno delle parentesi angolari </così>. I browser: applicativi multiprotocollo Tutti i browser implementano il protocollo HTTP, ma sono in grado di comunicare anche con altri protocolli:  di posta (SMTP/POP/IMAP)  Il trasferimento di file (FTP)  Le news (un flusso RSS viene utilizzato per fornire agli utenti una serie di contenuti frequentemente aggiornati. I distributori del contenuto rendono disponibile il FEED e consentono agli utenti di iscriversi. L'aggregazione consiste in un insieme di feed accessibili simultaneamente, eseguita da un software aggregatore. I browser - Internet Explorer (EDGE con windows 10) - Firefox - Safari - Opera - Chrome I proxy Un proxy e un server che svolge la funzione di agente per gli utenti di altri computer. Configurando il proprio browser in modo che usi un proxy, le richieste di un documento non saranno fatte dal proprio computer direttamente al sito remoto, ma dal proxy server, che si preoccupa poi di fornirci il documento  utile per: - autenticazione - Privacy Google La storia di Google inizia nel 1995 alla Stanford University. Larry Page sta valutando di iscriversi alla scuola di specializzazione di Stanford e Sergey Brin, studente come lui laureato in informatica, riceve il compito di fargli visitare l'università. Secondo alcune fonti, la prima volta che si incontrarono non erano d'accordo quasi su niente, eppure l'anno successivo diedero vita a una partnership. Nel 1996 i due studenti lavorano a un progetto di ricerca supportato dallo Stanford Digital Library Technologies Project. Il loro obiettivo era creare una versione digitale delle biblioteche e la loro grande visione era quella di un mondo futuro con vaste raccolte di libri digitalizzati, dove le persone avrebbero utilizzato un software per indicare i contenuti dei libri e analizzare le relazioni tra di essi, determinando la pertinenza e l'utilità di un dato libro tramite il numero e la qualità delle citazioni presenti in altri libri. Il sistema di indicizzazione che finirono per sviluppare prese il nome di BackRub, e fu questa svolta moderna rispetto all’analisi tradizionale basata sulle citazioni che ispirò gli algoritmi di Google, ossia la tecnologia di ricerca che sta alla base di Google e della sua unicità. Già allora, Larry e Sergey pensavano che in futuro le persone sarebbero state in grado di eseguire ricerche fra tutti i libri del mondo per trovare quelli di loro interesse. Ciò che non potevano immaginare era che un giorno avrebbero lanciato un progetto per renderlo possibile. Backrub fu ribattezzato Google, traslitterazione rata di “googol”, che identifica il numero 1 seguito da 100 zeri. Il loro motore d'altronde voleva scandagliare una quantità enorme di indirizzi web e metterli in ordine di importanza. Poco dopo aver fondato l’azienda, per mancanza di fondi necessari per l’acquisto di nuovi PC e di altro materiale, cercarono di venderla per un milione di dollari a diverse società finanziarie, oltre che a diretti concorrenti come Altavista e Yahoo, ottenendo solo dei rifiuti. Nell’agosto del 1998, Andy Bachtolsheim, co-fondatore di Sun, staccò un assegno da 100.000 dollari intestato a Larry e Sergey, sancendo la nascita ufficiale di Google Inc. Il valore stimato di Google nel 2019 si attesta a 309 miliardi di dollari (Apple 309,5 – Amazon 315,5). La loro “mission impossible” Era trovare un modo di catalogare tutte le informazioni presenti in internet renderle rapidamente e facilmente disponibili a tutti. E ovviamente di farlo meglio di quanto già facessero Yahoo, Altavista, ecc. La cosa più innovativa è stata sicuramente l'invenzione del “PageRank”. Il PageRank e un metodo per determinare “l'importanza” di una pagina web. Mentre i motori esistenti, per indicizzare e posizionare i siti web nei loro database, si limitavano a contare le ricorrenze, nel testo delle pagine, dei termini cercati dagli utenti, e quindi mostravano ai primi posti siti web non sempre pertinenti con le informazioni desiderate, Page e Brin ebbero l'idea di verificare e contare non solo le ripetizioni delle parole ma anche i link che provenivano da altri siti che puntavano ad una determinata pagina. Il loro ragionamento era semplice: se un certo sito eccitato e consigliato da molti altri significa che ha dei contenuti interessanti e quindi è giusto farlo vedere prima di altri. In realtà il metodo adottato dai due studenti per calcolare il Page Rank è molto più complesso ed articolato: non si limita a contare i link ma tiene conto anche della qualità dei contenuti e dell’importanza dei siti da cui provengono i link. Ad esempio, se il sito della Microsoft consiglia o cita il mio sito, lo stesso acquista gli occhi di Google un valore maggiore rispetto al sito di un concorrente consigliato da un’azienda sconosciuta, e quindi avrà una PageRank più elevato del concorrente. Ci sono poi altri fattori che contribuiscono a determinare il PageRank, come l’anzianità del sito, il numero dei visitatori, ecc. Credo che nessuno li conosca tutti, anche.se sono stati ormai scritto migliaia di articoli e di libri su “segreti del PageRank Di Google”. Ciò che conta è che gli utenti, usando Google, si rendevano conto che era più facile e richiedeva meno tempo a trovare le informazioni desiderate e pertanto abbandonavano gli altri motori e consigliavano agli amici e conoscenti di fare altrettanto. I server di Google sono distribuiti su 10 datacenter, di cui sei negli Stati Uniti, due in Europa e due in Asia. Nel 2010 è stato stimato a 900.000 il numero di server utilizzati da Google per elaborare dati, garantire contenuti, organizzare e gestire la propria rete, rispondere alle ricerche e catalogare il web. A più di 100.000 indirizzi IP assegnati su diverse reti. Grazie a questa enorme potenza di calcolo, Google è in grado di effettuare una ricerca su milioni di pagine web in alcuni millisecondi, di indicizzare un elevato numero di contenuti ogni giorno. È il sito più visitato del mondo, talmente popolare che diverse lingue hanno sviluppato nuovi verbi de nominali a partire dal suo marchio, con il significato di cercare con Google o, più in generale, con quello di cercare sul web, tra i quali l'inglese to Google oppure l'italiano Googlare, usato sia transitivamente sia intransitivamente. Motori di ricerca: Google  Ma chi paga? Da dove vengono i soldi?  Ma tutti questi miliardi di dollari da dove arrivano, considerato che l'utilizzo di Google è gratuito?  Chi paga?  Questa è la domanda che spesso mi è stata posta da clienti, amici e conoscenti, e sono certo che anche molti di voi qualche volta.se la saranno posta  La risposta è molto semplice: Google non fa pubblicità sé stesso ma incassa molto per la pubblicità che fa agli altri La pubblicità contestuale Un'altra delle idee brillanti di Google è stata la pubblicità contestuale, o mirata. Provate a immaginare … state guardando un film di fantascienza alla tv e c'è un'interruzione pubblicitaria con uno spot che parla di un fascicolo con dvd allegato, in edicola da domani; il titolo è “ai confini della realtà” (un mito degli anni 60 per gli amanti di fantascienza). Quanti di voi cambierebbero canale per evitare questa pubblicità? Google fa la stessa cosa: se state cercando ad esempio “noleggio macchine per caffè” vedrete sulla parte destra della pagina dei risultati alcuni link pubblicitari di aziende che noleggiano macchine per caffè o che vendono cialde di caffè. Le probabilità che questa pubblicità dia fastidio sono quindi minime e nello stesso tempo, le probabilità che qualcuno clicchi su questo link sono alte. Questo consente a Google di far accettare ai suoi inserzionisti di pagare un “tot” per click più elevato rispetto a ciò che pagherebbero per la stessa pubblicità inserita sui siti o portali che parlano di calcio, di libri virgola di corsi, di telefonini o di cronaca. Il sito di Google - un esempio da imitare Il sito di Google si presenta in modo spartano, senza animazioni in flash, senza musichette, senza sfondi multicolori, senza banner pubblicitari. Non c'è nulla che possa distrarre l'utente, che lo costringa a pensare dove cliccare. Ci sono soltanto informazioni. Google sa cosa vogliono gli utenti e li accontenta. Pensate a quanti milioni di dollari Google sta rinunciando pur di non “sporcare” e rendere pesanti la sua home page con l'inserimento di banner pubblicitari statici o animati in flash, come invece fanno altri motori (MSN, Yahoo, ecc.). Concetto di SERP SERP e un acronimo di origine anglosassone utilizzato come abbreviazione di Search Engine Result Page, la cui traduzione significa letteralmente “pagina dei risultati del motore di ricerca. Concretamente la SERP e una lista di dieci pagine web scelte dal motore di ricerca sulla base di determinate keyword digitate nel box di ricerca. In base alle parole chiave, Google scandaglia il web alla ricerca di contenuti assimilabili all' indagine richiesta, per poi offrire all'utente, una lista ordinata di dieci risultati per pagina. Il compito principale del motore di ricerca è infatti proprio quello di ricercare all'interno di una fitta rete composta da miliardi di pagine, una serie di contenuti ritenuti idonei alle investigazioni svolte dall'utente. La SERP e il risultato di tale ricerca. Ha un ruolo estremamente importante nell'ottica della comunicazione commerciale online, in quanto ogni azione e strategia viene effettuata con lo scopo di posizionare un sito web nelle prime pagine dei risultati promosso da Google, e possibilmente, tra i primissimi risultati della prima pagina. Posizionare un sito internet nelle prime posizioni proposte da un motore di ricerca significa aumentare in maniera considerevole la possibilità di visita da parte di un utente. Per sito internet si intende una pagina appartenente al sito di interesse. Si sottolinea che questa non è necessariamente la home page, bensì, dovendo rispondere ad una precisa interrogazione da parte dell'utente, la fonte proposta sarà un link o una URI il cui contenuto sia corrispondente alle keyword utilizzate.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved