Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

Domande&Risposte: "Il mondo digitale" & "La 4ª rivoluzione" (Informatica umanistica), Prove d'esame di Elementi di Informatica

Domande&Risposte: "Il mondo digitale" & "La 4ª rivoluzione" - Corso di Meschini Federico L20 (Informatica umanistica)

Tipologia: Prove d'esame

2021/2022

Caricato il 08/10/2022

Juliet-Chan
Juliet-Chan 🇮🇹

4.6

(129)

82 documenti

1 / 8

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica Domande&Risposte: "Il mondo digitale" & "La 4ª rivoluzione" (Informatica umanistica) e più Prove d'esame in PDF di Elementi di Informatica solo su Docsity! POSSIBILI DOMANDE ESONERO|ESAME PROF. FEDERICO MESCHINI LIBRO “IL MONDO DIGITALE” Definizione di bit e byte: Þ Il termine Bit è l’acronimo di Binary Digit (cifra binaria), costituita da 0 e 1, e corrisponde alla scelta tra due alternative diverse ma egualmente probabili. Più scelte avrò a disposizione per un’informazione, più alto sarà il numero di bit: 1 bit = 2 scelte; 3 bit = 8 scelte (23). Þ Un Byte è una sequenza ordinata di 8 bit. Considerando che ogni bit può assumere due valori (0 e 1), un byte corrisponde alla scelta tra 256 possibili alternative (28). Se vogliamo ottenere il numero 64 quanti bit servono? L’operazione inversa dell’elevazione a potenza (funzione esponenziale) è la funzione logaritmica. Partendo dal numero di scelte a disposizione, in questo caso 64, per sapere quanti bit mi servono per rappresentare quel numero di scelte devo fare il Log in base 2 di 64, che è uguale a 6. Codificare un testo – Codifica ASCII, IsoLatin1, Unicode: Per codificare un testo in formato digitale bisogna attribuire un codice (una sequenza di cifre binarie, quindi gruppi di bit) a ogni carattere del testo. Per molto tempo è stata utilizzata la codifica ASCII (American standard code for information interchange), o ASCII stretto, basata su 7 bit e pertanto costituita da 128 caratteri differenti (27). La necessità di disporre di ulteriori caratteri ha portato all’estensione del codice e alla nascita della codifica ISO 8859-1, nota come ISO Latin 1, che si basa su 8 bit e quindi dispone di 256 caratteri (28). L’indicazione ISO indica l’approvazione da parte dell’International Organization for Standardization; mentre Latin 1 indica il riferimento agli alfabeti di tipo latino. Nasce dunque la necessità di estendersi anche ad altri alfabeti e viene realizzata la codifica UNICODE, basata su 16 bit, che consente 65.536 differenti combinazioni (216). Un testo scannerizzato si digitalizza attraverso un programma di riconoscimento ottico dei caratteri (OCR). Codificare un’immagine: Per convertire un’immagine in formato digitale si utilizzano i Pixel (Picture Element). Ciascun pixel contiene l’informazione relativa al colore dell’immagine; più pixel abbiamo in un’immagine e più questa sarà fotorealistica. Il vero salto al fotorealismo accade a metà degli anni ’90 con il passaggio a 24 bit per pixel (3 byte), che corrispondono a circa 16,8 milioni di colori (224). Queste immagini sono dette bit-map o immagini raster, per via della griglia immaginaria in cui sono contenuti i pixel. Le immagini si digitalizzano attraverso lo scanner. Modello RGB e Modello CMYK: Nel modello RGB ogni colore è il risultato della combinazione dei 3 colori primari: rosso, giallo e blu. Ciascuno di questi tre canali di colore è composto da 1 byte (8 bit), e quindi da 256 combinazioni differenti di colore (28). Moltiplicando 256 per tre otteniamo oltre 16 milioni di colori diversi. Il modello CMYK (ciano, magenta, giallo, nero) si utilizza per la stampa in quadricromia. L’immagine per essere nitida deve avere una certa percentuale di DPI (Dot Per Inch, punti per pollice). Risoluzione full HD: Gli schermi full HD sono composti da 1920 * 1080 pixel, mentre nella stampa parliamo di 300 DPI. Chi era Gottfried Leibniz? Leibniz fu un filosofo e ingegnere matematico, noto per essere l’inventore del calcolo binario. Egli sostiene che per avere maggiore semplicità teorica è necessario scegliere la base che comprenda il minor numero possibile di simboli, e quindi la base 2: qualsiasi numero può essere rappresentato attraverso le cifre 0 e 1. Che differenza c’è tra lo schema di comunicazione di Shannon e Weaver con quello descritto da Jakobson? Claude Shannon elaborò insieme a Warren Weaver la teoria matematica della comunicazione con lo scopo di migliorare l’efficienza della trasmissione di segnali. Il messaggio viene codificato in modo da poter ottenere un segnale da inviare al ricevente attraverso un trasmettitore. Una volta ricevuto, il messaggio sarà decodificato e riconvertito nel messaggio originale. I due studiosi propongono di utilizzare il concetto di scelta per misurare la quantità di informazione contenuta in un messaggio. Per semplificare questa misura, suggerisce di ridurre ogni scelta a una successione di scelte binarie. Il semaforo, per esempio, rappresenta una scelta fra otto alternative in termini di tre scelte binarie (acceso o spento). Al fine di rendere conto della complessità della comunicazione umana e linguistica, il linguista Roman Jakobson ha proposto una rielaborazione del modello Shannon-Weaver. Egli ha individuato sei aspetti fondamentali del processo di comunicazione: il mittente (colui che invia il messaggio); il messaggio (oggetto dell’invio); il destinatario (colui che riceve il messaggio); un contesto (che è l’insieme della situazione generale e delle circostanze particolari in cui ogni evento comunicativo è inserito); un codice che risulti comune a mittente e destinatario e un contatto (o canale) che consenta loro di stabilire la comunicazione e mantenerla. A questi elementi corrispondono altrettante funzioni linguistiche ben precise, tutte compresenti, in misura maggiore o minore, nel medesimo messaggio. Parla della macchina di Turing e dei suoi componenti: La macchina di Turing (MdT) è stata ideata nel 1936 dal logico e matematico Alan Turing, e consiste in una macchina astratta di computazione che, se opportunamente programmata con regole ben precise, può eseguire ogni tipo di calcolo su numeri e simboli. La MdT è composta da un nastro di lunghezza potenzialmente infinita (motivo per cui la macchina è concretamente irrealizzabile) diviso in quadratini, dette celle. Ogni cella può essere vuota oppure contenere un simbolo. La macchina è inoltre dotata di una testina che si sposta lungo il nastro leggendo, scrivendo, o cancellando i simboli contenuti nelle singole cellette. Quando la testina si trova sul primo simbolo della stringa, la macchina si trova al suo stato iniziale (fase di input); dopodiché la MdT effettua una serie di azioni passando per uno o più stati intermedi (fase di elaborazione); quando la macchina termina la sua computazione si trova al suo stato finale (fase di output). Qualsiasi calcolo e computazione segue delle regole specifiche che dipendono da 5 elementi principali: lo stato in cui si trova la macchina; il simbolo letto sulla testina; il nuovo simbolo che scriverà la testina; lo spostamento che farà la testina; il nuovo stato che assumerà la MdT. Quando finisce un’informazione avremo delle cellette vuote: la testina incontrerà il simbolo blank. Chi ha inventato la macchina analitica? La macchina analitica è stata teorizzata da Charles Babbage con l’aiuto della matematica Ada Lovelace (da cui prende il nome il linguaggio di programmazione ADA) con lo scopo di creare una macchina programmabile, ovvero che potesse effettuare automaticamente dei calcoli generici in base ai dati e alle istruzioni fornite. Le due componenti principali di tale macchina sono lo “store”, ovvero la memoria, una sorta di magazzino di dati, e il “mill”, la parte dove i dati dello store vengono elaborati. Tuttavia, Babbage non ricevette il finanziamento dal primo ministro inglese e la macchina non fu mai realizzata. La macchina di Von Neumann – registri, CPU, ALU e operatori logici (AND, OR, NOT), CU, bus La macchina prende il nome dal matematico John Von Neumann, e rappresenta una costruzione teorica che ha influenzato la creazione dei primi computer, come l’ENIAC e l’EDVAC. Lo schema della macchina di basa su alcune componenti fondamentali: Þ La CPU (Central Processing Unit) è l’unità centrale di elaborazione, ovvero il processore (come il mill per la macchina analitica). È il cervello del computer, situato nella scheda madre, che governa il funzionamento del sistema. La CPU traferisce le informazioni in formato binario dalla memoria centrale ai registri, legge il valore nei registri e se necessario lo modifica in base alle istruzioni che sta eseguendo, per traferire nuovamente il valore nella memoria. I processori vengono identificati in base alla loro frequenza di clock, cioè la velocità che è espressa in Hertz: maggiore è questa frequenza, maggiori sono le istruzioni che un processore può eseguire al secondo. Un giro di clock corrisponde a un ciclo della CPU, che attraversa tre fasi principali: la fase di FETCH, in cui viene recuperata un’istruzione; la fase di DECODE, in cui la CPU decodifica l’istruzione che deve effettuare; fase di EXECUTE, in cui l’istruzione viene eseguita. Þ La macchina di Von Neumann si ispira alla MdT per via della codifica binaria delle informazioni, ma al posto del nastro infinito abbiamo dei registri, ovvero piccole serie di cellette bistabili che consentono di appoggiare temporaneamente i dati, per semplificare le operazioni e renderle più veloci, evitando l’intervento della memoria esterna. I registri contengono delle informazioni di necessità immediata per il processore, e possono essere di tre tipi: i registri destinati a contenere i dati su cui il processore sta lavorando; i registri destinati a contenere le istruzioni che il processore deve eseguire; il registro contatore che controlla l’ordine con cui vengono eseguite le istruzioni del programma. Þ Molte istruzioni di programma richiedono l’intervento di una componente della CPU, ovvero l’ALU (Unità Aritmetico-Logica), che si occupa appunto di svolgere le operazioni aritmetiche e logiche, dette anche booleane (dal matematico Boole), dove i simboli 1 e 0 corrispondo a “vero” e “falso”. Gli operatori logici booleani sono tre: AND e OR sono due operatori binari, poiché prendono 2 valori e ne restituiscono 1; mentre NOT è un operatore unario, poiché prende 1 valore e ne restituisce 2. L’accumulatore è il registro in cui vengono memorizzati i risultati delle varie operazioni effettuate dall’ALU. Þ La CU (Control Unit) è l’unità di controllo, ovvero la componente della CPU che si occupa di verificare che le istruzioni vengano eseguite in maniera sequenziale e di generare e inviare i segnali di controllo e sincronizzazione. Þ I bus sono canali utilizzati per il trasferimento dei bit e ne esistono di diverti tipi. I bus dei dati consentono il trasferimento di dati tra la CPU e il resto del computer, dunque i dati arrivano dall’esterno, vengono elaborati dalla CPU e poi trasportati di nuovo all’esterno; è un bus bidirezionale. I bus degli indirizzi sono canali unidirezionali, e trasmettono gli indirizzi di memoria nei quali reperire dati e istruzioni; tutte le celle di memoria hanno un proprio indirizzo univoco espresso con la codifica binaria e in questo modo sono facilmente reperibili per la CPU. I bus di controllo vengono utilizzati per lo scambio di dati di sincronizzazione; per lavorare in maniera coordinata, la CPU e le altre componenti del computer devono scambiarsi informazioni sullo stato e sui tempi di esecuzione dei vari compiti. Memoria interna ed esterna e BIOS: La CPU utilizza due tipologie di memoria: interna ed esterna alla scheda madre. La memoria interna comprende: Þ RAM (Random Access Memory): è la memoria “volatile” che conserva i dati relativi all’esecuzione dei programmi su cui stiamo lavorando. È detta volatile perché i dati sono conservati sotto forma di potenziali elettrici che a computer spento andranno persi. Þ ROM (Read Only Memory): è la memoria “non volatile” e cioè di sola lettura, tutto ciò che è presente nella ROM non può essere modificato o cancellato. Ad esempio la ROM contiene il BIOS (Basic Input/Output System), un software eseguito all’accensione del calcolatore, che contiene una serie di informazioni fondamentali per il funzionamento del computer, e ne gestisce l’avvio attraverso una serie di istruzioni automatiche. Þ CACHE: è una memoria autonoma che si trova nel microprocessore, ed è ancora più veloce della RAM poiché è a portata diretta della CPU. Velocizza gli accessi alla memoria centrale, aumentando le prestazioni del sistema. Þ La memoria esterna, invece, comprende i dispositivi di memoria di massa, ovvero le componenti hardware del computer (hard-disk, floppy-disk, CD-ROM, chiavetta USB…). Sistemi operativi (SO) a riga di comando e a interfaccia grafica: Il computer è composto da una parte hardware, che comprende le componenti fisiche, e da una parte software, che comprende i programmi eseguibili dal computer. Il software più importante è il Sistema Operativo (SO): è il software di base che consente al computer di comprendere ed eseguire i principali comandi di interazione con l’utente. Strumenti di ricerca: Þ Cataloghi sistematici: sono degli elenchi di siti e pagine web classificati per argomento. Þ Motori di ricerca: sono degli enormi archivi che indicizzano interamente il contenuto testuale di milioni di pagine web. La ricerca in questo caso avviene indicando una o più parole chiave. Þ FTP (File Transfer Protocol): è il protocollo per il trasferimento di file da un computer a un altro attraverso la rete. Permette di collegarsi a un computer in remoto, di visualizzare il contenuto del suo disco e, se in possesso di adeguati permessi di accesso, di prelevare o inviare file. Le due tecnologie innovative più importanti sono: Java, che è un linguaggio di programmazione universale; data streaming, che è un sistema che permette di inviare attraverso la rete video e suoni digitali sotto forma di un flusso continuo di bit (si scaricano un po’ alla volta) e non come un intero blocco di grandi dimensioni. Questo rende possibile la trasmissione di audio e video in tempo reale attraverso la rete. Ciberspazio e interfaccia: Il ciberspazio è un luogo di organizzazione e condivisione dell’informazione in formato digitale, è uno spazio gestito dai computer e popolato dai programmi e dalle rappresentazioni virtuali delle persone immerse in esso attraverso apposite interfacce. Per avvicinarsi al concetto di ciberspazio bisogna prima introdurre il concetto di interfaccia: un qualunque strumento di mediazione tra noi e la realtà; dal punto di vista informatico, è un insieme di dispositivi, hardware e software, che ci permettono di interagire con una macchina o con un programma nella maniera più semplice e intuitiva possibile. Þ Interfaccia hardware: è la superficie fisica di contatto fra i nostri sensi e la macchina (es. tastiera, schermo, mouse). Þ Interfaccia software: è il modo in cui il programma ci presenta e ci permette di utilizzare le sue funzionalità; è una mediazione ad alto contenuto simbolico (es. casco VR). Realtà virtuale, VRML e intelligenza artificiale La realtà virtuale è un ambiente spaziale simulato, creato e gestito dinamicamente dal computer, con il quale l’utente può interagire ricavandone l’illusione di un movimento o di un’immersione spaziale effettiva. Tale illusione è realizzata anche grazie alla grafica tridimensionale, i cui movimenti sono comunicati per mezzo di un’interfaccia come mouse o joystick. Il linguaggio di programmazione della realtà virtuale è il VRML (Virtual Reality Modelling Language): è un linguaggio di descrizione di mondi tridimensionali che dà informazioni sugli oggetti e la loro posizione nello spazio, rendendoli attivi. La realtà aumentata è un’altra applicazione possibile della realtà virtuale, che permette l’interazione del reale con oggetti virtuali tramite sensori specifici. L’intelligenza artificiale designa quella disciplina che studia i meccanismi cognitivi umani, come il linguaggio o il ragionamento, e la loro riproduzione, mediante computer appositamente programmati. Þ Intelligenza artificiale forte: si basa sulla credenza secondo cui un computer opportunamente programmato può effettivamente ottenere una propria intelligenza non distinguibile da quella umana. Þ Intelligenza artificiale debole: si basa sulla credenza secondo cui un computer opportunamente programmato possa solo limitarsi a simulare l’intelligenza umana, ma non può averne una propria. Definizione di medium secondo McLuhan: Secondo Marshall McLuhan per medium si intende qualsiasi tecnologia che crei estensioni del corpo e dei sensi. Con il suo famoso slogan è “il medium è il messaggio” invita a prestare attenzione non soltanto ai contenuti veicolati, ma anche a tutte le conseguenze sociali e individuali date dal mezzo con cui si veicola il messaggio. Un nuovo medium contiene in sé le caratteristiche del medium che lo precede; dunque i nuovi media non sostituiscono i vecchi, bensì li inglobano (rimediazione). Inoltre, McLuhan distingue i media caldi, che veicolano un alto numero di informazioni e quindi richiedono un contributo minimo dell’uomo, dai media freddi, che necessitano dell’intervento dell’uomo con la fantasia o con altri organi per supplire alla scarsità dei dati. Il determinismo tecnologico sostiene la tesi secondo cui lo sviluppo della tecnologia è la causa diretta dello sviluppo storico e sociale. In realtà, è l’intero contesto che determina l’avanzamento culturale, anche perché un’innovazione tecnologica può esprimere il suo potenziale solo se il contesto socioculturale è in grado di accoglierla. Una comunicazione è multimediale quando coinvolge molti – e diversi – media. In campo informatico, un oggetto è interattivo se può partecipare ad un processo di comunicazione modificando in maniera esplicita l’informazione emessa, in corrispondenza degli altri partecipanti a tale processo. LIBRO “QUARTA RIVOLUZIONE” – POSSIBILI DOMANDE La “dolce voluttà” della carta stampata Il supporto non determina il testo, bensì ha la funzione di interfaccia fra noi e il testo. Ad esempio, il libro è un’interfaccia fra noi e il testo. Benedetto Croce ricorda la “dolce voluttà” della carta stampata. Una delle critiche mosse alla lettura in ambiente elettronico è proprio alla perdita di questi aspetti di immediato apprezzamento sensoriale del libro considerato nei suoi aspetti materiali: odore della carta, dell’inchiostro e della colla, rapporto tattile con la pagina, ecc. L’eccessiva standardizzazione delle interfacce può trasformarsi, almeno in parte, in un veicolo di appiattimento culturale. I progettisti di interfacce però, cercano di raggiungere un risultato soddisfacente dal punto di vista funzionale, attraverso soluzioni che siano anche esteticamente gradevoli e originali. Le interfacce hardware rappresentano la superficie fisica di contatto fra i sensi e la macchina, mentre le interfacce software rappresentano il modo in cui un programma ci si presenta e ci permette di utilizzare le sue funzionalità. Interfaccia fisica e interfaccia logica sono in stretto contatto e si influenzano reciprocamente. Fruizione lean forward e lean back e mobilità: La fruizione lean forward è quella che si ha quando siamo “protesi in avanti” verso l’informazione, come facciamo quando stiamo scrivendo, studiando un libro alla scrivania o lavorando al computer. La modalità lean back, invece, è caratterizzata da una fruizione rilassata di un’informazione (“appoggiati all’indietro”, ad esempio in poltrona, è il modo in cui leggiamo un romanzo o guardiamo un film) che ci assorbe ma da cui possiamo lasciarci trasportare senza la necessità di interventi attivi. Infine, le situazioni di mobilità determinano un’ulteriore tipologia di uso dell’informazione. La nostra attenzione cosciente è impegnata solo in minima parte dalle azioni richieste dalla situazione in mobilità e può concentrarsi sul canale informativo, anche se normalmente lo fa per periodi più brevi e più frequentemente interrotti. Definizione di libro e la bookness L’UNESCO, anche se solo a scopi statistici, ha suggerito di definire un libro come una pubblicazione a stampa, non periodica, di almeno 49 pagine. Un libro non è in primo luogo un oggetto fisico, ma un oggetto testuale astratto caratterizzato dall’uso di un codice linguistico, da una certa lunghezza, da una particolare organizzazione interna, da un’unità tematica o compositiva. Philip Smith sostiene che più che definire cos’è un libro occorre considerare la qualità dell’esser-libro, la bookness. Alcune caratteristiche che potrebbero costituire l’esser-libro sono le pagine, la copertina, la rilegatura, l’indice, la narrazione, la sequenza, le illustrazioni… Più un libro ha queste caratteristiche, più ha “libritudine”. Cos’è il libro del cancelliere Tussmann? Nel racconto La scelta della sposa, pubblicato nel 1819, Hoffmann narra le singolari avventure di tre pretendenti alla mano di una giovane e affascinante fanciulla, Albertina. Uno di loro è un appassionato bibliofilo, il segretario di cancelleria Tussmann. Ai tre pretendenti sono presentati tre scrigni chiusi. Uno solo di essi contiene il ritratto di Albertina, e chi lo sceglierà avrà la mano della ragazza. Ma i due pretendenti che sceglieranno gli scrigni sbagliati avranno comunque un dono che ai loro occhi avrà ancor più valore della mano della fanciulla contesa. Il libro fatato trovato nel proprio scrigno da Tussmann rappresenta il sogno di ogni bibliofilo. Grazie a esso, Tussmann ha a disposizione la più ricca biblioteca del mondo, e può portarla sempre con sé. Il libro elettronico promette al proprio lettore meraviglie assai simili al “libro universale” immaginato da Hoffmann. La maggior parte dei dispositivi di lettura utilizza schede di memoria standard che possono ospitare fino a 32 gigabyte di dati: quanto basta per contenere il testo di oltre 65mila libri. Definizione di e-book: Non vi è una definizione di e-book, e dei suoi equivalenti “libro elettronico” e “electronic book”, che sia generalmente accettata e universalmente valida, e il termine è stato usato in letteratura in maniera ambigua. L’ambiguità fondamentale è legata alla differenza tra e-book come oggetto testuale ed e- book come strumento fisico di lettura. Requisito di mimicità e requisito di autosufficienza: Perché si possa parlare di e-book occorre che possa essere fruito attraverso interfacce adeguate che rappresentino un’evoluzione naturale di quelle alle quali il libro su carta ci ha abituato. Dunque, solo se il supporto di lettura al quale l’oggetto digitale è destinato cerca di avvicinarsi alle caratteristiche ergonomiche e di usabilità proprie del libro a stampa, ha senso parlare di libro elettronico e non di semplice testo elettronico. Geoffrey Nunberg e Umberto Eco affermano che perché un libro elettronico possa essere riconosciuto come libro deve essere capace di imitare, in maniera quasi mimetica, le caratteristiche di un libro a stampa. Il requisito di mimicità prevede l’imitazione delle due principali componenti di un libro a stampa, la carta e l’inchiostro tradizionale. Non a caso, le tecnologie che si muovono in questa direzione sono state battezzate e-paper e e-ink. Inoltre, un dispositivo di lettura per libri elettronici risponde al requisito di autosufficienza se, utilizzandolo per leggere un testo piuttosto lungo, l’utente non sente il bisogno di stampare quel che sta leggendo. Chi è Michael Hart? Michael Hart è un informatico che nel 1971 ha avviato un’iniziativa nota come Progetto Gutenberg (PG), con l’obiettivo di costituire una biblioteca di versioni elettroniche liberamente riproducibili di libri stampati. È la più antica iniziativa del settore. Hart sostiene che sia nel caso del libro a stampa sia nel caso del libro elettronico l’elemento determinante sia il contenuto, mentre gli aspetti fisici dell’interfaccia di lettura “siano questioni meramente formali con poca o nessuna esistenza nella mente degli autori, ma piuttosto artefatte dagli editori”. Egli si rende conto che in futuro “il valore più grande creato dai computer consisterà nell’archiviazione, nel recupero e nella ricerca di ciò che è conservato nelle nostre biblioteche”. A costituire questo valore contribuisce quella che Hart chiama “Replicator Technology”, cioè la possibilità di riprodurre qualsiasi contenuto digitale in maniera illimitata e a costi bassissimi. Negli anni Ottanta il numero dei volontari cresce e il costo delle risorse necessarie al lavoro di digitalizzazione diminuisce. Nel dicembre 2009 il numero complessivo di testi resi disponibili dal progetto Gutenberg ha superato la cifra di trentamila. Durante tutto questo periodo Hart è rimasto fedele all’uso del formato ASCII. A partire dalla fine degli anni Novanta, i volontari del progetto cominciarono a chiamare “e-book” anziché semplicemente “e-text” i testi elettronici realizzati. Il progetto Gutenberg è tuttora attivo e vitale. Chi è Alan Kay? Alan Kay è una figura di rilievo in ambito di studio delle interfacce di lettura. La riflessione di Kay inizia alla Xerox di Palo Alto, uno dei centri propulsori nello sviluppo dell’informatica personale. Kay pensa a “personal media” portatili, capaci di funzionare come estensioni di strumenti di lavoro quotidiano quali la carta o il libro. Nel 1968 Kay inizia a lavorare all’idea del Dynabook, un computer portatile pensato per essere insieme strumento di lettura, scrittura e apprendimento. Il Dynabook prevedeva una tastiera e uno schermo facilmente leggibile, con la capacità di collegarsi senza fili ad altri computer; un design comodo per la lettura, anche lean back, e sorprendentemente simile a quello del lettore per e-book Kindle realizzato quarant’anni dopo. La tecnologia per realizzare effettivamente un dispositivo di questo tipo non era disponibile all’epoca e i progetti di Kay rimasero su carta. Una caratteristica distintiva del Dynabook è l’interazione fra la capacità di assorbire la cultura del libro e di permettere la fruizione di testi dalla struttura tradizionale da un lato, e la capacità di sfruttare al meglio le potenzialità multimediali e ipertestuali del nuovo medium digitale dall’altro. Il Digital Book System La Franklin Computer Corporation, nata nel 1981, produceva piccoli dispositivi portatili incentrati sul settore dell’editoria elettronica, come dizionari, enciclopedie e correttori ortografici, ed ebbe enorme successo. Nel 1990 cambia nome in Franklin Electronic Publishers. Due anni dopo, la Franklin introduce il Digital Book System: un unico dispositivo portatile, sul quale possono essere visualizzati e utilizzati contenuti diversi cambiando delle cartucce. Nel 1993 esce la versione 2, con un prezzo ridotto e la capacità di gestire fino a 200 megabyte di dati, e ne verranno venduti 15 milioni di esemplari in due anni. Durante la prima parte degli anni Novanta la principale rivale della Franklin nel campo dei dispositivi di lettura è la Sony. Ancora oggi la Franklin produce dispositivi portatili. Progetto Manunzio: Negli anni Novanta qualcosa si muove anche in Italia: nel 1993 esce su CD-ROM la prima edizione della LIZ (Letteratura Italiana Zanichelli), una raccolta di diverse centinaia di testi classici della letteratura italiana, la cui fruizione è però possibile solo su PC. Nel 1993, sul modello del progetto Gutenberg, Pieralfonso Longo, un utente di MC- Link, propone di aprire sul sistema un’area dedicata a testi letterari in formato ASCII. L’iniziativa, denominata “Progetto Manunzio”, viene inaugurata con la pubblicazione del primo e-book italiano gratuito: una versione dei Malavoglia. Nel 1994, per sostenere il progetto Manunzio viene fondata un’associazione culturale: Liber Liber. Sia Liber Liber sia il Progetto Manunzio sono ancora pienamente operativi. Cosa sono i PDA? Gli anni Novanta vedono la prima affermazione di un dispositivo tecnologico completamente diverso, che si avvia a conquistare un successo ben maggiore rispetto ai dispositivi dedicati alla lettura finora realizzati, e che negli anni successivi si sarebbe fuso con il telefono cellulare per dar vita agli smartphone di oggi: l’organizer tascabile, o PDA (Personal Digital Assistant). Si tratta di piccoli computer palmari, adatti a gestire appuntamenti, indirizzi e numeri di telefono, a fare calcoli, prendere appunti e a leggere brevi testi in situazioni di mobilità. Il primo palmare che aveva la possibilità di diventare anche uno strumento di lettura è stato probabilmente l’Apple Newton (il primo modello è del 1993). Il Newton era, per l’epoca, un prodotto tecnologicamente avanzatissimo, con la possibilità di scrivere sullo schermo utilizzando uno stilo e un software di riconoscimento della calligrafia che permetteva di trasformare in testo elettronico le parole scritte con lo stilo. Ma le batterie duravano pochissimo, il riconoscimento dei caratteri era inizialmente del tutto inadeguato e il prezzo era di 800 dollari. Il successo che mancò alla Apple Newton lo ebbe il Palm Pilot, uscito nel 1996. Il Palm costava di meno e vantava un’interfaccia estremamente intuitiva e funzionale. La sua enorme diffusione lo trasformò in una piattaforma di sviluppo appetibile anche nel campo della lettura in mobilità: venne sviluppato un formato per l’uso di documenti ed e-book sul sistema operativo Palm, il PalmDOC. Con la diffusione dei primi palmari inizia a diffondersi anche il fenomeno degli e- book pirata. E-paper e E-ink – la seconda generazione di dispositivi dedicati La carta elettronica si basa su due sottili strati plastici trasparenti e sovrapposti, sigillati, al cui interno si trovano, al posto della carta, un liquido oleoso e, al posto dell’inchiostro, delle minuscole capsule sferiche bianche e nere. Le sferette bianche sono cariche positivamente, quelle nere negativamente. A loro volta, i due strati di plastica trasparente sono percorsi da un fittissimo reticolo di cellette o pixel, ciascuno dei quali può essere caricato positivamente o negativamente. Questo consente di far emergere a comando, per ogni punto dello schermo, le sferette bianche o quelle nere. Ovviamente i puntini neri corrispondono all’inchiostro nero e quelli bianchi allo sfondo della pagina. La risoluzione dell’e-paper è ottima e la carta elettronica non emette luce propria, ma la riflette soltanto: un vantaggio per molti utenti che ritengono stancante la lettura su dispositivi che emettono luce. Un altro vantaggio è la durata della batteria: un dispositivo basato su carta elettronica consuma corrente solo quando si cambia pagina. Il primo dispositivo di lettura basato su e-paper è stato il Sony Librié, uscito sul mercato giapponese nel 2004. Il Kindle: L’Amazon Kindle ha avuto un ruolo fondamentale nel far percepire la seconda generazione di dispositivi di lettura, quella basata su e-paper. Il primo modello è uscito nel 2007, lo schermo non aveva nulla di innovativo, ma una novità riguardava lo scaricamento dei libri. Il Kindle era, infatti, in grado di scambiare dati sulla rete di telefonia mobile statunitense, in modo da poter scaricare libri in qualunque momento. Il limite principale è la chiusura dei dispositivi: gli utenti Kindle possono acquistare e-book solo presso Amazon. Nel 2009 è uscito il Kindle DX, più riuscito esteticamente e assai più confortevole per la lettura avendo uno schermo più grande. Il formato utilizzato dal Kindle è l’.azw (Amazon Whispernet). iPhone e Android: Uscito nel gennaio 2007, l’iPhone ha venduto fino a dicembre 2009 circa 34 milioni di esemplari. Quel che colpisce sono soprattutto due fattori: da un lato, la qualità dello schermo e la sua sensibilità al tocco; dall’altro, la funzionalità dell’interfaccia disegnata da Apple. Lo schermo dell’iPhone è fatto da 480x320 pixel, molti di meno dello schermo di un computer, ma l’iPhone è molto molto più piccolo, e ha dunque una densità dell’immagine maggiore di quella del monitor di un computer. L’iPhone è assai più piccolo del libro, ma il testo si legge bene: è pronto per essere utilizzato come dispositivo di lettura di e-book. Non si tratta ovviamente di dispositivi dedicati; a differenza dell’e-paper, lo schermo emette luce.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved