Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

riassunto media digitali, Sintesi del corso di Controllo digitale

questo libro racconta le differenze tra vecchi e nuovi media e le trasformazioni che hanno avuto i principali medium

Tipologia: Sintesi del corso

2022/2023

Caricato il 15/04/2024

ValeMatzu
ValeMatzu 🇮🇹

4 documenti

Anteprima parziale del testo

Scarica riassunto media digitali e più Sintesi del corso in PDF di Controllo digitale solo su Docsity! Media digitali La storia, i contesti sociali, le narrazioni Capitolo 1: Capire i media digitali 1.1 Una nuova “ossessione”: Il digitale I media digitali sono diventati una delle principali “ossessioni” della società contemporanea: ci sono infinite attività e gesti che sono entrati a far parte della vita quotidiana di miliari di persone. I media digitali rappresentano un settore cruciale nella società contemporanea anche in relazione al loro peso economico, produttivo e dunque politico. Una fetta consistente della ricchezza prodotta sul pianeta proviene dalle comunicazioni digitali. I media digitali non si stanno evolvendo in maniera uniforme in tutte le parti del pianeta, anzi talvolta hanno amplificato le disuguaglianze. Nelle società contemporanee, in quelle a capitalismo avanzato e non solo, il digitale rappresenta oggigiorno un centro nevralgico d’interessi culturali, politici ed economici. L’universo digitale condiziona l’esperienza e la percezione del mondo contemporaneo: negli ultimi decenni molte delle maggiori paure e insicurezze (privacy, moralità), ma anche altrettante speranze e aspettative positive (prosperità economica, democrazia), sono state ripetutamente associate alla diffusione dei media digitali. 1.2 Definizione di “Digitale” Il significato di digitale è da mettere in contrapposizione con il termine “analogico”. Un esempio tratto dalla musica aiuta a capire questa distinzione: la differenza tra il disco in vinile analogico e il compact disc digitale. Nel disco in vinile il suono è prodotto dal contatto tra la puntina ed i solchi continui incisi sul disco. Nel caso del CD, invece, la traccia audio è scomposta in miriadi di punti, sottoforma di valore binario (0 e 1) ed il suono è prodotto dalla lettura che un laser fa dei valori di questi singoli punti. Questa distinzione presuppone che analogico sia tutto ciò che non è digitale e viceversa. Il significato che oggi attribuiamo comunemente al digitale è legato anche a due processi che spesso vengono confusi: la numerizzazione e la binarizzazione. La numerizzazione consiste nell’assegnazione di valore numerico a contenuti inizialmente espressi in un differente linguaggio. La digitalizzazione (digit = cifra) è l’assegnazione di valori numerici e con il fatto che si sia pensato di utilizzare solo 2 cifre ha reso molto più economica la decodifica, riducendo ogni componente a due stati: “acceso o spento”, “0 o 1” (chiamate BIT). I programmi che vediamo in TV sono una sequenza di 0 ed 1 che i decoder e le televisioni digitali codificano per essere resi comprensibili alle 1 persone. I fenomeni di numerizzazione e di trasformazione in codice binario hanno diverse importanti conseguenze per la circolazione dei contenuti mediali. In primo luogo, trattare tutte le forme di comunicazione allo stesso modo permette apparentemente di «smaterializzare» le informazioni, comprimerli e quindi trasferirli più facilmente, conservarli in supporti che occupano poco spazio (hard disk esterni) e manipolarli e modificarli con semplicità. In secondo luogo, ha contribuito all’esplosione di nuovi hardware dedicati alla lettura, riproduzione e conservazione di contenuti. Una delle differenze spesso evidenziate tra i media analogici e quelli digitali è che, con quelli analogici, tutti questi processi sarebbero stati più complessi e costosi. 1.3 Digitalizzazione e modelli di società Il digitale non è costituito solo da aspetti tecnici e materiali: per ricostruire i significati profondi che ruotano attorno alla digitalizzazione occorre anche considerare come si siano evolute le rappresentazioni e gli immaginari del digitale nella cultura contemporanea. I primi tentativi di individuare il fulcro delle trasformazioni in atto nella società moderna nell’evoluzione del calcolo, della comunicazione e dei computer risalgono al periodo immediatamente successivo alla Seconda guerra mondiale e, in particolare, al successo di due cornici teoriche emerse in quegli anni: la cibernetica e la teoria dell’informazione.  Cibernetica: ambito interdisciplinare introdotto da Norbert Wiener, il quale riconobbe che gli snodi cruciali della trasformazione furono lo sviluppo delle comunicazioni e dell’uso e dell’interazione delle macchine nella società.  Teoria dell’informazione, le cui basi logico-matematiche vennero tracciate da Shannon e Weaver, per poi evolversi nella “teoria matematica dell’informazione”, i cui modelli si basavano sulle comunicazioni telefoniche, visto che furono sviluppate all’interno dell’AT&T (American Telephone & Telegraph). Questi modelli furono fondamentali per i nascenti “media studios” e per definire “cruciale” la comunicazione nell’era post- bellica. Nei decenni successivi furono stilate altre idee che misero a fuoco il cambiamento della società, che solo in seguito furono caratterizzanti per la società del giorno d’oggi. Possiamo elencare 5 di queste teorie emerse nella seconda metà del ‘900:  Società dell’informazione: mette in luce la centralità dell’informazione come risorsa per lo sviluppo culturale, politico ed economico. L’informazione viene vista come una forza incontrastabile in grado di rivoluzionare l’intera società. 2 telaio automatico dotato di “hardware” (il telaio in sé) e di un “software”, ovvero di un foglio di carta bucherellato che conteneva le istruzioni che la macchina doveva eseguire (cambiando il foglio la macchina cambiava lavoro). Quest’idea fu applicata alle macchine da calcolo nella seconda metà dell’800. Negli anni ’30 cominciò un fiorente mercato di calcolatori e registratori grazie, soprattutto, alla partecipazione delle scienze matematiche che ebbero un ruolo determinante per l’evoluzione dei calcolatori digitali. Nel 1936 Alan Turing scrisse un articolo dove adattava la matematica per far funzionare una macchina in grado di svolgere operazioni grazie al linguaggio binario. Si trattava, però, di un dispositivo “astratto”, le regole per fare funzionare la macchina in grado di svolgere tali operazioni (le regole del software, quindi). La “macchina di Turing” rappresenta quindi il primo modello di calcolatore in grado di svolgere calcoli complessi con un linguaggio applicabile in molti campi. Questa invenzione viene considerata tutt’oggi la base di ogni tentativo per la creazione di computer digitale. Le idee di Turing vengono considerate il fondamento del processo di digitalizzazione. Negli anni ’30, però, all’interesse dei matematici per le macchine di calcolo si aggiunse quello della guerra e la pressione dei governi per trovare soluzioni tecniche da utilizzare nel conflitto. Come altre invenzioni, a metà del ‘900, anche il computer ebbe delle ascendenze negli investimenti specifici in vista della guerra. Il governo americano, si interessò soprattutto di utilizzare macchine automatiche in contesto militare, come dispositivi di contraerea per calcolare la traiettoria di missili ed aerei. Nell’inverno del ’45 fu “inaugurato” l’Eniac: un enorme macchina che occupava un’intera stanza. Questo dispositivo è il primo di una serie di computer chiamati mainframes e venne utilizzato a scopi militari. Nel decennio ’40-’50 gli USA investirono capitali per la costruzione di altri mainframes e alla fine degli anni ’50 se ne contavano circa 250 nel mondo. Tuttavia, visto che gli usi fatti fino ad ora dei computer furono puramente politici e militari, l’immagine sociale del computer fu associata ad un’idea di controllo militare e politico e per questo divenne anche oggetto di polemica di vari intellettuali. Dal punto di vista tecnico, il mainframe era molto diverso dai moderni PC. Queste grandi macchine dovevano essere utilizzate da team di programmatori ed erano la cosa più distante dai dispositivi che si possono utilizzare singolarmente. Tra gli anni ’50 e ’70 alcune innovazioni portarono, però, all’avvicinamento dei PC del giorno d’oggi: il desktop, il timesharing ed i microprocessori. Il primo computer pensato per essere utilizzato da una sola persona tramite tastiera fu il modello 610 progettato dalla IBM, un’impresa il cui campo operativo era la fornitura di tecnologie ad uffici. Fu progettato dalla Columbia University (laboratori Watson) e introdotto sul mercato nel 1957 al costo di 55.000 dollari. Di questo modello ne furono prodotti 180 esemplari. Più piccolo sia dell’Eniac sia dell’Univac, rimaneva comunque molto grande (1m x 1,5m). Il primo 5 calcolatore con le dimensioni più simili ai moderni PC fu il P101 della ditta italiana Olivetti. Il time-sharing, inizialmente pensato per i mainframes, influenzò pesantemente il concetto di un computer utilizzato da singole persone. I mainframes erano stati progettati per un uso collettivo; grazie al time-sharing il mainframe poteva essere utilizzato da differenti utenti da diverse postazioni. L’introduzione del timesharing è un’innovazione conservativa: nata per ottimizzare i mainframes, ma diventata involontariamente un incipit verso la costruzione del computer dei giorni d’oggi. Il microprocessore a circuiti integrati spalancò le porte alla costruzione di computer di piccole dimensioni e al continuo miglioramento delle loro prestazioni. L’Intel 4004 è la base della creazione di tutti i primi prototipi di PC degli anni ’70 e fu il capostipite di tutti i successivi microprocessori, compreso quello del primo computer Apple nel 1976. Tra la fine degli anni ’60 e ’70 alcuni governi e aziende private crearono alcuni prototipi di PC, tuttavia non fecero molto successo perché non si riusciva a capire in che ambito si potessero utilizzare. Tra i modelli fallimentari degli anni ’60 ’70 c’è anche lo Xerox Alto, progettato nel 1973 dall’azienda Xerox. Ne vennero prodotte migliaia di dispositivi che vennero usate prevalentemente nelle sedi dell’azienda produttrice. Non si trattava di un PC, ma di un terminale che per eseguire calcoli si appoggiava ad un server centrale. Anche se viene classificato come fallimento, introdusse 2 innovazioni fondamentali per il successo dei PC: il mouse e un’interfaccia grafica denominata con l’acronimo GUI. Su queste due innovazioni si basa soprattutto il successo di Microsoft e d Apple e sono rimaste fondamentali anche ai giorni d’oggi. A metà degli anni ’70, quindi, erano presenti tutte le tecnologie che troviamo oggi nei nostri computer: mouse, tastiera, microprocessore, GUI, linguaggio di programmazione. I primi che riuscirono a trasformare i grandi computer in dispositivi utilizzabili individualmente furono due figure marginali e isolate: Steve Jobs e Steve Wozniak, due che approcciarono l’informatica nelle vesti di hacker vendendo dispositivi chiamati Blue Box. A differenza di altri decisero di aprire una loro impresa, la Apple e si dedicarono alla costruzione del primo PC, l’Apple I: costruito in legno e prodotto in poco più di 200 esemplari al costo di 666,66 dollari. Grazie alla visibilità che produsse l’Apple I nel mondo degli appassionati, nel 1977 un investitore decise di finanziare, con 250.000 dollari, la produzione di un secondo PC, l’Apple II: fu commercializzato su larga scala e in brevissimo tempo divenne il centro di attenzione di media, investitori e consumatori. Negli anni ’70 venne messo in moto il commercio cruciale per la diffusione dei PC e del mondo digitale: quello dei software e dei sistemi operativi. I nuovi computer, come l’Altair e l’Apple II rappresentavano un piccolo passo per coloro che non sapevano bene utilizzare i linguaggi di programmazione. Per fare in modo, però, che il computer diventasse un oggetto di largo consumo serviva una soluzione semplice ed intuitiva 6 per fare dialogare gli utenti con le macchine. La soluzione venne trovata con la commercializzazione del primo Macintosh nel 1984, ovvero un computer controllabile attraverso una GUI. Accanto ad innovazioni tecnologiche per l’introduzione dei PC nella vita quotidiana giocarono un ruolo cruciale soprattutto le pubblicità e il mondo del cinema. Un’ulteriore spinta per la diffusione del PC, che venne agli inizi degli anni ’80, fu data dall’introduzioni delle console per giocare ai videogiochi. Nei primi anni ’80 la diffusione dei videogiochi diede una grande spinta alla diffusione dei primi modelli di computer come il Commodore. A metà degli anni ’80 un altro evento segnò il destino dei PC: l’invenzione del primo sistema operativo da parte della Microsoft: Windows. La Microsoft, a differenza della Apple, si era focalizzata non sulla progettazione di macchine, ma bensì di software. Nel 1985, un anno dopo il Mac, uscì la prima versione di Windows, anch’essa basata su GUI, mouse e desktop. Era un software molto semplice rispetto a quelli dei giorni d’oggi: si poteva utilizzare solo un programma alla volta e per essere avviato il sistema si dovevano utilizzare dei brevi comandi nel linguaggio Ms-Dos. Nel 1995 arrivò la svolta con l’uscita di Windows 95, che non richiedeva più l’utilizzo di Ms-Dos all’avvio e anche dal punto di vista grafico ci fu un netto miglioramento. Windows 95, inoltre, fu il primo ad avere al suo interno il primo browser: Interne Explorer, che diventò il principale accesso domestico alla rete. Per la grandissima diffusione di Windows 95 ci fu una grandissima campagna pubblicitaria, la prima per un sistema operativo per la quale, Microsoft, pagò circa 300 mln. A partire dagli anni ’80 la Microsoft rafforzò ancora di più la sua posizione nel mercato spingendosi oltre alla produzione di sistemi operativi progettando anche pacchetti che contenevano software da ufficio. Il primo di questi venne lanciato nel 1988 e si chiamava Work; 2 anni più tardi, nel 1991, venne aggiornato in una versione chiamata Office che conteneva: Word, Excel e Power Point. Dalla metà degli anni ’90 il PC iniziò ad essere stabilmente nelle case delle famiglie. Nel 1996 si vendettero circa 70 mln di esemplari e, solo 4 anni dopo, la cifra di vendite si raddoppiò. Nel 2000 le percentuali delle famiglie nei paesi OCSE (Organizzazione Per La Cooperazione e lo Sviluppo Economico) che avevano accesso al PC era del 45%, nel 2005 del 59% e nel 2011 il 77%. Il PC, quindi, iniziò negli anni ’90 ad essere stabilmente presente nelle case, anche grazie all’avvento di Internet. Il 1995 segnò un anno cruciale per la diffusione dei PC e della rete, facendo diventare i computer mezzi di comunicazione, di accesso ad informazioni e di divertimento. Ci sono altre vicende che caratterizzano la grande diffusione dei PC, come le dimensioni sempre più ridotte che lo resero sempre più portatile. Un PC che sicuramente ebbe una grande influenza fu sicuramente l’iBook Apple che prese in considerazione un fattore fino a quel momento trascurato: l’estetica delle macchine. Fino a quel momento, infatti, i computer 7 decentralizzata furono due progetti autonomi fino al 1968, quando si unirono per beneficiare entrambi. Era II: Internet accademico-scientifico Fin dall’inizio l’uso della rete per scopi militari andò a braccetto con quello dell’uso a scopo accademico, ovvero per soddisfare le esigenze della comunità scientifica. Lo stesso progetto Apranet fu inizialmente pensato per accrescere la produttività scientifica. Eppure, l’adozione della rete non fu un processo lineare, infatti emersero presto alleanze e divergenze di vedute tra l’ambiente militare e scientifico. Le convergenze furono tre in particolare:  Nessuna delle 2 fazioni vedeva di buon occhio la centralizzazione della rete, per gli accademici poteva, infatti, trasformarsi in una sorta di controllo del loro lavoro.  Due concetti chiave furono quelli della flessibilità (integrare reti e dispositivi differenti) e di spinta centrifuga: questi due diedero la spinta anche per la creazione di protocolli per l’intercomunicazione. Negli anni ’70, Cerf e Kahn misero a punto un protocollo di rete su cui si basano anche le infrastrutture del giorno d’oggi: il TCP/IP. La parte TCP si occupa di gestire i flussi di informazioni tra due nodi della stessa rete, mentre la parte IP si occupa di indirizzare al mittente l’informazione richiesta. Venne messo a punto nel 1978 e adottato nel 1983 da Arpanet. Grazie al TCP/IP fu possibile integrare in uno stesso ambiente reti e computer totalmente differenti.  Il terzo elemento di compatibilità tra accademici e militari fu la costruzione fisica della rete. Finanziata con fondi militare, il progetto del 1968 fu quello di costruire una rete che collegava 4 centri di ricerca a università americane. Il progetto venne realizzato entro il 1969, nel 1971 i nodi collegati erano ben 15 e nel 1975 Arpanet si collegò addirittura con paesi europei (Norvegia, Inghilterra…). Un’altra divergenza tra accademici e militari fu sull’uso della rete. La e-mail, introdotta nel 1971, doveva essere utilizzata come mezzo per favorire la ricerca scientifica, ma si andò presto ben oltre, utilizzandola come strumento di comunicazione non puramente scientifico accademico. Vennero aperte delle mailing list, dei forum, dove milioni di utenti potevano parlare di qualsiasi argomento. Era III: Internet contro-culturale A partire dagli anni ’70 si sviluppò un’altra comunità portatrice di un’idea di rete utilizzata in modo innovativo: si trattava di attivisti politici, studenti, hacker… Nello stesso ambiente nacque l’idea di home computing. Questa visione si distanziava in 2 modi dall’idea iniziale di Arpa: 10  L’obiettivo iniziale era collegare potenti risorse di calcolo, quello degli hacker era di collegare i PC domestici.  Arpanet era situata in zone strategiche e non garantiva un accesso universale. Questo nuovo gruppo prevedeva di utilizzare per lo scambio di dati una rete già presente in maniera uniforme in tutto il paese: la rete telefonica. Nella seconda metà degli anni ’70 vennero introdotti i primi modem, che davano accesso alle bacheche elettroniche con cui si poteva usufruire di funzioni di messaggistica e di file sharing. Le prime comunità elettronico-virtuali iniziarono ad essere riconosciute geograficamente. A diffondere l’ideologia delle comunità virtuali fu il noto romanzo cyberpunk di Gibson “Neuromante”, divenuto manifesta di questa controcultura nel quale viene anche coniato il termine “cyberspazio”. Negli anni ’90 anche la ricerca scientifica fu contagiata dalle comunità virtuali ed interpretò il cyberspazio come un luogo alternativo a quello reale. L’idea di rete come strumento per il tempo libero contribuì a modificare il significato di computer, che passò da una macchina seria da calcolo a quello di strumento di intrattenimento che diede vita ì, tra gli anni ’80 e ’90, ad un vero e proprio culto per i giochi di avventura online. Era IV: Internet come servizio pubblico La quarta influenza, a differenza delle altre, si sviluppò in Europa. Infatti, all’European Particle Physics Laboratory del CERN a Ginevra, verso la fine degli anni ’80 Tim Barners- Lee ebbe l’idea del World Wide Web (WWW), ovvero trasformare una parte di rete in uno spazio di consultazione di informazioni. Già da alcuni decenni gli studiosi stavamo studiando l’organizzazione della conoscenza umana. Nel 1945 Bush pensò ad un sistema meccanico per velocizzare il recupero di informazioni (mai realizzato). Questo sistema, chiamato Memex, era anche questo ispirato al funzionamento del cervello umano. Nel 1960 Nelson elaborò il concetto di ipertesto applicando al digitale le teorie di Bush. Grazie alle conoscenze di tali teorie e applicazioni Barners-Lee formulò due idee alla base del www: • Fare deposito della conoscenza umana aprendone l’accesso come fosse un servizio pubblico. • Creare un sistema che permettesse di pubblicari sui nodi della rete documenti di lavoro costantemente modificabili dagli utenti. Anche la struttura tecnica era innovativa. 11 Il WWW era una rete di dimensioni mondiali e ogni informazione poteva essere richiamata tramite un nome personali (URL). Tutti i documenti dovevano essere creati tramite un linguaggio standard (HTML) ed essere ospitati in server che gestivano le richieste degli utenti. La navigazione avveniva attraverso browser, dei programmi che permettevano di navigare in rete anche agli inesperti. Il primo browser fu Netscape Navigator, introdotto nel 1994 e che ebbe una grande concorrenza con l’uscita di Internet Explorer. Questa concorrenza venne definita “guerra dei browser”. Era V: Internet commerciale Alla metà degli anni ’90 internet raggiunse il suo apice di popolarità, era costituita da una combinazione di interesse accademici, controculturali e di servizio pubblico. Le aziende private, a questo punto, iniziarono a proporre una serie di interfacce, browser al fine di incrementare la popolarizzazione della rete grazie alla sua semplicità d’uso. E perché quest’ultime videro subito la rete come un’opportunità di guadagno. La commercializzazione di internet metteva a disposizione delle persone possibilità inedite, come poter confrontare prezzi di stessi prodotti forniti da più aziende. Il 1995 fu un anno cruciale per internet. Nel 1995 iniziò, inoltre, la commercializzazione di Internet: dal 1° gennaio furono ammesse le attività commerciali, fino a quel momento vietate in base all’Acceptable Usage Policy stipulata dall’NSF, la quale il 30 aprile venne venduta ad alcune aziende private segnando così la fine del controllo della rete da parte del governo americano. La crescita tra il 1996 e il 2000 fu impressionante: internet iniziò a diventare un enorme mercato virtuale di merci, in cui gli utenti potevano entrare e pagare quando volevano. La crescita commerciale si arrestò nel 2001, con una rapida crisi economica. Due sono le cause principali di questa crisi: • La mentalità di business delle aziende: molte imprese si lanciarono in questo nuovo business, sconosciuto e poco affrontato ritenendo che fosse necessario abbandonare i vecchi metodi tradizionali. Sopravvissero solo quelle che riuscirono ad integrare i tradizionali modelli di business e questi nuovi legati alla rete. • La scarsità della domanda: nei primi anni 2000 gli accessi ad internet erano limitati e, di conseguenza, era ancora limitata l’idea di poter fare acquisti in rete. Con la bolla speculativa del 2001 cessò l’idea che internet avesse una posizione tutta positiva, vennero a galla molti suoi lati oscuri: • La pornografia e il gioco d’azzardo erano tra i servizi più richiesti • Le pubblicità iniziarono ad occupare spazi decisamente intrusivi 12 difficile la sua diffusione, perché nessuno aveva esperienza con questo tipo di comunicazione. Al contrario, con il ritorno in auge del telefono mobile si era già formata una certa esperienza con il tipo di comunicazione. Gli utenti avevano già utilizzato. comunicazioni punto a punto come il telefono e il telegrafo, quindi erano già esperti di comunicazione sonora a distanza. Gli utenti della telefonia fissa erano già dei potenziali consumatori della telefonia mobile. Possiamo, quindi, dire che l’avvento del cellulare fu totalmente diverso da quello del telefono fisso alla fine dell’800, perché la società aveva già esperienza con strumenti simili e il telefono mobile venne, perciò, presentato come un oggetto già in parte metabolizzato. Telefono e telefonino hanno molte similitudini anche in ambito sociale: hanno avuto adozioni simili (uso serio per la propria professione -> uso sociale per mantenere un contatto attraverso le chiacchiere), hanno suscitato preoccupazioni affini (elettrosmog e folgorazioni) per passare infine al comune problema dell’invasione della privacy. Il telefono mobile, però, si è distinto in alcuni tratti fondamentali rispetto al fisso: • Si è liberato dei fili a cui il fisso è collegato • È un mezzo di comunicazione principalmente personale che familiare • Ha permesso la “constant touch o perpetual touch”, ovvero la possibilità di essere sempre reperibili e di comunicare senza soluzione di continuità • Il fisso era un mezzo di comunicazione che trasferiva la parola sottoforma di impulsi elettrici, il cellulare, invece, è sia di natura scritta che di natura orale (sms). Un altro antenato del cellulare è un mezzo di comunicazione tardo-ottocentesco brevettato da Guglielmo Marconi nel 1896: il telegrafo senza fili. Il wireless innovò alcune caratteristiche del tradizionale telegrafo elettrico, eliminando i fili e permettendo così a 2 persone di comunicare a distanza usando messaggi punto-a-punto in codice Morse. Contemporaneamente, venne sperimentato il telefono senza fili: a differenza del telegrafo, però, il telefono non utilizzava il codice Morse come linguaggio ma la voce. L’obiettivo comune della telefonia fu, sempre, quello di poter far comunicare gli utenti senza l’ausilio di cavi. Il radiotelefono venne sperimentato soprattutto durante le due Guerre mondiali e le sue sperimentazioni fecero nascere due dispositivi molto interessanti: • Il walkie-talkie, che veniva utilizzato dai militari e dalle forze dell’ordine per comunicare emergenze. • Il secondo dispositivo sfruttava una debolezza del radiotelefono, ovvero che tutti i possessori dello strumento potessero ascoltare le informazioni che passavano. Venne quindi utilizzato come forma di svago e di intrattenimento, dando vita alla radio di broadcasting. Il radiotelefono era differente dal telefono mobile di oggi: 15  Era più un walkie-talkie, per parlare bisognava schiacciare un taso e per ascoltare bisognava rilasciarlo.  Pesava molti chili e doveva essere attaccato alle batterie dell’automobile per essere utilizzato.  La chiamata non era automatica (mittente-destinatario) ma era gestita da un centralino che la reindirizzava.  Le comunicazioni erano facilmente intercettabili. Tuttavia, possiamo assolutamente dire che il radiotelefono fa parte della storia del cellulare; ha contribuito a far penetrare nella società questa idea di comunicazione. Possiamo quindi dire che il storicamente il telefono è nato alla fine dell’800, ma la sua penetrazione nella società avvenne circa un secolo dopo. La seconda vita del cellulare iniziò negli anni ’70, quando vennero aperte le prime reti al pubblico. Venne applicata un’idea di Douglas H. Ring: dividere il territorio in celle all’interno delle quali i telefoni comunicavano con una stazione base. Gli anni ’80 furono quelli in cui la telefonia mobile si sviluppò nei paesi più ricchi con un’unica eccezione: gli USA. In Europa il telefono venne lanciato negli anni ’80: • La Gran Bretagna nel 1982 assegnò 2 concessioni, alla British Telecom e alla Recal (futura Vodafone) che costruirono la rete Cellnet. • In Francia nel 1982 venne lanciato il progetto Radiocom 2000 che però ebbe uno scarso successo a causa del grande controllo militare, la scarsa copertura e i costi elevati. • Nel 1986 in Germania la Siemens lanciò un nuovo standard che garantiva una copertura quasi totale grazie ad una carta personale che poteva essere utilizzata in differenti modelli di telefono • Nel 1985 in Italia, in cui la penetrazione della telefonia mobile avvenne da subito, venne lanciata la rete RTMS. L’elemento interessante della storia della telefonia mobile in Europa è l’osservazione dell’incompatibilità delle reti tra loro. In Europa vennero sviluppate 9 reti differenti utilizzando altrettanti standard incompatibili. Quindi, se un viaggiatore avesse voluto comunicare con il suo telefono, avrebbe dovuto possedere un telefono per paese. Un’eccezione fu quella dei paesi scandinavi, dove la telefonia mobile ebbe un grande successo grazie alle grandi industrie come la Nokia e la Ericsson. La diffusione in Europa della telefonia mobile venne definita da Agar il “miracolo burocratico” europeo. Dal dicembre del 1992, infatti, moltissimi paesi decisero di adottare il GMS come 16 unico standard. Ci furono almeno 3 ragioni che spinsero ad adottare il GMS come standard comune: • Una ragione politico-economica: l’idea di avere uno standard comune a più paesi avrebbe rafforzato maggiormente l’unione economica tra i paesi. • Una ragione economica: alcune aziende di telefonia fecero pressioni perché capirono che grazie ad uno standard comune sarebbero diventate leader nel loro mercato. • Una ragione legata ai vantaggi “tecno-sociali”: gli utenti potevano collegarsi con il loro telefono anche passando da un paese all’altro (roaming), il GMS introdusse anche la SIM card, una scheda che conteneva i dati e le tariffe dell’abbonato indipendentemente dallo strumento in cui era inserita, infine, il GMS permise la digitalizzazione dei sistemi di telefonia mobile. Il GMS venne da subito associato ad un nuovo standard sorto negli anni ’80: il 2G, che a differenza delle reti analogiche 1G era integralmente digitale, sviluppato per la prima volta negli anni ’90 dalla Nokia. La telefonia mobile passò, quindi, dai sistemi analogici a quelli digitali solo negli anni ’90 e che anche se GMS e il 2G hanno storie distinte hanno entrambi contribuito in pieno alla digitalizzazione delle reti mobili. Gli anni ’90 e i primi anni 2000, furono caratterizzati da un’espansione orizzontale del cellulare. Negli anni ’80 era un oggetto utilizzato per ragioni lavorative soprattutto dai giovani che lavoravano nel settore finanziario. Negli anni ’90 e 2000, invece, il telefonino si iniziò a vedere anche nelle tasche di persone comuni. Il telefono cellulare, nel corso della sua storia, abbracciò anche altre dimensioni sensoriale: si svincolò dal solo udito abbracciando prima il campo visivo, e poi quello tattile con l’introduzione, soprattutto, degli sms. L’idea iniziò a circolare tra alcuni tecnici della telefonia già nei primissima anni ’90, perché notarono che quando un utente chiamava qualcun altro si apriva parallelamente un altro canale di comunicazione che non veniva utilizzato. Inizialmente questi messaggi potevano essere scambiati solo tra dispositivi omogenei e con lo stesso operatore. In futuro, gli sms, sarebbero diventati una delle killer application del mobile. Uno dei paesi che ci fa capire il peso dei brevi sms sono le Filippine, dove l’uso degli sms era diventato come un’ossessione. La definitiva metamorfosi del cellulare, però, è avvenuta con l’introduzione delle reti mobile di terza generazione: il 3G. La storia del 3G è molto interessante, e ha come protagoniste 3 aziende di telefoni (Ericsson, Nokia e Motorola) e una di software (Unwired Planet). Queste 4 imprese decisero di associarsi per collaborare alla creazione dello standard Wap, che avrebbe permesso ai proprietari di telefonini di accedere ai servizi online tramite i loro dispositivi mobili. Le aziende erano convinte di ripetere lo stesso 17 A causa della sua larghissima diffusione e delle forme di dipendenza che provoca, il telefono è stato soggetto di ricerche per studiare le conseguenze che quest’oggetto ha sulla società. Green e Haddon hanno individuato alcune tendenze di lungo riguardo:  La capacità del mobile di sovvertire e rimescolare spazio pubblico e privato: Il mobile ha fatto crollare la distinzione tra tempo di lavorare e tempo per divertirsi. Ha permesso di discutere in luoghi pubblici di argomenti che prima erano considerati d’eccellenza, o che prima erano confinati dentro le mura domestiche.  La capacità delle persone di negoziare i propri spazi nell’uso del mobile: Uno dei maggiori pericoli, infatti, è quello dell’invasione della privacy. La gestione dello spazio è stata oggetto di alcune ricerche sociologiche che hanno studiato i luoghi di utilizzo del mobile.  L’evoluzione del rapporto tra giovani-adulti, tra genitori-figli e anche tra giovani  Similitudini e differenze tra telefonia fissa e mobile in termini di identità.  Studi di natura medica Capitolo 5: La digitalizzazione dei media analogici Negli ultimi 10 anni la digitalizzazione dei media analogici ha avuto un ruolo determinante nell’evoluzioni di alcuni specifici settori: musica, stampa, cinema, fotografia, televisione, radiofonia. Sono principalmente due le logiche d’analisi principali che accompagnano l’interpretazione delle trasformazioni dei settori elencati: • viene messa in rilievo la continuità con il passato, come i media tendono a conservare gli equilibri produttivi. • Mettere in rilievo un processo di riconfigurazione o di “rimediazione” dei contenuti e delle pratiche con cui i media sono vissuti nei nuovi spazi della comunicazione online. Queste logiche non si escludono a vicenda, ma si sono alternate nel corso del tempo. Musica Quello della musica è il settore che ha sperimentato per primo la riconfigurazione dei media analogici verso la realtà digitale. I nuovi prodotti digitali si espansero in modo rapido. Negli USA, già nel 2011, il mercato della musica digitale aveva già superato i guadagni di quello tradizionale. Nel 2008 il negozio online di musica della Apple, iTunes, aveva già superato le vendite dei negozi di dischi. A differenza degli altri settori, questo della musica si è rapidamente adattato ai nuovi modelli produttivi e distributivi. Oggigiorno per musica digitale intendiamo i brani in MP3 che 20 troviamo in rete; la storia della digitalizzazione della musica risale alla fine degli anni ’70 (1979), quando venne introdotto il primo lettore musicale portatile, capace di leggere un disco ottico che conteneva un segnale audio in formato digitale. Questo disco riusciva a contenere fino a 640 mb di dati (74 minuti). Il fatto che il CD si basasse su una codifica digitale non contribuì all’introduzione di nuovi modelli di produzione musicale. Dal punto di vista produttivo il CD nasceva grazie a 2 gradi multinazionali, Sony e Philips, da anni ormai punti di rifermento per la produzione di lettori musicali e contenuti musicali. Inizialmente l’uso del CD era riservato esclusivamente ad appassionati di musica classica, dagli anni ’90 in poi divenne il supporto musicale più utilizzato da tutte le fasce di ascoltatori. Quindi, anche se basato su una nuova tecnologia digitale, il CD non ha fatto altro che replicare le idee che i produttori avevano già alla fine dell’800. Questo mercato entrò in crisi quando venne introdotto un nuovo paradigma di diffusione della musica che era basato su 3 elementi: il formato compresso MP3, i lettori iPod, e le piattaforme online per scambiare questi file compressi. Il successo della musica digitale compressa è dovuto soprattutto al nuovo formato MP3. Le iniziali idee ci furono già negli anni ’60, anche se solo alla fine degli anni ’80 ci furono le sperimentazioni di algoritmi per comprimere il suono. Nel 1988, l’italiano Chiariglione, avviò il gruppo di lavoro MPEG, all’interno all’ISO. Il compito dell’MPEG, era quello di trovare uno standard per la diffusione dei contenuti sulle nuove radio e TV digitali. Un altro elemento determinante per la diffusione della musica in MP3 fu l’introduzione dell’iPod, commercializzato dalla Apple nel 2001. Sul mercato c’erano già modelli di lettori di musica portatili, ma avevano una memoria molto ridotta. L’iPod fu il primo lettore di musica a poter contenere circa un migliaio di canzoni a cui si poteva accedere grazie ad un’interfaccia molto intuitiva. Gli acquirenti dei primi iPod si trovavano in una situazione inedita, infatti, stavano acquistando un lettore musicale portatile senza avere un canale di vendita legale. Fu per questo che Apple, nel 2003, sviluppo l’iTunes Store. La modalità di vendita delle canzoni (99 centesimi l’una) riscosse un grandissimo successo facendo diventare iTunes nel primo negozio di musica degli USA e Apple il principale distributore nel mondo. Il doppio successo targato Apple con l’iPod e iTunes rende ancora più evidente la trasformazione industriale della musica e delle pratiche di consumo degli ascoltatori. Con la digitalizzazione Apple diventò il nuovo punto di riferimento anche del mercato musicale. La musica in MP3 è circolata almeno in 4 modalità:  Dal punto di vista commerciale: l’utente poteva accedere al negozio virtuale, come iTunes, e scaricare la musica pagandola.  Software di file sharing e sistemi peer-to-peer  Piattaforme online (YouTube): le piattaforme come YouTube mettono a disposizione degli utenti anche video musicali caricato dagli stessi utente o anche dagli artisti. 21  Accesso allo streaming musicale tramite abbonamenti: è il caso di Pandora e Spotify, che costituiscono un ibrido tra broadcasting radiofonico, file sharing, streaming e logica di condivisione tipica dei social Stampa: libri e giornalismo Il mondo della stampa è uno dei settori più antichi. La digitalizzazione ha profondamente cambiato anche questo panorama, grazie, anche in questo caso, all’introduzione delle nuove tecnologie che hanno causato molte turbolenze nel mercato della stampa. Anche le modalità di lettura stanno lentamente cambiando, passando dalla lettura “cartacea” a quella digitale. L’ultimo mezzo secolo è quindi stato per la lettura e per la scrittura un tempo di grandi innovazioni, cominciate con l’introduzione delle nuove tecnologie: computer, software, dispositivi mobili. Possiamo individuare quattro fasi di questa evoluzione: • Prima fase (anni ’60-’70): iniziano a diffondersi computer in grado di gestire il lavoro di scrittura e di immagazzinamento di dati. • Seconda fase (anni ’70-’90): i testi scritti diventano molto popolari, con una traiettoria praticamente parallela alla diffusione dei PC. • Terza fase (anni ’90-2000): la scrittura e la lettura iniziano ad integrarsi con la rete, generando nuove forme di testi in circolazione. • Quarta fase (anni 2000 in poi): questa fase è ancora in evoluzione. È caratterizzata da una convergenza tra forme di stampa tradizionali e dispositivi digitali, si contraddistingue per il tentativo della stampa digitale di superare quella cartacea. Prima fase Fine anni ’60, iniziarono a diffondersi i primi computer destinati esclusivamente alla scrittura e negli anni ’70 vennero sviluppati i primi sistemi di archiviazione dei testi. Questi sistemi erano esclusivamente destinati ai grandi uffici. Seconda fase Con la diffusione del PC, però, questi sistemi di scrittura ed archiviazioni iniziarono ad uscire dagli uffici. Con i primi PC iniziò a diffondersi i primi software di scrittura, che offrirono agli utenti una funzione identificabile, la scrittura. Il primo programma venne lanciato nel 1976, Electric Pencil. Anche Microsoft si impegnò in questo settore con il lancio di Word. In questa 22 pellicole. Se prima le pellicole erano prodotte in numero limitato e fatte viaggiare attraverso corrieri, ora vengono spedite ai vari cinema tramite server centrali dove sono immagazzinate. La digitalizzazione favorì anche la creazione di contenuti a livello amatoriale la loro circolazione nei media digitali. Negli anni ’80 venne commercializzata dalla Sony un tipo di videocamera che registravano un segnale analogico di tipo Betacam; tuttavia, tali sistemi richiedevano complesse attrezzature per rimontare i fotogrammi dei film e soprattutto era difficile creare copie. Negli anni ’90 la produzione di film amatoriali fu un passaggio molto importante, soprattutto perché le immagini iniziarono ad essere sempre più facili da modificare grazie a dei programmi di montaggio video. Il primo software che permetteva un montaggio non lineare fu Adobe Premiere, messo a disposizione da Apple nel 1991 e da Microsoft nel 1993. Uno dei problemi più importanti in questo periodo fu, però, la mancanza di memoria all’interno delle videocamere. Fu in questo periodo, quindi, che vennero iniziati a girare film che utilizzavano dei formati video compressi, come il MiniDv. Nella seconda metà degli anni 2000, gli smartphone furono uno degli strumenti che fecero espandere ancora di più i video amatoriali grazie alle prime fotocamere e videocamere integrate e anche grazie alla nascita di piattaforme sviluppate appositamente per la condivisione video come YouTube. Un’ulteriore accelerata del processo di digitalizzazione delle immagini digitali in movimento è il rafforzamento della tecnologia analogica del registratore VHS. Questo processo è stato rafforzato grazie a delle nuove forme di servizio presenti su internet che hanno reso obsolete i vecchi metodi. Questo processo è esemplificato dall’avvicendarsi di due modelli di riferimento di noleggio film. Nel 2010 la nota azienda Blockbuster, famosa per il noleggio di cassette, dovette avviare la procedura di fallimento a causa della contrazione del mercato del noleggio film. Negli stessi anni, la sua diretta concorrente Netflix, decise di dare sempre la possibilità di affittare film, ma in maniera digitale grazie allo streaming. La circolazione dei film in rete, intrecciandosi con l’industria cinematografica, diede vita ad uno dei fenomeni più diffusi: la pirateria, conseguenza anche di alcune innovazioni tecnologiche: • File sharing: basato su modello peer-to-peer. • Diffusione dei codec (software di codifica) DivX e Xvid. Nella seconda metà degli anni 2000 si svilupparono anche siti web che davano la possibilità agli utenti di guardare gratuitamente i film senza scaricarli. Questi siti vengono definiti cyberlockers. Uno dei primi fu Megavideo, creato nel 2005 e chiuso per violazione del copyright nel 2012. Fotografia 25 La produzione e condivisione di fotografie in rete è una delle pratiche più comuni, grazie soprattutto alla possibilità di avere sempre con sé una macchina fotografica. La digitalizzazione delle fotografie, però, risale agli anni ’70 da alcuni progetti lanciati in un centro di ricerca americano, lo Xerox Park a Palo Alto. In questi anni fu creato SuperPaint, il primo sistema informatico dedicato alla produzione di grafiche cinematografiche. Il programma più noto è Photoshop, lanciato nel 1990. La modifica di foto divenne una pratica così comune, che introdusse nel vocabolario un verbo apposito: fotoscioppare (to photoshop). Fin dagli inizi della sua storia la fotografia era al limite tra realtà e finzione: poteva rappresentare fatti veritieri o falsi. La veridicità delle foto iniziò a traballare dal mondo del giornalismo e della pubblicità, i settimanali e i quotidiani, infatti, cominciarono ad utilizzare sempre più costantemente software per ritoccare le foto, dando vita al fenomeno che Ritchin denomina “iperfotografia”, ovvero una comunicazione fotografica sempre più dominante rispetto agli altri media digitali. L’intreccio tra “vecchio” e “nuovo” nel caso della fotografia è testimoniato anche da un altro fatto: il poter vedere istantaneamente lo scatto fatta. Questa caratteristica la possiamo, infatti, trovare già nelle Polaroid, commercializzate nel 1948. Anche in questo caso vediamo che le moderne tecnologie di oggi hanno origine dalle radici della storia della fotografia. Lo sviluppo delle fotocamere digitali è un processo avvenuto in qualche decina d’anni. Il primo prototipo fu fatto da un ingegnere della Kodak, mai commercializzato, che era in grado di fare foto in bianco e nero con una risoluzione di 100x100 Pixel. La prima commercializzazione ci fu nella seconda metà degli anni ’80, quando la Canon (azienda giapponese) mise sul mercato una macchina fotografica dal costo elevato che salvava le fotografie sopra un floppy disk. La prima macchina fotografica digitale reflex fu immessa sul mercato dalla Nikon. La fotografia digitale presentava molti vantaggi rispetto a quella analogica: le foto si potevano trasferire immediatamente sul PC, erano manipolabili con software grafici ed erano condivisibili sulla rete. A metà degli anni 2000 questo periodo di transizione tra analogico e digitale ebbe una scossa, data soprattutto dall’introduzione di smartphone dotati di fotocamere da alta risoluzione: i cameraphone, rendendo così una cosa molto comune lo scattare foto, condividerle su social, blog. L’archivio di foto più importante al mondo è Facebook. Nel 2012, Facebook ha acquistato anche il servizio di photo sharing Instagram, che aveva avuto successo grazie agli effetti fotografici che facevano fare fotografie molto simili a quelle dei sistemi analogici. Televisione Nella seconda metà del ‘900 il ruolo della TV ha totalmente stravolto la vita quotidiana degli ascoltatori, modificando totalmente l’intera percezione del mondo. Negli ultimi anni, però, si è 26 iniziato a parlare di una “crisi della televisione”. La TV è ancora oggi un medium centrale, anche se il processo di digitalizzazione ha trasformato il suo ruolo sociale almeno in 4 aspetti:  Prima dimensione: Il fenomeno della convergenza dei media ha una lunga storia che ha trasformato profondamente 3 settori: informatica, telecomunicazione e editoria. La convergenza intendeva far intrecciare questi 3 settori e fu proprio questa idea a influenzare le mosse di business delle aziende produttrici di televisioni. La digitalizzazione ha quindi coinciso con la convergenza tra i differenti settori della comunicazione la cui conseguenza è stata proprio l’abbattimento delle barriere tra questi settori.  Seconda dimensione: Questa dimensione ha toccato un aspetto più concreto, ovvero la trasformazione alla base delle trasmissioni televisive, nate in forma analogica via cavo. Il processo di digitalizzazione del segnale televisivo ha rappresentato la più incisiva trasformazione delle tecnologie di broadcasting, insieme a quella del colore. Gli standard attuali sono stati definiti sempre da gruppo di lavoro MPEG dell’ISO. Lo standard del segnale audio-video è chiamato MPEG-2 e venne approvato nel 1994 e fu adottato come riferimento per il sistema TV digitale chiamato DVB. Parallelamente alla proliferazione degli standard si sviluppano anche le modalità di trasmissione del segnale televisivo, anche in questo caso sono molte: • Nord America, Asia: il segnale più utilizzato è quello via cavo. • Europa Occidentale: il segnale prevalente è quello digitale trasmesso via etere. • Europa Orientale: la trasmissione più usata è quella satellitare. Questo alto numero sia di standard che di segnali ci fa capire che siamo in un contesto totalmente contrario da quello di “standardizzazione tecnologica”. Fin dagli inizi degli anni ’90, l’UE aveva come obiettivo l’adozione di uno standard comune. L’idea iniziale era quella di fornire i servizi digitali tramite uno strumento più familiare che il cellulare: la televisione digitale. la digitalizzazione del segnale televisivo non richiese solo tempi molto lunghi, ma ha assunto traiettorie disomogenee a causa delle grandi differenze tra i paesi del mondo.  Terza dimensione: Questa dimensione si concentra sulle innovazioni in campo tecnico della televisione. La televisione nella sua storia ha avuto molteplici innovazioni: 27 Vincent Mosco (2004), un «sublime digitale», una chiave interpretativa per definire il nostro mondo in contrasto con quello del passato. Abbiamo tre dimensioni mitologiche più generali che hanno caratterizzato l’evoluzione di una particolare idea di società digitale: la digitalizzazione come forza irresistibile, come livella globale e come forza rivoluzionaria. Primo mito: la digitalizzazione come una forza irresistibile Il primo mito su cui ci soffermiamo è l’irresistibilità del digitale ed è stato alimentato soprattutto dalla sfera politico-economica. La digitalizzazione è stata spesso vista come un macrofenomeno inarrestabile e a senso unico, che governi e organizzazioni internazionali di diversi orientamenti politici hanno promosso nel corso degli ultimi decenni come motore simbolico a sostegno delle proprie iniziative. La convinzione che la digitalizzazione rappresenti un destino irresistibile sottintende anche l’idea che essa sia destinata a sostituire i media analogici e, più in generale, che sia in grado di liberare le società contemporanee dai vecchi e ingombranti vincoli, come la carta e i supporti materiali dei contenuti. Secondo mito: la digitalizzazione come una livella globale Il secondo mito su cui ci soffermiamo è il carattere globale della digitalizzazione, il fatto cioè che essa abbia avuto un impatto uniformante in tutto il mondo. È altrettanto evidente che non in tutti i paesi del mondo e, ancor di più, non in tutte le regioni di ogni singolo paese la digitalizzazione stia procedendo in maniera uniforme. La digitalizzazione non funge quindi da livella globale, ovvero non è stata fin qui in grado, come a volte promesso, né di portare in tutte le regioni del globo le stesse tecnologie, né di uniformare gli utilizzi dei media e neppure di diffondere lo stesso grado di benessere. La digitalizzazione non solo non crea un mondo uniforme e omogeneo, ma spesso è addirittura una delle origini di crescenti diseguaglianze. Terzo mito: la digitalizzazione come una forza rivoluzionaria L’ultima dimensione mitologica legata alla digitalizzazione ha a che vedere con quello che abbiamo già definito come il mito della rivoluzione digitale. La digitalizzazione, in sostanza, è stata vissuta da milioni o addirittura miliardi di persone, in molte regioni della Terra, come un’effettiva rivoluzione delle proprie pratiche comunicative e attività quotidiane. Ma, ci siamo più volte chiesti nel corso del libro, è proprio vero che la digitalizzazione abbia così profondamente «rivoluzionato» le pratiche comunicative analogiche e, più in generale, la nostra esperienza quotidiana, cancellando tutto quello che l’ha preceduta? Le continuità tra universo analogico e digitale dei media sono molteplici e multiformi e per questo è difficile difendere l’idea di una netta cesura tra l’era analogica e quella digitale. Abbiamo osservato in vari campi 30 che l’analogico non è stato spazzato via dal digitale, ma continua a convivere con esso. I vecchi formati e supporti non scompaiono, ma si affiancano ai nuovi. 31
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved