Docsity
Docsity

Prepara i tuoi esami
Prepara i tuoi esami

Studia grazie alle numerose risorse presenti su Docsity


Ottieni i punti per scaricare
Ottieni i punti per scaricare

Guadagna punti aiutando altri studenti oppure acquistali con un piano Premium


Guide e consigli
Guide e consigli

L'Audiovisione - Michel Chion, Sintesi del corso di Teoria e Analisi della Musica

Riassunto di "L'Audiovisione - Suono e Immagine nel Cinema" di Michel Chion per l'esame di Paesaggi Sonori dei Media - Musica e Immagine (Laurea Magistrale in Televisione, Cinema e New Media)

Tipologia: Sintesi del corso

2021/2022

Caricato il 07/08/2022

Ems_
Ems_ 🇮🇹

4.6

(176)

40 documenti

1 / 37

Toggle sidebar

Spesso scaricati insieme


Documenti correlati


Anteprima parziale del testo

Scarica L'Audiovisione - Michel Chion e più Sintesi del corso in PDF di Teoria e Analisi della Musica solo su Docsity! L’AUDIOVISIONE Suono e immagine nel cinema di Michel Chion PARTE PRIMA – IL CONTRATTO AUDIOVISIVO 1. PROIEZIONI DEL SUONO SULL’IMMAGINE 1.1. L’ILLUSIONE AUDIOVISIVA Il cinema, arte dell’immagine, altro non è che un’illusione audiovisiva, che si trova nel cuore della più importante tra le relazioni suono-immagine: quella del valore aggiunto. 1.2. IL VALORE AGGIUNTO: DEFINIZIONE Valore aggiunto = valore espressivo e informativo in cui un suono arricchisce un’immagine data, sino a far credere che quell’informazione o quell’espressione derivino naturalmente da ciò che si vede e siano già contenute nella semplice immagine  principio della sincresi, secondo cui si istituisce una relazione immediata e necessaria tra qualcosa che si vede e qualcosa che si sente. 1.3. IL VALORE AGGIUNTO DAL TESTO 1.3.1. Vococentrismo e verbocentrismo del cinema Vococentrismo = si favorisce la voce, la si mette in evidenzia e la si separa dagli altri suoni  durante le riprese, è la voce ad essere raccolta nella presa audio. In fase di mixaggio, è la voce ad essere isolata da suoni, musiche e rumori, che fanno da accompagnamento. Irl, è più corretto parlare di verbocentrismo, perché si tratta della voce come supporto dell’espressione verbale, garanzia di un’intellegibilità senza sforzo delle parole pronunciate. Perché il cinema è vococentrico e verbocentrico? Perché lo è anche l’essere umano nella sua quotidianità: se sente delle voci all’interno di un qualunque rumore d’insieme (musica, veicoli, vento…), sono quelle voci a catturarne e concentrarne l’attenzione  prima, cerca il senso delle parole, per poi interpretare gli altri elementi in un secondo momento. 1.3.2. Il testo struttura la visione In una trasmissione televisiva del 1984, Léon Zitrone commenta un’esibizione aerea inglese  le parole del commentatore sono dotate di una ridondanza illusoria, perché qualsiasi cosa detta avrebbe guidato e strutturato talmente bene la visione degli spettatori che le avrebbero viste naturalmente nell’immagine, e.g. “ci sono tre piccoli aerei” – focus sui tre piccoli aerei; “il cielo è blu” – focus sul colore del cielo…  il valore aggiunto del testo sull’immagine influisce sulla strutturazione stessa dell’immagine, inquadrandola rigorosamente. 1.4. IL VALORE AGGIUNTO DALLA MUSICA 1.4.1. Effetto empatico e anempatico Nel cinema, per creare una specifica emozione in rapporto alla situazione mostrata, si distingue: • Musica empatica: la musica esprime direttamente la propria partecipazione all’emozione della scena, rivestendo ritmo, tono e fraseggio adatti in funzione dei codici culturali, e.g., della tristezza, della gioia, dell’emozione e del movimento. • Musica anempatica: la musica è indifferente alla situazione, si dispiega in maniera uguale, impavida e ineluttabile. Facendo da fondo su cui si svolge la scena, raddoppia e inscrive l’emozione su uno sfondo cosmico  rinforzare l’emozione individuale dei personaggi e dello spettatore. N.B. ci sono musiche che non sono né empatiche né anempatiche e che hanno sia un senso astratto sia una semplice funzione di presenza  valore di indicatore, senza risonanza emozionale precisa. 1.4.2. Rumori anempatici L’effetto anempatico riguarda nella maggior parte dei casi la musica, ma può essere utilizzato anche con i rumori, e.g. quando in una scena molto violenta, un evento qualsiasi (ronzio di un ventilatore, getto di una doccia…) continua a svolgersi come se niente fosse. 1.5. INFLUENZE DEL SUONO SULLE PERCEZIONI DI MOVIMENTO E DI VELOCITÀ 1.5.1. Il suono è movimento Nel contratto audiovisivo, percezione sonora e visiva si influenzano a vicenda e si prestano l’una all’altra, per contaminazione e proiezione, le rispettive proprietà. Tuttavia, sono molto diverse, e.g., nel rapporto con il movimento e l’immobilità: a differenza del visivo (in un’immagine cinematografica, ci sono elementi in movimento ed altri fermi), il suono presuppone il movimento come prima condizione. N.B. il suono implica necessariamente uno spostamento minimo, un’azione  ha una dinamica temporale propria, in quanto traccia di un movimento o di un tragitto. Ci sono alcuni casi in cui il suono è immobile, perché non presenta alcuna variazione. 1.5.2. Differenza di velocità percettiva La percezione sonora e visiva hanno una propria andatura media: l’orecchio analizza, lavora e sintetizza più velocemente dell’occhio  un movimento brusco non forma una figura netta e non viene memorizzato come un tragitto preciso, mentre un tragitto sonoro disegna una forma molto più netta e definita, riconoscibile tra altre. Perché? • Per tutti quelli che ascoltano, il suono è il veicolo del linguaggio e una frase detta fa lavorare molto più in fretta l’orecchio. • L’occhio è più lento, perché deve fare di più: lavora contemporaneamente nello spazio, che esplora, e nel tempo, che segue. L’orecchio, invece, isola una linea, un punto appartenente al suo campo d’ascolto e li segue.  l’occhio è più abile spazialmente, l’orecchio è più abile temporalmente. 1.5.3. Conseguenze: movimenti visivi punteggiati o finti dal suono Nel corso dell’audiovisione di un film sonoro, le differenze di velocità nell’analisi non sono colte in quanto tali dallo spettatore, perché interviene il valore aggiunto  i movimenti visivi accumulati vengono punteggiati da rapidi suoni che marcano percettivamente determinati momenti, imprimendo nella memoria una forte traccia audiovisiva. Nel cinema muto, infatti, si cerca di semplificare al massimo l’immagine, limitando la percezione spaziale ed esplorativa per facilitare la percezione temporale  visione altamente stilizzata. Nel cinema sonoro, i movimenti rapidi e complessi all’interno di un quadro visivo ingombro di personaggi e dettagli sono resi possibili dal suono sovraimpresso all’immagine, in grado di punteggiare e staccare un tragitto visivo particolare. 1.5.4. L’intervallo temporale dell’orecchio Irl, l’orecchio ascolta per brevi spezzoni  ciò che viene percepito e memorizzato dall’orecchio consiste già in brevi sintesi tra i due e i tre secondi dell’evoluzione del suono. All’interno di questi due-tre secondi percepiti come una forma d’insieme, l’orecchio ha svolto il proprio lavoro di ricerca, fornendo un resoconto globale dell’evento, fornito periodicamente, pieno di dettagli precisi e caratteristici assunti sul posto.  l’ascolto segue l’evento da vicino, ma non gli è del tutto simultaneo. 2. I TRE ASCOLTI Esistono tre differenti disposizioni di ascolto, finalizzate a oggetti differenti: l’ascolto causale, l’ascolto semantico e l’ascolto ridotto. 2.1. PRIMA DISPOSIZIONE DI ASCOLTO: L’ASCOLTO CASUALE 2.1.1. Definizione Ascolto causale = ascolto più diffuso, che si serve del suono per informarsi, quanto più possibile, sulla sua causa che può essere: • Visibile  il suono aggiunge un’informazione supplementare, e.g. X vede un recipiente chiuso. Se picchia contro il recipiente, X capisce se sia pieno o vuoto a seconda del suono che emette. • A fortiori, invisibile  il suono è l’unica, nonché principale, fonte di informazione. Tuttavia, la causa può essere invisibile, ma identificata tramite un sapere o un calcolo logico. N.B. l’ascolto causale è anche quello più influenzabile e ingannabile. 2.1.2. Natura dell’identificazione causale L’ascolto causale avviene principalmente su due diversi livelli: • Nel primo caso, riconosciamo una causa precisa e individuale a partire dal semplice suono, al di fuori di qualsiasi contesto, e.g. la voce di una determinata persona (unica e univoca). N.B. una sorgente riconosciuta non è necessariamente nominata, e.g. X ascolta la radio e riconosce la voce della conduttrice, ma non ne conosce il nome, l’aspetto fisico, l’età…  si riconosce il timbro vocale, ma non si identifica e memorizza un’immagine visiva della causa. • Nel secondo caso, riconosciamo una causa generale, appartenente a una categoria, e.g. umana, meccanica, animale…, come la voce di un uomo adulto, il motore di uno scooter e così via. N.B. molto spesso, riconosciamo una natura di causa, e.g. “si tratta di qualcosa di meccanico” perché identificato da un certo ritmo  indizi temporali utilizzati per dedurre la natura della causa. Inoltre, è possibile seguire con precisione la storia causale del suono stesso, e.g. in uno sfregamento, ci sono cambiamenti di pressione, di velocità e di ampiezza  si riconosce lo sfregamento, anche senza sapere cosa stia sfregando contro cos’altro. 2.1.3. La sorgente è un razzo a più stadi Spesso, un suono ha almeno due o tre sorgenti, se non di più, e.g. X scrive su un foglio: le sorgenti del suono sono il pennarello, il foglio di carta, l’atto dello scrivere in sé, come X scrive (pressione sul foglio, veloce, lento…). Nel cinema, l’ascolto causale è costantemente manipolato da ogni parte dal contratto audiovisivo, in particolare dalla sincresi  nella maggior parte dei casi, non si tratta di cause iniziali dei suoni, bensì di cause che ci vengono date a intendere. 2.2. SECONDA DISPOSIZIONE DI ASCOLTO: L’ASCOLTO SEMANTICO Ascolto semantico = fa riferimento ad un codice o un linguaggio per interpretare il messaggio ed è puramente differenziale: un fonema non viene ascoltato per il suo valore acustico assoluto, ma attraverso un sistema di opposizioni e differenze, e.g. differenze di pronuncia. Ascolto causale e ascolto semantico possono esercitarsi parallelamente e indipendentemente in una stessa catena sonora  • L’ascolto causale è ciò che qualcuno dice. • L’ascolto semantico è il modo in cui lo dice. 2.3. TERZA DISPOSIZIONE DI ASCOLTO: L’ASCOLTO RIDOTTO 2.3.1. Definizione Ascolto ridotto = ascolto rivolto alle qualità e alle forme proprie del suono, indipendentemente dalla sua causa e dal suo senso  il suono stesso diventa oggetto di osservazione. L’ascolto ridotto si colloca all’interno di un’oggettività (delle percezioni condivise) che guida la percezione individuale del suono. N.B. l’ascolto ridotto implica la fissazione dei suoni, che accedono a uno statuto di veri e propri oggetti  per descrivere un suono non è sufficiente il solo atto percettivo. 2.3.2. Esigenze dell’ascolto ridotto Tutti praticano l’ascolto ridotto, inconsapevolmente, e.g. quando si individua l’altezza di una nota, carattere proprio del suono indipendente dall’identificazione della sua causa o dalla comprensione del suo senso. Tuttavia, un suono è definito anche da molti caratteri percettivi  secondo Pierre Schaeffer, è possibile formulare proposizioni descrittive sui suoni astraendole dalla loro causa. 2.3.3. A che cosa serve l’ascolto ridotto? Cinema e video impiegano i suoni esclusivamente per il loro valore figurativo, semantico o evocativo, in riferimento a cause reali o suggerite. Tuttavia, l’ascolto ridotto permette a registi, ricercatori tecnici di affinare il proprio orecchio e il proprio ascolto, in modo tale da conoscere e controllare meglio il materiale di cui si servono.  il valore affettivo, emozionale, fisico ed estetico di un suono è legato alla spiegazione causale che gli sovrapponiamo e alle qualità proprie del timbro e della tessitura alla sua vibrazione. 2.3.4. Acusmatico e ascolto ridotto Ascolto acusmatico = si sente il suono senza vederne la causa. Secondo Pierre Schaeffer, una situazione acusmatica può cambiare il nostro ascolto, attirando la nostra attenzione su caratteri sonori che la visione simultanea delle cause ci nasconde, poiché, quest’ultima, rinforza la percezione di certi elementi e ne occulta altri  l’acusmatico esaspera in partenza l’ascolto causale, portando gli ascoltatori a chiedersi: “che cos’è? Che cosa causa questo suono?” e a individuare i minimi indizi per l’identificazione della causa. L’ascolto ripetuto di uno stesso suono nell’ascolto acusmatico dei suoni fissati, invece, ci permette di staccarci gradualmente dalla sua causa e di percepirne meglio i caratteri propri. 2.4. Udire/sentire e vedere/guardare Per descrivere i fenomeni percettivi, bisogna tener presente che la percezione cosciente e attiva è una scelta in un dato più vasto, che è presente e si impone. Nel cinema: • Sguardo = esplorazione spaziale e temporale in un dato a vedere delimitato, che si mantiene nel quadro dello schermo. • Ascolto = esplorazione in un dato a udire molto meno delimitato, sotto tutti i punti di vista  è difficile escludere, selezionare o sezionare qualcosa quando si tratta del suono, perché c’è sempre qualcosa che ci sommerge e ci sorprende, anche quando ci rifiutiamo di ascoltare coscientemente. Il suono satura e cortocircuisce la percezione cosciente. 3. LINEE E PUNTI 3.1. LA QUESTIONE DELL’ORIZZONTALE E DEL VERTICALE 3.1.1. Armonia o contrappunto? Nel cinema, contrappunto = suono e immagine formano due catene parallele e liberamente legate, senza dipendenza unilaterale. Nella musica classica: • Contrappunto = quando differenti voci simultanee devono essere seguite ciascuna nel suo svolgimento orizzontale, coordinato con quello delle altre voci, ma individualizzato. • Armonia = rapporti di ciascuna nota con quelle sentite nello stesso momento che, insieme formano accordi  punto di vista verticale che regola la condotta delle voci in vista dell’ottenimento di questi accordi verticali.  supponendo un contrappunto audiovisivo, dovrebbe esserci una voce sonora percepita orizzontalmente come coordinata alla catena visiva, ma individualizzata e tracciata da se stessa. Il cinema, tuttavia, esclude la possibilità di un simile funzionamento orizzontale e contrappuntistico. Al contrario, i rapporti armonici e verticali (tra un suono dato e ciò che accade contemporaneamente nell’immagine) sono molto più pregnanti  armonia dissonante = discordanza tra un’immagine e un suono, relativamente alla loro natura figurativa, erroneamente confusa con il contrappunto. 3.1.2. La dissonanza audiovisiva Il contrappunto audiovisivo (o dissonanza audiovisiva) è quotidianamente presente in TV, soprattutto durante certi eventi sportivi in cui l’immagine segue la propria strada e il commento un’altra, e.g. telecronaca di una gara ciclistica: l’immagine mostra i ciclisti ripresi dall’elicottero, mentre il suono riprende un dialogo tra cronisti e ciclisti che non partecipano. Perché il contrappunto televisivo, però, passa così inosservato? Perché viene notato soltanto se oppone il suono e l’immagine su un punto preciso di significato  pregiudica la lettura del suono come quella dell’immagine, in quanto posta una certa interpretazione lineare del senso dei suoni, ridotta ad una pura questione di identificazione e di causa. Soljiaris (Solaris, 1972) di Andrej Tarkovskij è un esempio di contrappunto libero: dopo essersi suicidata, la fidanzata del protagonista gli riappare in carne ed ossa; consapevole della sua natura fittizia, si suicida nuovamente, ma viene resuscitata. Il regista accompagna queste immagini con suoni di vetro, che rendono in maniera inquietante il carattere fragile e artificiale della creatura e la precarietà dei corpi. 3.1.3. La predominanza dei rapporti verticali nella catena audiovisiva (la colonna audio non esiste) La colonna audio non esiste, poiché è un puro e semplice calco meccanico dell’idea di colonna immagine che, invece, esiste e deve il proprio essere e la propria unità alla presenza di un quadro, di un luogo di immagini investito dallo spettatore  • I suoni del film non formano un complesso in sé, dotato di un’unità interna, che dovrebbe confrontarsi globalmente con ciò che si chiama la colonna immagine. • Ogni elemento sonoro allaccia con gli elementi narrativi contenuti nell’immagine e con gli elementi compositivi e scenografici  rapporti verticali simultanei più diretti e forti di quelli che un elemento sonoro può allacciare con altri suoni. Suono in fuoricampo = rapporto più semplice e forte, che presuppone il confronto del suono con l’immagine, che lo determina come fuori campo, pur facendolo risuonare sulla propria superficie  il suono fuori campo viene mantenuto separato dagli altri suoni grazie all’esclusione visiva delle loro sorgenti. Eliminando l’immagine, il suono fuori campo si confonde in mezzo a tutti gli altri. • Tema di Gypo: neutro dal punto di vista espressivo, energico e marcato con accenti della musica popolare irlandese. • Tema di Katie: espressivo e legato. • Tema del cieco (personaggio simbolico): formula lamentosa, che esprime vaghezza e informità. I temi si succedono nell’orchestra in rapporto con le apparizioni dei personaggi, subendo trasformazioni che riflettono le variazioni della loro esteriorità e della loro interiorità. Spesso, fanno apparire l’inconscio del personaggio, enunciando ciò che egli ignora di se stesso. Inoltre, si può notare una certa insistenza sui silenzi e una certa estetica del frammezzato: quando la musica si ferma e una parola si inserisce nell’interruzione. La chiave stilistica di The Informer è una volontà di stilizzazione e di espressione simbolica, che mira a rievocare lo spirito del muto  la punteggiatura di certi gesti e di certe battute vuole eliminarne il carattere puramente realistico e momentaneo per renderli elementi significanti di una messa in scena globale. N.B. questi interventi musicali acquisiscono un andamento imitativo, perché sono puntuali e sincroni. Tuttavia, la grande particolarità di questo film risiede nel modo in cui la musica si interrompe: non si eclissa attraverso una porta, ma si interrompe bruscamente di punto in bianco, creando un silenzio in cui la battuta successiva risuona in modo differente  il cinema cercherà di evitare questo effetto di staffetta esplicita e di punteggiatura evidente, preferendo un tipo di esistenza più fluida e più mescolata, più costante e indistinta. 3.3.4. Utilizzazione degli elementi di sfondo sonoro come punteggiatura Elementi di sfondo sonoro (E.S.S.) = suoni di una sorgente più o meno puntuale e di comparsa più o meno intermittente, che contribuiscono a popolare e a creare lo spazio di un film con piccoli tocchi distinti e localizzati, e.g. cane che abbaia in lontananza, squillo del telefono proveniente dall’ufficio accanto… Gli E.S.S. definiscono uno spazio e hanno un ruolo narrativo, ponendo o ricordando il quadro dell’azione e le sue dimensioni, e una funzione di punteggiatura. 3.3.5. Convergenze/divergenze: l’anticipazione Dal punto di vista orizzontale, suoni e immagini hanno delle tendenze, indicano delle direzioni, hanno delle leggi di evoluzione e di ripetizione che creano un senso di attesa, di speranza, di saturazione da spezzare o un vuoto da riempire  la musica ha la propria curva, che lascia attendere una cadenza, e l’anticipazione di questa cadenza sottende la percezione dell’ascoltatore. Allo stesso modo, un movimento di macchina, un ritmo sonoro o l’evoluzione di uno degli attori attivano nello spettatore un movimento di anticipazione, la cui prosecuzione confermerà o sorprenderà le attese. In Lettre à Freddy Buache (Lettera a Freddy Buache, 1982) di Jean-Luc Godard: • La musica è una vasta curva melodica, che prepara ma differisce in continuazione la sua cadenza. • Il testo letto dal regista cerca le proprie parole con un piacere maligno, facendole attendere. • Nell’immagine, continue panoramiche lasciano fantasticare una qualche fantomatica rivelazione al fondo dei tragitti che percorrono in paesaggi urbani o bucolici. In una catena audiovisiva, l’audiospettatore individua coscientemente o inconsciamente delle direzioni di evoluzione e verifica in seguito se questa evoluzione innescata si realizzi come previsto  è il movimento stesso del desiderio. 3.3.6. Separare: il silenzio Secondo Robert Bresson, il cinema sonoro ha introdotto il silenzio  sono necessari dei rumori e delle voci per far sì che le loro interruzioni scavino il silenzio. Nel cinema muto, al contrario, tutto suggerisce il suono. N.B. non basta interrompere il flusso sonoro e inserire al suo posto qualche centimetro di nastro vergine. Altrimenti? Risulta l’effetto di un’interruzione tecnica. Ogni luogo ha un suo silenzio specifico, motivo per cui durante le riprese audio in esterno, in studio, in auditorium… si registrano alcuni secondi dello specifico silenzio del luogo da utilizzare per eventuali raccordi tra battute e creare l’impressione che il quadro dell’azione sia temporaneamente silenzioso. L’impressione del silenzio, quindi, non è il semplice effetto di un’assenza di suono: il silenzio non è mai un vuoto neutro, ma il negativo di un suono che si è sentito prima o che si immagina. Un altro modo di esprimere il silenzio consiste nel far sentire dei rumori, normalmente associati all’idea di calma, perché non attirano l’attenzione dello spettatore, non sono udibili se non quando tutti gli altri si sono spenti, e.g.: • In Alien (1979) di Ridley Scott, il regista crea l’impressione di un silenzio inquietante e annunciatore di sciagure, rendendo i piani immediatamente precedenti pieni di eventi sonori. Preparano il vuoto che seguirà, senza far cadere il silenzio troppo bruscamente. • In Ansiktemot ansikte (L’immagine allo specchio, 1976) di Ingmar Bergman, la protagonista, in pieno periodo di depressione, si corica per la notte. Istantaneamente, il rumore della sveglia, che si vede sul comodino, fino a quel momento impercettibile, prende a crescere e diventa fortissimo  impressione angosciante del silenzio, valorizzata dall’assenza di altri rumori. Il suono fa risaltare tale assenza in modo spaventoso. Altri rumori utilizzati nel cinema come sinonimo del silenzio sono, e.g., versi di animali in lontananza, pendole degli appartamenti attigui, sfioramenti e rumori molto ravvicinati. Anche un tocco di lieve riverbero intorno a suoni isolati, e.g. passi in strada, può rinforzare questa sensazione di vuoto e di silenzio. 3.4. IL PUNTO DI SINCRONIZZAZIONE, LA SINCRESI 3.4.1. Definizione Punto di sincronizzazione = momento saliente di incontro sincrono tra un momento sonoro e un momento visivo  punto in cui l’effetto di sincresi è più accentuato. Talvolta, emerge con maggiore evidenza all’interno di una sequenza: • In quanto doppia cesura inattesa e sincrona nel flusso audiovisivo, e.g. raccordi a stacco del suono e dell’immagine. • In quanto punteggiatura preparata a cui giungono le strade, dapprima separate, del suono e dell’immagine  punti di sincronizzazione di convergenza. • Per il suo carattere fisico, e.g. quando il punto di sincronizzazione cade su un primo piano che crea un effetto di fortissimo visivo o quando il suono stesso ha più volume sonoro degli altri. • Per il suo carattere affettivo e semantico, e.g. una parola in un dialogo, che ha un certo senso e viene detta in un certo modo  punto di sincronizzazione importante per l’immagine. Un punto di sincronizzazione può essere l’incontro di elementi di natura estremamente variabile, e.g. in Lettre à Freddy Buache (Lettera a Freddy Buache, 1982) di Jean-Luc Godard, ci sono diverse giustapposizioni tra tagli di piano nell’immagine e parti terminali di frase nella voce a costruire i principali punti di sincronizzazione su cui si fonda l’intera architettura. N.B. i punti di sincronizzazione hanno sempre un senso in rapporto al contenuto della scena e alla dinamica generale del film. Danno alla catena audiovisiva il suo fraseggio. 3.4.2. Punto di sincronizzazione evitato Nella musica occidentale, esistono le cadenze evitate = cadenze che si fa in modo, tramite l’inflessione melodica e la progressione armonica, di anticipare prima di eluderle all’improvviso  nella catena audiovisiva, i punti di sincronizzazione evitati sono, talvolta, più efficaci di quelli che realmente si realizzano, perché la loro fabbricazione viene demandata alla mente dell’audiospettatore, e.g.: • The Asphalt Jungle (Giungla d’asfalto, 1950) di John Huston: nella scena del suicidio di un notabile corrotto, lo spettatore lo vede chiudersi nel suo ufficio, aprire un cassetto, trarne la pistola che vi si trova dentro e… giunge solamente la detonazione dello sparo, perché la mdp trasporta lo spettatore fuori dalla stanza. • Je vous salue Marie (1984) di Jean-Luc Godard: il regista semina fin dall’inizio dei punti di sincronizzazione evitati, quando ci fa sentire rumori ripetuti di un oggetto che cade in un liquido, mentre nell’immagine vediamo soltanto la superficie di un lago agitata dalle onde prodotte dalla caduta  il luogo dell’impatto e l’oggetto caduto rimangono fuori campo. Nel suono, si sente la causa, mentre le conseguenze appaiono nell’immagine. Inoltre, nella testa dello spettatore c’è un punto di sincronizzazione tanto più efficace in quanto viene postulato ma non realizzato (se fosse realizzato, si sentirebbe e si vedrebbe ciò che cade)  l’oggetto in questione può essere tutto ciò che si vuole. 3.4.3. Il colpo, simbolo del punto di sincronizzazione Irl, un pugno non fa necessariamente rumore. In un’audioimmagine cinematografica o televisiva, il rumore d’impatto è pressoché obbligatorio: l’incontro puntuale ed istantaneo tra un suono e un impatto visibile diventa la rappresentazione più diretta ed immediata del punto di sincronizzazione audiovisivo, in quanto riferimento, punteggiatura, “punto di spessore”  colpo = • Istante intorno a cui si struttura il tempo del racconto. • Punto verso cui tutto converge e a partire da cui tutto si diffonde. • Espressione privilegiata dell’istantaneità. N.B. a differenza dell’immagine, un suono, seppur estremamente breve, ha il privilegio di fissare direttamente la propria forma e il proprio timbro nella coscienza  suono = timbro che marca l’immagine con il sigillo dell’istantaneità. Ciò che si sente è ciò che non si ha avuto il tempo di vedere. 3.4.4. Punti di sincronizzazione accentuati ed elasticità temporale In tutti i film d’azione e di arti marziali, i disegni animati giapponesi hanno la caratteristica di aggiungere qualcosa in più, in virtù della loro animazione rudimentale, e.g. analisi del movimento, uso del rallentatore e stilizzazione radicale del tempo  diversi procedimenti che si ispirano ai rallentatori e ai fermo immagine delle trasmissioni sportive, ma anche direttamente ai fumetti giapponesi (manga). In questi casi, il punto di sincronizzazione costituito dal colpo permette che attorno ad esso il tempo si espanda, si gonfi, si increspi, si tenda, si stiri o si lasci andare come un tessuto  capacità elastica temporale potenzialmente infinita. Nel linguaggio audiovisivo, il pugno sonorizzato è il pretesto di ciò che la musica chiama “accordo”, appartenente alla dimensione verticale, e.g. in Raging Bull (Toro scatenato, 1980) di Martin Scorsese, il regista si serve dei colpi sonorizzati per dare agli incontri di boxe la massima elasticità temporale: rallentatori, immagini ripetute o isolate… N.B. questa elasticità temporale nasce come caratteristica propria del cinema muto, poiché non doveva essere doppiato punto per punto da un suono sincrono  possibilità di dilatare e stringere facilmente il tempo. Nel cinema sonoro, invece, questa elasticità comincia ad essere eliminata dal parlato. Tuttavia, viene reintrodotta in un contesto realistico con le sequenze d’azione e di combattimento  scene a forti punti di sincronizzazione, in cui colpi, collisioni ed esplosioni sono dei riferimenti e degli incontri. 3.4.5. La molla della sincronizzazione: la sincresi Sincresi (sincronismo + sintesi) = saldatura inevitabile e spontanea che si produce tra un fenomeno sonoro e un fenomeno visivo puntuale quando questi accadono contemporaneamente, indipendentemente da ogni logica razionale  gli oggetti da cui si ritiene provenga il suono, e.g. rumore di passi: il personaggio attraversa lo schermo camminando  il suono dei suoi passi sembra seguire la sua immagine, nonostante nello spazio fisico della sala questi escano sempre dallo stesso altoparlante fisso. Allo stesso modo, se il personaggio è fuori campo, anche i passi saranno percepiti come fuori campo, un fuori campo più mentale che fisico, ma sicuramente non provengono dallo schermo. Nelle proiezioni, un altoparlante può essere: • Posizionato dietro lo schermo. • Sistemato in altri punti della sala  proiezione con equipaggiamento portatile. • Sistemato in un luogo all’aperto  drive-in. • Giunto alle nostre orecchie tramite delle cuffie  proiezione cinematografica in aereo. Non per questo, i suoni non vengono percepiti come provenienti dallo schermo, a dispetto dell’evidenza dei nostri sensi, che potrebbero stabilire facilmente che, irl, provengono da un altro luogo.  nel cinema, c’è una calamitazione spaziale del suono tramite l’immagine: un suono percepito come fuori campo o localizzato sulla destra dello schermo è tale soprattutto mentalmente, almeno nei casi delle proiezioni monopista. Nei primi anni del suono multipista, in cui il suono è realmente situato sulla destra/sinistra dello schermo, ci si scontra con questa spazializzazione mentale: per far provenire realmente i suoni dai punti in cui apparivano le loro sorgenti, si sarebbe dovuto installare dietro e intorno agli schermi dei veri e propri alveari di altoparlanti per tacere dei problemi di raccordi sonori che ne sarebbero derivati. Con l’attuale manipolazione del Dolby e i missaggi multipista, si realizzano dei compromessi tra localizzazione mentale e localizzazione reale. N.B. il suono proveniente da un luogo altro dallo schermo è calamitabile da quest’ultimo soltanto se conserva esso stesso una certa fissità spaziale  se si sposta costantemente da un altoparlante all’altro, sarà più difficile per l’immagine attrarlo a sé e conserverà una forza centrifuga che gli permetterà di resistere all’attrazione visiva. Profondità = • Allontanamento dalla sorgente. • Carattere affievolito e meno presente degli attacchi e dei transitori. • Mescolanza tra suono diretto e indiretto. • Presenza del riverbero. Distanza interpretata dallo spettatore in diverse direzioni, a seconda di ciò che vede sullo schermo e di ciò che ritiene sulla collocazione della sorgente  un suono può essere, secondo i momenti, interpretato come lontano a sinistra del quadro, lontano a destra, in avanti, all’indietro…, sempre secondo una localizzazione che resta parzialmente mentale, dettata più da ciò che si vede che da ciò che si sente. 4.3. L’ACUSMATICO 4.3.1. Definizione Acusmatico = • Che si sente senza vedere la causa originaria del suono. • Che fa sentire dei suoni senza la visione delle loro cause. Radio, disco, telefono… trasmettono suoni senza mostrare il loro emittente  media acusmatici. Musica acusmatica = musica concertistica realizzata e ascoltata su supporti di registrazione in assenza, volontaria, delle cause iniziali dei suoni e della loro visione. 4.3.2. Visualizzato/acusmatico Ascolto visualizzato = accompagnato dalla visione della causa/sorgente  contrario di acusmatico. In un film, un suono può compiere due tipi di percorso: • Viene prima visualizzato e poi acusmatizzato: si associa immediatamente il suono a un’immagine precisa, che potrà riemergere più o meno netta nella testa dello spettatore ogni volta che quel suono verrà inserito come acusmatico, e.g. in Un condamné à mort s’est échappé (Un condannato a morte è fuggito, 1956) di Robert Bresson, il campanello del tram. • Viene prima acusmatizzato e poi visualizzato: mantiene a lungo il segreto sulla causa e sull’aspetto prima di rivelarlo, generando suspense e attesa. Costituisce un procedimento drammaturgico puro, analogo all’entrata in scena annunciata e differita, e.g. in M (Il mostro di Düsseldorf, 1931) di Fritz Lang, si nasconde il più possibile l’aspetto e l’identità dell’infanticida, di cui si sente esclusivamente la voce e l’ansimare maniacale. Un suono o una voce acusmatici creano mistero sull’aspetto della loro sorgente e sulla natura stessa, le proprietà, i poteri della sorgente, a causa del debole potere narrativo e informativo del suono sulla sua causa. N.B. è abbastanza frequente che certi personaggi dall’aura malefica, importante o impressionante, siano introdotti dal suono prima di essere gettati in pasto alla visione e deacusmatizzati. Sull’opposizione visualizzato/acusmatico riposa la nozione fondamentale nella scrittura audiovisiva del fuori campo. 4.4. LA QUESTIONE DEL FUORI CAMPO 4.4.1. Fuori campo, “in” e “off”: il tricerchio Suono fuori campo = suono acusmatico rispetto a ciò che viene mostrato nel piano  ciò la cui sorgente è invisibile a un dato momento, temporaneamente o definitivamente. Suono in = suono la cui sorgente appare nell’immagine e appartiene alla realtà che questa evoca. Suono off = suono la cui “supposta” sorgente è assente dall’immagine e non-diegetica  situata in un altro tempo e in un altro luogo rispetto alla situazione direttamente evocata, e.g. voci di commento o di narrazione (voice over) o musica. 4.4.2. Le eccezioni distruggono la regola? Negli ultimi anni, la distinzione in-fuori campo-off viene denunciata come obsoleta e riduttiva e criticata in nome delle eccezioni e dei casi particolari di cui essa sembra non rendere conto, e.g.: • Dove collocare i suoni e le voci emessi da apparecchi elettrici collocati nell’azione, che l’immagine può implicare o far apparire? • Che fare nel caso in cui un personaggio presente in scena parla dando la schiena alla mdp? • Cosa dire delle “voci interiori” di un personaggio visibile nell’immagine? In Look Who’s Talking (Senti chi parla, 1989) di Amy Heckerling, la voce di un adulto accompagna le espressioni facciali di un neonato, esplicitando ciò che egli cerca di dire prima di esserne in grado  la voce è legata al presente dell’azione, ma è non-visualizzabile e non sembra rientrare nel tricerchio precedentemente citato, poiché è legata all’immagine tramite una sincronizzazione vaga e larga. • Dove collocare i suoni d’ambiente, e.g. canto d’uccelli o rumore del vento? 4.4.3. Un punto di vista topologico e spaziale Si vede necessario aggiungere nuove categorie che, tuttavia, non pretendono di esaurire tutti i casi, ma permettono di riconoscere e isolare nuove regioni  superare la logica binaria del o tutto o nulla, che non tiene in considerazione i diversi punti intermedi e le regioni ambigue tra una zona e l’altra. 4.4.4. Il suono d’ambiente (suono-territorio) Suono d’ambiente (o suono-territorio) = suono inglobante che avvolge una scena e abita il suo spazio senza sollevare la questione ossessionante della localizzazione e della visualizzazione della sua sorgente, e.g. uccelli che cantano o campane che rintoccano. Marcano un luogo, uno spazio particolare. 4.4.5. Il suono interno Suono interno = pur essendo situato nel presente dell’azione, corrisponde all’interno tanto fisico che mentale di un personaggio  • Suoni interni oggettivi, e.g. suoni fisiologici di respirazione, rantoli o battiti cardiaci. • Suoni interni soggettivi (o interni mentali), e.g. voci mentali, ricordi, riflessioni… In Look Who’s Talking (Senti chi parla, 1989) di Amy Heckerling, si ha una voce interna parzialmente legata a un’esteriorizzazione gestuale  non viene sentita dagli altri e riporta ciò che può pensare il neonato con la voce dell’adulto che diventerà. 4.4.6. Il suono “on the air” Suono in onda (o on the air) = suono presente in una scena, ma trasmesso elettricamente per radio, telefono, amplificazione, che sfugge alle leggi meccaniche “naturali” di propagazione del suono, tanto da acquistare uno status particolare e autonomo  • Viene fatto sentire allo spettatore a pieno quadro, chiaro e netto, come se l’altoparlante del film fosse direttamente collegato con la sorgente evocata nell’azione. • Viene localizzato nella scenografia tramite tratti acustici che producono un effetto di distanziazione, di riverbero e di colorazione da altoparlante. Un caso particolare di suono on air è quello della musica trasmessa o registrata: a seconda del peso particolare dato alla registrazione (mixaggio, regolazione dei livelli, uso di filtri, condizione di registrazione della musica…) sia: • Sulla sorgente iniziale del suono (realtà degli strumenti che suonano/voci che cantano) • Sulla sorgente terminale del suono (l’altoparlante presente nell’azione viene fatto sentire materialmente tramite l’uso di filtri, interferenze, risonanze…) Il suono della musica on air attraversa le zone in-off-fuori campo, posizionandosi, per lo spettatore, come musica da schermo o come musica da buca. Lo stesso problema si ritrova per i dialoghi presentati nella diegesi sotto forma di registrazione: rimandano al momento della loro produzione o a quello del loro ascolto? • Da un lato, la qualità tecnica, diretta ed immediata, presente al suo ascolto mira a rimandare lo spettatore al momento dell’incisione. • Dall’altro lato, il “colore” particolare del materiale su cui il suono viene sentito e l’acustica del luogo di audizione sono fortemente sottolineati, riportando lo spettatore al luogo in cui viene sentita la registrazione. In The Passenger (Professione reporter, 1975), Michelangelo Antonioni fa oscillare lo spettatore da una posizione all’altra: il protagonista ascolta la registrazione di una conversazione avuta con un uomo incontrato per caso  il regista introduce il flashback: l’intervista ascoltata dal protagonista si attualizza e introduce la scena in cui ha avuto luogo il colloquio. In questo modo, il tricerchio si arricchisce ed illustra le differenti dimensioni e opposizioni poste in gioco, da considerare in ogni caso zone legate le une alle altre  distinzione tra: • Acusmatico e visualizzato. 4.7. L’ESTENSIONE 4.7.1. Modulazione del campo e del fuori campo visivo da parte del suono Il suono può creare un fuori campo ad estensione variabile, e.g. piani fissi di Persona (1966) di Ingmar Bergman  • Si può iniziare la sequenza con un suono molto ravvicinato, facendo intervenire poi altri suoni, indizi di uno spazio più vasto  dilatare all’infinito il fuori campo immaginato e suscitato dal suono. • Si può conservare un ricordo del vasto spazio evocato all’inizio  restringere il fuori campo. 4.7.2. Le variazioni dell’estensione Estensione dell’ambiente sonoro = spazio concreto più o meno largo e aperto che i suoni evocano e fanno sentire intorno al campo e all’interno del campo, intorno ai personaggi  • Estensione nulla: l’universo sonoro è limitato ai rumori sentiti da un dato personaggio e soltanto da lui, e.g. voce interiore. • Estensione vasta: quando una scena si svolge, e.g. in un appartamento, si sentono i rumori dell’appartamento, i suoni del pianerottolo, circolazione della via vicina, sirena in lontananza… L’estensione dell’ambiente non ha limiti reali. Il suono Dolby stereo moltiplica le possibilità di sovrapporre e dispiegare suoni in spazi concentrici larghi, incoraggiando il gioco dell’estensione, e.g. in Rear Window (La finestra sul cortile, 1954) di Alfred Hitchcock, tutto viene visto da un appartamento di Greenwich Village (NYC)  variare l’estensione a seconda dei momenti, facendo risuonare i rumori della città e del porto intorno al cortile oppure riportando lo spettatore nell’appartamento, sopprimendo i rumori del traffico. Al contrario, in M (Il mostro di Düsseldorf, 1931) di Fritz Lang, l’estensione è piuttosto limitata: lo spettatore sente solamente ciò che dicono i personaggi già presenti in scena e mai i rumori d’ambiente esterni al quadro della scena. 4.8. IL PUNTO D’ASCOLTO 4.8.1. Punto d’ascolto in senso spaziale e in senso soggettivo Il concetto di punto d’ascolto viene modellato su quello di punto di vista che, nel cinema, può avere una: • Accezione spaziale: da dove vede lo spettatore, e.g. scena ripresa dall’alto, dal basso, dal soffitto, dall’interno di un frigorifero…  possibilità di dedurre più o meno precisamente la collocazione di un “occhio” a partire dalla composizione dell’immagine e della sua prospettiva. • Accezione soggettiva: quale personaggio si ritiene veda ciò che lo spettatore vede  può essere anche un puro effetto di montaggio. N.B. nella maggior parte dei piani di un film normale, il punto di vista della mdp non è quello di un personaggio particolare. Anche il piano d’ascolto può avere un: • Senso spaziale: da dove si sente, da quale punto dello spazio figurato sullo schermo o nel suono? La natura specifica dell’uditivo non permette, di fronte a un suono, di dedurne un luogo d’ascolto spazialmente privilegiato a causa dell’omnidirezionalità del suono (si propaga in diverse direzioni) e dall’ascolto (capta circolarmente i suoni)  è meglio parlare di luogo o area d’ascolto. • Senso soggettivo: quale personaggio, a un dato momento dell’azione, si ritiene che senta in particolare ciò che sente lo spettatore? Per associare simultaneamente la rappresentazione visiva in primo piano di personaggio all’ascolto di un suono, bisogna situare tale suono come sentito dal personaggio in campo  l’immagine crea il punto d’ascolto. 4.8.4. Voce di faccia e voce di schiena In certi casi, è possibile attribuire all’ascolto una direzione: gli acuti di un suono si propagano in modo più direzionale dei bassi  quando qualcuno ci parla volgendoci la schiena, percepiamo meno gli armonici acuti della sua voce, che sembra meno presente  voce di faccia ≠ voce di schiena. Quando lo spettatore sente una voce di schiena, non ne deduce automaticamente il punto d’ascolto, perché: • Questo effetto è sfuggente, non è abbastanza stabile e pronunciato. • Il punto d’ascolto non è associato alla rappresentazione di un microfono. 4.8.5. Scotomizzazione del microfono-orecchio A differenza della mdp, che non cessa di essere un personaggio attivo del film, di cui lo spettatore è cosciente, il microfono deve restare escluso dal campo visivo e sonoro e dalla rappresentazione mentale dello spettatore. 5. IL REALE E LA RESA 5.1. L’ILLUSIONE UNITARIA Illusione unitaria = il suono delle riprese è scremato di determinate sostanze o arricchito di altre  anche in presa diretta, i suoni registrati durante le riprese vengono arricchiti in un secondo tempo con l’aggiunta di altri suoni di sonorizzazione o di ambiente. Allo stesso modo, ci sono rumori che vengono eliminati durante le riprese attraverso la posizione e la direzionalità del microfono, le precauzioni di insonorizzazione… 5.2 PROBLEMATICA DELLA RIPRODUZIONE SONORA 5.2.1. Definizione e fedeltà Definizione di una registrazione sonora = finezza e precisione nella resa dei dettagli. È funzione della larghezza della sua banda di frequenza (dall’estremo basso all’estremo acuto) e della sua ricchezza di dinamica (ampiezza dei contrasti tra i livelli più deboli e più forti)  infinità di dettagli e di nuove informazioni che contribuiscono ad un effetto di presenza e di realismo. Definizione ≠ fedeltà. Nell’ascolto sonoro “naturale”, i suoni hanno molte frequenze acute, che le registrazioni hi-fi captano e riproducono al meglio. Tuttavia, una riproduzione sonora ci fornisce più acuti di quanti una situazione reale farebbe sentire  effetto di iperrealismo. N.B. un suono più definito, contenente più informazioni, è maggiormente in grado di comportare indizi materializzanti. Inoltre, favorisce un ascolto più vivo, rapido e pronto tramite il susseguirsi delle frequenze acute e dei fenomeni agili che si trovano in quelle zone. 5.2.2 Isolamento e separazione dei valori sonori (esempio: la concezione acustica del suono THX) Sistema THX = sistema creato da George Lucas, presente nelle moderne sale cinematografiche. Il suono è stabile, estremamente definito negli acuti, potente nel volume, contrastato nella dinamica e che presenta pochissimo riverbero, combattuto con la scelta dei materiali e la concezione architettonica della sala  suono neutro e presente. Due caratteristiche principali: • Il suono grave è privo di qualunque distorsione o effetto secondario. In natura, i suoni gravi provocano inevitabilmente vibrazioni in piccoli oggetti come conseguenza acustica  isolare e controllare le componenti sonore. • Non c’è traccia di riverbero che, normalmente, accompagna e contamina i suoni potenti emessi in uno spazio chiuso. 5.2.3. La questione della fonogenia: la mediazione tecnica Fonogenia = criterio in voga tra gli anni Venti e gli anni Quaranta. Capacità più o meno misteriosa che permette a certe voci di “passare” meglio nella registrazione e negli altoparlanti, di incidersi meglio nei solchi  supplire all’assenza della sorgente reale del suono con un tipo di presenza propria del mezzo di conservazione e diffusione. I criteri fonogenici venivano modellati su quelli fotogenici. Oggi, la fonogenia è scomparsa. Perché? • Immersione comune e quotidiana nella realtà acustica mediata, che soppianta facilmente in potenza, in presenza e in impatto la realtà acustica non mediata, diventando il modo di ascolto medio  viene percepita come un contatto più diretto e immediato con l’evento. • Il modo di parlare di ciascuno è più influenzato da voci trasmesse (TV, radio, cinema) più che da voci non trasmesse  diventa difficile paragonare una voce naturale e una voce mediata: la prima è prodotta e sentita tramite una comparazione inconscia della seconda, più pregnante. 6. L’AUDIOVISIONE VUOTA 6.1. AL DI LÀ DELL’IMMAGINE Spesso, nei film di Tarkovskij il suono richiama un’altra dimensione, è svincolato dal presente  è ovattato, diffuso, al limite del silenzio, orizzonte opprimente della nostra vita; rumori di presenza, scricchiolii, sgocciolii d’acqua… In Les vacances de M. Hulot (Le vacanze di monsieur Hulot, 1953) di Jacques Tati, il visibile trova il suo esatto contrario nell’ambiente sonoro in cui è immerso, e.g. turisti goffi, preoccupati e dalle movenze meschine – ambiente sonoro di giochi, grida e bambini scatenati, colore riverberato che sembra essere registrato nel corso di un vero bagno. In questi casi, ci si trova davanti a un effetto di svuotamento della forma audiovisiva, in cui le percezioni si dividono l’una con l’altra invece di moltiplicarsi  emerge un’altra forma di realtà e di combinazione. 6.2. UN CORPO VUOTO: L’UOMO INVISIBILE In The Invisibile Man (L’uomo invisibile, 1933) di James Whale, il protagonista, Jack Griffin, è uno scienziato divenuto invisibile in seguito ad un esperimento. Il parlato dona al personaggio tutt’altra dimensione e tutt’altra presenza, facendolo esistere mediante la sua voce  il corpo di Griffin non è invisibile soltanto per il fatto di essere fuori campo o nascosto da un sipario, ma è ritenuto essere nell’immagine, anche e soprattutto quando non lo si vede, e.g. in una sequenza, la mdp accompagna con una panoramica verticale la salita di una grande scalinata vuota: questo movimento è finalizzato a far sapere allo spettatore che il personaggio sta salendo. 6.3. L’ACUSMETRO 6.3.1. Definizione Acusmetro = personaggio acusmatico, la cui posizione rispetto allo schermo è ambigua e oscilla tra il dentro e il fuori dell’immagine  • Non è dentro, perché l’immagine della sua sorgente, e.g. corpo o bocca, non è inclusa. • Non è fuori, perché non è situato indipendentemente off, e.g. narratore, ed è implicato nell’azione. Ad esempio, si tratta di personaggi nascosti dietro una tenda, in una stanza o in un nascondiglio. 6.3.2. Poteri dell’acusmetro Tre poteri: • Onniveggenza: parlando sulle immagini, l’acusmetro vede tutto ciò che compare in esse, è la voce stessa di ciò che viene chiamata identificazione primaria della mdp. • Onniscienza: forma derivata di onniveggenza. • Onnipotenza: l’acusmetro può agire sulla situazione, è il potere stesso della parola-testo, legato all’idea di magia, quando le parole che si dicono hanno il potere di diventare cose. Oltre a questi, l’acusmetro è dotato anche dell’ubiquità, che gli permette di trovarsi ovunque gli piaccia. Acusmetri paradossali = acusmetri a cui sono deliberatamente negati dei poteri abituali, e.g. non vedono o non comprendono tutto delle immagini di cui parlano. 6.3.3. La deacusmatizzazione Deacusmatizzazione = quando il volto da cui proviene la voce viene rivelato  la voce si trova, per sincronismo, attribuita ad un corpo in cui è confinata e rinchiusa. La voce viene umanizzata. Generalmente, la deacusmatizzazione di un personaggio corrisponde alla sua caduta in un destino umano, normale e vulnerabile  è una sorta di messa-in-corpo. 6.4. LA SOSPENSIONE Effetto di sospensione = utilizzazione estrema e caratteristica, a contrario, dell’estensione. Un suono naturalmente implicato dalla situazione, e in generale sentito in precedenza, viene insidiosamente o improvvisamente soppresso, creando un’impressione di vuoto e di mistero nello spettatore. Nel capitolo La tormenta del film Sogni (1990) di Akira Kurosawa, la sospensione viene sottolineata e messa in evidenza: il frastuono del vento svanisce e i fiocchi di neve continuano ad agitarsi nel silenzio dell’immagine  si crea un effetto di rumore vuoto: la percezione si riempie di un suono globale, massiccio e mentalmente associato a quel formicolio visivo. Eliminare il suono della tempesta porta lo spettatore a investire l’immagine, considerandola con uno sguardo più spaziale. N.B. spesso, la sospensione riguarda un elemento dell’ambiente sonoro della scena ed è finalizzata a privilegiare un momento della scena e a dare a essa un andamento impressionante, inquietante e magico, e.g. • In Le notti di Cabiria (1957) di Federico Fellini, due personaggi stanno passeggiando al tramonto come una coppia di innamorati  perché lo spettatore prova un’angoscia immotivata? Perché in questo paesaggio meraviglioso, non risuona neppure il canto d’uccello, annunciando ciò che sta per accadere: l’uomo mira ai soldi della protagonista, progettando di gettarla in mare. In questo caso, la sospensione si basa su una relazione audiovisiva talmente normale (bosco soleggiato = uccelli) che la sua rottura genera stranezza. • In Rear Window (La finestra sul cortile, 1954) di Alfred Hitchcock, i passi dell’assassino risuonano in modo diverso nel silenzio che si è creato  tutta la città e il cortile del palazzo sembrano trattenere il respiro intorno all’evento. 6.5. VISIVI DELL’ORECCHIO, UDITIVI DELL’OCCHIO 6.5.1. Un visivo che lascia tracce sonore Sin da The Duellists (I duellanti, 1977), Ridley Scott muove la luce, la fa vibrare, mormorare e sfarfallare con ogni pretesto, e.g.: • Facendo spazzare in continuazione l’interno di un appartamento del futuro dai fari di veicoli volanti, come in Blade Runner (1982). • Tramite macchie di luce mobili e cangianti in un sottobosco in cui il vento muove le foglie, come in Legend (1985). • Tramite celebri fumi newyorkesi, che sprizzano da un sottosuolo infernale perennemente sotto pressione, creando alle spalle dei personaggi un alone bianco, come in Someone to Watch Over Me (Chi protegge il testimone, 1987).  questa volubilità visiva diventa una trasposizione della velocità sonora. Una certa rapidità dell’immagine si rivolge all’orecchio che si trova nell’occhio, per essere convertita nella memoria in impressioni sonore. 6.5.2. I visivi dell’orecchio Jean-Luc Godard ama montare i suoni come se si trattasse di piani e cut, facendo risuonare tali suoni, voci e rumori in uno spazio riverberato e concreto, e.g. una classe in Bande à part (Banda a parte, 1964); un bistrò in Masculin fémenin (Il maschio e la femmina, 1966); La Chinoise (La cinese, 1967); una camera d’ospedale in Prénom Carmen (1983)…  i suoni riverberati e prolungati lasciano nel ricordo dello spettatore una traccia visiva. Un condamné à mort s'est échappé (Un condannato a morte è fuggito, 1956) di Robert Bresson viene ricordato come un film pieno di immense panoramiche, quando, irl, il quadro è sempre rigorosamente stretto: porta della cella, gradino della scala, porta sul pianerottolo…  è il suono a imprimere nella memoria dello spettatore questa tipologia di immagini. 6.5.3. Temporale = sonoro e spaziale = immagine? Tutto ciò che in un film è spaziale, tanto a livello dell’immagine quanto a livello del sonoro, finisce per codificarsi in un’impressione visiva. Tutto ciò che in un film è temporale si codifica in un’impressione sonora, passando per l’occhio. 6.6. LA TRANS-SENSORIALITÀ: ESEMPIO DEL RITMO Quando un fenomeno ritmico giunge allo spettatore attraverso una via sensoriale (occhio o orecchio), è soltanto il canale attraverso cui giunge il ritmo  dopo essere entrato nell’orecchio/occhio, il fenomeno colpisce un’area cerebrale connessa con le aree motorie, essendo decodificato ritmicamente. N.B. l’occhio porta informazioni e sensazioni di cui solo alcune possono essere considerate come specificamente e irriducibilmente visive, e.g. il colore  fenomeno della transensorialità (o metasensorialità), secondo cui non esiste alcun dato sensoriale delimitato e isolato in partenza  i sensi sono canali e vie di comunicazione. A questo fenomeno, si contrappone quello di intersensorialità, secondo cui ciascun senso esiste in sé, ma presenta dei punti di mutuo incontro e congiunzione con gli altri. 8. TELEVISIONE, CLIP, VIDEO 8.1. LA TELEVISIONE: UN’IMMAGINE IN PIÙ Televisione = radio illustrata, il suono è sempre primario, non è mai fuori campo e non ha bisogno di un’immagine per localizzarsi. Confronto tra due opere di Marguerite Duras: • India Song (1975): non c’è alcun suono sincrono proveniente dall’immagine, tutti i suoni del film si agglomerano intorno all’immagine in cui non risiedono, e.g. dialoghi fuori campo, pettegolezzi del ricevimento, grido del viceconsole…  cinema. • Anche Le Camion (Il camion, 1976) dissocia il suono dall’immagine, ma in modo differente: l’immagine è un’immagine in più, della stessa natura di quelle che, e.g. nei TG, illustrano con la visione di qualcosa l’evocazione di qualche problema relativo al soggettivo visivo  televisione. Nel cinema, tutto passa attraverso un’immagine. 8.2. LO SPORT ACUSTICO Il tennis è lo sport acustico per eccellenza, in cui i commentatori tengono a freno le loro chiacchiere per far sentire gli scambi dei giocatori  si ottiene una storia acustica (pallina, fruscii del terreno, grida…) con il flou narrativo caratteristico dell’universo dei rumori. Ogni momento è punteggiato da un suono particolare  anche l’assenza di un suono porta il pubblico a interpretare nell’insieme la propria parte ritmica e sonora, e.g. applausi, “oooh…”, fischi… Nella trasmissione di una partita di tennis lo spazio acustico è separato dallo spazio visivo: • Lo spazio acustico è stabile, percepito come in piano totale sonoro, nonostante sia la somma dei punti d’ascolto di differenti microfoni collocati in punti strategici del campo. • Lo spazio visivo comprende immagini alternate dalla regia di vedute lontane, e.g. visione dall’alto dell’intero stadio, a vedute ravvicinate, e.g. volti o piedi dei giocatori ripresi con il teleobiettivo  i volti umani dei giocatori in PP si sovrappongono alle loro voci lontane e indistinte. Si ottiene un vicino-lontano simmetrico, opposto al lontano-vicino abituale dei film, in cui i personaggi ripresi da lontano sono accompagnati da “voci in PP”. 8.3. LA BOCCA E IL VIDEO 8.3.1. Fissa o in movimento, l’immagine è la stessa Video = contenuto in sospeso tra immagine fissa e immagine in movimento, tra un’immagine fissata in precedenza e un’immagine in tempo reale, tra unicità e molteplicità degli schermi. Rispetto al video, il cinema raramente gioca sui cambiamenti di velocità e sui fermo-immagine, poiché richiedono lavorazioni lunghe e costose per ottenere ciò che una regia video realizza immediatamente. Ogni lavorazione di laboratorio destinata a fissare l’immagine su pellicola fa perdere definizione alla fotografia, lascia una traccia. In un video, invece, un’immagine accelerata o modificata nella velocità non acquista disturbi supplementari, per il fatto di essere copiata. Nel cinema, i movimenti sono nell’immagine, sono una delle dimensioni cinematografiche in grado di dialogare e lottare con altri. In se stessa, invece, l’immagine di un video è un puro movimento che, non avendo inerzie da combattere, rischia di cadere nella verbosità visiva. 8.3.2. Un’immagine rapida come un testo In Incidence of Catastrophy (Incidenza di catastrofe, 1987) di Gary Hill, il testo di Maurice Blanchot, Thomas l’obscur, viene interpretato in immagini fluide che mostrano il libro stesso, e.g. pagine sfogliate in PP, e il filo del discorso scritto, alternate a visioni di sabbia che cade e di onde marine, che suscitano movimenti visivi dotati della stessa rapidità di un testo  un testo sentito fa lavorare rapidamente orecchio e comprensione. Nel cinema, quando c’è un discorso letto o pronunciato, solitamente, l’immagine rimane da parte, statica; nel video, invece, è più semplice andare rapidamente dal punto di vista visivo fino a dare ciò che si vede sullo schermo l’aspetto di una bocca che parla. Visibile da ascoltare = da decodificare. L’immagine perde la propria qualità di superficie relativamente stabile  i suoi cambiamenti di andatura o di aspetto diventano significanti. 8.3.3. La videoarte e la collocazione del suono Nel cinema, il quadro è importante, perché è né più né meno ciò al di là del quale c’è il nero. Inoltre, per quanto riguarda la collocazione del suono, quest’ultimo si determina in rapporto alla nozione di scena e di finzione. Nel video, invece, il quadro è un riferimento più relativo  • Da un lato, i monitor tagliano sempre una parte indeterminata del quadro. • Dall’altro, quando si guarda al di là dei bordi, c’è ancora qualcosa da vedere: l’immagine non è una finestra visiva tramite cui canalizzare l’attenzione dello spettatore. Nel cinema, il quadro è un imperativo regolare  tensione, potenziale contraddizione tra quadro e oggetti contenuti in esso. Nel video, al contrario, l’immagine è ciò che contiene e si modella sul proprio contenuto. Televisione = radio illustrata da immagini aggiunte, in cui il suono ha già la sua collocazione fissa, fondamentale e obbligatoria. Una TV muta è inconcepibile. 8.4. LA RADIO A IMMAGINI Quando la TV estende la propria programmazione a tutta la giornata e la propria presenza a diversi luoghi (lavoro, abitazione…), finisce inevitabilmente per assumere la propria natura radiofonica, e.g. successione di videoclip = qualunque cosa di visivo messo su una canzone, su una musica che bastava già a se stessa, il cui montaggio è un modo per far girare le facce del prisma, creando una sensazione di polifonia visiva e di simultaneità sulla base di una sola immagine alla volta. Raramente, il cinema ha diviso la superficie del proprio schermo in due o più sottoschermi o ha accumulato in sovrimpressione due immagini sulla stessa superficie. Nella televisione, la tecnica video permette di frazionare lo schermo più facilmente e più rapidamente  tuttavia, questa risorsa si scontra le dimensioni ridotte dell’immagine che, non appena viene suddivisa, non lascia più vedere granché. N.B. sul piano visivo, ciò che assomiglia di più alla simultaneità polifonica del suono o della musica è la rapida successione di immagini singole  nel videoclip, l’immagine è totalmente slegata dalla linearità imposta dal suono: il rapporto tra colonna audio e colonna immagine si limita alla presenza di punti di sincronizzazione, in cui l’immagine mima la produzione del suono. Per il resto, immagine e suono sono indipendenti l’uno dall’altro. 9. VERSO UN AUDIO-LOGO-VISIVO 9.1. LIBERTÀ DEL TESTO NEL CINEMA MUTO Nel cinema muto, il linguaggio è presente su due livelli: • Esplicitamente, nel testo dei cartelli che si alternano alle immagini  interruzione della continuità delle immagini; presenza di un corpo estraneo; collocazione spazio-temporale; riassunto dell’azione o giudizio sui personaggi. • Implicitamente, nell’organizzazione delle immagini, filmate e montate in modo tale da costituire un discorso in cui piani e gesti equivalgono a parole o sintagmi. Al contrario, nel cinema sonoro, il testo viene enunciato nei dialoghi dei personaggi al presente. Ci sono tre modalità di presenza della parola nel cinema: parola-testo, parola-teatro e parola-emanazione. 9.2. LA PAROLA-TEATRO Parola-teatro = il dialogo sentito ha una funzione drammatica, psicologica, informativa e affettiva. Viene percepito come proveniente da esseri umani inseriti nell’azione stessa, senza potere sul corso delle immagini che li mostrano, e viene sentito parola per parola. È possibile anche far sentire la voce interiore dei personaggi, analoga a un “a parte” teatrale. N.B. nel cinema classico, i personaggi parlano-facendo qualcosa  strutturare il film in funzione della parola e intorno ad essa, e.g. una porta che viene chiusa, una sigaretta che viene accesa… costituiscono la punteggiatura e la valorizzazione del testo. 9.3. LA PAROLA-TESTO Parola-testo = voce off e commenti che agiscono sul corso delle immagini  le parole enunciate evocano l’immagine della cosa, del momento, del luogo, dei personaggi…, sopprimendo la scena audiovisiva. Per questo motivo, la parola-testo viene riservata ad un personaggio privilegiato della narrazione e per un tempo limitato rispetto alla durata complessiva del film. Nel cinema, la parola-testo suscita la presenza delle cose non soltanto nella mente, ma anche davanti agli occhi e alle orecchie, evocando qualcosa di concreto e ricco di dettagli di cui il discorso non sa rendere conto, e.g. la voce-testo nomina una donna ed essa viene vista con un certo outfit (di cui il testo non parla)  il testo crea immagini apparentemente a proprio piacimento, che, però, non è in grado di raccontare interamente. Alcuni registi cercano di ridurre questo “baratro”, e.g. in M (Il mostro di Düsseldorf, 1931) di Fritz Lang, l’astrazione della scenografia e l’assenza di riferimenti concreti a ora, luogo e tempo atmosferico rendono più docile l’immagine. Al contrario, altri registi vogliono sottolineare il divario tra la parola narrativa e l’immagine, creando contraddizioni e vuoti, e.g. Orson Wells con The Magnificent Ambersons (L’orgoglio degli Amberson, 1942) e Michel Deville con Le Voyage en douce (Un dolce viaggio, 1979) e La Lectrice (La lettrice, 1988), si interessano particolarmente alla questione del potere. In Lettre à Freddy Buache (1982), Jean-Luc Godard si rivolge a Freddy Buache e racconta come avrebbe dovuto essere girato il film, alternando immagini del regista stesso che maneggia apparecchiature sonore e visive a panoramiche mute su Losanna e sulla campagna circostante con il Boléro di Maurice Ravel ad accompagnare musicalmente il tutto  • La voce di Jean-Luc Godard non sviluppa un testo compiuto: cerca le parole, le ripete, inserisce puntini di sospensione, s’imbroglia e si riassume improvvisamente, trovando una formula “definitiva”, buona per essere scritta. • La mdp percorre lateralmente i luoghi, cerca, si ferma, riparte, brancola… 10. INTRODUZIONE A UN’ANALISI AUDIOVISIVA 10.2. PROCEDURA DI OSSERVAZIONE Metodo delle mascherature = visionare più volte una sequenza data, guardandola con suono e immagine, mascherando l’immagine e poi tagliando il suono  sentire il suono così com’è; guardare l’immagine così com’è. N.B. una considerazione separata degli elementi sonori e degli elementi visivi, prima di rimetterli insieme, è la più indicata per conservare uno sguardo e un ascolto freschi e nuovi. Matrimonio forzato tra suono e immagine = accompagnare la sequenza di un film con differenti brani musicali, appartenenti a generi diversi, sovrapponendoli all’immagine in modo aleatorio  il cambiamento di musica sulla stessa immagine mette a nudo i fenomeni di valore aggiunto, di sincresi, di associazione suono/immagine… e permette di guardare l’immagine in tutte le sue potenzialità. 10.3. ABBOZZO DI UN QUESTIONARIO TIPO 10.3.1. Ricerca delle dominanti e descrizione d’insieme Caratterizzare l’andamento generale e la consistenza del suono catalogando la natura dei differenti elementi sonori che intervengono, e.g. vi sono parole? Musica? Rumori? Qual è dominante e messo in primo piano?... Consistenza della colonna audio = modo in cui i differenti elementi sonori (voce, musica e rumori) sono più o meno inseriti in una stessa pasta globale oppure dispiegati, ciascuno separatamente, in maniera estremamente leggibile, e.g.: • In Stalker (1979) di Andrej Tarkovskij, i suoni sono separati gli uni dagli altri. • In Alien (1979) di Ridley Scott, le voci sono impegolate nel rumore in un continuum sonoro di voci, musiche e suoni. La consistenza è funzione: • Di un equilibrio generale dei livelli, in cui si combattono e lottano per accedere all’intelligibilità. • Della presenza, più o meno consistente, di un riverbero, che smorza i contorni sonori e crea una sorta di sostanza molle e unificante, in grado di legare i suoni gli uni agli altri. • Dei fenomeni di mascheratura, legati alla coesistenza di diversi suoni negli stessi registri di frequenza. 10.3.2. Individuazione dei punti di sincronizzazione importanti Individuare eventuali punti di sincronizzazione salienti, che creano senso ed effetto, e.g. nei dialoghi sincroni, ci sono moltissimi punti di sincronizzazione, ma solo alcuni sono importanti, la cui ripartizione è nota come fraseggio audiovisivo. 10.3.3. Comparazione Comparare suono e immagine nei loro rispettivi modi di collocarsi rispetto allo stesso criterio, e.g.: • Velocità: possono avere velocità diverse, creando una sottile complementarietà di ritmo. • Materia e definizione: suono duro e ricco di dettagli combinato con un’immagine sfocata e imprecisa, o viceversa. • Distanza e scala: un personaggio lontano nell’immagine può avere la voce vicina, o viceversa. È fondamentale osservare sonoro e visivo in modo dissociato  metodo delle mascherature, in modo che ogni elemento assume la propria parte di figurativo e di narrativo. N.B. i casi in cui il suono, senza smentire l’immagine, conferisce a quest’ultima un altro tipo di tessitura sono i più suggestivi  struttura illusionista. Inoltre, bisogna domandarsi: che cosa vedo in ciò che sento? Che cosa sento in ciò che vedo? Così facendo, si possono individuare nell’immagine i suoni vuoti (l’immagine li evoca, ma non li fa sentire) e nel suono le immagini negative (presenti in virtù del fatto di essere suggerite). 10.5. ANALISI DEL PROLOGO DI “PERSONA” DI BERGMAN Interpretazione: Jorgen Lindstrom (Vogler figlio) Troupe audio: • Ingegnere del suono: P. O. Petterson • Microfonista: Lennart Engholm • Mixaggio: Olle Jakobsson • Musica: Lars Johan Werle Vedi pag. 231-238 Analisi audiovisiva: • Assenza di parole e voci  brano di cinema sonoro composto da rumori e musica. Distinzione tra: o Rumori durevoli, che coprono l’insieme di una sequenza, e.g. ronzio della proiezione, rintocchi delle campane e sgocciolii d’acqua  continuità nelle sequenze occupate, legando insieme piani dall’aspetto, dalla struttura e dal contenuto disparati. o Rumori puntuali, eventi isolati, e.g. colpi di martello, passi dell’obitorio e fruscii delle lenzuola. Per quanto riguarda la musica, non viene necessariamente distinta dal rumore  dipende dai riferimenti culturali dell’ascoltatore, e.g. fascio iniziale di glissando del piano 1 – musica per coloro che riconoscono gli strumenti a corda oppure suono di sirena per ascoltatori più “ignoranti”. • I punti di sincronizzazione sono, al tempo stesso: o Rari, e.g. nella sequenza dell’obitorio sono discreti e leggeri  fruscio delle lenzuola quando il bambino si rigira nel letto. o Marcati, e.g. nella sequenza della mano sono più evidenti  tre violenti colpi di martello. Momento verticale e staccato, che insiste su un momento unico e irreversibile. L’effetto dei colpi è preparato: crescendo orchestrale che li introduce, sequenza precedente che fa nuotare lo spettatore in una nebbia asincrona di immagini e suoni, in cui nulla si disegna nettamente nello spazio e nel tempo. La sequenza delle immagini traumatiche è completamente desincronizzata, poiché nessun suono cade su precisi momenti visivi. Nella parte iniziale, il flusso visivo delle immagini proiettate e il flusso sonoro del rumore della macchina per cucire del proiettore comportano punti di sincronizzazione stretti, che li saldano in spasmi e sganciamenti simultanei. Allo stesso modo, la musica dei flauti acuti che parte con i movimenti della bagnante, si ferma con lei e riprende con la donna in movimento  suono e immagine sono due tracciati paralleli e solidali, dotati di punte e di vuoti simultanei, che insistono su uno svolgimento. Analisi narrativa: • I colpi di martello sono l’unico momento che fa audiovedere la stessa cosa nello stesso istante e sullo stesso piano di realtà. • La sequenza dell’obitorio trae la sua stranezza dalla rarità e dalla discrezione dei punti di sincronizzazione: la situazione non comporta molti movimenti e, di conseguenza, nemmeno molti suoni; quasi tutto è ripreso in PP/PPP, limitando il numero di oggetti visibili in campo. Tuttavia, il suono della sequenza comporta elementi attivi e vivi, e.g. tramestio a inizio sequenza, passi decisi e affrettati… non si vede la sorgente del rumore. Ciò che unisce suono e immagine è molto debole: fruscio delle lenzuola quando si muove il bambino. • La figura musicale è un fenomeno in sé, un evento sonoro puro. • Valore aggiunto delle gocce d’acqua: il rubinetto che perde inscrive i cadaveri inquadrati in un tempo lineare e quotidiano. Altrimenti? Senza suono, sono soltanto diapositive fisse e isolate. Noi non vediamo le gocce d’acqua  come facciamo a sapere che si tratta di quelle? Abbiamo esperienza di un certo tipo di suono associato a una certa consistenza; il ritmo periodico e irregolare ricorda un rubinetto malchiuso; leggera risonanza del lavandino/recipiente  la nostra identificazione della sorgente si fonda su motivazioni disparate. • Il ritmo del gocciolio sembra calmo e tranquillo, ma non troppo. Cattura l’attenzione e la mantiene sveglia perché il suo periodico è leggermente fuori tempo rispetto al momento in cui lo si aspetta  creazione di una struttura di presente. • Passi e gocce disegnano l’idea di un luogo in cui la morte è qualcosa di normale e quotidiano. Comparazione: • All’inizio, l’immagine è violentemente contrastata, tagliata e scossa, presenta dei contorni netti e luminosità estreme. Allo stesso modo, il suono è secco e preciso, caratterizzato da passaggi acuti e da un riverbero discreto. • Nella sequenza delle immagini traumatiche, c’è solidarietà tra il carattere sfumato dei contorni dell’immagine e dei suoi valori e l’aspetto immerso e viscoso della musica  scrittura atonale, generatrice di un effetto onda; forma dei suoni, attacchi dolci e progressive variazioni di intensità; spazio sonoro, forte riverbero che avvolge i suoni. Immagine e suono si rinforzano reciprocamente grazie ad un’identità strutturale e formale. • Nell’inseguimento del cinema muto, i movimenti sono spezzati e spasmodici, come la musica che si sente sulla scena (suoni puntuali e ritmi irregolari e dislocati). Tuttavia, il suono risulta addolcito e sfumato da un forte riverbero. Si ha l’idea di una forte presenza del discontinuo e del puntuale tanto nel suono quanto nell’immagine. La tela audiovisiva: si individuano le categorie su cui si oppongono ed entrano in contrasto le differenti sequenze, e.g. accidentato-liscio, netto-diffuso; regolare-irregolare; ordinato-disordinato…  • Liscio: viene rappresentato da un suono in meno (scomparsa del rumore della macchina per cucire della proiezione). La scomparsa di un suono conduce alla sensazione che la proiezione giri in tondo. • Spasmo: contrazione improvvisa che intacca la normale tensione di un muscolo. Nell’immagine, il getto di sangue scaturisce dalla carne dell’animale sgozzato, cola dritto, ma trema. Nel suono, il tremolo degli strumenti a corde, profilato e netto nel generale, ma vibrante e agitato nel dettaglio. L’inizio e la fine del prologo rappresentano lo stesso procedimento: un’immagine di per sé indecisa, a cui il suono imprime una crescente drammatizzazione tramite il proprio crescendo volontario e marcato. Si ha a che fare con qualcosa che si precisa sempre di più tramite l’intensificazione della luce (inizio) e tramite la speranza di vedere disegnarsi nettamente un volto (fine)  assoluto di luce in un assoluto di rumore per l’inizio; assoluto di un suono e assoluto dello scambio di sguardi per la fine. Nell’intervallo, ci sono due sequenze in cui sono e immagine si evitano sottilmente, senza contraddirsi apertamente, separate da tre vigorosi punti di sincronizzazione, che creano un evento.
Docsity logo


Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved