Come suonare il cinema dopo l’avvento del digitale. Parla Alessandro Cipriani, compositore e docente di sound engineering

Al Conservatorio di Frosinone sono aperte le domande ai corsi, all’avanguardia, sul rapporto tra suono, tecnologia e narrazione, che si terranno da novembre.

Alessandro Cipriani è docente e compositore italiano di musica elettroacustica e sperimentale. Ha collaborato a colonne sonore per documentari, oltre a 2 opere di teatro musicale con il Teatro dell’Opera di Pechino e colonne sonore in surround per film muti (di Hitchcock, Ejzestejn, Wiene) con l’ensemble di compositori Edison Studio, pubblicate in DVD dalla Cineteca di Bologna. Le sue opere esplorano il rapporto tra musica, rumori e storytelling, spesso integrando elementi vocali ed elettronici. L’avvento del digitale ha dotato il lavoro sul suono di software, per certi versi, più potenti di quelli che manipolano le immagini. Ora che si aprono i corsi di Sound Engineering e Composizione Audiovisiva Digitale nel Conservatorio di Frosinone, dove insegna, lo abbiamo intervistato per raccontare quanto il suono, considerato un elemento vicario della visione sul grande schermo, rappresenti oggi una materia e un’area espressiva, estetica, industriale, di grande creatività per l’evoluzione del linguaggio e della tecnologia del cinema.

Alessandro Cipriani presso il “CREA”. Foto di Andrea Centrella

Sempre più pellicole del cinema contemporaneo così come le serie e i per videogiochi attestano il rilievo cruciale del suono. Vogliamo fare qualche esempio?

Sicuramente Sound of Metal e La Zona di Interesse. Nel primo, il suono è al centro dell’attenzione, dato che la storia tratta di un batterista che perde quasi completamente l’udito. Ma invece che raccontare cosa prova, il film ci fa immergere fisicamente nella sua esperienza acustica mettendoci in grado di ascoltare i suoni ovattati da dentro la sua testa o i suoni distorti dai suoi impianti cocleari, e subito dopo farci sentire di nuovo gli stessi suoni dalle persone che lo circondano:con un finale straordinario, con il quale desideriamo, insieme al protagonista, di tornare al silenzio. Nella Zona di Interesse il suono sembra invece essere esterno alla storia, i suoni del campo di concentramento nazista sembrano essere laterali a ciò che vediamo, ma proprio attraverso questi suoni capiamo il significato del film, il paesaggio sonoro diventa portatore di senso, sia ai fini della storia che a quelli di una lettura morale del film. Il suono appartiene alla storia proprio in quanto i personaggi devono evitare di notarlo, svelando la rimozione continua dell’orrore al di là del muro. Il suono, quindi, come qualcosa che può superare i muri e ricordarci ciò che non vogliamo o non possiamo vedere.

Ritieni che si possa cominciare a valutare l’impatto e le conseguenze estetiche del suono digitale al cinema, anche nel senso delle risorse di spazializzazione sonora configurata da esperienze immersive come quelle del Dolby Atmos?

Poniamoci sempre qualche domanda di fronte alla tecnologia. Cos’è l’immersività? Siamo più immersi quando veniamo invasi dal suono, o quando il suono ci offre varie dimensioni in cui sembra parlare individualmente ad ognuno di noi, lasciandoci lavorare con la nostra immaginazione? Credo che standardizzare l’esperienza sonora non sia di per sé sufficiente a caratterizzare l’immersività. Aumentare la sensazione di tridimensionalità non vuol dire necessariamente un coinvolgimento maggiore degli spettatori nel film. Walter Murch, uno dei padri del sound design nel cinema, insiste sull’attivazione dello spettatore attraverso il suono. Quando nel Padrino parte terza vediamo il protagonista urlare di dolore ma non sentiamo il suono della sua voce, e ognuno di noi deve immaginare il suo suono attingendo alle nostre memorie sonore e immaginazioni personali non siamo più immersi in modo attivo che se avessimo avuto un suono di un urlo terrificante magari spazializzato sopra e intorno a noi? Ben vengano anche nuovi formati, e anche il miglioramento delle condizioni di ascolto nelle case (spesso trascurate, a fronte di megaschermi) ma credo che non sia lo standard di per sé che crei l’immersività, ma il suo uso creativo ad ogni film.

Come si fa, a tuo avviso, a restituire alle proprietà espressive del suono la considerazione  dovuta? È necessaria una specifica formazione a cominciare dal pubblico più giovane?

Assolutamente si. Dovrebbe esserci una materia di storia del cinema e dell’arte audiovisiva in tutte le scuole, con un’attenzione al rapporto fra suono e immagine. E’ importante conoscere non solo i lavori del passato, ma anche saper guardare dentro ciò che si consuma. Nella Scuola di Musica Elettronica del Conservatorio di Frosinone da almeno venti anni ci occupiamo nei nostri corsi di triennio e biennio di intermedialità e di composizione audiovisiva, senza trascurare la realtà virtuale e l’uso consapevole e creativo della cosiddetta intelligenza artificiale. Attualmente sto lavorando con Carmine Cella, Maurizio Giri e Riccardo Ancona al quarto volume di Musica Elettronica e Sound Design dedicato alla didattica del suono e della musica con l’uso di reti neurali, machine learning, ed AI, ma con un approccio critico e lontano dalla pervasività delle grandi aziende che propongono la facile ripetizione dell’esistente. 

Nel 2008 hai curato un intero numero della rivista internazionale Organised Sound della Cambridge University Press sul tema del rapporto fra globale e locale nel suono dell’audiovisivo e nella musica elettroacustica.  Cosa cambia con l’arrivo dell’AI? 

Nelle versioni internazionali dei film, la colonna sonora internazionale (che include musica e suoni) viene solitamente preservata, mentre i dialoghi vengono adattati nella lingua richiesta. Tradizionalmente, per realizzare le versioni in lingue diverse, era necessario separare i dialoghi originali da quei suoni ambientali che inevitabilmente erano stati registrati insieme alle voci degli attori. Questo processo richiedeva un meticoloso lavoro di “bucatura” delle registrazioni e di aggiustamenti delle parti bucate. Oggi questo lavoro è diventato molto più semplice perché con l’AI si possono separare le voci dai suoni ambientali in modo più veloce e accurato, lasciando intatti entrambi. Il risultato è che i suoni locali, ad esempio di una serie tv coreana, trasportati in tutto il mondo, ci consegnano in maniera ancora più accurata paesaggi sonori a noi sconosciuti mentre guardiamo la serie nella nostra lingua. È il risultato di ciò che viene chiamato “glocal” cioè l’interazione di qualcosa che viene da una situazione locale con la dimensione globale, e viceversa.

Volendo ricordare David Lynch, scomparso nel gennaio scorso, condividi l’idea che sia stato un autore capace di modellare in maniera unica lo spazio sonoro dei suoi film, da Eraserhead a Inland Empire grazie anche al rumore? 

C’è ancora chi si ostina, nonostante tutto, a definire il cinema come “scrittura di luce”, dimenticando quanto Antonioni, Cuaròn, Kubrick, Nolan o Tarkovskij abbiano inventato in termini di “scritture di suono”, ma certamente David Lynch, anche per la sua storia di musicista e manipolatore di suoni, ha un posto speciale nell’innovazione del pensiero sul suono nel cinema.