MÁS ALLÁ DEL PUNTO DE VISTA

¿Punto de vista = Punto de escucha?

Con el objeto de determinar lo que es el efecto o proceso correcto para el Diseño de Sonido, es muy importante empezar separando el punto de vista del punto de escucha. Es más, es crucial empezar pensando en la noción de punto de escucha. Los cortometrajes o primeros proyectos de la mayor parte de los estudiantes, carecen de esta independencia entre lo que se ve y lo que se oye.

Tomemos un ejemplo de Corazón de Ángel de Alan Parker; después de la entrevista con el personaje de De Niro (Louis Chipre), el detective privado Harold Angel (Mickey Rourke) está viajando en automóvil intentando encontrar las pistas sobre la desaparición del cantante Johnny Favorite. Esta corta secuencia está compuesta por unas pocas tomas; un plano largo del automóvil en el camino, uno mas cercano mostrando a Harold Angel a través del parabrisas y otra toma más larga, hasta que el automóvil llega a un edificio que se encuentra a un lado del camino (la institución dónde estaría internado Johnny Favorite). Cuando vemos el plano largo del automóvil circulando a lo largo del camino, escuchamos el motor del auto, un silbido -Harold Angel silbando lo que eventualmente se reconocerá como el leitmotif de Johnny Favorite-, algún sonido ambiente (un viento apenas percibido), y la música característica -el saxofón de Courtney Pine tocando el mismo leitmotif de Johnny Favorite, arreglado por el compositor Trevor Jones-. Cuando vemos la toma de acercamiento del automóvil, todavía se escucha el silbido – al mismo volumen que en la toma anterior -, el ruido del motor –sólo un poco más alto -, y los sonidos subjetivos de Harold Angel (una especie de resonancia retrospectiva de una entrevista de la secuencia anterior). ¿Por qué no cambia el sonido del silbato mientras que el del automóvil lo hace? Porque el sonido del motor del automóvil está enlazado al punto de vista de la cámara, mientras que el del silbato se relaciona a un punto de escucha independiente. El público esta acostumbrado a estos tratamientos, pero la mayoría de los directores noveles y sus equipos técnicos no se dan cuenta de que pueden poner sonidos a otras cosas diferentes de aquellas que son visualizadas en pantalla.

El sentido común dicta que esto no es correcto -o al menos lo considera un poco extraño-por el hecho de que tendemos a hacer audible lo que se ve, sólo prestando atención a las relaciones y proporciones de; distancia / volumen y rango / reverberb (o cualquier otro dispositivo usado para estimular la ambientación), y así sucesivamente. Éste es el caso del sonido del motor del automóvil, claramente lejos de la cámara y atravesando el marco mientras transita de un lado al otro, de derecha a izquierda. Es también el caso de la densidad del sonido ambiente del camino (el viento o simplemente la presencia de aire que rodea al auto). Pero no es el caso del silbido de Angel, ni los sonidos subjetivos. La paradoja interesante aquí es que el sonido que provine de adentro del automóvil no cambia –y se oye a un mismo nivel que el del motor o aun más alto – mientras que el vehículo que contiene a la persona que está silbando, si lo hace (focalizándose en la perspectiva de sonido).

Cuando el punto de escucha es igual al punto de vista (a.k.a. la ilusión de la cámara y micrófono “armonizados” y ubicados en un mismo lugar), el sonido DEBE ser afectado, atendiendo a la proporción distancia/volumen, el nivel de ese sonido debe cambiar cada vez que la distancia desde la cámara cambia; del mismo modo lo hará el volumen del sonido ambiental y la presencia o ausencia de reverberb, eco, etc. ¿A qué sonidos podemos aplicar un punto de escucha diferente? En la teoría, a cualquier sonido imaginado, pero principalmente a los humanos, o a aquellos que se relacionan o que provienen de los personajes (como por ejemplo, Tripio o Arturito en las Guerras de las Galaxias). Mientras que las cosas u objetos, debido a su calidad de “no vivo” o por lo menos “no vivo” para la narración, están atados a su continente (la pantalla, la cámara en que están encuadrados), los sonidos humanos o de personajes están más allá de ese estatus y pueden estar presentes a su “propia manera”, por decirlo de algún modo. Los personajes pueden sujetarse a lo que se necesita para la narrativa o a cualquier otro propósito estético, usando algo más que su propia presencia en escena. Podemos tomar como ejemplos a aquellos pensamientos que pueden ser escuchados independientemente de la ubicación del personaje; palabras no sólo del narrador, sino también emitidas desde fuera del espacio de pantalla (aún uno muy distante), o sólo el latido del corazón de un personaje tratando de desensamblar una bomba. Todo lo que se oye y no necesariamente es visto, nos hace pensar en una independencia derivada del mencionado punto de escucha apartado del punto de vista.

Los Sonidos Subjetivos

Esta posibilidad de independencia brinda una apertura al Diseño de Sonido hacia otras libertades y hacia un uso más flexible del mismo, como parte del estilo cinematográfico. Mientras que el cine está compuesto por elementos de naturaleza diversa, la disparidad inherente a estos mismos permite un tratamiento diferencial. Por ejemplo, pensemos de nuevo en los sonidos subjetivos de la secuencia de Corazón de Ángel. Los fragmentos de frases dichos por Louis Cypher durante la entrevista en una escena previa, surgen libremente de la mente del personaje -Harold Angel-, quién está supuestamente recordando. Se escuchan a lo largo de los planos cortos y largos sin ninguna variación de volumen. ¿Cuál es, entonces, la diferencia entre el silbido y estos recuerdos? La naturaleza de los efectos aplicados con respecto a la naturaleza de los espacios reales y virtuales de dónde provienen estos sonidos.

El silbido es independiente del rango de distancia / intensidad, pero no es independiente de la integración al espacio dónde se localiza. El silbido nace del interior del automóvil, por lo tanto el proceso se relaciona con la reproducción de este pequeño espacio. Con independencia de cuál es exactamente la reverberb utilizada para lograr este propósito (un algoritmo de un pequeño cuarto, o simplemente la presencia del aire del espacio del estudio de grabación, posicionando el micrófono a una cierta distancia del hombre silbando), está claro que tenemos que integrar este sonido al espacio físico del cual emana. Los sonidos subjetivos -en el caso que nos ocupa, sonidos que salen de la mente- poseen una mayor independencia, por el hecho de que la mente es un lugar virtual, considerando que el automóvil es una simulación de un espacio real, y por esta razón, no se relacionan con ninguna dimensión acústica específica. Ni siquiera con las dimensiones acústicas del espacio dónde estos sonidos fueron una vez producidos: ese espacio real es invadido por este espacio “nuevo” y virtual; en otros términos, los efectos aplicados por esta representación de la mente estarán más manifiestamente expuestos que la sutil reproducción del espacio del cuarto dónde la entrevista fue llevada a cabo.

Los sonidos subjetivos son procesados con efectos ligeramente exagerados (como reverberbs artificiales) para no ser confundidos con ningún otro sonido de la escena. Las reverberbs que se utilizan para reproducir los distintos espacios, son programadas en determinadas frecuencias, acordes a la naturaleza de estos mismos. Por ejemplo, un vestíbulo cálido, cargado de mobiliario de madera, con alfombras y cortinas, no muy refractario y por consiguiente no “metálico” por las pocas frecuencias señales que pueden percibirse, carecerá de una reverb que reproduzca frecuencias altas. Estas decaen mas rápidamente que las reverbs de frecuencias más bajas, las que no presentan sonidos de tono muy alto; como consecuencia se produce una ausencia de calidad metálica y por consiguiente, el sonido global es más cálido. Para hacer esto posible, los dispositivos de reverberancia tienen el parámetro hi-damp o hi-decay: los valores positivos hacen que las frecuencias más altas reverberadas se extingan más rápidamente que las bajas. Otro parámetro para programar es el cutoff, se trata de un filtro que determina qué frecuencias atraviesan la reverberb y cuáles son cortadas (inclusive no son escuchadas en absoluto sin atravesar el mecanismo). Si el cutoff está seteado en 5 kHz, esto significa que las frecuencias sobre esta marca (y hasta 20 kHz, el umbral de audición) quedan segadas.

Las reverbs aplicadas al sonido subjetivo son más artificiales que las que acabamos de mencionar. Son menos naturales, por el hecho de que la idea es reproducir un espacio imaginario, y más aún, tener claramente separados los espacios reales de los virtuales. Estas reverbs normalmente presentan frecuencias más altas o bien los parámetros principales –tiempo de reverb, pre-delay– son seteados a un valor un poco recargado. A menos que nos encontremos dentro de una piscina vacía o de una cámara frigorífica, grande y metálica, la mayoría de los espacios carecen de la presencia de frecuencias altas agudas. Cuando usamos reverbs que no cortan las frecuencias altas, y en pantalla estamos viendo un espacio habitual (no una nave espacial o un iglú), el proceso aplicado nos hace pensar en otro espacio, un espacio que no corresponde al ambiente acústico exhibido, en otras palabras en diegesis (todos los espacios del mundo de la ficción).

Aunque la reverberb artificial es el procesador más común en los sonidos subjetivos, la independencia total entre los diferentes tipos de espacio y la proporción distancia/volumen, las hace más accesibles que casi cualquier otra combinación de efectos o tratamientos exóticos.

En El Gran Lebowski de los hermanos Coen, hay una escena dónde Jeff Bridges (Lebowski) está hablando con Ben Gazzara (el gángster), mientras toman unos tragos y escuchan música. La bebida está colmada de pastillas para dormir, y notamos eso no porque hayamos visto el momento en el que el gángster puso la droga en ella, sino porque lentamente el sonido revela una distorsión de percepción que nosotros debemos adjudicar al peculiar efecto de la ingesta de la bebida. En lugar de agregar una reverb, el diseñador de sonido o el re-recording mixer agregó una combinación de delay más una especie de pitch shifter, ring modulator o flanger extremo (el resultado podría ser producto de diversas programaciones de estos efectos o combinaciones diferentes de algunos o todos ellos).En un punto de la conversación, todos los sonidos de la escena empiezan a ser procesado por la mente de Lebowski: la música parece cambiar; las voces se repiten (como algo a través de un pulso de delay); el fin de cada frase parece ser pitch o “flanging”, y así sucesivamente.
GLOSARIO

Diegeic o diegéico:
relacionado con la historia

Non.diegetic o no-diegético:
La fuente de sonido no es vista.
Reverb:
procesador que produce reflexión del sonido.
Hi-damp y Hi-decay:
efecto multiplicador o coercitivo de frecuencias.
EQ:
ecualizador.
Pitch shifter:
procesador de audio que afecta a la altura (nota).
Ring modulator:
modulador de dos señales mediante suma y resta de frecuencias.
Flanger:
efecto de sonido metálico.
Cutoff:
frecuencia de corte de un filtro.
High pass filter:
filtro de recorte de agudos (pasa altos)
Low pass filter:
filtro de recorte de graves (pasa bajos)