modulo 4 clase 1

46
7.5 El sonido El sonido se propaga por presión mecánica de unas moléculas de aire sobre las moléculas contiguas dando lugar a un movimiento que se transmite, en una o múltiples direcciones, de unas moléculas a otras en forma de onda de presión (piensa en lo que sucede en un vagón de metro lleno de gente cuando frena de golpe y alguien pierde el equilibrio; este pasajero empujará a alguien, que a su vez empujará a otro y así sucesivamente y a continuación se producirá el mismo movimiento en sentido contrario. Esto provocará un vaivén en los pasajeros hasta que la energía quede absorbida y todos recuperen la posición inicial de equilibrio. Esto es un movimiento ondulatorio de transmisión mecánica) Cuando en el aire se producen ese tipo de oscilaciones entre 20 y 20000 veces por segundo, nuestro cerebro puede interpretarlas como sonido por medio del oído. Las ondas pueden verse modificadas por reflexión, chocan contra una superficie y rebotan cambiando su dirección inicial (eco o reverberación); refracción, cambiar de dirección al pasar de un medio a otro de distinta densidad (Ej: agua-aire) o difracción, dividirse en múltiples direcciones cuando encuentran un punto de paso muy estrecho o un obstáculo en su camino. Las características de las ondas se establecen a partir de un modelo de onda sinusoidal que sería la correspondiente a un tono puro, perfecto: Longitud de onda: distancia entre dos puntos que oscilan en la misma fase (Ej: distancia entre dos crestas o entre dos valles de una onda). Depende de la frecuencia y del medio de propagación. Frecuencia: número de ciclos que una onda completa en un segundo y se mide en Herzios. Una onda de 1 Hz completa un solo ciclo en cada segundo. De la frecuencia depende el tono, de modo que a mayor frecuencia (más ciclos por segundo) el sonido nos parecerá más agudo y a menor frecuencia (menos ciclos por segundo) sonará más grave. El sonido de una voz femenina presenta frecuencias más altas que el de una voz masculina. Amplitud: Máximo desplazamiento respecto del punto de equilibrio que alcanza una partícula en su oscilación. Depende de la cantidad de energía que genera la onda y está relacionada con la intensidad —volumen- del sonido. Cuando gritamos estamos aplicando más energía sobre nuestras cuerdas vocales, con ello aumentamos la amplitud de la onda sonora que estamos generando. La amplitud decrece desde el foco según la ley del cuadrado inverso, siendo uniforme la atenuación. Fase: la posición que alcanza una partícula que responde a un tono puro con respecto a su posición media. Las partículas en el mismo punto de su ciclo de movimiento se dice que están en fase. Señales en fase se refuerzan. En desfase se restan o anulan. Las medidas del sonido son: la potencia; densidad de energía por m 3 en una unidad de tiempo que se mide en W: Watio. La sensación: medida de comparación de intensidad entre dos sonidos que se mide en dB: decibelio. El sonido llega a la banda sonora mediante el uso del micrófono, medio a través del que las vibraciones de aire se convierten en corriente eléctrica. Esta señal se puede registrar de forma magnética u óptica. Sonido magnético. Tras ser amplificada, la señal pasa a una cabeza magnética de grabación ante la cual circula una película o cinta recubierta con partículas de óxido que se magnetizan y que posteriormente pueden reproducirse ante otra cabeza lectora.

Transcript of modulo 4 clase 1

Page 1: modulo 4 clase 1

7.5 El sonidoEl sonido se propaga por presión mecánica de unas moléculas de aire sobre las moléculas contiguas dando lugar a un movimiento que se transmite, en una o múltiples direcciones, de unas moléculas a otras en forma de onda de presión (piensa en lo que sucede en un vagón de metro lleno de gente cuando frena de golpe y alguien pierde el equilibrio; este pasajero empujará a alguien, que a su vez empujará a otro y así sucesivamente y a continuación se producirá el mismo movimiento en sentido contrario. Esto provocará un vaivén en los pasajeros hasta que la energía quede absorbida y todos recuperen la posición inicial de equilibrio. Esto es un movimiento ondulatorio de transmisión mecánica) Cuando en el aire se producen ese tipo de oscilaciones entre 20 y 20000 veces por segundo, nuestro cerebro puede interpretarlas como sonido por medio del oído.Las ondas pueden verse modificadas por reflexión, chocan contra una superficie y rebotan cambiando su dirección inicial (eco o reverberación); refracción, cambiar de dirección al pasar de un medio a otro de distinta densidad (Ej: agua-aire) o difracción, dividirse en múltiples direcciones cuando encuentran un punto de paso muy estrecho o un obstáculo en su camino.Las características de las ondas se establecen a partir de un modelo de onda sinusoidal que sería la correspondiente a un tono puro, perfecto:Longitud de onda: distancia entre dos puntos que oscilan en la misma fase (Ej: distancia entre dos crestas o entre dos valles de una onda). Depende de la frecuencia y del medio de propagación.Frecuencia: número de ciclos que una onda completa en un segundo y se mide en Herzios. Una onda de 1 Hz completa un solo ciclo en cada segundo. De la frecuencia depende el tono, de modo que a mayor frecuencia (más ciclos por segundo) el sonido nos parecerá más agudo y a menor frecuencia (menos ciclos por segundo) sonará más grave. El sonido de una voz femenina presenta frecuencias más altas que el de una voz masculina.Amplitud: Máximo desplazamiento respecto del punto de equilibrio que alcanza una partícula en su oscilación. Depende de la cantidad de energía que genera la onda y está relacionada con la intensidad —volumen- del sonido. Cuando gritamos estamos aplicando más energía sobre nuestras cuerdas vocales, con ello aumentamos la amplitud de la onda sonora que estamos generando. La amplitud decrece desde el foco según la ley del cuadrado inverso, siendo uniforme la atenuación.Fase: la posición que alcanza una partícula que responde a un tono puro con respecto a su posición media. Las partículas en el mismo punto de su ciclo de movimiento se dice que están en fase. Señales en fase se refuerzan. En desfase se restan o anulan.Las medidas del sonido son: la potencia; densidad de energía por m3 en una unidad de tiempo que se mide en W: Watio. La sensación: medida de comparación de intensidad entre dos sonidos que se mide en dB: decibelio.El sonido llega a la banda sonora mediante el uso del micrófono, medio a través del que las vibraciones de aire se convierten en corriente eléctrica. Esta señal se puede registrar de forma magnética u óptica.Sonido magnético. Tras ser amplificada, la señal pasa a una cabeza magnética de grabación ante la cual circula una película o cinta recubierta con partículas de óxido que se magnetizan y que posteriormente pueden reproducirse ante otra cabeza lectora.

Sonido óptico. Basado en la modulación de un haz luminoso que varía según las fluctuaciones de intensidad enviadas por el micro y que tras ser revelada podrá reproducir esas variaciones eléctricasEl sistema analógico de grabación por excelencia en cine era un magnetófono de bobina abierta popularmente conocido como Nagra. Usa cinta magnética de 6mm de ancho, de gran flexibilidad, permite elegir la velocidad de la cinta, lo que repercute directamente en la calidad de la grabación en un límite tan amplio como entre 15 pulgadas por segundo y 1 pulgada por segundo. La toma debe repicarse en película perforada para posteriormente sincronizarla con la imagen y, tras el montaje, incorporarse a la banda magnética de la película. Cada etapa reduce el nivel de calidad, por ello la grabación original debe ser de óptima calidad. La velocidad de grabación condiciona la fidelidad del sonido. A mayor velocidad mejor respuesta de las frecuencias. La música se suele grabar a 15 i.p.s. (pulgadas por segundo), la voz humana entre 7 1/2 y 3 3/4 i.p.s. pero lo que no podemos alterar para tener sonido sincrónico con la imagen es grabarlo a 24 o 25 f.p.s. (fotogramas por segundo) siempre basándonos en el chasquido y la imagen de la claqueta.La grabación analógica está en desuso con la aparición del DAT (Digital Audio Tape). También se registra en una cinta magnética, pero de tamaño cassette, convirtiendo las señales de sonido en datos digitales a través de un procesador.En primer lugar se toman una serie de muestras del perfil de la onda sonora que se quiere digitalizar. A este proceso se le conoce con el nombre de "muestreo". Cuantas más muestras se tomen, más se

Page 2: modulo 4 clase 1

parecerá la onda digital a la original, pero también será mayor la cantidad de información que tendrá que manejar el sistema. Para que te hagas una idea, un muestreo a 44 Khz toma 40.000 muestras de cada segundo de la onda de un sonido.Las muestras se trasladan a una escala de niveles de intensidad, asignándosele un valor numérico a cada una. El proceso en el que diferentes niveles de intensidad son convertidos en sus correspondientes numéricos (dígitos) dentro de una escala, es lo que conoces como "digitalización".Para que las máquinas puedan entender esta información, es preciso codificar estos números en forma de ceros y unos. Esta forma de codificación es lo que conoces como codificación "binaria" donde cada valor (0 o 1) constituye un "bit" de información. Una vez que has convertido un sonido en una secuencia de ceros y unos, puedes replicar esa secuencia tantas veces como quieras sin que los números cambien, razón por la cual podemos copiar muchas veces el mismo sonido sin perder la calidad del original. Los bits se agrupan de ocho en ocho formando "bytes". Cuanto mayor es el número de bits que puede manejar un sistema, mayor es, por así decirlo, su capacidad o su "potencia" (8, 16, 32, 64, 128 bits) y, por lo tanto, mayores niveles de sonido va a poder manejar, mayor número de colores o de niveles de brillo, etc.Operativamente, la tecnología digital ha reducido el tamaño de los medios de grabación y la inmediatez en la búsqueda de lo grabado facilitando ostensiblemente la labor de los operadores de sonido. De hecho digital no es sinónimo necesariamente de mayor calidad, aunque en sonido generalmente lo sea, sino de mayor capacidad de manipulación y gestión de la información en la que son convertidos tanto imágenes como sonidos y otros datos. Otro carácter asociado a lo "digital" es el "multimedia", ya que una vez que toda la información (imagen, sonido o datos) ha sido reducida a los mismo números (ceros y unos) pueden compartir el mismo soporte (CD, DVD, DAT) y ser transmitida por un mismo medio (cable, satélite, fibra óptica) hacia un mismo terminal (ordenaror, receptor de TV) en un proceso muy complejo que se conoce como "convergencia tecnológica".El sonido puede ser sonido directo, tomado sincrónicamente en rodaje para ser utilizado como tal lo que genera en una serie de problemas logísticos pues cualquier sonido extraño obliga a repetir la toma; sin embargo es el modo más natural de recrear el ambiente y la calidad interpretativa. Sonido de referencia, se graban los sonidos y los diálogos pero posteriormente no serán utilizados en la copia sino que servirán como referencia a los actores para doblar y a los técnicos de efectos de sonido para recrear ambientes y sonidos. El más popular y habitualmente combinado con el sonido directo recibe el nombre de wildtrack, pista de sonido que sirve como base para un ambiente dado o como off.. Sonido añadido o mezclas, el conjunto de la banda sonora se compone de sonido directo, wildtracks, doblaje, efectos de sonido y música.El micrófono es el instrumento esencial para convertir el movimiento físico de las moléculas del aire en impulsos eléctricos. Se dividen en cinco tipos en función de su diseño; de carbón, cristal, resorte o bobina móvil, condensador y cinta. Los dos primeros dan muy mala calidad, pero los otros son de calidad profesional. La característica definitoria realmente importante es su direccionalidad y según como sea se dividen en:Omnidireccional, cubre un ángulo de 360º y son útiles para sonidos de ambiente, pero no sirven para grabar sonidos aislados, tampoco se pueden usar en situaciones de bajo nivel sonoro o espacios cerrados porque registran el sonido de la cámara.Cardiode, reciben este nombre por que su respuesta direccional tiene forma de corazón. Muy sensibles a fuentes sonoras situadas frente a él y nula respuesta a las situadas detrás.Direccional, poseen un área de sensibilidad de 40º y se les denomina también supercardioides. Al utilizarse cerca de la fuente dan calidad inferior a los cardioides pero son perfectos para grabar de lejos, cuando hay problemas de cuadro para el microfonista (no puede utilizar un micrófono sin que se vea al rodar) al utilizarse un objetivo angular.Otro tipo de micrófonos específicos son los de de corbata, son micros personales que se enganchan a la ropa pinzados, hábilmente disfrazados entre perneras y mangas del vestuario. Idóneos para grabar los diálogos en planos amplios.De radio frecuencia, eliminan los cables permitiendo captar los diálogos sin restringir movilidad a los actores.8.9 La músicaEn los primeros años del cine sonoro, allá por la década de los años treinta, se establecieron muchas de las normas estilísticas que iban a fundamentar el uso del sonido en el séptimo arte: por un lado se trata de no olvidar nunca que el sonido está al servicio del desarrollo narrativo de las historias (de igual manera que ocurre en las conversaciones telefónicas, en el cine hay que favorecer la inteligibilidad de lo que se oye frente a la fidelidad de la reproducción de la fuente sonora; piénsese lo ‘falso’ que resulta el sonido que se escucha en películas que describen ambientes en bares de copas o conciertos musicales); y por otro se busca que el sonido guíe nuestra mirada adelantándose a

Page 3: modulo 4 clase 1

algunas de las cosas que van a aparecer (después de muchas décadas de experiencia como espectadores, los públicos conocen las músicas del cine de terror, melodramáticas y de otros muchos géneros).

Además de los diálogos de los personajes, en el cine la banda sonora recoge los efectos sonoros y la música.

Los efectos sonoros, generalmente, se realizan a posteriori en laboratorio bien por motivos de verosimilitud o bien por resultar perturbadores al sonido directo. No debe olvidarse que los sonidos de algunos objetos de la vida real no suenan cinematográficos (disparos, rotura de un huevo), no existen (espadas láser) o no tienen la calidad requerida en el momento de rodarse. En suma, que cualquier sonido que pueda perturbar la inteligibilidad de los diálogos es relegado a los denominados efectos sala. Aquí se recrean, utilizándose los medios más insospechados (motores de lavadora funcionando al revés, cajones de arena removidos con la mano, chapas metálicas agitadas para vibrar), para otorgar a la imagen el complemento que convierte al cine en una experiencia sensorial completa y que provoquen reacciones en el espectador, tanto a nivel físico (explosiones, motores, armaduras chocando...) como emocional (voces de ultratumba, chirridos de bisagras...).

La música de cine se suele presentar de dos formas diegéticamente, emanada del propio desarrollo de la películas o extradiegeticamente, que suena al margen de las imágenes que vemos.

La música diegética aparece en el guión creándose desde la preparación de la producción. Aparece en una escena como parte de la misma: una radio que suena, un concierto al que asisten los protagonistas... Cumple una función de ambiente y sirve en ocasiones para identificar determinados espacios, permitiendo al director una economía visual que los identifique. Por ejemplo: el primer plano de un personaje con esmoquin sentado en una butaca oyendo un aria nos lo sitúa en la ópera sin necesidad de más planos.

La música extradiegética es de presencia arbitraria y suele aparecer en la post producción. La música como tal se convierte en narrador o intérprete del discurso visual. Viene impuesta por el compositor y por la subjetividad del mismo; su presencia o ausencia se debe a las necesidades del discurso, da verdadera unidad al film y no revela la procedencia como fuente sonora integrándose como un elemento más de la narración. Imposible no recordar como un todo los trabajos sonoros de Ennio Morricone para Sergio Leone o los de Bernard Hermann para Alfred Hitchcock.

La música puede ser original, compuesta expresamente para el film, o no original, temas existentes con anterioridad a la existencia de la película. La música original siempre tiene forma extradiegética, mientras que la música preexistente puede asumir también la forma diegética. Pueden ser piezas que pertenecen a la época en que se sitúa la acción, como la música de Mozart en Amadeus (1984) temas étnicos o populares de la cultura en la que se ambienta el film, como la tarantella que suena en Sicilia en El Padrino III (1990); define los gustos musicales de los personajes con la consiguiente identificación de su edad, carácter, o estado de ánimo, pero resulta mucho más caro, por el precio de los derechos, que encargarla expresamente a un compositor .

La música forma parte de la banda sonora de una película y no es banda sonora en sí misma aunque la comercialización de la misma en disco o cassette se haga bajo esta denominación. Desde hace unos años se produce un fenómeno de marketing que pretende explotar las ganancias de ambos mercados, el cinematográfico y el musical. Para ello se incluyen, en cada vez más películas, una serie de temas de grupos noveles y temas nuevos de grupos consagrados en la banda sonora de un film para su promoción, aunque en numerosos casos apenas suenan unos segundos en pantalla.

El sonido

La banda sonora de un film está compuesta, esencialmente, con cuatro grandes tipos de sonidos:La palabra. El uso más frecuente es el diálogo, articulado por la presencia física de unos intérpretes que hablan.

Page 4: modulo 4 clase 1

Pero tampoco hay que olvidar otras aplicaciones como la "voz en off", discurso en tercera persona y sin presencia del narrador en la imagen que, sobre todo, se usa en la estructura temporal del "flash back".La palabra es también presente en las letras de los musicales.  La música. Con frecuencia aparece como complemento de las imágenes.Excepto en los musicales o en biografías de compositores donde la música es protagonista.La música de contexto es cuando se oye la música de un aparato musical que aparece o se escucha en una escena.

 Los ruidos. Acompañan a las imágenes. El silencio. La pausa o la ausencia de sonidos condiciona una determinada situación, con frecuencia de angustia. El silencio es usado dramáticamente.

El sonido real es el constituido por todos los sonidos producidos por aquellos objetos y personas que forman parte de la acción que contemplamos en la pantalla. El sonido real puede ser:

sincrónico: a la vez que vemos una imagen oímos los sonidos que produce.

asincrónico: el sonido que escuchamos no corresponde a la imagen que vemos, pero corresponde

a objetos o personas de la narración o descripción, presentes en la escena pero fuera del campo de la cámara.

El sonido subjetivo, es decir, tal como se escucha per uno de los personajes de la narración. También lo es una música, ruido o palabra presentes en el recuerdo o en la imaginación de un sujeto.

El sonido expresivo es cuando todos los ruidos, palabras o música son producidos por elementos que no pertenecen propiamente a la realidad que se describe o narra. Puede ser:

en superposición con el sonido real, formando con éste una especie de contrapunto orquestal.

en substitución del sonido real, no escuchándose nada del sonido real y sí del expresivo.

La música suele usarse: en substitución de un sonido real: disparos, explosiones, pasos..., acompañados por una música

que substituye al sonido real. La música en este caso tiene el mismo ritmo que el sonido substituido. en substitución de un sonido pensado, recordado por un personaje.

como continuación de un grito o de un ruido:

para subrayar estados psicológicos de los personajes.

como "leit-motiv": se repite un mismo tema musical siempre que aparece el mismo personaje, que

hay una progresión psicológica... como ambiente de fondo.

10 El sonido en el cine El cine nació como imagen en movimiento, sin sonido, pero no por ello fue mudo. El sonido se escuchaba en las salas de proyección gracias a músicos presénciales que interpretaban las canciones de acompañamiento.

Durante su desarrollo los personajes gesticulaban y emitían sonidos articulados, aunque no se oyeran. Cuando los diálogos eran muy importantes se recurría a los cartones escritos. El lenguaje escrito, a pesar de la inteligibilidad de la imagen, en ocasiones era necesario para precisar ideas o conceptos. En este sentido, se puede afirmar que el cine mudo no consistió en un cine carente de sonido, más bien, se trató de un cine silente. Treinta años más tarde se integraría la banda sonora con sonido sincrónico.

Page 5: modulo 4 clase 1

En la actualidad, el sonido es uno de los elementos más olvidado en el estudio del cine y otros medios audiovisuales y los intentos de análisis han apuntado a subordinarlo a la imagen. La banda de sonido funciona como analógica de la realidad, pero muchas veces lo hace de manera exagerada, por ejemplo, la hipérbole sonora es una constante en las películas de acción (Esto es claro cuando intentamos ver un filme sin sonido, o bien, en los momentos de fallas técnicas mientras observamos una proyección).

El sonido cinematográfico se presenta en forma de voz, música, ruidos o efectos y silencios, y suele atender a su localización en función de la imagen. La voz comparte junto con la imagen, la responsabilidad de desarrollar el relato de manera lógica, ayuda a economizarlo y a hacerlo más comprensible. Por su parte, la música por lo regular cumple la función de anuncio y reiteración cada vez que aparece un personaje o una situación. Los ruidos y efectos principalmente son utilizados como elementos onomatopéyicos de los objetos que aparecen en la imagen. Y al silencio se le ha otorgado un valor altamente emotivo.

En forma general, también se habla de planos sonoros de acuerdo a la sensación de profundidad de los personajes u objetos en relación con el lugar del espectador. Así, es común casi no escuchar el ruido de una parvada que en la imagen se ve a lo lejos, que oírlo como si estuviera en un plano más cercano al público de la sala.

Por otra parte, el plano sonoro establece relaciones con el campo visual y así tenemos: el sonido en campo (la fuente es visible: la radio, la calle, una persona); el sonido fuera de campo (la fuente no es visible: el ruido de la regadera mientras se está en otra parte de la casa); el sonido en off (que es un sonido ajeno al campo y fuera de campo; está alejado en el tiempo y el espacio, es la voz del narrador).

En suma, el sonido cinematográfico es una amalgama que adquiere diferentes funciones e intencionalidades fácilmente localizadas desde la perspectiva de la escucha. Según Pierre Schaeffer se pueden establecer tres tipos de escucha para cualquier sonido:[19]

Escucha causal.

Lo importante en ésta es identificar o reconocer el objeto, el fenómeno o el ser que produce el sonido, por lo tanto es un signo indicial, es decir, el sonido representa además de un significado al objeto que lo produce, asimismo aporta datos secundarios sobre éste en cuanto a localización, velocidad, comportamiento o desplazamiento.

Escucha semántica.

Es un sonido codificado, portador de un sentido socialmente reconocido. La relación entre el objeto que produce el sonido y el significado que transporta es simbólica.

Escucha reducida.

Page 6: modulo 4 clase 1

Los sonidos no sólo se identifican con su objeto o son portadores de significados, sino que también se pueden considerar como objetos de observación en sí mismo. Esta escucha especializada forma parte de una experiencia estética de los expertos.

Cuadro 19. Escuchas, intencionalidades y funciones del sonido

Castellanos Cerda, Vicente (2002)Consideraciones sobre la semiótica cinematográfica. UNAM, México, (Inédito).

Para producir la escucha causal y la semántica en el espectador, es necesario referirnos a las funciones y a las intencionalidades del sonido en una película. Tanto la escucha causal como la semántica tienen por objeto sugerir atmósferas diferentes en la mente del público. La atmósfera causal ubica en tiempo y espacio una escena del filme, mientras tanto, la atmósfera semántica denota el mundo psicológico del espectador. El siguiente cuadro establece las relaciones entre escuchas, intencionalidades y funciones.Con base en el cuadro anterior se puede presentar el siguiente diagrama que guía los diferentes tipos de escucha y nos ayuda a ubicar la creación de las distintas atmósferas.

Cuadro 20. Árbol de la escucha cinematográfica

Castellanos Cerda, Vicente (2002:17)Consideraciones sobre la semiótica cinematográfica. UNAM, México, (Inédito).

Recordemos que al crear dichas atmósferas entramos en el terreno de la generación de emociones, el sonido ayuda a transportar al auditorio a ciertas experiencias previas en su memoria, agradables y desagradables, lo que hace sumamente delicado su empleo, al tiempo que responsabiliza al emisor de aquello que intenta provocar en los receptores de su mensaje. De ahí que quién produce y realiza algún mensaje que emplee los recursos auditivos primero debe conocer a fondo lo que provocan en el público.Tame va más allá, en su obra “The Secret Power of the Music”, al decir incluso que para una nación tiene mayor importancia quién escribe e interpreta sus canciones y melodías que quién sea su presidente, pues la vibración de esa música afectará sensiblemente a los átomos, células y neuronas del auditorio para toda su vida.[19] Schaeffer, Pierre. (1988) Tratado de los objetos musicales. Alianza, Madrid.

INTRODUCCIÓN

Page 7: modulo 4 clase 1

    Voy a ser honesto: Mi carrera se llama Comunicación Audiovisual. Pero de Audio tiene más bien poco. Sin embargo no me importaba, yo entré por lo otro.

    Nunca me había interesado especialmente el sonido, sólo por las voces, lo suficiente como para tener unas nociones básicas. Pero un día me tocó ser técnico de sonido en un cortometraje y metí la pata hasta el fondo. Posteriormente fui aprendiendo detalles de gente que me ayudó a solucionar el estropicio.

    Meses más tarde me ofrecieron el puesto de montador de otro corto, una versión redux de un cortometraje cuya versión original había fallado precisamente por el sonido y por eso se repetía. Volví a informarme de ciertos aspectos que debía tener en cuenta.

    Con el tiempo he ido conociendo a gente de doblaje y a técnicos de sonido que me han ayudado mucho en mis pesquisas. He aprendido desde conceptos prácticos y rápidos hasta visiones teóricas y globales de la situación actual. A todos ellos les agradezco todo lo que he descubierto en relativamente poco tiempo y lo que les falta por enseñarme.

    Uno de estos descubrimientos ha sido la Psicoacústica, una ciencia relativamente nueva que estudia los efectos psicológicos del sonido. Gran parte de lo que sigue está basado en las investigaciones que muchos profesionales han hecho en su nombre.

Sonido: Definición

    El sonido es la vibración de un medio elastico, bien sea gaseoso, liquido o solido. Cuando nos referimos al sonido audible por el oido humano, estamos hablando de la sensacion detectada por nuestro oido, que producen las rapidas variaciones de presion en el aire por encima y por debajo de un valor estatico. Este valor estatico nos lo da la presion atmosferica (alrededor de 100.000 pascals) el cual tiene unas variaciones pequeñas y de forma muy lenta, tal y como se puede comprobar en un barometro.

(tomado de http://personal.redestb.es/azpiroz/) 

ELEMENTOS DEL SONIDO PARA ESTUDIANTES DE IMAGEN: COMPARACIÓN ENTRE IMAGEN Y SONIDO

Ha hecho falta una digitalización del sonido para poder comparar el fenómeno visual con el auditivo. La primera digitalización de sonido tuvo lugar en los Laboratorios Bell de Nueva York en la década de los 70. Me he permitido esbozar una comparación, hasta cierto punto, de los elementos característicos de la imagen con los del sonido que sirve como introducción:

- "Punto" equivale a "muestra". Una muestra es un registro de sonido que en teoría puede llegar a ser infinitamente pequeño. En la captación de sonido se recoge una cantidad determinada de muestras por segundo.

- "Línea" equivale a "ciclo sinusoidal". Un ciclo sinusoidal es un conjunto de muestras regular, con un ascenso y un descenso partiendo de cero y llegando a cero. Al igual que líneas curvas, puede haber variaciones en la curva gráfica que muestra un ciclo sinusoidal.

- "Plano" equivale a "tono sinusoidal continuado". Un tono sinusoidal continuado no se da en la naturaleza: es un pitido constante. Si un plano puede formarse por un conjunto de líneas asignadas una junto a otra, puede surgir el concepto de plano. Pero es una aproximación muy, muy vaga. Otra posibilidad es descartar la existencia del plano y considerar que el "tono sinusoidal continuado" es la línea y que el punto es "el ciclo sinusoidal", descartando la muestra como elemento cognitivo en un primer momento, hasta que se agrupa con otros. Sin duda aquí encontramos la mayor laguna de toda la comparativa.

- "Color" equivale a "frecuencia". Grave o agudo equivale por lo tanto a tonos fríos o calientes. El color

Page 8: modulo 4 clase 1

puede producir sensaciones igual que el tono.

- "Luminancia" equivale a "intensidad" o volumen. Posiblemente es la equivalencia más clara de todas.

- "Trama" equivale a "trama", porque el concepto es el mismo. La velocidad de registro de muestras determina  la calidad definitiva del sonido. Existen sistemas de registro tanto analógicos como digitales con las mismas consecuencias que en el tratamiento de imágenes. Por lo tanto podemos decir que el grano fotográfico equivale muy fielmente a la cantidad de detalle de un disco, y el pixel equivale a una muestra.

-  "Textura" equivale a "armónicos". Sin duda la mayor satisfacción al crear esta comparativa ha sido observar cómo los equivalentes visuales de los componentes de la textura gráfica son los mismos que los equivalentes sonoros de los armónicos. Puede considerarse todo un éxito. Los armónicos son las variaciones en los ciclos que permiten crean las auténticas formas sonoras: Timbres de voz, armonías, etc. Se aplican al plano, si aceptamos que éste es un tono sinusoidal continuado, y son la combinación de frecuencia y luminancia.

Otras comparaciones:

-  Nitidez: Existe una zona en el espectro auditivo que podemos considerar de más nitidez que el resto. Es también la parte que más llama nuestra atención, como los colores calientes. Es la zona de los 1.000 hz, como veremos más adelante. Si se oyen sonidos a diferentes frecuencias, las que se acerquen más a ésta son las que se oirán mejor. Se puede considerar que hay una tendencia natural a distinguir en ella la forma y desechar el resto como fondo.

-  Movimiento y secuencialidad: El sonido es una vibración que depende enteramente del tiempo para su percepción, por lo que podemos decir que no existe sin movimiento, al contrario que la imagen fija. Y como no podemos trasladar el concepto de imagen fija al sonido, tampoco podemos hacerlo con la secuencialidad.

-  Línea sugerida/movimiento sugerido: El hecho de que una reproducción pueda surgir de un número de muestras y que éstas formen tonos similares los que percibimos en la realidad supone un movimiento sugerido. Sin embargo debemos recordar que no existe el no-movimiento. En cuanto a las líneas sugeridas, es interesante el hecho de que si nosotros tocamos la escala en un piano podemos imaginar el tono que viene a continuación y también formamos una continuidad interna de los medios tonos si se toca lo suficientemente deprisa. Podemos ver más detalles sobre aspectos sugeridos del sonido y otros aspectos de la Psicoacústica, más adelante.

-  Ritmo: Sin duda queda claro que el ritmo en el ámbito del sonido es equivalente a una repetición de elementos en un esquema. No es que aporte temporalidad como en una imagen fija, sino que la refuerza.

LAS TRES DIMENSIONES

    El concepto de tridimensionalidad requiere más atención que el resto de los anteriores. Para empezar, la representación gráfica de un registro de sonido es bidimensional. Pero esto no supone que una fuente de sonido sea bidimensional. Por definición, el origen de un sonido se encuentra en un solo lugar, aunque puede haber muchos orígenes de un sonido juntos o el sonido puede rebotar y distribuirse antes de llegar al perceptor.

    Una señal mono corresponde a un punto determinado de ese plano espacial en el que percibimos datos. Estos son por ejemplo, las radios antiguas de un solo altavoz.

    Nuestra escucha es biaural. Tenemos dos pabellones auditivos distribuidos a cada lado de la cabeza. Esta escucha biaural tiene como característica que podemos determinar desde qué ángulo del mismo plano se produce un sonido. Un ejemplo realmente interesante es escuchar un CD estéreo de música rock con los altavoces adecuadamente orientados. Nosotros oímos dos fuentes de sonido, pero somos capaces de reconocer que el cantante se encuentra en el centro, el guitarrista a la

Page 9: modulo 4 clase 1

izquierda y el bajista a la derecha. Esto se debe a que recomponemos desde nuestros dos receptores un universo tridimensional, de una manera abrumadoramente similar a la visión estereoscópica.     Es más, podemos determinar si alguien está delante o detrás gracias a muy complejos cálculos inconscientes. Nuestras orejas están orientadas algo más hacia adelante, y la percepción contrastada de los oídos de una fuente detrás de nosotros no es exactamente igual a la de delante. Este reconocimiento se ve apoyado porque no vemos al sujeto, por leves movimientos de cabeza, etc.Otro aspecto de nuestra percepción tridimensional es la falta de capacidad de determinar la altura a la que oímos. No podemos reconocer si nos hablan desde abajo o desde arriba. Otros animales, como los gatos, tienen orejas móviles, y esto supone una facultad para percibir el origen exacto del sonido. Es evidente que a ellos les hace más falta que a nosotros, por constitución física, alimentación y costumbres vitales.

    Volvamos a las fuentes de sonido. El reconstruir los orígenes de las fuentes en un disco en estéreo es una simulación, una sensación acústica, no es real. De hecho, es tan real como una película tridimensional. Los sistemas Surround son una simulación también. Luego veremos la historia de su evolución más detalladamente. Por ahora debemos tener en cuenta que más altavoces no aportan más realidad. Ni siquiera si estuviese un cine tapiado con altavoces sincronizados para ofrecer sonido desde todos los puntos posibles sería completamente real. Además, hay que tener en cuenta que estos sistemas, con los Laboratorios Dolby a la cabeza, no buscan tanto la realidad, sino más bien la espectacularidad.

HISTORIA DE LA BANDA SONORA

    Los inicios del cine sonoro son bien conocidos y muy similares a los inicios del cine mudo, por lo que no nos vamos a centrar en ellos. Pero sí vamos a tener en cuenta que en ambos casos se consideraron al principio como poco interesantes para el gran público, sino simplemente interesantes a un nivel científico, acabaron siendo aclamados por los espectadores.

    También vamos a tener en cuenta otra similitud fascinante: Actualmente el sistema de reproducción tanto del sonido como de las imágenes en un cine son prácticamente similares a como fueron en sus inicios, pero con algunos cambios, como veremos más adelante.

    La pista de sonido óptico analógico tradicional es una banda opaca situada junto a la imagen en la película. Son una expresión gráfica del audio, unas pistas transparentes cuya anchura varía de acuerdo con las variaciones del sonido. Al pasar la película, un haz de luz atraviesa las pistas, y una célula fotoeléctrica convierte la luz en una señal eléctrica que conserva una variación similar. La señal eléctrica se procesa y se amplía hasta convertirla en el código que los altavoces reproducen.

    A finales de los años 20 se multiplicaron las salas que incorporaban la posibilidad de reproducir este sonido, es más, crecieron a un ritmo excesivo, porque se produjeron constantes avances que no se incorporaron a las salas, porque éstas ya acababan de invertir en la nueva tecnología. Un ejemplo se dio con los altavoces, que mejoraron a toda velocidad, optimizados para salas más grandes y para más frecuencias, y a los técnicos de sonido les asaltó una duda: Si debían optimizar el sonido para los nuevos altavoces o para los antiguos. Como dos versiones de una película eran poco rentables, hubo que sacrificar los progresos de calidad durante bastante tiempo.

    En los años 30 se produjo una estandarización de los sistemas de sonido y los propietarios de los cines empezaron a equipar las salas con los medios más adecuados a lo que ofrecían los estándares en la producción cinematográfica, porque sabían a qué atenerse. El resultado fue un esquema de grabación y reproducción que hizo posible que casi todas las películas sonaran aceptablemente en cualquier cine del mundo. El problema fue que el esquema carecía de flexibilidad para incorporar mejoras que superaran las limitaciones existentes en la época. Y esta situación se prolongó una década más.

    A principios de los 50, la industra cinematográfica buscó también en el sonido una mejora sustancial del terrible y conocido competidor que acechaba: el televisor. Se introdujo una banda magnética para el sonido, que curiosamente fue un descubrimiento muy relacionado con la propia televisión y sus sistemas electrónicos de transmisión y almacenamiento de datos. Después de imprimir la imagen, se aplicaban estrechas bandas de un material basado en óxido de hierro, la banda

Page 10: modulo 4 clase 1

magnética en sí. En los estudios se grababa en tiempo real en las bandas magnéticas y supuso un avance significativo  que proporcionaba una fidelidad muy superior a la del sonido óptico convencional.

    Además se permitió la reproducción de sonido multicanal, la voz de los actores se escuchaba desde varias fuentes, izquierda, centro o derecha según aparecieran éstos en pantalla. Esto fue un gran realce a los sistemas panorámicos visuales que surgieron por las mismas razones. Y no sólo con las voces, se logró un mayor realismo en el apartado musical, los efectos especiales de sonido resultaban mucho más creíbles, también desde la parte trasera de las salas. Los principales sistemas de sonido que se crearon son el denominado Todd-AO de 70mm con seis canales y el conocido CinemaScope de 35 mm con cuatro.

    Sin embargo pasaron los años y el sonido magnético, que durante las décadas anteriores floreció con las superproducciones de inmenso realismo e integración, sufrió una grave crisis en los 70. Un declive generalizado acechó a la industria y hubo que recortar gastos. El resultado fue la vuelta al sonido mono y óptico de baja fidelidad.

    En ese momento de crisis fue una resolución muy inteligente: la cabeza lectora de sonido óptico era conocida, económica y sencilla, y también resultan rentables los modos de captación, transporte y mantenimiento del sonido, a lo que hay que añadir que el soporte es el mismo que el de la imagen sin añadidos de ningún tipo. Por su parte la banda magnética cayó en desuso y quedó relegada a estrenos y grandes películas en sólo unas pocas salas. Los rodajes de grandes producciones se seguían grabando con la mayor calidad posible, pero sólo se hacían contadas copias con esa calidad, mientras que se optimizaba la calidad de la banda óptica en mono; por supuesto, hasta los evidentes límites que ésta tiene. Curiosamente muchos hogares disfrutaban en aquellos momentos de los sistemas de alta fidelidad, con mucha mayor calidad que las salas de cine.

    Durante los 80 la industria estaba viviendo una recuperación financiera y se hizo necesario un modo de volver de algún modo a la calidad de hacia 30 años. Surgieron los sistemas multicanal para algunas películas importantes. El gran avance fue la investigación de Laboratorios Dolby de un formato de sonido estéreo para películas de 35 mm, cuyo nombre es conocido por todos nosotros: Dolby Stereo. En el espacio ocupado por la pista convencional óptica mono hay dos pistas que no sólo contienen información de canales izquierdo y derecho como en sonido estéreo doméstico, sino que también contienen codificada la información para un tercer canal de pantalla (central) y un canal envolvente para sonidos de ambiente y efectos especiales.

    Este formato no sólo permitió usar el sonido multicanal sino que también mejoró la calidad del propio audio y supuso un gran avance en cuanto al diseño de la banda sonora: Los sistemas tenían (y tienen) códigos para ser comprendidos por lectores novedosos, pero también pueden ser asimilados por lectores antiguos para reproducir el sonido sin las ventajas adicionales. Esto supone que no es necesario cambiar el sistema reproducción sonora de un cine cada vez que surge una innovación.

    En cuanto a la fidelidad, hubo muchas técnicas que la mejoraban, tanto en reproducción como en grabación. Lo principales fueron la reducción del ruido Dolby A, que elimina el soplo y el sonido de fritura, característicos del sonido óptico, y la ecualización de los altavoces para ajustar el sonido del sistema a una curva de respuesta estándar. Como resultado, las películas Dolby Stereo podían reproducirse en los cines instalando procesadores Dolby, con una respuesta en frecuencia mucho más amplia y una distorsión mucho mejor que las películas convencionales. Otra ventaja del formato Dolby es que las bandas de sonido se imprimen simultáneamente con la imagen, al igual que en las anteriores películas mono. De este modo, el coste de las copias ópticas con cuatro canales no es mayor que el de las mono, y mucho menor que el de las magnéticas. El resultado, aún en los 80, fue la capacidad multicanal equivalente al de las películas magnéticas de 35 mm, que enseguida quedaron obsoletas, con una mayor fidelidad, mayor fiabilidad y menor coste.

    En 1986, los Laboratoriso Dloby introdujeron un nuevo proceso de grabación denominado Dolby Spectral Recording. Como sistema de reducción de ruido era un sistema de codificación-decodificación simétrico usado tanto en grabación como en reproducción. Alcanzaba una reducción de ruido equivalente al doble que el sistema Dolby A. Las bandas de sonido óptico de 35 mm tratadas con Dolby SR en lugar de Dolby A no sólo sonaban excelentemente en los cines con los nuevos procesadores SR, sino que también se podían reproducir satisfactoriamente en todos los cines con

Page 11: modulo 4 clase 1

Dolby Stereo. Esto llevó a la situación actual en que prácticamente todas las copias con sonido analógico tengan el formato Dolby SR.

    El siguiente desarrollo de Laboratorios Dolby (que ya se había convertido en la máxima autoridad en el campo del diseño de pistas de audio) fue presentado en 1992 y pasaba ya al sistema digital. El Dolby Digital consta de una banda de sonido óptica compuesta por seis canales digitales, además de una banda analógica de cuatro canales SR. Todo ello en una película de 35 mm. Este formato fue otro avance significativo en el sonido cinematográfico que permitía cinco canales independientes (izquierdo, central, derecho, Surround izquierdo y Surround derecho) y un sexto canal para efectos de baja frecuencia (los bajos de una orquesta, golpes, temblores de tierra y todos los sonidos que precisen de un refuerzo en este campo). Además de seis canales, el formato Dolby Digital proporciona una gran capacidad dinámica, amplia respuesta en todas las frecuencias, baja distorsión y la inmunidad al desgaste similar a las películas actuales de celuloide. Hoy es el formato digital más conocido, con el que se han realizado un mayor número de películas y el que más cines de todo el mundo tienen instalado.

    El último avance del sistema Dolby ha sido el Dolby Digital Surround EX, que, como su propio nombre indica, añade una pista Surround extra al Dolby digital. Este canal se reproduce por los altavoces Surround de la pared trasera de las salas. Surgió en 1999 y ha sido un recurso muy solicitado para dotar de más espectacularidad a las producciones de Hollywood.

LA MÚSICA

    Las funciones de la música varían según sea su origen. En este sentido diferenciamos entre música diegética; aquella que pertenece al mundo de los personajes (por ejemplo, en una escena de baile en una película de los años 50, la música de la orquesta que toca en la sala) y la música no diegética: la que existe fuera del mundo de los personajes, y por tanto ellos no la pueden oír.

    Aunque la función principal de la música diegética es la de suministrar apoyo y coherencia a aquello que se nos muestra en la imagen el hecho de hacerla necesaria puede ir ligado a unas intenciones más complejas del realizador (y no olvidemos que los grandes realizadores consiguen subvertir esta dicotomía -una música diegética se funde en una no diegética; un personaje comenta la no diegética...-). Sea o no necesaria, la música de una producción audiovisual puede cumplir alguna de las siguientes funciones:

-  Suministrar información: la letra de una canción puede explicarnos cosas que pasan, sentimientos de los personajes, etc.; también el estilo musical nos puede informar de la época y el lugar en el que se desarrolla la acción. - Captar la atención del espectador: a base de golpes orquestales, fanfarrias, sintonías de programas - Establecer el ritmo: de la edición de la imagen o del diálogo. - Mantener el flujo y la continuidad de la acción: la persistencia de una música suavizará cortes abruptos, rupturas de raccord visual.

    Existen determinados formatos musicales destinados a cumplir funciones específicas:

- Sintonía: caracteriza inequívocamente un programa o producción audiovisual; avisa de su inicio o final. - Ráfaga: fragmento de música sin otra finalidad que la de introducir variación o distracción sonora. - Cortinilla: fragmento breve utilizado para delimitar y separar secciones de una misma producción. - Fondo o ambiente: música incidental, que suele ir mezclada con diálogos o efectos importantes, y que contribuye a mantener una continuidad anímica o estructural. - Banda Sonora: suele identificarse como tal la banda musical pero incluye también la banda de efectos y la de diálogos.

    Pero lo más importante de la música es que diga algo. La música sugiere. Es un hecho innegable. Es más, por eso existe. Como imagen auditiva que es, trae recuerdos de otras imágenes o de sentimientos. Vamos a observar aquí algunos de ellos en una configuración sinfónica:

- Los timbales y percusiones con gran presencia de frecuencias graves y sobre tonos, depende del

Page 12: modulo 4 clase 1

ritmo, si son movimientos vivos, denotan cierta tensión, angustia en algunos casos; en un ritmo medio, le dan un aire de heroicidad, de gesta, y muy lentos, dan cierto aire de solemnidad.- La familia de cuerda (violín, viola, chelo y contrabajo) se utiliza para conferir tonos románticos, apasionados o melancólicos.- La familia de madera (oboe, fagot) suele conferir tonos intimistas.- Los metales (trompetas, trombón de varas etc.) denotan ritmo, acción.- El piano es siempre un elemento para denotar soledad.- El flautín denota infancia y candidez.- La guitarra española presta siempre un aire latino.

    Todo esto es cuidadosamente analizado por el compositor de una obra junto al director de la película. Un autor puede dejar una voz femenina con poca carga instrumental en el momento en que hable una mujer en una secuencia romántica y volver a ella (violines, etc.) cuando habla la voz masculina. No se solapan y así se continúa con el aspecto romántico que proporcionaba la voz femenina.

LOS EFECTOS DE SONIDO

    Un efecto de sonido puede considerarse como cualquier reproducción de auditiva que trate de acompañar a la acción y proporcionar realismo a una producción audiovisual. Los efectos pueden representar objetos, movimientos en el espacio o en el tiempo, estados emocionales, procesos de pensamiento, contacto físico entre objetos, escenarios, entidades irreales, etc. Éstas son los diferentes tipos que hay, según su origen:

- Efectos originales: Son los procedentes de las tomas de sonido directo o sonido de producción. Estos efectos pueden ir en sincronía con determinadas imágenes o ser independientes de ellas, si bien su origen sigue siendo los lugares del rodaje. Cuando la planificación de la producción establece la grabación de sonidos originales hay que conseguirlos con la máxima nitidez sonora posible Los efectos originales tienen los inconvenientes de que es difícil hallar lugares lo suficientemente tranquilos y silenciosos que garanticen una buena grabación, y que muchos eventos naturales son poco controlables y difícilmente repetibles. Por todo ello los efectos originales a menudo requieren de algún tipo de procesado posterior antes de incluirlos en la banda sonora.

- Efectos de sala: Son sonidos que reemplazan los sonidos de ambiente y los efectos que se pierden cuando se doblan diálogos o se graban en directo. En general los efectos de sala acostumbran a ser pasos, roces de ropa, ruidos domésticos, puertas que se abren y se cierran, etc., y para su grabación los estudios disponen de suelos de superficie variable. Efectos típicos de sala son los pasos de un caballo creados a partir de golpear cocos contra un suelo de tierra o de grava, la lluvia creada a partir de volcar tierra sobre un papel situado encima del micrófono, los sonidos de comida friéndose creados a partir de poner trapos mojados sobre una superficie ardiente, los truenos creados a base de sacudir un globo lleno de perdigones o bolitas de plomo, o el fuego creado arrugando papel celofán. Los efectos de sala no siempre tienen que ser lo que definitivamente vaya a sonar: posteriormente pueden procesarse o acumularse unos sobre otros hasta conseguir el tipo de sonido que mejor se adecue.

- Efectos de colecciones o de bibliotecas: Las colecciones en discos son el recurso más utilizado a la hora de construir la banda sonora de una producción audiovisual. Suelen venderse en sitios especializados y están organizadas temáticamente con categorías tales como transporte, naturaleza, domésticos, electrónicos, exteriores, humanos, etc.

- Efectos electrónicos o sintéticos: Oskar Fischinger desarrolló técnicas que consistían en la manipulación de la pista óptica de la película, pintándola a mano, por ejemplo. Ya en los años 50 algunos creadores de efectos de sonido construyeron máquinas especiales para generar determinados tipos de efectos, y también son de aquella época los primeros sonidos verdaderamente sintéticos. No obstante, hasta los años 70 los sintetizadores y otros dispositivos electrónicos no empezaron a funcionar a gran escala. Además empezó a utilizarse el denominado Sampler, que es un sistema electrónico para colocar efectos en tiempo real. Éstos están almacenados en una base de datos y se insertan adecuadamente. En España, el mejor ejemplo que tenemos es Crónicas Marcianas.

Page 13: modulo 4 clase 1

    Los sonidos pueden ser naturales, es decir, que el efecto sea el sonido del mismo objeto que lo ha producido o falseado, a esto se lo denomina "sonido característico". Es una imitación del objeto que está sonando. Un sonido característico puede reconocerse, pero no es el original de la fuente sonora sino aquél que se supone, o que se supone que el oyente puede suponer, que ha de tener la fuente sonora.

    La deformación o imitación de un sonido característico se hace con el fin de intensificar el impacto sobre el espectador. Un ejemplo muy interesante ocurrió en USA: durante muchos años todos los anuncios de automóviles utilizaban el mismo sonido, el de un Deussenberg del 35, debido a que su timbre no enmascaraba las voces de los locutores y realmente "parecía un coche"; para el oyente especialmente si no era demasiado entendido en sonidos de coches el efecto utilizado era apropiado, aunque no fuera el que correspondía en realidad al coche que se promocionaba.

Los sonidos tienen distintas funciones en las producciones audiovisuales:

- Sonidos objetivos: aquellos que suenan a consecuencia de la aparición de la imagen de un objeto que emite el sonido. Un sonido objetivo suena como se supone que sonará el objeto que aparece en la imagen (no necesariamente suena exactamente como lo hace en la realidad). - Sonidos subjetivos: aquellos que apoyan una situación anímica o emocional de la trama o de los personajes, sin que necesariamente el objeto productor del sonido aparezca en la imagen.

- Sonidos descriptivos: aquellos que no representan a ningún objeto de los que aparecen en la imagen, sino que son abstracciones o idealizaciones de los sonidos supuestamente originales (aquellos que podríamos escuchar). Podemos considerarlos como sonidos metafóricos.

 VOZ Y OÍDO

    Está claro que el oído humano está hecho para recibir voces humanas por encima de cualquier otro sonido, si bien existen sonidos vitales distintos a los humanos que es imprescindible conocer y percibir. Un hombre de hace 300.000 años necesitaba reconocer el paso de un conejo cuando le oía. Era algo necesario para comer. Nosotros no, pero sí podemos llegar a reconocer portazos o cristales rotos, por ejemplo. La educación de la voz nos puede llegar a dar la posibilidad de distinguir a diferentes personas según la fuerza con la que pisan al andar. Unas personas pueden escuchar una pisada, otras pueden reconocer una pisada masculina de un hombre con sobrepeso.

    Una ventaja importante que tiene la investigación de la voz humana dentro de los parámetros de investigación del sonido es que ha sido muy estudiada gracias al interés publicitario, con el que se ha llegado a muchas conclusiones y descubrimientos fascinantes.

    Los límites auditivos se encuentran entre los 60 hz y los 18.000 hz. Nosotros oímos en escala logarítmica, y encontramos más diferencia tonal entre los 60 y los 80 hz que entre los 10.000 y los 10.020. Por otro lado, la mencionada educación del oído en nuestra sociedad ha impuesto a nuestra educación inconsciente una limitación mayor: entre los 80 y los 16.000. Esto significa que nosotros no oímos, a no ser que tengamos nuestra escucha educada, una frecuencia mayor de 16.000, o que sí la oímos, pero no le prestamos atención, como cuando descartamos el ruido de fondo de una zona transitada. Una prueba fehaciente de esto es que los tubos de imagen de televisores y monitores emiten constantemente un pitido a 16000 hz que nosotros no escuchamos. Sin embargo sí podemos llegar a asociar una sensación extraña en nuestro oído con la presencia de una televisión encendida. El standard auditivo comercial se encuentra en mayores franjas: 20 y 20.000. Estos son también los límites que tienen nuestros altavoces comunes.

    Como se ha adelantado antes, tendemos a fijarnos más en una zona del espectro sonoro. Ésta se encuentra alrededor de los 1.000 hz (entre los 300 y los 3000) y es precisamente la frecuentada por la voz humana, que aunque tiene un timbre distinto para cada individuo, es general en esa zona. Tampoco es casualidad que, si hacemos una escala logarítmica entre 20 y 20.000 nos encontremos con que 1.000 se encuentre en la mitad.

Page 14: modulo 4 clase 1

    Los hombres y las mujeres tienen amplitudes de voz ligeramente distintas, tanto denotativa como connotativamente. Esto nos hace reconocer una voz masculina haciendo un falsete, por ejemplo. El timbre masculino tiende a estar entre los 300 y los 2.000, el femenino entre los 500 y los 3.000.

    Como ejemplo de connotación, vamos a utilizar uno de los resultados que nos han proporcionado las investigaciones del sector publicitario. En él se mantiene la teoría de que la voz masculina tiene mayor poder de convicción que la femenina, y ésta tiene mayor capacidad de ensoñación. Ésta es la razón de que haya más locutores masculinos que femeninos, pero también es un motivo para que las mujeres tengan un espacio determinado reservado dentro de la publicidad igualmente importante. Y por supuesto puede haber excepciones según los locutores. Elías Rodríguez (anuncios de estrenos de Disney) y Marta Angelat (anuncio de McDonald's en respuesta al conflicto de las vacas locas durante la crisis del sector) son dos ejemplos que contradicen esta regla.

    Una cualidad interesante de la escucha humana es la dificultad de separar sonidos integrados. Se ha demostrado que los perros reconocen mucho mejor los sonidos, es más, si oyen un coche, pueden diseccionar todas las partes de su motor. Nosotros no podemos hacer eso a no ser que nos centremos en analizar sonidos concretos durante tiempo prolongado, y con cada nuevo sonido hay que aprender de cero (no es lo mismo el sonido de un coche que el de una orquesta). Este efecto puede deberse a que nosotros asociamos el conjunto de sonidos simultáneos de un coche a la imagen de un coche.

    Otro aspecto muy interesante es el del timbre del oído. Cada oído es distinto, una persona no oye lo mismo que otra, escuchamos con diferentes matices. Algunas frecuencias tienen más intensidad que otras, aunque ciertamente sí percibimos de un modo muy similar. Esto puede llevar al fascinante ejemplo de que un imitador resulte más creíble para unas personas que para otras.

POSIBILIDADES DE TRATAMIENTO DEL SONIDO

    Antes de adentrarnos en las posibilidades que ofrece el control de unas muestras de audio y su tratamiento expresivo, vamos a tener en cuenta algunos recursos básicos que posibilitan el tratamiento: El efecto de reverberación, los procesos dinámicos y la ecualización.

    El efecto de reverberación consiste en copiar una muestra del espectro de sonido y repetirla. Existen varios parámetros que se pueden cambiar, entre ellos el tiempo que tarda en repetirse, el volumen que tiene la nueva repetición, etc. Este es posiblemente el efecto más importante del procesado de sonido. Es relativamente simple y rápido de tratar y está muy estudiado. La reproducción electrónica produce unos efectos similares a los de la naturaleza, en la que el ejemplo más claro que se puede encontrar es el del eco: Decimos algo en voz alta y se nos repite más bajo y con rasgos ligeramente distintos hasta desaparecer. Existe otro parámetro importante: La naturaleza de reflexión de sonido de la superficie en que rebota. Pero pronto veremos más utilidades de este efecto.Algunos modos de transformar el timbre basadas en retardo:

- El efecto Flanger es un filtrado periódico (en forma de peine) de una serie de frecuencias determinadas por el tiempo de retardo, aunque explicarlo con palabras es poco efectivo. El origen del Flanger es mecánico: si al grabar una cinta en un magnetofón presionamos con el dedo de vez en cuando y con fuerza variable la bobina que entrega cinta originamos micro-frenazos que alteran la señal original. Si grabamos simultáneamente en 2 magnetofones, y en uno aplicamos el "flanging" manual mientras que en el otro no, generaremos el barrido característico del efecto de flanger. El flanger proporciona efectos más llamativos cuanto más rico, armónicamente hablando, sea el sonido.

- Chorus se utiliza para engrosar la señal, o para simular la existencia de varios instrumentos sonando al unísono. Se simula la imperfección de un coro. En esta situación, un intérprete puede atacar con cierto retraso y desafinar ligeramente respecto a otro intérprete; eso es lo que se trata de simular, de manera compacta. Su funcionamiento es similar al del flanger (sólo que la señal que sale se filtra y se realimenta).

Las transformaciones de dinámica se refieren al control del volumen y a la relación de volumen entre

Page 15: modulo 4 clase 1

la señal y el ruido. Esto supone no simplemente oír con más o menos intensidad, sino que ofrece numerosas posibilidades:

- Los denominados compresores dotan de intensidad a las frecuencias de menor volumen y restan a las de mayor volumen. Esto produce más fuerza a la hora de trasmitir susurros, por ejemplo, y hacen que el volumen total sea uniforme.- Las puertas de ruido eliminan las muestras de audio de menor intensidad. Estos filtros sirven para eliminar los sonidos indeseables a partir un umbral mínimo de ruido y resultan especialmente útiles.- Los limitadores consisten en que la intensidad del sonido no suba de las cotas fijadas para que no se oigan muestras más altas de lo deseable. También tiene mucha utilidad.- La normalización consiste en limitar la señal de audio y hacer que el resto del espectro se adapte a este límite. Si se pone un límite por arriba, todo el sonido se ajustará proporcionalmente. Se utiliza para que una obra prolongada o una emisión mantenga la misma intensidad constantemente.- Los extensores realizan la función contraria a los compresores: bajan las frecuencias bajas y suben las altas.

    La ecualización consiste en modificar alterar la señal mediante tres parámetros: Se elige la frecuencia que se va a alterar, se elige la anchura de banda por encima y por debajo de esa frecuencia y se decide cuánto se amplifica o atenúa. El efecto resulta en un realzado de unas partes de una obra. Podemos cambiar una pieza musical grabada dando más fuerza a los bajos y menos a los agudos sin alterar el volumen, porque lo subimos en una parte y lo bajamos en otra.

    En muchas mesas de mezclas analógicas de sonido podemos encontrar una serie de filtros que tienen una función similar a la ecualización:

- Pasa-banda: dejan intacta la señal que se halle en torno a una determinada frecuencia central eliminando el resto. Sirve para elminar fragmentos pequeños de ruido.- Pasa-bajos: dejan intacta la señal que exista por debajo de una determinada frecuencia de corte eliminando el resto. Sirve para eliminar agudos.- Pasa-altos: dejan intacta la señal que exista por encima de una determinada frecuencia de corte (por ejemplo, el filtro de 80/100 Hz que habitualmente llevan las mesas de mezcla) eliminando el resto. Sirve para eliminar tonos graves.- Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a una determinada frecuencia central. Sirve para aislar un sonido concreto.- Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una determinada frecuencia de corte, pero sin ser tan abruptos como los pasa-altos y pasa-bajos (los controles de graves y agudos de los amplificadores domésticos y algunas secciones de los ecualizadores de las mesas de mezclas suelen ser de este tipo).

    La mayoría de filtros analógicos o digitales adicionales a los anteriores consisten en combinaciones más o menos complicadas de los mismos.

UTILIDAD DEL TRATAMIENTO DEL SONIDO

    Ya que nuestra mayor nitidez se encuentra en la franja en que percibimos las voces, hay que tener especial cuidado al tratarlas. Muchas formas de tratamiento y grabación pierden calidad y se hacen notar en este margen. Por lo tanto hay que tratar de mantener su calidad e incluso mejorarla.

    En el mundo del sonido existen equivalentes a los encuadres visuales. El concepto de planos sonoros se refiere a las relaciones existentes entre las diversas fuentes que coexisten en una banda sonora, es decir, las diferentes voces, la música y los efectos.Hay cuatro tipos de planos básicos:

- El narrador: Son las voces en off que buscan cercanía al espectador. Se utiliza mucho el efecto de compresión y se le dota de más intensidad que al resto. La sensación resultante consiste en que sentimos que quien nos habla se encuentra cerca. Ésta es la función principal de los compresores mencionados antes: Cuando oímos más altas las frecuencias de poca intensidad, nos invade la sensación de que nos hablan muy de cerca. Las voces susurrantes salen muy reforzadas con este sistema. El locutor y actor de doblaje que más la utiliza en España es sin duda Salvador Vidal.

Page 16: modulo 4 clase 1

- El primer plano: Cuando vemos a alguien en pantalla y debe ser el centro de atención también debe tratarse con fuerza su muestra de audio. Es la voz del protagonista manteniendo una conversación. El mezclador debe tener cuidado de que sea a él a quien se oiga principalmente, aunque haya otros sonidos de fondo. Por supuesto, también la música puede estar en primer plano.

- El segundo plano: Es un concepto difícil de explicar. No es lo que llama la atención pero se oye. Puede ser una conversación en secundaria a la que no prestamos atención (o no debemos). Gosford Park muestra numerosos ejemplos. Otro caso interesante ocurre Parque Jurásico, cuando se visita la celda de los velocirraptores. Se utiliza como recurso expresivo dando un segundo plano a los personajes que están en primer plano y se va cediendo la atención a otros. También sirve de ejemplo el sonido de un televisor que no es el centro de atención. Literalmente, lo oímos en segundo plano.

- El tercer plano: Consiste en el conjunto de sonidos que no tiene una relevancia especial, el ejemplo más ilustrativo es el de gente en un bar hablando sin que nos demos cuenta de qué dicen.

    Hay otros aspectos que tienen que tenerse en cuenta. Uno de ellos es la ambientación. Existen diferencias entre un espacio abierto y un espacio cerrado tanto en el tratamiento de la fotografía como en el del audio. Mientras, generalmente, la voz en un espacio abierto suena natural, en un espacio cerrado suena reverberada dependiendo de los materiales y la arquitectura del entorno. Existen diferentes modelos de reverberación para cada situación. Incluso los hay prefijados para habitaciones, grandes salones, etc.

    Otras situaciones en las que el efecto de reverberación se utiliza es para dotar de importancia a un personaje. Dios, como personaje en obras audiovisuales, ha tenido reverberación casi siempre que se ha representado en el cine. Incluso es digno de tener en cuenta el caso de El Show de Truman: Ed Harris (tanto en versión original como aquí, doblado por Salvador Vidal) susurra al final de la película a Truman. La reverberación con que le oye Jim Carrey es inmensa, y se ve un plano del cielo gigantesco, ante las palabras "soy el creador". Luego oímos la continuación de la frase "...del programa de televisión que llena de esperanza y felicidad a millones de personas". Esta parte es más digna de un dios paródico, y la reverberación desaparece, porque vemos a Ed Harris hablando por un micrófono.

    Un problema que no se puede solucionar es deshacer este efecto. Si se graba con un chromakey simulando un espacio abierto, hay que tener mucho cuidado de no dejar que se grabe la reverberación de la sala azul, porque actualmente es imposible de deshacer.

    También hay casos en los que las convenciones han dejado atrás el realismo. En las telecomedias no hay reverberación, porque originalmente se graban ante el público. Se ha comprobado en un anuncio de Páginas Amarillas que el efecto no es adecuado. El intento de simular una sitcom americana se desvanece por culpa del tratamiento del sonido en esta campaña.

    La ecualización se utiliza mucho para restar calidad. Esto es un recurso expresivo también importante en algunos casos: Mediante esta técnica se simulan llamadas telefónicas, voces en la radio, etc. No sólo tiene esta función expresiva, también tiene una función correctiva, porque ayuda a disminuir partes no deseables. Pero lo interesante es tratar la música con este sistema. Si se realza una parte de alta frecuencia del espectro, se da más brillo, si se realzan los bajos, quedan tonos más sombríos. Nótese una vez más que se utilizan expresiones típicas de las imágenes visuales.

    Para las voces también se aprovecha este sistema, realzando graves en los hombres, agudos en las mujeres y los niños o cualquier aspecto que los realizadores pretendan manipular, por ejemplo, si queremos que una persona se oiga en un segundo plano a través de una pared con suficiente calidad pero con algo de dificultad para que se le entienda.

Otro asunto digno de mención es la forma de solapar música con voz. Para que la música no impida escuchar un diálogo se limita el volumen, se normaliza y luego se ecualiza reduciendo su fuerza en la zona de los 1.000 hz. El resultado es que las voces se entienden mejor, porque el oyente no tiene obstáculos que impidan reconocer bien la parte que capta nítida en el espectro, mientras que de fondo, nunca mejor dicho, se escucha la composición musical.

Page 17: modulo 4 clase 1

RUIDO Y SILENCIO

    El ruido es uno de los pocos conceptos del mundo de la imagen que inmediatamente recuerdan al aspecto sonoro más que al visual.

    En la Teoría de la Comunicación se considera ruido al exceso de información o a la información no deseada. Esta definición es perfectamente aplicable al sonido. La forma en que el ruido se plasma en el audio es en ondas de sonido adicionales que dificultan o molestan en mensaje.

    Existen varios tipos de ruido: El ruido electrónico, el ruido de cinta y el ruido de fondo.

    El ruido electrónico es el que se genera durante el procesado electrónico en los sistemas de tratamiento de sonido. Generalmente los aparatos están preparados para producir el menor ruido posible, y en el mundo del tratamiento digital el ruido tiende a ser mínimo.

    No es así en los grabadores de cinta. En este grupo se incluye todo tipo de ruidos producidos por la grabación, el propio motor de la grabadora, etc. Además pertenecen a él los ruidos inseparables de una película, como ocurre con las viejas películas deterioradas.

    Ya hemos visto que existen métodos para eliminar este ruido, la puerta de ruido tiende a ser eficaz, además se puede registrar un ruido concreto en un momento de silencio de la cinta y casi extirparlo del resto mediante la inversión de fase. Se sabe que una muestra de audio que se solapa con una versión invertida de sí misma se anula igual que si ponemos un negativo de un fotolito con la misma imagen. Si lo que se hace es coger una muestra de supuesto silencio con ruido y restarlo de todo un fragmento de audio posterior con voces y música, el ruido desaparece con relativa facilidad. Resulta impresionante usar este recurso para eliminar todo tipo de voces o sonidos que no interesan. Y cada día se investiga más este apartado el mundo del filtrado. Pero hay que tener en cuenta que este ruido puede ser demasiado parecido a algún sonido que nos interesa. El sonido /s/ entra generalmente en conflicto con los filtrados de audio.

    De cualquier manera, el ruido de fondo es habitual y característico en las películas. No es lo mismo grabar un momento de silencio en un parque que en un sótano. Es más, si eliminamos ese ruido, el resultado es irreal. Debe haber un ruido a no ser que se pretendan dar unas circunstancias concretas.

    El silencio podemos entenderlo como un tipo de sonido especial. Su uso dosificado puede generar expectación, o un gran impacto emotivo cuando el desarrollo lógico de la escena hace esperar un sonido fuerte.

    Un tratamiento objetivo del silencio es la ausencia real de sonido en la narración cuando no hay imagen que justifique un ruido.

    El tratamiento subjetivo es utilizar el silencio para crear un ambiente emocional concreto. Además de generar expectación o de contrastar escenas o mensajes visuales puede llegar a comunicar situaciones de desolación, muerte, emociones desagradables... pero también tranquilidad o distanciamiento.

    Matrix es una de las pocas películas que se han hecho con fragmentos sin absolutamente nada de ruido. La sala blanca completamente vacía donde se encuentran los dos protagonistas pretende resultar falsa, increíble, y lo consigue mediante diálogos completamente limpios de ruido y silencios absolutos.

    En otros casos resulta interesante la necesidad de buscar un ruido de fondo para dar más credibilidad. Esto ocurre con la restauración de los clásicos y en ocasiones, con nuevos doblajes que se hacen de ellos. Si la música contiene un ruido concreto, debe tenerse cuidado de que las nuevas voces no contrasten con ellas, y debe añadirse un ruido que no se sume al original pero que tenga el suficiente nivel para ser reconocido.

FUTURO

Page 18: modulo 4 clase 1

    Actualmente se está trabajando en muchas posibilidades que algún día verán la luz (u oirán el sonido) en la grabación, producción, y reproducción con posibilidades fascinantes. Los límites que se tienen ahora están desapareciendo porque se centran en campos como la velocidad de transmisión de datos, que progresan a pasos agigantados.

    Ya es posible crear voces virtuales y alterar las existentes, pero sólo son experimentos de laboratorio con muy poca salida comercial, de momento. Warner Bros trató hace años de reproducir la voz del desaparecido Mel Blanc (actor que dio voz a todo el elenco animado de la compañía) para un especial de los Loney Tunes y lo consiguió, utilizando a un actor distinto y tras una enorme inversión. George Lucas trató que el La Amenaza Fantasma tuviese un doblaje automático para cada idioma utilizando los registros de sus actores originales, pero desechó la idea porque los resultados quedaban demasiado planos y sin vida.

    En el mundo del audio digital hay un dogma: Todo es matemáticamente posible.Dentro de unos años veremos un nuevo mundo de posibilidades creativas:

- Síntesis de voz partiendo de cero- Variación del timbre de voz de una grabación- Sonido real en tres dimensiones- Posibilidad de rejuvenecer y envejecer voces- Emisiones de radio digital en Surround- Música sintética en Surround.- Estándares de grabación de DVDs audio en 5:1 con cotas de calidad y capacidades nunca vistas.

Fundamentos de tecnología de audio. 1. Funcionamiento del sonido. Las ondas de sonido son vibraciones en el aire con dos características básicas: FRECUENCIA (que va desde los tonos más graves hasta los más agudos) y AMPLITUD , desde débil a fuerte. Juntas

forman lo que se conoce como una onda sinoidal.Dicha vibración se puede representar gráficamente como en la imagen de la izquierda. La amplitud de la onda se representaría con la altura: cuanto más alto más fuerte es la señal. La frecuencia puede representarse con el número de veces por segundo que la curva realiza el trayecto completo de abajo a arriba y de vuelta a abajo. A esto se le llama "ciclo" o hercio (Hz). Cuantos más ciclos por segundo, más alta es la frecuencia de la onda. El oído humano puede oír frecuencias que van desde los 20Hz, un tono muy grave, hasta aproximadamente 22.600Hz. La distancia entre las "cimas" de las ondas se llama longitud de onda , y se hace más pequeña a medida que la frecuencia aumenta.Los micrófonos son sensibles a las vibraciones del sonido mediante determinados mecanismos y son capaces de transformarlas en una señal analógica consistente en cambios de voltaje (normalmente de +1voltio a -

1voltio). En la grabación de audio analógica convencional, las ondas de sonido se registran en una cinta como cambios en los campos magnéticos de la misma.Para realizar una grabación digital hay que realizar un paso previo que es la conversión Analógico -> Digital. Un convertidor denominado A/D mide la señal de sonido captada por el micrófono y la muestrea (o "escanea") un determinado número de veces por segundo, cuantificando cada muestra numéricamente y grabando dicha cuantificación en formato digital. El formato más habitual es el D.A.T. (Digital Audio Tape), utilizado en los rodajes cinematográficos y en eventos como conciertos. También se puede grabar directamente en la cinta de video si utilizamos una cámara digital. Una de las muchas ventajas de los nuevos formatos de video digitales es su capacidad de grabación de audio PCM (Pulse Code Modulation). La grabación digital graba el sonido como ceros y unos, tras haber convertido las ondas en pulsos. La pista de sonido se graba en un tambor de grabación aparte del de vídeo.Cuando más adelante se reproduzca este sonido se realizará el proceso inverso a través de un convertidor D/A. La calidad de la grabación digital dependerá de dos factores:

1. La cantidad de muestras por segundo: frecuencia de muestreo, que se mide en Hz (1000Hz igual a 1000 muestras por segundo).

2. El número de "bits" por muestra.

Page 19: modulo 4 clase 1

Cuanto mayor sean ambos valores mayor será la calidad.En cualquier sonido se puede identificar una compleja mezcla de ondas sinoidales. Sólo necesitamos dos muestras de la onda a su frecuencia más alta para poder reconstruirla más tarde. La frecuencia de muestreo, pues, debe ser lo suficientemente alta para asegurar al menos dos muestras a cualquier frecuencia del sonido original. Ya que el oído humano puede oír frecuencias desde los 20Hz a los 22.600Hz necesitaríamos una frecuencia de al menos 44.100Hz, o 44,1kHz. Esta es la frecuencia de muestreo utilizada por el estándar CDA que utilizan los CDs musicales. Para el DVD se ha incrementado hasta los 48kHz y en edición de sonido profesional es posible trabajar hasta con 96kHz.Necesitaremos además que la cuantificación de cada una de las muestras sea lo más exacta posible. Un sistema de 32 bits será obviamente mejor que uno de 16bits o de 8 bits.

3. Fundementos sobre micrófonos.

Un micrófono es un mecanismo sensible a las variaciones de las ondas sonoras en el aire, y capaz de convertirlas en señales eléctricas. Un micrófono es un transductor acústico - mecánico - eléctrico. Esto significa que en el micrófono se realiza una doble transformación de energía. La primera transformación, acústico - mecánica, convierte las variaciones de presión de la onda sonora a las que la membrana (o diafragma) del micrófono están expuestas, en oscilaciones mecánicas. El segundo transductor, mecánico - eléctrico, convierte estas oscilaciones mecánicas en variaciones de tensión o corriente eléctrica (normalmente de +1voltio a -1voltio).

Los micrófonos poseen varias características que son las que nos van a definir sus posibilidades de uso en las diferentes situaciones que se nos presenten. La sensibilidad nos indica la capacidad del micrófono para captar sonidos muy débiles (o de poca intensidad). Es la presión sonora que debemos ejercer sobre el diafragma para que nos proporcione una señal eléctrica y se mide a 1kHz y se expresa en milivoltios por Pascal (mV/Pa). Entre los más sensibles se encuentran los de condensador seguidos por los dinámicos y por último los de cinta. No es aconsejable el uso de micrófonos con una sensibilidad menor a 1mV/Pa. La fidelidad nos indica la variación de la sensibilidad respecto de la frecuencia. Se mide para todo el espectro audible y así nos proporcionan sus curvas en frecuencia que informan de las desviaciones sobre la horizontal de 0 dB. Cuanto más lineal sea esta curva mayor fidelidad tendrá el micrófono. La impedancia de salida es la resistencia que proporciona el micrófono a la salida del mismo. La baja impedancia (es la habitual) esta entre 200 y 600 ohmios a 1kHz. Hay que tener en cuenta que la impedancia de salida del micrófono tiene que ser la tercera parte como máximo de la del equipo a la que se conecta para evitar la perdida de señal y el incremento de ruidos de fondo. En Baja impedancia se podrán emplear cables largos mientras que en altas no, debido a que provocarían perdidas por efecto capacitivo. La directibilidad señala la variación de la respuesta del micrófono dependiendo de la dirección de donde provenga la fuente sonora, es decir, muestra como varia la sensibilidad según de donde venga el sonido. La directibilidad se representa mediante diagramas polares. En estos se dibuja para distintos ángulos de incidencia del sonido respecto del micrófono (que esta en 0 grados). Hay tres tipos de directibilidad fundamentales: Los unidireccionales o cardioides solo recogen sonido frontalmente. Son los más empleados y son ideales cuando se tienen problemas de realimentación acústica.(Fig.1) Los bidireccionales o en 8 tienen sensibilidad máxima para los sonidos que inciden frontalmente al diafragma, ya sea por cara anterior o posterior. Se emplean para entrevistas.(Fig.2) Los omnidireccionales tienen sensibilidad máxima en los 360 grados alrededor del mismo. (Fig.3)

Page 20: modulo 4 clase 1

Micrófonos unidireccionales Micrófonos bidireccionales Micrófonos omnidireccionales

2.1. Clasificación de los micrófonos según el tipo de cápsula que usan: La cápsula es el elemento del micrófono donde se realiza la transducción mecánico - eléctrica. Existen también micrófonos en los que es posible intercambiar dichas cápsulas para obtener una respuesta u otra.

Base de micrófono con cápsulas intercambiables de distintas respuestas direccionales  

2.1.1 Según el tipo de cápsula que en que se da los micrófonos se pueden clasificar como sigue:

Micrófonos de resistencia variable: de carbón. Fueron los primeros en fabricarse. Baja calidad, usados en telefonía. Es un micrófono de presión con carbón en su interior a modo de resistencia conectada a dos terminales conductores. La presión acústica determina la compresión de las partículas de carbón que variará la resistencia existente entre los dos terminales eléctricos de la caja. Micrófonos piezoeléctricos: de cristal o cerámica. La vibración del diafragma moverá un material mineral (sales de Rochélle, cuarzo) que debido a sus propiedades piezoeléctricas generará la señal eléctrica de salida del micrófono. Micrófonos electrodinámicos: de bobina móvil o cinta. funcionamiento similar a los de carbón, pero este es sustituido por una bobina generadora de un campo magnético que vibra al vibrar el diafragma. Al moverse el campo magnético se genera una corriente eléctrica. Impedancia: 150 - 600 ohmios. Respuesta: 20 - 20000 Hz

Page 21: modulo 4 clase 1

Esquema de micrófono dinámico

  Micrófono dinámico SENNHEISER E-845 Respuesta en frecuencia: 40Hz-16KHz

Micrófonos de condensador: llevan una carga o alimentación eléctrica. En este tipo de micrófonos el movimiento mecánico que producen las ondas sonoras sobre el diafragma no se convierte directamente en señales eléctricas sino que dicho movimiento lo que hará será controlar un flujo de corriente producido por una batería asociada al micrófono. Por ello a este tipo de micrófonos se les llama también de potencia sonora.

Llevan dos placas, una fija y otra movil que hace de diafragma, se comportan como un condensador. El micrófono está conectado a una resistencia y a alimentación eléctrica a través de la conexión XLR (alimentación phantom). Las variaciones de presión acústica cambian la posición relativa entre ambas placas modificando la capacidad y generando una señal eléctrica.

Micrófono de condensador AKG C-1000. Alimentación por Phantom o pila interna. Precio aprox.: 300 Euros

Voltajes usuales de corriente continua: 12, 24, 48 V y pilas de 9 V. Impedancia: muy alta, se le coloca un preamplificador-adaptador para una impedancia de 200 ohmios. Respuesta: 20 - 20000 Hz Sensibles a la humedad y temperatura. Excelente fidelidad.

Page 22: modulo 4 clase 1

Micrófonos electret: Similar al micrófono de condensador pero su placa fija es un polímero polarizado. Alimentación: pila de 9 V Impedancia: 1000 - 1500 ohmios Respuesta: 50 - 15000 Hz Menos sensible a la humedad y cambios de temperatura. Micrófonos de cinta: Micrófono de gradiente de presión. El diafragma es una estrecha cinta de metal ondulada tendida entre los polos de un imán, las vibraciones del conductor dentro del campo magnético producen la señal eléctrica. Son bidireccionales y en ocasiones unidireccionales. Impedancia muy baja, necesitan de un transformador-elevador

2.1.2. Clasificando los micrófonos según como están construidos tendríamos los siguientes:

Micrófonos de bastón o de mano: con empuñadura para sostenerlos en la mano. Es el micrófono comúnmente utilizado en entrevistas. Existen de condensador y electrodinámicos.

Micrófonos de cañón: súper direccionales. El tipo de cápsula suele ser de condensador. El sonido que llega por los lados se cancela ya que el gradiente de presión es muy estrecho como para sensibilizar el diafragma. En cambio, si el sonido llega frontalmente sí se produce gradiente de presión. Se utilizan en rodajes de exteriores y ambientes ruidosos. Se les acopla una pantalla protectora del viento y una funda. 

Micrófono de condensador cañón SHURE SM-89El tubo

se denomina "tubo de interferencia". Precio aprox.: 1140 Euros

Micrófono de condensador de cañón corto AKG C568 EB. Precio Aprox.: 530 Euros.

Micrófonos paraboloides: super direccionales. Son más sensibles a aquellas longitudes de onda menores al diámetro del reflector. Se consigue mayor direccionalidad si el micrófono es cardiode. Se utilizan en exteriores pero no en ambientes ruidosos.

Micrófonos de solapa o Lavalier: Poseen filtros para evitar las altas frecuencias producidas por el roce de los tejidos. Existen micrófonos Lavalier dinámicos en los que se puede modificar la posición de un "clip" para variar la respuesta de frecuencia.

Page 23: modulo 4 clase 1

Micrófono de solapa SONY ECM-44B Precio aprox.: 250 euros  

Micrófonos inalámbricos: Pueden ser de solapa (Lavalier) o de bastón (de mano). El de solapa está conectado por cable al emisor que se suele colocar en la cintura del locutor; el de bastón posee el emisor en su extremo. La señal se envía a un receptor por FM. Un mismo receptor puede trabajar con varios inalámbricos. En caso de utilizar varios receptores, estos se deben separar 10 metros entre sí para evitar interferencias. Poseen un control ACG (muting) que no recibe señal durante los silencios para evitar ruido.

Emisor de mano UHF 

SONY WRT-800A Precio aprox: 500

Euros.

Emisor de petaca UHF AZDEN 31LT Precio aprox: 140 Euros.

Receptor Diversity UHF SONY WRR-800A Precio aprox: 500 Euros.

4. Toma de sonido.

El sonido es el medio más difícil de controlar. Puede rodar cualquier obstáculo de dimensiones menores que su longitud de onda y también puede rebotar y desviarse en todas direcciones cuando encuentra un objeto de dimensiones mayores que su longitud de onda (suelo, techos, paredes.), siendo por ello muy difícil de prever lo que captará un micrófono. El técnico de sonido es el responsable de de la calidad de la toma de sonido en un rodaje mediante el estudio, y sobre todo la práctica, en la disposición óptima de los micrófonos y el equilibrio en los niveles de entrada de sonido y mezcla del mismo en los dispositivos de toma de sonido. Además también es su función conseguir el carácter y la interpretación del director de la película.

Para el control de la toma de sonido conviene tener en cuenta lo siguiente: Mantenerse siempre del rango dinámico: esto es, dentro de los márgenes existentes entre la saturación (distorsión) y el nivel mínimo (que vendría dado por el enmascaramiento producido por el ruido ambiente).

Page 24: modulo 4 clase 1

Mantener las escalas de nivel: es decir, evitar, para que se pueda cumplir el punto anterior, la corrección de niveles de entrada de sonido sobre la marcha, y si es inevitable hacerlo de la forma más sutil posible. Mantener estas escalas entre las distintas secuencias: sobre todo las continuas en montaje, intentando buscar un mismo nivel de entrada de sonido para todos lo exteriores y para todos los interiores.

Para la calibración de las mezclas nos podemos ayudar de medidores tipo vúmetro (en sonido analógico) o modulómetro (en digital). Los niveles a lograr en una u otra opción son: Sonido analógico: entre -6dB y 0dB. Sonido digital: entre -18dB y -12dB.

Esto es para un nivel de voz o sonido normal. Si por ejemplo el actor está susurrando el nivel en el vúmetro estará por debajo de lo indicado y si grita lo superará levemente. Pero el control real debe ser por el oído, por la sensación acústica, necesitando para ello el mantenimiento de la escucha de control a través de auriculares a un nivel determinado y constante. En la toma de sonido se debe buscar el máximo de calidad, que viene dada por la máxima presencia y volumen de la información que cada plano nos permita. La verdadera calidad en el sonido final de una película se obtiene con una buena toma de sonido. Aunque el proceso de posproducción del sonido sea muy bueno, si la toma es mala, poco se puede hacer, pero si la toma tiene calidad la posproducción será sencilla y con buenos resultados. En posproducción es difícil "quitar" (ruidos, excesivo ambiente, etc.), pero mucho más lo es "poner", "inventar", salvo que tuviésemos el material disponible en otra toma no utilizada. Por ello es siempre mejor una tendencia al exceso que el defecto, a capturar más que a que nos falte algo. También es muy importante para la fase de postproducción la grabación de "wildtracks" o ambientes para cada secuencia en cada localización. Estos se han de grabar en las mismas condiciones exactas que cuando se han rodado los planos, incluyendo a todas las personas presentes, todos los equipos en marcha e iluminación encendida. El wildtrack funciona como "colchón" en la postproducción entre los distintos cortes de montaje a lo largo de cada secuencia.

La teoría de la relación señal - ruido dice que el ruido en una grabación será despreciable cuando su nivel esté 60 dB por debajo de la señal de referencia (p.e. el diálogo de los actores). Si realizamos un toma (fig. A) con un micrófono a una distancia "d" del objeto o persona que produce el sonido, tendríamos, al ajustar el nivel de entrada correcto y como se ve en el gráfico un nivel de señal "s" acompañado por debajo de un nivel de ruido ambiente "R.A" general del set de rodaje. Si en la siguiente toma (fig. B) reducimos la distancia al objeto, lógicamente el nivel de este será mayor: "S" (incluso podría llegar a saturar en el nivel de grabación que habíamos seleccionado en la anterior toma), y el ruido global sigue teniendo el mismo nivel. Si en estas circunstancias atenuamos el nivel de entrada del mezclador o grabador para buscar el valor óptimo de la señal (fig C) de la primera toma, observamos que esta bajada actúa tanto para la señal como para el ruido que la acompaña. Así conseguimos un nivel de señal correcto "s" con una gran merma del ruido ambiente.

Resumiendo, trabajar con los micrófonos lo más próximo a la fuente del sonido que nos permita los encuadres de cada secuencia nos permitirá reducir el sonido ambiente al mínimo nivel. No debe preocuparnos que la perdida de estos ambientes suponga una merma de matices artísticos de la toma, ya que habitualmente es posible, y recomendable, grabar posteriormente ambiente de esa escena para incluirlos en postproducción a nuestra voluntad. Otro factor importantísimo para la correcta toma de sonido es la búsqueda permanente de la dirección del micrófono hacia el foco de la fuente de sonido (p. e. la boca de los actores), para que la línea

Page 25: modulo 4 clase 1

virtual de prolongación del micrófono termine exactamente en el foco de ese sonido, evitando adelantarse o retrasarse aunque sea levemente.

Las ondas sonoras agudas so muy direccionales debido a su pequeña longitud de onda, mientras que los grabes son más envolventes. El brillo y la presencia de los sonidos lo determinan precisamente las altas frecuencias por ser donde se encuentran los armónicos de las frecuencias base o fundamentales de las voces. Por esta razón es muy importante dirigir de una forma muy exacta el micrófono al origen mismo del sonido, ya que si no lo hiciéramos obtendríamos un sonido menos inteligible, más mate, mucho menos brillante. Este seguimiento preciso se debe realizar en todo momento. Si la fuente del sonido se mueve los micrófonos se han de mover con ella atendiendo a las siguientes indicaciones: La distancia del micrófono al foco del sonido ha de ser constante. Alejar o acercar el micrófono daría como resultado variaciones en la presencia de tal sonido que no resultan naturales. Se ha de mantener la mayor uniformidad posible en la distancia del micrófono al foco del sonido para todos los planos de una misma secuencia, para mantener la continuidad sonora dentro de la misma. Por la misma razón no se ha de cambiar de micrófono en todos los planos de una misma secuencia o para planos que requieran continuidad en el montaje, ya que los micrófonos tienen distinto rango de frecuencias de unos a otros y esto afecta al tono de la grabación. El micrófono solo ha de recoger el sonido de los personajes y objetos que salen en el plano de imagen. Los sonidos de referencia, replicas al actor en planos contra planos, o efectos sonoros se deben grabar a parte para su posterior inclusión en la postproducción.

FORMATOS DE SONIDO PARA CINE

Analógico:

Es el clásico sonido estéreo de siempre. La pista analógica viene impresa en el celuloide en una línea continua ubicada a la izquierda de los cuadros de la imagen. Las primeras películas tenían impresas dos pistas magnéticas a los costados de los cuadros, de forma similar al de los cassettes de audio, pero en la actualidad se utiliza en vez del sistema magnético, un sistema óptico.

Cuando la película se reproduce, la cinta corre a través del proyector para generar la proyección sobre la pantalla y, simultáneamente, otro haz de luz pasa a través de la pista óptica de audio para ser recogido por una fotocélula que convierte las diferencias en la intensidad de luz en señal de audio estéreo.

A diferencia de lo que se cree comúnmente, este sistema no ha desaparecido, ni desaparecerá por el

Page 26: modulo 4 clase 1

momento, ya que es utilizado como sistema alternativo en caso de interrupciones en el audio digital o problemas de sincronismo entre el decodificador digital y la cinta. Si prestamos atención durante la proyección de una película cuya cinta está muy degradada, pueden escucharse continuamente los cambios de la norma digital a la analógica en ambos sentidos. Estos cambios de una norma a la otra se pueden advertir con bruscas diferencias de nivel en el sonido, pausas o retrasos momentáneos en el sonido, cambios de calidad y aparición de ruido de fondo o clicks audibles.

Dolby Stereo:

Este sistema es el primer proyecto de los laboratorios Dolby de lo que se conoce como sistema de audio Multicanal. Este sistema es una variación dentro del sistema estéreo, por lo que permite utilizar la pista estéreo estándar de la cinta, pero agregar mediante procesos externos de codificación sobre la señal, 4 canales sumados y matrizados en las 2 pistas del sistema estéreo. Estos canales son L (izquierdo), R (derecho), C (Canal Central) y S (Surround o canal para efectos) limitado en ancho de banda de 100 Hz. a 7 KHz. Mediante la combinación de los canales L, R y S, se logra la sensación de que un efecto reproducido por S y L viene de atrás a la izquierda, o un efecto reproducido por S y R, de atrás a la derecha.

La principal ventaja de este sistema, con su aparición a fines de los 70, es que puede adaptarse fácilmente a cualquier sala con un proyector estándar, porque la codificación se realiza con procesos acústicos, y además el tipo de codificación de 4 canales a 2 canales, permite que una señal de Dolby Stereo sea reproducida perfectamente en un sistema de 4 canales o en un sistema estéreo de dos canales o hasta en un sistema mono, sin notar diferencias o errores importantes en el audio.

Muchas películas y series (Los Simpsons por ejemplo) se transmiten por la TV con esta codificación sin que nos demos cuenta, pero si colocamos en la salida del audio de la TV un amplificador con decodificador Dolby Stereo (Prologic), podremos disfrutar de los 4 canales. Por supuesto, dependerá de la zona geográfica donde se emita en estéreo la programación.

Dolby Digital, conocido como Dolby 5.1 o AC-3

Este formato difiere absolutamente de la naturaleza del estéreo o del Dolby Stereo. Apareció por primera vez en los cines en el año 1992, con Batman Returns aunque en España, creo recordar, se estrenó con la película Stalingrado. Es muy importante recalcar que a diferencia de lo que ocurre con otras tecnologías, en cine, ningún sistema de sonido digital reemplaza al analógico. El sistema analógico se conserva para ser reproducido en salas que no posean el sistema digital y como back up, en caso que el sonido digital falle momentánea o permanentemente durante la proyección.El formato Dolby Digital posee sonido digital comprimido, con hasta 6 canales reales de audio: 5 de rango completo (20Hz a 20 KHz.) y un canal adicional para efectos de baja frecuencia (3 Hz. a 120Hz.) El formato es óptico, como el analógico, y su señal se ubica en el espacio entre las perforaciones de la cinta.

Cada pista de audio tiene una resolución de 16 Bits y 48KHz. El Compact Disc, por ejemplo, utiliza

Page 27: modulo 4 clase 1

44,1KHz, pero en cine se debe usar el formato profesional de 48KHz, porque es múltiplo de 24, que es el total de cuadros reproducidos en un segundo, y de esa manera se puede sincronizar el audio con la imagen.

Cada canal es comprimido en una relación de 14:1. A pesar de conocerse con el nombre de Dolby 5.1, este sistema es muy flexible, por lo que muchas películas lo utilizan a pesar de no poseer canales de efectos. Hay películas que por su genero no utilizan efectos especiales ni efectos de sonido, por lo que realizan una mezcla de sonido estándar, utilizando únicamente los canales L y R estéreo y el canal central C para los diálogos (3.0) en otras, sólo se usa en estéreo (2.0). A pesar que estos canales podrían ser reproducidos perfectamente mediante el sistema Dolby Stereo (analógico) los productores y directores prefieren aprovechar las ventajas del sonido digital. Por eso Dolby vende licencias de 5.1 canales tanto como licencias estéreo para utilizar su sistema en películas.

Dolby EX: (Dolby Extended Sound)

Mas que un nuevo sistema, es una variación del sistema Dolby Digital, que busca acercarse un poco mas al sistema SDDS.

Básicamente este sistema es igual al Dolby Digital, con el agregado de un canal Surround en la parte trasera de las salas. Como vimos antes, todas las salas poseen este canal, ya que el sistema Dolby Stereo (analógico) lo utiliza, por lo que no es necesario realizar cambios muy profundos en el equipamiento para utilizarlo.

A diferencia del sistema Dolby Digital, que posee 6 canales reales, el sistema EX utiliza una forma de codificación para sumar un canal de efectos trasero, dentro de los dos canales de efectos derecho e izquierdo.

De la misma forma que ocurre con el sistema Dolby Digital y el estéreo, el canal extra de efectos es sumado a dos canales existentes, de manera que una película grabada con el sistema EX, puede ser reproducida sin inconvenientes en un cine que no esté adaptado para este fin. En ese caso, los sonidos grabados en el canal de surround trasero, si la sala no cuenta con este sistema, serán escuchados en los altavoces laterales.

Dolby anuncia en su publicidad que con este sistema se puede lograr el “Fly Around” y “Fly Over”, es decir, que un helicóptero podría aparecer volando desde el fondo de la sala hasta la pantalla, pero la verdad es que esto también es posible en la actualidad con los demás sistemas, con técnicas de psicoacústica que engañan al oído humano, sumado a lo que nuestro cerebro quiere escuchar de acuerdo a lo que ve o no ve en la pantalla.

Por ejemplo, en una presentación de THX, puede verse a un robot que vuela alrededor de la sala, incluso desde el fondo hasta la pantalla, tratando de arreglar la enorme y plateada sigla THX que estaba estropeada.

DTS (Digital Theater System)

Page 28: modulo 4 clase 1

El sistema DTS en el cine es, en características generales, equivalente al sistema Dolby Digital. Utiliza hasta 5.1 canales de audio, distribuidos de la misma forma que el sistema de Dolby, por lo que un Cine con un sistema instalado, es perfectamente compatible con el otro, en cuanto a cantidad y distribución de altavoces y características de los mismos.

Hay algunas diferencias muy importantes entre este sistema y Dolby Digital. El DTS posee 5.1 canales con características de 20 Bits (contra los 16 Bits de Dolby) a 48KHz. Estas características son superiores a la del Compact Disc. A esto se suma que su compresión es de apenas 4:1, contra 14:1 de Dolby. Esto da como resultado un sistema con audio de calidad muy superior al de su principal competidor.

Otra gran diferencia es que, comparado con el resto de los sistemas, DTS es el único que no lleva impresa en la cinta la información de audio. En vez de esto, DTS realiza la impresión de un código de tiempo llamado SMPTE que permite la sincronización de la imagen con el audio. El audio por otro lado se reproduce desde un dispositivo externo. El código de tiempo es una línea continua situada entre la señal analógica y los cuadros de la película. Para esto, junto con la película, se distribuye un CD que debe ser cargado en un reproductor sincronizado con el proyector.

Esta característica de DTS le da la libertad que los otros sistemas no tienen, porque están limitados en capacidad ya que el espacio en la cinta es limitado, y ya no se podrían agregar mas canales de esa manera. Por otro lado es un poco mas complicado a la hora de transportar las cintas, ya que ahora hay que mover un rollo de cinta, mas cajas de CDs que pueden perderse, romperse, confundirse, etc.

Al mismo tiempo permite que una misma película pueda ser reproducida en diferentes idiomas, por lo que los costos de impresión en celuloide disminuyen, ya que una misma película puede estrenarse en USA en inglés, y luego ser llevada a España para ser estrenada en castellano.

DTS almacena hasta 100 minutos de audio con 5.1 canales en cada CD, por lo que una película de 1 hora y media de duración es perfectamente reproducida en un CD.

La ventaja mas importante en el sistema DTS es que no está limitado en capacidad de información que puede almacenar y reproducir. Esto significa que si en vez de colocar un dispositivo que reproduzca los CDs, se colocan dos, se pueden obtener en vez de los 6 canales, 12 canales de audio. Por este motivo el sistema DTS es utilizado en simuladores de todo tipo, por ejemplo en IMAX y en cines 3D.

DTS se encuentra instalado en 20.000 salas alrededor del mundo. Si lo comparamos con las salas que poseen Dolby Digital, el numero es muy inferior en el caso de DTS. (dato de Digital Theater Systems, Inc.)

Por cuestiones de marca y marketing, actualmente hay mas títulos disponibles en Dolby Digital que en DTS, tanto para cine como para formatos de consumo.

DTS ES: (DTS Extended Sound)

Page 29: modulo 4 clase 1

Idéntico a Dolby Digital EX, pero con las características propias de DTS. La primera película que utilizó esta norma fue Stars Wars Episode I.

SDDS (Sony Dynamic Digital Sound)

Sony es una de las empresas más grandes del mundo y, como no podía ser de otra manera, marcó la diferencia en audio para cines con la introducción del sistema SDDS en 1993 con la película El Último Gran Héroe.

Este sistema ofrece 8 canales completos (20Hz a 20KHz.) ubicados de manera singular. SDDS utiliza como los otros sistemas, dos canales traseros de Surround, el L izquierdo y R derecho. La gran diferencia es que este sistema coloca 6 altavoces reproduciendo diferentes sonidos detrás de la pantalla, logrando un sonido mucho mas integrado con la imagen y una serie de efectos muy particulares.

La disposición de los altavoces es: L, R y C (como el sistema analógico, DTS o Dolby Digital), un altavoz para Sub Woofer, y dos canales adicionales de efectos ubicados entre L y C y entre R y C. De esta manera tras la pantalla hay un subwoofer y 5 altavoces alineados perfectamente de izquierda a derecha.

Sony no proporciona información sobre el tipo de compresión ni características del sonido digital, pero podemos suponer que la frecuencia de muestreo es de 48KHz como los otros sistemas, para lograr la sincronización con la imagen, y por otro lado la compresión estaría en un valor intermedio al de Dolby Digital (14:1) y DTS (4:1), ya que el espacio para almacenar información es mas del doble con el que cuenta Dolby Digital.

La señal digital es óptica y viaja junto con la película en los dos bordes laterales externos, a los costados de los espacios entre perforaciones.

SDDS es el último sistema en ser presentado, por lo que cuando buscaron el lugar para incluir su señal digital en la cinta de 35 mm, se encontraron que todo el espacio estaba absolutamente ocupado. El lugar principal estaba ocupado por los cuadros de la imagen; el lateral, con la pista analógica estéreo; los espacios entre perforaciones, con la información de Dolby Digital, y por último el código de tiempo de DTS.

Por este motivo Sony tuvo que utilizar el único espacio disponible, que son los bordes laterales de la cinta. El problema es que estos espacios son los que resultan mas castigados y dañados del celuloide, por lo que idearon un sistema de backup y corrección de errores. Este sistema funciona colocando la misma información por duplicado en cada borde, pero en una forma desordenada o mas bien asimétrica respecto uno del otro, así cuando un borde no puede ser leído, o esa porción de la cinta es cortada o dañada por un accidente, se utiliza la información que está ubicada en otro lado sobre el otro lateral.

Cabe aclarar que SDDS es la única norma de sonido digital multicanal que no tiene un equivalente en uso hogareño o de consumo. Ni en DVD de audio, o de video ni cualquier otro soporte de consumo se encuentra grabado bajo esta norma.

THX:

Page 30: modulo 4 clase 1

El nombre de la sigla se desprende del nombre de la primera película de George Lucas, llamada THX 1138.

A diferencia del resto de los sistemas multicanal expuestos, THX es una norma de estándares técnicos que busca, por un lado, fijar una norma mínima de tecnología y calidad necesarias para reproducir películas en una sala, y al mismo tiempo, generar un ambiente de características similares en todas las salas de cine en el mundo y estudios de mezcla en los que se realiza el sonido de una película o en los que ésta se vaya a reproducir, para de esa manera asegurar a los directores que lo que ellos están viendo y escuchando al realizar la mezcla de sonido, es lo mismo o por lo menos es muy parecido a lo que la gente va a ver y escuchar en el cine.

La norma THX en general tiene en cuenta aspectos puntuales relacionados con el sonido o con la acústica, pero también pauta ciertos aspectos respecto de la imagen y la comodidad de las salas.

La idea surge en 1982 cuando George Lucas pretendía que su reciente película El Retorno del Jedi, fuera vista y escuchada de la misma forma exactamente como él la había pensado y realizado.

Las características que tiene en cuenta la norma THX para certificar son:

- - Calidad, color y ángulo de incidencia del proyector sobre la pantalla.- - Ruido generado dentro de la sala (aire acondicionado, proyector, etc) y ruido generado fuera de la sala (ruido ambiente, otra sala contigua, etc). - - Ángulos de visión y escucha de los espectadores. - - Propiedades acústicas de la sala. - - Sistema de sonido.

Para certificar un cine bajo la norma THX antes de su fabricación, el arquitecto o ingeniero debe ponerse en contacto con THX para comenzar su construcción de manera compatible con las exigencias de la norma.

Los equipos a ser instalados se seleccionan de una lista que THX entrega, conteniendo los dispositivos de audio, decodificadores, altavoces, amplificadores, etc, homologados por la norma para ser usados en cines.

Al mismo tiempo THX provee mediante el pago de una cuota, o leasing, unos procesadores digitales / analógicos específicos para tratamiento del audio con los que debe contar el cine obligatoriamente. El ingeniero de THX se encarga de ecualizar la sala y de precintar todo el equipamiento. Cada sala debe además pagar una cuota por utilizar el logo THX en su sala habilitada y reproducir el video de THX antes de cada película.

De la misma manera que una sala de cine es diseñada y corregida para ser compatible con la norma THX los estudios de mezcla de sonido para cine, también son adaptados para conseguir su certificado THX, con la única diferencia que la lista de equipos homologados para estudios es diferente a la lista para cines.

Desde la aparición de THX, un técnico de sonido puede realizar una mezcla en el estudio, con la seguridad que los espectadores van a escuchar exactamente lo mismo en el cine.

Page 31: modulo 4 clase 1

Existe la norma THX para equipos de uso doméstico, en la que un usuario pueda comprar un conjunto de reproductor de DVD, decodificador multicanal, amplificadores y altavoces homologados por THX.

DELL sacó a la venta el primer PC con licencia THX, y Logitech también posee unos altavoces multimedia con certificación THX.

Aclaración Sonido analógico:

El sonido es tomado del ambiente y transformado en impulsos eléctricos que son equivalentes en frecuencia y amplitud a las características del sonido en el aire. Luego, esa señal eléctrica es almacenada en medios mecánicos o magnéticos de manera tal que las variaciones generadas en el soporte, son equivalentes o análogas a las señales eléctricas.

Los medios de almacenamiento analógicos son el disco de pasta o vinilo, los cassettes de audio, cinta abierta, etc.

Aclaración Sonido Digital:

Los impulsos eléctricos generados, son almacenados digitalmente, con valores de ceros y unos.

Mediante el muestreo, la señal analógica, es analizada, y se asignan valores numéricos diferencias de amplitud y frecuencia de esa señal. Este proceso se denomina Conversión Análoga / Digital, o Analog / Digital Conversión (ADC).

Como resultado de la digitalización, puede haber una pérdida de calidad o similitud entre el sonido original analógico, y el sonido muestreado, pero en la actualidad con un ADC de calidad ese error es irrelevante. Además, la señal una vez que ingresa en el ámbito digital, permanece resguardada de degradaciones o ruidos que sí son propios de los medios analógicos, como el cassette.

En cine, el audio digital se almacena en formato de micropixels sobre el celuloide o en CDs externos (de la manera explicada anteriormente).

Cada píxel toma el valor de 1 o 0 de acuerdo a si es un píxel transparente o negro. De esta manera cuando un haz de luz ubicado en el decodificador pasa sobre la señal digital, otro dispositivo toma instantáneamente fotos de cada cuadro de información de audio digital, para ser luego transformados en señal digital de audio, y mas tarde en señal de audio analógica, por los conversores Digital / analógico, o Digital/ Analog Converter (DAC).

Formatos de Consumo:

Muchos de los formatos de sonido multicanal vistos tienen un equivalente en formatos de consumo, es decir en DVD de Vídeo, DVD de Audio, Laserdisc, etc. De hecho Dolby Digital, Dolby Digital EX, DTS y DTS ES, existen también en el ámbito de consumo, bajo características que se conocen como Home Cinema (Cine en casa).

SDDS es el único sistema que no se comercializa para uso hogareño. Esto es destacado como una ventaja por Sony, ya que al destinar su sistema únicamente para ámbitos profesionales, les permite lograr características de mayor calidad, y evitar las limitaciones que implica compatibilizar un sistema con el uso de consumo masivo.

TIPOS DE ARCHIVOS DE AUDIO

Empezaremos a explicar los tipos de archivos de sonido que existen distinguiendo entre aquellos con pérdida y sin pérdida.

Los archivos de sonido con pérdida son aquellos que usan un algoritmo de compresión con pérdida, es decir un tipo de compresión que representa la información (por ejemplo una canción), pero intentando utilizar para ello una cantidad menor de información. Esto hace que

Page 32: modulo 4 clase 1

sea imposible reconstruir exactamente la información original del archivo.

Se podrá reconstruir tan solo una aproximación a la información original que contenía el archivo. El empleo de estos métodos de compresión con pérdida suele usarse en información analógica que quiere digitalizarse, como por ejemplo imágenes, audio, vídeo etc. Además tiene la gran ventaja de que obtendremos datos digitalizados que ocupan menos espacio en disco.

Los archivos de sonido sin pérdida son aquellos que usando o no métodos de compresión, representan la información sin intentar utilizar menor cantidad de la información original. Hacen posible una reconstrucción exacta de la información original.

Archivos de sonido con pérdida: MP3 o MPEG-1 Audio Layer 3: Es un formato de audio digital estándar comprimido con

pérdida, la pérdida de información del formato mp3 no es audible por el oído humano, por tanto no distinguiremos la diferencia entre un archivo de audio sin compresión y un archivo mp3.

Además un archivo mp3 consigue reducir el tamaño del archivo de sonido sin influir en su calidad, aproximadamente 1 minuto de audio en formato mp3 ocupa 1 MB con una calidad prácticamente igual a la calidad de Cd.

Estas ventajas han conseguido que el formato mp3 pueda ser reproducido en casi todos los reproductores de audio, que sea el formato por excelencia para el intercambio a través de internet, una de las mejores opciones en estos momentos para almacenar música con buena calidad, y también el formato de audio que más se utiliza en reproductores portátiles, es un estándar y por tanto la compatibilidad con todos los medios está garantizada.

El formato de audio mp3 permite seleccionar la calidad del audio que vamos a comprimir, la calidad de cd sería equivalente a 128 Kbps (Bit rate), pero podemos seleccionar la compresión entre los 8 Kbps y los 320 Kbps teniendo en cuenta que cuanto mayor sea la transmisión de datos (Kbps), mayor espacio ocupará el archivo.

La frecuencia de muestreo del mp3 se encuentra entre los rangos de 16 Hz y los 48 KHz. Y tan solo soporta 2 canales (estéreo)

ACC o Advanced Audio Coding: Es un formato de audio digital estándar como extensión de MPEG-2 comprimido con pérdida, y ofrece más calidad que mp3 y es más estable para un mismo número de Kbps y un mismo tamaño. Su compresión está basada en los mismos principios que la compresión MP3, con la diferencia de que ofrece la posibilidad de emplear frecuencias de muestreo del rango de entre 8 Hz hasta los 96 KHz. El método de codificación adapta automáticamente el número de Kbps (Bit rate) necesarios en función de la complejidad de la transmisión de audio en cada momento.

ACC soporta 48 canales distintos como máximo, lo que lo hace indicado para sonido envolvente o Surround y sonidos polifónicos, es decir que sería una buena opción en caso de no escuchar el audio en cualquier sistema de audio de dos canales (estéreo), y en el caso de películas, vídeo o en caso de disponer de un reproductor compatible conseguiremos reducir el tamaño del archivo. Es más eficiente que MP3 en casi todos los aspectos, ofrece mayor calidad y archivos de menor tamaño, pero no goza por el momento de la compatibilidad y la popularidad del MP3.

Es compatible con los dispositivos de la marca Apple, iTunes, iPods, Winamp, Ahead Nero, MP4 etc. Pero aún pueden existir problemas de compatibilidad.

Ogg: Es un formato de audio digital comprimido con pérdida. Normalmente los archivos Ogg están comprimidos con el códec Vorbis, que es un códec de audio libre que permite una máxima flexibilidad a la hora de elegir entre la amplia gama de bitrates según la complejidad de la transmisión de audio, en la relación calidad-bitrate, se encuentra parejo con MPEG-2 y en la mayoría de los bitrates es comparable al formato ACC.

Este formato está pensado para codificar desde la calidad de telefonía 8kHz hasta la calidad de alta definición 192 KHz, y para sistemas monoaurales, estereofónicos, polifónicos, cuadrafónicos, 5.1, ambisónicos y hasta 255 canales discretos. Los bitrates disponibles van

Page 33: modulo 4 clase 1

desde 32 Kbps hasta 500 Kbps. El formato Ogg ofrece una mejor fidelidad de sonido entre 8 KHz y 48 KHz que el mp3 y sus archivos ocupan menos espacio. En cuanto a compatibilidad, tampoco es un formato todavía tan universal como el mp3 pero cada vez más dispositivos y programas lo reconocen y pueden trabajar con el.

Real Audio o RM: Es un formato de archivo pensado para las transmisiones por internet en tiempo real, por ejemplo las radios que emiten online o cuando un servidor tiene un archivo de sonido almacenado y nosotros lo escuchamos sin que el archivo se cargue por completo ni se almacene en nuestro ordenador, esto es posible gracias al proceso de Buffering que básicamente es recibir un paquete de sonido en nuestro reproductor en este caso (Real Player) mientras el siguiente se almacena en la carpeta de temporales hasta que sea requerido por el reproductor. Con este sistema los archivos no pueden ser copiados.

A diferencia de la codificación con MP3 que mantiene su rango de frecuencia de muestreo (Kbps), la codificación con Real Audio permite adaptarla a la capacidad del recepción del usuario dependiendo de su velocidad de conexión a internet. Si el usuario puede recibir paquetes de audio de alta calidad sin interrupciones, se los manda, si no bajara la frecuencia de muestreo hasta que pueda recibirlos sin interrupciones aunque la calidad del audio disminuya.

WMA o Windows Media Audio: Es un formato de compresión de audio con pérdida aunque también existe este formato con compresión sin pérdida. Y está desarrollado básicamente con fines comerciales para el reproductor integrado en Windows, Windows Media Player. Está por debajo del nivel de los anteriores formatos.

Archivos de Sonido sin pérdida:

AIFF o Audio Interchange File Format que significa Formato de Archivo de Intercambio de Audio, es un estándar de formato de archivo de audio para vender datos de sonido para ordenadores, usado internacionalmente por los ordenadores Amiga y actualmente muy utilizado en los ordenadores Apple.

Los datos en AIFF no están comprimidos, y usan una modulación por impulsos codificados o PCM. También existe una variante estándar conocida como AIFC que sí posee compresión.

AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel profesional para aplicaciones de audio ya que está comprimido sin pérdida lo que permite un rápido procesado de la señal a diferencia del MP3 por ejemplo, pero la desventaja de este tipo de formatos es la cantidad de espacio que ocupa, que es aproximadamente 10MB para un minuto de audio estéreo con una frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a bucles para notas musicales para uso de aplicaciones musicales o samplers, sus extensiones son .aif, .aiff y .aifc para la variante.

FLAC o Free Lossless Audio Codec: es otro códec de compresión sin pérdida, y consigue reducir el tamaño de un archivo de sonido original de entre la mitad hasta tres cuartos del tamaño inicial. El formato FLAC se suele usar para la venta de música por internet, y como alternativa al MP3 para compartila cuando se desea reducir el tamaño que trendría un archivo WAV-PCM sin perder calidad, ya que con este tipo de compresión podremos reconstruir los datos originales del archivo. También se suele usar para realizar copias de seguridad de CDs de audio y admite cualquier resolución PCM de 4 a 32 bits, y cualquier bitrates según la complejidad de la transmisión de audio, en la relación calidad-bitrate, se encuentra parejo con MPEG-2 y en la mayoría de los frecuencia de muestreo (sample rate) desde 1 a 65535KHz, en incrementos de 1Hz.

WAV o wave: Waveform Audio Format es un formato de audio digital sin compresión que se emplea para almacenar sonidos en el ordenadores con windows, es una formato parecido al AIFF pero tomando en cuenta peculiaridades de intel.

Puede soportar casi todos los códecs de audio, se utiliza principalmente con PCM (no comprimido). Se usa profesionalmente, para obtener calidad de CD se debe grabar el sonido a 44100 Hz y a 16 bits, por cada minuto de grabación de sonido se consumen unos 10 megabytes de disco duro. Y su limitación es que solo puede grabar archivos de 4GB que son aproximadamente unas 6 horas y media de audio en calidad CD.

Page 34: modulo 4 clase 1

No se usa a penas para compartir música por internet, ya que existen otros formatos de audio sin pérdida que reducen mucho más el tamaño de los archivos.

MIDI: Interface Digital para Instrumentos Musicales, es considerado el estándar para industria de la música electrónica. es muy útil para trabajar con dispositivos como sintetizadores musicales ó tarjetas de Sonido. Su extensión es .midi o .mid.