Lenguajeaudiovisual libro

137
1 1.1. ¿QUÉ ES LA COMUNICACIÓN? Básicamente la comunicación es la creación y transmisión de un mensaje por parte de un emisor y la recepción e interpretación de dicho mensaje por parte de un receptor. Para la comunicación son imprescindibles determinados elementos que intervienen en el acto comunicavo: - El emisor es el ser o la persona que construye y transmite un mensaje. - El receptor es el ser o la persona que recibe e interpreta el mensaje. - El mensaje es lo que se transmite. Un mensaje puede llevar información o puede no llevarla, no todos los mensajes conenen información. Entendemos la información como el contenido novedoso de un mensaje, es decir, si a Pepe su mujer le dice: «Pepe, estoy embarazada», ése mensaje conene información porque conene novedad, algo que desconocíamos con anterioridad. La candad de información aumenta cuando el mensaje es más inesperado; si la mujer de Pepe le dice: «Pepe, estoy embarazada y no es tuyo», eso, aparte de ser un disgusto, ene el doble de información que la frase «Pepe, estoy embarazada». Claude E. Shannon fue el primero en plantear la teoría de la información teniendo en cuenta el sistema binario y la unidad mínima de información conocida como BIT. El código binario no es más que un número de posibilidades entre el 0 y el 1. Del mismo modo, existen mensajes que no conenen información porque no nos transmiten nada nuevo o nada que desconozcamos, en este caso se puede interpretar como redundancia, es decir, repeción de una misma cosa, para entendernos, llover sobre mojado. Si entramos en un ascensor y nos encontramos allí con los señores García, vecinos de toda la vida, lo más seguro es que subamos en silencio hasta que a alguno de nosotros se nos ocurra emir el siguiente mensaje: «¡Cómo está el empo! ¿Verdad?» En esta situación existe un acto comunicavo, porque hay un emisor, un mensaje y un receptor, pero no hay nada inesperado y nuevo en el mensaje, por tanto, realmente no existe información. Existe comunicación pero no información. Por otra parte, para que el mensaje sea efecvo, es necesario que exista EL PROCESO DE COMUNICACIÓN 1

description

 

Transcript of Lenguajeaudiovisual libro

Page 1: Lenguajeaudiovisual libro

1

1.1. ¿QUÉ ES LA COMUNICACIÓN?

Básicamente la comunicación es la creación y transmisión de un mensaje

por parte de un emisor y la recepción e interpretación de dicho mensaje por

parte de un receptor. Para la comunicación son imprescindibles determinados

elementos que intervienen en el acto comunicativo:

- El emisor es el ser o la persona que construye y transmite un mensaje.

- El receptor es el ser o la persona que recibe e interpreta el mensaje.

- El mensaje es lo que se transmite.

Un mensaje puede llevar información o puede no llevarla, no todos

los mensajes contienen información. Entendemos la información como

el contenido novedoso de un mensaje, es decir, si a Pepe su mujer le dice:

«Pepe, estoy embarazada», ése mensaje contiene información porque

contiene novedad, algo que desconocíamos con anterioridad. La cantidad de

información aumenta cuando el mensaje es más inesperado; si la mujer de

Pepe le dice: «Pepe, estoy embarazada y no es tuyo», eso, aparte de ser un

disgusto, tiene el doble de información que la frase «Pepe, estoy embarazada».

Claude E. Shannon fue el primero en plantear la teoría de la información

teniendo en cuenta el sistema binario y la unidad mínima de información

conocida como BIT. El código binario no es más que un número de posibilidades

entre el 0 y el 1.

Del mismo modo, existen mensajes que no contienen información porque

no nos transmiten nada nuevo o nada que desconozcamos, en este caso se

puede interpretar como redundancia, es decir, repetición de una misma cosa,

para entendernos, llover sobre mojado.

Si entramos en un ascensor y nos encontramos allí con los señores García,

vecinos de toda la vida, lo más seguro es que subamos en silencio hasta que a

alguno de nosotros se nos ocurra emitir el siguiente mensaje: «¡Cómo está el

tiempo! ¿Verdad?» En esta situación existe un acto comunicativo, porque hay

un emisor, un mensaje y un receptor, pero no hay nada inesperado y nuevo en

el mensaje, por tanto, realmente no existe información. Existe comunicación

pero no información.

Por otra parte, para que el mensaje sea efectivo, es necesario que exista

EL PROCESO DE COMUNICACIÓN1

Page 2: Lenguajeaudiovisual libro

2

un código, un sistema de signos creado arbitrariamente por el ser humano;

un código que conozcan y compartan emisor y receptor para que el acto

comunicativo funcione. Todos los códigos lingüísticos son una creación

arbitraria del ser humano, incluidas las onomatopeyas, que se establecen

por similitud sonora pero de forma arbitraria, ya que cada idioma tiene una

onomatopeya diferente para el mismo sonido; por ejemplo, el canto del gallo.

En español la onomatopeya de este sonido se conoce como «kikirikí», en

inglés, sin embargo, sería «cock-a-doodle-doo», en japonés: «kokekokkoo», en

francés: «cocorico» y en alemán se escibre «kikeriki».

Si estamos de viaje en Marruecos y nos perdemos en mitad del desierto y

únicamente encontramos un berebere, habría que preguntarse si puede haber

comunicación hablada entre nosotros. Seguramente no, salvo que alguno de

los dos conozca el idioma del otro. Sin embargo, es posible que compartamos

otro tipo de código con el que comunicarnos, un código gestual, no lingüístico,

que en algunos casos permite una interpretación instintiva y universal. Si

nos llevamos la mano a la boca para designar que estamos hambrientos, si

levantamos la mano en señal de parada, etc., estamos generando señales que

pueden ser fácilmente interpretadas en cualquier parte del mundo. Claro que,

no todos estos signos gestuales tienen el mismo significado en cada lugar.

Cuando nos referimos al cine, podemos afirmar que el cine posee su propio

código. Un código que se ha ido creando, también de manera arbitraria y

consensuada, a través del tiempo y de su uso. En los orígenes del cinematógrafo,

el uso de la elipsis era impensable, como tampoco la categoría significativa de

los distintos tipos de planos. En aquel tiempo, el plano era general y la acción

era continua. Este código audiovisual, que los primeros espectadores del

cinematógrafo desconocían y al que tuvieron que acostumbrarse poco a poco,

necesitó de varios ingeniosos creadores que fueron configurando el código

cinematográfico, creadores como Edwin S. Porter, David W. Griffith o Segundo

de Chomón, entre otros.

No olvidemos que una de las primeras proyecciones del cinematógrafo

de los hermanos Lumière era la llegada de un tren a la estación. Para los

espectadores de aquel tiempo fue un verdadero shock emocional. Cuenta la

leyenda (una de esas historias que nunca sabemos si es apócrifa o real), que

algunos espectadores salieron corriendo porque creían que el tren se les echaba

encima. A nosotros esta historia nos puede parecer inocente o incluso ridícula,

pero es porque estamos acostumbrados a ese código audiovisual, hemos

Page 3: Lenguajeaudiovisual libro

3

nacido inmersos en él y nos resulta habitual una elipsis o un cambio de plano,

porque nos hemos educado con ese código audiovisual que encontramos en el

cine, la televisión y el ordenador.

El cine es un acto comunicativo desde el momento en que existe un

emisor, un receptor, un mensaje y un medio por el que enviar o transmitir

dicho mensaje. Debemos comprender que el cine es un código audiovisual y,

al mismo tiempo, es un canal, que es el medio por el que circula el mensaje.

La relación de los elementos que intervienen en la comunicación fue

descrita básicamente por Shannon y Weaver en 1949. En esta relación se

enumeraban y describían los elementos necesarios para el acto comunicativo:

un emisor, un receptor, un mensaje, un canal o medio por el que transmitir

el mensaje, un código (que tendrían que conocer tanto el emisor como el

receptor para que la comunicación fuese efectiva) y una situación o contexto

en el que se produce el hecho comunicativo. A esto habría que añadir el ruido

(interferencias en el proceso de comunicación) y la redundancia (que serviría

para hacer más efectivo el mensaje en un canal o un contexto con ruido).

Si nuestro mensaje es hablado, el canal lo conformarán los componentes

físicos que nos permiten hablar: la boca, las cuerdas vocales, el aire, el sonido,

etc.; si el mensaje es una película, el canal es el cine o la televisión (o incluso,

hoy en día, el ordenador).

A estos elementos que conforman el proceso de comunicación, habría que

añadir el referente, que es la realidad externa a la que se refiere el mensaje.

Esa realidad externa puede no tener nada que ver con nosotros, ni con nuestra

época, puede hacer referencia a otro tiempo, otro espacio, otra cultura. Es

importante este término porque muchos textos audiovisuales utilizan un

referente anterior.

La clave para descifrar un referente es, sencillamente, cultural. Únicamente

seremos conscientes de que un texto audiovisual hace referencia a otro si

conocemos ese referente de otro modo se perderá esa seña cultural y, en

cierto modo, parte de la información del mensaje.

Para entendernos pongamos un ejemplo sencillo: la película Shrek (2001)

de Andrew Adamson y Vicky Jonson, hace continuos guiños a otras películas

de Walt Disney, pero hay una secuencia concreta que es un referente claro

de una secuencia famosa de Matrix (1999) de Andy y Larry Wachowski. Es

habitual encontrar referentes cinematográficos de una manera desenfadada

en los capítulos de series de animación como Los Simpson o Padre de familia.

Page 4: Lenguajeaudiovisual libro

4

Además de todos estos elementos ya mencionados anteriormente

(emisor, receptor, mensaje, código, canal y referente), todo acto comunicativo

se produce, indefectiblemente, en una situación o contexto, que viene a ser

el conjunto de circunstancias que rodean el acto comunicativo. Podríamos

imaginar un contexto ideal en la comunicación que se produce entre una

película y el espectador sentado en la butaca de la sala de cine, comiendo

palomitas, bebiendo un refresco y arropado por esa oscuridad que permite la

fascinación y la hipnosis.

Las funciones comunicativas según Jakobson pueden aplicarse al análisis fílmico o publicitario.

Representativa:

- Referencial ………. Transmite información sobre la realidad.

- Imaginativa ………. Transmite una realidad inventada.

- Metalingüística …… El referente es el propio lenguaje.

Fática:

Inicia, prolonga, reanuda o finaliza la comunicación (Apelativos Mira,

¿entiendes?)

Expresiva:

Revela sentimientos y emociones del emisor.

Apelativa:

Trata de influir en el comportamiento del interlocutor.

Poética:

Crea textos poéticos.

Page 5: Lenguajeaudiovisual libro

5

Page 6: Lenguajeaudiovisual libro

6

2.1.- INTRODUCCIÓN:

Desde que el ser humano existe como tal, como homo sapiens, ha tenido

siempre la ineludible necesidad de dejar constancia gráfica de sus inquietudes,

ya fueran transcendentales, existenciales o de apetencia banal. El hombre de

la Prehistoria tomaba como soporte para sus imágenes la roca viva y los huesos

de animales. Sobre ellos grababa con una piedra o con un hueso, a modo de

buril, o pintaba con un líquido hecho a base de grasa animal y polvo de mineral

y un pincel fabricado con puntas vegetales.

LA COMPOSICIÓN DE LA IMAGEN2

Hueso grabado, (Arrige, Francia)

Barranco des Gascons, (Teruel, España)

Page 7: Lenguajeaudiovisual libro

7

La Naturaleza nos ofrece la mayor fuente de imágenes y el ser humano

es quien, con su capacidad de creación, se inspira en ella, copia sus formas,

observa su luz y su color, su fertilidad, su dureza y su renovación continua para

convertirse en aprendiz de lo divino.

Componer significa ordenar, disponer sobre un soporte una serie de

elementos con los que se quiere expresar una idea, un sentimiento, una

realidad, una ilusión o un sueño. Podremos afirmar de una composición que

está equilibrada cuando es imposible cualquier cambio en ella, es decir, cuando

ni faltan ni sobran elementos.

Para crear este orden, hemos de establecer unas normas o unas leyes

por las que regirnos, para no entrar en un caos mental. Al querer introducir

en nuestra creación todo lo que se nos pasa por la mente, sin olvidar nada,

podemos caer en la tentación del nuevo rico, que con todo lo que se envuelve

o adorna nos dice descaradamente lo rico que es.

La seducción es el arte de provocar al espectador una necesidad, sin

enseñar todo lo que debe intuirse.

Para comprender las REGLAS O LEYES DE LA COMPOSICIÓN, tendremos que

estudiar los elementos mínimos pero, al mismo tiempo, los más importantes

que conforman la composición, es decir el punto, la línea y el plano. Asimismo,

habrá que analizar el orden de colocación de todos y cada uno de los elementos

que intervienen en cada momento de la composición artística para que la obra

nos comunique su alma.

Page 8: Lenguajeaudiovisual libro

8

• PUNTO :

El punto, es el elemento gráfico o plástico más pequeño que se puede

dibujar, nace del impacto de un instrumento con una superficie, la marca que

puede dejar un rotulador sobre un papel, la huella de nuestra yema del dedo,

una gota de ácido sobre un metal, etc. Este hecho tan insignificante, tiene un

gran valor de atención y atracción sobre nuestra mirada, siempre y cuando la

superficie del impacto esté limpia.

La forma del punto puede ser cualquiera: un circulo, un triángulo, un

cuadrado, una muesca, una mancha informe, siempre y cuando su presencia

sea muy pequeña en relación a la superficie dónde aparece.

El hombre utiliza el punto con diversas finalidades, en el lenguaje, para

crear silencio o para tratar otro asunto, y en el aspecto plástico, para crear

sensaciones.

• LINEA:

Es la huella que deja un punto al deslizarse sobre una superficie o también

puede ser una sucesión de puntos en una misma dirección. Esta línea puede

ser orgánica, es decir, la que nos ofrece la Naturaleza (muy cálida y creativa),

que casi tiene olvidada la línea recta, y la que nos ofrece la Geometría (fría y

exacta) que puede ser recta, curva o mixta.

Atención Doble Atención ConcentraciónDispersión

Orden Desorden ProfundidadCuriosidad

linea

Page 9: Lenguajeaudiovisual libro

9

Las líneas rectas son continuas, rígidas e inamovibles con mayor o menor

espesor, pero si son quebradas trasmiten dinamismo e incluso agresividad.

Las líneas curvas son ricas en movimiento en cualquier dirección y trasmiten

suavidad.

El hombre se sirve de la línea como la herramienta más concisa para

organizar espacios o para narrar el contenido de una obra creando el sentido

de lo bidimensional y tridimensional.

La línea es un elemento generador de tensión o de movimiento a la vez

que marca una dirección.

La línea horizontal es fría, por el contrario, la línea vertical es caliente, es

la posición opuesta y, por la misma lógica, la línea inclinada es más templada.

. La línea horizontal, trasmite profundidad, paz, tranquilidad.

. La línea vertical, trasmite equilibrio, espiritualidad, ascendencia.

. La línea inclinada, trasmite dinamismo, inestabilidad.

. La línea curva suaviza las sensaciones anteriores y les da gracia y belleza.

• PLANO

Es la superficie que va a contener la obra que expresa nuestro sentimiento,

este espacio normalmente tendrá forma rectangular o cuadrada, delimitado

por dos segmentos verticales y dos horizontales. Y en su interior lucharemos

para expresarnos lo más libremente posible.

Trabajando con estos conceptos también consideraremos la zona superior

del plano más ligera y la inferior más pesada; la zona derecha como segura o

conocida y la zona izquierda como aventurera o desconocida.

Estas afirmaciones no son gratuitas pues si analizamos el comportamiento

humano, el hombre ante cualquier hecho inesperado: golpe, ruido, miedo,

Tranquilidad Ascendencia ParticiónInquietud

plano

Page 10: Lenguajeaudiovisual libro

10

mala noticia, etc., su instinto le hace encogerse en un movimiento que nos

recuerda al fetal y se retira levemente hacia la derecha (la seguridad que nos

proporcionaba el vientre materno).

Por la ley de la gravedad, al considerar la zona inferior y la zona superior del

plano, los elementos pesados caen y los ligeros ascienden.

Ligero. Cielo. Pesado. Tierra.

Desconocido. Aventura. Conocido. Seguro.

Page 11: Lenguajeaudiovisual libro

11

2.2.- LEYES DE LA COMPOSICIÓN.

Los elementos contenidos en el plano no se pueden colocar de forma

arbitraria sino que, además de las consideraciones anteriores, hemos de tener

en cuenta la utilidad de componentes como:

- Rectángulo Áureo

- Regla de los Tercios

-Ley de la Balanza

-Ley de Compensación de Masas

-Ritmo

-Simetría

RECTÁNGULO ÁUREO. Se basa en la relación de medidas ideales,

agradables a la vista humana, los griegos del mundo clásico lo usaban en

arquitectura como Proporción Divina y lo mismo se hizo en el Renacimiento.

Construcción de Rectángulo Aúreo .

Partenón, Atenas.

D.N.I.Catedral de

Notre Dame, Paris

Tarjetas de crédito.

Page 12: Lenguajeaudiovisual libro

12

REGLA DE TERCIOS. Es una adaptación más práctica de la partición

del rectángulo áureo y consiste en dividir la superficie mediante dos líneas

paralelas, de forma equidistante, a los márgenes longitudinal y transversal;

obteniendo, de esta manera, nueve cuadrados iguales.

LEY DE BALANZA. Consiste en un modelo artístico para equilibrar la imagen

en el plano. A semejanza de los platillos de una balanza que guardan la misma

distancia respecto a un eje vertical (o fiel) de una balanza.

LEY COMPENSACIÓN DE MASAS. Al contrario que la de la balanza, lo que se

busca es el equilibrio mediante el contrapeso. Al estilo de una balanza romana,

un elemento compositivo se aleja más que otro del centro de la imagen, de

Retrato, Rosario Ramos.

Regla de Tercios.

Pavimento, González Alba.

Frontal del altar, Seu Dúrgell.Balanza.

Page 13: Lenguajeaudiovisual libro

13

este modo adquiere mayor peso visual que otro de mayor tamaño más cerca

del centro, esta composición es más dinámica.

RITMO, es una sucesión de hechos o de formas que van apareciendo

de una manera ordenada y armónica, combinando con espacios vacíos.

Esta cadencia, nos transmite una sensación de movimiento, clave en la

composición. En nuestra vida diaria estamos creando ritmo al repetir, de una

forma más o menos rutinaria, nuestras acciones cotidianas; del mismo modo

ocurre en el resto de la naturaleza. Teniendo en cuenta esta observación,

podemos hacer una clasificación de los ritmos en: narrativos (relacionados con

la acción de sentimientos de personajes), visuales (los que nos transmiten las

propias imágenes), musicales (los relacionados con el sonido) y dentro de ellos

podríamos calificarlos de uniformes, alternos, creciente-decreciente, modular,

libre, etc.

Miguel Ángel, Capilla Sixtina.Balanza romana.

Ritmo uniforme, dos tonos.

Ritmo Creciente-decreciente, tres tonos

Page 14: Lenguajeaudiovisual libro

14

SIMETRIA. Es el sistema con el que se ordena el espacio o plano de forma

que concentra, alrededor de un punto o de una recta o de otro plano, un

conjunto de objetos iguales o semejantes, creando armonía y plasticidad. Las

simetrías podemos clasificarlas como: central, radial y axial.

Ritmo natural.Ritmo artificial.

Simetría Axial, eje vertical. Simetría axial, eje vertical.

Simetría Radial.

Simetría Radial.

Simetría axial, eje horizontal.

Simetría central.

Page 15: Lenguajeaudiovisual libro

15

2.3.- PERSPECTIVA.

Del verbo latino perspicere, ver a través de.

La perspectiva, es la herramienta para crear la sensación de volumen,

es decir, plasmar las tres dimensiones de un objeto sobre un plano que sólo

tiene dos dimensiones. Se consigue al añadir a las formas bidimensionales la

dirección de la profundidad. También hay que tener en cuenta que elementos

de igual medida, los más cercanos al observador, se ven mayores que los más

alejados.

Simulamos la sensación de profundidad con efectos de distorsión angular

y de reducción de dimensiones.

La Perspectiva se estudia de una manera más científica en el Renacimiento

italiano para conseguir en pintura un mayor realismo, este descubrimiento

revolucionó la representación espacial.

Nuestro objetivo es conocer como funcionan los elementos que

intervienen en la creación de una perspectiva y cuantas podemos definir. Para

ello analizaremos las siguientes: Cónica, Axonométrica y Caballera.

PERSPECTIVA CÓNICA.

Es la más cercana a la visión humana y también la más compleja de realizar.

Utilizada en el campo de la Arquitectura y la Decoración, existen tres clases: la

central, la oblicua y la aérea; en la central hay un punto de fuga, en la oblicua,

son dos los puntos de fuga y en la aérea interviene un tercer punto de fuga.

Page 16: Lenguajeaudiovisual libro

16

Los elementos de una perspectiva cónica son los siguientes:

PG: Plano Geometral o plano horizontal dónde se encuentra el observador.

PC: Plano del Cuadro o plano vertical, donde se plasma la imagen.

PH: Plano de Horizonte o plano paralelo al horizontal a la altura del ojo u

objetivo.

LH: Línea de Horizonte es el encuentro del plano horizonte con el del

cuadro.

LT: Línea de Tierra es el encuentro del plano del cuadro con el geometral.

PP: Punto Principal, es el encuentro de la mirada del observador en línea

perpendicular con la línea de horizonte.

Punto de Fuga: o lugar donde convergen en el horizonte las rectas paralelas

a una dirección.

Rayo Visual: o recta que sale del ojo o del objetivo y llega al contorno del

objeto.

Cono Visual: o campo de visión que abarcamos con el ojo, observando

nítidamente los objetos, es aproximadamente de 60º.

Altura de Horizonte: es la que tiene el ojo o el objetivo con respecto del

plano Geometral

Distancia al Horizonte: es la que hay desde el observador al plano del

cuadro.

Cónica Central. Cuando los objetos observados tienen una de sus caras

paralela al plano del cuadro, las líneas perpendiculares al plano del cuadro,

fugan al punto principal y las que son paralelas al plano del cuadro, permanecen

paralelas.

Esquema Cónica. Autor: http://antona.wordpress.com

Page 17: Lenguajeaudiovisual libro

17

Cónica Oblicua. Cuando los objetos observados no tienen una cara paralela

al plano del cuadro, observamos unas aristas que parten de dos caras y ellas

nos darán la dirección de los focos o puntos de fuga.

La Cónica Aérea o Inclinada, es como la oblicua, podemos observar un punto

más de fuga, es un equivalente a una imagen en picado o en contrapicado.

Mercado de Oaxaca, Rosario Ramos.

Línea de Horizonte.

Línea de Horizonte.

Contrapicado. Picado.

Page 18: Lenguajeaudiovisual libro

18

Las perspectivas Axonométrica, Caballera y una variante de ésta llamada

Militar, son ejemplos de representación espacial realizados de una forma

geométrica que utiliza instrumentos de dibujo. Estas perspectivas se acercan a

la realidad pero no tanto como la Perspectiva Cónica y sobre todo nunca como

una cámara de Fotografía o de Cine.

PERSPECTIVA AXONOMÉTRICA.

La perspectiva axonométrica, nos ofrece la ventaja de mayor rapidez en la

creación de volúmenes pero perdiendo la percepción del ojo humano (o cámara

fotográfica). El recurso que se utiliza consiste en marcar tres direcciones: alto,

ancho y profundidad según unos ejes que nacen de un origen a modo de

coordenadas. Estas direcciones de ejes, pueden guardar diferentes ángulos.

Si los tres son iguales, se decir 120º, la llamaremos isométrica; si dos ángulos

miden lo mismo, se llamará dimétrica y si ninguno mide igual la llamaremos

trimétrica.

Altura

Profundidad Anchura

120º

120º

120º

Monasterio del Escorial.

Page 19: Lenguajeaudiovisual libro

19

PERSPECTIVA CABALLERA.

Podemos decir que es una variante de la axonométrica dimétrica, ya

que al ángulo desigual le daremos un valor de 90º y lo colocaremos frente

al observador; si este plano lo colocamos a los pies del observador, pasará a

llamarse, militar. Altura

Profundidad

Anchura

90º

Altura

Profundidad Anchura

90º

Perspectiva militar.

Proyecto Bauhaus.

Page 20: Lenguajeaudiovisual libro

20

2.4.- PROPORCIÒN, ESCALAS y MAQUETAS.

La proporción, es la relación entre las medidas de las diferentes partes de

un objeto o de una figura con ella misma y con las de su entorno, medidas para

conseguir un canon de belleza. Esa belleza de una realidad es definida sólo por

el ser humano, ya que todas las cosas que fabricamos o existen, están hechas

por y para las personas, nosotros somos quienes decimos si algo es grande o

pequeño si está lejano o cercano y, por supuesto, si es o no proporcionado.

El canon es la relación armónica entre las diferentes partes del cuerpo

humano. Las diferentes culturas a lo largo de la historia han definido este

canon con distintas mediciones. En el antiguo Egipto, 18 puños de una mano

equivalían a la altura media de un adulto. En la Grecia clásica, según Polícleto,

7 cabezas conformaban la altura de un adulto; 7 cabezas y media según Lisipo.

En la actualidad 8 cabezas corresponden al canon del cuerpo humano.

Polícleto. Lisipo. Contemporánea.

Egipcia. Vitruvio.

Page 21: Lenguajeaudiovisual libro

21

Escala es la relación que existe entre una imagen y su realidad.

Una escala gráfica, geométricamente hablando, es la fracción entre el

Dibujo y la Realidad, es una aplicación práctica de la Semejanza.

El cociente de esta fracción nos cuenta que si es igual a 1, es una escala

natural, si es menor de 1, es una escala de reducción, y si es mayor de 1, es una

escala de ampliación.

Las escalas más usuales en nuestra vida cotidiana son las que observamos

en un mapa de una región ya sea un municipio, una provincia, un país o

también las del plano de una vivienda o un terreno en el que observamos en

un ángulo de ese plano, normalmente en la zona inferior, una regleta con una

numeración distinta a nuestra habitual regla de medir, graduada en múltiplos

de 5 y de 1 y al final una unidad de medida como el metro, el kilómetro, etc.

Escalas más usuales de reducción: 1/2, 1/5, 1/4, 1/10, 1/50, 1/100, 1/250,

1/500, 1/1000...

ESCALA=DIBUJO

REALIDAD

Escala 1:50

Page 22: Lenguajeaudiovisual libro

22

Escalas de ampliación: 2/1, 5/1, 10/1, 500/1…

La maqueta es un modelo tridimensional y construido a escala de algo que

ya existe o de algo que deseamos construir. Los materiales utilizados, deben de

ser fácilmente manipulables y flexibles, son de bajo precio e incluso reciclados

o restos de maderas blandas, acetatos, cartón, poliespan, textiles, pinturas,

etc.

El maquetista ha de ser una persona con gran habilidad en la motricidad

fina, comprender los planos de edificación, ser paciente, ordenado y pulcro,

curioso por conocer la historia de lo que se va a construir y de su entorno, gran

conocedor del acabado o de la textura de los materiales que deseamos simular

y, por último, saber iluminar, para acercar esta mini-realidad al mundo de lo

creíble.

Ojo de Mosca.

Expo de Zaragoza 2008.

Page 23: Lenguajeaudiovisual libro

23

2.5.- EL COLOR.

Sin luz, no hay color. Esta afirmación nos hace reflexionar, cómo la luz es

el vehículo trasmisor del color que impregna a todos los materiales que nos

rodean, ya sean orgánicos o inorgánicos, y por consiguiente todo el mundo

animal, mineral y vegetal está atrapado en esta propiedad.

El color nos permite ver con facilidad las formas y contornos de objetos

y también ser uno de los grandes componentes de las imágenes, con lo que

seremos capaces de sentir sensaciones y emociones por su acción psicológica

en nuestra mente.

Isaac Newton fue el primero en demostrar que la luz blanca se descompone

en los colores que apreciamos en el arco iris, más tarde Thomas Young demuestra

que la luz se podía simplificar en tres colores básicos o primarios: azul-violáceo,

el verde y el rojo; tiempo después, James Clerk Maxwell demuestra cómo la

luz es una energía propagada por dos campos, uno eléctrico y otro magnético,

y Heinrich Herat fue capaz de producir luz visible y coloreada mediante la

formación de ondas electromagnéticas.

Los objetos transmiten la sensación de color debido a la composición

química y física de su superficie. Si un haz de luz atravesara un cristal

transparente, los rayos no sufrirían alteración alguna, pero si dicho cristal

fuese coloreado, ciertas longitudes de onda quedarían retenidas, pasando sólo

las que coinciden con las del color de ese cristal. En cuerpos opacos, la luz que

incide sobre la superficie refleja únicamente el color por el cual reconocemos

ese objeto. Si, por ejemplo, la luz incide sobre una superficie blanca, ésta

reflejará todo el haz de luz sin que el cuerpo absorba ninguna radiación; en

cambio, cuando la luz incide sobre un objeto azul, dicho cuerpo reflejará el

color azul y absorberá el resto de radiaciones. De manera antagónica al blanco,

un cuerpo negro absorberá todas las radiaciones de color sin reflejar ninguna.

El color es luz cuando pertenece al campo de la Física, ya que la luz blanca

está compuesta de colores. Este color no es un pigmento. No mancha.

El color es materia cuando pertenece al campo de la Química. Este color

es un pigmento. Sí mancha.

El color es percepción cuando pertenece al campo de la Fisiología al ser

captada por nuestros ojos.

El color es sensación cuando pertenece al campo de la Psicología.

Page 24: Lenguajeaudiovisual libro

24

COLOR-LUZ.

Es el producido por las radiaciones luminosas emitidas por fuentes de luz

ya sean blancas o coloreadas. Los colores-luz suelen usarse en el campo de la

fotografía, televisión, escenografía, decoración, cromatología, psicología, etc.

Los colores primarios-luz son: el rojo, el verde y el azul. La unión de estos

colores se llama unión o síntesis aditiva y de esa unión obtenemos como

resultado la luz blanca. El resultado de unir dos colores primarios, daría un

color más cercano a la luz blanca, que esos dos colores primarios por sí mismos.

Los colores secundarios-luz se obtienen de la combinación de dos luces

primarias, es decir, que con la unión del rojo con el verde obtendríamos el color-

luz amarillo. Los secundarios-luz son: el amarillo, el azul-cian y el magenta.

COLOR-MATERIA.

Es el color que no posee luz propia y por lo tanto necesita de una fuente

luminosa de luz blanca para poder ser percibido. Los objetos, al recibir la luz

blanca, reflejarán el color de la radiación que no pueden absorber y reflejar el

color por el que conocemos su nombre.

Los colores primarios-materia son: el magenta, el cian y el amarillo. La

unión de estos colores se denomina unión o síntesis sustractiva y dará como

resultado el color negro. El resultado de unir dos de ellos, sería un color más

cercano al negro, que el de los colores que parte. Se llama síntesis sustractiva

porque el resultado de unir dos primarios sustrae o resta luz y se encuentra

más cerca del color negro.

Violeta.

Rojo. Verde.

Page 25: Lenguajeaudiovisual libro

25

Los colores secundarios-materia, se obtienen de la mezcla de dos colores

primarios en igual cantidad y son el verde, el violeta y el rojo bermellón

CUALIDADES DEL COLOR

Dimensionar un color, no es darle medidas de longitud ni de superficie ni de

volumen, es atribuirle o asignarle una serie de esencias que creen diferencias

entre ellos, para esto utilizaremos los términos: Tono, Valor y Saturación

Tono o matiz o croma, es el nombre con el que nombramos un color.

También podemos definirlo como la cromaticidad del color correspondiente

a la longitud de onda dominante, es decir, de un amarillo podemos precisar

diciendo que es amarillo-verdoso o es amarillo-anaranjado.

Valor o luminosidad es el grado de claridad o de oscuridad de un tono, es

decir, la cantidad de luz que refleja por contener mayor o menor cantidad de

blanco o de negro

Saturación es el mayor grado de pureza de un color e indica la cantidad

de tono que contiene cuanto más saturado está, más intenso o brillante y vivo

aparece. La saturación se pierde al añadirle blanco, negro u otro color. Los

colores más saturados son los primarios.

CÍRCULO CROMÁTICO

Es una ordenación de colores dispuestos en forma circular a modo de

sectores circulares, de manera que fácilmente descubrimos como es la

Cyan.

Magenta. Amarillo.

Page 26: Lenguajeaudiovisual libro

26

composición de cada uno de ellos en base a los primarios y de qué proporción

están compuestos.

Sobre este círculo podemos apreciar las zonas cálidas: las cercanas al

magenta; las frías son las cercanas al azul-cian y las templadas están en las

zonas intermedias o separadoras de frías y cálidas.

COLORES COMPLEMENTARIOS

Se dice que dos colores son complementarios cuando uno de ellos

neutraliza al otro y éste, a su vez, es neutralizado por aquél, equilibrándose de

esta manera.

El complementario de un primario, sería el secundario formado por los

Page 27: Lenguajeaudiovisual libro

27

otros dos primarios.

En el círculo cromático lo observaremos eligiendo uno cualquiera y su

opuesto o el cercano a este opuesto.

Un color y su complementario no comparten individualmente en su interior

ningún tono.

COLORES ANÁLOGOS

Definiremos así a la combinación entre un grupo de colores que comparten

un mismo tono en mayor o menor cantidad.

En el círculo cromático, se encuentran unos junto a otros, es decir son

colores vecinos y si consideramos un tercio del circulo cromático, todos ellos

son afines y el que se encuentra en el centro seria el dominante.

COLORES NEUTROS EL CLAROSCURO

La mezcla de pigmentos negros y blancos da como resultado grises, en

sus diferentes gradaciones y según la cantidad de cada color constituyen una

escala que varía del blanco al negro pasando por todos sus infinitos grises.

También consideraremos neutros esos grises aunque contuviesen una

pequeña cantidad de otro color.

Los colores neutros también se denominan acromáticos o faltos de color.

Todos los objetos que percibimos en nuestro entorno se hacen visibles

gracias a la luz natural o artificial. El claroscuro es la graduación de luminosidad

mediante la cual se definen las formas y el volumen de los cuerpos pasando de

lo bidimensional a lo tridimensional. Es de gran importancia la fidelidad de los

distintos valores de los grises.

Page 28: Lenguajeaudiovisual libro

28

ARMONIA

La armonía podríamos definirla como el arte de saber combinar los colores

del círculo cromático de una forma equilibrada, consiguiendo resultados

agradables o desagradables al ojo humano, con el objetivo de crear sensaciones

que necesitemos para cada momento de nuestra obra.

También hemos de tener en cuenta que los gustos cambian de

generación en generación y según la edad, el sexo, la educación, el entorno

cultural, etc.

Al estudiar los colores observaremos que todos tienen una personalidad y

fuerza cromática propia, lo que hace, por ejemplo que los tres colores primarios

no armonicen entre sí y lo mismo ocurre con los tres secundarios.

Gernica, Pablo Picaso.

Armonía de fríos. Picaso.

Page 29: Lenguajeaudiovisual libro

29

CONTRASTE

El contraste nos sitúa en una sensación violenta en la percepción visual,

es un choque o sobresalto, pero dentro de un orden cromático, y es una

herramienta muy útil para crear tensión conservando una gran potencia

expresiva.

No hay que confundir contraste con desarmonía.

Percibiremos rápidamente un contraste cuando juntamos dos colores

opuestos del circulo cromático, tras una primera visión chocante e hiriente,

al cabo de cierto tiempo, se perderá esta primera sensación, porque el

cerebro, ante este choque, la contrarresta fabricando sensaciones opuestas;

por ejemplo, al observar juntos dos colores opuestos (rojo y verde) en el

círculo cromático en igual cantidad de superficie, al poco tiempo el cerebro

envía sensaciones opuestas: verdes para anular el vigor del rojo y rojas para

contrarrestar la fuerza del verde.

El negro y el blanco, utilizados juntos, crean un contraste muy acentuado,

aunque lo podríamos considerar como neutro o claroscuro.

Armonía de cálidos. Dalí.

Contraste de complementarios.

Page 30: Lenguajeaudiovisual libro

30

COMBINACIÓN DE COLORES

Algunos colores o gamas de ellos, al asociarse con otros, producen distintas

tonalidades cromáticas, de las que enumeraremos algunas:

Dos colores cálidos contrapuestos se enfrían mutuamente.

Un color cálido junto o yuxtapuesto a uno frío se avivan

simultáneamente.

Dos colores fríos yuxtapuestos aumentan su frialdad.

Cualquier tono junto al blanco realza su tonalidad.

Matisse, La danza.Andre Derain, Paisaje.

Page 31: Lenguajeaudiovisual libro

31

Cualquier tono junto al negro rebaja su tonalidad.

Un tono yuxtapuesto o junto a un gris realza este tono.

Un claroscuro se forma al yuxtaponer tonalidades o

gamas de un mismo color.

Hemos de tener en cuenta que los colores son extremadamente sensibles

a la luz y a veces un color observado primero con luz natural, cambia si lo

observamos después bajo una luz artificial.

Por ejemplo la luz incandescente, donde predominan los tonos rojos y

amarillos, hace ver el color azul algo agrisado. La luz malva de los ultravioletas

y la luz negra, avivan los blancos.

INTERACCIÓN DEL COLOR

En nuestra vida cotidiana, nunca observamos los colores como superficies

aisladas sino que están envueltas o rodeadas de otros colores, esto hace

que un mismo tono nos parezca diferente si está junto a un tono o a otro. El

ojo humano actúa como la síntesis aditiva (color-luz) y de forma automática

reacciona ante un estímulo con el color contrario para relajar la retina. Esta

propiedad del sentido de la alteración o interacción del color, podemos

definirla en cuanto al tono, al valor y a la saturación.

Alteración según el tono: un mismo color superpuesto sobre dos fondos

distintos nos da la apariencia de dos colores diferentes.

Page 32: Lenguajeaudiovisual libro

32

Alteración según el valor: cualquier color sobre un fondo claro parecerá

más oscuro que si se coloca sobre un fondo oscuro.

Alteración según la saturación: un mismo tono sufre una variación ante

dos fondos del mismo tono, pero uno de ellos tiene más cantidad de negro. El

color que se encuentra sobre este segundo, parece más saturado.

EFECTOS PSICOLGICOS DEL COLOR

Según Kandinsky, Cuando se alcanza un alto grado de desarrollo de la

sensibilidad, los objetos y los seres adquieren un valor y un sonido interior.

Lo mismo sucede con el color, cuando la sensibilidad está muy desarrollada el

efecto del color provoca una conmoción emocional.

La energía del color, actúa sobre nuestra sensibilidad y nos predispone

a aceptar sus efectos: estimulantes como el rojo o relajantes como el azul.

Estos estímulos los aprendemos en la infancia, asociada a nuestra genética,

al experimentar en nuestro entorno más cercano. De niño nos atrae el fuego

por su brillantez y color, al tocarlo comprobamos lo que nos ha sucedido y

nuestra mente guarda este recuerdo de excitación y peligro. Lo mismo nos

ocurre al herirnos y ver manar la sangre roja, causa alarma y excitación. Los

azules del agua o del cielo nos dan tranquilidad al relajarnos con su frescura y

ser el medio acuoso y seguro del recuerdo del vientre materno.

El color del cielo nos despierta al futuro de un nuevo día.

Page 33: Lenguajeaudiovisual libro

33

Color Asociación - Respuesta Emocional

BLANCO: Luz, pureza, modestia, unidad, inocencia, rendición.

NEGRO: Error, mal, tristeza, luto, elegancia, infelicidad.

ROJO: Fuego, sangre, señal de peligro, erotismo, excitación, dinamismo,

calor.

NARANJA: Juventud, alegra, verano, seguridad, confianza, optimismo.

AMARILLO: Alegría, sol, oro, arrogancia, provocación, poder.

AZUL: Cielo, agua. Los claros: tranquilidad, frío y melancolía. Los oscuros:

misterio.

VERDE: Vegetación, paisajes naturales, paz, tranquilidad, frescura, vitalidad.

VIOLETA: Esplendor, riqueza, penitencia, dolor, dignidad, tranquilidad,

calma.

OCRE: Tierra, roca, tronco de árbol, madera, vigor, alegría, calidez.

Page 34: Lenguajeaudiovisual libro

34

Page 35: Lenguajeaudiovisual libro

35

3.1.- INTRODUCCIÓN.

Aunque más antigua, la imagen denominada «fija» ocupa un campo

mucho menos definido que el de la imagen en movimiento. Es interesante

matizar que la imagen fija ha encontrado su apelativo más común sólo por

oposición a su rival o complementaria: la imagen móvil. La fijeza de la imagen

se concibe porque existe otra imagen animada, en movimiento. Así pues, ha

sido necesaria la invención del cine para darle, al menos en apariencia, entidad

a la imagen «fija».

La imagen fija es la fotografía, el cartel (gráfico o fotográfico), el dibujo de

prensa, el grabado, el cómic (curiosamente, rara vez una pintura es considerada

como imagen fija): un cómodo y enorme «cajón de sastre» donde englobar

determinado arte contemporáneo, diferenciado claramente entre sí. Nosotros

nos centraremos en la imagen fotográfica.

Para empezar, vamos a establecer un marco de presentación de la

imagen fotográfica, con unas características generales que nos servirán para

profundizar posteriormente en su lenguaje específico:

1. En Fotografía, cualquier información sensorial, fundamentalmente

visual, pasa a través de la cámara, de la óptica de la cámara, de la

película o del tipo de sensor digital: EL LENGUAJE ESTÁ ÍNTIMAMENTE

UNIDO AL CONOCIMIENTO TÉCNICO O TECNOLÓGICO FOTOGRÁFICO.

Conceptos como sensibilidad, rapidez, nitidez, contraste, latitud, grano,

diafragma, distancia focal, velocidad de obturación, etc. determinan

las características del lenguaje fotográfico.

2. La información visual es tridimensional; la fotográfica, BIDIMENSIONAL:

fija, estable, legible, simple, con intención estética, comunicativa,

informativa y persuasiva.

3. El punto de vista de la toma es ESTÁTICO: la Tensión, el Equilibrio y el

Ritmo se producen dentro de la imagen.

4. El DINAMISMO se genera básicamente con la Profundidad de Campo;

con la Ilusión de profundidad (bidimensionalidad fotográfica) y

perspectiva.

5. El encuadre es CENTRÍPETO (no existe la opción de off, de fuera de

campo).

LA IMAGEN FIJA: LA FOTOGRAFÍA3

Page 36: Lenguajeaudiovisual libro

36

6. La Fotografía es recorte, es reducción QUIRÚRGICA de la realidad.

7. Tiene carácter INSTANTÁNEO: TIEMPO CERO (no narrativo).

8. La LUZ, EJE: su manipulación, su conocimiento, es elemento

fundamental para el desarrollo del lenguaje fotográfico. Sin luz no hay

imagen.

9. Durante mucho tiempo, con el B/N, la cromaticidad ha sido alterada y

ha generado un código de lectura propio.

Las imágenes fotográficas se pueden analizar y leer desde muchas

perspectivas, pero destacaremos aquí dos planos fundamentales: la lectura

objetiva y la lectura subjetiva.

• Entendemos por LECTURA OBJETIVA la que se refiere exclusivamente

a los elementos y aspectos objetivos de la imagen, es decir, aquellos

que están presentes independientemente del receptor que la observa.

• Entendemos por LECTURA SUBJETIVA a las reacciones de todo tipo

que la imagen provoca o pretende provocar en el receptor que la

observa; un receptor que posee información previa y su propio «diseño

cultural»: educación, civilización, poso cultural/conocimiento previo,

etc.

Establecido el marco general fotográfico, definimos la imagen fotográfica

como:

«El proceso de capturar y almacenar imágenes en un material sensible

a la luz, basado en el principio de la cámara oscura, con el que se consigue

proyectar una imagen captada por un pequeño agujero sobre una superficie,

de tal forma que el tamaño de la imagen queda reducido y aumentada su

nitidez. Para almacenar esta imagen, las cámaras fotográficas utilizaban

hasta hace algunos años exclusivamente la película sensible, mientras que

en la actualidad se emplean, casi siempre, sensores CCD y CMOS y memorias

digitales; es la nueva fotografía digital». (Wikipedia).

Esta definición nos sirve para apuntar un hecho trascendental en la historia

y en la evolución tecnológica y del lenguaje fotográfico: vivimos en plena

Page 37: Lenguajeaudiovisual libro

37

revolución tecnológica, en plena ERA DE LA FOTOGRAFÍA DIGITAL. Hemos

pasado a velocidad de la luz del soporte fotoquímico, de la película y el papel

fotográficos, a los sensores de las cámaras compactas y reflex digitales, que

aportan calidad de reproducción, sin coste de captura adicional, inmediatez,

la opción de múltiples tomas con la opción de eliminar la que no nos agrade,

todo ello con un coste económico ínfimo que ha universalizado, aún más si

cabe, la fotografía. Y no sólo la producción de material fotográfico ha sufrido

un cambio radical; la exhibición fotográfica se ha multiplicado en progresión

casi infinita con la utilización de Internet como ventana al mundo: blogs,

webs, redes sociales, etc., hacen de la imagen fotográfica una herramienta

comunicativa, artística y social de primera magnitud en el mundo global en

que vivimos.

El término fotografía procede del griego φως phos («luz»), y γραφίς grafis

(«diseñar», «escribir») que, en conjunto, significa «diseñar/escribir con la

luz». Es difícil establecer la paternidad de la palabra y más aún determinar con

exactitud quién ha sido el inventor de la técnica misma, ya que ésta cuenta

con una larga fase preparatoria (Aristóteles, Al-Hazen, Leonardo Da Vinci;

cámara oscura, cámara lúcida, cámara estenopeica). Pero podemos decir

que gran parte de su desarrollo se debe a Joseph-Nicéphore Niépce, y que

el descubrimiento fue hecho público por Louis Daguerre, tras perfeccionar la

técnica.

By Angelrravelor. Flickr. Creative Commons. Licencia Atribución.

Page 38: Lenguajeaudiovisual libro

38

La tarea que nos proponemos en esta unidad, es el estudio de la imagen

fotográfica, dar a conocer sus fundamentos técnicos, así como a entender las

claves que determinan su lenguaje. Nos asomamos a esta ventana fotográfica

desde dos perspectivas:

1. Técnica: Debes conocer y dominar conceptos físicos, ópticos y digitales

básicos.

2. Artística: Vamos a aplicar lo visto en el tema anterior (punto, línea,

forma, tamaño, color, tono, encuadre, plano, angulación, profundidad

de campo, perspectiva) y añadir nuevos elementos: iluminación y

composición específicamente fotográfica.

By Niépce View from the Window at Gras (Point de vue pris d’une fenêtre du Gras à Saint-Loup-de-Varennes). Se considera la primera fotografía de la historia.

Page 39: Lenguajeaudiovisual libro

39

3.2.- LA TÉCNICA FOTOGRÁFICA: CONCEPTOS FUNDAMENTALES.

Fotografía Digital.

PIXEL. El sensor de la cámara fotográfica está compuesto de píxeles. Los

píxeles conforman una matriz, ordenada en filas y en columnas, para captar la

luz y convertirla en corriente que genere la imagen final. El pixel se caracteriza

por:

Calidad. La calidad de la información de cada píxel depende a su vez de

otros factores más técnicos: cantidad de fotodetectores que intervienen,

calidad combinada de lente y sensor, tamaño del fotocaptador, etc. Como

profundizar en este tema no es nuestra intención, deciros que, básicamente,

a menor número de bits, imágenes con mucha menor gama tonal.

Tamaño. El tamaño del píxel afecta a la calidad de la imagen: a mayor

tamaño, mayor calidad (una imagen capturada con una cámara compacta

de 12Mp -Mega píxeles-, con los sensores pequeños con que se fabrican

actualmente, no tendrá nunca la CALIDAD de captura de una cámara reflex de

12Mp –Mega píxeles-, con un sensor de tamaño completo (24x36 mm).

El tamaño también es tamaño de la imagen: es el tamaño medido en

número de puntos (píxeles): ancho x alto.

Podemos disponer de tamaños tales como 640×480, 1024×760, 1600×1200,

2048×1536, etc. También podemos expresar el tamaño de la imagen indicando

los millones de píxeles que tiene la imagen (Mega-Píxeles):

640 x 480 = 307200 píxeles = 0’3 Mega píxeles (Mp).

1024 x 768 = 0’78 Mega píxeles, aceptado como 1 Mp.

1600 x 1200 = 1’92 Mega píxeles, aceptado como 2 Mp.

2048 x 1536 = 3’1 Mega píxeles, aceptado como 3 Mp.

By Autores.

Page 40: Lenguajeaudiovisual libro

40

Resolución de la imagen. También llamada dpi (dots per inch o puntos por

pulgada -ppp-). Este concepto entrará en juego cuando imprimamos nuestra

fotografía en papel. Una foto que hemos obtenido a un tamaño de imagen

determinado no tiene, a priori, definida una resolución determinada, sino

que ésta variará en función del tamaño al que imprimamos la fotografía. Los

procesos de revelado actuales suelen conseguir un nivel máximo de resolución

de 300 dpi, aunque según qué caso, a partir de unos 150 dpi los resultados

pueden ser excelentes.

Proporciones de la fotografía. Es interesante hacer mención a la relación

ancho x alto. Si observamos la relación de aspecto de una fotografía tradicional

de 15 x 10 vemos que el cociente 15/10 es igual a 1’5 mientras que en una

fotografía digital esta relación suele ser un valor algo menor, generalmente

1’33 (1024/768 = 1600/1200 = 2048/1536, etc.); Es decir, la fotografía digital

es algo más cuadrada que algunos formatos de la tradicional, pues ha tomado

la relación de aspecto de los monitores de televisión. Debes tenerlo en cuenta

a la hora de componer, encuadrar la imagen fotográfica.

Todos estos cálculos nos sirven para calcular el tamaño máximo a que

podemos imprimir una fotografía digital. Si excedemos ese tamaño, empezarán

a distinguirse los píxeles.

La Compresión. Hay otro factor, que no tiene nada que ver con la resolución,

que también afecta a la calidad de la imagen. Se trata de la compresión. JPEG

es un formato que comprime la imagen. Cuanta más compresión se utiliza,

menos ocupa la fotografía en la tarjeta de memoria, pero peor calidad tiene.

Las cámaras fotográficas digitales suelen tener dos o tres calidades, que suelen

denominar fine, standard, o algo similar. Cada cámara aplica unos niveles de

compresión diferentes, por lo que no podemos establecer normas fijas en

este asunto. Lo mejor es experimentar con las diferentes calidades. Pero eso

sí, si usamos los modos de mayor compresión, la calidad de la fotografía se

resiente, especialmente en copias grandes. Si necesitamos la máxima calidad,

lo mejor es usar el modo de mínima compresión e, incluso, si nuestra cámara

lo permite, formatos sin compresión, como TIFF o RAW.

Page 41: Lenguajeaudiovisual libro

41

Fotografía Analógica.

Objetivos. Los objetivos fotográficos, lo que conocemos vulgarmente

como LENTES, pueden cubrir ángulos de campo, de visión, que van desde los

5º a los 180 º. Los objetivos se clasifican en función del su ángulo de visión:

• Normales, con ángulo de 45 º. Sería el ángulo de visión normal del ser

humano.

• Teleobjetivos, con un ángulo inferior a los 45º. Esta clase de objetivos

alcanzan una distancia focal superior a los 60 milímetros, por este

motivo reciben el nombre de teleobjetivos, pueden ser de hasta 2000

milímetros. Pueden acercar un motivo por muy lejano que este se

encuentre. Tienen un mayor alcance, por lo que podemos acercarnos

al motivo para el encuadre sin que físicamente esté cerca. Su ángulo

de visión es más estrecho, por lo que sólo podemos encuadrar

una pequeña parte de la toma real que estamos viendo, ya que el

teleobjetivo elimina los demás elementos sobrantes que se encuentran

alrededor del centro de interés. Su profundidad del campo es muy

reducida.

• Gran angulares, con un ángulo superior a los 45º. Estos objetivos son

ideales para fotografiar un área muy extensa de un paisaje o cualquier

plano de grandes extensiones que se encuentre delante del objetivo.

El ángulo de visión que alcanza este objetivo es superior al de los

45º. Esta clase de objetivos, de ángulos tan amplios, en ocasiones

pueden crear una ilusión óptica llegando a distorsionar el tamaño

real y verdadero de los objetos, haciendo ver que estos se encuentran

mucho más lejos de lo que no lo están. La visualización de los objetos

más cercanos al objetivo se aprecian exageradamente más grandes y

los más distantes, parecen trasladados o empujados hacia atrás y más

pequeños de como lo son realmente. Ofrecen una mayor profundidad

del campo.

Page 42: Lenguajeaudiovisual libro

42

Es fácil relacionar las nociones de ángulo con las características de unos

valores determinados. Así, se asocia con facilidad un 28 mm con un gran

angular, un 50 mm con un objetivo normal y un 135 con un teleobjetivo. Estos

números y milímetros se corresponden con un concepto básico fotográfico: la

distancia focal.

Distancia focal. La distancia focal o longitud focal de una lente es la distancia

entre el centro óptico de la lente y el foco (o punto focal). La distancia focal se

relaciona con el ángulo de visión en una relación inversa. Un valor bajo provoca

un ángulo de visión amplio. Y a la inversa, un valor alto implica un ángulo de

visión reducido. Observa la imagen que aparece a continuación de la Torre

Eiffel. Está tomada con una lente 18mm, lo que podríamos llamar un «gran

gran angular». Puede observarse la distorsión típica de estos objetivos, que

provoca una convergencia de líneas. En la segunda imagen, por el contrario, se

usó un 1000 mm. Se aprecia la cercanía de los animales y lo crítico del enfoque.

A valores de distancia focal bajos corresponden ángulos de visión dilatados.

Y a la inversa, a valores altos ángulos reducidos.

Foto 72.jpg. By Chango. Flickr. Creative Commons. Licencia Atribución.

Foto 73.jpg. By Ka13. Flickr. Creative Commons. Licencia

Atribución.

Ficha técnica:

Cámara: Nikon D80 Exposición: 0,01 sec (1/100) Aperture: f/3,5

Lente: 18 mm. Velocidad ISO: 100

Tendencia de exposición: 4/3 EV.

Page 43: Lenguajeaudiovisual libro

43

Diafragma/El número f o el paso de la luz por el objetivo. En óptica,

el número f (a veces llamado relación focal, f-ratio (en inglés), o apertura

relativa) de un sistema óptico, expresa el diámetro de la pupila de entrada de

luz en términos de longitud focal efectiva de la lente. La pupila de entrada es

proporcional al diámetro de apertura del sistema. En una cámara es la apertura

del diafragma, la cual puede ser ajustada para variar el tamaño de la pupila y

por lo tanto la cantidad de luz que alcanza el filme o el sensor. Dado que el

número f es el resultado de dividir d (la distancia focal) entre D (el diámetro de

la pupila de entrada):

Cuanto mayor sea la abertura, menor será el número f. Este concepto

también va asociado a la profundidad de campo:

mayor abertura (menor nº f) = menor profundidad de campo y viceversa.

La escala universal de números f es la siguiente:

f/1, f/1.4, f/2, f/2.8, f/4, f/5.6, f/8, f/11, f/16, f/22, f/32, f/45, f/64, f/90, f/128

Abertura/Obturación/Tiempo de exposición. El tiempo de exposición hace

referencia al tiempo que la película o el sensor (según si se trata de fotografía

analógica o digital) recibe luz para la composición de la fotografía. El tiempo

de exposición viene determinado por la velocidad de obturación. Un tiempo

Foto 74.jpg. By Kevincole. Flickr. Creative Commons.

Licencia Atribución.

Ficha técnica:

Cámara: Canon EOS-1D Mark III Exposición: 0,004

sec (1/250) Aperture: f/8 Lente: 1000 mm Velocidad

ISO: 800 Tendencia de exposición: 0 EV

Foto 75.jpg. By edwardolive. Flickr. Creative

Commons. Licencia Atribución

Ficha técnica.

Cámara: Canon EOS 5D.Exposición: 0,01

sec (1/100) Aperture: f/1,2 Lente: 85 mm

Velocidad ISO: 1000

Tendencia de exposición: 0 EV Flash: No.

Page 44: Lenguajeaudiovisual libro

44

menor al necesario producirá una fotografía oscura (subexpuesta) y un tiempo

mayor al requerido producirá una fotografía más clara (sobreexpuesta). El

tiempo óptimo de exposición, dependerá de la luminosidad de la imagen a

fotografiar, de la apertura del diafragma y de la sensibilidad de la película o

sensor. Los tiempos de exposición ajustables en una cámara fotográfica suelen

ocupar un abanico temporal entre 30 segundos y 1/8000 segundo en las

mejores cámaras; para realizar exposiciones más largas suele existir lo que se

denomina «posición B» en la que el obturador se mantiene abierto durante

el tiempo que mantengamos el dedo sobre el pulsador. Nos encontramos

entonces con:

Velocidades rápidas: superiores a 1/60 segundos; el obturador permanece

abierto muy poco tiempo dejando pasar menos luz hacia el elemento

fotosensible. Con ellas se consigue congelar el movimiento.

Velocidad lentas: inferiores a 1/60 segundos; el obturador permanece

abierto más tiempo dejando pasar más luz. Con ellas se consiguen imágenes

movidas, desplazadas, otorgando mayor sensación de desplazamiento e

incluso de borrosidad, imagen abstracta, onírica. En estas velocidades es

recomendable usar un trípode para evitar que se mueva la cámara sólo por el

pulso.

Foto 76.jpg. By: Sprungli. Flickr.

Creative Commons.Licencia Atribución

Ficha técnica.

Cámara: Canon EOS 400D Digital

Exposición: 0,001 sec (1/800)

Aperture: f/4 - Lente: 200 mm Velocidad ISO: 100

Tendencia de exposición: 0/3 EV Flash: No.

Page 45: Lenguajeaudiovisual libro

45

Sensibilidad de la película/sensor. Este valor representa la velocidad

de reacción de la película (en las cámaras analógicas) a la luz en las que son

expuestas.

El tipo de valor estándar más usado en las cámaras digitales es el ISO

(International Standars Association), que en realidad es una compatibilidad con

el valor estándar de las películas fotográficas. ¿Qué nos indica la sensibilidad?

¿Para qué sirve? Bien, en función de la sensibilidad existen las películas

lentas, de valor ISO bajo (es decir una sensibilidad baja), que necesitan mucha

exposición a la luz pero con un detalle en la foto más alto. En cambio, las

películas rápidas (de valor ISO más alto) necesitan mucho menos tiempo de

exposición pero el detalle se pierde. De la mano del detalle va el grano en

la emulsión; las imágenes en las películas rápidas tienden a granular porque

están realizadas con un granulado más grueso para que cada punto aproveche

al máximo la luz expuesta.

Por lo tanto, conviene utilizar un ISO de valor alto cuando la luz es escasa

o se decide tomar la fotografía con una velocidad muy alta de obturación (lo

cual reduciría la exposición a la luz). Y nos conviene usar un valor ISO bajo,

cuando la luz que da sobre la película es relativamente alto o tiene un tiempo

de exposición considerablemente bajo.

Profundidad de campo. Por profundidad de campo se entiende

tradicionalmente en óptica, y fotografía en particular, a la zona en la cual la

imagen captada por el objetivo es nítida, está enfocada, de manera que en

la fotografía que se realice, las personas y objetos que se encuentren dentro

Foto 77.jpg. By: Davichi. Flickr.

Creative Commons.

Licencia Atribución

Ficha técnica.

Cámara: Olympus E-410

Exposición: 1,3 sec (13/10)

Aperture: f/6,3 - Lente: 15 mm

Velocidad ISO: 400

Tendencia de exposición: 1 EV

Flash: 8

Page 46: Lenguajeaudiovisual libro

46

de esa zona aparecerán también nítidos o enfocados. Una definición más

completa y exacta sería:

«La Profundidad de campo es el rango de distancias reproducidas en una

fotografía donde la imagen es aceptablemente nítida comparada con el plano

más nítido de la misma». Esta definición extendida es importante porque

aclara algunas de las confusiones relacionadas con este concepto:

La Profundidad de campo sólo existe en el contexto de una reproducción.

No es una propiedad intrínseca de un lente y depende de valores de apreciación

subjetivos.

La frase aceptablemente nítida se refiere a la zona que rodea el plano de

la imagen que está en foco. Todos los puntos en una fotografía están fuera de

foco en cierta medida (aunque no sea obvio); sólo un plano está perfectamente

enfocado. Los límites de la profundidad de campo se establecen precisamente

donde la falta de nitidez se vuelve inaceptable para el observador.

La profundidad de campo no es una zona en la que la fotografía está enfocada

perfectamente sino la zona de la fotografía donde el foco es lo suficientemente

cercano al plano nítido como para ser aceptable. La profundidad de campo no

dicta tampoco qué borrosos estarán los planos alejados del plano nítido, una

confusión común. La profundidad de campo aumenta en relación inversa a la

apertura, es decir, cuanto más cerrado se encuentra el diafragma o lo que es lo

mismo, cuanto mayor sea el número f elegido. Por ejemplo, con un diafragma

de f/2´8, la profundidad de campo no será muy amplia, mientras que con un

diafragma de f/11 o de f/16 será considerable.

Autor: http://antona.wordpress.com/

Page 47: Lenguajeaudiovisual libro

47

Por otra parte, cuanto más cerca se encuentre el motivo que se desea

fotografiar, menor será la profundidad de campo, independientemente del

diafragma seleccionado. Si se utilizan teleobjetivos también se reduce la

profundidad de campo. Pero con objetivos angulares, la profundidad de campo

aumenta.

Enfoque. ¿A qué nos referimos al hablar de enfocado? ¿Qué caracteriza una

imagen borrosa? Una fotografía es nítida cuando los rayos de luz provenientes

de cada uno de los puntos del motivo se concentran de forma puntual en

la superficie del sensor electrónico. Por contra, una imagen desenfocada es

aquella en la que los rayos de luz procedentes del motivo no se concentran

sobre el plano de la imagen, sino antes o después de él. En lugar de puntos

forman círculos borrosos. Se conocen como círculos de confusión, y cuánto

mayor es su diámetro, más desenfocada está la imagen. Se observa claramente

en la siguiente fotografía:

Foto 78.jpg. By Iñigo Tome. Flickr. Creative Commons.

Licencia Atribución

Ficha técnica.

Cámara: Olympus E-510 Exposición: 0,004 sec (1/250)

Aperture: f/3,5 Lente: 35 mm Velocidad ISO: 100

Tendencia de exposición: 0/10 EV - Flash: No.

Foto 79.jpg. By Iñigo Tome. Flickr.

Creative Commons.

Licencia Atribución

Ficha técnica.

Cámara: Olympus E-510

Exposición: 0,004 sec (1/250) Aperture:

f/3,5 Lente: 35 mm Velocidad ISO: 100

Tendencia de exposición: 0/10 EV -

Flash: No.

Page 48: Lenguajeaudiovisual libro

48

En una cámara réflex la operación de enfocar es clara. Se varía la posición de

las lentes hasta lograr la concentración de los rayos de luz, y con ella la nitidez

de la fotografía. Al girar el anillo de enfoque se adapta la distancia existente

entre el plano de la óptica y el plano de la imagen, en función de la distancia

a la que se encuentra el motivo. En la mayoría de las cámaras compactas el

enfoque se realiza mediante un desplazamiento interno de las lentes y pasa

desapercibido. La acción de girar la óptica para enfocar se lleva a cabo ya en un

escaso número de modelos. Los mecanismos de auto foco son de uso común

en todas las cámaras digitales.

Foto 80.jpg By elgarydaly Flickr. Creative Commons.Licencia AtribuciónFicha técnica.

Cámara: Fujifilm FinePix S9600 Exposición: 0,003 sec (1/320) Aperture: f/7,1 Lente: 66,7 mm Velocidad ISO: 400

Tendencia de exposición: 0/100 EV Flash:No

Page 49: Lenguajeaudiovisual libro

49

3. 3.- EL LENGUAJE Y LA COMPOSICIÓN FOTOGRÁFICA.

Encuadre.

Encuadrar es el hecho de colocar sobre una superficie cuadrada o

rectangular, una imagen, ya sea fija o en movimiento. Este hecho tan simple,

es a la vez muy complejo, ya que encuadrar es determinar, elegir, seleccionar

y, por lo tanto, eliminar, desechar, anular lo que rodea, el resto de la imagen. Si

además, como hemos visto en el marco general, en la fotografía el encuadre

es CENTRÍPETO (no existe la opción de off, de fuera de campo) y es recorte,

es reducción QUIRÚRGICA de la realidad, parece claro que la elección del

encuadre, de lo fotografiado, resulta trascendental a la hora de acercarnos a

la composición fotográfica. Cuando se quiere que una imagen forme parte de

una fotografía o de un fotograma cinematográfico o de una pintura, tenemos

la responsabilidad de que esta pequeña decisión tenga el mayor efecto en

nuestra acción creativa.

En esta selección de lo que sitúa dentro de la fotografía y cómo se hace,

aunque ninguna es norma estricta, existen algunas directrices que se pueden

tener en cuenta, a saber:

En toda escena suele existir un motivo (aquello que deseamos destacar, el

centro de interés) y fondo (aquello que rodea, decora y/o da sentido al motivo).

Para resaltar el motivo el fotógrafo debe llenar el encuadre con él, esto es,

hacer que ése sea el objeto principal en la escena; de este modo excluiremos

del encuadre otros objetos que puedan distraer la atención del espectador

sobre el que el fotógrafo ha seleccionado. En la foto 81: ¿motivo es la roca y

fondo el caminante, o viceversa?

Foto 81.jpg. By Freakyman. Flickr.

Creative Commons. Licencia

Atribución

Cámara: Olympus E-1 Exposición:

0,004 sec (1/250) Aperture: f/8 Lente:

14 mm Velocidad ISO: 100 Tendencia

de exposición: 0/10 EV

Page 50: Lenguajeaudiovisual libro

50

A pesar de lo dicho en el punto anterior, es importante en el encuadre

dejar un cierto margen alrededor del motivo para no atosigar la imagen. Este

margen actuará como marco del motivo y, por tanto, deberá ser normalmente

además igual por todos los lados de la fotografía. La foto 82 podría ser una

imagen «atosigada», dado que la ausencia de margen, «de aire», es opción

creativa opresiva, en espiral hacia un agujero negro; en la foto 83, sin embargo,

el margen ayuda al movimiento, en un encuadre sugerente.

Foto 82.jpg. By Juanpol. Flickr. Creative Commons. Licencia Atribución

Cámara: Canon EOS 300D Digital Exposición: 0,4 sec (2/5) Aperture: f/5

Lente: 37 mm Velocidad ISO: 400 Tendencia de exposición: 0/3 EV Flash: No

Foto 83.jpg. By elgarydaly. Flickr. Creative Commons. Licencia Atribución

Cámara: Fujifilm FinePix S9600 Exposición: 0,002 sec (1/420) Aperture: f/5

Lente: 6,2 mm Velocidad ISO: 100 Tendencia de exposición: 0/100 EV Flash: No

Page 51: Lenguajeaudiovisual libro

51

La línea del horizonte suele ser una referencia visual clave para el ser

humano. Normalmente ésta debe mantenerse recta, horizontal. La percepción

de una línea del horizonte inclinada suele llamar la atención y, si no está

justificada, da al espectador la sensación de que los objetos se vayan a caer

hacia ese lado, lo cual no suele producir buenas sensaciones.

Otro factor comunicativo importante en fotografía es la elección del

formato del encuadre. La mayoría de los elementos fotosensibles (películas

o sensores de imagen) tienen un formato rectangular y habrá por tanto la

posibilidad de elegir un encuadre horizontal, vertical o inclinado: cada uno de

ellos transmite sensaciones diferentes y tiene su campo de aplicabilidad:

El encuadre horizontal sugiere quietud, tranquilidad y suele utilizarse

normalmente para paisajes y para retratos de grupo.

El encuadre vertical sugiere fuerza, firmeza y es el más apropiado

normalmente para retratos (entre otras cosas porque los seres humanos

somos más altos que anchos).

Foto 84.jpg. By Marina Cast.

Flickr. Creative Commons. Licencia

Atribución

Cámara: Sony DSC-S650 Exposición:

0,003 sec (1/320) Aperture: f/2,8

Lente: 5,8 mm Velocidad ISO: 100

Tendencia de exposición: 0/10 EV

Flash: No.

Foto 85.jpg By palm z Flickr. Creative Commons. Licencia Atribución

Cámara: Nikon D60 Exposición: 0,004 sec (1/250) Aperture: f/10 Lente: 55 mm Velocidad ISO: 125

Tendencia de exposición: 0/6 EV Flash: No.

Page 52: Lenguajeaudiovisual libro

52

El encuadre inclinado transmite dinamismo y fuerza y suele utilizarse como

recurso ocasional para resaltar estas cualidades en el motivo de la fotografía.

El ángulo o punto de vista.

Como ya has comprobado, el punto de vista modifica de forma notable la

representación gráfica de la escena. Esquematizando las diferentes opciones,

se dice que existen tres posiciones básicas: normal, elevada (picado) y

Foto 86. jpg By Ferminius Flickr. Creative Commons.

Licencia Atribución

Cámara: Canon EOS 400D Digital Exposición:

0,001 sec (1/1000) Aperture: f/2,8 Lente: 200 mm

Velocidad ISO: 400 Tendencia de exposición: 0/3 EV

Flash: No

Foto 87.jpg By todo tiempo pasado fue mejor

Flickr. Creative Commons. Licencia Atribución

Cámara: Fujifilm FinePix A400 Exposición: 0,006 sec

(1/180) Aperture: f/14 Lente: 19,2 mm Velocidad

ISO: 100 Tendencia de exposición: 0/100 EV

Flash: No

Page 53: Lenguajeaudiovisual libro

53

baja (contrapicado). El ser humano, por su propia constitución física, está

acostumbrado a ver las cosas desde aproximadamente 1,70 m. de altura

y de frente. Las imágenes así se captan de forma clara y descriptiva, si bien

no aportan ninguna originalidad. Podemos establecer una relación entre las

posiciones básicas referidas y las diferentes líneas virtuales que se generan: la

línea de tierra, que es la línea o plano sobre el que nos apoyamos, la línea de

horizonte que está a la altura de nuestros ojos, el punto de vista que está en

la línea de horizonte y justo en línea con nuestros ojos y el punto o puntos de

fuga que son justamente donde se unen todas las líneas.

La variación del punto de vista aporta perspectivas diferentes con

elementos inesperados que a menudo captan más la atención. Es por esto que

existen infinidad de recursos fotográficos en este sentido siendo la directriz

general el que el fotógrafo debe estudiar el motivo y la escena buscando

puntos de vista innovadores y/o más atractivos para el espectador. Teniendo

Autor: http://antona.wordpress.com/

Page 54: Lenguajeaudiovisual libro

54

en cuenta esta premisa general existen ciertas técnicas ampliamente utilizadas

entre los fotógrafos:

La toma normal. Cuando la cámara se encuentra, aproximadamente, a la

altura de los ojos. En este caso, el horizonte de un paisaje también se mantiene

a la altura de los ojos del fotógrafo.

El picado consiste en fotografiar un motivo desde arriba hacia abajo y

ayuda a resaltar lo pequeño de ciertos objetos ya que proporciona un punto

de vista de superioridad. Al mismo tiempo es contraproducente en general su

uso en fotografía de personas (especialmente niños) o animales precisamente

porque ayuda a verlos como inferiores, les resta importancia y, además, si se

fotografía de cerca puede deformar las proporciones de la cabeza con respecto

al cuerpo.

El contrapicado es la perspectiva contraria al picado, es decir, consiste en

fotografiar un motivo desde abajo hacia arriba y ayuda a resaltar la grandiosidad

de un elemento. Se suele utilizar para fotografiar edificios o monumento y

también deforma la perspectiva acentuándose este efecto cuanto más cerca

se esté del motivo.

Foto 88.jpg. By Alfonso Benayas. Flickr.

Creative Commons. Licencia Atribución

Cámara: Olympus E-500 Exposición: 0,006

sec (1/160) Aperture: f/4,5 Lente: 14 mm

Velocidad ISO: 320 Tendencia de exposición:

0/10 EV Flash: Flash : No

Foto 89.jpg. By **GiNeT**. Flickr. Creative

Commons. Licencia Atribución

Cámara: Sony DSC-W80 Exposición: 0,013

sec (1/80) Aperture: f/2,8 Lente: 5,8 mm

Velocidad ISO: 125 Tendencia de exposición:

0/10 EV Flash: Flash did not fire

Page 55: Lenguajeaudiovisual libro

55

La toma a rás consiste en sacar la fotografía a nivel de suelo o del objeto

y ayuda a sorprender al espectador con imágenes que un ser humano no

acostumbra a ver ya que no se suele colocar en ese nivel de visión. Esta ángulo

se suele utilizar para fotografiar motivos pequeños en su entorno natural a los

que no prestamos habitualmente mucha atención.

La Perspectiva. La perspectiva es la recreación, en una superficie

bidimensional como pueda ser el papel o el sensor fotográfico, de la ilusión

de profundidad del espacio real tridimensional. Es el artificio más utilizado en

fotografía y, desde un punto de vista geométrico, podemos simular el efecto

visual de la perspectiva proyectando los objetos tridimensionales sobre un

plano (bidimensional). Esta técnica es la denominada perspectiva cónica en

dibujo y pintura. Recibe este nombre por el hecho de que todas las líneas de

proyección parten de un punto (a modo de un cono).

En fotografía, los elementos más importantes de la perspectiva son la

disminución de tamaño y la convergencia de líneas hacia un punto de fuga, el

solapamiento de los volúmenes, la modificación del color y el contraste con la

Foto 90.jpg. By.Davichi Flickr.

Creative Commons. Licencia Atribución

Cámara: Olympus E-410 Exposición:

0,002 sec (1/640) Aperture: f/5,6

Lente: 14 mm Velocidad ISO: 400

Tendencia de exposición: 0/10 EV

Flash: Flash did not fire, auto mode

Foto 91.jpg. By.Daquella manera Flickr. Creative Commons. Licencia Atribución

Page 56: Lenguajeaudiovisual libro

56

distancia conocida como perspectiva atmosférica; el enfoque diferencial puede

también sugerir profundidad. La elección del punto de toma es, por supuesto,

un factor crucial en la determinación de la perspectiva de una fotografía.

También es importante el objetivo: los teleobjetivos parecen comprimir los

planos, mientras que los grandes angulares provocan el efecto contrario. Los

efectos de la perspectiva se controlan (o se exageran intencionadamente)

modificando las posiciones relativas del objetivo y la película.

El control de la representación de la perspectiva te será esencial,

especialmente, en las tomas de arquitectura y paisaje.

Un punto de vista muy bajo, la disminución del tamaño del grosor de

las líneas y la convergencia de éstas en un punto central, son los elementos

básicos para la representación óptica de las tres dimensiones en una fotografía

bidimensional.

Una de las formas más evidentes de representar la tridimensionalidad, pero

no la única, consiste en la disposición de los elementos en el espacio. En una

fotografía y, por tanto, en una superficie bidimensional, se puede representar

la perspectiva mediante cuatro grandes opciones:

La convergencia de líneas

La escala

El tono y el color.

El primer término.

Veamos los aspectos claves de cada uno de los apartados:

La convergencia de líneas.

Toda imagen se puede esquematizar en un dibujo de líneas (boceto). En

muchas fotografías existen líneas que convergen en un punto; el llamado

punto de fuga. El ejemplo más evidente de punto de fuga es el de los rieles del

ferrocarril, en el que las vías parecen converger en un punto lejano. El punto

de fuga puede parecer más o menos lejano en función del objetivo utilizado y

del punto de vista.

Las líneas convergen en un punto de fuga, y éste puede estar situado

dentro o fuera del encuadre. Un punto de fuga situado dentro del formato

contribuye a que la mirada del espectador no «salga» de la fotografía, mientras

que si éste se encuentra fuera, la mirada va más allá de la propia fotografía,

sale fuera del marco de la fotografía.

Page 57: Lenguajeaudiovisual libro

57

Las líneas creadas por el estrecho paso, entre las columnas, los pasillos y

las puertas, dirigen la atención visual hacia el punto de fuga central. Este punto

de fuga puede ser también, a pesar de la distancia, una excelente ubicación

para situar un elemento al que quieras otorgar un protagonismo especial.

La escala.

La escala es el tamaño relativo que tienen los motivos en una representación

gráfica. La disminución del tamaño es fundamental para representar la

distancia a que éstos se encuentran de la cámara.

Foto 90.jpg. By.Davichi Flickr. Creative

Commons. Licencia Atribución

Cámara: Olympus E-410 Exposición: 0,002 sec

(1/640) Aperture: f/5,6 Lente: 14 mm Velocidad

ISO: 400 Tendencia de exposición: 0/10 EV Flash:

Flash did not fire, auto mode

Foto 93.jpg. By. Madame Fastras Flickr.

Creative Commons. Licencia Atribución

Page 58: Lenguajeaudiovisual libro

58

Por ejemplo, en esta barandilla, la hilera de barrotes es un excelente

escenario para potenciar la perspectiva en la fotografía. El pasamanos facilita

una perspectiva con punto de fuga lateral, fuera de la imagen. La disminución

del tamaño de los barrotes (escala), a medida que éstos se encuentran cada vez

más lejos de la cámara, potencian la ilusión óptica de tridimensionalidad. La

disminución del tamaño del motivo, a medida que éste se encuentra cada vez

más lejos de cámara, es otra de las fórmulas clásicas para mostrar y potenciar la

perspectiva. Al fotografiar elementos que el espectador identifica claramente

como del mismo tamaño, la variación en la escala (tamaño) permite expresar

la ilusión óptica de tridimensionalidad.

El tono y el color.

Los tonos y los colores ayudan a representar la perspectiva. Los tonos claros

producen la sensación óptica de que se sitúan detrás de los tonos oscuros.

Así, en una toma de paisaje con bruma, parece que la playa y la montaña

(tonos oscuros) se adelantan al cielo (tonos claros). Si existen varios elementos,

éstos se ordenan según la intensidad del tono. La perspectiva atmosférica

permite sugerir las diferentes distancias a la que se encuentran los diversos

planos de la escena. Los tonos oscuros se representan delante de los más

claros. Es el clásico efecto de la bruma en el paisaje.

Foto 94.jpg. By. Madame Fastras Flickr. Creative Commons. Licencia Atribución

Page 59: Lenguajeaudiovisual libro

59

El primer término.

En las fotografías de paisaje que quieras potenciar de forma evidente la

perspectiva y la profundidad de la escena, puedes utilizar el clásico, y muy

efectivo, recurso de colocar algún elemento en el primer término. Utiliza

elementos del entorno que te puedan ayudar a establecer con claridad las

diferencias entre el primer término y el fondo.

Coloca en el primer término algún arbusto, seto, rama de un árbol, roca,

etc. (preferentemente a un lado del encuadre), para crear el efecto óptico

de profundidad. También puedes decidir si el primer término estará o no

enfocado. Un primer término desenfocado parece aumentar la sensación de

distancia con respecto del fondo.

Si quieres obtener nitidez (profundidad de campo) desde el primer término

hasta el infinito, deberás enfocar en una zona cercana de la cámara (primer

tercio de la escena, por ejemplo) y ajustar el programa de paisaje o dar la

prioridad al diafragma (A) y utilizar un número «f» alto. Por el contrario, si

deseas mantener el primer término borroso, enfoca hacia el infinito o escoge

la prioridad a la obturación (S) y utiliza una velocidad alta.

La iluminación. El conocimiento de la luz, de su naturaleza, es fundamental

a la hora de utilizarla como elemento de composición artística. Existen

diversos factores importantes que se deben tomar en cuenta en la iluminación

fotográfica:

Foto 95.jpg. By. HippolyteBayard Flickr. Creative Commons. Licencia Atribución

Cámara: Canon EOS Digital Rebel XSi Exposición: 1,3 sec (13/10) Aperture: f/5 Lente: 46

mm Velocidad ISO: 100 Tendencia de exposición: 0 EV Flash: Flash did not fire

Page 60: Lenguajeaudiovisual libro

60

A. Origen:

• Luz natural: Es la que aporta el sol (la luna y las estrellas son débiles

fuentes de iluminación). El sol posee una luz intensa difícil de controlar

porque cambia constantemente de intensidad, dirección, calidad y

color. Esta imagen es significativa: un sol radiante, de verano. Casi se

pueden escuchar las chicharras. Y mucho calor antes del baño.

• Luz artificial: Este tipo de luz se puede controlar, pero es más costosa e

incómoda de usar, aparte de limitar la extensión de la superficie que se

va a alumbrar. De ahí su complejidad. Puede ser continua (tungsteno,

halógena) o discontinua (flash).

En la siguiente fotografía puedes observar y señalar varias fuentes de luz

artificial:

Foto 96.jpg. By.FreeCat Flickr.

Creative Commons. Licencia

Atribución

Cámara: Nikon E5600 Exposición:

0,004 sec (2/563) Aperture: f/4,9

Lente: 5,7 mm Velocidad ISO: 50

Tendencia de exposición: 0/10 EV

Flash: No

Foto 97.jpg. By Andrés tm Flickr.

Creative Commons. Licencia Atribución

Cámara: Olympus uD600,S600

Exposición: 0,02 sec (1/50) Aperture:

f/3,1 Lente: 6 mm Velocidad ISO: 1000

Tendencia de exposición: 0/10 EV

Flash: Flash fired, auto mode

Page 61: Lenguajeaudiovisual libro

61

B. Número de fuentes luminosas.

• Influye sobre el contraste y el modelado de la imagen. Para este caso,

es recomendable usar el menor número posible de fuentes y emplear

siempre una como luz principal y, a lo sumo, otra luz secundaria o de

relleno (una pantalla reflectante, un destello de flash). La posición de

los focos determina su misión. La luz principal, clave, da la iluminación

dominante, mientras que la manipulación de las sombras corre a cargo

de la luz de relleno, que ayuda a generar «atmósfera».

Según la siguiente fotografía, ¿con qué número de fuentes de iluminación

estaremos trabajando?; ¿qué tipo de iluminación tenemos?

Autor: http://antona.wordpress.com/

Foto 98.jpg. By Keeper Flickr. Creative

Commons. Licencia Atribución

Cámara: FinePix S7000 Exposición: 0,003

sec (1/340) Aperture: f/5 Lente: 46,8 mm

Velocidad ISO: 200 Tendencia de exposición:

0/100 EV Flash: Flash did not fire

-Luz clave: La luz principal que ilumina el sujeto.-Luz de relleno: Luz usada para reducir las sombras y el contraste del sujeto que tendríamos si sólo iluminamos con la luz clave.-Luz trasera o de contra: Luz tras el sujeto que ilumina la espalda y el pelo, separándole del decorado (genera volumen) y añadiendo brillos adicionales a la escena.-Luz de decorado: Luz que ilumina el espacio alrededor del sujeto (separación sujeto y fondo) y que, dependiendo de su intensidad, establece tridimensionalidad y

ambiente.

Page 62: Lenguajeaudiovisual libro

62

C. Dirección o posición de la fuente respecto a la cámara y el motivo.

• Es preciso tomar en cuenta la luz y la altura, pues influyen enormemente

en la fotografía. Los detalles principales dependerán de la posición de la

fuente, incluso se pueden ocultar aquellos que no tienen importancia

para el fotógrafo. Además, la sensación de volumen, la textura y la

intensidad de los colores tendrán mucho que ver con la dirección de

la luz. Y si se manipula la luz de manera horizontal, pueden significar

tranquilidad o ambientes de atardecer. La dirección de la luz se puede

usar de varias maneras:

• Frontal: La iluminación es directa y da al frente. Con ella, los objetos

son planos, los colores son más brillantes. e incrementa la cantidad de

detalles. Plantea una desventaja: se anula la textura.

Efectos producidos por la dirección

de la luz sobre los personajes. De

izquierda a derecha, y de arriba

abajo:

a) Iluminación frontal.

b) Iluminación lateral

c) Iluminación cenital

d) Iluminación desde abajo, nadir

e) Contraluz.

Foto 99.jpg. By Antonio Granero

Autor: http://antona.wordpress.com/

Page 63: Lenguajeaudiovisual libro

63

• Lateral: Cuando la iluminación está de lado. Este tipo de dirección

acentúa el volumen y la profundidad de los objetos tridimensionales. Al

mismo tiempo, realza la textura e intensifica el contraste de la imagen.

A pesar de dichos atributos, proporciona menor «información» sobre

los detalles, como lo hace la luz frontal.

• El contraluz: Cuando el sujeto principal da la espalda a la luz. Cuando

se quiere simplificar un tema conocido, éste hace que los motivos se

transformen en siluetas y se logra su contemplación. Sin embargo,

anula los colores.

Foto 100.jpg. By Bastian Hell Flickr. Creative

Commons. Licencia Atribución

Foto 101.jpg. By jurvetson Flickr.

Creative Commons. Licencia Atribución

Cámara: Canon PowerShot G9

Exposición: 0,3 sec (3/10) Aperture:

f/2,8 Lente: 7,4 mm Velocidad ISO: 200

Tendencia de exposición: 0/3 EV

Flash: Flash did not fire

Page 64: Lenguajeaudiovisual libro

64

• Cenital: Cuando se ilumina desde arriba, perpendicularmente al sujeto.

• Contrapicado o nadir: Cuando se ilumina desde abajo hacia arriba, es

decir de manera diagonal. Origina una iluminación deformante, que

se suele utilizar en fotografías de temas relacionados con el terror.

Ejemplo infantil: cuando una persona ilumina su rostro con una linterna

y lo apunta desde el mentón.

Foto 102.jpg. By Ferminius Flickr. Creative

Commons. Licencia Atribución

Cámara: Canon EOS 40D Exposición: 0,013

sec (1/80) Aperture: f/4,5 Lente: 57 mm

Velocidad ISO: 400 Tendencia de exposición:

0 EV

Flash: Flash did not fire

Foto 103.jpg. By isburlas Flickr. Creative Commons. Licencia Atribución

Page 65: Lenguajeaudiovisual libro

65

D. Difusión o forma de emanar y llegar al objeto.

Hace que el borde de las sombras sea nítido y podemos verificar la

dureza o suavidad de la imagen. Se nombrarán a continuación los tipos de

iluminación, los cuales están determinados por el tamaño y proximidad de la

fuente luminosa:

• La luz dura:

Proviene de fuentes pequeñas y alejadas, como por ejemplo las velas y el

sol. El grado de dureza está establecido por la distancia y el tamaño. Asimismo,

si se quiere destacar la textura, la forma y el color, este tipo de luz es ideal

porque ofrece el mayor grado de contraste. También es importante destacar

que produce efectos fuertes y espectaculares.

La iluminación semidifusa Proviene de fuentes más grandes y cercanas

al objeto. No obstante forma sombras definidas sin bordes nítidos. Aunque

subraya el volumen y la textura, no se producen sombras negras y vacías y ni

el gran contraste de la luz dura. Los colores son parecen apagados, en otras

palabras, sin brillo.

Foto 105.jpg. By _Pixelmaniac_Flickr.

Creative Commons. Licencia Atribución

Foto 104.jpg. By martinstelbrink Flickr. Creative Commons. Licencia Atribución

Page 66: Lenguajeaudiovisual libro

66

La luz suave: Es sumamente difusa y apenas genera sombras. La fuente

luminosa debe ser muy extensa o, más bien proyectarse sobre una superficie

muy grande y próxima (techo, pantallas, lienzos, etc.). A pesar de ser la más

agradable y fácil de controlar, es la menos impresionante. Este tipo de luz

resuelve los problemas de contraste. Las sombras son menos importantes y le

da dominancia al volumen del motivo.

Composición fotográfica.

La composición fotográfica es la manera en la que se organizan los objetos

vistos dentro del encuadre, dentro de lo que realmente queda en cuadro; es

decir, tenemos que ordenar las figuras u objetos dentro del espacio visual

disponible, dándole un sentido de unidad, de modo que resulte armoniosa y

artísticamente equilibrada la composición. Los elementos que hay que intentar

dominar para componer son todos los que hasta ahora hemos señalado y visto

en los temas 2 y 3: la perspectiva, el horizonte, las diagonales, la línea «S», la

imagen horizontal, la imagen vertical, la iluminación de los sujetos, el centro de

interés, el fondo, el contraste, el equilibrio y el ritmo. Estos son los elementos

que dan un nuevo nivel de significado al encuadre; es el «montaje dentro del

plano».

Sin embargo, dentro de la composición, de todos los elementos citados

con anterioridad, hay dos que influyen en la composición de forma «musical»

y, por lo tanto, de manera más intuitiva:

1. El equilibrio: Mientras más equilibrada sea la situación de los elementos

que la componen, más agradable resultará la fotografía. Es fundamental

Foto 106.jpg. By sgs_1019 Flickr. Creative Commons. Licencia Atribución

Page 67: Lenguajeaudiovisual libro

67

conocer y dominar el sentido de «peso visual», o cómo se deben distribuir las

figuras. Los elementos de mayor masa visual se podrían colocar más al centro,

y los más ligeros hacia los márgenes. La noción de «peso visual» se toma en

un sentido de mancha o masa. También ayuda a trabajar con este concepto,

el volumen y el peso que instintivamente se relaciona con cada elemento.

Además, el equilibrio se asocia a las composiciones verticales, a la intensidad

y al contraste de los colores.

Una imagen mal equilibrada es rechazada inconscientemente por cualquier

observador y su mensaje no podrá ser captado.

2. El ritmo: Se define como el resultado de la repetición de líneas, formas,

volúmenes, tonos y colores. Cuando se repite un motivo, la armonía de una

escena aumenta. El ritmo permite unir los diferentes elementos de la escena

para otorgarles unidad y fluidez. Las composiciones con ritmo excesivamente

rígido (olas, cartones de huevos, campos de dunas, terrenos de cultivo, etc.),

es aconsejable romperlas con algún pequeño objeto que no tenga nada que

ver, para que disminuya su rigidez y proporcione un centro de interés.

Foto 107.jpg.

By Canta canta, famme senti…Flickr.

Creative Commons Licencia Atribución

Cámara: Canon PowerShot A550

Exposición: 0,008 sec (1/125)

Aperture: f/7,1 Lente: 5,8 mm

Velocidad ISO: 80 Tendencia de

exposición: 0/3 EV Flash: No.

Foto 108.jpg. By Fabiolo (pontedapedra) Flickr.

Creative Commons. Licencia Atribución

Cámara: Olympus E-500 Exposición: 0,008 sec (1/125)

Aperture: f/8 Lente: 45 mm Velocidad ISO: 400

Tendencia de exposición: -3/10 EV Flash: 88

Page 68: Lenguajeaudiovisual libro

68

Para terminar, enumeraremos las reglas básicas de composición

denominadas «clásicas», que debes conocer y dominar para seguirlas,

probarlas, alterarlas o romperlas, que todo está permitido a la hora de

componer:

1. Elegir bien el encuadre y el punto de vista: Para ello se escoge el

objeto que queremos fotografiar y buscamos el punto de vista en el

que sobresalga más. De esta manera, dejaremos de lado aquellos

elementos que nos desconcentren en pleno proceso.

2. La regla de los tercios: De manera imaginaria, y tanto horizontal y

verticalmente, fraccionamos la pantalla en tercios. El objeto debe estar

en uno de los puntos de intersección de la cuadrícula imaginaria y no

en el centro de la imagen, ya que esta opción simplifica la imagen.

3. Las líneas dominantes: Debes centrar la atención, no desviarla. Una

de las normas más famosas de la composición es repetir las líneas y

objetos, sobre todo si el motivo es una estructura. Las líneas pueden ser

horizontales, verticales, curvas o cruzadas. Las diagonales y líneas en

«S» se emplean para imprimir un cierto movimiento a las fotografías.

Si esta repetición la rompes con algún sujeto, la imagen tendrá mayor

dinamismo si cabe.

4. Las formas de Composición. Las más comunes son la Composición

simétrica (generalmente, muchos de los temas que se fotografían,

como personas, animales u objetos, tienen uno o varios planos de

simetría. Incluso la línea del horizonte pueden actuar como eje en

cierta manera. Si los motivos ubicados a ambos lados del eje simétrico

tienen el mismo «peso visual», la imagen puede ser agradable. Este

tipo de composición es sencilla, solemne y formal. Sin embargo, resulta

fría y sumamente mecánica), la Composición asimétrica (las variantes

de este tipo son infinitas. Es conocida con el nombre de las formas de

letras o figuras que toman. Las más empleadas son la triangular y las

realizadas en forma de «S», «L», o «C») y la Composición con líneas:

Las líneas pueden estar presentes en la imagen o existir tácitamente

al unir sus elementos constituyentes. Las líneas pueden actuar de

Page 69: Lenguajeaudiovisual libro

69

distintas maneras: haciendo ingresar nuestra visión en la fotografía,

guiando nuestra mirada por la imagen hasta el centro de interés o

haciendo salir nuestra mirada de la foto lo más levemente posible.

5. El encuadre. Ver, decidir y fotografiar el motivo. El ojo humano observa

un espacio sin límites, pero en la cámara el encuadre está limitado por

cuatro lados. Por lo tanto es necesario elegir lo que se quiere incluir

y lo que vamos a excluir desde nuestro marco fotográfico, dentro de

nuestro fotograma, y tomar la posición respecto de los demás.

• Encuadre simple: Podemos añadir un elemento extra en una

composición, encuadrando el tema principal dentro de una forma

del primer plano o del fondo. Un buen procedimiento es disparar

nuestra cámara a través de una ventana o similar, lo que aumenta la

profundidad y el equilibrio de la composición, llegando a eliminar

detalles innecesarios y cubrir cielos o primeros planos vacíos.

Otra forma o posibilidad, sería colocar el elemento principal en

el primer plano de forma que, exponiendo para un fondo mucho

más luminoso, se forme una silueta. Estos encuadres, suelen exigir

unos cuidados de alineación entre un primer plano y el fondo.

Page 70: Lenguajeaudiovisual libro

70

Page 71: Lenguajeaudiovisual libro

71

4.1.- LA PERSISTENCIA RETINIANA Y EL FENÓMENO PHI.

El principio básico del cine es un sencillo trampantojo, un trompe l’œil, un

engaño para la vista basado en la imperfección del ojo humano y en la necesidad

apremiante del cerebro por rellenar los huecos vacíos, la falta de información

que se le presenta ante él. Gracias a esta imperfección natural, a este horror

vacui que tiene nuestro cerebro, el fenómeno PHI y la persistencia retiniana

permitieron a la ingeniería más imaginativa desarrollar un invento como el

cinematógrafo, que serviría, en poco tiempo, para democratizar la cultura. Si

hacemos memoria, a finales del siglo XIX el teatro era un arte principalmente

burgués y pocas personas, fuera de ese círculo reducido, podían permitirse

acceder a una sala teatral, amén de que la literatura no estaba muy extendida

por culpa de un analfabetismo endémico.

El fenómeno de la persistencia retiniana fue descrito, por primera vez, por

Peter Mark Roget en 1824. Roget observó que cuando miraba una rueda de

radios, en movimiento de rotación, por la rendija de una pantalla, contando

con una velocidad determinada y un cierto grado de iluminación, los radios se

veían estacionarios.

El principio denominado «Persistencia de las impresiones retinianas»

lo formuló el físico belga Joseph Plateau en 1829, fijando la duración de

esta persistencia en una décima de segundo. Esto significa que para que el

cerebro humano tenga la impresión de un movimiento continuo, las imágenes

registradas por el ojo deben sucederse, al menos, diez veces por segundo.

La teoría del fenómeno PHI se debe a Wertheimer, uno de los fundadores

de la Gestalt, que en 1912 estudió los efectos de presentar líneas cortas de luz,

separadas en el espacio y con un intervalo corto entre ellas. Si el intervalo entre

las dos exposiciones es corto 1/32 segundos, los dos estímulos aparecerán

como dos luces simultáneas; si, por el contrario, el intervalo es relativamente

largo, 1/16 segundos, las líneas se ven como sucesivas.

La persistencia retiniana

Este fenómeno, por tanto, consiste en que al ver una imagen, dicha imagen

LA IMAGEN EN MOVIMIENTO4

Page 72: Lenguajeaudiovisual libro

72

persiste en nuestra retina aproximadamente una décima de segundo hasta

desaparecer y que si pusiéramos dos imágenes seguidas, esta persistencia

retiniana provocaría que nuestro cerebro las uniera para generar un continuo.

La diferencia esencial entre los estudios de Roget y Plateau fue que, poco

después, Plateau preparó un disco con 16 dibujos pero en esta ocasión eran 16

dibujos de una persona en distinta posición, como si estuviera girando sobre sí

mismo, de este modo, al mirar a través de la rendija, gracias a la persistencia

retiniana y la velocidad constante, se creaba en el espectador la sugestión

del movimiento. Gracias al fenaquistiscopio y a sus experimentos científicos

relacionados con la percepción visual es por lo que se reconoce a Joseph

Plateau como el precursor del cinematógrafo y del cine de animación.

Page 73: Lenguajeaudiovisual libro

73

En el siguiente fragmento de «Sur un nouveau genre d’illusions d’optique»,

Plateau describe la construcción de este disco y la compara con las pruebas

realizadas por Faraday.

Page 74: Lenguajeaudiovisual libro

74

Fenómeno PHI

El psicólogo alemán Max Wertheimer definía en 1912 el fenómeno Phi.

Este fenómeo consiste en una ilusión óptica que nos permite ver movimiento

en una simple sucesión de imágenes. Wertheimer lo demostró con dos

bombillas (A y B) colocadas a la misma altura pero separadas ligeramente la

una de la otra. Las dos bombillas se encendían y apagaban alternativamente,

primero A se encendía y después B; cuando B se encendía A se apagaba. El

intervalo de tiempo era suficiente para que el cerebro imaginara esta ilusión

como un movimiento continuo, como si la bombilla se desplazase de un lado

a otro. Lo que hace el cerebro es añadir la información que falta, es decir,

los puntos intermedios de la secuencia del movimiento que hubieran hecho

verdaderamente posible el desplazamiento de una bombilla.

Conjugando estos dos fenómenos físicos con el comportamiento natural

de nuestro cerebro obtenemos la ilusión cinética, la fantasía del movimiento,

los primeros esbozos para acercarnos al cinematógrafo gracias a esos 24

fotogramas por segundo que se suceden, consecutivos, y que la retina mantiene

el tiempo necesario para crear la ilusión de movimiento. Como decía Jean Luc-

Godard: «La fotografía es verdad. Y el cine es verdad 24 veces por segundo».

A B

Page 75: Lenguajeaudiovisual libro

75

4.2.- PREHISTORIA DEL CINEMATÓGRAFO.

Como hemos visto antes, el principio esencial del cinematógrafo es la mezcla

de la persistencia retiniana y el fenómeno Phi, o sea, la imagen estroboscópica

(1). Algunos autores hablan de las pinturas paleolíticas como prehistoria

del cine porque buscaban representar el movimiento de los animales, la

cinética de la caza como manera de conjurar los espíritus para obtener una

buena cacería. Algunos, además, añaden a esta génesis del cinematógrafo el

inspirador capítulo VII de La República de Platón, en el mito de la caverna y

las sombras chinescas. Puesto a detallar minuciosamente la prehistoria del

cinematógrafo tendríamos que añadir que en el siglo XV Leonardo da Vinci

describe los principios de la cámara oscura en un bloc de notas.

Pero el primero en inventar un aparato óptico con el que proyectar, sobre

un lienzo o una pared, imágenes de figuras pintadas en vidrio, fue el jesuita

alemán Atanasius Kircher en 1654. Ese aparato se denominó Linterna mágica.

La característica de la linterna mágica consistía en la proyección de

imágenes, pero no en el movimiento, que, como sabemos de sobra, es una de

las características esenciales del cinematógrafo. No olvidemos que la palabra,

etimológicamente hablando, es la unión de kínema (movimiento) y grapho

(dibujo).

Para una primera aproximación al cinematógrafo y al M.R.I. (Modo de

Representación Institucional), que veremos más adelante, necesitamos

1 () estroboscopio. m. Ópt. Instrumento que permite ver como lentos o inmóviles objetos que se mueven de forma rápida y periódica, mediante su observa-ción intermitente. (DRAE)

Linterna Mágica Proyección de la linterna mágica.

Page 76: Lenguajeaudiovisual libro

76

enumerar algunos de los inventos –todos ellos de carácter científico- que

ayudaron al desarrollo del cinematógrafo.

El TAUMATROPO o TAUMATROPIO, según qué autor lo mencione, fue

inventado por John Aytorn en 1826 y consistía en una placa circular, como una

moneda, en cada una de cuyas caras había dibujada una imagen (como ejemplo

un loro y una jaula); atados en los extremos tenía unas gomas o cordeles que

permitían hacerlo girar a una velocidad suficiente como para que se produjera

la superposición de imágenes en la retina.

Años más tarde Joseph Plateau patentó en 1833 el FENAKISTOSCOPIO,

consistente en un disco con hendiduras donde se colocaban las imágenes

sucesivas de un movimiento. Se hacía girar el disco ante un espejo y la imagen

reflejada se veía en movimiento a través de las hendiduras.

Traumatropos.

Fenakistoscopio.

Page 77: Lenguajeaudiovisual libro

77

Un año después, en 1834, William G. Horner inventa, o tal vez desarrolla,

el ZOOTROPO o tambor mágico. Consistía en un cilindro con hendiduras a

través de las cuales se veía la cara interna donde se sucedían imágenes.

Es evidente que desde las primeras tentativas por crear la imagen en

movimiento, existen dos tendencias claramente definidas que buscan bien

el entretenimiento, bien la constatación científica. La primera corriente es

la científico-realista, creada por los hermanos Lumière, que en su avance

llegará a desarrollar lo que conocemos como el cine documental. La segunda

corriente es la inventiva fantástica de George Méliès, siendo el comienzo del

cinematógrafo como entretenimiento mágico, origen del cine de ficción.

Para algunos teóricos del cine, como es el caso de Noël Burch, la historia de

la ciencia moderna pasa por tres periodos:

1. La introducción de la perspectiva.

La perspectiva como introducción a la profundidad de campo, al

interés de los elementos que componen un cuadro, a la composición de

una imagen, todavía pictórica.

2. La invención del telescopio y el microscopio.

La invención del telescopio y el microscopio contribuyen a un nuevo

enfoque de los objetos, a una cercanía anteriormente inimaginable, que

servirá de excusa para la Escuela de Brighton, en los primeros años del

cinematógrafo.

3. El descubrimiento de la fotografía.

La fotografía porque el cinematógrafo no es más que un número de

fotografías sucesivas a una velocidad lo suficientemente rápida para que la

persistencia retiniana produzca el efecto del movimiento.

Zootropo.

Page 78: Lenguajeaudiovisual libro

78

No se sabe bien si fue movido por una simple apuesta o por una clara

vocación científica, Edgard James Muybridge quiso captar el movimiento de

un caballo al galope para lo que dispuso, en 1885, una serie de 12 cámaras

fotográficas, cada disparador tenía un cordel atado que atravesaba la pista por

donde iba a correr el caballo y cuando el caballo rompía el cordel la foto se

disparaba.

Page 79: Lenguajeaudiovisual libro

79

Page 80: Lenguajeaudiovisual libro

80

5.1.- MARCO HISTÓRICO DEL CINEMATÓGRAFO.

Habría que señalar, como comienzo, que el cinematógrafo nace con una

vocación científica, los hermanos Lumière crearon un aparato para recoger la

realidad, al igual que hasta entonces lo había hecho la fotografía, pero esta vez

con movimiento.

Es cierto que Thomas Alba Edison había grabado el 7 de enero de 1894 una

brevísima película titulada Record of a Sneez para su invento, el kinetoskopio,

y una vez descubierta la atracción de su invento se dedicaría a hacer este tipo

de micropelículas de las que coloreaba el negativo para hacerlas más vistosas.

Una de las más vistosas y exitosa de aquel tiempo fue el baile de Annabelle.

Pero el motivo por el que los hermanos Lumière se consideran los pioneros de

lo que conocemos como cine es, sencillamente, porque el invento de Thomas

Alba Edison no proyectaba las imágenes sobre una pared blanca sino que

consistía en una caja cerrada con un visor por el que, después de echar una

moneda, se podía contempla, de forma individual, la película.

Cuando los hermanos Lumière presentaron en 1895 en el Gran Café de

París su primera sesión de cinematógrafo, excepto una de las películas titulada

El regador regado, las demás eran una sencilla plasmación de la realidad,

habían capturado a unos obreros saliendo de la fábrica, un tren llegando

a una estación, a unos padres felices dando de comer a su niño un día de

domingo y poco más. Los hermanos Lumière habían inventado el aparato del

cine pero no supieron construir con su invento un lenguaje cinematográfico

ni una industria. Podría decirse que a los hermanos Lumière les interesaba

su invento en una categoría científica, no creativa; sin embargo, al inquieto

prestidigitador George Mélies, el invento de los hermanos Lumière le serviría

de apoyo a sus locas intenciones creativas, porque Mélies era ante todo un

mago, un ilusionista y con el cinematógrafo consiguió llevar al hombre a la

luna o desaparecer en la pantalla con mayor facilidad que en el teatro en vivo

simplemente grabando fotograma a fotograma.

Mélies fue un revolucionario muy imaginativo del cine, intuyó que el cine

podía tener su propio lenguaje, pero se quedó en eso, en una intuición, porque

EL CINEMATÓGRAFO5

Page 81: Lenguajeaudiovisual libro

81

se sirvió del cinematógrafo para seguir haciendo teatro, no cambió la visión del

espectador, el punto de vista seguía siendo frontal, como si estuviéramos en

un patio de butacas contemplando una obra de teatro.

El punto de vista.

El cambio de punto de vista (esencia del montaje) se lo debemos a Edwin

S. Porter, que trabajó para Thomas Alva Edison, primero como operador de

cámara y después como jefe de estudio. Sin embargo, la fama conflictiva de

Edison ha eclipsado durante años la figura de Edwin S. Porter; quizás porque

a Porter le preocupaba la parte creativa mientras que a Edison le movía la

ambición empresarial.

En 1902 Edwin S. Porter grabó Vida de un bombero rodando dos veces

la secuencia de un incendio en una casa, primero desde fuera y luego desde

dentro.

Primer rodaje (punto de vista exterior).

Desde fuera se veía la artificial fachada de una casa, típica del cine mudo,

y desde una ventana comenzaba a salir humo. Llegaban los bomberos en su

camión, acercaban una escalera a la ventana humeante y uno de ellos, el

protagonista, subía por ella, entraba por la ventana y poco después salía con

una mujer cargada al hombro.

Segundo rodaje (punto de vista interior).

Porter rodó la misma historia esta vez desde el interior de la habitación

donde se producía el incendio. En esta secuencia se veía la habitación donde

había una mujer sentada o dormida en la cama, ya no recuerdo, y comenzaba

el incendio. La mujer corría aterrada por la habitación, de pronto en la ventana

aparece la figura del bombero, que entra en el cuarto, en ese instante la mujer

se desmaya, nunca se sabrá si por causa del humo o por el susto que le da el

bombero.

Edwin S. Porter hizo un rudimentario montaje con las dos secuencias

rodadas, simplemente pegando una después de la otra, con lo que contaba

dos veces la misma historia, eso sí, desde un punto de vista diferente.

La importancia de Edwin S. Porter está en que años después, en 1910,

Page 82: Lenguajeaudiovisual libro

82

realiza un nuevo montaje de Vida de un bombero pero esta vez contando

la historia del bombero una única vez y desde dos puntos de vista, con un

montaje en el que se alternaban planos desde fuera y planos desde dentro, de

este modo realiza lo que conocemos como montaje paralelo.

El punto de vista es esencial a la hora de narrar una historia, porque igual

que el tipo de plano que escojamos para rodar nos sirve para describir, narrar

o expresar; el punto de vista es importante para que el espectador entre en

la historia, acompañe al protagonista o a los protagonistas, sienta la fobia que

sufre James Stweart en Vértigo (Alfred Hitchcock, 1958) gracias a un punto

de vista subjetivo o sea capaz de hacer un punto de vista imposible como en

Mujeres al borde de un ataque de nervios (Pedro Almodóvar, 1988) desde un

contestador.

El punto de vista está íntimamente relacionado con la planificación, no

tienen el mismo significado para el espectador una vista general que describe

la escena, como si el espectador estuviera situado en una atalaya o un mirador,

que un plano contraplano en una conversación en la que parece que el

espectador está inmerso en ese diálogo como si fuera uno más.

Si en el principio del cinematógrafo el punto de vista era el de un espectador

sentado en el patio de butacas, que participaba desde la distancia de la historia,

el cambio en la tipología de planos y en el punto de vista hicieron partícipe al

espectador, consiguieron introducir al espectador en la película.

Para analizar el punto de vista seguiremos dos tipologías:

a) El punto de vista del espectador.

En el primer caso podemos establecer una jerarquía parecida a la del tipo

de plano en relación al punto de vista del espectador:

1. Contemplativo: Encontraremos, normalmente, este tipo de punto de

vista en los comienzos de las películas, que además tiende a coincidir con una

planificación muy amplia, vista general, planos generales, etc.

2. Participativo: Suele coincidir con los planos narrativos, lo que permite

que el espectador esté cerca de la acción y parezca que participa de ella. Un

buen ejemplo sería la película de Alex de la Iglesia, Crimen ferpecto (2004), las

secuencias en las que Guillermo Toledo se dirige a cámara, en plano medio,

convierten en interlocutor al espectador, es decir, participa en la historia.

3. Protagonista: Cuando nos encontramos con un plano subjetivo, el punto

Page 83: Lenguajeaudiovisual libro

83

de vista del espectador coincide con el del personaje, el espectador ve lo que

ve el personaje, lo que lo convierte en protagonista de la secuencia.

b) el punto de vista de la narración.

En el segundo caso, el punto de vista hace referencia a la narración.

¿Quién cuenta la historia? Como señala José Luis Sánchez Noriega (1) «el

modo narrativo relaciona al narrador con los personajes y es un mecanismo de

construcción del relato por el que la historia es contada según una perspectiva

determinada, privilegiando un punto de vista sobre los otros, restringiendo la

información, omitiendo unos datos o sobrevalorando otros». En este caso la

clasificación, siguiendo a Gérard Genette sería la siguiente:

1. Focalización cero o relato no focalizado (N>P).

Narrador omnisciente, no existe, por tanto, un punto de vista determinado

en el relato. El narrador, al ser omnisciente, conoce todo de todos los

personajes, incluso sus pensamientos interiores, sus deseos, anhelos; además

este narrador maneja el espacio y el tiempo como quiere, con lo que puede

contar dos historias que están sucediendo al mismo tiempo, de forma paralela.

2. Focalización interna o subjetiva (N=P).

El narrador del relato es uno de los personajes y conoce tanto como

su personaje, por eso no puede avanzarnos las intenciones de los otros

personajes o darnos información que él no conozca. No puede contar más de

lo que sabe. Este tipo de focalización puede ser fija, cuando es únicamente

este personaje quien nos cuenta la historia; variable, si cambia la focalización

a otro personaje, no para contar lo mismo desde otro punto de vista, sino para

avanzar en la historia; y, por último, puede ser múltiple, cuando son varios

personajes los que cuentan la misma historia desde sus perspectivas. El relato

de focalización interna más claro es el relato autobiográfico.

3. Focalización externa u objetiva (N<P).

El narrador es objetivo, no es omnisciente, señala objetivamente lo que

conoce, que es menos de lo que concierne al personaje o personajes de los

que se ocupa en el relato. Al ser objetivo este narrador no puede conocer los

deseos, pensamientos o anhelos de los personajes, sencillamente narra los

acontecimientos desde una perspectiva particular.

1 () Sánchez Noriega, José Luis. Historia del cine. Teoría y géneros cinematográficos, fotografía y televisión. Alianza Editorial: Madrid, 2002.

Page 84: Lenguajeaudiovisual libro

84

Es frecuente que nos encontremos en una película una mezcla de puntos

de vistas en la narración, que se mezcle la focalización interna, el relato

subjetivo, con una focalización omnisciente, esto sería una licencia poética,

un recurso necesario para hacer avanzar la historia o bien, si es intencionado

o un descuido narrativo del guionista, si no fuera intencionado. Si recordamos

la película Olvídate de mí, tenemos un narrador subjetivo en la voz en off del

comienzo, el protagonista habla sobre lo que conoce (N=P), pero pronto pasa a

ser un narrador omnisciente el que nos cuenta la historia desde una focalización

cero (N>P). Si recordamos Al final de la escapada, todo el relato está en manos

de un narrador omnisciente (N>P). Un narrador ajeno a los personajes que nos

cuenta la historia desde una perspectiva externa, es un relato no focalizado.

Espero que quede claro este apartado, si alguno o alguna tiene dudas, por

favor, que pregunte todas las veces que sean necesarias.

Para terminar hay que señalar, siguiendo a Genette, que cuando el narrador

omite deliberadamente, la conoce pero no nos la cuenta, hablamos de

paralipsis; sin embargo cuando el narrador nos cuenta más de lo que conoce

o puede saber por su estatus narrativo, entonces hablamos de paralepsis.

Descubriremos que estos términos son importantes a la hora de narrar una

película con una trama enrevesada, como una película policial o de intriga, o

una película de miedo.

Page 85: Lenguajeaudiovisual libro

85

Page 86: Lenguajeaudiovisual libro

86

6.1.- EL PLANO.

Podríamos comenzar diciendo que el plano es al cine lo que el morfema es

a la palabra: Una unidad mínima con significación propia. Desde luego esta es

una sentencia general que incluso adquiere cierta vaguedad cuando se trata

de cine. Basta recordar que Nöel Burch habla de Modo de Representación (1)

en lugar de lenguaje, porque sostiene que el cine no es un lenguaje. Nosotros

no entraremos en disquisiciones lógicas o en chismes de salón semiótico. A

nosotros lo que de verdad nos interesa y preocupa es entender qué es un

plano cinematográfico. Un plano puede entenderse como lo más simple: un

bloque de espacio y tiempo ficticio construido para la película.

Como plantea Emmanuel Siety: «cabe considerar al plano como origen del

cine: en primer lugar, porque en los inicios del cine las películas constaban de

un solo plano y, en segundo, porque para hacer una película el primer paso

consiste en rodar un plano.» (2)

Pero la definición de plano es más compleja en la actualidad de lo que

era al comienzo del cinematógrafo. En el origen del cine y, por continuidad,

el origen de la narrativa cinematográfica, hunde sus raíces en la fotografía.

La transformación de la fotografía estática en dinámica, llevada a cabo por

científicos como Edgard James Muybridge o como Étienne Jules Marey.

Individuos que buscaban el análisis cinético, captando con un fusil fotográfico

los movimientos de un caballo o de una persona. Es la fotografía en movimiento,

el principio básico del cinematógrafo que desarrollaría Edison y los hermanos

Lumiére.

Por tanto, las primeras películas de cine consistían en un único plano

utilizado como reflejo de la realidad, sin contemplaciones artísticas, únicamente

con intenciones científicas. El invento consistía en desarrollar la imagen en

movimiento, no en hacer arte. Habrá que esperar a la llegada de George Méliès

para comprender el potencial que supone el cine para contar historias, para

crear ficción; pero también para comprender el arte del montaje.

La primera película conocida es de 1894 y muestra, con sencillez, el

estornudo de un hombre. Para nosotros, crecidos en el lenguaje audiovisual,

nos parecerá una idiotez, pero si nos ponemos en la mentalidad de la época, y

LENGUAJE AUDIOVISUAL6

Page 87: Lenguajeaudiovisual libro

87

entendemos que jamás habían visto una imagen en movimiento, esta película

era una gran hazaña y sumamente interesante.

Tipología de planos.

El lenguaje cinematográfico, como las leyes, está tipificado. Esto quiere

decir que existe un código arbitrario elaborado por convenio social entre los

que comenzaron a crear dicho lenguaje. Como hemos visto en los orígenes del

cinematógrafo, hasta que no se comienza a mostrar una inquietud por cambiar

el tipo de plano, por acercarse al rostro de los personajes con una intención

propiamente dramática, el lenguaje cinematográfico no existe como tal, el

cinematógrafo servía para remedar el punto de vista del espectador en una

obra teatral.

Tendrán que llegar gente como Edwin S. Porter y David W. Griffith para

encontrar una variedad de planos que servían para acentuar el hecho dramático

de la película. Basta recordar el plano medio final de Asalto y robo a un tren

(Edwin S. Porter, 1903) supuso, según muchos analistas, un cambio esencial en

la concepción del cine como lenguaje.

Será David W. Griffith el director que más innove en los albores del

cinematógrafo para consolidar el cine como lenguaje, con un código que

establece, entre otras cosas, un ritmo, gracias al montaje, y una tensión

dramática visible gracias a los distintos tipos de plano que se usan con una

particular intención dramática.

Page 88: Lenguajeaudiovisual libro

88

De esta manera se va consolidando una tipología, más o menos sistemática,

de los planos, en relación a la figura humana; que suele ser, salvo excepciones,

el elemento principal de un film. Así cuando hablamos de plano medio o primer

plano, lo hacemos en referencia al cuerpo humano. Sin embargo, la tipología

de planos no puede ser estricta, ya que no existe una fórmula matemática que

dé con la proporción exacta de un plano medio, aunque más o menos, se sabe

por dónde debe cortarse el plano para que éste sea considerado plano medio.

-GRAN PLANO GENERAL O VISTA GENERAL: Cubre una gran superficie de

terreno y suele mostrar la magnitud de la naturaleza, casi siempre en relación

con la figura humana, lejana, casi imperceptible, como una mínima parte de la

Naturaleza. Los elementos naturales son los protagonistas en este plano y el

personaje queda relegado a un segundo plano.

-PLANO GENERAL: El personaje adquiere presencia en cuadro y posee

mayor importancia. Forma parte del paisaje, pero en la misma proporción.

Habitualmente son planos descriptivos. Describen una acción. La llegada de un

personaje a un lugar. Un vehículo circulando por las calles de una ciudad, etc.

Page 89: Lenguajeaudiovisual libro

89

-PLANO ENTERO O CONJUNTO: El encuadre de este plano es más cerrado

que el plano general, pero el personaje se ve de cuerpo entero. Tiene más

presencia en cuadro y suele usarse para acciones generales.

-PLANO AMERICANO O TRES CUARTOS: El personaje está encuadrado por

encima de las rodillas. Más o menos tiene la misma función narrativa que el

plano entero o de conjunto.

-PLANO MEDIO: Se encuadra al personaje desde la cintura hasta la cabeza.

La finalidad de este plano es integrar al espectador en la narración. Con este

tipo de plano, muy utilizado para los diálogos entre personajes, el espectador

tiene la sensación de ser una especie de contertulio, de estar invitado en esa

conversación, de observar a los personajes a su mismo nivel. A diferencia de

los planos americano, entero y general, en los que el espectador es un mero

voyeur, un observador en la distancia.

Page 90: Lenguajeaudiovisual libro

90

-PRIMER PLANO: A medida que nos acercamos al personaje, encerrándolo

en el encuadre, en una proporción parecida a una escultura de busto, la

intensidad dramática comienza a ser mayor. Este plano iría desde los hombros

hasta la cabeza.

-PRIMERÍSIMO PLANO: De la barbilla a la frente. Aumentando la intensidad

expresiva del personaje y el sentimiento del espectador es más vivo, más

cercano al personaje, por lo que la identificación natural entre espectador y

protagonista se hace mayor.

-PLANO DETALLE: Es un plano con un encuadre muy cerrado que busca

resaltar el detalle (de ahí su nombre). Generalmente se utiliza para destacar un

objeto concreto en el encuadre, ocupando prácticamente toda la pantalla. Es

un acento en la tensión dramática de la historia. Un cuchillo, una mano, unos

ojos, etc.

Un plano detalle nos puede servir para definir un personaje. En el primer

fotograma, extraído de Psicosis, ese plano detalle nos dice que Norman Bates

es un mirón, es más, nos hace partícipes de esa obsesión suya, porque después

Page 91: Lenguajeaudiovisual libro

91

tenemos un plano subjetivo de lo que está viendo este personaje.

En el segundo fotograma, Hitchcock nos muestra una característica física

del jefe de los malos que más adelante tendrá mucha relevancia en la trama

(un clavo en la pared, para entendernos).

La elección de cada plano está condicionada por la claridad del relato, debe

haber una adecuación entre el tamaño del plano, su contenido material y su

contenido dramático (el plano es más intenso cuanto más cercano).

El tamaño del plano también determina su longitud, es decir, el tiempo

que debería permanecer en pantalla. Sabemos que un plano general necesita

más tiempo de en pantalla, por la sencilla razón de que el espectador necesita

más tiempo para leerlo visualmente de lo que requiere un primer plano o un

plano detalle.

Por norma, servirse de un plano corto durante mucho tiempo puede resultar

Psicosis de Alfred Hitchcock

39 escalones de Alfred Hitchcock

Page 92: Lenguajeaudiovisual libro

92

pesado, a no ser que dramáticamente esté justificado el uso prolongado de

dicho plano. Sirva como ejemplo el cortometraje de Patrice Leconte titulado

«El batería del Bolero», que interpreta el rubicundo Jacques Villeret y que

consiste en un plano que se va cerrando cada vez más, sobre la figura de un

músico que toca la batería en una orquesta que interpreta el Bolero de Ravel.

Page 93: Lenguajeaudiovisual libro

93

El uso artístico de los planos

Aunque hemos adelantado algo en el punto anterior, la decisión última

de emplear un tipo de plano u otro, según la intención dramática, la toma

el director de una película (el realizador en televisión), así como el tiempo

que debe permanecer en pantalla, persiguiendo una funcionalidad narrativa

concreta.

Analizando la escala de planos mencionada más arriba, podríamos

reorganizarlos en categorías más genéricas para, de esta manera, desenvolvernos

con mayor agilidad en la categoría de planos. Así pues tenemos:

- VISTAS GENERALES: Estos planos localizan espacialmente al

espectador dentro de la narración y aportan gran cantidad de datos que sitúan

la acción en un marco determinado (incomparable o no).

La vista general se usa principalmente, pero no en exclusiva, con una

intención estética. Aprovechando extensos y bellos paisajes: una selva

frondosa e inabarcable, un desierto de arena y sed, un páramo del oeste

americano donde se alza un saguaro solitario y un rastrojo es llevado por el

viento hacia ninguna parte; y a lo lejos, casi imperceptibles, los personajes

avanzan. Este tipo de plano hace al ser humano un mequetrefe del destino,

una figura minúscula en este proceloso calvario que es la vida, etc.

En televisión no conviene abusar de él, pues el gran número de detalles

que aporta la vista general puede resultar contraproducente al no poder ser

observada detenidamente. Primero, porque la pantalla es más pequeña y los

detalles se pierden y segundo, porque el ritmo en televisión suele ser distinto

al del cine y estar construido con planos más cerrados. Además, cuantos más

elementos contenga un plano, mayor duración requerirá y en televisión, como

bien sabemos, el tiempo es oro.

-PLANOS GENERALES: Suelen utilizarse para comenzar las secuencias

(a menos que nos interese reservar datos), es decir, para establecer una

localización física donde se va a desarrollar la historia, donde se encuentran

los personajes, cómo visten, como son, etc. Asimismo, al ser un plano abierto,

nos permite seguir el movimiento de los personajes.

Cuando desarrollamos un plano contra plano en una conversación, se

puede recurrir a un plano general para restablecer la referencia espacial en el

espectador. Para que siga situado en la historia.

Page 94: Lenguajeaudiovisual libro

94

-PLANOS MEDIOS: Establecen relaciones más íntimas entre los

personajes, ayudan al desarrollo de los diálogos, son los más apropiados para

que los personajes narren su historia; además, como dijimos antes, hacen

sentir al espectador partícipe de la trama, no como un espectador alejado

(que es lo que sucede en los planos generales) sino como un personaje

más, directamente involucrado en la historia. Los planos medios permiten,

entre otras cosas, captar gestos corporales y relacionar la proximidad de los

personajes en las conversaciones.

-PRIMEROS PLANOS: Nunca, hasta la aparición del cinematógrafo, se

había podido contemplar un rostro tan de cerca, aunque la fotografía hacía

retratos, el tamaño de una fotografía dista mucho del de una pantalla de cine,

donde un primer plano resalta en extremo los detalles de un rostro.

Los primeros en usar este tipo de planos serían los directores de la llamada

Escuela de Brighton, en especial George Albert Smith, que en películas como

Las gafas de la abuela (Grandma’s Reading Glass, 1900) o Mirando por un

telescopio (As Seen Through a Telescope, 1900) justificaba los primeros planos

gracias a un plano subjetivo desde el punto de vista del niño que cogía la lupa

de la abuela y miraba la maquinaria de un reloj, un pájaro enjaulado o el ojo de

la abuela, siempre en primer plano; o del individuo que contemplaba, a través

de un telescopio, la pierna candorosa de una mujer que tenía desatados los

cordones de un botín.

Estos planos estaban científicamente justificados por el uso de lentes de

aumento, porque era la única forma de hacer creíble al espectador un primer

plano.

Se cuenta que habitualmente los espectadores ingleses, acostumbrados al

teatro y nada habituado al cine, se quejaban de estos planos cerrados diciendo

que habían pagado la entrada para ver a un actor de cuerpo entero y no en

cachitos.

Lo que sí es cierto es que un primer plano es una toma vigorosa que centra

el interés como ninguna otra.

El primer plano de un personaje puede sugerir una fuerte tensión, aunque

también puede ser un sencillo plano descriptivo. Cuando en un primer plano

se muestra un objeto suele expresar el punto de vista subjetivo de uno de los

personajes y sirve para resaltar dicho objeto que a la larga será relevante en la

trama de una buena historia, donde ningún elemento es gratuito.

Page 95: Lenguajeaudiovisual libro

95

Los planos según la angulación.

Desde el punto de vista narrativo, es fundamental la elección del lugar

donde situar la cámara, decisión que, como es natural, toma el director. Dicha

posición de la cámara puede estar a la altura de la mirada del personaje, por

encima o por debajo de ésta. La angulación más común es la que corresponde

al eje del ojo humano. Si subimos o bajamos la cámara de este eje horizontal

estamos tomando partido, dando una intención al plano, aunque ciertamente

cualquier angulación es en sí misma expresiva. Desde el momento en el que

escogemos un encuadre y no otro, estamos seleccionando intencionadamente

lo que deseamos mostrar y lo que queremos que quede fuera de campo.

Según la angulación podemos clasificar los planos en:

-PLANO PICADO: Es aquel plano en el que la cámara está situada por

encima de la mirada, produciendo una sensación de inferioridad en el personaje

al empequeñecer su proporción. Podemos considerar que psicológicamente el

personaje está hundido.

Esta significación se da cuando el director busca esa intención, sin

embargo, podemos encontrar un uso del plano picado justificado por la

necesidad narrativa. Pongamos por ejemplo dos personajes conversando,

como sucede al comienzo de El tercer hombre ´(1949) de Carol Reed, cuando

Holly Martins (Joseph Cotten) va en busca de su amigo Harry Lime (Orson

Welles). Holly Martins está en el rellano de la entrada del piso de su amigo y el

portero está un piso arriba reparando una lámpara. El diálogo se sucede entre

planos picados y contrapicados.

Page 96: Lenguajeaudiovisual libro

96

-PLANO CONTRAPICADO: La cámara se coloca por debajo de la mirada

del personaje, de este modo resaltamos su figura, lo enfatizamos, dándole una

dimensión psicológica mayor al personaje que pueda estar situado debajo

de él. Unas escaleras nos servirán para jugar, por ejemplo, con un personaje

dominante y otro sumiso, situándolos uno en lo alto de la escalera y otro

debajo.

Estos ángulos pueden llegar a ser extremos y entonces nos encontramos

con otros dos tipos angulación:

-PLANO CENITAL: En el que la cámara está situada, en el eje vertical,

sobre la figura del personaje, creando un ángulo de 90º con respecto al eje de

la mirada. Este plano trata de alejarse del personaje, dejar su figura totalmente

aislada, abatida moralmente. Hay momentos y localizaciones en los que se

hace necesario el uso de esta angulación, por ejemplo, en Los pájaros (Alfred

Hitchcock, 1963), la secuencia en que Melanie Daniela (Tippi Hedren) se mete

en la cabina telefónica, para crear la sensación de acorralamiento, Hitchcock

coloca la cámara en un plano cenital, generando una tensión mayor a la que

daría un plano lateral.

Page 97: Lenguajeaudiovisual libro

97

En Los pájaros de Hitchcock, encontramos un buen número de planos

picados e incluso cenitales, evidentemente porque el director busca la mirada

subjetiva y expectante de los pájaros.

-PLANO NADIR: En este plano la cámara se sitúa en el ángulo

completamente opuesto al plano cenital, es decir, debajo del sujeto. Como el

cenital es un plano atípico, que se utiliza poco y casi siempre por necesidades

lógicas. Por ejemplo, en los planos que se ruedan debajo del mar, es natural

que algunos de estos planos sean nadir al situar la cámara debajo del mar.

En Tiburón (1975) de Steven Spielberg está bien justificado el uso de

este ángulo, teniendo como referencia la mirada del gran escualo. Un plano

subjetivo desde el animal que, acompañado por los inquietantes acordes de

John Williams, generan ansiedad en el espectador.

O este otro ejemplo de nadir, utilizado por Kim Ki-duk en La isla (2000).

Tengamos en cuenta que podemos (y debemos) usar estos tipos de

angulación en determinados momentos en los que la lógica narrativa nos lo

pida. Por ejemplo, cuando un personaje se asoma a una ventana de un quinto

Page 98: Lenguajeaudiovisual libro

98

piso y otro personaje está en la calle llamándolo para que baje. Tendremos

la necesidad narrativa de establecer un plano contraplano en picado y

contrapicado, de otro modo el personaje de la calle parecerá que flota en el

aire a la altura del quinto piso. Para este ejemplo recordemos la secuencia del

cortometraje de «Éramos pocos…» dirigido por Borja Cobeaga en el que los

personajes descubren que los objetos de la casa están en la calle y se asoman

a la ventana.

También nos encontramos con la posibilidad de respetar o no la

horizontalidad, variando la vertical del eje de la cámara, inclinándola

lateralmente con respecto a la línea del horizonte. Así nos encontramos con:

-PLANO NORMAL:

Cuando respetamos dicha horizontalidad.

-PLANO ABERRANTE:

Cuando se varía el ángulo del eje de la cámara. Este plano es muy

impactante, aunque no es conveniente abusar del plano aberrante sin una

justificación clara: un personaje desorientado, ebrio o enloquecido. Este

plano puede tener su origen en el expresionismo alemán, en películas como

El gabinete del Dr. Caligari (1920) de Robert Wiene, donde los decorados

angulados dan la sensación de que el plano es aberrante y produce mayor

tensión e inquietud que un plano horizontal. En el cine actual suele utilizarse

en películas de ficción que buscan un marcado carácter documental, la ficción

emulando al documental para aumentar la sensación de verosimilitud. Películas

como Hijos de los hombres (2006) de Alfonso Cuarón o El millonario (2008) de

Danny Boyle, utilizan la cámara al hombro y la angulación aberrante para que

el espectador sienta las mismas sensaciones que los personajes.

El cine publicitario también lo emplea con frecuencia, del mismo modo que

los vídeos musicales, por una clara intención estética. Desde el punto de vista

narrativo es muy interesante para poner de manifiesto situaciones o actitudes

anormales, teniendo siempre mucho cuidado de compensar las inclinaciones

de unos planos con otros. Como siempre, todo es válido si responde a una

motivación narrativa.

Page 99: Lenguajeaudiovisual libro

99

Cuando inclinamos la cámara a izquierda o derecha, sobre su propio eje,

como se muestra arriba, el encuadre se puede nombrar como aberrante,

oblicuo o incluso plano holandés, tal vez, como cuenta Fran Ventura, por el

origen de los primeros trípodes que permitían esta rotación sobre su eje.

Los planos según el punto de vista narrativo.

Al situar la cámara, el director elige el punto de vista que considera

apropiado para que la historia fluya sin contratiempos. De esta manera,

escoge cada vez un tipo de plano que justifique la trama y las sensaciones

de los personajes, para que el espectador se sienta identificado con ellos y

suficientemente motivado como para seguir viendo la película. En ocasiones el

punto de vista tratará de alejarse, en mayor o menor medida, de los personajes

y en otros casos tratará de que el punto de vista coincida con el del personaje.

Así, tenemos dos tipos de puntos de vista:

Page 100: Lenguajeaudiovisual libro

100

- OBJETIVO: Es aquel plano que muestra el punto de vista ideal para el

espectador, sin adoptar la mirada de ningún personaje de la acción.

- SUBJETIVO: Es el que muestra el punto de vista de algún personaje

integrado en la acción y, a veces, incluso de algún objeto. Este tipo de plano

se utiliza para instar al espectador a integrarse en la acción (por ejemplo, en el

cine de terror).

Page 101: Lenguajeaudiovisual libro

101

6.2.- MOVIMIENTOS DE CÁMARA.

La cámara se puede mover de dos formas:

- Rotando sobre un soporte fijo, habitualmente un trípode.

- Desplazándose junto a un soporte.

En los albores del cine, la cámara se limitaba a presenciar impasible

la escena que se desarrollaba ante ella. Estaba inmóvil y todo el movimiento

sucedía dentro de ese encuadre fijo. Lógicamente, el primer movimiento que

la cámara experimentó fue para seguir a un personaje que se iba del encuadre.

Así nació la panorámica.

Sin distinguir en principio los diversos tipos de movimiento, tratemos

de precisar las funciones expresivas de los movimientos de cámara. Pueden

definirse siete, según los parámetros de un buen manual:

1. Acompañamiento de un personaje u objeto en movimiento.

2. Creación de un movimiento ilusorio en un objeto estático.

3. Descripción de un espacio o acción.

4. Definición de las relaciones espaciales entre dos elementos de la

acción (entre dos personajes o entre un personaje y un objeto).

5. Relieve dramático de un personaje u objeto destinados a tener un

papel importante en el desarrollo de la acción.

6. Expresión subjetiva del punto de vista de un personaje en movimiento.

7. Expresión de la tensión mental de un personaje.

Las tres primeras son meramente descriptivas, es decir, el movimiento de

la cámara no tiene valor expresivo en sí, sino que únicamente permite ver lo

que está ocurriendo en el encuadre.

Las cuatro restantes tienen un valor dramático, es decir, el movimiento

tiene sentido en sí mismo, y tiende a expresarlo realzando un elemento –

material o psicológico- que ha de tener importancia decisiva en el desarrollo

de la acción.

Según los tratados clásicos de realización, existen tres tipos de movimientos

de cámara: PANORÁMICA, TRAVELLING y TRAYECTORIA.

Page 102: Lenguajeaudiovisual libro

102

A) Panorámica

Consiste en la rotación de la cámara alrededor de su eje vertical

u horizontal, sin que el soporte se desplace. Este movimiento está

frecuentemente justificado por la necesidad de seguir a un personaje o a un

vehículo en movimiento.

-PANORÁMICA DESCRIPTIVA: Da un marco de referencia amplio y

sitúa al espectador en un espacio o en una situación. Frecuentemente sirve

para introducirnos en el film o concluirlo; o bien evoca el espacio visto por el

personaje al mirar a su alrededor.

-PANORÁMICA EXPRESIVA: Está fundada en una especie de trucaje

consistente en el empleo no realista de la cámara, con el fin de sugerir una

impresión o idea. Por ejemplo, panorámicas circulares empleadas para dar

sensación de embriaguez, mareo, vértigo, pánico, perturbación psicológica...

Aquí cabe hablar del BARRIDO, que es un tipo especial de panorámica

muy rápida, sugerente, que pasa de un plano fijo a otro, de tal forma, que

los detalles de la escena se diluyen en el transcurso del movimiento a causa

de la velocidad. El ingenioso Orson Welles lo usó en Ciudadano Kane (1941)

como transición temporal entre secuencias para mostrarnos la decadencia de

la relación matrimonial del señor Kane y su mujer.

-PANORÁMICA DRAMÁTICA: Posee un papel directo en la narración.

Su fin consiste en crear relaciones espaciales, bien entre un individuo que mira

una escena o diferentes objetos. En este caso, el movimiento introduce una

impresión de amenaza, hostilidad, superioridad táctica, por ejemplo, ver sin

ser visto, como sucede con el fisgón de James Stewart en La ventana indiscreta

(1954) de Alfred Hitchcock.

Por cierto, que ahí está Hitchcock

Page 103: Lenguajeaudiovisual libro

103

Desde un punto de vista puramente mecánico, podemos realizar dos tipos

de panorámicas: la horizontal y la vertical.

Debemos, asimismo, tener en cuenta algunos consejos prácticos al hacer

una panorámica:

-El ángulo de giro no conviene que sea superior a los 150º.

-La panorámica debe partir de un plano fijo y acabar en otro, también

estable, excepto en el caso de varias panorámicas seguidas, donde es

conveniente, no obstante, mantener el mismo sentido de giro.

-La velocidad de la panorámica debe ser constante y acomodada al ojo.

No es conveniente cambiar sobre la marcha la velocidad de giro, a no ser que

pretendamos realizar un barrido.

B) Travelling

El nombre proviene de las vías por las que se desplaza un carro con

ruedas que soporta una plataforma donde suelen ir la cámara, el operador

de cámara, el ayudante de cámara y el director. El movimiento consiste en el

desplazamiento de la cámara, siendo constante el ángulo entre la trayectoria y

el eje óptico, a diferencia del zoom, como veremos más adelante.

-TRAVELLING HACIA DELANTE O AVANTE: Es el movimiento más

interesante, sin duda, por ser el más natural. Corresponde al punto de vista

de un personaje que avanza o bien a la dirección de la mirada hacia un centro

de interés. Cuando la cámara avanza, lo hace descubriendo a la vez unos

personajes, movimientos o situaciones.

Expresivamente se pueden distinguir dos usos:

-Empleo objetivo: La cámara adopta el punto de vista del espectador.

Somos nosotros quienes nos acercamos.

-Empleo subjetivo: La cámara adopta el punto de vista del personaje. Es él

quien se mueve y, evidentemente, nosotros nos movemos con él.

-TRAVELLING HACIA ATRÁS O RETRO: Es muy expresivo. Puede tener

varios sentidos: conclusión, distanciamiento en el espacio, acompañamiento

de un personaje, transformación moral, soledad, impotencia, etc.

Es un movimiento muy empleado en finales de secuencia y de cierre para

una historia, especialmente en el cine americano.

Page 104: Lenguajeaudiovisual libro

104

-TRAVELLING LATERAL: Suele ser descriptivo aunque también puede ser

de acompañamiento.

-TRAVELLING CIRCULAR: Suele emplearse para crear atmósferas densas,

girando la cámara en torno a un personaje o en torno a un grupo, como suele

hacer Woody Allen en las escenas de restaurante.

Rodar una secuencia en travelling circular es un problema de gran

complejidad, ya que requiere una planificación muy cuidadosa y un trabajo

preciso por parte de los actores. Las acciones y las pausas deben estar muy

medidas, para que cada frase se diga en el momento en que la cámara pasa

ante el actor correspondiente. Claro que luego llega Jean Luc Godard y te

monta un diálogo con los personajes de espaldas en Vivir su vida (1962).

TRAVELLING VERTICAL: Es poco empleado y su única finalidad es

acompañar a un personaje en movimiento. No obstante, puede tener un gran

efecto expresivo. Es común cuando queremos describir un bloque de pisos

presentando la variopinta fauna de inquilinos.

Lo más seguro es que un travelling vertical lo encontremos dentro de una

trayectoria (ver más abajo).

-ZOOM: Erróneamente llamado travelling óptico, el zoom cumple la misión

de variar la distancia focal sin cambiar de objetivo. Podemos realizar con él

un movimiento accionando el zoom hacia delante o hacia atrás, con lo que se

consigue unos acercamientos o alejamientos visuales al objeto sin mover la

cámara de su emplazamiento. Lo que hacemos en realidad es cerrar o abrir el

ángulo visual de la lente.

Pero el efecto no es igual que si acercamos o alejamos la cámara, ya que

al variar la distancia focal del objetivo, variamos la perspectiva o relación de

tamaños de los elementos de la escena, alterando asimismo las distancias

relativas entre ellos. Esto, por lo general, no es aconsejable. Sin embargo,

desde el punto de vista expresivo, el empleo del zoom avante ha sustituido en

producciones de bajo presupuesto al travelling. Recordemos el comienzo de

French Connection (1971) de William Friedkin.

c) Trayectoria

Es la combinación de travelling y panorámica, realizada por medio de un

Page 105: Lenguajeaudiovisual libro

105

dispositivo apropiado para estos menesteres. Suele realizarse con una GRÚA,

que no es más que un brazo metálico o pluma, en cuyo extremo se sitúa una

plataforma con el soporte para la cámara y su operador y que, montado sobre

unas vías de travelling, permite realizar movimientos en todos los sentidos.

Es un movimiento con dificultades para integrarse en la narración, si no

es con un carácter meramente descriptivo o estético. Es el sistema más usual

de planificar un plano-secuencia. Colocada al principio de la historia, la grúa

frecuentemente el objeto de introducir al espectador en el universo narrativo

que describe, de manera muy expresiva. Recordemos ese impresionante

plano-secuencia que abre Sed de mal (1958) de Orson Welles. O bien podemos

encontrar una trayectoria en el inicio de La vaquilla de Luis García Berlanga.

Otro dispositivo que cumple una finalidad mecánica similar a la grúa, es la

llamada CABEZA CALIENTE, que consiste en una rótula colocada en el extremo

de un brazo o pluma, de dimensiones variables. El mecanismo, manejado por

control remoto, permite situar la cámara en posiciones difícilmente accesibles

para una grúa con operador, además de facilitar movimientos complejos. Por

ejemplo, nos permite colocar una cámara sobre el público en un teatro o sobre

la portería en un campo de fútbol, gracias a su ligereza.

También podemos realizar una trayectoria con una STEADYCAM, que

consiste en un arnés sobre el que se coloca la cámara y gracias a un sistema de

muelles, poleas y contrapeso mantiene la estabilidad de la cámara cuando se

efectúa un movimiento.

Últimamente existen muchos avances técnicos que conjugan la versatilidad

de los movimientos robóticas con el pequeño espacio que ocupan algunas

cámaras.

Hay dos tipos de movimientos que podrían englobarse dentro de la

trayectoria o el travelling pero que son realizados con dispositivos nuevos.

Así Alfonso Cuarón se sirvió de una doggicam (http://www.doggicam.com)

para realizar la intensa secuencia del coche en la película Hijos de los hombres

(2006). Este dispositivo le permitía rodar un largo plano secuencia y mover la

cámara 360º en el interior del coche, así como avanzar y retroceder a lo largo

del mismo.

Otro de los nuevos dispositivos que permiten efectos visuales muy

Page 106: Lenguajeaudiovisual libro

106

interesantes es la snorricam (http://en.wikipedia.org/wiki/Snorricam), que no

es más que una pequeña plataforma que se coloca colgada en el pecho del

actor y, en gran angular, nos permite ver cómo el personaje permanece estable

y el fondo se mueve de un modo inquietante. Así se grabó el final de la partida

de cartas de Lock & Stock (1998) de Guy Ritchie y los momentos de zozobra

emocional de Réquiem por un sueño (2000) de Darren Aronofsky.

6.3.- CONTINUIDAD VISUAL: EL RACCORD Y LA ELIPSIS.

El cine presenta en pantalla una acción aparentemente continuada, pero,

en realidad está fraccionada en una sucesión de planos. Durante la filmación,

la colocación de la cámara está condicionada por una serie de factores que,

aunque se basan en la experiencia, no dejan de tener una lógica aplastante.

En los comienzos del cine, la acción se desarrollaba delante de una

cámara con una mecánica puramente teatral, pero a medida que los cineastas

fueron descubriendo, de forma experimental, las posibilidades del lenguaje

cinematográfico, comenzó a desarrollarse la sintaxis propia del lenguaje

cinematográfico. Aparecen así una serie de reglas de cuyo seguimiento depende

que el espectador siga el relato de una forma fluida o no, pero, en cualquier

caso, su cumplimiento estará subordinado a nuestro propósito narrativo.

Como hemos visto recientemente, durante el cine mudo y ya dentro del

modelo de representación institucional, las secuencias tenían una longitud

que ahora nos parece excesiva, acostumbrados como estamos al uso de las

elipsis en la narración cinematográfica.

- LA ELIPSIS

En la construcción narrativa se realizan elipsis de tiempo, seleccionando las

imágenes más significativas que permiten la construcción del sentido diacrónico

de la acción. Es decir, el director muestra al espectador una selección de

imágenes que le permita la reconstrucción de acciones y situaciones narrativas

sin necesidad de respetar el tiempo real.

En estos cuatro fotogramas de poca duración, pertenecientes a Zombies

Party (2004), Edgar Wright nos presenta cómo desayuna el personaje en cuatro

planos acentuados con un efecto sonoro, gracias a esa elipsis narrativa, el

Page 107: Lenguajeaudiovisual libro

107

espectador reconstruye perfectamente lo que ha sucedido sin que el director

tenga que perder tiempo mostrando toda la acción.

En el primer plano la mano del personaje abre el cajón de los cubiertos

y coge un cuchillo. En el segundo plano unta mermelada en la tostada. En el

tercer plano remueve el café y en el último guarda la leche en el frigorífico.

No necesita decirnos más, enlazamos los cuatro planos y entendemos el

significado de la narración.

Encontramos dos tipos de elipsis: narrativa y diegética.

La elipsis narrativa es la más frecuente. Elimina periodos que no tienen

mayor importancia en el transcurso narrativo.

La elipsis diegética, sin embargo, lo que «esconde» de la vista del

espectador es información esencial para el desarrollo de la historia y afecta

directamente a la diégesis, a la trama, a la actitud de los personajes, etc.

- EL RACCORD

La ubicación de la cámara en un lugar determinado, dependerá de los

planos anterior y posterior al que estemos rodando. Aquí aparece el concepto

de «continuidad visual», denominado más frecuentemente como raccord, que

se define, precisamente, como la relación de continuidad entre un plano y el

siguiente.

Esta continuidad viene determinada por una serie de factores que enlazan

fluidamente la acción de un sujeto en los sucesivos planos: movimiento o

dirección de recorrido, nivel de su mirada, dimensión y tamaño en el plano,

Page 108: Lenguajeaudiovisual libro

108

iluminación, diálogos y el más obvio, el raccord de objetos o atrezzo.

La cámara, por consiguiente, no puede ser colocada en cualquier sitio.

Una ubicación que reúna buenas condiciones de luz, no podrá ser elegida si

no reúne los requisitos de una correcta sintaxis respecto a los planos anterior

y posterior. Se trata, por tanto, de leyes que señalan la zona permisible y la

zona prohibida donde situar la cámara, en la serie de tomas que componen la

secuencia.

Como se trata de un encadenamiento de posiciones en que la elección

de un punto de vista determina los otros puntos de vista, se comprende la

importancia de elegir y determinar la posición básica de la cámara que marcará

las otras posiciones, movimientos y miradas sucesivas, de tal modo que la

continuidad narrativa de la secuencia sea la misma.

Recordemos la secuencia en el restaurante de Uno de los nuestros (1990),

Martin Scorsese, en la que, durante una conversación entre Sonny Bunz (Tony

Darrow) y Paul Cicero (Paul Sorvino), éste último fuma un enorme puro, nada

discreto, y en un momento determinado del diálogo éste desaparece de su

boca, cuando en el plano anterior lo tenía.

Page 109: Lenguajeaudiovisual libro

109

6.4.- EJE DE ACCIÓN.

Así pues, todo movimiento rectilíneo realizado ante una cámara discurre

en una dirección en el plano, marcando un EJE DE ACCIÓN (y no sólo el

movimiento, sino también las miradas marcan un eje) que habrá que respetar

siempre, para no confundir al espectador.

El eje de acción es una línea recta imaginaria que se traza sobre la dirección

de la acción, hacia donde el personaje se dirige o hacia donde mira o, también,

puede ser la línea imaginaria que se establece entre las miradas cruzadas de

dos personajes que dialogan.

Esta línea imaginaria divide la escena en dos zonas, cada una situada a uno

de los lados de la línea imaginariamente trazada. Pensemos en un campo de

fútbol. La línea imaginaria que se establece va desde el centro de una portería

al centro de la otra portería. Observaremos que las cámaras se instalan en uno

de los dos lados del eje y que, antiguamente, cuando querían «saltarse» el eje

de acción, colocaban un rótulo que indicaba: «ángulo inverso», para que el

espectador entendiera que la cámara estaba situada en el otro lado de la línea

imaginaria.

Aquí aplicamos la TÉCNICA DEL SEMICÍRCULO. A un lado del eje de acción

(del recorrido del sujeto o del eje de miradas) se puede imaginar un semicírculo

dentro o sobre el cual se puede situar la cámara sin problemas; cualquier toma

desde este lado del recorrido producirá una misma dirección del movimiento

del sujeto en la pantalla. En el caso de la figura, en sujeto se movería hacia la

derecha.

Pero si colocamos la cámara al otro lado del eje de acción, automáticamente

el sujeto pasará a moverse en dirección contraria. Se habrá producido el SALTO

DE EJE, pecado capital de realización.

Existen, no obstante, tres formas de saltarse el eje sin producir impresión

de cambio de dirección:

• Cambiando la dirección del sujeto dentro del plano, haciendo un

travelling que sigue al personaje hasta saltar el eje visiblemente,

pudiendo filmar a partir de entonces desde el otro lado.

• Con una toma sobre el mismo eje, de forma que el personaje vaya de

Page 110: Lenguajeaudiovisual libro

110

frente o de espaldas a la cámara sin estorbar la impresión de su viaje

rectilíneo.

• Intercalar un plano neutral, por ejemplo una toma subjetiva.

El tema del salto de eje es uno de los que más controversias despiertan

entre los profesionales. Mientras muchos defienden a capa y a espada la

necesidad de evitarlo siempre, con objeto de no despistar al espectador, otros,

entre ellos algunos maestros, se lo saltan sin ningún reparo. Aquí vale lo de

que las ideas son más importantes que las reglas. Si el discurso narrativo nos

inspira u obliga a saltarnos el eje, saltémoslo. Pero si lo hacemos, hagámoslo

como los grandes, sin que se note y si se nota, que no nos importe lo más

mínimo.

6.5.- ESPACIO DE REFERENCIA.

Solamente si el personaje está dirigiéndose directamente al espectador y,

por lo tanto, mirando a cámara, encuadraremos un primer plano centrado.

Cada personaje debe conservar su propia zona: la derecha o la izquierda.

Cuanto más corto sea el plano, ese desplazamiento lateral será más pequeño.

Es necesario dejar un ESPACIO DE REFERENCIA entre los ojos del actor y el

extremo del encuadre hacia el que mira el sujeto.

En ningún caso un rostro debe coincidir con el de su contraplano, de tal

manera que su silueta pueda ser sobreimpresionada en el mismo lugar del

plano siguiente.

Pregunta: ¿Cuál de los plano-contraplano sería el más apropiado?

Page 111: Lenguajeaudiovisual libro

111

Si el personaje no está completamente inmóvil, sino que se expresa con

gestos y palabras, es seguro que se desplazará un poco. Tales movimientos no

deben ser bruscos ni demasiado amplios, pues resultarían excesivos y se irían

de cuadro.

6.6.- SALTOS VISUALES.

Salto de angulación o de distancias.

El salto de un punto de vista a otro sobre el mismo sujeto es perfectamente

válido, salvo cuando el cambio de ubicación de la cámara es tímido, escaso.

Se puede afirmar que un desplazamiento de la cámara a un punto de vista

contiguo no se justifica si es menor de 40º (otros autores dicen 30º). Sólo lo

hace si, además del nuevo ángulo, se cambia la distancia o tamaño de plano.

Salto proporcional.

Las siguientes imágenes pertenecen a una secuencia de Ser o no ser, donde

Ernst Lubitsch comete una falta venial al pasar, en la misma secuencia, durante

el mismo diálogo, de un plano medio a otro plano medio con un ángulo muy

parecido al anterior.

También se produce un efecto indeseable cuando pasamos de un plano

detalle a un gran plano general, o si lo hacemos de un plano a otro de tamaño

inmediato –primer plano a plano medio, por ejemplo-, caso mucho más

frecuente, sobre todo al realizar entrevistas que hagan necesario cortar. Como

con los saltos de angulación, es necesario que los cambios de tamaño se

justifiquen, que tengan un sentido narrativo y no se hagan caprichosamente.

Page 112: Lenguajeaudiovisual libro

112

Estos dos planos consecutivos provocan un salto de proporción, lo que

significa que, en principio, es un error sintáctico. Sin embargo Hitchcock

necesitaba mostrar que el lugar donde se encontraban dos personajes para

mantener una conversación secreta era un páramo y nadie iba a escucharlos

hablar. Cierto que si hubiera insertado un plano general para poder luego

saltar al plano medio, visualmente hubiera sido más grato y no tan abrupto.

Seguimos buscándole las cosquillas a los grandes. Volviendo a Ser o no ser

de Lubitsch, ya al comienzo, encontramos una secuencia tan divertida como

formalmente defectuosa, claro que ya me gustaría a mí tener el ingenio de

Lubitsch. Encárgate tú de analizarla con detenimiento, es una clara pregunta

de examen.

Cortina rasgada de A. Hitchcock

Page 113: Lenguajeaudiovisual libro

113

6.7.- EL ENCUADRE: CAMPO, FUERA DE CAMPO.

Constituye la primera participación de una película. Mediante éste

seleccionamos el espacio (podemos fragmentar) de tal modo que podemos

expresar determinados sentimientos o emociones. El encuadre selecciona

aquello que vemos y que no vemos (ambas decisiones son importantísimas).

Los pioneros no seleccionaban, simplemente tomaban planos generales.

Mediante el encuadre seleccionamos la parte del campo que vamos a ver.

Campo/Fuera de campo, dos decisiones muy importantes, con ellas el director

expresa un significado concreto. El campo suele ser el lugar donde se desarrolla

la acción de la película. Digo suele porque como hemos visto en clase, en

ocasiones el fuera de campo adquiere mayor importancia que lo que está en

campo. Recordemos la secuencia del piano en la película Lo que piensan las

mujeres, de Ernst Lubitsch.

Page 114: Lenguajeaudiovisual libro

114

En esta secuencia la acción más importante se desarrolla en fuera de

campo, en campo sólo tenemos un piano y el ventanal de la casa del músico.

Cuando la infidelidad se ha «consumado», el pianista regresa al encuadre y se

pone a tocar con aire de felicidad.

Un tipo de encuadre es aquel que está estructurado para conseguir una

mayor profundidad de campo, buscando una ficticia tridimensionalidad, que

el cine no tiene pero que simula gracias a la perspectiva.

La forma de conseguir un efecto de tridimensionalidad es bien jugando con

las líneas en fuga, bien con la profundidad de campo (espacio en el que un sujeto

puede moverse sin estar desenfocado). Esta profundidad de campo depende

de los objetivos (grandes angulares y teleobjetivos, como ya sabemos).

Podemos ver un ejemplo de esa búsqueda de tridimensionalidad en el

siguiente plano de La jungla de asfalto (1950) de John Houston.

El encuadre puede ser una prolongación del estado de ánimo del personaje

en pantalla.

A la hora de encuadrar también se puede mostrar un elemento cuya parte

nos remite a un todo (un crucifijo como símbolo de la Iglesia, el látigo de

Indiana Jones); en este caso entramos dentro del significado simbólico de las

imágenes.

Page 115: Lenguajeaudiovisual libro

115

A continuación enunciamos algunos principios que debemos tener

presentes al encuadrar:

1. Márgenes de seguridad: al estar en general los bordes de la imagen

enmascarados, debe evitarse situar una acción o rotulación cerca de

éstos. Hay algunos monitores y visores de cámara que indican esta

área de seguridad.

2. Encuadre de personas: evítese cortar a las personas en puntos de unión

naturales, el encuadre en zonas intermedias es más atractivo. De igual

forma debe evitarse que el encuadre toque el borde de la pantalla.

3. Encuadre-posiciones: el centro de la pantalla es, por lo general, la zona

más débil para mantener la atención del espectador. El uso continuado

o sostenido de la imagen en el centro de la pantalla resulta monótono.

La fuerza pictórica del sujeto y su importancia tienden a aumentar

cuanto más alto y a la derecha está en el encuadre.

4. Ajuste del encuadre: los primeros planos crean problemas, por

ejemplo en el caso de gesticulación de brazos que quedan fuera de la

imagen. Los movimientos de cabeza pueden quedar fuera de la imagen

dejándola vacía.

5. Encuadre descentrado: para vistas laterales o de 3/4, los encuadres

centrados proporcionan una falta de equilibrio, generalmente es mejor

descentrar ligeramente el encuadre sin realzarlo demasiado, a menos

que se pretenda atraer la atención hacia ese lado de la imagen (hay

una puerta por la que va a entrar alguien).

6. Encuadre descentrado con sujetos en movimiento: cuando un sujeto

está en movimiento debe mantenerse ligeramente retrasado en

relación al centro del encuadre. El retraso que se precisa se va

haciendo ligeramente mayor a medida que aumenta la velocidad del

movimiento.

7. Parte superior de la imagen: para conseguir un buen equilibrio

pictórico se debe encuadrar a las personas dejando un margen superior

Page 116: Lenguajeaudiovisual libro

116

adecuado. Evítense los efectos de restricción por espacio insuficiente o

el efecto de exceso debido a poco margen.

8. Re-encuadre: a medida que los sujetos entran o salen del encuadre,

el cámara normalmente lo va ajustando para la situación siguiente.

En acciones dramáticas se puede deliberadamente no re-encuadrar

para conseguir que la tensión debida a la composición desequilibrada

realce la salida o ausencia del segundo sujeto.

9. Las líneas básicas del encuadre: Salvo que lo hagamos con una intención

muy precisa, el horizonte nunca deberá partir un encuadre en dos

mitades. Siempre está situado en uno de los tercios. La elección del

tercio superior o inferior, dependerá de la importancia que adquieran

el cielo, la tierra o el agua, en grandes paisajes, y del nivel al que se

encuentra el sujeto más importante.

Revisa estos principios a tener en cuenta para el encuadre y mirando el

siguiente plano (pertenece a la tediosa película Primer) piensa qué principios

cumple y qué otros incumple.

En cuanto a las líneas diagonales, son el mejor recurso que tenemos en

nuestro encuadre para romper la monotonía que producen las líneas paralelas

al marco. Pero las diagonales también pueden ser monótonas cuando

producen cruces simétricos en el centro, y aún cuando cortan el cuadro de

vértice a vértice.

Page 117: Lenguajeaudiovisual libro

117

Es preferible que las diagonales nazcan o mueran en el vértice del horizonte

con el marco, o en uno de los puntos fuertes si la diagonal es el trazo más

importante de la composición.

Las diagonales nacen, en la mayoría de los casos, del punto de vista elegido,

del lugar donde emplazamos la cámara y desde el que vamos a contemplar la

acción, y tienden a unirse en un punto de fuga que se situará, preferentemente,

en un punto fuerte.

Cuando en el encuadre aparecen las líneas paralelas, ya sean caminos,

vías de tren, rejas, arboledas, postes, barandillas, muros, etc; debemos

observar cómo se transforman en diagonales en cuanto modificamos nuestra

posición y cómo ello afecta a la perspectiva y, en suma, a la profundidad de la

escena.

No debemos olvidar que al mostrar en cuadro líneas horizontales no

encuadraremos con la línea horizontal partiendo por la mitad el encuadre. Es

conveniente situar la línea horizontal por encima o por debajo de la mitad del

encuadre, como vemos en este ejemplo.

Page 118: Lenguajeaudiovisual libro

118

Todo cuerpo compuesto por caras planas, mostrará una sola cara si se

lo capta de frente, con lo que resultará una imagen plana y sin perspectiva.

Debemos encuadrarlo, por lo tanto, desde una posición angulada (en torno

a las 45º), para conseguir la aparición de las diagonales y una sensación de

profundidad tridimensional. Sucede cuando queremos mostrar una casa. Un

plano frontal resulta insustancial, si le damos cierta ángulo el plano de la casa

tendrá más fuerza.

Page 119: Lenguajeaudiovisual libro

119

Page 120: Lenguajeaudiovisual libro

120

7.1.- PARÁMETROS PARA EL ANÁLISIS DE UN GUIÓN.

Antes de entrar en la teoría de la escritura de un guión quisiera daros unas

breves notas sobre guión para poder meternos a analizar las películas que

veremos en clase.

Básicamente, a grandes rasgos y conscientes de que toda regla tiene su

excepción, hay tres apartados esenciales: las dos historias, las tres preguntas

de los protagonistas, los dos tipos de historia que pueden darse en el cine.

Comenzamos.

1. Los dos conflictos del relato:

Toda película debe tener, al menos, dos conflictos. En una buena película

encontraremos dos conflictos, el primero suele tratar el problema natural al

que se enfrenta el protagonista, el conflicto externo, que es el que marcará

el ritmo de la película y coincide con algo físico: el protagonista tiene que

escapar o tiene que enfrentarse a un enemigo implacable en una batalla

terrenal o espacial, etc. El segundo conflicto suele tratar el tema personal de

los protagonistas, los conflictos cotidianos que tienen, y tienen relación con

la psicología de los personajes, con los sentimientos. Llamémoslo el conflicto

interno del protagonista. Estos dos conflictos están siempre latentes y unas

veces dominará el primer conflicto, el externo, en la trama quedando el segundo

conflicto, el interno, aletargado y otras veces será al revés. Si recordamos Shaun

of the dead (Zombies´ Party), la película comienza con el conflicto interno del

protagonista: La relación con su novia se está yendo al garete, mientras que

el conflicto externo, la epidemia que convierte a las personas en zombies está

latente pero en un segundo plano. Pronto el conflicto externo será el que

domine la historia mientras que el interno pase a un segundo plano.

2. Las tres preguntas de los protagonistas:

Aunque puedan parecer estúpidas, estas tres preguntas son esenciales para

NARRATIVA AUDIOVISUAL: EL GUIÓN.7

Page 121: Lenguajeaudiovisual libro

121

comprobar si la historia que nos cuentan funciona o no. Si las tres preguntas

se pueden contestar, entonces la historia está cerrada y se puede decir que el

guión funciona bien, si alguna queda sin contestar, está claro que el guión tiene

un fallo.

¿Qué busca el personaje?

¿Qué obtiene?

¿Cómo lo obtiene?

Pondremos un ejemplo conocido: Buscando a Nemo (Andrew Stanton

y Lee Unkrich, 2003).

En esta película las tres preguntas aplicadas al padre de Nemo, son

evidentes, hasta nos da una pista el título. ¿Qué busca el padre de Nemo? A

Nemo. ¿Qué obtiene? Encontrarlo. ¿Cómo lo obtiene? Después de atravesar

dos océanos, encontrarse con tiburones rehabilitados, tortugas centenarias y

una desmemoriada Doris.

¿Qué sucede si aplicamos esas tres preguntas a Nemo? ¿Qué busca

Nemo? ¿Qué obtiene? ¿Cómo lo obtiene? Estas preguntas son las que tendrías

que hacerte para analizar en profundidad los personajes.

3. Tipos de historia que se dan en el cine:

Si generalizamos sobre las historias que nos cuentan en el cine, nos daremos

cuenta de que hay dos clases de historias que se repiten continuamente,

incluso, a veces, se dan los dos tipos de historia en una misma película; pero lo

normal es que una historia domine a la otra.

a. La historia en la que un personaje con una vida ordinaria, lleno de

cotidianidades, le suceda algo extraordinario que cambie de forma

radical su vida. La trama se centra en que ese personaje, a través de

distintas peripecias, vuelva a una vida ordinaria, normalmente una

vida ordinaria que ya no puede ser la misma que tenía antes, porque

además el personaje ha evolucionado durante la búsqueda de su

cotidianidad.

b. La historia en la que un lugar, un pueblo, una comunidad, con una vida

ordinaria, recibe la llegada de un personaje o personajes que cambian

la tranquilidad de la vida ordinaria del lugar. El personaje cambiará esa

cotidianidad del lugar y le dejará una nueva personalidad al sitio.

Page 122: Lenguajeaudiovisual libro

122

7.2.- EL GUIÓN CINEMATOGRÁFICO.

Hemos visto antes unos pequeños parámetros para analizar un guión,

ahora entramos en la fase de construcción de un guión. Aunque parezca lo

mismo, y en el fondo tienen la misma esencia, no es igual analizar un guión a

posteriori que escribirlo partiendo de cero.

Idea.

Lo primero es tener una idea, tener algo que contar y querer contarlo,

si uno no se ve en esta tesitura, al menos ya sabe que no quiere dedicarse a

escribir un guión.

La idea debe ser algo muy concreto, no debe intentar plantear problemas

morales o metafísicos, vayamos al grano, ¿qué es lo que nos estimula la

imaginación?: ¿una imagen?, ¿un gesto?, ¿un anuncio en un periódico?, ¿un

acontecimiento familiar? Pensemos que cualquier novela o película puede

llevarse a una idea. Una mujer adúltera se siente culpable y se tira a las vías

del tren, hablamos de Anna Karenina. Un hombre despierta convertido en un

insecto, estamos hablando de La metamorfosis de Kafka. Un hombre sufre

una insolación y mata a otro en la playa, sería El extranjero de Albert Camus.

Un viejo carpintero crea un muñeco de madera y un hada le da la vida, pero

el niño es un mentiroso compulsivo, hablamos de Pinocho. Un marinero con

una pierna de madera busca matar a una enorme ballena, es Moby Dick. No

queramos irnos por las ramas, ya tendremos tiempo más adelante, cuando

hagamos el argumento. Una idea no es la patafísica mental de un personaje,

es un hecho concreto, algo tangible.

Una vez que tenemos la idea entonces trabajamos el storyline. En unas

6 ó 10 líneas describimos la idea, esta vez con un principio, un desarrollo o

contenido y un final.

Sinopsis o Argumento.

Ya sabemos qué vamos a contar, ahora hay que contarlo, como si fuéramos

a contarle a un amigo una película que acabamos de ver, entrando en detalles,

sin necesidad de diálogos, ése sería el argumento. Desarrollar la historia de

principio a fin, con todos los personajes.

Guión literario.

Aunque algunos autores hablan de la estructura (Doc Comparato) en la

Page 123: Lenguajeaudiovisual libro

123

que se pone nuevamente en pie la historia, y otros autores hablan de hacer

una escaleta. Encontraréis otros autores (Syd Field) que hablan de construir

los personajes siguiendo la teoría del iceberg, algo que señaló con palabras el

escritor estadounidense Ernst Hemingway, pero que viene haciéndose desde

que el cine es cine 1. Sin embargo, nosotros nos saltamos esos pasos y entramos

directamente en la elaboración del guión literario.

Un guión literario, siguiendo los procedimientos clásicos de la narración,

debería tener tres actos: planteamiento, desarrollo y desenlace 2.

División en 3 actos:

En el planteamiento, o primer acto, como su nombre indica,

encontramos una presentación inicial de personajes y de situación, en

este comienzo se nos da toda la información básica para que la historia

comience. Es aquí donde se inicia el conflicto externo, donde se establece

el tono de la película (comedia, drama, musical, aventuras, etc.).

En este primer acto tenemos que incluir el origen de la trama o

plot, el detonante de la acción, lo que Linda Seger denomina catalizador,

básicamente es que algo sucede, algo lo suficientemente grave o serio

como para desencadenar una serie de acontecimientos. Si pensamos en

la película En el calor de la noche (Norman Jewison, 1967), el detonante es

el asesinato del hombre rico; en Tiburón, como señala, Linda Seger, es la

primera secuencia en la que una chica es devorada por un monstruo. Esos

detonantes suelen llevar peguntas ocultas, del tipo ¿quién mata al hombre

rico y por qué? ¿Quién se come a la chica? ¿Lo cazará el protagonista? Son

respuestas que tienen solución al final, en el tercer y último acto, en el

clímax o en la resolución del conflicto.

El primer punto de giro. Es difícil hablar del punto de giro, porque los

planteamientos que hace, por ejemplo, Linda Seger son muy específicos

y los sitúa en puntos muy concretos de la historia en los que no siempre

vamos a encontrar los puntos de giro, salvo que hablemos de una película

1 John Ford pedía a sus guionistas que escribieran toda la vida de sus personajes, desde que nacen hasta que mueren, aunque sólo se mostrara una parte de esas vidas en la película. De este modo los personajes estaban cerrados, tenían una personalidad compleja y una forma de ser muy determinada. La teoría del iceberg viene a ejemplificar esto último, ya que de un iceberg la superficie visible es de un 25% quedando sumergido el 75%, y si no que se lo pregunten a los del Titanic. Al construir un personaje lo correcto sería construir toda su vida para mostrar sólo un porcentaje de ésta.

2 Encontraréis diferentes formas de nombrarlos pero son lo mismo: inicio-nudo-fin, presentación-trama-final, etc.

Page 124: Lenguajeaudiovisual libro

124

estadounidense que cumpla el manual de estilo de las películas de

Hollywood.

Siguiendo el libro de Linda Seger «el primer punto de giro se presenta

aproximadamente a la media hora de la película y el segundo veinte o

treinta minutos antes del final. Cada uno de ellos cumple las siguientes

funciones:

• Hace girar la acción en una nueva dirección.

• Vuelve a suscitar la cuestión central y nos hace dudar acerca de su

respuesta.

• Suele exigir una toma de decisión o compromiso por parte del

personaje principal.

• Eleva el riesgo y lo que está en juego.

• Introduce la historia en el siguiente acto.

• Nos sitúa en un nuevo escenario y centra la atención en un aspecto

diferente de la acción. » 3

La teoría de Linda Seger se aplica mucho mejor a una película de acción

o policiaca que a cualquier otro género. Lo que debe quedarnos claro es

que en la primera parte de la historia existe un acontecimiento que tendrá

relación con el conflicto externo y que será la cuestión central, el problema

que dirige la trama hacia su solución; al mismo tiempo hay un punto de

giro que influye en la trama, complicándola aún más o sencillamente

cambiándola de sentido. Si pensamos en Wallace & Gromit: la maldición

de las verduras (Nick Park y Steve Box, 2005) por ejemplo, el primer punto

de giro es la creación del monstruo, el conejo devorador de plantas, un

referente sería Frankenstein. El segundo punto de giro será cuando Gromit

se da cuenta de que en realidad el monstruo no es un conejo sino Wallace,

en una especie de zoantropía que lo domina y lo lleva a devorar verduras;

y con esto fastidiamos la película a los que no la hayan visto. De nada.

Desarrollo o segundo acto. Una vez que tenemos todos los elementos

necesarios, la historia se sucede con diferentes acontecimientos que

alargan la consecución del final, los personajes encontrarán diversos

contratiempos que le impiden llegar al final de la trama, todo esto es el 3 La misma Linda Seger se contradice, primero al decir que el primer punto de giro se sitúa al comienzo del segundo acto y más abajo al decir que ese primer punto de giro introduce la historia en el segundo giro, con lo que el primer punto de giro estaría al final del primer acto no en el segundo. Esto demuestra que E=mc², vamos que todo es relativo.

Page 125: Lenguajeaudiovisual libro

125

desarrollo de la historia, en la que además se tratará el conflicto interno de

los protagonistas.

Desenlace o tercer acto. Cuando todo parece alcanzar el final, cuando

todo está preparado para acabar con el tiburón o estamos a pensamos

que tenemos al asesino listo, entonces aparece el segundo punto de giro

que lo fastidia todo, porque complica aún más la historia, la retuerce, el

tiburón hunde el barco y se come a todos los personajes menos uno, el

protagonista; cuando tenemos al asesino en interrogatorio aparece otro

cadáver asesinado con el mismo modus operandi. Se riza el rizo.

Es bueno comprender que este segundo punto de giro lleva

directamente al clímax, al punto más álgido de la historia, el momento

en que el protagonista se enfrenta, ahora ya solo, al tiburón desde lo alto

del palo mayor, que es lo único que queda de barco. Es cuando sabemos

quién es el verdadero asesino y lo tenemos rodeado. El clímax resuelve,

el tiburón explota y el asesino cae muerto. Una vez que acaba el conflicto

externo viene el cierre, responder a las últimas preguntas que quedan

sin resolver o volver a casa sano y salvo para abrazar y besar a la familia.

Happy End.

Hemos preferido hacer el análisis del guión utilizando una terminología

que podemos entender sin problema. Básicamente es lo que plantean todos

los teóricos del guión, tanto Linda Seger, como Syd Field o Doc Comparato.

A lo que Linda Seger denomina «punto de giro», Syd Field lo llama «nudo

de la trama», pero vienen a ser lo mismo y ambos consideran que en un guión

deben de existir dos tramas, una principal y otra secundaria (que es lo que

nosotros hemos denominado conflicto externo e interno) y dos puntos de giro

o nudos de la trama.

Linda Seger habla de trama (plot) y subtrama (subplot), y plantea que la

trama es la que avanza la acción y la subtrama es el tema.

Señalar que la concepción del personaje que hace Syd Field es lo mismo

que nosotros planteamos en las 3 preguntas esenciales de los protagonistas,

sólo que Syd Field profundiza más en la creación del personaje según la actitud

del personaje, su necesidad dramática, el punto de vista y el cambio que se

produce en él o ella.

Page 126: Lenguajeaudiovisual libro

126

La escritura del guión literario.

Cuando nos ponemos a escribir un guión literario lo principal es separarlo

por secuencias o bien narrativas o bien secuencias espacio-temporales. Una

secuencia narrativa se desarrolla en el mismo tiempo pero puede ser en distinto

lugar, si por ejemplo, un personaje se despierta y sale de su cuarto para ir al

baño a mirarse al espejo y ver que le ha salido pelo en todo el cuerpo, podemos

escribirlo en una sola secuencia, señalando los lugares o bien, que es lo que

hacen normalmente los autores, dividir las secuencias en su relación espacio-

temporal, que el personaje se despierta sería una secuencia, el personaje en

el cuarto de baño sería una segunda secuencia. El modelo a seguir dependerá

de cada uno, según le sea más cómodo. Lo que no se puede olvidar es que un

guión literario especifica si es día, noche, amanecer, atardecer; si es interior o

exterior; y el lugar donde se desarrolla la acción: un coche, una calle, un cuarto

de baño.

Es importante saber que un guión literario no contiene detalles

técnicos, ni tipo de plano, ni si hay una grúa o si se realiza un travelling, no

lleva nada técnico.

Page 127: Lenguajeaudiovisual libro

127

Page 128: Lenguajeaudiovisual libro

128

8.- TÉCNICAS DE EXPRESIÓN SONORA:

Con la incorporación del sonido al cine, las películas ganaron en realismo,

intensidad perceptiva y en creatividad. El sonido ayuda a la comprensión de la

imagen, transmite lo que ésta no puede dar por sí sola: el sonido debe ayudar

a la narración nunca ser una repetición de lo que vemos en imagen; además

de añadir nuevos significados a la narración cinematográfica.

Recordemos que el cine nunca fue mudo, como dicen algunos críticos,

porque un narrador leía los intertítulos de las películas mudas o bien contaba

la historia antes de la proyección. Además en las proyecciones de cine mudo

había música en directo; alguien acompañaba musicalmente la proyección

con un piano o un órgano e incluso con una orquesta, como hizo Alfred

Hitchcock con alguna de sus películas mudas. Cuando el exhibidor quería

ahorrarse la contratación de músicos se utilizaban gramófonos para acompañar

musicalmente la película.

Con lo que se denomina en Historia del Cine «la llegada del sonoro»,

surgen dos contratiempos:

1. Un problema técnico importante que afectó al desarrollo del lenguaje

cinematográfico, básicamente a la libertad de movimiento de la

cámara: al grabarse el sonido en directo, el ruido que hacía el motor de

la cámara interfería con el diálogo de los actores, así que encerraron la

cámara en una caja hermética, pesadísima, para evitar su sonido, con

lo que la cámara perdió movilidad.

2. Otro contratiempo en los inicios del sonoro fue el de los actores,

acostumbrados a la interpretación del cine mudo, en el que era

necesario un gran número de gestos y muecas que en el cine mudo

resultaban muy expresivos, pero que en el sonoro eran demasiado

exagerados y resultaban artificiales. Además los actores perdieron

movilidad porque tenía que situarse delante de los micrófonos.

También sucedió que muchos actores y actrices de gran personalidad

en el cine mudo tenían un tono de voz horrible que resultaba muy

desagradable para el espectador. Con el doblaje se solucionaron estos

NARRATIVA AUDIOVISUAL: EL GUIÓN.8

Page 129: Lenguajeaudiovisual libro

129

problemas, pero muchos actores y actrices del cine mudo se retiraron

de la escena por este motivo.

La primera película considerada como sonora es El cantante de jazz

(1927) con el actor y cantante Al Jonson1 como protagonista. La película

ofrecía algunos números musicales sincronizados con el sistema Vitaphone

(creación de Edison), aunque en realidad el sonido provenía de un gramófono

sincronizado con el proyector. Poco después aparecería el sistema Movietone,

que añadía al negativo una banda óptica que solucionó definitivamente el

problema del sincronismo.

A principios de los años 1930, las películas sonoras eran un fenómeno

global. En los Estados Unidos, ayudaron a asegurar la posición de Hollywood

como uno de los sistemas culturales/comerciales más potentes del mundo. En

Europa (y, en menor grado, en otros lugares) el nuevo desarrollo fue tratado

con desconfianza por muchos director de cine y críticos, que les preocupaba

que el centrarse en los diálogos trastornaría la virtud estética de la imagen que

proporcionó el cine mudo. La integración del sonido en las películas liquidó

en apenas tres años la industria del cine mudo y a muchos de los actores y

directores que formaban parte de él.

8.1.- LENGUAJE SONORO BASICO.

La banda de sonido de una producción cinematográfica contempla tres

apartados bien diferenciados que conforman lo que podemos denominar el

lenguaje sonoro en el audiovisual:

a) Los diálogos/ la voz: se pueden grabar en estudio o mediante toma

de sonido directo, posibilidad ésta que consiste en grabar simultáneamente

sonido e imagen. Esta práctica tiene defensores y detractores: los primeros

consideran que aporta a la producción autenticidad, realismo; por el contrario,

sus detractores consideran que, por motivos técnicos o por ruido ambiental, la

toma de sonido directo siempre presenta perturbaciones en la grabación, por

lo que los diálogos en mal estado deberán ser siempre doblados en estudio:

doble trabajo, incremento del presupuesto.

La voz es la palabra, la que forma parte, normalmente, de un diálogo o un

1 Por algún motivo, posiblemente raciales, Al Jonson, blanco, interpretaba a un músico negro con la cara pintada de negro. Realmente ridículo.

Page 130: Lenguajeaudiovisual libro

130

monólogo. Lo habitual es que el personaje que habla esté encuadrado, es decir,

en campo; pero también podemos encontrarnos que esa voz se encuentra

fuera de campo, es decir, en off.

Ésta sería una primera división genérica: voz en in, voz en off; algunos

autores denominan a los monólogos internos del personaje, cuando se trata

de alucinaciones, de voz en out. No debemos confundirla con la voz narradora,

que a veces puede no ser el personaje, sino un narrador omnisciente (tercera

persona). Esta voz narradora, que nos cuenta la historia, se dice que está

también en off.

b) Los efectos/ los ruidos: una vez realizadas las tomas de imagen, se

procede en estudio a la sonorización de todos aquellos ruidos que, por su

propia naturaleza, deben quedar presentes durante el visionado de la película:

una puerta que se cierra, los pasos al caminar... Los ruidos prestan credibilidad

al cine. Lo normal es que los ruidos sean diegéticos, es decir, pertenezcan al

relato que vemos y oímos en ese momento, pero que no se vean en pantalla,

que estén en fuera de campo, o sea, que serían sonidos en off.

Los efectos se pueden agrupar de varias maneras según la fuente de la

que proceden. Así tenemos Efectos originales, procedentes de las tomas de

sonido directo o sonido de producción. Estos efectos pueden ir en sincronía

con determinadas imágenes o ser independientes de ellas, si bien su origen

sigue siendo los lugares del rodaje. Cuando la planificación de la producción

establece la grabación de sonidos originales hay que conseguirlos con la

máxima nitidez sonora posible (si es necesario hay que aprovechar los ratos de

descanso o cuando aún no ha empezado la sesión de filmación). En situaciones

de rodaje también hay que prever la grabación correcta de aquellos sonidos

cuya generación no puede repetirse (destrucciones de elementos, multitudes,

etc.), así como de aquellos sonidos de ambiente que pueden ayudarnos a

establecer un determinado entorno acústico durante la postproducción (esta

grabación de sonidos probablemente útiles, pero no indicados en el guión, se

denomina wildtracking).

Los efectos originales tienen los inconvenientes de que es difícil hallar

lugares lo suficientemente tranquilos y silenciosos que garanticen una buena

grabación, y que muchos eventos naturales son poco controlables y difícilmente

repetibles. Por todo ello los efectos originales a menudo requieren de algún

Page 131: Lenguajeaudiovisual libro

131

tipo de procesado posterior antes de incluirlos en la banda sonora.

Luego nos encontramos con los Efectos de sala (en inglés se denominan

foley en honor de uno de los pioneros en su creación: George Foley). Son

sonidos que reemplazan los sonidos de ambiente y los efectos que se pierden

cuando se doblan diálogos o se graban en directo. En general los efectos de

sala acostumbran a ser pasos, roces de ropa, ruidos domésticos, puertas que

se abren y se cierran, etc., y para su grabación los estudios disponen de suelos

de superficie variable (un metro cuadrado de grava, otro de arena, otro de

cemento, otro de hojas secas...) así como de salas de almacenaje de elementos

útiles (fragmentos de metal, latas, zapatos, vidrios, etc.). Los efectos de sala no

siempre tienen que ser lo que definitivamente vaya a sonar: posteriormente

pueden procesarse o acumularse unos sobre otros hasta conseguir el tipo de

sonido que mejor se adecue.

Un tercer grupo podría ser el de los Efectos de colecciones o de bibliotecas.

Las colecciones en CD y CD-Rom son muy utilizadas a la hora de construir la

banda sonora de una producción audiovisual. Estas bibliotecas suelen estar

organizadas por temas y cuentan con diversas opciones de indexación para

facilitar su búsqueda (por nombres, categorías, elementos relacionados, etc.)

que cada vez más se valen de la ayuda de un soporte informático (algunas

colecciones incluyen un programa de gestión de bases de datos y una base de

datos relativa a los sonidos que componen la colección). Además de poderlos

utilizar «tal cual», podemos tomarlos como punto de partida y refinarlos,

editándolos y procesándolos hasta que se ajusten a lo que necesitamos

exactamente. Colecciones interesantes son las de CBS, Hanna-Barbera,

Lucasfilms, BBC, Valentino, Prosonus, Hollywood Sound Ideas (una parte de la

cual está disponible previa solicitud en el IUA), Audivis (tal vez la más asequible

en España, pues se distribuyen hasta en los grandes almacenes), o Network

Production Music, algunas de dichas colecciones ofrecen un servicio «a la

carta», de manera que sólo adquirimos exactamente aquellos sonidos que

necesitamos.

Y una cuarta selección de sonidos sería el producido por medios

electrónicos, digitales.

Page 132: Lenguajeaudiovisual libro

132

c) La música de ambientación: es aquella cuyo objetivo fundamental es

reforzar las características poéticas, expresivas o dramáticas de la imagen; es

una música compuesta al servicio del discurso cinematográfico. La música es

esencial para el cine, no hay película sin banda sonora, y se considera, por

regla general, fuera de la diégesis (relato)2. Una banda sonora nefasta puede

fastidiar una buena película, aunque dudamos mucho que una magnífica

banda sonora pueda lograr que una mala película sea buena. Es más, cuando

el cine mudo se hizo sonoro, se comenzó a explotar las posibilidades musicales

del invento y se hicieron muchas películas musicales, demasiadas películas

musicales que saturaron el mercado y a los espectadores. Cuando la música

volvió al lugar apropiado, a ser muy importante, pero no un dolor de cabeza,

entonces la expresión cinematográfica se enriqueció con grandes compositores

para películas3.

A la hora de analizar la música de una película, encontraremos,

en ocasiones, que el músico que interpreta una canción o un tema, están

encuadrados, es decir, dentro de campo, lo que significa que está dentro

del relato, por tanto decimos que esa música es diegética. Cuando la

fuente musical está fuera de campo, aunque ayude a la tensión emocional

de la trama, consideramos esta música no diegética. En esta línea, resulta

interesante mencionar el término leit motiv, que encontraréis alguna que otra

vez en alguno de esos muchos libros sobre cine que leéis continuamente. Este

término es heredado de la ópera, concretamente de las de Wagner, y consiste 2 Quien desee profundizar sobre la cuestión de diégesis, lo mejor es leer el libro de Aristóteles titulado Poética, que es el origen de este término.3 Algunos nombres: Victor Young, Cole Porter, Nino Rota, Ennio Morricone, Bernard Hermann, Danny Elfman, etc.

El silencio es ausencia de sonido pero lo podemos tratar como un

efecto más. Su utilización bien dosificada puede generar expectación,

o un impacto emotivo fuerte cuando el desarrollo lógico de la escena

hace esperar un sonido fuerte. Tal y como sucede con el resto de efectos

sonoros podemos considerar dos funciones del silencio: Objetiva:

corresponde a la ausencia real de sonido en la acción y Subjetiva:

cuando el silencio en sí crea un ambiente concreto, además de generar

expectación o de contrastar escenas o mensajes visuales puede llegar a

comunicar situaciones de desolación, muerte, y otro tipo de emociones.

Page 133: Lenguajeaudiovisual libro

133

en una melodía concreta que se identifica con un personaje o una situación

concreta. Cuando sale el personaje le acompaña la melodía. Si no recuerdo

mal, esta manía comenzó en el cine estadounidense con la película Laura. En el

cine de terror, la utilización del leit motiv cuando aparece el monstruo, asesino

o criatura sobrenatural, está a la orden del día.

La realización de las mezclas en el estudio, fase final del proceso de

sonorización, exige un cuidado especial en el tratamiento de las diferentes

fuentes que configurarán la banda sonora, con el fin de lograr un equilibrio entre

ellas, destacando un plano sonoro u otro según las necesidades expresivas de

la narración cinematográfica.

8.2.- AMBIENTACIÓN MUSICAL.

La música de ambientación, también denominada música aplicada, de

acompañamiento o música incidental, puede ser clasificada en dos grandes

apartados:

1) Música diegética: es aquella que ha sido compuesta para ilustrar

una imagen cinematográfica en la que existe una fuente visible de emisión

de sonidos (un tocadiscos, una orquesta de baile, un violinista...) La música

compuesta para ilustrar una secuencia de estas características debe contener,

necesariamente, el objeto emisor o los instrumentos que figuran en la imagen.

A su vez, la música diegética puede aparecer como -in (en campo) presente en el

encuadre /visible simultáneamente con la imagen. Un ejemplo: si vemos cómo

un personaje pone un CD en un equipo de música, esa música es diegética,

está presente en el encuadre. Como -off (fuera de campo) –no presente en el

encuadre. Un ejemplo: si vemos a ese mismo personaje, sentado en un sillón,

escuchando la música del cd, y llaman a la puerta, el personaje se levanta y

sale del encuadre y vemos que mantiene una conversación con alguien, el

CD está fuera de campo, la música aparece en off. Por último, la música -out

– Algunos teóricos, como Ramón Carmona, consideran este sonido como el

sonido diegético interior de un personaje, lo que éste escucha como producto

de su alucinación4.

4 Luego el propio Carmona se contradice al hablar de la expresión voz out como a «la voz que irrumpe en la imagen, por ejemplo, cuando una voz cuya fuente no se visua-liza en el encuadre interroga a un sujeto»

Page 134: Lenguajeaudiovisual libro

134

2) Música no diegética o extradiegética: su composición no está sujeta

a la presencia en la pantalla de ninguna fuente sonora. Por consiguiente, el

compositor goza de libertad en la elección de la plantilla instrumental. La

música no diegética tiene como finalidad principal subrayar el carácter poético

y/o expresivo de las imágenes proyectadas. También se denomina Música –

over; todos los sonidos no diegéticos son considerados como over. En este

apartado incluimos la música compuesta para la película, aunque debe tener

una fuerte relación con la diégesis (la conocida B.S.O del film).

La relación existente entre estos dos apartados no es de antagonismo,

sino de complementariedad. La música diegética se convierte en no diegética

cuando su presencia continúa, habiendo desaparecido ya de la pantalla la

imagen que la originó, adquiriendo en este momento un nuevo papel desde el

punto de vista discursivo. Lo mismo ocurre en sentido contrario: una música no

diegética se convierte en diegética cuando aparece en imagen el instrumento

u objeto que generaba una música presente con anterioridad. Es frecuente

encontrar música diegética y no diegética simultáneamente, logrando un

resultado conceptual y sonoro de enorme belleza.

8.3.- LA MÚSICA EN EL CINE

Existen tres procedimientos para la creación de una banda sonora:

1. Cuando la música es encargada en su totalidad a un compositor.

2. Cuando la banda sonora incluye única y exclusivamente música

pregrabada, pre-existente.

3. Cuando se emplean conjuntamente las dos opciones anteriores.

La elección de uno u otro procedimiento dependerá del criterio del director,

según las intenciones narrativas del argumento literario, las propuestas

escénicas que tenga previsto llevar a cabo y la incidencia que la música deba

representar en relación a ambos aspectos. En la actualidad existen prácticas

más sujetas a criterios comerciales que a necesidades narrativas, como

es la inclusión de una canción de moda en la banda sonora (en ocasiones

acompañando la lista de créditos) para facilitar la venta de ésta como un nuevo

producto, independientemente de la película.

De entre los tres procedimientos citados para la creación de una banda

sonora es el primero el que más posibilidades de manipulación proporciona,

Page 135: Lenguajeaudiovisual libro

135

de ahí que el grado de complementariedad entre música e imagen sea, en

este procedimiento, superior a los otros dos. No obstante, la destreza del

montador de la película puede lograr que músicas pregrabadas se adapten

adecuadamente a una imagen, a partir de la articulación entre ambos discursos.

Existen en la historia del cine magníficos ejemplos de creación en los

que la composición audiovisual (narración cinematográfica y musical) se han

desarrollado simultáneamente, intercambiando sus roles protagonistas y

secundarios, en suma, su función discursiva. Pondremos tan sólo un ejemplo:

Alexander Nevsky, dirigida por Sergei M. Eisenstein y estrenada en el año 1938,

cuenta con la colaboración del compositor Sergei Prokofiev quien emplea textos

de Vladimir Lugovski para las partes vocales. Esta composición audiovisual

surge del minucioso trabajo en equipo entre Eisenstein y Prokofiev, siendo una

obra de referencia para el estudio de las múltiples relaciones existentes entre

discurso musical y discurso cinematográfico. No es fácil que en la actualidad,

dadas las características comerciales que rigen el universo cinematográfico, se

produzcan encuentros artísticos como el descrito anteriormente.

De forma esquemática, trazaremos a continuación el recorrido de

una producción audiovisual desde el momento en que surge la idea que la

origina hasta la finalización del proceso. El director de cine, al leer un guión

cinematográfico, pretende la representación visual de su contenido literario

(características físicas del período histórico narrado, su ambientación estética,

el simbolismo del paisaje, su color...) Concibe su obra como un todo en el que

distintas partes van a ir ensamblándose hasta lograr una identidad propia

que la diferenciará de otras producciones y la definirá como obra creativa. El

compositor debe partir del mismo presupuesto: la música de una producción

audiovisual debe constituir un discurso paralelo al discurso cinematográfico

en el que los diferentes bloques musicales sean piezas estructurales de una

organización global superior, fenómeno que Igor Strawinsky define como «la

búsqueda de la unidad a través de la multiplicidad».

Generalmente, la aportación del compositor es requerida cuando la

película está prácticamente finalizada, el montaje definitivo realizado e,

incluso, la fecha del estreno público fijada. Comienza para el compositor un

período de gran agitación que podemos describir de la siguiente manera:

• Estudio en colaboración con el director de los elementos característicos

de la película: contenido argumental, gestos del discurso

cinematográfico que requieren el concurso de la música, elementos

Page 136: Lenguajeaudiovisual libro

136

no presentes en imagen que deben encontrar a través del sonido su

representación...

• Elaboración de un guión para situar temporalmente las intervenciones

musicales como soporte de las secuencias cinematográficas

seleccionadas con el director. Se realiza proyectando la imagen y

anotando la lectura del código de tiempos para conocer el número

de bloques musicales que va a intervenir, su duración y el momento

exacto en el que debe producirse su incorporación y finalización. La

búsqueda parcial, no absoluta, de la sincronización entre imagen

y sonido, entendida ésta como los apoyos fundamentales que debe

aportar la música al discurso fílmico, dará lugar a lo que Michel Chion

denomina el «fraseo audiovisual».

• Composición de una obra musical, fragmentada en bloques, que posea

elementos de identificación o de contraste con la imagen, atendiendo

a los deseos expresados por el director. Este discurso musical debe

contener en su configuración armónica, melódica, tímbrica, dinámica...

características que destaquen aspectos significativos del discurso

cinematográfico.

• Grabación en el estudio de los bloques musicales compuestos. Se graba

sobre una claqueta a modo de metrónomo que facilita la ubicación

exacta, en relación a la imagen, de la música que se graba.

• Realización de las mezclas definitivas de sonido en el estudio

cinematográfico e incorporación de éste a la imagen.

Page 137: Lenguajeaudiovisual libro

137