Clipping OVIDE online febrero 2011

21
Dpto. comunicación: clipping enero 2011 CLIPPING ONLINE FEBRERO 2011

description

Noticias y menciones sobre OVIDE en la prensa.

Transcript of Clipping OVIDE online febrero 2011

Page 1: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping enero 2011

CLIPPING ONLINE

FEBRERO 2011

Page 2: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Cine por la Red Fecha: 8/02/2011 Noticia: Ovide BS presenta su familia de cámaras con montura PL en Lisboa, Barcelona y Madrid http://www.porlared.com/noticia.php?not_id=53253&sec_id=14

Page 3: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Cine por la Red Fecha: 22/02/2011 Noticia: Concluyen las presentaciones de las cámara con montura PL realizadas por OVIDE en Lisboa,

Barcelona y Madrid. http://www.porlared.com/noticia.php?not_id=53522&sec_id=14

Page 4: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Cine por la Red Fecha: 25/02/2011 Noticia: Mecal 2011 incorpora dos nuevos premos a su palmarés http://www.porlared.com/noticia.php?not_id=53595&sec_id=16

Page 5: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Cinevideo Online Fecha: 9/02/2011 Noticia: Ovide presenta 4 cámaras digitales con montura PL http://www.cinevideonline.es/index.php/eventos-mainmenu-29/presentaciones/592-ovide-presenta-4-

camaras-digitales-con-montura-pl

Page 6: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

1

Soporte: web Ubicación: Cine&Tele Fecha: 4/02/2011 Noticia: ‘Juan de los muertos’ se rodó en La Habana con equipos Red Mysterium X suministrados por Ovide

http://www.cineytele.com/noticia.php?nid=32413

Page 7: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Cine&Tele Fecha: 9/02/2011 Noticia: OVIDE presenta la nueva familia de cámaras con montura PL en Lisboa, Barcelona y Madrid

http://www.cineytele.com/noticia.php?nid=32454

Page 8: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Cine&Tele Fecha: 17/02/2011 Noticia:

OVIDE presenta en Lisboa, Barcelona y Madrid varias cámaras con montura PL orientadas a rodajes de alta calidad

http://www.cineytele.com/noticia.php?nid=32553

Page 9: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

1

Soporte: web Ubicación: Digital Pro News Fecha: 9/02/2011 Noticia: ‘Juan de los muertos’ se rueda con equipos RED Mysterium X http://www.digitalpronews.com/produccion/31-camara/1484-juan-de-los-muertos-rueda-con-eqipos-

red-mysterium-x

Page 10: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Digital Pro News Fecha: 23/02/2011 Noticia: La ‘Locura PL’ llega a Lisboa, Barcelona y Madrid de la mano de OVIDE

http://www.digitalpronews.com/produccion/31-camara/1553-la-locura-pl-llega-a-lisboa-barcelona-y-

madrid-de-la-mano-de-ovide

Page 11: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

1

Soporte: web Ubicación: Panorama Audiovisual Fecha: 7/02/2011 Noticia: ‘Juan de los muertos’ rueda con RED Mysterium X

http://www.panoramaaudiovisual.com/2011/02/07/juan-de-los-muertos-rueda-con-red-mysterium-x/

Page 12: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

1

Soporte: web Ubicación: Panorama Audiovisual Fecha: 11/02/2011 Noticia: TV3 HD estrena ‘Llits’ en 3D

http://www.panoramaaudiovisual.com/2011/02/11/tv3-hd-estrena-llits-en-3d/

Page 13: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Producción Profesional Fecha: 15/02/2011 Noticia: El evento de Ovide BS sobre las nuevas cámaras con montura PL llega a Madrid

http://www.produccionprofesional.com/article.php?a=1669

Page 14: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

Soporte: web Ubicación: Produção Profissional Fecha: 16/02/2011 Noticia: OVIDE agora com representação em Portugal

http://www.pp.com.pt/article.php?a=1472

Page 15: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

1

Soporte: web Ubicación: Panorama Audiovisual Fecha: 22/02/2011 Noticia: La ‘Locura PL’ llega a Lisboa, Barcelona y Madrid de la mano de OVIDE

http://www.tmbroadcast.es/index.php/locura-pl-ovide/

Page 16: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

1

Soporte: web Ubicación: Panorama Audiovisual Fecha: 7/02/2011 Noticia: Panorama estereoscópico

http://www.tmbroadcast.es/index.php/panorama-estereoscopico/

Si por algo será recordado 2010 es por el boom del 3D, al cierre del año hemos querido ofrecer a nuestros lectores una visión general

de la situación de la estereoscopía en nuestro sector. Para ello hemos hablado con varios profesionales que están en la punta de lanza

de esta forma de producción.

ENTREVISTA CON VICTOR SANTAMARÍA – SOGECABLE

¿Qué nos puedes decir del partido de baloncesto?

Creo sinceramente que el baloncesto es algo que se adecua a la perfección a lo que es la producción estereoscópica, y eso lo digo

aunque no pudimos colocar todas las cámaras de una manera adecuada porque la gente de la NBA lo tiene todo muy estructurado y

había zonas en las que no podíamos situar nada. Lo que si pudimos hacer es colocar el plano master de una manera totalmente

distinta a como solemos establecer ese tiro en una retransmisión de baloncesto en 2D. Se situó más abajo de forma que la sensación

de realidad y profundidad, de estar en el propio estadio en definitiva, fue realmente impresionante. Después de esta experiencia con

el baloncesto puedo decir sinceramente que el 3D ha llegado para quedarse. Hay muchas anécdotas, pero una de ellas es que el

responsable de la NBA nos comentó que ellos no tenían pensado hacer producciones estereoscópicas hasta diciembre, y se tiraron

todo el tiempo tomando notas de todo lo que nosotros estábamos haciendo. Pero claro, no tuvimos una libertad total porque ellos

querían asegurar la producción 2D del partido, aún así ellos se mostraron muy interesados en nuestra forma de trabajar. Se dieron

cuenta de algunas dificultades como que la situación de alguna cámara se encontraba en lo que sería un asiento de 1000 dólares en

un pabellón como el Forum de Los Angeles. Pasó toda la plana mayor de la NBA por el stand donde se veía el partido en 3D en directo

y se quedaron muy sorprendidos. Teníamos una steadycam para las actuaciones entre los tiempos muertos, en la NBA tienen muchos

cortes bien para publicidad bien para hacer algún espectáculo en la pista, y esa cámara funcionó muy bien. También me gustó una

pequeña cabeza caliente Polcam en 3D, una cabecita muy modesta pero que daba sin embargo unos planos espectaculares alrededor

de la canasta. Quisimos montar también un travelling pero no pudimos por temas de organización de la NBA. Igual nos ocurrió con

las cámaras de debajo de la canasta, las tuvimos que retirar a un extremo de la pista porque se asustaron del volumen de los rig, la

verdad es que quitaban mucho espacio. Son los típicos problemas de intendencia que tiene el 3D por ser tan artesanal.

Pudisteis aplicar el know-how del anterior evento…

Si porque hemos aprendido mucho, hemos podido utilizar tres cámaras con zoom lo que ha influido mucho en el resultado, porque

en el 3D la implementación del zoom es todavía un paso que se va incorporando poco a poco. Como decía, pudimos usar tres

posiciones con zoom y otras dos a plano fijo con un ángulo estable y estático. Hubo además un gran trabajo de tres días para

prepararlo todo y es por ello por lo que ha salido todo bien, quiero agradecer a nuestros proveedores D4D por la estereoscopía y a

Uveauve que fue quien hizo todo el apoyo logístico. Hubo tiempo para todo dentro de la histeria que tenían los americanos, pensaban

que les íbamos a volver locos y al final recibimos felicitaciones de toda la plana mayor de la NBA. Lo que yo te puedo decir a nivel

personal es que la sensación que daba era que estabas en el pabellón de verdad. Lo vimos todo en un visualizador JVC para usos

profesionales con gafas pasivas, que para mí son mejores porque cansa menos la vista, estuve tres horas con ellas puestas y no me

cansé en absoluto. Y reitero mi sensación de estar metido en la fila 14 del Palau Sant Jordi.

¿En estos meses has visto avances a nivel tecnológico?

La verdad es que sí, antes tenía mis dudas porque veía que la tecnología se estaba retrasando mucho pero desde la primavera hasta

aquí se ha dado un paso de gigante, ha evolucionado mucho. Incluso me atrevo a decir que esto va a ser un estándar, no creo que

todo se produzca en 3D, una sitcom a lo mejor no tiene sentido, pero muchos espectáculos van a adquirir un valor añadido muy

importante. El caso del baloncesto es clarísimo, es pasar de la noche al día. Aparte hay que sumar el aprendizaje que llevamos,

sabemos mucho más sobre la colocación en altura de las cámaras, tiene que cambiar totalmente la colocación y eso es algo que nos

Page 17: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

2

tenemos que meter en la cabeza. Nos queda solucionar mejor los planos cortos, es lo que nos llevamos pendiente para el próximo

evento.

¿Qué es lo próximo?

Creo que ya es hora de que nos metamos de forma descarada con un partido de fútbol, eso es lo próximo. Va a haber problemas

porque hay que reubicar las cámaras en los estadios y probablemente haya mucha diferencia aquí con el 2D, y claro, los estadios

están preparados para trabajar de una forma bastante determinada, diseñados para un tipo de retransmisión muy concreta que se

lleva haciendo muchos años. El máster hay que ponerlo a una altura media, más bajo que el actual, hay que empezar a trabajar en

donde se colocarían las cámaras de cortos, las de al lado de la portería. Hay que ver que se hace con las de cortos que están arriba,

etc. Hay que hacer unas pruebas para ir aprendiendo el nuevo lenguaje. Es un toma y daca con el espectador, nosotros proponemos

cosas y tenemos que ver lo que funciona porque puedes proponer cosas que luego no gusten, y a eso hay que estar muy atento.

¿Estás más convencido en general?

Sí, y lo digo sinceramente. Tal vez en el momento que hicimos los toros fue la explosión un poco de la tecnología, porque arrancamos

poco después de los primeros montajes en España. Creo que estaba todo a un nivel rudimentario y en estos meses seis que han

pasado se han afinado muchas cosas. La tecnología ha pegado un tirón importante, esto ya me lo advirtieron los técnicos y la verdad

es que evoluciona cada vez más rápido. Seguro que si hablamos dentro de tres meses estaremos más contentos todavía.

ENTREVISTA CON FRANCISCO DE LA FUENTE – MEDIA LUSO

¿Cómo empezasteis?

Nosotros comenzamos con esto en 2008, ese año en el NAB de Las Vegas se empezaron a presentar los primeros proyectos de 3D.

Vimos que era una tecnología que se iba a introducir bastante rápido, a los pocos meses coincidimos con gente de Kronomav y

tuvimos una primera reunión donde vimos que encajábamos muy bien unos con otros. Ellos tenían algún desarrollo justo y decidimos

aunar esfuerzos para desarrollar más el producto. Empezamos a probar los rigs en producciones y entornos reales, pusimos

realizadores y operadores a trabajar con ellos donde les indicábamos los problemas que íbamos encontrando, gracias a esto el

producto se ha pulido muchísimo. Ya en 2009 nos metimos en la primera producción que hicimos con el objetivo de conseguir una

Unidad Móvil para producciones estereoscópicas en directo.

¿Con qué recursos contáis en estos momentos?

Ahora mismo contamos con 12 rigs motorizados de última generación y otros 6 equipos entre rigs fijos, minirigs, etc. Tenemos

también 13 SIP de Kronomav para control y corrección digital de las imágenes. Contamos por supuesto con la Unidad Móvil, que

dispone de todas las cámaras las ópticas y el equipamiento necesario que hace falta para producción estereoscopía, incluyendo el

monitorado. Como codificador usamos un Doremi con el que le damos el formato a la señal ya sea Sensio, Side by side, etc. Lo que

tenemos que renovar es todo lo relativo a monitorado porque es algo en lo que se ha evolucionado mucho últimamente. También

hemos adquirido la cámara compacta de Panasonic, la hemos probado y tiene una portabilidad que no tienen los rigs, se puede usar

para entrevistas y hacer ciertas cosas que no necesiten mucha calidad sin tener que recurrir a un steadycam.

¿Qué tipo de eventos habéis cubierto?

La verdad es que de todo un poco, hemos hecho tenis, fútbol, surf, o unos castellers para TV3, y algunos documentales. Ahora mis-

mo estamos ahora preparando un concierto y tenemos otro prevista. Lo que estamos intentando junto con nuestros realizadores es

compatibilizarlo todo, yo soy un defensor de intentar compatibilizar todo lo que se pueda las producciones 2D y 3D, hemos hecho

algunas realizaciones bastante arriesgadas intentando compatibilizar y no ha sido nada fácil. Nos hemos dado cuenta de que el 3D

tiene que ser diferente, esto lo hemos visto a base de hacer muchas pruebas y la verdad es que no todo funciona igual, de hecho hay

cosas que no funcionan directamente. Por lo tanto creo que ahora mismo no es posible esa compatibilización, estamos viendo hasta

que punto podemos compartir partes de la producción, alguna cámara y poco más. Lo que está claro es que la realización debe de ser

totalmente independiente.

¿Qué ha funcionado mejor?

Pues resulta curioso pero el fútbol no es de los mejores eventos para la estereoscopía. Donde sin embargo queda muy bien es en el

tenis, creo que es de hecho el deporte que mejor se adapta, la perspectiva desde atrás funciona muy bien dándole mucha

profundidad a la imagen. En el fútbol la producción es lateral y no termina de funcionar muy bien, me gustaría hacer una prueba un

día desde atrás como si fuera tenis, pero todavía hay mucho que hacer hasta llegar a eso. Tenemos que probar muchas cosas, hay

que ir con la mente abierta. Y lo que curiosamente ha quedado muy bien ha sido el surf, la verdad es que nos sorprendió mucho el

resultado final. La apariencia es muy realista y las olas dan una profundidad muy natural a la imagen, queda muy bonito. Tiene

aspectos muy de documental y después tiene la parte de competición que queda muy bien. Es sorprendente, en 3D piensas que hay

cosas que no van a funcionar y sin embargo funcionan, y otras que de-berían funcionar como el fútbol y resulta que no, al menos por

cómo se ha hecho hasta ahora. El fútbol está de-masiado evolucionado en 2D, con una dinámica rápida que incluye muchas

repeticiones y ahora en 3D creo que hay que rehacerlo totalmente. Pero no nos tenemos que cerrar, porque el fútbol es la clave de

todo y es que mueve muchísimo dinero y muchísima audiencia. Si no hay fútbol todo será más lento. Nosotros vamos a probar a darle

una vuelta, hay que ser valientes, a lo mejor no hay que hacerlo en horizontal. A lo mejor hay que jugar con dos master detrás de

porterías y pinchar según se está atacando, probaremos hasta que demos con la fórmula, sobre todo con la nueva Unidad Móvil que a

final de año estará operativa, nos facilitará las cosas porque en ella está todo mucho más integrado.

¿Cómo evoluciona la tecnología?

Muy rápido, de esta primera fase a cómo será todo dentro unos muchos años creo que no va a tener nada que ver, va a cambiar

mucho. Todavía es un poco artesanal todo y eso es en lo que toca incidir todavía. Así que en los próximos 3 ó 4 años creo que vamos

a ver muchos cambios, pienso que los rigs tienden a desaparecer con el tiempo, por poner un ejemplo. Habrá mucha más integración

cámara-rig con una mezcla de hardware y software que va a quitar complicaciones desde el punto de vista mecánico y geométrico,

sin duda. La mayoría de los problemas que hay son de las diferencias entre ambas cámaras, su posición, la fabricación, diferencias

geométricas, de componentes, etc. Cosas que ahora mismo hay que corregir, con el tiempo todo eso va a mejorar mucho y será más

fácil, más automático. Habrá que hacer algunos ajustes, seguro, pero no habrá que ser un genio manejando todo esto para

simplemente funcionar. Ahora estamos automatizando muchas cosas en el software de control que usamos, la tendencia la de ajustes

automáticos de calibración para evitar que se tarde tanto tiempo en una labor muy compleja.

¿Habéis mejorado los tiempos en los montajes?

Esa es una de las cosas en las que más hemos trabajado y que hemos conseguido mejorar mucho. Hemos conseguido bajar mucho

Page 18: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

3

nuestros timings de producción, lo hemos logrado a base de insistir mucho en la correcta formación de nuestro personal que es un

tema clave si quieres ser ágil. Estamos todavía en esa fase de formar equipos en España para poder trabajar más rápido y no tener

que trasladar siempre personal entre España y Portugal. Los tiempos no tienen nada que ver ahora mismo con lo que eran antes, una

producción con 5 ó 6 posiciones de cámara la podemos montar y dejar totalmente ajustada en una mañana para funcionar por la

tarde, algo en lo que antes tardábamos casi dos días. La tendencia en Portugal es que se está produciendo más que en España donde

parece que esto está un poco más parado. Solo Canal + y TV3 están en esa línea de producción 3D, y tampoco con demasiadas cosas.

En Portugal las dos plataformas están con bastantes materiales y quieren producir bastantes cosas, probablemente todavía es un

tema de marketing pero a partir de 2011 quieren tener en marcha un par de canales fijos.

¿Hay diferencias sustanciales entre cuando montáis para directos o para grabar?

A nosotros no nos influye demasiado, hacemos el montaje igual para una situación que para otra aunque en postproducción hay más

capacidad de corrección a posteriori, cambios de planos que no han funcionado, etc. Esa es la diferencia básicamente, si hay un

transición muy dura con grandes diferencias de convergencia donde una tiene mucha profundidad y otra poco por ejemplo se puede

arreglar, igual ocurre con un plano que moleste a los ojos. Esto en directo no puede cambiarse. La ventaja de grabar es que el

producto final siempre queda más limpio, cuando hemos hecho directos que hemos grabado para luego sacar un Blu-Ray o lo que

fuese, hemos grabado no sólo la realización, hemos grabado todo lo que hemos podido para dar luego un mejor producto. Con

ciertas correcciones de algunas cosas que no han salido mal, pero que no han quedado todo lo fino que se requería por algún ajuste

de convergencia. Pero todo nuestro montaje es igual. Grabamos en EVS todo el material, nos hemos dado cuenta de que es un

servidor que funciona muy bien para estereoscopía.

¿Algún formato en particular?

Depende de cómo se vaya a postproducir o qué vaya a ocurrir con el material a posteriori. EVS dispone de muchos formatos así que

según el cliente nos diga cómo va a querer el material, nos vamos a un formato o a otro. Pero está claro que hay que trabajar en

servidores, además es la única forma de poder dar repeticiones. Los fabricantes están muy atentos a nuestros feedback, EVS está

mejorando mucho el servidor y Grass Valley está mejorando los plugin de las cámaras, los mezcladores y las CCU. Queremos que se

mejoren, sobre todo los software de control de cámaras para poder hacerlo de 2 en 2, es un tema importante.

SERGI MAUDET – OVIDE

¿Cómo habéis visto la evolución tecnológica en el último año?

Los desarrollos que hemos vivido en el último año y en concreto en los últimos seis meses han sido bastante fuertes. En el tema de

rigs se han añadido muchos fabricantes, a nuestra manera de ver quizás demasiados. Esto lo digo porque ya hay muy buenos rigs en

el mercado y estos no vienen realmente a ofrecer mejoras notables, o son ligeramente mejores o ligeramente más baratos pero no

acabamos de ver muy clara la evolución en cuanto a rigs. Realmente son más de lo mismo e incluso hemos visto algún prototipo que

parece que vuelvas a lo que estaba haciendo dos años atrás. No tiene sentido que lo saquen si eso ya estaba superado. Sí que han

salido cosas muy interesantes para mejorar el uso de filtros por ejemplo, Element Technika ha sacado cosas muy interesantes, pero

aparecen muchas marcas desconocidas que realmente no aportan nada. También es cierto que hay pocas cosas que mejorar a nivel

de rig salvo en lo que son los espejos, pero claro son carísimos y estamos en ese punto tecnológico y de producción en el que

cualquier mejora por pequeña que sea supone un encarecimiento sustancial del producto. Los espejos para mejorarlos pueden

hacerse más delgados, pero eso además de más caros los hace más frágiles. Donde sí que hay mucha evolución es en el tema de

monitorado. Nosotros a principios de año solo podíamos tener pequeños monitores, que además eran carísimos, activos la mayor

parte ellos y con una tasa de refresco muy baja. O si no ya te ibas al JVC de 46 pulgadas que ha sido el estándar durante mucho

tiempo , pero claro en un rodaje pasar de 14 a 46 que era el primer monitor más o menos decente que podíamos ofrecer al cliente y

que podía usar el Director de Fotografía, era un salto bestial claro. Ahora por fin los fabricantes ya han sacado monitores de 24

pulgadas con gafas pasivas polarizadas, que está muy bien porque son baratas. En la situación actual mucha gente tiene que visionar

lo que se está haciendo en un rodaje y claro, hacerlo con gafas activas de más de 100 euros que encima pueden romperse o perderse

no era operativo. Y más en nuestro caso siendo una empresa de alquiler, decirle a un cliente que nos debe 600 euros en gafas

perdidas, no es algo que resulte agradable. Hemos ganado mucho también en proceso. Primero porque ya nos permiten los nuevos

monitores salvar el Stereo Brain, que antes resultaba muy caro y tenías que configurarlo además por lo que perdías tiempo. Así que es

una muy buena noticia que a nivel de procesadores esteroscópicos, estén empezando a salir muchos productos con el chip Sensio.

Queríamos trabajar con tecnología de Sensio y claro, ellos no te venden la tecnología directamente sino que te venden el chip y hay

que integrarlo. El problema es que la tecnología existía pero nadie nos la vendía así que había que trabajar mucho sobre prototipos, y

por fin ya salen productos para hacer, por ejemplo, recepción de satélite con ese chip integrado, conversores para integrar las señales

y multiplexarlas, etc. Muchas novedades en este sentido, Sony ha sacado un equipo muy interesante en esta línea. En lo que respecta

a software sí que está habiendo saltos a paso de gigante, la verdad es que todo el mundo se está tirando al carro del 3D porque tanto

en el mundo profesional como a nivel consumo, parece que hay dinero para gastar. Todavía se puede invertir dinero en software,

hasta hace prácticamente dos días si querías hacerlo barato la opción conocida por todo el mundo era irse a Final Cut con el Plugin

correspondiente, funcionaba pero tampoco era una maravilla. Ahora ha salido Vegas 10 que hace mucho trabajo a un precio

contenido, y creo sinceramente que es un buen avance. Y hablando de software de edición de nivel alto se han lanzado todos,

Quantel, Nucoda, etc. La verdad es que estamos en un punto en el que es muy interesante ver los avances que llegan en todos los

frentes. Vienen también muchas novedades desde las empresas que se dedican a hacer mandos de foco inalámbricos. Ya están

haciendo nuevas unidades o cambiando el firmware para que puedan trabajar en sincronizado. Todo se está facilitando muchísimo

porque antes el 3D era muy artesanal y además nadie le hacía caso, de forma que cada problema que aparecía se tenía que solucionar

como buenamente se podía, y ahora sin embargo todas las marcas están apostando por el 3D. Esto es bueno porque a la mínima que

les dices algo , ellos intentan echar una mano con lo que sea. Cámaras como la Panasonic compacta y la que en breve saca Sony

tienen sus limitaciones pero la verdad es que están muy bien de precio, y te pueden sacar de un apuro. Está bien para videos

corporativos o algo que vaya a terminar en televisión, como cámara de apoyo en producciones, etc. Por los codecs y las ópticas no

puedes ir a gran pantalla pero resuelve un problema del 3D que es el desembolso que hay que hacer para producir algo pequeño.

¿Por dónde van a evolucionar las cámaras?

Bueno, cámaras con dobles ópticas sería lo ideal pero el problema que nos encontramos ahí es la distancia interaxial. Tanto las

ópticas como el sensor tienen un tamaño mínimo que te lleva a interaxiales de 95mm como mínimo en montura PL, por lo que es

imposible ahora mismo una cámara así. En otras monturas hablamos de problemas similares. Estaría muy bien trabajar con cámaras

Page 19: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

4

que sean directamente 3D, pero a día de hoy sólo se puede con ópticas que se hayan fabricado específicamente para ese modelo, y

por lo general no sirven para trabajos de cierto nivel. No se puede reducir tanto el tamaño y pedir las mismas prestaciones y la misma

calidad aunque realmente sería lo ideal.

¿Cómo ha evolucionado el mercado?

Ha sido un gran boom desde luego, antes era una cosa anecdótica y este año ha sido el de la explosión del 3D sin ninguna duda.

Hemos producido una barbaridad desde finales del primer trimestre hasta ahora, han sido unos meses en los que hemos hecho

muchas producciones estereoscópicas. Ahora mismo estamos haciendo un corto en 3D y además bien hecho, que es algo que antes

era absolutamente impensable, se está rodando como si fuese un largo. Hemos hecho documentales, directos, largos, escenas de alta

velocidad, etc. Lo que pasa es que estamos con el pez que se muerde la cola, tenemos la suerte de Canal + y TV3 están haciendo

cosas, pero claro no hay más contenidos porque no se han vendido suficientes televisores y viceversa. Estamos en ese bucle, aunque

realmente se están vendiendo bastante bien los televisores en 3D, es un contenido Premium evidentemente para gente con un nivel

adquisitivo algo más elevado, pero se entiende que la gente que ya tiene Digital Plus y se ha comprado una televisión en 3D a precios

razonables empezará a demandar esos contenidos. No creo que vayamos a producirlo todo en estereoscópico, hay que ver qué es lo

que se hace. De momento se dice que sólo van a ser cosas espectaculares no una película dramática por ejemplo. Pero claro,

Scorsese está ahora rodando una película y cuando se estrene veremos si funciona o no, y si aporta cosas a nivel dramático. Yo soy de

la opinión de que no pero también me puedo equivocar. Mi percepción personal es que el 3D en las películas de animación es

obligatorio, también en las de acción o las épicas, pero no lo veo en las dramáticas. Entonces ocurre una cosa, rebobino un poco y

pienso en cuando apareció el cine sonoro o el cine en color, todo el mundo decía que no iba a funcionar.

JUAN PEDRO RODRÍGUEZ DE LA OSSA – VIDEOREPORT

¿Qué experiencia estereoscópica tiene Videoreport?

Llevamos tiempo con el 3D, de hecho hemos hecho cosas con anterioridad a estas últimas guerras. No tanto como hasta ahora y

desde luego que no eran rodajes a los que íbamos con una unidad estereoscópica multicámara. Ha sido realmente este año cuando

realmente todo se ha revolucionado y se ha despertado este interés. Desde Videoreport siempre hemos dado soporte a algunos

rodajes y documentales estereoscópicos, hemos ido con los rigs de hace años que eran muy simples y aparatosos. Claro, estas

experiencias han sido siempre muy trabajosas y artesanales, teníamos que dedicar muchos esfuerzos para sacar las producciones y

parir incluso algún invento. La diferencia respecto ahora, es que hay una industria alrededor de todo esto, y aunque las soluciones no

son todavía las más adecuadas o las que demandamos los profesionales, no tienen nada que ver con lo que había hace unos cuantos

años, era todo demasiado artesanal. La diferencia en estos últimos trabajos es que tenemos mucho más apoyo en cuanto al desarrollo

de estos elementos como pueden ser los rig, soluciones para servos, equipos adicionales, etc. El primer trabajo para Canal + en 3D

fue el concierto de Bunbury, que era un concierto en el que metimos pares estereoscópicos, dimensionadores 3D, todo tipo de

maquinas en definitiva. Y sobre todo filosofía de trabajo multicámara, por eso pasamos por una Unidad Móvil todos los elementos 3D

como rig, cámaras, servos, ópticas etc. Y aunque no era necesario porque se trataba de un producto grabado, quisimos emitirlo

también en directo a través de satélite para recibirlo en Sogecable a modo de pruebas, para ver lo que sería toda la cadena de trabajo

y poder sacar conclusiones de verdad. Pudimos comprobar todo, desde las cámaras hasta la entrega por enlace satelital en formato

side by side con la señal conformada para su emisión. Podemos hacer estas cosas porque por primera vez creo que hay una demanda,

quizás no tan creciente como pensábamos a primeros de año pero sí existe una demanda que va un poco por delante de la técnica,

no lo tenemos todo solucionado y mucho menos las empresas de servicio como nosotros que dependemos tanto de los avances

técnicos. De hecho hay una demanda de soluciones porque ciertas cosas no están todavía resueltas al 100%. Creo que se ha perdido

mucho el tiempo en el I+D de los rigs y no se ha puesto todo el énfasis necesario en la corrección electrónica, nadie se plantea hoy

una producción en directo sin una corrección electrónica detrás, que es la que va a permitir tomar decisiones mucho más rápido y

evaluar posibles errores que se están cometiendo. Nosotros en Grupo Vértice y a través de Apuntolapospo hemos desarrollado un

software de control y gestión de datos, Polyphemus, que nos permite aceptar errores que sabemos que en postproducción vamos a

poder corregir, y eso deriva en que puedas tener una producción mucho más ágil.

¿Cómo se puede optimizar el workflow?

Pues depende de para qué, hemos visto una gran diferencia en los tres proyectos que hemos hecho para Canal + y cada uno tiene sus

peculiaridades. Los conciertos de Bunbury y Alejandro Sanz son muy parecidos, aunque los hicimos con planteamientos de

producción diferentes por tener más experiencia. La gran diferencia radica en el montaje de cámaras, usaremos unas u otras

dependiendo de si va a gran pantalla o a televisión, si usas cabezas calientes o steadycam, esa es la diferencia. Pero hasta ahí el

workflow va a ser el mismo siempre.

¿Cómo estáis grabando?

En los dos conciertos que hemos grabado hemos usado 4 servidores EVS utilizando el códec DNxHD185 que es el máximo que

permite EVS con 4 canales, por ancho de banda podríamos llegar a grabar hasta 6 pero con este códec limitamos la capacidad del

servidor a 4 canales. Al usar los 4 servidores disponíamos de 16 canales de grabación. Íbamos codificando a medida que se salvaban

los clips y estos se agrupaban y transferían a un Xstore, donde ya se encapsulan en el formato que se quiera. Luego hay dos

opciones, salir desde el Xstore directamente a discos SATA externos, o enviar el equipo a postproducción donde se hace un espejo en

la SAN. Y nada más terminar, el material está listo para su edición sin transcodificaciones ni nada más. Es clave llevar las señales a la

Unidad Móvil aunque no vayas a hacer realización, para poder dejar bien ajustados los pares estereoscópicos y que todo funcione

bien. Pero hay una clara diferencia respecto a unos toros donde tenemos que emitir en directo, y donde ya interactúan las mezclas

con las cámaras adecuadas en la mesa de producción, donde se mezclan con las salidas de los servidores para hacer las repeticiones,

y donde tenemos que interactuar con rótulos, ahí es donde empieza a complicarse todo mucho. En la primera experiencia intentamos

mover todo en L y R, duplicando canales y esfuerzos en todas las máquinas, los rig nos obligan a hacer correcciones con la

consiguiente diferencia de colorimetría, luminosidad, etc. Todo eso hay que corregirlo para hacer el directo y ahí es donde una

empresa como la nuestra tiene esa necesidad de corrección electrónica que nos permita tener pares estéreo con control electrónico,

que se puedan hacer correcciones que no se hagan en el rig. Y pienso que es muy interesante que la dinámica de trabajo para una

televisión, donde el final es la pantalla, sea en el formato adecuado como un side by side por ejemplo, pero multiplexado de origen.

Que vaya multiplexado a la mesa de vídeo, que vaya multiplexado a los servidores, igual pasa con los rótulos. Así es como nosotros

empezamos a amortizar los medios de verdad, teniendo un trabajo lo más parecido posible a una producción 2D. Me refiero a

producciones en directo, para televisión hay que optimizar y esto pasa por poner unos rig donde podamos tener ciertos controles

Page 20: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

5

dinámicos, que se pueda hacer el ajuste interaxial y de convergencia de una forma inmediata en el control técnico, después efectuar

la corrección electrónica y multiplexar. A partir de ahí ya va cada par estereoscópico multiplexado en una única señal y el resto del

flujo de trabajo se hace exactamente igual que en 2D. Videoreport está trabajando ahora en el diseño de una Unidad Móvil

estereoscópica para hacer el servicio en 3D a empresas que ya tienen resuelto su trabajo en 2D, de forma que no seamos invasivos en

su forma de trabajo ni en sus medios. Queremos ser ese nexo de conexión, de forma que les resolvamos la producción

proponiéndoles un flujo de trabajo con los pares estéreo multiplexados donde ellos van a poder usar sus recursos.

¿Cómo creéis que va a ser la evolución de todo?

Nosotros pensamos que es una tendencia que se está despertando, algunos canales empiezan a tener contenidos y hay interés por

parte del público. Dicho esto es innegable que las producciones se resienten económicamente por todo el equipamiento que hay que

mover. Hay que hacer un esfuerzo y terminar de ofrecer un producto que pueda resolver bien la técnica, entonces será cuando la

producción se anime. Y el mercado en casa creo que está garantizado, el videojuego será el que introducirá los televisores 3D en casa

de forma masiva, creo que la penetración en las casa será antes por videojuego que por contenidos de broadcasters.

JOSE MARÍA ARAGONÉS – APUNTOLAPOSPO

¿El videoclip de Pastora fue vuestra primera experiencia?

Hemos trabajado en 3D antes de aquel videoclip pero es cierto que hasta entonces todo había ido más orientado a museos, o temas

relacionados con el mercado de la instalación y eventos en temas excepcionales. Cosas que por supuesto no son menos

espectaculares ni tienen menos interés estereoscópico, pero no se encuentran metidos dentro de ningún estándar como se está

trabajando ahora.

¿Qué particularidades hay que tener en cuanta con el 3D en postproducción?

Hay una cosa a tener muy en cuenta y es que se trabaja con el doble de media, y esto a la hora de gestionar el material es un peaje

muy grande. Si estás haciendo una película en la que cada ojo es a 4K, la correcta gestión del mismo cobra especial importancia. Algo

fundamental es que todavía faltan herramientas y experiencia para hacer ciertas cosas como puede ser a nivel de efectos, estamos

explorando y descubriendo esta nueva forma de producir con el día a día. La experiencia en 2D hace que, por ejemplo, sepas cómo va

a funcionar una composición pero en 3D la cosa cambia, no sabes realmente cómo va a funcionar hasta que no lo haces. Esto es

porque tenemos toda una educación iconográfica en 2D que sabemos interpretar, pero al aplicar la tercera dimensión hay cosas que

no funcionan como solían. Y también hay que tener en cuenta que aunque el rodaje estereoscópico ha mejorado mucho, sigue

habiendo muchos errores que hay que solucionar en postproducción, es un peaje que hasta ahora no existía.

¿Por eso desarrollasteis Polyphe-mus?

Efectivamente, necesitábamos un software que nos facilitara la solución de todos esos problemas en el momento del rodaje. Es

fundamental resolver todo lo que se pueda en la captación porque cuanto más ajustado venga todo de origen, mejor será la

postproducción a todos los niveles. Ese era el cometido de ese software, ajustar las imágenes nivel estereoscópico, geométrico, etc.

Ahora ya han salido otros equipos para esto pero en el momento en el que empezamos nos lo tuvimos que hacer nosotros mismos,

porque nos teníamos que enfrentar a rodajes de cierta envergadura en los que nada debía quedar al azar.

¿Hay que aprender otra vez ciertas labores como el etalonaje o la colorimetría?

Algunas cosas sí y otras no. El etalonaje lo hacemos como una película en 2D y es fácil equiparar un ojo al otro porque hay

herramientas para hacerlo de una forma bastante automática que funcionan muy bien. Donde todavía está todo por hacer sería a nivel

de color y a nivel de lenguaje, o para ser más exactos, a nivel de lenguaje dentro del color. Cuando uno se plantea una corrección de

color en 2D está bastante claro lo que hay que hacer según la emotividad que le quieras dar a la imagen, sabemos trabajar esa

intencionalidad que busca enriquecer el lenguaje audiovisual. Pero en 3D todavía se está jugando con esto, estamos empezando y

realmente no se han creado esos códigos. Pasa lo mismo con el ritmo de montaje, hay factores nuevos que el espectador tiene que

asimilar y eso lleva un tiempo. Probablemente hoy por hoy el montaje debería ser un poco más lento pero el lenguaje no es un

problema solo del que habla, también es un problema del que escucha. Y con esto hay que tener cuidado porque nos podemos llevar

alguna sorpresa. Cuando hicimos el videoclip de Pastora el montaje fue como el de un videoclip 2D al uso, es decir, bastante

trepidante. Y funcionó, no hubo quejas. Probablemente porque el target era gente joven que está más acostumbrada a ese ritmo de

imágenes y tienen una capacidad de adaptación y aprendizaje rápida. Hay que observar mucho estas cosas.

¿Qué opinión te merecen las emulaciones?

Directamente diré que no funcionan. Otra cosa es que pueda servir para solucionar un problema técnico de los que te pueden ocurrir

en un rodaje de forma puntual. Pero el planteamiento de que todas estas cámaras las uso en 2D y redimensiono después, no

funciona. Esto yo creo que ha sido una gripe que se ha pasado y no es la forma de trabajar. Si la imagen viene de síntesis las

posibilidades son más grandes, no volverá a ser exactamente igual pero nos podemos aproximar mucho dependiendo de la paciencia

que uno tenga a la hora de reconstruir esa imagen. Cuando redimensionamos imágenes reales se consigue cierto volumen, pero esos

volúmenes no son coherentes y cuando llevas un rato viéndolas el cerebro deja de procesarlas correctamente porque no entiende lo

que está viendo.

RAMON DOLTZ – KRONOMAV

¿Cómo empezó Kronomav con la estereoscopía?

Arrancamos realmente en 2008 con un proyecto que hicimos junto a Neoduction para hacer un sistema que permitiera hacer eventos

en 3D con sonido inmersivo. Previamente habíamos hecho en 2002 un documental que nos encargaron en 3D para el que hicimos el

desarrollo primitivo del sistema que usamos ahora, adaptamos una cámara y creamos un sistema de corrección digital. Eso es lo que

hemos desarrollado hasta obtener nuestro rig, que está robotizado para mantener los ajustes necesarios, y nuestro SIP (sistema

digital de procesado de imagen) encargado de corregir lo que el rig no puede. Esto se presentó en el IBC en septiembre del año

pasado y nos llevamos la gratísima sorpresa de que nuestro sistema fue elegido como uno de los 50 mejores productos de la feria.

Éramos pocos los fabricantes metidos en esto en 2009, este año han aparecido muchísimas marcas y desarrollos, la industria se ha

volcado. Entonces llegamos a un acuerdo con MediaLuso para implementar nuestros sistemas junto con una Unidad Móvil de ellos,

hemos hecho ya muchos eventos.

¿Cómo ha sido esa colaboración?

Ha sido muy importante porque la parte del desarrollo de nuestro sistema lo hemos podido hacer gracias a todas las experiencias que

hemos estado haciendo, cada semana o dos tenemos un evento y aplicamos los cambios oportunos de lo que hemos aprendido.

Page 21: Clipping OVIDE online febrero 2011

Dpto. comunicación: clipping febrero 2011

6

Estamos mejorando exponencialmente, de hecho lo que hemos desarrollado estos últimos meses no es ni un rig ni un SIP, es un

sistema total capaz de hacer un evento con una seguridad total. Eso es mucho más complejo que lo que son las máquinas como tal.

Hemos conseguido una comunicación a tiempo real de todos los parámetros del rig y del SIP, de forma que trabajan conjuntamente.

La mecánica del rig como tal parece que no tiene mucha más evolución, pero la convivencia con el SIP permite hacer muchísimas

cosas que eran impensables hasta ahora. Hemos implementado el trabajar con ópticas full servo, antes lo hacíamos con servos

externos para poder trabajar con cualquier óptica, pero esa mecánica genera imprecisiones por el propio acople. Tenemos un acuerdo

de colaboración con Canon para el desarrollo de productos y estamos empezando a hacer cosas con Fujinon también. El trabajar en

fulll servo permite atacar a los propios motores de las ópticas que además proporciona los datos internos de posición de zoom y

foco, el iris no lo usamos porque se ajusta a través de la CCU desde la Unidad Móvil. Estas ópticas no podíamos usarlas antes porque

cada una es de una forma diferente, hemos desarrollado un sistema de calibración controlado por el propio rig de forma que ambas

trabajan sincronizadas a la perfección. Después quedan ajustes de separación y convergencia que no dejan de ser dos

desplazamientos controlados por motores de muy alta precisión. Pero lo realmente importante para que se puedan hacer zooms y

focos perfectos, es el poder atacar directamente a las propias ópticas y poder hacer las tablas de calibración para cada una de ellas de

forma independiente. Esos metadatos se cruzan entre el rig y el SIP en tiempo real de forma que se analizan las imágenes para hacer

las correcciones necesarias ya sean digitales o mecánicas. Algo que no se puede solucionar en la óptica es que el eje óptico no es el

mismo cuando están a tope de zoom que cuando están en gran angular, de forma que las imágenes de cada cámara quedan

desplazadas. Como el SIP sabe en tiempo real la posición de zooms es capaz de corregir el eje óptico de las dos lentes y hace que

funcionen exactamente igual. Para eso hemos tenido que desarrollar los elementos de comunicación entre todos los sistemas que

están trabajando en un evento. Nuestro SIP trabaja sobre tarjetas Nvidia, tiene una capturadora con 4 entradas en HD, una tarjeta de

procesado gráfico muy potente y otra de sincronía para que todos los cálculos que hace la tarjeta gráfica sean coherentes. Eso

permite que cojamos dos entradas en Alta Definición, una para cada ojo, y en tiempo real efectuamos todos los cambios necesarios.

El ordenador se comunica con el rig y se alimenta con sus metadatos. Desde este equipo se maneja el rig y se pueden realizar

operaciones como la calibración de las ópticas, que es automática. Hace pequeñas modificaciones comprobando tamaños entre una

imagen y otra. Gracias a esto podemos trabajar con ópticas 44x por ejemplo sin problemas, y con gente operando las cámaras que no

sabe nada de estereoscopía, pueden trabajar igual que lo hacen en 2D.

¿Por dónde sigue la evolución?

La tendencia es clara, vamos a ir a sistemas con cámaras y ópticas especiales de forma que la estereoscopía se obtenga sin necesidad

de usar rigs. Creo que esto es algo que va a tardar porque hay muchas cosas que solucionar, y aunque algunos problemas son

complejos es verdad que hay muchos recursos de I+D puestos en ello.

De los eventos que habéis hecho, ¿Cuáles han quedado mejor?

Lo mejor ha sido un surf que hicimos. Quedó espectacular, y muy adecuado al 3D porque los planos de surf son agradecidos en el

sentido de que sigues mucho tiempo al surfista. No es una realización como el fútbol en la que estás pegando saltos entre cámaras

de forma rápida. Aquí tienes tiempo de recrearte en la imagen, con toda la profundidad del mar, de las olas, la espuma saltando, era

increíble. También hicimos unos Castellers para TV3 que quedaron francamente bien.