En El Limite Nro2

96

Transcript of En El Limite Nro2

Page 1: En El Limite Nro2
Page 2: En El Limite Nro2

Universidad Nacional de Lanús

Dra. Ana JaramilloRectora

Mg. Nerio NeirottiVicerrector

Prof. Héctor MuzzopappaDirector del Departamentode Humanidades y Artes

Comité EditorialDra. Mirta FabrisMg. Ana FarberProf. Héctor MuzzopappaDr. Daniel RodríguezDr. Oscar Tangelson

Page 3: En El Limite Nro2

en el límiteescritos sobre arte y tecnología

Interacción

Coleccion Humanidades y ArtesEdiciones de la UNLa.

Page 4: En El Limite Nro2

CompiladorRaúl Minsburg

AutoresFabián BeltraminoRajmil FischmanJorge Sad LeviPetra BachratáRicardo Dal FarraMatías Romero CostasSergi JordáJulio D’ Escriván

Colección Humanidades y ArtesEdiciones de la UNLa.

En el límite nro.2Compilado por Raùl Minsburg. - 1a ed. -Remedios de Escalada : De la UNLa - Universidad Nacional de Lanús, 2011.

Centro de Estudios en Producción Sonora y Audiovisual

Page 5: En El Limite Nro2

en el limite | 5

Introducción

Los autores

Para una crítica de la originalidad del arte interactivoFabián Beltramino

Otras interaccionesRajmil Fischman

Escucha acusmática e interacción musicalJorge Sad Levi

Interacción gestual en la música para instrumentos y sonidos electroacústicosPetra Bachratá

Interacciones Electro[±]AcústicasRicardo Dal Farra

Las interfaces en el arte digital interactivoMatías Romero Costas

El reactable, interacción tangible, instrumentos“multiproceso” y música “móvil”Sergi Jordá

Anotaciones sobre Interactividad entre las artes del sonido y la performance audiovisual, partiendo del ‘Live Cinema’Julio d’Escriván

07

09

11

16

28

36

54

66

75

89

índice

en el límite. escritos sobre arte y tecnologíaInteracción

Page 6: En El Limite Nro2

DiseñoDirección de Diseño y Comunicación Visual, UNLa.

DiagramaciónKaterina Kolosova

ISSN 2250-6136

Impreso en ArgentinaQueda hecho el depósito que marca la Ley 11.723

La fotocopia mata al libro y es un delito.

© El autor/a.© Ediciones de la UNLa.29 de setiembre 39011826 Remedios de Escalada, Partido de Lanús,Provincia de Buenos Aires, ArgentinaTel. 54 11 6322 9200 [email protected]/public/enellímite/index.php

Escritos sobre arte y tecnología

Publicación 2011. Interacción

Page 7: En El Limite Nro2

en el limite | 7

El volumen que presentamos a continuación es el segundo de esta publicación que hemos llamado “En el límite – Escritos sobre Arte y Tecnología” manteniendo las mismas características que el primero: tener un tema monográfico, enfocado desde distintos puntos de vista de acuerdo a cada especialista convocado, ofrecer una edición en papel y otra electrónica y traducir artículos de otros idiomas, en el caso de trabajos que lo ameriten, con el fin de ampliar la bibliografía en lengua castellana sobre los temas de nuestra área.

El tema del presente número es el de la “Interacción” que es una palabra, una expresión, un hecho, un concepto que está en boca de todos en los últimos años, muy especialmente entre quienes nos dedicamos a ese fascinante mundo del arte y su entrecruzamiento con la tecnología. Es por eso que hemos encarado el presente volumen, no sólo con la idea de discutir tendencias recientes en el arte interactivo, sino con la idea de ampliar y reconsiderar la idea misma de interactividad en el arte.

Comenzamos esta edición con el trabajo de Fabián Beltramino cuyo título no deja dudas acerca de la intención de polemizar del autor: Para una crítica de la originalidad del arte interactivo. Es así que Beltramino se pregunta si ha habido en la historia del arte una práctica no-interactiva o, si puede sostenerse que la interactividad en el arte es un fenómeno propio y exclusivo de los siglos XX y XXI. El autor da claros ejemplos tomados de distintos momentos de la historia del arte que responden claramente su pregunta.

Seguidamente Rajmil Fischman analiza la interacción más allá de la relación hombre – tecnología, partiendo de la necesaria interacción entre sonidos, por medio de la cual escuchamos música, hasta llegar a la interacción del creador con su tiempo. Por su parte Jorge Sad indaga acerca de que tipo de interacción surge a partir de la música acusmática, especialmente a nivel gestual, considerando la ausencia de aspectos visuales en este tipo de expresión. Petra Bachratá también investiga la interacción que se produce a nivel gestual, pero entre los sonidos electrónicos y los instrumentales, combinación sonora que dio lugar a la llamada “música mixta”, sin duda un terreno fértil y estimulante para la imaginación de muchos compositores.

Ricardo Dal Farra nos habla de sus propias experiencias con la interacción musical utilizando tecnología, a comienzos de la década del ochenta, lo cual sin duda posee un valor histórico muy importante, dado el escaso hábito de registrar nuestra propia historia cultural y artística. Me atrevería a decir que esto no es sólo un problema argentino, sino también latinoamericano. Matías Romero Costas nos brinda un panorama actual hablando de obras enmarcadas en lo que se conoce como entornos de Realidad Aumentada, considerando la relación entre el artista, la obra y la participación del público y que papel juegan las interfaces siendo el medio que articula dicha participación.

Desde otra perspectiva, Sergi Jordá nos habla de su creación reconocida internacionalmente, el reactable, describiendo particularmente cual es la diferencia, por definición y requerimiento, con los instrumentos tradicionales, analizando, entre otras cosas, cuales son las consecuencias de este tipo de instrumentos y dispositivos en el consumo y la producción de música. Por ultimo, Julio D´Escriván analiza el Live Cinema, la generación de un discurso audiovisual en tiempo real, y la problemática que este tipo de práctica plantea en su interacción con la música, con el arte sonoro.

Introducción

Page 8: En El Limite Nro2

8 | en el limite

Es nuestro deseo que esta nueva publicación del CEPSA, siga despertando interés en los lectores de habla castellana y de lugar a un rico intercambio entre investigadores y artistas a nivel local, regional e internacional, con la idea puesta en impulsar el intercambio multidisciplinar así como a establecer sólidos lazos con instituciones e individuos que compartan los mismos intereses.

Raúl Minsburg (CEPSA) Agosto 2011

Page 9: En El Limite Nro2

en el limite | 9

Fabián Beltramino (Buenos Aires, Argentina, 1970) Magíster en Análisis del Discurso y Licenciado en Artes de la Facultad de Filosofía y Letras de la Universidad de Buenos Aires. Docente-Investigador del Departamento de Humanidades y Artes de la Universidad Nacional de Lanús.

Rajmil Fischan (Lima, Peru, 1956) Realizó estudios musicales en el Conservatorio Nacional de Música, en Lima, en la Academi Rubin de la Universidad de Tel Aviv, Israel y en la Universidad de York, Gran Bretaña, donde obtuvo su doctorado en 1991. Es Profesor de Composición en la Universidad de Keele desde 1988, donde estableció el programa de Maestría en Tecnología Musical Digital y el laboratorio de Música por computadora. Fue director artístico y director de orquesta principal de la Sociedad Filarmónica de Keele (1990-1995), director de música en la Universidad (1998-2000) y director del programa de Tecnología Musical (2001-4). Se unió al Composers’ Desktop Project (CDP), siendo nombrado uno de los directores de este proyecto en 1988. Es miembro de la Red de Arte Sonoro Latinoamericano (RedASLA), del Círculo de Compositores Peruanos (Circomper) y de Sound and Music en el Reino Unido. Se dedica a la composición de música instrumental y electroacústica, a la investigación de la teoría de música electroacústica y al desarrollo de software musical. Sus composiciones son interpretadas y transmitidas internacionalmente.

Jorge Sad Levi (Buenos Aires,1959) Compositor, investigador y docente. Su producción está compuesta por obras instrumentales, acusmáticas, mixtas y multimediales que han recibido numerosas performances en festivales y conciertos en América, Europa y Asia. Segundo Premio en el concurso internacional de composicion Xicoatl, Salzburgo , Austria, 2009 y Premio Ciudad de Buenos Aires. Ha dictado cursos de Semiología Musical a nivel de Posgrado en la Facultad de Filosofía y Letras de la UBA y en el Departamento de Crítica de Artes del IUNA.

Petra Bachratá Compositora, investigadora y neuróloga. Su reciente investigación desarrollada en la Universidad de Aveiro - en INET-MD (Instituto de Etnomusicología - Centro de Estudos em Música e Dança) y en UniMem (Unidade de Investigação em Música e Musicología), se centra en el establecimiento de modelos analíticos y composicionales de la interacción en la música para instrumentos y sonidos electroacústicos. Su música, que incluye obras instrumentales, acusmáticas y mixtas, ha sido presentada en conciertos y festivales alrededor del mundo. Ha obtenido numerosos premios (1º premio en Musica Nova, finalista de concurso en Bourges, Pierre Schaeffer y Confluencias, Premio Ján Levoslav Bella, 2 º premio en concurso orquestral de Póvoa de Varzim, etc.). Muchas de sus obras han sido editadas en discos por diversos sellos europeos (Spectral Records, Numérica, honedition, Slovart Music, Hevhetia, Ekolio, etc.)

Ricardo Dal Farra Profesor en el Departamento de Música de Concordia University, Canadá y Director del Centro de Experimentación e Investigación en Artes Electrónicas de la Universidad Nacional de Tres de Febrero, Argentina. Ha sido consultor de la UNESCO, Francia, el Ministerio de Educación de Argentina, y el consorcio interuniversitario de arte y nuevas tecnologías Hexagram, en Canadá. Sus obras de música electroacústica han sido escuchadas en más de 40 países y grabadas en 20 ediciones internacionales. Creó el Archivo de Música Electroacústica de Compositores Latinoamericanos en The Daniel Langlois Foundation.

Matías Romero Costas (Quilmes, Argentina 1976) Compositor, artista multimedia, docente e investigador. Licenciado en Composición, Profesor en Producción Multimedial, diplomado en la UNLP. Trabaja como docente de grado, postgrado e investigador en la UNLP, el I.U.N.A., la ENERC (INCAA), la UnTref, y la UBA. Forma parte del grupo Proyecto Biopus con el que ha presentado obras de net-art, video arte, performances e instalaciones interactivas. Sus obras han sido presentadas en Argentina y el exterior. Es Asistente en el Medialab del Centro Cultural de España en Buenos Aires (CCEBA). Ha recibido premios nacionales e internacionales, como el Gran Premio A Las Nuevas Tecnologías MAMBA/ Telefónica de Arte y Tecnología 2006, y una Mención Honorífica en el Concurso Internacional sobre Arte y Vida Artificial – Vida de España en 2006 y 2008. www.matiasrc.com.ar / www.biopus.com.ar

Los autores

Page 10: En El Limite Nro2

10 | en el limite

Sergi Jordà (1961) Licenciado en Física Fundamental y doctor en Ciencias de la Computación y Comunicación Digital. Investigador en el Grupo de Tecnología Musical de la Universitat Pompeu Fabra de Barcelona, y profesor agregado en la misma universidad, donde imparte cursos de grado y postgrado relacionados con el audio y la música digitales, la interacción persona ordenador (HCI) y el “media art”. Ha escrito artículos y libros e impartido conferencias y talleres en Europa, Asia y América, tratando de entrelazar HCI, música y las artes digitales interactivas. Ha recibido varios premios internacionales, como el prestigioso Ars Electronica Golden Nica (2008).

Julio d’Escriván (1960) Compositor y creativo de la tecnología que ha trabajado intensamente en música para publicidades, TV y cine. Su reciente trabajo incluye el “Cambridge Introduction book to Music Technology” que se publicará en Octubre 2011 por la Cambridge University Press. Es coeditor de la Cambridge Companion to Electronic Music y coautor del capítulo “Componiendo con SuperCollider” perteneciente a The SuperCollider Book recientemente publicado por la MIT Press. Ganó diversos premios por su música para concierto y para cine. Ha sido dos veces ganador en la Bourges International Electroacoustic Music Competition, Francia, en 1987 y 1989. Su música electroacústica ha sido internacionalmente programada. En este momento, d’Escriván es Profesor Asociado en Creative Music Technology en la Universidad Anglia Ruskin,de Cambridge, Reino Unido.

Page 11: En El Limite Nro2

en el limite | 11

Para una crítica de la originalidaddel arte interactivo

Fabián Beltramino Universidad Nacional de Lanú[email protected]

El concepto actual de interacción en el arte tiene que ver, en su acontecer más frecuente, con un discurso que se propone como construido en conjunto y en simultáneo entre el artista y el público, alejado definitivamente éste de su tradicional rol de espectador, y la interacción propuesta se basa, por lo general, en el uso y aprovechamiento de tecnologías electrónicas e informáticas aplicadas a la realización de las obras. El arte interactivo aparece, así, como una de las manifestaciones más innovadoras del arte contemporáneo. Pero cabe preguntarse: ¿fue el arte europeo-occidental, en algún momento de sus ya largos quince siglos de historia –aceptando que la cultura a la que pertenecemos nace a partir de la caída del Imperio Romano de Occidente hacia fines del siglo V– una práctica no-interactiva? ¿Puede sostenerse seriamente la idea de que la interactividad en el arte es un fenómeno propio de los siglos XX y XXI?

Lo que sigue es un intento por fundamentar la respuesta negativa a dichas preguntas, caracterizando en cada caso, esto es, en cada uno de los períodos en los que suele dividirse la historia del arte europeo-occidental hasta el siglo veinte (Edad Media, Renacimiento, Barroco, Neoclasicismo y Romanticismo) la modalidad concreta de la interactividad que se da entre el autor, la obra y el público.

Interactividad medieval En primer término cabe afirmar que, en la Edad Media, por lo menos hasta el siglo XI, el arte todavía no era eso que a partir de la Modernidad entendemos por arte, es decir, una esfera de actividad particular, relativamente autónoma. Si bien existió y fue utilizado ampliamente el término latino ars, su significado tenía más que ver con el vocablo griego techné, al cual venía a reemplazar, que con la noción de arte. Como afirma Umberto Eco1, el ars, en tanto techné, no era otra cosa que un procedimiento técnico cuyo objetivo consistía en concretar de la mejor manera la realización de una obra, que podía ser tanto un mural para una capilla como una copa o una espada. Se trataba, así, de un hacer artístico aun no connotado de genialidad y, en tanto indistinguible respecto de la artesanía, casi absolutamente anónimo.

Ahora, ¿qué sucedía en el plano de la recepción de este arte? Se trataba, también, de una recepción “funcional”, es decir, interesada en grado sumo en cumplir, a través de lo estético, tareas extra-estéticas. El receptor de la obra de arte medieval no era, todavía, un espectador; era alguien que interactuaba con la obra no con relación al objeto mismo sino respecto de aquello que lo trascendía, excediéndolo. La obra de arte medieval enseñaba, elevaba espiritualmente y, de alguna manera, acercaba al hombre a Dios. Y para ello exigía una contemplación adorativa, no de la obra, sino de lo que la obra simbolizaba.

Como sabemos hoy desde la semiótica y la hermenéutica, no hay posibilidad de salto de una lectura literal a una lectura metafórica o simbolista sin la participación del lector. Como afirma Paul Ricoeur2, la metáfora es un fenómeno de creación puramente receptivo. Hay metáfora, símbolo, sentido aludido, si hay un lector-observador-oyente que lee-observa-oye metafóricamente. Es decir, si hay un receptor activo. Es por eso que el arte medieval, fundamentalmente aquel que corresponde a los primeros siglos del período, el del estilo Románico, es pionero en el establecimiento de una relación interactiva entre el público y la obra.

Ya a partir del estilo Gótico, alrededor del siglo XII, las cosas empezaron a funcionar de otra manera. En el contexto del debilitamiento del sistema feudal, el surgimiento de la burguesía, el renacimiento de las ciudades, el comercio y la producción de bienes agrícolas y manufacturas en escala ascendente, la relación con las obras de arte fue virando desde una dimensión casi mística, basada en el carácter simbolista de los objetos propuestos, hacia una tónica cada vez más materialista, que se alejaba progresivamente del ideal monástico de rechazo de cualquier clase de “corporalidad”. En sintonía con la mentalidad burguesa en ciernes que, como señala José Luis Romero3, se encuentra por definición mucho más apegada a la terrenalidad que a la espiritualidad divina, se produjo, en primer lugar, el impulso a un arte no-religioso y, de forma correlativa, una nueva modalidad de

Page 12: En El Limite Nro2

12 | en el limite

relación con las obras que, por un lado, fueron tratadas más literalmente como objetos –es el momento en el que el comercio de arte se desarrolla a la par del comercio en general– pero, al mismo tiempo, más valoradas y exigidas en sus aspectos técnicos. Este es el punto en el que puede marcarse el inicio del interés y la valoración positiva que, en nuestra cultura, adquiere la complejidad, directamente atada al progreso técnico/tecnológico. Tanto el naturalismo, en la pintura, que hace que las imágenes busquen cada vez más dinamismo, movilidad y rasgos cada vez más reales, como la polifonía, en la música, que implica el salto desde la sacralidad del texto a la valoración de cualidades puramente musicales, son ejemplos, en el arte Gótico, de una propuesta de relación diferente entre el público y las obras. Si el simbolismo era casi plenamente un efecto de lectura, el naturalismo lo es en mayor grado ya que lo real evocado por el enunciador está determinado, en gran medida, por la imagen del mundo que éste presupone en el destinatario de su discurso. Por otro lado, la complejidad técnica de la polifonía también depende del universo sonoro del oyente en su intención de ser percibida de la manera más completa posible. No es casual que sea ésta una época en la que proliferan tratados y sistemas de enseñanza de un arte considerado, hasta ese momento, sagrado.

Así, la interactividad, durante el Gótico, pasó de lo connotativo a lo denotativo, convirtiéndose claramente en una cuestión de código, en

un intento de estabilización de un terreno de comunicación que, en el caso de la pintura se concretaría en el Renacimiento, con el desarrollo de la perspectiva tridimensional, y en el caso de la música en el Barroco, con el establecimiento del sistema tonal.

Interactividad renacentista El Renacimiento, como afirma Arnold Hauser4, entre otros autores, no representa, respecto del período anterior, tanto una ruptura, un salto y un corte tajante como el punto de llegada de un proceso de relativa larga data. Este proceso, como ya se dijo, es el del desarrollo de un sistema de representación visual que funciona como representación fiel y natural del mundo real. Así, la perspectiva llega a su punto gracias a la incorporación, por parte de la pintura, de los conocimientos más recientes en la época acerca de geometría y de óptica.

La perspectiva, en tanto construcción artificial que funciona como representación natural, resulta efectiva, sobre todo, debido a la ilusión de unidad que crea no sólo al interior del cuadro, entre los distintos planos de la representación (lo más cercano y lo más lejano), sino sobre todo entre la representación y el espectador que, para que la ilusión visual funcione, debe sentirse parte de la imagen ubicándose en el punto que la propia representación prevé para el desencadenamiento de tal efecto. Como afirma Erwin Panofsky5, el espacio que la perspectiva propone es un “espacio sistemático” en el que se integran el punto de fuga y el punto de vista,

dando lugar a la impresión de continuidad entre los espacios de la representación y del espectador. Vemos, así, una propuesta de interactividad radical en la cual el complejísimo dispositivo de producción se completa y funciona si el espectador participa activamente en él. La ilusión perspectivista y el efecto de continuidad son, como se desprende de los propios términos, resultado de operatorias que se desencadenan en el accionar del receptor, que no existen de manera autosuficiente en la obra.

Por otro lado, y en el contexto del humanismo que surge a partir del siglo XV, el público del arte renacentista es un público competente y activo, tanto en lo que hace a los aspectos formales, técnicos, de confección de las obras –factor que lleva al progresivo reconocimiento de ciertos artistas por sobre otros y desde ahí a la noción de “genio” –, como al contenido histórico o mitológico de las mismas.

Interactividad barroca Si bien el Barroco no es tanto un estilo homogéneo como una denominación peyorativa acuñada desde la estética neoclásica, si bien es cierto también que no tiene una duración específica ni un acontecer similar en cada una de las regiones en las que se manifiesta, sí está claro que, respecto del Renacimiento, tanto el Manierismo como el Barroco representan la ruptura de la homogeneidad, de ese sistema de representación unificado y orgánico.

Page 13: En El Limite Nro2

en el limite | 13

En el Barroco se rompe, sobre todo, la unidad que la perspectiva renacentista establecía entre los espacios de la representación y del espectador. Así, como afirma Hauser6, la representación se “desentiende” del espectador, planteándole el desafío de ir en busca de lo que hay que ver, priorizando los ocultamientos antes que las mostraciones, introduciendo un elemento de “confusión” que intenta alejarse de la claridad y la perfección del modelo anterior.

Si el espectador renacentista tenía ante sí la imagen acabada y realizada en función de su propia presencia, el espectador del Barroco de, por ejemplo, Caravaggio, debe convertirse, casi necesariamente, en un detective, en un espía. Y si además consideramos la dimensión expresiva del Barroco, su intención efectista, vemos como el sentido de esta intención demanda, indefectiblemente, un espectador activo y dinámico, inquieto, alguien en permanente búsqueda y movimiento.

En el caso de la música, la intención de expresar las emociones o ideas que constituyen la base simbólica de la composición mediante figuras reconocibles o identificables estabilizadas a través de la “teoría de los afectos”7 no constituye sino otra evidencia de que la obra depende de que el oyente maneje el código y lo ponga a pleno funcionamiento en el momento de la escucha.

Interactividad neoclásica Con la estética neoclásica ocurre algo bastante parecido a lo que sucede con la

renacentista. El énfasis de apreciación suele estar puesto en la instancia de producción y en su búsqueda de perfección formal, cuando en realidad se trata apenas de un artificio, de un dispositivo que se concreta y que depende casi plenamente de la instancia receptiva. Es el espectador el que otorga la cualidad de “natural” a una configuración basada en el cálculo y la racionalidad extremos. Y este es precisamente el conflicto central de este momento inicial de la modernidad: el problema de la convención y de la relación entre el individuo y lo social, entendido esto último como lo colectivo y también como el imperio de la ley y las reglas objetivas.

De aquí surge la ambivalencia fundamental de la estética neoclásica: la alternancia entre la belleza más perfecta que sustenta una fe ilimitada en el futuro, basada en la fe en la razón y el conocimiento que de ella deriva, y la ruina, que evidencia el límite inevitable de la existencia individual.

Así, el individuo de esta época vive y corporiza la relación tensa que se establece entre el imperio de la libertad subjetiva y la sujeción a reglas convencionalizadas. Y no hay mejor ejemplo de la puesta en obra de esta situación por el arte de esta época que la consolidación de la forma sonata en la música. Si Charles Rosen afirma que la sonata, más que un esquema formal es una forma de componer8, puede afirmarse que, también y sobre todo, es una forma de oír y de experimentar por

parte del oyente, el conflicto aludido a través del devenir de la relación entre los temas y las relaciones de dominante y tónica.

Podríamos decir, la estructura dramático-narrativa de la sonata, en tanto fábula con final feliz moralizante (la victoria de la ley frente a los desafíos de la ley, del orden inicial a pesar de los desvíos y los devenires intermedios), sólo se concreta en tanto exista la posibilidad, en el oyente, de efectuar el salto desde la materialidad de lo que suena hacia el simbolismo que la forma, a través de su esquema, propone.

Interactividad romántica El romanticismo implica el pasaje de las formas objetivas a la independencia subjetiva, la entrada del irracionalismo en el contexto de un racionalismo casi religioso, el renacer de la poesía y la mitología, la revalorización del pasado, de la historia, y el impulso a los motivos poéticos y pictóricos prácticamente olvidados: la noche, lo oscuro, lo misterioso, lo recóndito, lo ambiguo.

El lenguaje romántico no se plantea como un lenguaje poético cuya incumbencia termina en los límites del propio terreno de lo artístico. Consiste, como afirma Casullo, en una vía de conocimiento basada en lo sensible y lo imaginario que plantea, por definición, una crítica al lenguaje concebido como mero instrumento de conocimiento científico-técnico9.

Page 14: En El Limite Nro2

14 | en el limite

Así, el arte y lo estético son, por ejemplo para Schiller10, los únicos caminos a través de los cuales los hombres pueden acceder a una auténtica experiencia de libertad, a través de la cual pueden recuperar, de alguna manera, la “integridad” humana perdida a lo largo del camino de la civilización tecnificante. Lo mismo podría afirmarse desde la estética kantiana, para la cual ni la belleza ni, mucho menos, la sublimidad dependen de la obra tanto como de las capacidades, predisposiciones y actitudes del sujeto que entra en contacto con ella11. La obra, entonces, no es el lugar de la perfección ni la residencia de la verdad sino el disparador de un proceso que se cumple en el sujeto que la experimenta. Se podría decir, la obra propone y el hombre dispone de ella según sus necesidades y sus impulsos.

Esta concepción activa del espectador e inter-activa del arte romántico se vuelve explicita en la polémica entre Nietzsche y Wagner12. El segundo, justamente, representa, según el primero, un arte que “dice”, que “expresa”, que vehiculiza sentidos previamente codificados. En cambio Nietzsche propone un arte vivo, activo, “salvaje” para el contexto en el que estos términos se enuncian, captando plenamente la propuesta del movimiento romántico en el que, entonces, el sentido no es algo a recibir sino a construir, y a destruir para volver a construirlo, y así hasta el infinito.

El siglo XX: la interactividad explicitada Finalmente, en el siglo veinte sí se da, a partir de la ruptura de la relación espectador-obra propuesta por las vanguardias, y gracias a la aplicación de los desarrollos de la tecnología y la informática a las realizaciones artísticas, una modalidad explícita de la interactividad. Las obras se presentan como, a priori, inacabadas, apenas como bocetos o posibilidades múltiples que la intervención concreta de un público concreto en espacios y circunstancias concretos redondeará en una forma terminada13.

Lo más novedoso de esta instancia es que, por primera vez, la producción misma del objeto artístico es delegada, en lo que constituye una fuerte renuncia por parte del artista al rol que la estética idealista burguesa le ha asignado desde, por lo menos, el siglo XVIII.

Sin embargo, como he intentado mostrar, presentar el concepto de “arte interactivo” como una novedad absoluta del arte contemporáneo significaría no reconocer la actividad e inter-actividad que el público viene desarrollando con relación a las obras desde los primeros siglos de esto que, en un sentido no poco benevolente, podemos llamar nuestra “civilización” occidental.

Page 15: En El Limite Nro2

en el limite | 15

Bibliografía

Casullo, Nicolás: “El romanticismo y la crítica de las Ideas”, en Itinerarios de la Modernidad, de Nicolás Casullo, Ricardo Forster y Alejandro Kauffman, Buenos Aires: Eudeba, 1999

Eco, Umberto: Arte y belleza en la estética medieval, Barcelona: Lumen, 1997

Fubini, Enrico: Estética de la música, Madrid: Visor, 2001 Hauser, Arnold: Historia social de la literatura y el arte, Vol. 1, Madrid: Debate, 2006

Kant, Immanuel: Crítica del juicio seguida de las observaciones sobre el asentimiento de lo bello y lo sublime, Madrid: F. Barni, 1876

Nietzsche, Friedrich: “El caso Wagner” en Ecce homo, Buenos Aires: Lancelot, 2011

Panofsky, Erwin: La perspectiva como forma simbólica, Barcelona: Tusquets, 1999

Ricoeur, Paul: La metáfora viva, Madrid: Trotta, 2001

Romero, José Luis: Estudio de la mentalidad burguesa, Madrid: Alianza, 1993

Rosen, Charles: El estilo clásico. Haydn, Mozart, Beethoven, Madrid: Alianza Música, 2000

Schiller, Friedrich: Kallias: cartas sobre la educación estética del hombre, Barcelona: Athropos, 1990

Referencias 1 Eco, Umberto: Arte y belleza en la estética medieval, Barcelona: Lumen, 1997

2 Ricoeur, Paul: La metáfora viva, Madrid: Trotta, 2001

3 Romero, José Luis: Estudio de la mentalidad burguesa, Madrid: Alianza, 1993

4 Hauser, Arnold: Historia social de la literatura y el arte, Vol. 1, Madrid: Debate, 2006

5 Panofsky, Erwin: La perspectiva como forma simbólica, Barcelona: Tusquets, 1999

6 Hauser, Arnold, Op. Cit.

7 Fubini, Enrico: Estética de la música, Madrid: Visor, 2001

8 Rosen, Charles: El estilo clásico. Haydn, Mozart, Beethoven, Madrid: Alianza Música, 2000

9 Casullo, Nicolás: “El romanticismo y la crítica de las Ideas”, en Itinerarios de la Modernidad, de Nicolás Casullo, Ricardo Forster y Alejandro Kauffman, Buenos Aires: Eudeba, 1999

10 Schiller, Friedrich: Kallias: cartas sobre la educación estética del hombre, Barcelona: Athropos, 1990

11 Kant, Immanuel: Crítica del juicio seguida de las observaciones sobre el asentimiento de lo bello y lo sublime, Madrid: F. Barni, 1876

12 Nietzsche, Friedrich: “El caso Wagner” en Ecce homo, Buenos Aires: Lancelot, 2011

13 La especificidad de la interactividad en el arte contemporáneo es abordada y desarrollada con mayor detalle en otros artículos de este mismo número.

Page 16: En El Limite Nro2

16 | en el limite

Otras Interacciones

Rajmil Fischman Music Department, School of HumanitiesKeele University [email protected]

Cuando hablamos de interacción en el contexto de la música que utiliza tecnología digital, es muy común referirnos a las relaciones entre el ser humano y la máquina en la realización de la obra musical. Esta asociación entre el concepto de interacción y el rol activo de la computadora es un reflejo casi inconsciente y ciertamente natural en una era de cambios dramáticos efectuados por la tecnología tanto en la música como en nuestras experiencias cotidianas; cambios que dirigen nuestra atención a las funciones que esta tecnología ha heredado de actividades que antaño eran exclusivamente humanas. No obstante, las funciones que ejerce la tecnología no vienen a suplantar a la humanidad, sino más bien la complementan y ocurren dentro del contexto cultural, social e histórico característico de toda actividad. Es por eso que precisamente cuando el enfoque en la interactividad entre el ser humano y el computador ha adquirido tal relieve e importancia, vale la pena dar un paso atrás para poder abarcar con la mirada el contexto general dentro del cual ésta puede ser situada, y descubrir otras interacciones cuya importancia en la creación musical es tan válida hoy como ayer.

Nuestra trayectoria empezará con la interacción más primordial, sin la cual no podría haber música, es decir, la interacción entre sonidos. Luego expandiremos la

discusión más allá del material sonoro para incluir otros medios. A continuación nos ocuparemos de la interacción entre el oyente y los materiales musicales y de allí procederemos a la interacción entre ejecutantes, incluyendo intérpretes humanos y tecnológicos. Por último abordaremos la cuestión de la interacción del creador musical con su época y cultura, incluyendo los efectos de la globalización.

Interacción del Material Sonoro Al hablar de interacción (o cualquier otro aspecto) musical es obvio que diferenciamos entre algo que llamamos “música” y lo demás. Nattiez (1990) ha discutido extensamente este fenómeno, su relatividad social, cultural e histórica, y hasta su mera existencia en culturas que no tienen un concepto equivalente a “música”1. En el contexto de este artículo bastará decir que identificamos la música como una articulación del tiempo realizada usualmente por medio de la organización del sonido2: ‘un hecho sonoro de cualquier tipo es reconocido como música … cuando asociamos interpretantes3

incluidos en el concepto de “música” o “lo musical” con aquel hecho sonoro’4 (Nattiez, 1990: 42). Es más, la diferenciación entre lo musical y lo no musical forma parte de un contrato comunicativo5 entre músicos y público en el que ‘cuando dos partidos establecen comunicación, estos obedecen inconscientemente una serie de reglas’6(Shave, 2008: 43). Pero la organización temporal de sonidos depende de la relación entre éstos, que resulta de sus características físicas, su evolución y el momento en que aparecen. Por ejemplo, si escuchamos un sonido corto de ataque prominente (ej. una nota de xilofón) sincronizado

con el comienzo de un sonido largo y tenue (ej. la misma nota tocada en un vibráfono con arco de violín, una sinusoide sintetizada, etc.) consideraríamos el resultado como un ataque con resonancia. El resultado no sería igual si el sonido largo apareciera antes que el sonido corto, en cuyo caso consideraríamos el primero como un sonido independiente, tal vez una textura, y el segundo como un acento, o quizá una interrupción. Es así que mientras que en un caso los interpretantes que atribuimos a los sonidos son “ataque” y “resonancia”, en el segundo caso son “textura” y “acento” (o “interrupción”). Es más, los interpretantes dependen de la manera como estos sonidos se relacionan entre sí: en otras palabras, de su interacción. Podemos ilustrar esto con otro ejemplo: imaginemos un sonido sin altura definida que comienza muy suavemente y crece en volumen e intensidad hasta llegar a un clímax, seguido inmediatamente por la grabación de un derrumbe. En este caso podemos establecer una relación de causa y consecuencia gracias al perfil energético: el primer sonido acumula energía y el segundo la disipa. Nuevamente, la interacción entre estos dos sonidos determina su significado y la identificación de su organización temporal. Por último, la interacción no solo ocurre a nivel de sonidos individuales sino también entre pasajes musicales más largos y secciones íntegras; por medio de procesos similares de causalidad, (ej. pasajes que disipan la energía acumulada por sus predecesores), y referencia (ej. recapitulación, relaciones de pregunta y respuesta, etc.), que determinan su función y significado musicales.

Page 17: En El Limite Nro2

en el limite | 17

Interacción entre Medios Distintos – Expansión del Material Musical La interacción entre materiales se amplia cuando la música incluye otros medios además del sonido; esto ocurre cuando contiene textos literarios (ej. canciones, oratorios, obras litúrgicas, etc.) o en el caso de la ópera. Aún en el caso de las expresiones musicales más “puras” - tales como obras instrumentales sin sentido programático - hay elementos no sonoros que son parte integral de la interpretación musical: por ejemplo, de acuerdo con músicos de gran reputación, los movimientos del intérprete son necesarios para lograr una expresión musical convincente cuando ejecuta un pasaje con expresión cantábile o legato (Nattiez, 1990: 43-44). Es más, la investigación moderna de interfases digitales sugiere que el esfuerzo del intérprete constituye un componente esencial de la expresión musical (Vertegaal et al, 1996: 309; Mulder, 1994: 247-8).

La música visual presenta uno de los casos más interesantes de interacción entre medios distintos, en el que imagen y sonido ejercen sobre sí una influencia mutua, modificando el significado que cada uno de ellos tendría por separado. Michel Chion sostiene que la percepción visual y sonora tienen una relación poco natural, por medio de la cual ‘se influencian una a otra ... prestándose respectivamente sus propiedades por medio de contaminación y de proyección’7 (Chion, 1994). Chion llama a esta interacción el contrato audiovisual8 y al resultado que ejerce sobre cada uno de los medios, valor añadido9. Por ejemplo, imaginemos una escena en la que

vemos robots armados con rifles marchando a través de un corredor. Si el sonido acompañando sus pasos fuera aquel que produce un metal pesado cuando hace contacto con un suelo duro, la escena adquiriría una connotación seria, quizá hasta intimidante, de despliegue de una fuerza cibernética con funciones militares o policiales. Por otro lado, si los pasos fueran acompañados por sonidos de gotas de agua cayendo en una superficie el resultado crearía una situación incongruente, posiblemente cómica. Pero esto no es todo: si los sonidos de las gotas fueran acompañados por imágenes diferentes –digamos la escena de un paisaje natural bañado por lluvia veraniega– su connotación cambiaría totalmente de lo cómico a lo pastoral.

El efecto profundo del contrato audiovisual requiere la adopción de estrategias especializadas para tratar la combinación de sonidos e imágenes. Naturalmente, muchas de estas estrategias vienen de la cinematografía, que provee una plétora de ejemplos musicales excelentes desde los años 30 (ej. Max Steiner, Miklos Rozsa, Erich Korngold, etc.) hasta el día de hoy (ej. John Williams, Hans Zimmer, Danny Elfman), incluyendo pioneros como Toshiro Mayuzumi, que empleó música electrónica en películas ya en los años 50. El texto mismo de Chion cubre extensamente este tema. Además, otros autores han discutido estrategias para la composición de música visual, incluyendo a Whitney (1994), Garro (2005), Coulter (2010), Fischman (2011b) y el volumen 29(4) de Computer Music Journal, que está dedicado en su integridad a la música visual.

Interacción Entre el Oyente y la Obra Cuando discutimos la interacción de elementos musicales asumimos tácitamente al “observador”, pues sin éste, la fenomenología de la interacción no tiene sentido alguno y ni siquiera existe. En otras palabras, la vigencia de cualquier vínculo entre entidades sonoras, visuales, etc. requiere un proceso de abstracción por parte de algún agente humano. Por ejemplo, cuando decimos que un sonido es extensión de otro, lo que realmente queremos decir es que para alguien hay una relación entre los sonidos que cumple la función de extensión. Es más, es posible que otro oyente infiera una relación funcional distinta o que no encuentre relación entre los sonidos fuera de su organización temporal consecutiva10. Por último, si osamos extender este argumento hasta el límite, debemos tomar en cuenta las conclusiones de la física moderna que sostiene que la observación depende de las circunstancias en que el fenómeno es observado: teóricamente, observadores distintos inferirán organizaciones temporales diferentes entre los dos sonidos dependiendo de su punto de observación.

Claramente, si continuamos esta línea de raciocinio corremos el peligro de llegar a la conclusión de que no puede haber música pues nadie comparte el mismo punto de observación. Afortunadamente, los argumentos de la física ocurren en escalas extremas y desde el punto de vista práctico podemos asumir que la mayoría de los oyentes familiarizados con un género

Page 18: En El Limite Nro2

18 | en el limite

musical comparten el mismo contexto cultural y participan del mismo contrato comunicativo11. Por eso podemos suponer correctamente que, en general, las observaciones de la mayoría de los oyentes familiarizados con un género musical serán similares mientras el creador mantenga referencia al contrato comunicativo12. De igual manera, no debemos olvidar que el punto de observación cambia radicalmente con el contexto cultural del oyente (aún en casos en que éste esté familiarizado con el género13), en cuyo caso las inferencias pueden ser radicalmente distintas.

La indispensabilidad del observador y su función como establecedor de relaciones entre los materiales musicales denotan una actitud muy activa por parte del oyente. En realidad, este es un proceso de interacción entre el último y la obra, ya que con los sonidos iniciales, el oyente forma un concepto de la organización musical. Mientras la obra sigue desarrollándose, el concepto inicial puede ser reforzado o contradicho, y el oyente va modificándolo de manera correspondiente. En otras palabras, el oyente no absorbe o recibe pasivamente un significado fijo de la obra, sino que lo construye. Y esto corresponde precisamente al proceso semiológico de estésis14. Para poder explicar el estatus de la estésis musical mencionaremos nuevamente a Nattiez (1990: 8), quien afirma que la música es una forma simbólica15 con la capacidad de ‘dar lugar a una red compleja e infinita de interpretantes’16.

La descripción anterior de la interacción entre el oyente y la obra ilustra el proceso de construcción de estos interpretantes por medio del cual el oyente atribuye significado musical a los signos sonoros. Por otro lado, el proceso de creación de la forma simbólica sucede a nivel poiético17 por medio del ‘vínculo entre las intenciones del compositor, sus procedimientos creativos, sus esquemas mentales, y el resultado de esta colección de estrategias; es decir, las componentes que entran en la materialización de la obra’18 (ibíd.: 90). Pero la forma simbólica materializada en la obra musical es solo el rastro19 del proceso poiético. Es por eso que el oyente solo puede inferir su significado por medio del proceso estésico: ‘cuando son confrontados con una forma simbólica, [los oyentes] asignan uno o muchos significados a esta forma; … no “recibimos” el significado de un “mensaje” … sino que construimos significado, en el curso de un proceso activo de percepción’ 20 (ibíd.: 12)

Recientemente, varias investigaciones han indicado que el proceso de establecer sentido en la música está vinculado fuertemente con los procesos que nos guían cuando damos sentido a nuestro entorno en el curso de nuestras experiencias cotidianas. Esto es especialmente cierto en el caso de la música electroacústica, que a menudo incluye sonidos que relacionamos con nuestro entorno (Kendall, 2010). Por eso, desde el punto de vista cognitivo, interactuamos con la música de manera similar a nuestra interacción con el mundo físico que nos rodea. La diferencia entre estos dos procesos es que ‘el oyente

electroacústico se ocupa de la música, no para buscar la verdad o sobrevivir, sino por el placer de este proceso; consecuentemente, … esta diferencia hace de la audición musical una tarea distinta, que es intencionalmente más creativa pues el oyente imagina’21 (Kim, 2010: 46). En el caso específico del uso de sonidos del mundo físico, Norman (1994) mantiene que el compositor se convierte en cuentista que provee una interpretación personal de la realidad que sumerge al oyente: la identificación con la trama y el mundo sonoro de la “obra-cuento”, y la ilusión de estar presente en su desarrollo proveen otro nivel de interacción entre el oyente y la música.

Un aspecto interesante de estas interacciones es que se reflejan físicamente en nuestro aparato neurológico. ‘La razón por la cual el significado de ciertas cosas nos da tanta riqueza es que tantas partes de nuestra experiencia corporal están conectadas neuronalmente e interactúan continuamente’22 (Johnson, citado en Kendall, 2010: 64). Al otro extremo encontramos las interacciones externas a nuestros cuerpos, pues la música es un hecho social total23cuya definición varía de acuerdo con cada era y cultura e incluye la etiqueta de la interpretación musical24, su ritual25, las relaciones entre oyentes e intérpretes y entre oyentes mismos, etc. La participación en muchos de estos eventos incluye interacciones a nivel social.

Interacción Entre Ejecutantes La colaboración mutua de los ejecutantes durante la interpretación es sin duda el aspecto

Page 19: En El Limite Nro2

en el limite | 19

más obvio de la interacción musical, del cual surge la idea de la interacción entre el ser humano y la máquina. No obstante, mientras la interacción entre músicos humanos ha sido cultivada en práctica a través de la historia, la interacción con la máquina requiere planificación tecnológica y ergonómica que se puede resumir en dos aspectos principales: la actividad o pasividad de la máquina y la interfase entre ejecutantes.

La Actividad o Pasividad de la Máquina Desde un punto de vista técnico, la función de la máquina varía desde una pasividad total – por ejemplo en el caso de música para instrumentos y medio fijo – a la actividad total, en que ésta simula el comportamiento humano, “escuchando” a los otros intérpretes y no solo reaccionando a lo que aquellos producen, sino también haciéndolo de manera matizada, tomando la iniciativa e instigando la dirección musical. Pero en cualquier caso, existe interacción: la diferencia reside en la responsabilidad relativa de cada intérprete en el momento de la realización musical. En el caso pasivo la interacción sólo sucede a nivel sonoro de acuerdo con las instrucciones del compositor y, como la máquina no escucha ni reacciona, el ejecutante humano lleva toda la responsabilidad en sus hombros. Por otro lado, en la situación ideal de una tecnología con facultades casi humanas, la responsabilidad es compartida de manera equitativa entre los ejecutantes. Por supuesto, también hay estados intermedios entre estos dos extremos y quizá

sea más realista considerar un continuo de posibilidades entre ellos.

Desde el punto de vista estético, sea cual fuera el nivel de interacción técnico, lo importante es el contenido sonoro y su organización, y éstos resultan exclusivamente de los procesos musicales. En ese sentido, no importa quién o qué produzca el sonido, pues como dijimos anteriormente, la música es identificada como articulación del tiempo realizada por medio de sus materiales. Es por eso que, al final de cuentas, estamos interesados en la interacción del material sonoro (y/o de medios adicionales). La diferencia entre seres humanos que interpretan música usando medios puramente acústicos y la introducción de ejecutantes electrónicos, se encuentra en la ampliación de la paleta sonora26 que introduce problemas de consonancia y disonancia tímbricos, y requiere estrategias especiales tales como las que discuten Emmerson (1994, 1998), Menezes (1997, 2002) y Frengel (2010)27.

La Interfase Entre Ejecutantes Como mencioné anteriormente, la interacción refinada entre intérpretes humanos es el resultado de siglos de experiencia musical basada en la habilidad sofisticada del oído y la convención cultural. Cuando la complejidad y el tamaño del grupo de ejecutantes lo hizo necesario, se introdujeron soluciones que fueron también humanas – y por eso también basadas en las mismas habilidades y convenciones - como en el caso del director

de orquesta y coro. Es más, el oído cumple una función doble, no solo captando la información musical que rodea al ejecutante para poder ajustar sus acciones futuras sino también controlando el gesto matizado de estas acciones. Este mecanismo es innato en la musicalidad humana y puede ser desarrollado por medio de la educación y práctica.

Por otro lado, para que la máquina pueda interactuar es necesario que pueda “escuchar” e idealmente producir sonidos de sofisticación y matiz comparables con aquellos producidos por ejecutantes humanos. El computador “escucha” mensajes binarios y por eso toda información musical debe ser traducida a este formato. La aparición de la norma MIDI en los años 80 posibilitó el desarrollo de sistemas interactivos, a pesar de sus limitaciones28. La sofisticación interactiva con el MIDI tomó ímpetu después de la aparición de aplicaciones tales como MAX29. Por supuesto, MIDI solo permite el uso de instrumentos que producen información binaria de acuerdo con su protocolo: aunque es posible convertir el sonido de instrumentos acústicos a MIDI30, este proceso sufre de las limitaciones del protocolo que obligan a simplificar la información musical tan rica producida por los ejecutantes. Cuando MAX fue expandido por medio de MSP para incluir audio, fue posible implementar técnicas que analicen directamente los atributos sonoros, tales como los cambios en el espectro, y la detección de ataques y ritmo31. Esto permite

Page 20: En El Limite Nro2

20 | en el limite

la detección de aspectos más delicados de la ejecución. Naturalmente, no es suficiente que la tecnología pueda “escuchar”: también debe saber qué hacer y cómo hacerlo, y esto depende del tipo de “inteligencia” otorgada a la máquina por los diseñadores de aplicaciones. La descripción de estas estrategias de interacción va más allá del alcance de este artículo, pero hay ya considerable literatura que considera este tema además de los artículos de esta publicación, como por ejemplo Chadabe (1989), Dannenberg (1984, 1989), Impett (2000, 2001), Polansky (1994), Rowe (1992, 1993), Winkler (1998), y los volúmenes 5(1) y 14(2) de Organised Sound, que están dedicados a la interactividad.

La producción del sonido tiene dos extremos dentro de los cuales encontramos una gama de casos intermedios. Por un lado, el computador puede reproducir fácilmente sonido preparado de antemano en el estudio que incluya toda la sofisticación y matiz necesarios. Por el otro, puede ser el instrumento mismo manipulado en tiempo-real por el ejecutante humano a través de una interfase digital. Esto es posible gracias al desenganche entre el control del sonido y la producción sonora. Pero este beneficio trae consigo el peligro de perder la “lógica causal” entre las acciones del ejecutante (controlador de sonido) y lo que el oyente escucha (el sonido producido por el computador). Este fenómeno afecta negativamente la expresión musical pues los gestos del ejecutante pierden su relación con los resultados sonoros (Cadoz et al, 1984,

1988, 1990; Mulder, 1994; Goto, 1999, 2005; Roads, 1996). Por eso debemos considerar el dominio del gesto musical y sus implicaciones. Mientras que una discusión detallada está más allá del alcance de este artículo32, resumiré sus conceptos principales a continuación. Gesto es todo comportamiento físico multi-sensorial, fuera de la transmisión vocal, usado por los seres humanos para informar o transformar su entorno inmediato (Cadoz, 1988). El gesto musical tiene una función doble: es tanto símbolo del sonido como objeto mismo de la composición (ibíd.). Cuando ocurre el desenganche entre control y producción de sonido en las interfases digitales, la lógica causal entre el gesto musical y sus consecuencias es establecida por medio del mapeo; es decir, la correspondencia entre los gestos, los parámetros de control y los sonidos producidos (Levitin et al, 2002). Para obtener un reenganche convincente entre el gesto y la intención musical es esencial que el mapeo sea intuitivo (Choi et al, 1995; Mulder et al, 1996, 1997; Wessel et al, 2002; Momeni y Wessel, 2003), explorando las propiedades intrínsecas de nuestro mapa cognitivo (Levitin et al 2002). En realidad, el gesto puede incorporar actos expresivos cotidianos (no solo tradicionalmente “musicales”) pues la asociación entre gestos espontáneos (musicales y no musicales) y sonidos se fija instintivamente en nuestro subconsciente desde que nacemos (Jensenius et al, 2005). La afinidad entre gestos físicos y su mapeo está encapsulada en lo que podemos llamar metáfora (Sapir, 2000), por medio de la cual las interfases digitales pueden emular

gestos conocidos: estos gestos pueden originarse tanto en los paradigmas de instrumentos acústicos33 como en experiencias cotidianas34.

La metáfora facilita la transparencia, definida por Gadd y Fels (2002) como atributo del mapeo que indica la distancia psicofisiológica entre la intención de producir un sonido particular y su realización por medio de alguna acción. La transparencia posibilita el establecimiento de vínculos entre el gesto y su sonido correspondiente por medio de la referencia a un “saber común” aceptado como parte de nuestra cultura (ibíd.). Lo interesante es que la asociación de gestos espontáneos y el mapeo cognitivo son componentes esenciales de este “saber común”.

Interacción Entre el Compositor,la Obra y su Época Hasta ahora hemos dicho relativamente poco del creador musical, limitándonos a describir su rol en la organización e interacción de los material musicales. Por supuesto, este rol es una manifestación muy importante de la dimensión poiética en la creación musical. Pero la poiesis se manifiesta también a otro nivel, pues las intenciones, procedimientos creativos, esquemas mentales, y estrategias del compositor son parte del bagaje cultural e histórico que lleva a cuestas y estos están en constante estado de flujo35. En otras palabras, el acto de creación musical no se lleva a cabo en el vacío sino dentro del contexto de su época.

Page 21: En El Limite Nro2

en el limite | 21

T S Eliot resumió esta problemática con una lucidez ejemplar cuando afirmó que ... lo que sucede cuando una obra artística novedosa es creada, es algo que les sucede simultáneamente a todas las obras que la precedieron. Los monumentos existentes forman entre ellos un orden ideal, que se modifica con la introducción de la obra novedosa (la realmente novedosa) en su seno. El orden existente estaba completo antes del arribo de esa obra; para que el orden persista … su totalidad tiene que ser alterada, aunque sea de manera muy leve; es así que las relaciones, las proporciones y los valores de cada obra con respecto a la totalidad son reajustados…36 (Eliot, 1920: párrafo 4)

Es por eso que el compositor y la obra interactúan con aquel orden cultural, estando influenciados por su presencia durante el proceso poiético, pero también modificándolo a consecuencia del último.

Mencionaremos brevemente otro tipo de interacción que resulta de la extensión que hace Attali (1985) de la proposición de Adorno (1958) en donde la música refleja las condiciones socioeconómicas de la época. Attali sostiene que la música precede estas condiciones y por eso puede indicar condiciones futuras. Si esto último es cierto, entonces es posible concebir un proceso de interacción entre el contexto cultural de Eliot (y como consecuencia el compositor y la obra), la sociedad y su economía.

Interacción Entre Contextos Culturales En la sección anterior discutimos interacciones que dependen del tiempo cultural. A continuación añadiremos el espacio cultural que define la tradición musical y que nos ayudará a conceptualizar cualitativamente las distancias entre distintas tradiciones. Subsecuentemente, nos valdremos de éstas ideas para considerar los resultados de la globalización y sus efectos culturales.

La permeabilidad e influencia mutua entre culturas ha existido siempre en el curso de la historia. Basta pensar en ejemplos obvios, tales como la inclusión de instrumentos de percusión otomanos en la orquesta sinfónica, el desarrollo de la música afrocaribeña, el vals y la polka latinoamericanos, el tango y el jazz. Pero todos estos son ejemplos en los cuales los elementos de una cultura fueron adaptados a otra de forma relativamente gradual. También, y como resultado de una lejanía geográfica y de comunicaciones lentas, las culturas que donaron los elementos mantuvieron relativamente poco contacto con la cultura que los recibió. Por ejemplo, en el caso de la música afrocaribeña, la presencia de elementos africanos pertenece a la tradición oral que trajeron consigo los inmigrantes originales, y ésta se desarrolló por separado de la tradición oral de aquellos que se quedaron en África - sobre todo después que el tráfico de esclavos fue abolido y con éste, el flujo cultural proveniente del continente africano. La lejanía y la comunicación relativamente lenta

y magra, en comparación con la de hoy, nos permite concluir que, desde un punto de vista práctico, la ruta que tomó la tradición musical de África se volvió eventualmente invisible y perdió su presencia en el Caribe. De manera recíproca, la incipiente tradición afrocaribeña y su curso de desarrollo fueron invisibles en África. La diferencia esencial entre este caso y nuestra época es que no sólo los procesos de asimilación pueden suceder con rapidez, sino que en la práctica, las diversas tradiciones culturales mantienen su presencia de forma global, propiciando procesos de interacción37. Es más, gracias al vasto acceso a tradiciones musicales alrededor del globo, en conjunción con la tecnología de muestreo y la movilidad geográfica de muchos músicos, nos hemos acostumbrado a la presencia de préstamos culturales en músicas contemporáneas de todo género (Gluck, 2008), que en casos extremos pueden variar de obra a obra en la producción creativa del mismo individuo. Todos estos son parte de procesos de interacción entre espacios culturales.

Habiendo considerado el tiempo y espacio culturales, podemos imaginar un diagrama consistente de dos ejes en el cual es posible representar la posición de elementos culturales que interactúan dentro de una obra. El eje temporal representa el intervalo histórico de cada tradición musical con respecto al presente y el espacial su distancia cultural. El origen representa la tradición principal articulada por la obra en el presente (figura 1).

Page 22: En El Limite Nro2

22 | en el limite

Figura 1. Diagrama de posición de los elementos culturales que interactúan dentro de una obra.

Como ilustración de este diagrama examinaremos los procesos de interacción cultural en Mambo À la Braque, de Javier Álvarez (1990). La obra consiste del ensamblaje de muestras cortas extraídas de una grabación de Caballo Negro38, creando un ritmo irregular, exuberante e hipnotizador. Mientras que es posible reconocer los colores musicales y gestos del mambo, el discurso sonoro y la irregularidad rítmica son claramente característicos de la música acusmática en general y del lenguaje musical tan original de Álvarez. Además, como indica el compositor en el folleto del CD, la técnica usada para ensamblar los fragmentos musicales es reminiscente del cubismo en las artes visuales (por eso la referencia al artista Georges Braque en el título). La obra empieza con una muestra del sonido típico producido

por la aguja de tocadiscos cuando ésta hace contacto inicial con el disco y termina con una de las interjecciones características de Pérez Prado. Esta última es una referencia directa al compositor del mambo mientras que el sonido inicial evoca la tecnología de los años de su apogeo. Además, como en el caso de otros géneros musicales del Caribe, el mambo tiene sus orígenes en la amalgama del danzón europeo con tradiciones musicales africanas. Por último, aunque Álvarez no declara ningún vínculo con el hip-hop, las técnicas de recorte son similares a las de re-mezcla que ya efectuaban los disc jockeys (DJs) de los años 80 y 90. Tomando todos estos elementos en consideración podemos construir una tabla indicando sus distancias históricas y culturales de la música acusmática, que es la tradición principal de la obra (tabla 1).

Conclusión La discusión de la interacción musical desde un punto de vista holístico y panorámico nos ha permitido considerar sus manifestaciones más allá de las relaciones entre ejecutantes humanos y tecnológicos, abarcando las tres dimensiones de la semiología. A partir de la obra, que encarna el rastro de los procesos poiéticos, descubrimos que sin interacción no sería posible concebir la organización del sonido que es la música, pues es esa misma interacción de los materiales la que crea sus vínculos y le da sentido a su organización. También pudimos observar que cuando la música emplea diversos medios, tales como el sonido y la imagen, la interacción se extiende a nuevos dominios, como lo es el contrato audiovisual en cuyo proceso los medios adquieren valor añadido.

No obstante, tuvimos que admitir que la fenomenología interna de la obra sólo tiene sentido cuando ésta existe para el observador; o en el caso de la música, el oyente. Es así como abordamos la dimensión estésica para observar que el oyente es un participante activo que interactúa con la música de una manera que, desde el punto cognitivo, es comparable al mecanismo por medio del cual da sentido a su entorno cotidiano. Encontramos también resonancia internamente, en la interacción neuronal del oyente y externamente, en los rituales, etiquetas y relaciones que forman parte del hecho social total que es la música.

Tabla 1. Distancias históricas y culturales en Mambo À la Braque, de Javier Álvarez.

Page 23: En El Limite Nro2

en el limite | 23

En esta juntura embarcamos nuestros pasos hacia la poiesis y en el camino encontramos el estado intermedio del intérprete musical, que navega en las dos dimensiones: estésis y poiesis. Como constructor del mensaje codificado en las instrucciones musicales, el intérprete es observador y oyente, y por eso funciona a nivel estésico. Pero en el proceso de ejecución de la música, él mismo aplica sus propios procedimientos creativos, esquemas mentales y estrategias, tomando parte en el proceso poiético. Y eso también es cierto de la tecnología: la diferencia es que las estrategias poiéticas y estésicas (o por lo menos los puntos de partida de éstas) son programadas por sus diseñadores humanos. La naturaleza de la interacción con la tecnología depende del grado de actividad o pasividad de ésta, de la sofisticación de la información que puede procesar y del refinamiento y matiz del sonido que puede producir. Mientras que la primera de estas cuestiones depende del grado de responsabilidad asignada a la tecnología, las dos últimas están relacionadas íntimamente con la sofisticación de las interfaces y la concepción del gesto musical.

Las consideraciones poiéticas dirigieron nuestra atención a la interacción entre el creador musical y su época, reflejados en la manera como la obra se integra y a la vez modifica el contexto cultural – y, de acuerdo con ciertos pensadores, el socio económico - de la época. Pero también tuvimos que admitir que en la era presente, la globalización ha

afectado estas relaciones, amplificando la función del espacio cultural en un mundo simbiótico y pluralista.

La intención de seguir una trayectoria comprensiva a lo largo del eje semiológico nos ayudó a identificar interacciones musicales que a menudo yacen ocultas a pesar (o quizá como resultado) de su obviedad. Es muy posible que haya interacciones que se hayan escabullido por nuestra red y que futuras innovaciones creen nuevos modos de interacción. No obstante, la esperanza del autor es que la discusión de este artículo sirva tanto como alerta a estas posibilidades y como mapa de lo ya descubierto.

Page 24: En El Limite Nro2

24 | en el limite

Bibliografía

Adorno, T W, 1958. Philosophie der neuen Musik. Frankfurt: Europäische Verlagstanlt. Nueva edición 2003. Trad. Mitchell, A G y Blomster W V, Philosophy of Modern Music. Continuum International Publishing Group (Nueva York, EEUU).

Álvarez J, 1990. ‘Mambo À la Braque’ (1990). En ÉLECTRO CLIPS. DIFFUSION i MéDIA, empreintes DIGITALes, IMED 9604.

Alves B, 2005. Digital Harmony of Sound and Light. Computer Music Journal 29(4):45–54.

Attali J, 1985. Trad. Massumi B. Noise: The Political Economy of Music. Minnesota: University of Minnesota Press (Minnesota, EEUU).

Cadoz C, Luciani A y Florens J, 1984. Responsive input devices and sound synthesis by simulation of instrumental mechanisms: The Cordis system. Computer Music Journal 8(3): 60–73.

Cadoz C, 1988. Instrumental gesture and musical composition. Proceedings of the International Computer Music Conference - ICMC-88, Cologne. ICMAPress (San Francisco, EEUU): 1–12.

Cadoz C y Ramstein C, 1990. Capture, Representation and ”Composition” of the Instrumental Gesture. Proceedings of the 1990 International Computer Music Conference, Galsgow. ICMAPress (San Francisco, EEUU): 53–56. Accesible en forma electrónica: http://quod.lib.umich.edu/cgi/t/text/ text-idx?c=icmc;idno=bbp2372.1990.*. Fecha de acceso: 21/12/2010.

Cage J, 1960. 4’33(Tacet) (1952). Frankfurt/Main: Edición Peters No. 6777.

Chadabe J. 1989. Interactive Composing: an overview. En Roads C (ed.), The Music Machine. MIT Press (Cambridge, EEUU).

Chion M. 1994. Trad. Gorbman, C. Audio-Vision - Sound on Screen . Columbia University Press (Nueva York, EEUU).

Choi I, Bargar R, and Goudeseune C, 1995. A Manifold interface for a high dimensional control space. Proceedings of the 1995 International Computer Music Conference, Banff.

ICMAPress (San Francisco, EEUU): 385–392. Accesible en forma electrónica: http://quod.lib.umich.edu/cgi/t/text/ text-idx?c=icmc;idno=bbp2372.1995.*. Fecha de acceso: 21/12/2010.

Cook P y Leider C, 2000. Making the Computer Sing: The SqueezeVox. Proceedings of the XIII Colloquim on Musical Informatics, L’Aquila, Italy, Sept. 2000.

Coulter J. 2010. Electroacoustic Music with Moving Images: the art of media pairing. Organised Sound, 15(2): 26-34.

Dannenberg R. 1984. An On-Line Algorithm for Real-Time Accompaniment. En Proceedings of the International Computer Music Conference. ICMAPress (San Francisco, EEUU): 68-72.

Dannenberg R. 1989. Real-time scheduling and computer accompaniment. En Mathews M V y Pierce J R (eds.), Current Directions in Computer Music Research. MIT Press (Cambridge, EEUU).

Eliot, T. S. 1920. Tradition and the Individual Talent. En The Sacred Wood; essays on poetry and criticism. Methune (London). Nueva edición: 1997, Faber and Faber (Londres). Publicado en forma electrónica por Bartleby. com: http://www.bartleby.com/200/. Fecha de acceso: 23/12/2010.

Emmerson S, 1994. ‘Live’ versus ‘real-time’. Contemporary Music Review 10(2): 95-101

Emmerson S, 1998. Acoustic/electroacoustic: The relationship with instruments. Journal of New Music Research, 27(1-2): 146:64.

Emmerson S, 2007. Living electronic Music. Ashgate Publishing (Londres, GB).

Fischman R, (2008). Divine diversification or grey goo?. Sonic Ideas – Ideas Sónicas, Centro Mexicano para la Música y las Artes Sonoras (CMMAS), 1(1): 46-54.

Fischman R, (próximo, 2011a). Back to the Parlour. Sonic Ideas – Ideas Sónicas, Centro Mexicano para la Música y las Artes Sonoras (CMMAS), 3(2).

Fischman R, (próximo, 2011b). Del Tiempo al Espacio: Incorporación de medios visuales en la música. Artículos Selectos: 1er Foro Latinoamericano de Música de Computadora (FLAMUC).

Frengel, M. 2010. A Multidimensional Approach to Relationships between Live and Non-live Sound Sources in Mixed Works. Organised Sound 15(2): 96-106.

Gadd A y Fels S, 2002. MetaMuse: Metaphors for Expressive Instruments. Proceedings of the International Conference on New Interfaces for Musical Expression, 2002: 143-8. http://www.nime.org/2002/proceedings/paper/gadd.pdf. Fecha de acceso: 24/12/2010.

Garro D. 2005. A Glow on Pythagora’s Curtain. A Composer’s Perspective On Electroacoustic Music with Video. Proceedings of the Electroacoustic Music Studies network conference, Sound in multimedia contexts, Montréal, 2005. http://www.ems-network.org/spip.php?article169. Fecha de acceso: 8/9/2010.

Gluck R, 2008. Between, Within and Across Cultures. Organised Sound 13(2): 141-62.

Goto S, 1999. The Aesthetics and Technological Aspects of Virtual Musical Instruments: The Case of the Super-Polm MIDI Violin. Leonardo Music Journal 9: 115–120.

Goto S, 2005. Virtual Musical Instruments: Technological Aspects and Interactive Performance Issues. HZ Journal 6. http://hz-journal.org/n6/goto.html. Fecha de acceso: 21/12/2010. Goudeseune C, 1999. A Violin Controller for Real-Time Audio Synthesis. http://zx81.isl.uiuc.edu/camilleg/eviolin.html. Fecha de acceso: 21/12/2010.

Impett J, 2000. Situating the “invention” in interactive music. Organised Sound 5(1): 27-34.

Impett J, 2001. Interaction, simulation and invention: a model for interactive music. En Bilotta E, Miranda E R, Pantano P y Todd P M (eds.), Artificial Life Models for Music

Page 25: En El Limite Nro2

en el limite | 25

Applications. Cosenza: Bios: 108-119. Accesible en forma electrónica: http://galileo.cincom.unical.it/esg/Music/workshop/articoli/impett.pdf. Fecha de acceso: 21/12/2010.

Jensenius A R, Godoy R y Wanderley M M, 2005. Developing Tools for Studying Musical Gestures within the Max/MSP/Jitter Environment. Proceedings of the 2005

International Computer Music Conference, Barcelona. ICMAPress (San Francisco, USA): 282–285. Accesible en forma electrónica: http://quod.lib.umich.edu/cgi/t/text/ text-idx?c=icmc;idno=bbp2372.2005.*. Fecha de acceso: 21/12/2010.

Kendall G S, 2010. Meaning in Electroacoustic Music and the Everyday Mind. Organised Sound 15(1): 63-74.

Kim S J, 2010. Imaginal Listening: a quaternary framework for listening to electroacoustic music and phenomena of sound-images. Organised Sound 15(1): 43-53.

Levitin D J, McAdams S y Adams R L, 2002. Control parameters for musical instruments: a foundation for new mappings of gesture to sound. Organised Sound 7(2): 171–189.

Menezes F, 1997. To Be and Not To Be – Aspects of the Interaction between Instrumental and Electronic Compositional Methods. Leonardo Music Journal 7: 3-10.

Menezes F, 2002. For a Morphology of Interaction. Organised Sound 7(3): 305-11.

Momeni A y Wessel D, 2003. Characterizing and Controlling Musical Material Intuitively with Geometric Models. Proceedings of the International Conference on New Interfaces for Musical Expression, McGill, 2003: 54-62. http://www. music.mcgill.ca/musictech/nime/onlineproceedings/ Papers/NIME03_Momeni.pdf. Fecha de Acceso: 21/12/2010.

Moore F R, 1988. The Dysfunctions of MIDI. Computer Music Journal 12(1): 19-28.

Mulder A, 1994. Virtual Musical Instruments: Accessing the Sound Synthesis Universe as a Performer. Proceedings of the First Brazilian Symposium on Computer Music:

Caxambu, Minas Gerais, Brazil. 243-250. Accesible en forma electrónica: http://www.xspasm.com/x/sfu/vmi/ BSCM1.pdf. Fecha de acceso: 21/12/2010.

Mulder A G E, 1996. Getting a GRIP on alternate controllers: Addressing the variability of gestural expression in musical instrument design. Leonardo Music Journal 6: 33-40.

Mulder A, Fels S y Mase K, 1997. Empty-handed Gesture Analysis in Max/FTS. Proceedings of Kansei – The Technology of Emotion, AIMI International Workshop, Genova, Italy. http://hct.ece.ubc.ca/publications/pdf/ mulder-fels-mase-1997.pdf. Fecha de acceso: 21/12/2010.

Nattiez J J, Trad. Abbate C, 1990. Music and Discourse. Towards a Semiology of Music. New Princeton University Press (New Jersey, EEUU).

Norman K, 1994. Telling Tales. Contemporary Music Review, 10(3): 103-9.

Pérez Prado D, 1951. Caballo Negro. RCA Victor 23-5301, MBS 092390. Nueva edición (2008) en Perez Prado y su orquesta - El Rey Del Mambo. His 27 finest 1949 – 1956. Retrospective, RTR 4131.

Polansky L, 1994. Live Interactive Music in HMSL. Computer Music Journal, 18(2): 59-77.

Puckette M S, Apel T y Zicarelli D D. 1998. Real-time audio analysis tools for Pd and MSP. En Proceedings of the 1998 International Computer Music Conference, Ann Arbor. ICMAPress (San Francisco): 109-12. Accesible en forma electrónica: http://quod.lib.umich.edu/cgi/t/text/ text-idx?c=icmc;idno=bbp2372.1998.*. Fecha de acceso: 21/12/2010.

Roads C, 1996. The Computer Music Tutorial. MIT Press (Cambridge, EEUU).

Rowe R, 1992. Machine Listening and Composing with Cypher. Computer Music Journal, 16(1): 42-63.

Rowe R, 1993. Interactive Music Systems: Machine Listening and Composing. MIT Press (Cambridge, EEUU).

Sapir S, 2000. Interactive Digital Audio Environments: Gesture as a Musical Parameter. Proceedings COST-G6 Conference on Digital Audio Effects (DAFx’00): 25–30. http://profs. sci.univr.it/~dafx/Final-Papers/pdf/Sapir.pdf. Fecha de acceso: 21/12/2010.

Shave, T, 2008. Communicative contract analysis: an approach to popular music analysis. Organised Sound 13(1): 41–50.

Vertegaal R, Ungvary T y Kieslinger M, 1996. Towards a Musician’s Cockpit: Transducer, Feedback and Musical Function. Proceedings of the 1996 International Computer Music Conference. San Francisco. ICMAPress (San Francisco, EEUU): 308–311. Accesible en forma electrónica: http://quod.lib.umich.edu/cgi/t/text/ text-idx?c=icmc;idno=bbp2372.1996.*. Fecha de acceso: 24/12/2010.

Wessel D, Wright D y Schott D, 2002. Intimate Musical Control of Computers with a Variety of Controllers and Gesture Mapping Metaphors. Proceedings of the International Conference on New Interfaces for Musical Expression, 2002: 171-3. http://www.nime.org/2002/proceedings/ paper/wessel.pdf. Fecha de acceso: 24/12/2010.

Whitney J, 1994. To Paint on Water: The Audiovisual Duet of Complementarity. Computer Music Journal 18(3): 44–52.

Winkler T, 1998. Composing Interactive Music: Techniques and Ideas Using Max. MIT Press (Cambridge, EEUU).

Page 26: En El Limite Nro2

26 | en el limite

Referencias 1 Eso no quiere decir necesariamente que no cultiven lo que en nuestra concepción llamaríamos “música”, sino que no la identifican con este concepto, asociándola con otras categorías tales como “ritos”, “experiencias chamánicas”, etc.

2 Nattiez (1990: 43) mantiene que el concepto de la música incluye al sonido como requisito mínimo, especialmente en la música occidental; de modo que en casos extremos de silencio – como en 4’33” de John Cage (compuesta en 1952, partitura: Cage, 1960) - la obra aún funciona como alusión al sonido mismo a pesar de su ausencia.

3 Interpretante es el significado que le atribuimos a un signo; en este caso, a un sonido.

4 a sonorous fact of any kind is recognized as music when we make a distinction between music and nonmusic; that is, when we associate interpretants conveyed by the concept “music” or “the musical” with that sonorous.

5 Communicative contract (Shave, 2008).

6 When two parties enter into communication, they unconsciously coalesce in abiding by a set of rules.

7 ...influence each other ... lending each other their respective properties by contamination and projection.

8 Audiovisual contract.

9 Added value.

10 Eso es ciertamente posible cuando el observador no tiene familiaridad con el contexto musical específico en el que los sonidos son organizados y por eso no puede establecer relaciones funcionales entre estos. Quizá esto explique (por lo menos en parte) las quejas de que cierto género de música es cacofonía cuando vienen de alguien que lo escucha por primera vez.

11 No obstante, debemos recordar que, también desde un punto de vista práctico, los oyentes no familiarizados con el género no comparten el mismo punto de observación.

12 Mantener referencia al contrato comunicativo no quiere decir obedecer las reglas al pie de la letra. Ciertamente, es posible usar la contradicción de estas reglas como referencia: por ejemplo en el caso ya mencionado de Cage, que en 4’33” hace uso del silencio aparente en la sala de conciertos para llamar la atención de los oyentes a los sonidos del entorno. Naturalmente, al extremo de la contradicción encontramos el proceso deformación de un contrato comunicativo nuevo: por ejemplo en la ruptura que dio existencia a la música atonal.

13 Por ejemplo, el sonido de un avión a chorro en una obra electroacústica puede tener significados distintos para oyentes que viven en zonas de conflicto bélico y para aquellos que viven en zonas pacíficas.

14 Esthesis.

15 Symbolic form.

16 ...to give rise to a complex and infinite web of interpretants. Ver también la nota 3.

17 Poietic.

18 ...the link among the composer’s intentions, his creative procedures, his mental schemas, and the result of this collection of strategies; that is, the components that go into the work’s material embodiment.

19 Trace.

20 When confronted by a symbolic form, [the listeners] assign one or many meaning to the form; ... we do not “receive” a “message’s” meaning ... but rather construct meaning, in the course of an active perceptual process.

21 The electroacoustic listener is engaged with the music, not out of a search for truth or survival, but for the pleasure of the process; consequently, … this difference makes of listening a different task, one more intentionally creative in which the listener imagines.

22 The reason that the meaning of certain things can be so rich for us is that so many parts of our bodily experience are neurally connected and continually interact.

23 Total social fact

24 Por ejemplo la etiqueta del silencio de los oyentes en la sala de conciertos clásicos, que es distinta de la participación activa de los oyentes que también bailan y se unen en coro a los intérpretes en ciertos conciertos de música popular, salsa, etc. Estos dos casos se diferencian de la audición de música privada por medio de audífonos o altoparlantes.

25 Por ejemplo si es parte de eventos deportivos, militares, religiosos, chamánicos, etc.

26 Hay una diferencia adicional que se manifiesta en la presencia humana en comparación con la tecnología descarnada. Por ejemplo en el caso del ejecutante que interpreta la parte acústica y la máquina inerte cuyo sonido emana de los altoparlantes.

27 El lector podrá encontrar un enfoque más amplio y comprensivo de la electrónica ‘en vivo’ en Emerson (2007).

28 Ver por ejemplo el excelente artículo de Moore (1988) sobre las limitaciones de MIDI.

29 Cycling ’74, 1990-2010. MAX/MSP/Jitter.http://cycling74.com/. Fecha de acceso: 21/12/2010.

30 Por ejemplo por medio del convertidor de altura (pitch to MIDI converter).

31 Por ejemplo los objetos fiddle~ y bonk~ de Miller Puckette (http://crca.ucsd.edu/~tapel/software.html. Fecha de acceso: 21/12/2010. Descripción en Puckette et al, 1998), analyzer~, pitch~ y beat~, de Tristan Jehar (http://web.media.mit.edu/~tristan/. Fecha de acceso: 21/12/2010), y gbr.yin, desarrollado en IRCAM (http://ftm.ircam.fr/index.php/Gabor_Modules. Fecha de acceso: 24/12/2010) .

Page 27: En El Limite Nro2

en el limite | 27

32 He discutido este tema detalladamente en otro artículo (Fischman, 2011a).

33 Por ejemplo, en el caso de eviolin (Goudeseune et al, 2001), basado en el violín, y SqueezeVox (Cook y Leider, 2000), basado en la concertina.

34 Por ejemplo, en el caso de la metáfora de lluvia MetaMuse (Gadd and Fels, 2002).

35 La afirmación que el bagaje cultural está en estado de flujo no implica que haya un proceso de desarrollo o progreso o que el proceso del flujo tenga necesariamente dirección alguna.

36 …what happens when a new work of art is created is something that happens simultaneously to all the works of art which preceded it. The existing monuments form an ideal order among themselves, which is modified by the introduction of the new (the really new) work of art among them. The existing order is complete before the new work arrives; for order to persist … the whole existing order must be, if ever so slightly, altered; and so the relations, proportions, values of each work of art toward the whole are readjusted …

37 He discutido de manera más detallada los procesos de globalización - especialmente en la música popular - en otro artículo (Fischman, 2008).

38 Mambo del compositor Dámaso Pérez Prado (1951).

Page 28: En El Limite Nro2

28 | en el limite

Jorge Sad Levi Cátedra de Lenguaje Sonoro.Departamento de Artes Dramáticas. IUNA [email protected]

No hay duda que el disco y el magnetófono han contribuido, en la corriente de la estética hanslickiana a reducir nuestra concepción cultural de lo musical a su sola dimensión sonora1” (Nattiez, 1987)

Introducción En su inagotable artículo de 1975 “Hecho musical y semiología de la música” (Molino, 1975), Jean Molino, quien junto a J-J Nattiez funda una corriente semiológica basada en el dinamismo, la pluralidad y la multiplicidad de perspectivas a las que da lugar la música entendida como fenómeno simbólico, vislumbra la posibilidad de convertir a cada una de las dimensiones del “Hecho musical total” en el eje de una corriente estilística o género particular.

De esta manera, el autor sostiene que: ¨todo elemento perteneciente al hecho musical puede ser separado y tomado como variable estratégica de la producción musical. Esta autonomización juega el rol de una verdadera experimentación musical: poco a poco son puestas en evidencia las diversas variables del hecho musical total. Una música particular aparece entonces como habiendo hecho una elección entre esas variables, de las cuales ha privilegiado un cierto número¨(Molino, 1975).

De la lectura de Molino es posible inferir que lo tímbrico, lo gestual, la interacción entre público e intérprete, el silencio, el ruido, el uso de nuevos modos de representación musical, la improvisación o las nuevas tecnologías pueden ser por sí mismas dimensiones sobre las cuáles es posible centrar la creación musical.

Una de las dimensiones musicales cuya autonomización vislumbra el fundador del post estructuralismo en musicología, es la de la interpretación, a la que dedica éstos interesantes párrafos:

“(…) se ha creado un efecto de distancia etnográfica, comparable a la que había provocado en el siglo XVII, el conocimiento de las creencias de los diferentes pueblos de la tierra. Tomemos un ejemplo de la revulsión salubre que produce esta distancia: después de haber mirado a los otros con ojos sorprendidos, nos observamos a nosotros con una mirada de extrañeza. (…)”

“¿Que es un interprete? Para nosotros todavía, el intérprete esta ahí, va de suyo; se discute solamente la libertad que puede, que debe otorgarle el compositor. (…) Si se compara la situación a aquellas en las cuales algo como el intérprete no existe, entonces podemos plantear la pregunta: ¿para qué sirve, porqué el intérprete?. Se puede tematizar la función del intérprete, jugar con ella, reducirla, desarrollarla. El intérprete deviene una variable de la música, pronta a integrarse bajo las formas más diversas2, las más inesperadas, al proceso de la construcción de músicas nuevas.” (Molino, 1975 )

Más allá de la extrañeza por la cultura propia y la consecuente puesta en cuestión de la función del intérprete aludida por Molino, resulta indudable que la dimensión de la interacción musical, que estuvo basada enteramente en la co-presencia de público en concierto, pierde su ¨naturalidad¨ y carácter autoevidente, desde el perfeccionamiento de las tecnologías de fonofijación, (Chion, 1998), durante la segunda posguerra del siglo XX, para pasar a constituirse en una elección estética.

En este artículo intentaremos profundizar en las consecuencias de este fenómeno continuando con la perspectiva iniciada en nuestro trabajo “Tiempo Real, Tiempo diferido en la Música electroacústica”. (Sad, 1999)

Una de las primeras consecuencias del perfeccionamiento de las tecnologías de fonofijación es la aparición de dos vertientes musicales que podríamos considerar recíprocamente opuestas y a la vez complementarias, según exacerben o excluyan los aspectos visuales de la música: nos referimos al teatro musical y a la música acusmática.

Entre la músicas silenciosas del grupo español Zaj, o en algunas piezas de Dieter Schnabel como Redeübungen für Hand und Mund (1983) o Nostalgie: Solo für 1 Dirigentenen, en las que el puro gesto alude al sonido, o en obras de Mauricio Kagel como Unguis incarnatus en las que lo sonoro está reducido a su mínima expresión, por un lado, y las músicas

Escucha Acusmática e Interacción Musical

Page 29: En El Limite Nro2

en el limite | 29

compuestas en estudio para ser escuchadas a través de altoparlantes3, totalmente independientes de cualquier localización escénica, por el otro, podemos identificar un rasgo en común: la disociación de los signos kinético/visuales de los signos sonoros que constituyó por largo tiempo la base de la interacción entre los músicos y su público.

Músicas en la que el gesto corporal se independiza de lo sonoro, músicas en la que el sonido se independiza del gesto corporal o directamente surge como consecuencia de procesamientos electrónicos sin ningún correlato físico, constituyen hechos inéditos que aún no terminan de ser asimilados completamente por el campo teórico.

Es interesante recordar que ¨theaomai” significa en griego ¨ver¨ y theatron designa “lo que se ve, el teatro¨ (Duvignaud, 1976 #4 p.5) y que, justamente, acusmático, entre las diferentes acepciones del término, designa el acto de escuchar sin ver las causas. Lo que la acusmática hace, y en eso consiste su radicalidad, es expulsar lo teatral, la teatralidad del hecho musical.

Que a mediados de los años 60 artistas tan disímiles como Glenn Gould o The Beatles, eligieran, casi simultáneamente a la aparición del Tratado de los Objetos Musicales de Pierre Schaeffer y a la Sociedad del Espectáculo, de Guy Débord- con su cuestionamiento de la primacía del sentido visual-, no sólo producir

sino concebir su música específicamente en el estudio de grabación, tomando distancia del entorno interactivo que les proponía la situación de concierto, habla del auge del pensamiento acusmático, de un movimiento mucho más amplio y profundo que el concerniente al género musical así denominado.

La escucha reducida y el drama de la producción sonora. La práctica de la escucha reducida implica la puesta entre paréntesis tanto de las asociaciones afectivas a las que da lugar el fenómeno sonoro, como de las causas que lo hicieron posible. La escucha reducida constituye y funda el nuevo solfeo basado en la tipomorfología de los objetos musicales4

y consecuentemente es el acto que funda la música concreta de manera más radical que el uso de nuevas tecnologías.

El pensamiento de Schaeffer no es, al menos en éste sentido, tan original como se acostumbra a creer. La reducción del sonido a su pura forma, la negación de los aspectos irreversibles del tiempo, implicada en la repetición en bucle del objeto musical, el efecto hipnótico que se espera inducir a fines de realizar la escucha reducida y sobre todo, el rechazo de las asociaciones emotivas implicadas en lo sonoro, se inscriben claramente en la tradición formalista inaugurada por E. Hanslick quien, en ¨De lo bello en la música¨, sostenía que “lo bello musical no reside ni en los sentimientos del compositor ni del

oyente, sino en la pura contemplación de la forma” (citado por Nattiez, 1993).

Por el contrario, en la obra de compositores como Kagel, Lachenmann o Schnabel, el sonido más que una entidad morfológica abstracta es una unidad energética cargada de una significación histórico/cultural, con un emplazamiento corporal y un anclaje psíquico detectable.

A propósito de esto, recordamos que Helmutt Lachenmann se refirió durante su curso en el Instituto Goethe de Buenos Aires (Lachenmann, 1985), a los sonidos literalmente desgarradores que escribió en la parte de soprano de su trío “themA¨, enfatizando la importancia de la dimensión del esfuerzo del instrumentista y su relación con el resultado sonoro, en tanto variable composicional, ilustrando la idea con dos ejemplos bastante claros: a) ¨tocar un cristal con un pesado caño de metal ppp o bien, b) golpear fff un almohadón¨. En éstos casos extremos es clara y extremadamente significativa la no linealidad entre fenómeno kinético/visual y resultado sonoro.

La epogé schaefferiana (suspensión o puesta entre paréntesis de todo reenvío del sonido a otra cosa que no sea su propia forma y materia) con su fuerte relativización o subvaloración de las condiciones de fabricación, del esfuerzo necesario para producirlo y de las diferentes técnicas que permiten llegar a un resultado determinado, intentó excluir del universo de la escucha, en

Page 30: En El Limite Nro2

30 | en el limite

tanto no pertinente, todo aquellas asociaciones provenientes de lo que Lachenmann llamó con certeza ¨el aura¨ del sonido.

Lachenmann explica en su análisis de un fragmento de Gruppen, de Karlheinz Stockhausen (incluído en ¨Cuatro aspectos fundamentales de la escucha musical¨), como las asociaciones ligadas al cencerro de la música de Mahler, que para el compositor contemporáneo evocan en ese contexto la metáfora de ¨las alturas a resguardo del tumulto mundano¨ (Lachenmann, 1979 #9) quedan neutralizados por efecto de la estructuración composicional.

Notemos que, por el contrario, para Schaeffer esta misma operación de neutralización o puesta entre paréntesis de los reenvíos extrasonoros del material, es realizada como consecuencia del acto voluntario y artificial que constituye la escucha reducida, cuyo sujeto puede estar constituido indiferentemente por oyentes o compositores.

Lo que resulta muy llamativo, es que el rico pensamiento tanto de Lachenmann como de Schaeffer, que han reflexionado profundamente sobre el fenómeno de la escucha, no sean comparados críticamente en las instituciones musicales latinoamericanas, que se encuentran tan lejos de los conflictos nacionales que aquejan a alemanes y franceses.

Situación Acusmática e interacción público/ intérprete La interacción musical podría definirse, tentativamente, por la producción de signos kinético-visuales sincrónicos a la producción sonora, que circulan en tiempo real entre público e intérpretes,

Estos signos permiten obtener información a los actores del hecho musical acerca de los efectos producidos en su contraparte. Esto implica que el músico puede reconocer las respuestas del público en el curso de la performance (silencio atento e inmóvil, indiferencia, danza, celulares encendidos, canto a coro, abucheo, imitación tipo ¨air guitar¨) y que a la vez el público puede interpretar y posiblemente replicar en ciertos casos, los movimientos y expresiones de los músicos.

La matriz de la experiencia musical interactiva del concierto y su relación con la situación de la escucha acusmática, ha dado lugar a numerosas reflexiones de investigadores que no se hallaban explícitamente refutando las afirmaciones teóricas de Pierre Schaeffer ni sus seguidores, sino intentando comprender los fenómenos de escucha implicados en el uso de las tecnologías de grabación de la música clásica.

Así, J-J Nattiez afirma: “Es muy difícil separar lo musical de lo kinestésico y de lo visual. Sin hablar de la danza o de la ópera, ¿no tenemos el sentimiento que nos falta algo de la música cuando el disco nos priva de todas las dimensiones del concierto?” (Nattiez, 1987)

Y en otro párrafo afirma ¨por una suerte de experiencia in vitro, el recorte que opera la grabación entre el sonido, sus fuentes y su contexto, nos habrá mostrado que no se podía prescindir tan fácilmente de todas estas “impurezas” (Nattiez, 1987)

Para el musicólogo norteamericano Leonard Meyer estos signos son fundamentales en la aprehensión del mensaje musical: “normalmente experimentamos y comprendemos el mundo con todos nuestros sentidos - vista, olfato, gusto, tacto, y oído- tanto como con nuestro cuerpo”. “Sentarse en solemne silencio” en nuestro living es perder (especialmente) los signos visuales-gestuales presentes en una performance en vivo. Sugiriendo apropiadas conductas motoras/ corporales, estos signos ayudan a los oyentes a empatizar con, a experimentar y comprender la secuencia de relaciones musicales.” (Meyer, 1967-1994)

Según Edward T. Cone (citado por Meyer) “una implicación física imaginaria subyace en la identificación exitosa del oyente con la persona musical. Por esta razón, la estimulación visual (que se genera) viendo una performance es importante. La observación de los gestos físicos de los músicos puede facilitar las reacciones empáticas de los oyentes a los gestos simbólicos de la música”. (Meyer, 1967/1994)

Resulta interesante evocar aquí las investigaciones en el campo de la neurología acerca de la función de las neuronas espejo, iniciadas por el investigador italiano Giacomo Rizzolatti en 1992, ya que fundan científicamente las observaciones de L. Meyer , E. T. Cone y J-J Nattiez.

Page 31: En El Limite Nro2

en el limite | 31

“Las neuronas espejo parecen funcionar como un puente entre un agente y otro, representando “mi acción” y “tu acción” del mismo modo. Además, se ha sugerido que las neuronas espejo son la clave para explicar muchos aspectos de la cognición social incluyendo la habilidad para comprender las acciones de otros (…), leer mentes (…), imitar (…) y comunicar usando gestos y el habla”. (Heyes, 2009)5

Para Rizzolatti ¨-el mecanismo en espejo- permite al observador entender las acciones de otros, la intención detrás de sus acciones, y sus sentimientos.¨ (Rizzolatti, 2005). Esto explicaría cabalmente la producción de signos kinéticos por quienes reciben o bien aprehenden el mensaje musical, ya que además de producir juicios de gusto y de valor, el público puede manifestarse a través de signos corporales, los cuales funcionan como interpretantes del fenómeno sonoro, interpretantes que a su vez son susceptibles de modificar las condiciones de producción del hecho sonoro mismo.

Por otra parte, y esto resulta significativo para nuestro estudio, ya que relativiza la primacía visual en la interacción, Rizzolatti y Craighero realizaron experimentos en los que se demuestra que un mono es capaz de comprender la significación de una acción sin información visual acerca de ella. Las neuronas espejo de un mono fueron grabadas mientras el mono observaba una acción ruidosa (por ej. frotando un pedazo de papel) y luego le fue presentado el mismo ruido sin ver la acción. Los resultados mostraron que “un gran número de neuronas espejo,

que respondieron a la observación de acciones ruidosas también respondieron a la presentación del sonido propio de la acción aislado. No se presentaron o fueron muchos más débiles las respuestas al ruido blanco o al sonido de otras acciones”. (Rizzolatti, 2005)

Acusmática e interacción II: La otra campana (¿cortada?) La interacción en la música y otros dominios de la actividad humana parece siempre deseable en tanto evidencia de un acto de comunicación. Daniel Sperber y Deirdre Wilson, quiénes formularon en 1986 el modelo ostensivo/ inferencial de la comunicación6 comparan “esta actividad conjunta (…) con la de una pareja de baile que se tiene que coordinar para que el resultado sea armónico”. (Sperber, D. Wilson, D. 1994 ).

Para la semiología tripartita, y ésta tal vez sea una de sus mayores contribuciones, el caso de la comunicación musical es un caso especial de convergencia entre las estrategias estésicas y poiéticas, lo cuál es menos habitual de lo que estamos dispuestos a creer. Como lo dice Jean Molino de manera radical: “lo poiético no tiene necesariamente vocación de comunicación”. (Molino, 1975)7.

Lo que tal vez debamos poner en cuestión entonces, es el peso específico otorgado a la comunicación musical, ya que de esto dependerá el valor que le otorguemos a la interacción.

Dicho valor específico puede variar de un compositor a otro y un compositor puede variar en el tiempo su postura, como en el

caso de Jean Claude Risset, quien en 1971 deploraba junto a Boulez la música hecha sobre soporte a causa de “la fijeza de la realización que aprisiona la obra para siempre” (Risset, 1971).

Contrariamente, el compositor francés va a decir en 1993, que “el control gestual empírico y ciego corre el riesgo de no conducirnos a las regiones que se desean alcanzar” (…) y mas adelante: “ yo considero que el tiempo real ha jugado muy a menudo el rol de un espejismo, llevando a veces a una regresión musical. Uno se asombra de ver a compositores preocupados por el rigor formal abandonarse a un empirismo desbocado (…) El tiempo diferido puede ser encarado como lo contrario de una limitación: la génesis y el control del sonido escapan a la empresa del tiempo, a las restricciones imperiosas del tiempo real, al carácter efímero de la tecnología numérica avanzada”. (Risset, 1993)

En otro contexto estilístico, recordemos que, en su período de mayor auge, The Beatles no pueden tocar más en público porque no se pueden escuchar, a causa de los gritos de sus fans, justificando así el paso a la producción de estudio, con ´Revolver´.

En ese mismo movimiento The Beatles, como Glenn Gould quien en 1964 se retira de la actividad de conciertos para dedicarse a producir su música en estudio y a las emisiones radiales, están rechazando los aspectos antiartísticos de la interacción musical. Estos aspectos negativos van más allá de la calidad de la escucha y tienen que ver con la anulación de las diferencias entre

Page 32: En El Limite Nro2

32 | en el limite

quienes están arriba y abajo del escenario: sostenemos firmemente que la “comunión” y la “identificación” entre ambos polos, poiético y estésico ha hecho arder literalmente el conocido boliche Cromañon8 con sus adeptos adentro. Es interesante notar que las bengalas son signos producidos por el público para demostrar su aprobación y afecto hacia sus “bandas” preferidas.

Por otra parte, la interacción no puede ser reducida a la producción de interpretantes kinético-visuales, ya que las representaciones mentales y estrategias de recepción de los oyentes pueden ser lentas, invisibles, silenciosas, o esporádicas, como en la comunicación espistolar y sin embargo ocurrir. El siguiente texto de Lomax ilumina con claridad la situación que deseamos describir: “El patrón familiar del canto en la balada británica o de Kentucky es, para el cantante, estar sentado calladamente con sus manos pasivas en su regazo, mientras canta; sus ojos están cerrados, o tiene la vista fija, perdida por encima de las cabezas de sus oyentes. Cuenta sus historias en estrofas simples que permiten un ritmo narrativo concentrado y exige atención total de su audiencia. Por lo tanto, durante su canto, los oyentes deben permanecer en silencio y físicamente pasivos. Cualquier movimiento de su parte interferiría en la narración. Cualquier distracción rompería el encanto generado por el baladista. (...) El cantante principal gobierna y domina a sus oyentes durante su ejecución. Su asociación con su audiencia es, en términos sociológicos, de autoridad exclusiva, unos de los modelos principales de conducta en la cultura

europea occidental (A. Lomax “Estructura de la canción y estructura social”, p.12).

Podría inferirse del texto de Lomax que la ausencia de signos kinético visuales favorece una intensificación de la experiencia musical, similar al que ocurre en la escucha acusmática. Sincronicidad e interacción musical La sincronicidad y el vínculo causal entre los gestos y acciones de producción sonora y el sonido, parecen constituir otro valor musical inmanente, y tan evidente que su sola mención parece redundante: que el músico no produzca la materia sonora a pesar de estar presente en el concierto, puede generar la sensación de estafa9 o de insatisfacción, más allá de los géneros musicales considerados.

La célebre discusión televisiva entre el guitarrista Pappo y el DJ DjDero, en la que el primero recomendaba al segundo “que se consiga un trabajo digno”, negando su derecho a usar la palabra “tocar”10 ilustra el concepto claramente.

Sin embargo, en muchas situaciones, la ausencia o la no sincronicidad entre gesto y sonido no obstaculiza que el público responda interactivamente al mensaje, haciendo como si efectivamente la fuente sonora y el músico estuvieran ahí, como en la célebre imagen publicitaria de la Rca Victor en donde se ve al simpático perrito dirigir sus orejas hacia el gramófono.

Esto ocurre también, es el caso del baile en las discotecas, de los himnos grabados en los actos escolares y en general de toda situación en la que de manera colectiva se escucha en situación acusmática.

En otros casos se producen sincrónicamente interpretantes kinéticos que no son los gestos o acciones de producción imprescindibles al fenómeno sonoro, y que funcionan de manera equivalente, forzando la atribución a un emisor falso o virtual. Este recurso que funcionó excelentemente desde los inicios de los dibujos animados. fue utilizado por el dúo Milli Vanilli, quienes efectivamente aportaban sus imágenes glamorosas a la música cantada por otros.

Para desgracia de los protagonistas, el truco fue revelado, razón por la cuál se les quitó el premio Grammy que habían ganado. Lo curioso es que el mismo productor del dúo quiso relanzar a los cantantes que efectivamente cantaban las canciones, pero el intento (plasmado en el álbum Moment of Truth) cayó en el fracaso11.

Otro ejemplo interesante puede ser el remix de Englishman in New York de Sting, realizado por el Dj. PH Electro, en el que se ve a alguien realizando la mímica de la canción, un juego muy habitual en los niños y en el público de rock, parodiado de manera brillante por Diego Capussotto12, que recibió al momento de escribir este trabajo más de un millón y medio de visitas en Youtube, y comentarios elogiosos

Page 33: En El Limite Nro2

en el limite | 33

que parecerían atribuir la bellísima y compleja canción a quien además de simular cantar13, le realizó algunas básicas operaciones de edición y filtrado y el agregado de un pulso.

Transcribimos aquí algunos comentarios de la página de Youtube14 que son extremadamente significativos, ya que confunden tema y versión de una manera reveladora, atribuyendo, por un mecanismo que no por primitivo es menos eficiente, la autoría de la canción a la persona que ven cantar:

like it its much better zhan sting sings itLoraSternRacan 2 weeks ago

1:44 THE BEST MOMENT IN SONG!juramaxi 2 weeks ago

i prefer the original. sounds like he’s trying to hard to emulate Sting.

michaelshamanking 2 weeks agosting englishman ın new york this is nice but this is better

Parecería que las causas inducidas por la gestualidad de PH electro pueden reemplazar las causas reales, suscitando en el público la convicción de estar viendo una versión diferente a la original.

Funciones y Clasificación de los Signos Kinético Visuales Los signos kinéticos/visuales cumplen funciones que exceden las acciones necesarias de producción sonora y facilitan la interacción con el público, guiando la interpretación del mensaje de acuerdo con las intenciones del emisor.

Por esta razón, consideramos capital para la comprensión de este problema la descripción de los mecanismos ostensivo/inferenciales descriptos por la Teoría de la Relevancia de Sperber y Wilson.

Para Salvador Pons el mecanismo ostensivo/ inferencial “consiste en ir guiando el proceso inferencial del oyente, de modo que este no se vea obligado a derivar información a ciegas, sino como y donde el hablante le indique (Pons, 2004)

Para E. Montolio “Un estímulo ostensivo es aquel que reclama la atención sobre sí mismo, puesto que proporciona una evidencia directa de que el hablante está siendo máximamente relevante” (E. Montolío 1998: 36), citado por (Rodríguez, 2007).

Las principales funciones de éstos podrían resumirse en: Glosa, Articulación Sintáctica y Reducción Semántica, que pasamos a explicar: Glosa: los signos kinéticos enfatizan, realzan, señalan, balizan y amplían el mensaje sonoro. Tanto la danza, como el video y otras expresiones audiovisuales pensadas como acompañamiento del mensaje musical, subrayan y visibilizan u ocultan las intenciones o supuestas intenciones del productor del mensaje.

Articulación Sintáctica: tanto en la danza como en la espacialización de una pieza acusmática el movimiento, tanto del bailarín como del intérprete de consola, subrayan y enfatizan la comprensión de las distintas unidades sintácticas que conforman la idea musical.

Reducción semántica: la significación musical es difícilmente aprehensible y difícilmente reductible a su traducción verbal. La reducción de sentidos posibles del mensaje o desambiguación, que opera cuando un sistema de símbolos se superpone a otro, hace que el espesor semántico de un mensaje musical complejo se reduzca. De esta manera y como es ampliamente sabido, cualquier imagen superpuesta a una pieza musical reducirá significativamente el proceso semiótico desencadenado por la primera, como ocurre con la voz en off sobre un paisaje en un documental, o como en general funciona la música en el cine.

Conclusión La interacción musical, que aparece recortada como objeto de reflexión cuando la situación acusmática excluye todo el potencial comunicativo de los mecanismos de ostensión, puede ser una variable composicional que se puede integrar o excluir y, contrariamente a lo que a primera vista aparece, de la cual también el público puede prescindir.

La integración o exclusión de este dominio de signos constituye una dicotomía que puede ser comprendida en el marco de la metáfora propuesta por Jean-Jacques Nattiez para describir la dialéctica histórica que según el semiólogo franco/canadiense, gobierna los últimos 150 años de música occidental.

Nattiez piensa éste período en tanto contienda simbólica entre la estética inmanentista, iniciada por Hanslick, entendida como la supremacía

Page 34: En El Limite Nro2

34 | en el limite

del conjunto de configuraciones inmanentes del texto musical por sobre los procesos poiéticos y estésicos, y la consecuente negación del tiempo, representada por Orfeo, y su contrario Cronos, que implica una concepción de la música como fenómeno performático, situado en el tiempo irreversible en el que prima el intercambio entre los actores (público y músicos).

Estructura o proceso, texto o evento, la batalla entre éstas concepciones musicales opuestas y complementarias, “remonta a las fuentes de la civilización occidental” (...) ya que según Molino, “el pensamiento griego distingue, desde sus orígenes, una música práctica en la cuál, gracias al nexo que constituye el ritmo, se unen la poesía la danza y el arte de los sonidos y una música teórica, ciencia de la armonía, que aparece al mismo tiempo como matemática, como filosofía y como teología” (Molino, 2001)

Como lo dice el mismo autor mas adelante, “la música es un mixto” (...) “aceptar lo mixto es reconocer que nada en el mundo es reductible a una estructura, a un modelo único”. (Molino, 2001)

Bibliografía

Chion, M. El Sonido. En Paidos Comunicación. Barcelona Buenos Aires México: Paidos. 1998

Debord Guy La sociedad del espectáculo Editorial Pre- Textos, Valencia. 2002

Duvignaud, Jean Le théâtre Librairie Larousse, Paris 1976 Heyes, C. Where do mirror neurons come from? Neurosci.Biobehav. Rev. doi:10.1016/ j.neubiorev.2009.11.007 2009 Iacoboni M, Molnar-Szakacs I, Gallese V, Buccino G, azziotta JC, et al. Grasping the intentions of others with one’s own mirror neuron system. PLoS Biol 3(3): e79. 2005

Lachenmann, H. Curso en el Goethe Institut.Buenos Aires. 1985

Lachenmann, H. Cuatro aspectos fundamentales de la escucha musical. Trad. Alberto Bernal http://www. tallersonoro.com/espaciosonoro/07/Articulo2.htm 1979 Lomax, A. Song Structure and Social Structure .Ethnology, vol I No 4 1962

Meyer, L. B. Music, the arts and ideas: patterns and predictions to twentieth-century culture. Chicago: The University of Chicago Press. 1967/1994

Molino, J Fait musical et sémiologie de la musique. Musique en Jeu n 17 1975

Molino, J. Le singe musicien. Inédito. 2001

Nattiez, J Musicologie Générale et Sémiologie. Paris: Christian Bourgois Editeur.1987

Nattiez, J. Le combat de Chronos et d’Orphée. Paris: Christian Bourgois Editeur. 1993

Pons, S. Conceptos y Aplicaciones de la Teoría de la Relevancia. Madrid: Arco Libros. 2004

Risset, J. C. Sur les musiques pour ordinateur et l’interprétation. Musique en Jeu 3. 1971

Risset, J. C. Synthèse et materiau musical. Les cahiers de l’Ircam 2 (la synthèse sonore). 1993

Rizzolatti, G. Mirror neuron: a neurological approach to empathy. Neurobiology of Human Values. Berlin Heidelberg: Springer-Verlag 2005

Rodríguez, C. F. Lo que se dice: operador ostensivo metalingüístico. Lingüística en la red. Universidad de Sevilla 2007

Sad, J. Tiempo diferido / tiempo real en la música electroacústica (o la continuación del Combate de Cronos y Orfeo por otros medios. In Sul Ponticello (ed.) Revista on-line de Estudios Musicales 2005. http://quomusic12.brinkster.net/sulponticello/H001ASSP/articulo_dtlle.asp?REVart_ID=122&REVnum_ID=8

Schaeffer, P. Traité des Objets Musicaux. Paris: Seuil. 1966 Wilson, D. Sperber D. La relevancia. Madrid: Visor. 1994

Page 35: En El Limite Nro2

en el limite | 35

Referencias 1 Todas las traducciones son del autor.

2 Las negritas son nuestras.

3 Y que para desdicha de los organizadores de concursos de música acusmática su definición no se reduce al género sino que incluye a casi toda la música de rock desde Revolver de Los Beatles en adelante.

4 Paradójicamente, la descripción tipomorfológica se adecua mucho más a la escucha de sonidos electrónicos, que de sonidos concretos.

5 “Mirror neurons seem to bridge the gap between one agent and another; to represent ‘my action’ and ‘your action’ in the same way. Therefore, it has been suggested that mirror neurons are the key to explaining many aspects of social cognition, including the ability to understand the actions of others (Rizzolatti et al., 2001), to ‘read minds’ (Gallese and Goldman, 1998), to imitate (Iacoboni et al., 1999; Rizzolatti et al., 2001) and to communicate using gestures and speech (Rizzolatti and Arbib, 1998; Rizzolatti and Craighero, 2004)”.

6 Conocida como Teoría de la Relevancia.

7 Reenviamos a los lectores interesados en éste punto a leer la lapidaria crítica formulada por Nattiez en Musicologie Genérale et Sémiologie de la Musique, a las nociones de código y comunicación de Umberto Eco. (Nattiez, 1987 )

8 Incendio ocurrido en el boliche Cromañón, en diciembre de 2004 en donde murieron casi 200 personas en un concierto del grupo “Callejeros”

9 El incidente protagonizado por Los nocheros el 17 de diciembre de 2003 en la ciudad de Córdoba es ilustrativo: en dicho concierto el cd que servía para simular la actuación en vivo se rayó y reveló el playback, que fue vivido como una estafa por la multitudinaria concurrencia de 40.000 personas que abucheó al grupo.

10 http://www.youtube.com/watch?v=ItQ16mq-DjA

11 http://es.wikipedia.org/wiki/Milli_Vanilli

12 En el programa Peter Capussotto y sus videos que se emitió en la Tv Pública Argentina.

13 Debemos reconocer sin embargo que tuvimos dudas acerca de si, efectivamente el DJ canta, por lo cuál se demuestra claramente la efectividad de la performance. En una pequeña encuesta realizada por medio de Facebook entre músicos y no músicos las opiniones se dividieron al 50%. El criterio que consideramos determinante finalmente, es que si PH Electro cantara de ésta manera no sería Dj sino cantante, por otra parte en su versión de la canción San Francisco el timbre vocal cambia absolutamente.

14 http://www.youtube.com/watch?v=2ZVKxZ8QUMY

Page 36: En El Limite Nro2

36 | en el limite

Petra Bachratá UNIMEM / Unidade de Investigação em Música e Musicologia, INET-MDInstituto de EtnomusicologiaCentro de Estudos em Música e DançaUniversidade de Aveiro, Portugal [email protected]

1. Introducción Este trabajo da cuenta de algunos de los resultados de mi investigación sobre interacción musical entre instrumentos y sonidos electroacústicos, que llevé a cabo como parte del proyecto doctoral realizado en la Universidad de Aveiro, Portugal.

En el novedoso contexto del mundo moderno posterior a la década del 50, la búsqueda de nuevos conceptos de composición y alternativas en la música electroacústica compleja y en la música contemporánea en general, respecto de los procesos de percepción y la complejidad del acto de escuchar, reveló la importancia de contar con otras estrategias a la hora de estructurar el material musical, tales como el gesto y la textura. Estas nuevas estrategias de organización representan hoy en día el principal interés en lo que respecta a las composiciones contemporáneas, instrumentales y electroacústicas y suponen también posibles perspectivas para el análisis actual.

En la evolución de la música electroacústica, el diálogo entre los instrumentos acústicos y los sonidos electroacústicos se convirtió en un

área fundamental de creación explorada por muchos compositores. En la música mixta, que conecta dos mundos diferentes cada uno basado en materiales de distinta naturaleza, el gesto musical, con todas sus cualidades complejas y su potencial para estructurar música, representa un “punto de contacto”, es decir, una de las posibles conexiones entre estos dos mundos. Intentaré dar cuenta de algunos de los aspectos relacionados con la manera en la que el fenómeno del gesto musical puede entenderse en el contexto de la interacción musical, para lo cual daré ejemplos de análisis, sistematización, clasificación y categorización de las diferentes relaciones interactivas del gesto musical entre instrumentos y sonidos electrónicos. El objetivo principal es establecer un grupo de modelos teóricos de interacción que puedan aplicarse como método de análisis y servir, además, como una herramienta de composición.

La música mixta le ofrece al compositor abundantes posibilidades estructurales y expresivas, pero también trae consigo algunos problemas específicos. Uno de los desafíos que le propone al oyente, al analista o al compositor está en la forma en la que combina estos dos mundos, cada uno basado en unidades fundamentales y modos de oír diferentes; mientras que el mundo instrumental está basado en la nota y en los métodos tradicionales de asimilación mediante el reconocimiento de intervalos, melodías, armonías, ritmo y contrapuntos, el mundo electroacústico

está basado en objetos sonoros, unidades morfológicas y diferentes estrategias de escucha.

Por lo tanto, es recomendable contar con una perspectiva analítica multidimensional para abordar y explorar una pieza electroacústica mixta y para constituir las relaciones entre dos eventos sonoros que poseen diferentes características. A lo largo de mi investigación he utilizado varios conceptos y perspectivas en conjunto, como por ejemplo el análisis auditivo o la lectura de partituras, junto con la utilización flexible de varias estrategias de escucha y la “aplicación extrapolada” de puntos de vista de un área a la otra. De esta forma pude considerar la parte electroacústica desde un punto de vista instrumental, por ejemplo mediante el reconocimiento de la organización de alturas, tanto como de la rítmica o de la tímbrica, y la parte instrumental desde la perspectiva de la música electroacústica, por ejemplo mediante el reconocimiento de las unidades morfológicas y sus características especiales. La meta principal de este enfoque es reflejar la percepción de una obra musical en toda su complejidad e incluirla dentro del proceso de análisis. Esto nos permite acceder a varios aspectos de una obra y desarrollar, así, un entendimiento más completo de una pieza electroacústica mixta a través de las diferentes formas de interacción musical entre los elementos instrumentales y electroacústicos.

Mi investigación se divide en tres etapas: teórica, analítica y composicional. En la etapa teórica, al principio, me he concentrado en las

Interacción gestual en la música parainstrumentos y sonidos electroacústicos.

Page 37: En El Limite Nro2

en el limite | 37

obras más importantes para instrumentos y sonidos electrónicos. Desde un punto de vista histórico, me he concentrado en el estudio de la evolución de la interacción entre el medio instrumental y el electroacústico desde el período de la tecnología analógica, que utilizaba sonidos grabados previamente en un medio determinado, hasta las técnicas más recientes, que utilizan componentes electrónicos en vivo o una combinación de ambos. El estudio abarcó también diferentes formaciones instrumentales, desde solista a conjunto de cámara o gran orquesta para establecer un corpus coherente de trabajos a analizar.

Al mismo tiempo, me he concentrado en la investigación de literatura y bibliografía relacionada con el tema del análisis del gesto, la interacción y la música electroacústica, con objeto de darle consistencia teórica al trabajo y establecer un marco analítico actualizado para la investigación. Durante esta etapa, me dediqué al estudio de una amplia variedad de perspectivas y enfoques que diferentes compositores, instrumentales y electroacústicos, musicólogos y otros teóricos han utilizado para abordar el tema de la gestualidad, con el objetivo de lograr una definición más general de gesto musical, que sirva para el análisis de un gran número de obras musicales diversas y también para justificar decisiones analíticas adicionales que he tomado a lo largo del estudio. Como resultado de esta etapa, se logró establecer la siguiente definición de gesto musical:

“elemento estructural sonoro, que posee potencial jerárquico y que está determinado por el movimiento de un punto a otro (movimiento), la expresión de algo (significado), la transferencia de algún tipo de energía (su potencial energético), y que puede portar emociones específicas o inducir estados psicológicos”.1

El estudio y el conocimiento de los diferentes enfoques utilizados para abordar el tema de la interacción hizo posible establecer los principales atributos de la interacción y utilizarlos como criterio a lo largo de las diferentes etapas de mi trabajo, en particular el de las acciones o influencias mutuas y recíprocas que dos objetos tienen entre sí y el del atributo físico como transferencia de energía, que se ha generalizado a la energía musical. Posteriormente se examinaron estas características tanto en simultaneidad como sucesivamente. Finalmente, la comparación entre diferentes técnicas de análisis (tradicional, paramétrica, fenomenológica, gestáltica, etc.), dio lugar a la selección de las diferentes características y criterios que consideré más importantes para el análisis y que han sido estudiadas en la etapa analítica.

El periodo de análisis musical se realizó en dos etapas: Primero, se llevó a cabo un análisis de naturaleza superficial que proporcionó información sobre la forma, la estructura de frase y los diferentes tipos de gestos, desde pequeños elementos estructurales a grandes formas gestálticas. En segundo lugar, se llevó

a cabo un análisis más profundo sobre las interacciones gestuales, que se concentró en los 5 niveles principales: las características musicales elementales, como la altura/ frecuencia, la organización rítmico/temporal, el timbre y la dinámica/intensidad (nivel paramétrico), el modelo de estructura tripartita (nivel gestáltico), las características del contrapunto, ciertas características semánticas y espectromorfológicas, como la dirección y energía (dirección en el campo de las alturas, dirección como evolución temporal, energía como una suma de intensidad, velocidad y densidad) y el contexto espacial, teniendo en cuenta las diversas relaciones espaciales entre los gestos, dadas sus características de movimiento durante la espacialización en la interpretación. La categorización final corresponde a estos cinco niveles. Cada categoría se subdivide en varias subcategorías y algunas sub-subcategorías. En total hay alrededor de 70 modelos diferentes de interacciones gestuales.2

La última etapa (la composicional) se llevó a cabo simultáneamente con la etapa analítica. Se han aplicado tanto modelos que surgieron de la investigación, bajo mi perspectiva composicional personal, así como algunos modelos nuevos inventados, a tres composiciones mixtas.3 Asimismo, se ha aplicado una generalización de los modelos interactivos basados en el gesto a una pieza acusmática y a cuatro piezas instrumentales.4

Page 38: En El Limite Nro2

38 | en el limite

2. Categorización: enfoque de 5 niveles. 2.1. Modelos elementales de interacción gestualEsta perspectiva se centra en las diferentes formas de interacción entre dos o más gestos desde el punto de vista de las características musicales elementales (altura, duración/ ritmo, timbre y dinámica) como dimensiones integradas del gesto.

En el ámbito de la música instrumental, se acostumbraba considerar la altura y el ritmo como los dos parámetros principales de la estructura musical, en donde la altura estaba relacionada con la disposición de las frecuencias de las notas musicales y el ritmo con la descripción y la comprensión de la duración y de los patrones de duración. De acuerdo con el concepto de entramado (lattice) 5 propuesto por Wishart, el desarrollo de la notación tradicional, basada en la representación de altura y duración, delinea un entramado bidimensional. El concepto de instrumento como una fuente tímbrica estable, junto con la agrupación de los instrumentos en familias con diferentes características tímbricas expande la noción de entramado aún más: sugiere un entramado tridimensional, conformado por niveles de altura discretos, valores de duración y tipos tímbricos.

Sin embargo, según Wishart, en la música electroacústica existe un continuo sónico, en el cual la totalidad de los objetos sonoros son morfologías dinámicas - gestalts cuyas propiedades se encuentran en constante evolución

a través del tiempo y, a menudo, no pueden fraccionarse en elementos separados como era posible hacer con los objetos musicales basados en entramado (lattice-based musical objects), a través de su notación. El término morfología dinámica que aparece en los textos de Wishart puede entenderse, a menudo, como un “sinónimo” de gesto musical. Por supuesto, Wishart habla de morfologías dinámicas existentes en la música acusmática. No obstante, al abordar el tema de la música mixta, en mi opinión, la naturaleza de las propiedades sonoras individuales, junto con su evolución y comparación, constituirá el punto de contacto para analizar o crear conexiones e interacciones entre gestos musicales, cada uno de los cuales estará basado en conceptos tan diferentes como son los de entramado y continuo. Puedo ir aún más allá y asumir que, aunque nuestra percepción de gestos como gestalts predominará principalmente sobre la percepción de las propiedades gestuales individuales, la desviación intencional de la atención hacia los aspectos de las articulaciones gestuales con sus diferentes propiedades ayudará a entender las conexiones y a revelar posibles modos de interacción entre gestos.

2.1.1. Interacción gestual por similitud o diferencia de altura/frecuenciaLa altura es una sensación subjetiva, que en general puede definirse como “la cualidad particular de un sonido que fija su posición en la escala y que se determina en relación a lo que el oído juzga ser la frecuencia de onda fundamental del sonido”6; en otras palabras, es “la percepción humana del

fenómeno físico de la frecuencia”7. La altura es la dimensión básica de los sonidos musicales que se perciben como agudos o graves.

Dos o más gestos pueden estar relacionados de acuerdo con las alturas/frecuencias en los que hayan sido compuestos y crean relaciones ya sea de similitud o de diferencia de altura/ frecuencia.

En consecuencia, podemos reconocer las siguientes relaciones gestuales:

Fusión por combinación de alturas/ frecuencias idénticas: Tanto los gestos instrumentales como los electroacústicos son idénticos en lo que respecta a la estructura de su altura/frecuencia. Los gestos se pueden fundir en altura/estructura de altura en simultaneidad, pero pueden relacionarse aún cuando estén separados en el tiempo.

Fusión por similitud de frecuencias: las conexiones más cercanas entre gestos se crean por similitud en el registro. De acuerdo con el registro aproximado, podemos distinguir entre fusión en un registro grave medio o agudo. Contraste por disparidad de frecuencias: representa una combinación de dos gestos, que se componen de alturas/sonidos pertenecientes a registros diferentes.

Interacción por fluctuación de la amplitud de frecuencias: es una relación entre dos gestos que son inestables en altura, como

Page 39: En El Limite Nro2

en el limite | 39

por ejemplo la articulación del vibrato instrumental y un gesto electroacústico compuesto de uno o más sonidos con una frecuencia fluctuante y oscilante.

Interacción basada en el ruido: es una relación entre gestos que no tienen una altura identificable a través de la percepción.

2.1.2. Interacción gestual basada en la organización temporal La duración puede definirse como “la extensión en el tiempo de un evento musical que puede ser descrito en términos de tiempo relativo o absoluto”8. Según Leonard Meyer y Grosvenor Cooper9, hay tres modos básicos de organización temporal de la música: pulso, métrica y ritmo. Mientras que el pulso es uno en una serie de estímulos regularmente recurrentes y exactamente equivalentes, que delimitan unidades iguales en el continuo temporal, la métrica es la medida del número de pulsos entre acentos más o menos regularmente recurrentes y el ritmo puede definirse como el modo en el que uno o más tiempos no acentuados (débiles) se agrupan en relación a uno acentuado (fuerte). En la música instrumental tradicional, se acostumbraba reconocer varios tipos de estructuras y agrupaciones rítmicas, tales como la síncopa, la polirritmia, los ritmos regulares divisibles o los ritmos irregulares aditivos. Todos estos ritmos estaban relacionados en mayor o menor medida con los conceptos de métrica y pulso.

Sin embargo, en la música electroacústica, la métrica y el pulso, tal como los conocemos en la práctica musical tradicional, no siempre están presentes, pero aún así podemos percibir “impresiones rítmicas” diferentes. Como lo describe Garcia-Valenzuela: “… por cierto, no siempre encontramos estructuras rítmicas o melódicas en la música electroacústica pero lo que sí encontramos son proporciones de duración, ritmos que no están basados en el pulso y otras estrategias relacionales de organización”10. Además de las agrupaciones temporales conocidas en el ámbito de la música electroacústica, tales como las agrupaciones que no están basadas en el pulso o agrupaciones texturales, el autor introduce el término surrealismo sónico, que está relacionado con situaciones en las que se dan yuxtaposiciones entre diferentes “escenas auditivas” no relacionadas entre sí o que presentan transformaciones de su comportamiento natural, como por ejemplo yuxtaposiciones de espacios acústicos, yuxtaposiciones de sonidos cotidianos, sonidos ambientales y cotidianos en movimiento espacial, sonidos ambientales utilizados en un dominio diferente de organización temporal sin destruir su comportamiento y surrealismo derivado de las elongaciones temporales.

Según Bregman,11 las relaciones temporales entre sonidos (su separación en el tiempo, sus patrones u órdenes temporales) representan uno de los aspectos más importantes del sonido. La definición de gesto como un “movimiento en el tiempo” deja bien en claro que el aspecto

temporal jugará un papel fundamental a la hora de generar una comunicación intergestual. Estoy convencida que el conocimiento de las organizaciones temporales, los patrones y sus órdenes, representan también uno de los principales objetivos de nuestra atención ya sea desde el punto de vista analítico - identificación - o composicional - creación de modelos temporales interactivos entre los gestos instrumentales y electroacústicos-.

Para la identificación y la creación de estos modelos, tendré en cuenta dos criterios principales: el criterio de sincronicidad y el de asincronicidad. La sincronicidad en general se observa cuando dos objetos o eventos se coordinan en el tiempo y son “en cierta medida” dependientes el uno del otro; y la asincronicidad, se observa en situaciones en las que los objetos o eventos no están coordinados en el tiempo y actúan independientemente el uno del otro. También utilizaré para la clasificación el criterio de proporcionalidad o relaciones temporales proporcionales entre gestos y algunas organizaciones temporales conocidas en el ámbito de la música electroacústica, como la agrupación textural o el surrealismo sónico. Además, en mi opinión, en la música que combina instrumentos y sonidos electrónicos, las aproximaciones en las relaciones temporales entre eventos sonoros derivados de estos mundos distintos pueden crearse también por medio de la aplicación de los principios de un medio al otro. De este modo, algunos de los patrones rítmicos de la música instrumental pueden aplicarse a la

Page 40: En El Limite Nro2

40 | en el limite

organización del material electroacústico para así “romper con su organicidad” y crear nuevas “relaciones arquitectónicas”. También se puede proporcionar una especie de “organicidad” a la naturaleza del sonido instrumental, que usualmente es de naturaleza estrictamente “arquitectónica”, mediante la aplicación de las estrategias de agrupación de la música acusmática observables a través de la percepción.

Como resultado de la aplicación de las estrategias y los criterios que desarrollamos anteriormente en las propiedades temporales del gesto, podemos identificar y crear algunas de las siguientes relaciones gestuales:

Interacción temporal sincrónica: Se da cuando los patrones temporales de dos gestos actúan de forma sincronizada (dependencia). Se la denomina interacción sincrónica regular ya sea cuando los gestos tienen patrones de estructura/duración rítmicamente idénticos (“unirrítmicos”) o también cuando no poseen una estructura rítmica idéntica, pero puede reconocerse en ellos cierta interdependencia y regularidad en la sincronización entre sus patrones de duración. La interacción sincrónica irregular, por otro lado, se da en situaciones en las que los gestos no tienen estructuras rítmicas idénticas y su sincronización es irregular. Como una subcategoría de este tipo de relaciones podemos considerar la interacción rítmica sincopada, que se da cuando la estructura rítmica de dos gestos está sincopada en

relación a la otra. Esto supone una cierta alteración o interrupción del flujo del ritmo de un gesto (ya sea regular o irregular) causado por el patrón rítmico del otro gesto.

Interacción temporal asincrónica: Se presenta cuando los patrones temporales de dos gestos actúan de forma asincrónica (independencia). Interacción asincrónica regular representa las combinaciones de gestos con estructuras rítmicas regulares sin sincronización. En este tipo de interacción, todas las capas gestuales son rítmicamente independientes. Por otro lado, se la denomina interacción asincrónica irregular cuando tenemos una combinación de gestos con patrones rítmicos irregulares sin que exista ningún tipo de sincronización entre ellos. La interacción polirrítmica ocurre cuando interactúan varias capas de gestos con diferentes patrones o agrupaciones temporales. Estas relaciones de mayor complejidad pueden percibirse como patrones temporales “híbridos”, constituidos por la suma de la combinación de agrupaciones rítmicas/ temporales. Muchos compositores utilizan una combinación de relaciones sincrónicas y asincrónicas en el curso de una articulación gestual, ya sea una desincronización de gestos o capas de gestos previamente sincronizadas, o una sincronización de gestos o capas de gestos previamente asincronizadas.

Interacción proporcional temporal: un gesto representa la reducción (disminución) o multiplicación (aumento) proporcional de la duración o del patrón de duración de otro gesto.

Interacción por agrupación textural: interacción entre ritmos o patrones gestuales de duración, ya sean aleatorios o irregulares, que ocurren en diferentes capas de sonido.

Interacción atemporal: cuando no existe una organización rítmica o fuerza de agrupación alguna en la interacción percibida entre gestos; se pierde la sensación de ritmo, pulso y métrica.

Surrealismo sónico temporal: es una categoría especial de relaciones gestuales que pueden crearse a través de una combinación de patrones rítmicos “tradicionales” aplicados al material electroacústico -diferentes ritmos o patrones rítmicos aplicados a gestos compuestos de sonidos de naturaleza orgánica, como los ritmos sincopados de gotas de lluvia-, junto con las agrupaciones u organizaciones atemporales aplicadas a los gestos instrumentales. Aquí podrían incluirse las situaciones donde lo “instrumental” y lo “electroacústico” han intercambiado roles desde el punto de vista de la organización “rítmica/temporal”: gestos electroacústicos compuestos de sonidos ambientales y del entorno que poseen ritmo natural, como el sonido de un tren, la caída de gotas de lluvia, la pulsación de las olas, los sonidos de máquinas, etc., todos ellos con algún tipo de regularidad en sus patrones rítmicos; y los gestos instrumentales sin ritmo o patrones de ritmo significativos.

Page 41: En El Limite Nro2

en el limite | 41

2.1.3. Interacción gestual por trayectorias de sonoridad (loudness) La psicoacústica define la sonoridad como“la sensación subjetiva de la intensidad o magnituddel sonido”.12

Se puede crear una conexión entre dos gestos según sus variaciones, su evolución y sus intersecciones de sonoridad, de varias maneras:

Interacción crescendo: representa situaciones en las que el aumento de la intensidad de los gestos instrumentales se “entrecruza” (crosses over) con los gestos electroacústicos y alcanza su intensidad máxima o viceversa. Los gestos también pueden relacionarse mediante incrementos simultáneos de intensidad. Puede darse otra situación al crearse un gran gesto en crescendo a partir de capas de gestos instrumentales o electroacústicos más pequeños. Individualmente, estos gestos pueden tener diferentes caracteres de intensidad pero en conjunto se los percibe como un gran gesto en crescendo – la suma de las trayectorias de sonoridad. En general, este tipo de interacciones se observa en piezas para cámara/orquesta y sonidos electroacústicos, en las que, a pesar de que algunos de los gestos instrumentales y electroacústicos pueden tener un carácter en decrescendo, el flujo principal conformado por gestos con sonoridad creciente, participará en la percepción final de esta situación como en crescendo. (<)

Interacción decrescendo: Es la opuesta a la relación crescendo (>)

Interacción por intersección y entrecruzamiento de la sonoridad: Se da cuando los gestos suenan simultáneamente con diferentes evoluciones dinámicas de sonoridad.

Combinación de los modelos anteriores(< >, > <, etc.)

2.1.4. Interacción gestual según las características tímbricas Según la concepción tradicional, el timbre es el color tonal que representa la cualidad del tono y distingue un instrumento del otro. En psicoacústica, el timbre o la cualidad tono/ sonido está determinado por el comportamiento del contenido de la frecuencia o espectral del sonido en el tiempo, junto con sus transientes que son extremadamente importantes para la identificación del timbre.13 También puede definirse como “un conjunto de los parámetros de altura, duración, amplitud, componentes espectrales y evolución dinámica” que determina el “color del sonido”14. En la música electroacústica el timbre representa un complejo fenómeno de relaciones entre la frecuencia, el contenido espectral, la identidad sonora y la fuente de reconocimiento del sonido. El timbre se percibe y se entiende como una gestalt, es decir, como la reflexión de una unidad sonora y no así de las partes que lo componen.

Muchos compositores de música electroacústica han intentado encontrar respuestas a qué es exactamente el timbre, en qué situaciones es significativo utilizar el término o si su concepto es relevante en el contexto de la música electroacústica. En su intento de definir el

timbre, Smalley compara el concepto de timbre en la música instrumental tradicional (entendido como una extensión de la armonía y viceversa, es decir, cuando un compositor utiliza el análisis espectral para conceptualizar las relaciones con la altura y las cualidades sonoras, o la noción de la nota instrumental como aquella que combina la altura con el timbre), con la expansión de este concepto a partir de la aparición de la música electroacústica. De acuerdo con sus observaciones, la música instrumental suponía la presencia de fuentes identificables que permitían que el oyente pudiese relacionar el sonido con la fuente (el cuerpo sonoro - instrumento) y con la causa física humana (los movimientos del intérprete). Smalley se refiere a esta “unión causa-fuente” como “la tendencia natural a relacionar sonidos con sus supuestas fuentes y causas; y a relacionar sonidos entre sí porque parecen tener orígenes compartidos o asociados”.15 Por otro lado, en la música electroacústica, las fuentes y las causas pueden ser evidentes, ambiguas o desconocidas. Por lo que Smalley crea el término subrogación (surrogacy)16 para describir los niveles y grados en los cuales un oyente puede relacionarse a través de la percepción con las fuentes físicas o gestuales, ya sean reales o imaginarias.

En la música electroacústica, cuando no podemos identificar las fuentes y las causas reales y no es posible establecer una unión causa-fuente, el timbre se relacionará con el despliegue temporal y la conformación espectral, es decir, la espectromorfología, y se define como “la fisionomía sonora general

Page 42: En El Limite Nro2

42 | en el limite

cuyo conjunto espectromorfológico permite que se le atribuya una identidad”.17 Smalley sugiere que al buscar la identidad tímbrica en la música electroacústica, debemos dirigir nuestra atención a la espectromorfología intrínseca de la obra musical, que está relacionada con el movimiento, el comportamiento, la experiencia en el espacio, la energía, las tensiones psicológicas, etc.

Wishart abordó18el tema del reconocimiento de objetos sonoros individuales considerando nuestra experiencia de ellos. De acuerdo con sus observaciones, ciertos sonidos retendrán su capacidad de ser reconocidos incluso bajo las formas de distorsión más extremas, dada su significación inmediata en el oyente y su complejidad de articulación única, como por ejemplo la voz humana que puede producir entidades tímbricas distintas (gritos, glosolalia, sonidos eróticos, llantos, etc.) en rápida sucesión. Se puede reconocer la voz humana incluso si se modifican sus características espectrales, pero será muy difícil imitarla electrónicamente sin reconocer su “naturaleza sintética”. No ocurre lo mismo con algunos sonidos sintetizados, como por ejemplo la imitación electrónica de sonidos ambientales reales. En este caso la capacidad de reconocer el origen de estos sonidos dependerá de su ubicación contextual. La imitación electrónica aislada de ciertos sonidos ambientales, tales como un grillo, un pájaro o el sonido de las olas, pueden ser difíciles de identificar. Por otro lado, si se ubican en un ambiente acústico

lo suficientemente realista, incluso estas imitaciones electrónicas podrán sonar “reales”, sin que se reconozca su verdadero origen sintético (electrónico).

Christopher Biggs, en su investigación sobre la identificación del timbre en la música electroacústica en vivo19, sugiere un modelo para la interacción entre la investigación en psicoacústica y la experimentación musical en el área de la música mixta. Por ello parte de los estudios que sugieren que “la actividad neuronal en la corteza auditiva primaria representa los sonidos en términos de objetos auditivos y no en términos de características acústicas invariables” y de la definición de identificación tímbrica como “la relación perceptual de los objetos auditivos independiente del mecanismo de producción de sonido, del agente aparente o de la fuente sonora percibida” y reconoce tres maneras en las que los sonidos electrónicos pueden identificarse a través del timbre con instrumentos en vivo: reproducción del timbre (reproducción del instrumento en vivo en la parte electrónica con manipulación limitada); integración del timbre (reproducción del instrumento en vivo en la parte electrónica con manipulación ampliada); y asociación del timbre (uso de diferentes timbres en la parte electrónica que están asociados con los instrumentos en vivo).

Partiendo de los experimentos psicoacústicos hechos sobre identificación del timbre en la música mixta, tal como los propuso Biggs, de la noción de Smalley sobre unión de fuentes y subrogación, y del concepto de Wishart de capacidad de reconocimiento contextual

del timbre, podemos distinguir las siguientes relaciones tímbricas interactivas entre gestos:

Interacción por reproducción de timbre:se da cuando el timbre del gesto electroacústico es una reproducción del timbre del gesto instrumental, mediante el uso de sonidos instrumentales grabados, ligeramente manipulados.

Interacción por derivación de timbre: ocurre cuando el timbre del gesto instrumental es una reproducción del timbre del gesto electroacústico, con un mayor grado de manipulación.

Interacción por asociación de timbre: cuando el timbre distintivo del gesto electroacústico no tiene una naturaleza instrumental, aunque puede simular en cierta medida las características instrumentales e, incluso en caso de no ser real, puede percibirse o asociarse como “instrumental”. Un ejemplo de esto es el uso de sonidos sintéticos que simulan algunas de las propiedades del sonido instrumental, como los sonidos del viento al simular el sonido de aspiración de los instrumentos de viento o los sonidos sintéticos “con sabor metálico” que simulan algunos instrumentos de percusión.

Estas tres categorías expresan diferentes grados de fusión del timbre desde la perspectiva de la capacidad de reconocimiento del timbre; representan lo que Smalley llama unión de

Page 43: En El Limite Nro2

en el limite | 43

fuente y corresponden a la “subrogación de primer y segundo orden”.

El contraste por disociación de timbre es la interacción entre los gestos independientes en lo que respecta al timbre, cuando el timbre distintivo del gesto electroacústico no puede asociarse al timbre del gesto instrumental. Esta situación sería equivalente a lo que Smalley denomina “subrogación remota”.

2.2 Modelos de interacción gestual basados en el modelo tripartito de estructuraLa flexibilidad del modelo tripartito de estructura (comienzo, continuación, conclusión) permite su aplicación a cualquier nivel de estructura musical, ya sea la nota, el objeto, el gesto, la textura, el tipo de movimiento, etc. Smalley hace una distinción entre cuatro arquetipos morfológicos básicos de la estructura musical: el ataque (impulso), el ataque-decaimiento, el ataque-decaimiento invertido y la continuación graduada.20 En su investigación de los objetos sonoros, en la cual analizó la forma de su continuación en el tiempo, Wishart reconoce tres categorías morfológicas básicas: la continuación discreta, representada por sonidos individuales no resonantes, la continuación iterada, observada en sonidos con ataques rápidos sostenidos y la continuación continua, reconocida en los sonidos sostenidos.21 Wishart considera importante distinguir aún más dentro de estas características morfológicas entre la morfología intrínseca, relacionada con las propiedades físicas del medio sonoro (por

ejemplo las campanas, dadas sus propiedades internas de resonancia, continuarán sonando aún después del aporte inicial de energía) y la morfología impuesta, relacionada con el aporte continuo de energía (por ejemplo el sonido de la flauta requiere un aporte continuo de energía – aire exhalado – para producir el sonido).22 Por lo tanto, la morfología intrínseca estará más relacionada con la fuente, en el sentido de sus características físicas, mientras que la morfología impuesta tendrá una relación más fuerte con la causa.

Aún teniendo en cuenta las grandes semejanzas que existen entre los conceptos de morfologías de Smalley y Wishart, es interesante destacar que mientras los principales arquetipos morfológicos de Smalley están más estrechamente relacionados con la morfología “externa” de las estructuras de sonido, o incluso con las relaciones entre ellas, las categorías morfológicas de Wishart tienen más en cuenta la morfología “interna” (ya sea intrínseca o impuesta) de los objetos sonoros y podrían utilizarse para la descripción de matices delicados del objeto sonoro, pero con menor potencial de ser aplicada a las relaciones entre ellos. Debido a estas observaciones y a las consecuencias que tienen a la hora de encontrar relaciones entre gestos como formas gestálticas, podemos extender el modelo de estructura tripartito y algunos de los arquetiposmorfológicos antes mencionados más allá de los gestos individuales e intentar entender la totalidad de la relación entre ellos, sin tener en

cuenta la morfología intrínseca o impuesta del sonido (la fuente o la causa del sonido).

Desde esta perspectiva, podemos identificar o generar diferentes tipos de relaciones gestuales interactivas, como las siguientes:

Interacción por ataque: es la combinación entre dos o más gestos con perfil de ataque, ya sean simultáneos o separados en el tiempo.

Interacción iterada: es la combinación de varios gestos cortos con perfil de ataque, de manera que no se perciban más como elementos separados sino como una unidad.

Interacción por resonancia: puede percibirse como ataque-decaimiento en donde un gesto representa el “ataque” y el otro representa el “decaimiento”; o en situaciones donde el final de un gesto instrumental resuena en el sonido electrónico o viceversa.

Interacción por resonancia invertida: Puede percibirse como ataque-decaimiento invertido, en donde un gesto representa la fase de decaimiento invertido que lleva a otro gesto de ataque; o como la transición de un gesto instrumental a un gesto electroacústico (o viceversa), que termina abruptamente.

Interacción por combinación de resonancia (ataque-decaimiento) y resonancia invertida (ataque-decaimiento invertido).

Page 44: En El Limite Nro2

44 | en el limite

Interacción “cadencial”: Se da cuando el gesto electroacústico acentúa o prolonga el final del gesto instrumental o viceversa. La cadencia se entiende como el movimiento convencionalmente asociado a la finalización de una frase, que funciona como una forma de dar énfasis al final a través de la llegada de algo más o menos esperado (tradicionalmente un intervalo o un acorde), o una resolución que puede variar en sus grados de explicitación o ambigüedad. En cierto modo, la cadencia es lo opuesto de un final abrupto y repentino, que es el caso del modelo de ataque o modelo de ataque-decaimiento de relación.

Interacción por cross-fading: representa los modelos híbridos de relaciones inter-gestuales que se fusionan o combinan en alguna de sus fases temporales.

2.3 Interacción gestual contrapuntística. Tanto en la música electroacústica como en la música mixta se pueden observar relaciones entre materiales musicales (gestos, frases, etc.) que son similares a aquellos provenientes de la teoría musical tradicional y que están basados en el contrapunto. Aunque la práctica convencional de composición desarrolló en gran medida los conceptos de contrapunto, ya se ha reconocido su potencial constructivo de relaciones para crear conexiones entre las estructuras musicales y los eventos en la música acusmática. La audición y el estudio de las piezas electroacústicas de diferentes décadas muestran que estos métodos se han aplicado

tanto intuitiva como intencionalmente, en forma más simple o más compleja, en muchas composiciones electroacústicas.

Las combinaciones de dos o más gestos de manera que establezcan una relación entre sí, mientras cada uno retiene su propia individualidad, se denominarán interacciones contrapuntísticas o relaciones contrapuntísticas. De acuerdo con las diferentes formas de creación de estas interacciones, podemos distinguir las siguientes categorías de interacciones contrapuntísticas:

Interacción repetitiva: se presenta cuando el gesto instrumental se repite en el sonido electrónico o viceversa.

Interacción imitativa: se da cuando el gesto electroacústico es una forma de imitación del gesto en el instrumento o viceversa. Cuando se da simultáneamente, la interacción gestual imitativa puede enfatizar su carácter contrapuntístico. En algunas ocasiones, sin embargo, los gestos que se encuentran en relación imitativa pueden estar más separados en el tiempo. En el caso de que un gesto imitativo comience casi al momento de la finalización del gesto previo, su coexistencia en simultaneidad puede durar por tan solo un corto período de tiempo.

Interacción canónica: es un tipo de relación contrapuntística en el que un gesto va seguido de otro gesto que imita o replica su estructura

rítmica o tonal, ya sea relacionada al ritmo o relacionada a la altura.

Interacción canónica con bucle (loop): ocurre cuando existe una unión entre gestos instrumentales y gestos electroacústicos que están relacionados por repetición constante (“gestos en bucle”).

Interacción proporcional: es cuando un gesto “imita” la estructura de otro pero con un cambio proporcional. Esta imitación proporcional puede involucrar tanto el ritmo, como la altura o ambos. Por ejemplo, un gesto puede imitar el patrón/duración rítmica de otro por aumento o disminución de sus valores de duración/ritmo, sin que se produzcan cambios en la estructura de alturas. También puede ocurrir que un gesto imite a otro a través de un cambio de altura o de manipulación de intervalos, sin que se modifiquen los valores de patrón/ duración rítmica. La última situación estará representada por la relación entre dos gestos en la que uno es la imitación del otro con un cambio proporcional producido tanto en la altura como en la estructura rítmica. Algunos compositores han intentado crear un modelo detallado de contrapunto, diseñado específicamente para la música electroacústica. Por ejemplo Wishart intentó establecer un concepto de relaciones de contrapunto en la música acusmática que no dependa de una estructura de entramado, a través del análisis de los conceptos de contrapunto en la música

Page 45: En El Limite Nro2

en el limite | 45

convencional y su posterior comparación en el continuo multidimensional. El hecho de sentir una experiencia musical como contrapuntística está dada, excepto en la mera coexistencia de estratos musicales, por el hecho de que “deben relacionarse entre sí o interactuar de algún modo durante el curso de su desarrollo individual”.23 Luego, según Wishart, pueden establecerse dos criterios de reconocimiento de la estructura contrapuntística: el principio arquitectónico, que provee puntos de referencia en la progresión del material musical (concepto de transformación de un área tímbrica o de morfología sonora a otra, comparable a la progresión tradicional de una tonalidad a otra) y el principio dinámico, que determina la naturaleza del movimiento (la evolución gestual y la interacción entre estratos separados, comparables al contrapunto tradicional de nota contra nota, relacionado con la interacción de consonancia-disonancia armónica y coordinación rítmica).24

De acuerdo con estos conceptos y si consideramos la música mixta según los conceptos de continuo y de estrato,25 podemos analizar las relaciones contrapuntísticas entre gestos de naturalezas diferentes y distinguir, asimismo, distintas relaciones entre ellos ya sean horizontales (arquitectónicas) o verticales (dinámicas). Todo esto lleva a establecer las siguientes relaciones entre gestos:

Contrapunto entre gestos homogéneos: se da entre gestos morfológicamente similares.

Contrapunto entre gestos heterogéneos: ocurre entre gestos morfológicamente diferentes.

Lo que determina que un contrapunto sea “homogéneo” o “heterogéneo” es el carácter morfológico de los gestos, independientemente de sus características tímbricas. Los gestos en estas relaciones pueden ser tímbricamente similares o diferentes.

Relación disparadora (triggering): un gesto genera el comienzo o la finalización abrupta de otro gesto o potencia un cambio en su comportamiento. Por ejemplo, el gesto instrumental sirve como disparador del gesto electroacústico y viceversa. Este desencadenamiento puede darse ya sea de acuerdo con los conceptos morfológicos, como la potenciación del comienzo de un gesto por el carácter morfológico de otro, o el inicio de la terminación de gestos existentes por el comienzo repentino de otro gesto, etc. (interacción disparadora por potenciación entre morfologías), o según los conceptos de transformaciones tímbricas, como por ejemplo el cambio de timbre gradual de un gesto a otro (interacción disparadora por transformación tímbrica). Por ejemplo, el sonido de un violonchelo mediante la utilización de diversas técnicas extensivas de ejecución puede transformarse gradualmente en un chirrido, que, una vez sometido a diversas manipulaciones y distorsiones, se convierte en el sonido de una puerta chirriante en la parte electrónica.

Contrapunto por división gestual: es una relación frecuentemente observada que ocurre cuando el curso de un gesto se divide en dos o más partes, algunas provenientes del instrumento y otras provenientes del sonido electrónico. El ejemplo más simple de esta división gestual se da cuando un gesto comienza en un instrumento y finaliza en el sonido electrónico o viceversa. Pueden observarse interacciones más complejas cuando un gesto mayor está compuesto de varias “alternancias” entre sonidos instrumentales y electroacústicos.

2.4 Relaciones gestuales basadas en características morfo-semánticasSi tenemos en cuenta que el gesto se determina por el movimiento de un punto a otro, que posee su propio camino específico en el espacio y en el tiempo y que posee potencial energético, podemos identificar diferentes relaciones entre gestos basadas en sus características morfo-semánticas, como la dirección o la energía.

2.4.1. Dirección Si consideramos al gesto como un “movimiento en el tiempo”, podemos identificar una gran variedad de tipos de movimientos. Dado que todo movimiento implica una dirección, podemos reconocer diferentes tipos direccionales de movimiento. Una de las teorías más complejas sobre el movimiento es la teoría espectromorfológica de Smalley, en la que se distingue entre seis tipos de movimiento principales: lineal, curvilíneo, unidireccional, bi o multidimensional, recíproco y céntrico o cíclico.26

Page 46: En El Limite Nro2

46 | en el limite

Dado que estas categorías poseen un amplio rango de aplicación en los diferentes niveles de la estructura musical, se pueden aplicar también al gesto, en particular al contorno de su movimiento externo. Desde la perspectiva de los dos tipos de “dirección” pueden analizarse otras relaciones gestuales: dirección en el campo de las alturas y dirección como evolución en el tiempo (dirección en el campo de duración).

2.4.1.1. Dirección en el campo de las alturas Si nos basamos en el estudio de las relaciones entre gestos en lo que respecta a la similitud o la diferencia de su dirección en el campo de las alturas, podemos distinguir dos tipos principales de movimiento: similar, cuando los gestos se mueven hacia la misma dirección y diferente, cuando los gestos se mueven en direcciones diferentes. Teniendo en cuenta el carácter del “contorno exterior” de estos tipos de movimientos (relaciones línea/curva, relaciones con ciertas “referencias centrales” - altura/ frecuencia de un sonido y otras manipulaciones de gestos en su dirección - estirar o contraer su “camino”) podemos combinar estos criterios y así generar la siguiente clasificación de modelos gestuales interactivos:

Interacción lineal: se presenta cuando existe una interacción por movimiento a lo largo de una línea recta en las relaciones donde dos gestos se mueven al mismo tiempo por un camino directo, derecho y sin desviaciones. Además, podemos distinguir entre interacción lineal por dirección de movimiento similar

(unidireccional), cuando dos o mas gestos se mueven linealmente en la misma dirección, como por ejemplo ascendente, cuando los gestos se mueven en la misma dirección de forma ascendente en el registro, descendente, cuando los gestos se mueven en la misma dirección de forma descendente en el registro, plano, cuando los gestos se mueven en la misma dirección sin que se presenten cambios significativos en sus alturas/frecuencias; o por diferentes direcciones de movimiento (bi/ multidireccional), cuando dos o más gestos se mueven juntos linealmente en diferentes direcciones. Aquí podemos distinguir entre interacción convergente, cuando los gestos se mueven en diferentes direcciones y comienzan alejados pero finalizan cerca el uno del otro en lo que respecta a su altura/ frecuencia, interacción divergente, cuando los gestos se mueven en diferentes direcciones y comienzan cerca pero finalizan alejados el uno del otro en lo que respecta a su altura/ frecuencia e interacción reciproca, cuando el movimiento de un gesto en una dirección se equilibra por un movimiento recíproco de otro gesto en dirección opuesta. Para que se produzca esta relación se debe escuchar la dirección del primer movimiento gestual para poder evaluar el carácter de dirección del siguiente gesto como recíproco. Aquí radica la diferencia con las primeras dos relaciones, en las cuales percibimos la convergencia o divergencia de mejor manera cuando se dan simultáneamente. Otro ejemplo de interacción recíproca se da cuando un gesto con una

fase ascendente y descendente está divido entre instrumento/conjunto de cámara/ orquesta y sonido electrónico. A menudo podemos observar combinaciones de estas tres relaciones gestuales entre instrumentos y sonidos electrónicos.

Interacción curvilínea (interacción por movimiento curvilíneo): se presenta cuando dos gestos se mueven juntos a través una línea pero, en un determinado momento, el curso de su movimiento cambia de ángulo y de dirección. Los gestos en relación curvilínea pueden continuar también en direcciones similares o diferentes una vez que el ángulo del movimiento cambie.

Existen ciertas relaciones gestuales que se encuentran entre la interacción lineal y la curvilínea. Éstas se dan cuando el gesto se completa en la cinta por movimiento simultáneo en direcciones diferentes. Denominaremos esta situación modelo como interacción por movimiento “bi/ multidireccional virtual”. En este caso, la manipulación de la dirección del gesto instrumental lograda a través de la creación de su continuación “virtual” electroacústica permite que se formen eventos musicales que son imposibles de generar utilizando tan solo el instrumento (por ejemplo, la flauta no puede tocar un glissando simultáneo en dos direcciones, etc.).

Page 47: En El Limite Nro2

en el limite | 47

Interacción por manipulación de la dirección en el campo de las alturas: puede llevarse a cabo por contracción, cuando un gesto es la contracción de otro gesto en relación a su estructura de alturas o a su registro, o por expansión, cuando un gesto es la expansión de otro gesto en relación a su estructura de alturas o a su registro.

La mayoría de los modelos analizados pueden aplicarse también en relación a un punto de referencia central, tal como cierta altura o frecuencia del sonido. En este caso las conexiones no estarán representadas por las relaciones entre gestos en sí mismas, como es, por ejemplo, el caso de las relaciones convergentes y divergentes, sino por la relación entre los gestos y el punto central de referencia. Esta interacción céntrica puede diferenciarse también entre centrípeta, - movimiento hacia el centro, como los gestos con movimientos lineales similares de carácter ascendente o descendente (movimientos convergentes dirigidos hacia el centro), centrífuga, - el movimiento desde el centro hacia fuera, como los gestos con movimientos lineales similares de carácter ascendente o descendente (diferentes movimientos divergentes y dirigidos desde el “centro” hacia fuera) o pericéntrica, - las relaciones entre los movimientos gestuales alrededor del punto de referencia central, como movimientos cíclicos de gestos alrededor de ciertas alturas o registro, etc.

2.4.1.2. Dirección entendida como una evolución en el tiempo (dirección en el campo de las duraciones) Dado que el movimiento se caracteriza no sólo por su recorrido en el espacio, sino también por su comportamiento en el tiempo, podemos considerar la dirección también como una evolución en el tiempo o una dirección en el campo de la duración, que será expresada por diferentes contornos temporales. Según los tres niveles de propiedades temporales del movimiento27 de Wishart, entre los que se encuentran las propiedades temporales de primer orden (tipos de velocidad), las propiedades temporales de segundo orden (cambios en la velocidad a través del tiempo), las propiedades temporales de tercer orden (modo en el que las propiedades temporales de segundo orden cambian a través del tiempo) y sus seis clases de movimiento (contornos de tiempo) – constante, acelerado, desacelerado, irregular, acelerado-desacelerado y desacelerado-acelerado – aplicados al nivel gestual, podemos reconocer las siguientes relaciones gestuales:

Interacción por velocidad constante: se da cuando los gestos se relacionan entre sí a través de la velocidad constante similar de su movimiento (lento, medio o rápido).

Interacción por velocidad irregular: se presenta cuando tanto los gestos instrumentales como los electroacústicos tienen una velocidad irregular o cambiante.

Interacción por aceleración: ocurre cuando los gestos se encuentran en aceleración de forma simultánea o “contrapuntística”.

Interacción por desaceleración: se da cuando los gestos se encuentran en desaceleración de forma simultánea o “contrapuntística”.

Tipos combinados de interacción: se presenta cuando ocurren combinaciones diferentes entre gestos acelerados y desacelerados o incluso combinaciones entre aceleraciones y desaceleraciones en un mismo gesto. Un ejemplo es el caso de una relación simple de aceleración-desaceleración o de desaceleración-aceleración, o un gran gesto combinado que puede estar compuesto de varias partes de carácter acelerado o desacelerado, algunas de estas realizadas por un instrumento y otras por sonidos electrónicos.

Interacción por manipulación temporal: se da cuando existen relaciones en las que un gesto estará contraído (interacción por contracción temporal) o expandido (interacción por expansión temporal) en comparación con otro gesto.

En ciertos casos se puede observar una combinación de modelos caracterizados por contracción o expansión tanto en altura como en tiempo. La combinación de diferentes modelos direccionales expuestos anteriormente permitirá la creación de numerosas

Page 48: En El Limite Nro2

48 | en el limite

derivaciones de relaciones interactivas, como por ejemplo, la combinación de gestos acelerados y desacelerados con direcciones de movimiento convergentes o divergentes, la combinación de gestos acelerados/ desacelerados con estructuras de altura contraídas/expandidas, diferentes direcciones de movimiento, etc.

2.4.2. Energía Si consideramos los gestos como “movimientos en el espacio y en el tiempo”, todo movimiento se relacionará también con una sensación de energía. Por ejemplo, las variaciones en las velocidades de los gestos y las combinaciones de diferentes modelos de relaciones de movimiento temporal y direccional, influenciarán el modo en el que se podrán percibir los gestos. Los movimientos a bajas velocidades o a velocidades desaceleradas pueden parecer tener menos energía o energía decreciente, mientras que los movimientos rápidos o acelerados pueden evocar una sensación de energía acumulada o en incremento. Los movimientos a una velocidad constante pueden aparentar mantener su nivel de energía, mientras que los movimientos de aceleración-desaceleración pueden evocar la sensación de energía culminante. Asimismo, la contracción y la expansión pueden generar una sensación de energía; cuando la contracción puede percibirse como energía más “localizada” y la expansión como energía más “difusa”. Se pueden percibir diferentes cantidades de energías relacionadas no sólo con las características del movimiento,

sino también con la intensidad de los gestos. La trayectoria de la intensidad puede influenciar nuestra percepción de la energía de una manera similar a la que lo hacen los cambios en la velocidad. Se puede percibir más energía cuando la intensidad se encuentra en aumento que cuando se encuentra en disminución. De forma similar, la intensidad constante puede también percibirse generalmente como energía constante. Pueden percibirse varias relaciones energéticas en diferentes densidades espectrales de gestos, como, por ejemplo, cuando un aumento de la densidad espectral puede generar una sensación de energía aumentada o acumulada, etc. La cantidad de energía de un gesto puede potenciar o disparar el inicio de otro gesto, acelerar o desacelerar su continuación o su final. La energía no desaparecerá, sino que se transformará o convertirá en otra forma de energía, como, por ejemplo, la pérdida del potencial de energía cuando la intensidad de un gesto se encuentra en disminución se convierte en la energía cinética de otro gesto y acelera su contorno temporal. De acuerdo con el carácter energético de los gestos y a los cambios de energía involucrados en las relaciones entre gestos, podemos distinguir las siguientes relaciones:

Interacción por energía constante o mantenida: se da cuando existen relaciones entre gestos que no presentan cambios significativos en el carácter de su movimiento, su intensidad, su velocidad y su densidad espectral.

Interacción por incremento de energía: ocurre en las diferentes relaciones gestuales relacionadas con el incremento de la intensidad (crescendo) y/o de la velocidad (aceleración) y/o de la densidad espectral.

Interacción por disminución de energía: la encontramos en las diferentes relaciones gestuales relacionadas con la disminución de la intensidad (decrescendo) y/o de la velocidad (desaceleración) y/o de la densidad espectral.

Interacción por energía transformada o convertida: se da en las relaciones entre gestos cuando cierto carácter o “tipo de energía” de un gesto se convierte o se transforma en otro “tipo de energía” de otro gesto. Esto sucede, por ejemplo, cuando la energía estática de un gesto se convierte en energía cinética de otro; o cuando la energía decreciente de un gesto en desaceleración o en decrescendo se transforma en energía incrementada de un gesto en aceleración o en crescendo. Algunas de las relaciones disparadoras que hemos descrito antes podrán percibirse como transformaciones de energía entre gestos; la energía localizada “estática” de un ataque corto puede transformarse en energía cinética de otro gesto rápido o de gestos que vienen en cadena, etc.

Combinación de los modelos previos.

Page 49: En El Limite Nro2

en el limite | 49

2.5. Modelos espaciales de interacción gestualSi relacionamos el movimiento con el espacio acústico externo y arquitectural y consideramos que los gestos se “reflejan en la trayectoria espacial”28 (poseen un “comportamiento espacial” producido por ciertos tipos de trayectoria), se puede identificar una amplia variedad de estas trayectorias (movimientos gestuales en el espacio), que se denominan gestos espaciales. De hecho, “cualquier aspecto dirigido de un movimiento puede ser considerado un gesto espacial”.29

En el campo de la música acusmática, Wishart y Smalley se han encargado de analizar en sus trabajos30 un gran número de movimientos espaciales. Valiéndose de la visualización de un espacio virtual acústico con diferentes configuraciones de parlantes, los compositores pueden crear diferentes tipos de gestos espaciales según sus diferentes direcciones de movimiento; como, por ejemplo, línea recta, curva, circular, cíclica, simétrica, asimétrica; y sus distintas categorías como, por ejemplo, según la simetría del movimiento, los gestos pueden preservar un marco lineal, una simetría central o una simetría dentro de un marco rotativo. Todos estos modelos gestuales pueden combinarse para construir diferentes relaciones espaciales, de acuerdo con su tipo de movimiento, dirección, distancia en el espacio, etc.

Sin embargo, cuando la música combina instrumentos y sonidos electroacústicos, varias de estas posibilidades serían más hipotéticas que prácticas. En primer lugar, en el caso

de sonidos electroacústicos fijos, el uso más común es el de la configuración estéreo y la posición fija del intérprete. Durante la interpretación es posible espacializar el sonido instrumental. Aún así este caso no es tan común. Las interpretaciones que incluyen “sonidos electrónicos en vivo” (live electronics) están más abiertas a los diferentes tipos de experimentación con sonidos en el espacio, aunque puede ser bastante difícil mantener un sonido instrumental bien balanceado y “no demasiado artificial”. La manera en la que los gestos se moverán en el espacio influenciará la manera en la que el oyente los perciba. Por ejemplo, un gesto que se mueve en línea recta de derecha a izquierda sonará diferente que el mismo gesto si se moviera circularmente en el espacio alrededor del oyente. Las interacciones de los gestos musicales con el espacio dadas por la manipulación espacial pueden resultar en diferentes transformaciones morfológicas, que percibiremos a través de diferentes cambios, como, por ejemplo, cambios en la riqueza o en el contorno espectral. De este modo, la articulación espacial funciona como una determinante morfológica que crea una relación cercana entre la espaciomorfología y la espectromorfología. Desde esta perspectiva, según Smalley, la difusión sonora se vuelve un arte frágil, que afectará tanto a la sustancia como a la estructura musical.31

Dado que estos aspectos espaciales se encontraban fuera del campo de mi investigación y era imposible abarcar toda

la complejidad involucrada en materia de la localización espacial, por razones prácticas de interacción entre gestos, sólo haré distinción entre algunos de los modelos más elementales de relaciones espaciales entre gestos instrumentales y electroacústicos.

Relación independiente (contraste espacial): se da cuando los gestos actúan independientemente en el espacio, es decir, tienen diferente localización espacial. En condiciones simples de estéreo básico, un ejemplo puede ser un gesto localizado en la derecha y otro en la izquierda.

Relación interactiva (fusión espacial): se presenta cuando los gestos interactúan entre sí a través de la dirección de su movimiento en el espacio. En la fusión espacial completa, los gestos tienen una localización idéntica en el espacio a lo largo de toda su duración. En la fusión espacial parcial, algunas fases temporales de los gestos tienen una localización idéntica en el espacio, mientras que otras fases están distribuidas y dirigidas de manera diferente en el espacio: en la relación convergente, los gestos que están inicialmente separados en el espacio se acercan entre sí a lo largo del tiempo y su final se percibe en la misma localización espacial; en las relaciones divergentes, los gestos comienzan cerca el uno del otro, en la misma localización espacial y luego se alejan entre sí a lo largo del tiempo y terminan en diferentes localizaciones espaciales.

Page 50: En El Limite Nro2

50 | en el limite

Se pueden crear otras interacciones combinando los modelos anteriores.

Relación disparadora (disparador de movimiento espacial): supone una interacción espacial cuando un gesto potencia el movimiento de otro gesto. Se da, por ejemplo, cuando la llegada de un gesto a cierta ubicación causa un movimiento repentino y la partida de otro gesto de su ubicación. Las ubicaciones de llegada y partida pueden ser iguales o diferentes. El hecho de que el movimiento de un gesto cause el cambio en la ubicación y el movimiento de otro gesto es un factor determinante del disparador espacial. Por ejemplo, en una condición simple de estéreo, un gesto que se mueve rápidamente de derecha a izquierda, al llegar a la izquierda causa que el gesto que comenzó a la izquierda se mueva hacia la derecha, etc.

Cabe aclarar que todos los ejemplos de relaciones gestuales pueden tener distintas interpretaciones, incluso un ejemplo puede ser analizado desde perspectivas diferentes. Por ejemplo una interacción gestual puede categorizarse de acuerdo con las relaciones de altura o de ritmo, pero puede analizarse también desde una perspectiva contrapuntística o gestáltica.

3. Conclusiones La creación de modelos teóricos que den cuenta de las diferentes relaciones gestuales interactivas puede aportar herramientas útiles e interesantes

para el análisis de la música mixta. Es deseable que se realicen estudios más profundos sobre las relaciones gestuales interactivas y que se ponga más atención en las interacciones texturales y las diferentes interrelaciones entre gestos y texturas para que se puedan así abrir nuevos horizontes que apunten hacia la aprehensión y definición de nuevas formas musicales, no solo en la música mixta, sino también en la música electroacústica y la música contemporánea en general.

La toma de conciencia de estas relaciones y su aplicación bajo una perspectiva personal como una de las posibles técnicas de composición puede ayudar al compositor a crear eventos perceptivamente interesantes, dinámicos y variables en el discurso musical. En mi opinión personal, el acto de componer se encuentra entre la intuición y la intención, la libertad y la conciencia. La intuición, y al mismo tiempo un fuerte sentido de la estructura y la forma, no son conceptos incompatibles. Al contrario, la esencia de una expresión musical sincera debería surgir de un balance entre la libertad, sin miedo de confiar en la intuición, junto con el conocimiento de las posibles maneras de estructurar el material musical y su uso conciente. Desde esta perspectiva, en el curso de una composición, no siempre podremos utilizar los modelos sugeridos anteriormente de forma conciente, pero seguramente podremos valernos de ellos y lo haremos en ciertos momentos.

Además, el conocimiento de las diferentes relaciones interactivas y su reconocimiento

perceptivo pueden convertirse en una herramienta eficiente para escuchar y puede ayudar a comprender mejor una obra mixta. Todo esto crea una relación más cercana de lo que jamás se ha observado entre la teoría y la práctica musicales – el análisis, la composición y la percepción.

Traducción de Lucas Traba Alumno del Traductorado Público en Idioma Inglés de la Universidad Nacional de Lanús Revisado y supervisado por Trad. Publ. Mariela Santoro y Raúl Minsburg

Page 51: En El Limite Nro2

en el limite | 51

Bibliografía

Bachratá, Petra. 2010. Gesture Interaction in Music for Instruments and Electroacoustic Sounds. Tésis doctoral. Universidade de Aveiro.

Bayle, François. 1993. Musique acousmatique – propositions... ... positions. Paris: Buchet /Chastel.

Biggs, Christopher. 2007. Timbre Identification and the Perceptual Reconciliation of Live Instruments and Electronics. Disertación doctoral. Kansas City: University of Missouri – Kansas City.

Bregman, Albert S. 1994. Auditory Scene Analysis: the Perceptual Organization of Sound (nueva edición). Cambridge: MIT Press.

Chion, Michel. 1995. Guide to Sound Objects. Pierre Schaeffer and Musical Research. Traducción al inglés de la versión de 1983 por John Dack and Christine North. En: ElectroAcoustic Resource Site. http://www.ears.dmu.ac.uk

Cooper, Grosvenor and Meyer, Leonard B. 1960. The Rhythmic Structure of Music. Chicago: University of Chicago Press.

Emmerson, Simon (ed.) 1986. The Language of Electroacoustic Music. London: Macmillan Press Ltd.

Ferneyhough, Brian. 1982. “Form-Figure-Style: An Intermediate Assessment.” En: Boros, James and Toop, Richard (eds). Brian Ferneyhough – Collected Writings. 2006 (reimpresión de 1998). London: Routledge. 21-28.

Ferneyhough, Brian. 1984. “Il Tempo Della Figura.” En: Boros, James and Toop, Richard (eds). Brian Ferneyhough – Collected Writings. 2006 (reimpresión de 1998). London: Routledge. 33-41.

Garcia-Valenzuela, Pablo. 2006. Temporal Forces in Electroacoustic Music. EMS: Electroacoustic Music Studies Network, Beijing.

http://www.ems-network.org/spip.php?article238 Gritten, Anthony and King Elaine. 2006. Music and Gesture. Aldershot: Ashgate Publishing Limited.

Hatten, Robert S. 2004. Interpreting Musical Gestures, Topics, and Tropes: Mozart, Beethoven, Schubert. Bloomington: Indiana University Press.

Ihde, Don. 2007. Listening and Voice. Phenomenologies of Sound (segunda edición). Albany: State University of New York Press.

Landy, L., Atkinson, S., Dal Farra, R., Weale, R., Couprie, P. et al. eds. (desde 2002). EARS: ElectroAcoustic Resource Site. http://www.ears.dmu.ac.uk/

Lidov, David. 2005. “Mind and Body in Music.” In: Lidov, David. Is Language a Music? Writings on Musical Form and Signification. Bloomington: Indiana University Press. 145-164.

Lidov, David. 2006. “Emotive Gesture in Music and its Contraries.” En: Gritten, Anthony and King, Elaine. Music and Gesture. Aldershot: Asgate. 24-44.

Mandelbrojt, Jacques. 1996. Les Unités Sémiotiques Temporelles - éléments nouveaux d’analyse musicale. Marseille: Édition MIM – Documents Musurgia.

Menezes, Flo. 2002. “For Morphology of Interaction.” Organised Sound 7(3): 305-311.

Nattiez, Jean-Jacques. 1990. Music and Discourse: Toward a Semiology of Music. (tr.Carolyn Abate). Princeton: Princeton University Press.

Roads Curtis. 1996. The Computer Music Tutorial. Cambridge, Massachusetts: MIT Press.

Roy, Stephane. 2003. L’analyse des musiques électroacoustiques: Modèles et propositions. Paris: L’Harmattan.

Simoni, Mary. 2006. Analytical Methods of Electroacoustic Music. New York: Routledge.

Schachter, Daniel. 2007. “Towards New Models for the Construction of Interactive Electroacoustic Music Discourse.” Organised Sound 12(1): 67-78.

Schaeffer, Pierre. 1966. Traité des Objets Musicaux (nouvelle édition 1977). Paris: Éditions du Seuil.

Smalley, Denis. 1986. “Spectro-morphology and Structuring Processes.” In: Emmerson, Simon (ed.) The Language of Electroacoust ic Music. London: The Macmillan Press. 61-93.

Smalley, Denis. 1992. “The Listening Imagination: Listening in the Electroacoustic Era.” In: Paynter, T.H. John, Orton, Richard and Seymor, Peter eds. Companion to Contemporary Musical Thought. London, New York: Routledge. 514-554.

Smalley, Denis. 1994. “Defining Timbre – Refining Timbre.” Contemporary Music Review 10(2): 35-48.

Smalley, Denis. 1997. “Spectromorphology: explaining sound-shapes.” Organized Sound 2(2): 107-26.

Smalley, Denis. 2007. “Space-form and the acousmatic image.” Organized Sound 12(1): p. 35-58.

Souza, André Ricardo. 2004. Ação e Significação: Em Busca de uma Definição de Gesto Musical. Master dissertation. São Paulo: Universidade Estadua Paulista “Júlio de Mesquita Filho”.

Stones, Alan. 2000. The Analysis of Mixed Electroacoustic Music: Kaija Saariaho’s Verblendungen, a case study. http://www.alanstones.net/analysis/analysis.html

Tarasti, Eero. 1997. “The Emancipation of the Sign: On the Corporeal and Gestural Meanings in Music.” Applied Semiotics 2(4): 15-26.

http://www.chass.utoronto.ca/french/as-sa/ASSA-No4/ Vol2.No4.Tarasti.pdf

Page 52: En El Limite Nro2

52 | en el limite

Thoresen, Lasse. 2006. Spectromorphological Analysis of Sound Objects. An Adaptation of Pierre Schaeffer’s Typomorphology. EMS: Electroacoustic Music Studies Network, Beijing. http:// www.ems-network.org/IMG/EMS06-LThoresen.pdf Truax, Barry. 1999. Hanbook for Acoustic Ecology. Versión online de la segunda edición. http://www.sfu.ca/sonic-studio/handbook/

Whittal, Arnold. “Rhythm.” In: The Oxford Companion to Music, ed. Alison Latham. Oxford: Oxford Music Online. http://www.oxfordmusiconline.com/subscriber/article/ opr/t114/e5635

Wishart, Trevor. 1986. “Sound Symbols and Landscapes.” En: Simon Emmerson (ed.) The Language of Electroacoustic Music. London: The MacMillan Press. 41-60. Wishart, Trevor. 1994. Audible Design. A Plain and Easy Introduction to Practical Sound Composition. Orpheus the Pantomime Ltd.

Wishart, Trevor. 1996. On Sonic Art (nueva edición corregida, Emmerson, Simon, ed.). New York: Routledge. Xenakis, Iannis. 1992. Formalized Music. Thought and Matematics in Music (revised edition). New York: Pendragon Press.

Zampronha, Edson. 2005. “Gesture In Contemporary Music – On The Edge Between Sound Materiality And Signification.” Transcultural Music Review 9. http://www. sibetrans.com/trans/trans9/zanpronha.htm

Referencias 1 Bachratá, Petra. 2010. Gesture Interaction in Music for Instruments and Electroacoustic Sounds. Tesis doctoral. Universidade de Aveiro, Portugal.

2 En mi tésis doctoral, cada categoría está documentada por varios ejemplos de audio. En total, se incluyeron más de 180 ejemplos de relaciones gestuales interactivas.

3 Reflections (2005), Luminiscencia (2006) y Mystic Garden (2007)

4 Nunataq (2005), Subjective risk... no alternative (2007), Vozes de Aço (2008), Eyes wide shut (2008) y Somewhere... where the rainbow ends... (2009).

5 Wishart, Trevor. 1996. On Sonic Art (nueva edición corregida, Emmerson, Simon, ed.). New York: Routledge.

6 The Oxford Online Dictionary of Music. http://www. oxfordmusiconline.com

7 Simoni, Mary. 2006. Analytical Methods of Electroacoustic Music. New York: Routledge.

8 Simoni 2006. Un evento es dos veces más largo en relación a otro (relativo) o la duración de un evento es exactamente tres segundos (absoluto).

9 Cooper, Grosvenor and Meyer, Leonard B. 1960. The Rhythmic Structure of Music. Chicago: University of Chicago Press.

10 Garcia-Valenzuela, Pablo. 2006. Temporal Forces in Electroacoustic Music. EMS: Electroacoustic Music Studies Network Beijing. http://www.ems-network.org/spip.php?article238.

11 Bregman, Albert S. 1994. Auditory Scene Analysis: the Perceptual Organization of Sound (new edition). Cambridge: MIT Press.

12 Truax, Barry. 1999. Hanbook for Acoustic Ecology, versión online de la segunda edición http://www.sfu.ca/sonic-studio/handbook/

13 Ibid. “Transiente” es una fluctuación corta y repentina en un sonido. Durante la parte inicial de un sonido, ocurren muchas de estas fluctuaciones, como, por ejemplo, cuando un violinista apoya el arco sobre la cuerda o cuando un trompetista articula las notas utilizando la lengua. Los transientes son importantes para identificar la fuente sonora, su ubicación en el espacio y su timbre. Si pudiéramos aislarlos y retirarlos de la grabación de un sonido, dicho sonido se confundirá fácilmente por otro.

14 Landy, L., Atkinson, S., Dal Farra, R., Weale, R., Couprie, P. et al. eds. (since 2002). EARS: ElectroAcoustic Resource Site. http://www.ears.dmu.ac.uk/

15 Smalley, Denis. 1994. “Defining Timbre – Refining Timbre.” Contemporary Music Review 10(2), p.37.

16 Smalley, Denis. 1997. “Spectromorphology: explaining sound-shapes.” Organized Sound 2(2): 111-112. Subrogación de primer orden: Puede reconocerse tanto la causa (instrumental) como la fuente (tipo de material, como por ejemplo madera o metal) del gesto (“vemos y escuchamos” los gestos). Subrogación de segundo órden: Se saca el gesto instrumental tradicional de su situación típica (la interpretación), la causa puede suponerse a partir del perfil energético pero no hay manera de identificarla visualmente. Subrogación remota: está relacionada con las transformaciones más extendidas y profundas del sonido original, en la que tanto la causa como la fuente son desconocidas.

17 Smalley 1994, p.38.

18 Wishart, Trevor. 1986. “Sound Symbols and Landscapes.” En: Emmerson, Simon (ed.) The Language of Electroacoustic Music. London: MacMillan Press. p. 49-50.

19 Biggs, Christopher. 2007. “Timbre Identification and the Perceptual Reconciliation of Live Instruments and Electronics.” Disertación doctoral. Kansas City: University of Missouri and Kansas City.

Page 53: En El Limite Nro2

en el limite | 53

20 Smalley, Denis. 1986. “Spectro-morphology and Structuring Processes.” En: Emmerson, Simon (ed.) The Language of Electroacoustic Music. London: The Macmillan Press, p. 69.

21 Wishart 1986, p.56-60.

22 Ibíd.

23 Wishart, Trevor. 1996. On Sonic Art (nueva edición corregida, Emmerson, Simon, ed.). New York: Routledge, p. 116.

24 Ibíd.

25 Bregman 1994, Wishart 1996

26 Smalley 1986, p.74.

27 Wishart 1996, p. 222

28 Smalley 1986, p.91

29 Wishart 1996, p.231

30 Smalley 1986, 1997, Wishart 1996

31 Smalley 1986, p.92

Page 54: En El Limite Nro2

54 | en el limite

Ricardo Dal Farra CEIArtE-UNTreF Universidad Nacional de Tres de Febrero

Concordia [email protected]

1. Territorio La Real Academia Española define interacción como la “acción que se ejerce recíprocamente entre dos o más objetos, agentes, fuerzas, funciones, etc.”. Tanto en la creación como en la ejecución musical hay múltiples oportunidades donde la interacción puede aparecer como un factor clave.

Nuestra vida misma es una muestra permanente de la complicada y compleja multiplicidad de niveles que es posible alcanzar en lo que hace a la interactividad. Limitándonos en este escrito no solo al ámbito de la música, sino además a la música de tradición [fundamentalmente] europea realizada durante las últimas décadas, el objetivo propuesto para este texto es aproximar al lector a algunas de las opciones y estrategias que ha aplicado este autor en el contexto de la creación y/o ejecución musical, empleando sistemas apoyados en la interactividad y en el uso de tecnologías electrónicas.

El análisis vendrá a partir de ejemplos musicales que servirán como guía de una exploración donde los proyectos de investigación/creación fueron creciendo a través de la relación entre música y tecnología, alimentados por la riqueza y las restricciones que esa misma relación ofrece cuando se la investiga tomando como punto nodal a la interacción.

La incorporación de la inmediatez como factor clave de la experimentación y el estudio, lleva en el caso de la música a plantear como elemento de análisis a la improvisación y su rol sustancial, en algunas culturas más que en otras, y aún dentro de ellas, desde luego variando su relevancia de acuerdo con la corriente musical de la que se hable. De cualquier modo, la interacción plantea como uno de sus elementos, si no indispensables, por lo menos esperables, a la inmediatez. De ahí el término muchas veces empleado: tiempo-real, como intento para despegarse del concepto necesario en gran parte de la creación musical occidental, de contar con un tiempo de reflexión, elaboración y maduración del material musical, que según la óptica de quien se acerque a la cuestión, parece ser ineludiblemente mayor al tiempo de duración del resultado del trabajo artístico generado.

Sin embargo, términos como tiempo-real y tiempo-diferido, aparecen como significativos cuando se desea remarcar la diferencia, ya sea en la creación o en la ejecución musical, particularmente con sistemas que involucren tecnologías electrónicas (tanto sean analógicas como digitales).

Según sea la formación, la inclinación musical y también la intencionalidad del observador, la interacción propia de las improvisaciones musicales donde intervenga más de un músico, puede formar parte de un análisis sobre la interacción. Todos nosotros interactuamos

permanentemente con nuestro entorno (y con nuestro interior) en la definición y ejecución de nuestras acciones. De ahí la necesidad de limitar este escrito a ciertas interacciones, buscando principalmente en lo que se conoce como la relación hombre-máquina, aunque ampliándola en las siguientes líneas también a la interacción entre seres humanos cuando la misma se ve mediada o afectada de modo concreto y específico por la intervención de la máquina.

2. Decisiones La interacción desbalanceada que se produce cuando tocamos un instrumento musical cuyo control, no solamente no puede ser exacto al ser manipulado en tiempo real sino que además lleva implícito a la “inestabilidad” en la aproximación al dispositivo como un elemento estructural y propio de la estética de la obra, puede suscitar cuestionamientos sobre la interpretación, la improvisación, la relevancia y el significado de la precisión en la ejecución, y de igual modo de la notación, entre una variedad de otros puntos.

La decisión de no decidir nos lleva a un debate profundo y apasionante sobre el mundo, sus relaciones y nuestros conceptos sobre el arte, la cultura y la vida. En particular me refiero aquí a la libertad del compositor en decidir no decidir. Siendo ésta una postura estética y filosófica ampliamente discutida en torno al arte occidental durante el siglo XX.

Interacciones Electro[±]Acústicas (Entre la composición, la improvisación y la comprovisación)

Page 55: En El Limite Nro2

en el limite | 55

Pero desde luego la no decisión no necesariamente debe aplicarse a todo, muy por el contrario puede dosificarse como un remedio contra la repetición, la homogeneización, la necesidad de decidir cuando en realidad se considera que el resultado no se va a ver enriquecido sino por el contrario, posiblemente empobrecido por ese requerimiento de delimitar territorio.

Entre los sistemas cerrados y la indeterminación hay un amplio y rico campo que podemos explorar e investigar, y sobre cuyos fundamentos podemos crear. Con similar intención, la “comprovisación” aprovecha el espacio entre la composición y la improvisación para flexibilizar las estructuras y ofrecer la oportunidad de completar o incluso armar un cierto discurso musical, en el momento. Es ese “momento” en el que se puede enriquecer o empobrecer una propuesta, o hasta cambiar los resultados, dependiendo del planteo del compositor y/o del ejecutante-improvisador, según sea el contexto, y la circunstancia.

Como ejemplos, tomaré lo que mejor conozco: algunos de mis trabajos. El Estudio sobre Ritmo y Espacio (Dal Farra, 1982) y el Estudio sobre un ataque de timbal (Dal Farra, 1982) ofrecen dos aproximaciones dentro de la perspectiva planteada. En el primer caso (Estudio sobre Ritmo y Espacio: http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002080) la interacción hombre-máquina es relativamente

simple y por cierto desbalanceada. Mientras el ejecutante trabaja con flexibilidad sobre una propuesta rítmica creada con el sonido propio de una moto, la selección de cada tecla en el “sampler” utilizado (un E-mu Emulator) marca las diferencias de duración, de altura/banda de ruido y tímbrica, propias de un instrumento que controla desde un teclado musical una serie discreta de frecuencias de muestreo (“sampling rate”). La interacción aquí es claramente desbalanceada dado que la acción principal que se ejerce sobre el instrumento está determinada por quien está controlando el teclado. Pero existe una acción recíproca, no independiente de la acción inicial. La misma devuelve, con el resultado sonoro, los mensajes que van a condicionar las acciones siguientes del ejecutante, quien no maneja una partitura estricta sino un conjunto de reglas. Estas reglas incluyen tanto criterios establecidos específicamente para este Estudio, como los desarrollados a lo largo de años de preparación para adentrarse en el mundo profesional de la música, así como también el tiempo de exposición a una cierta tradición cultural. Esta discutible interpretación de la creación y ejecución del Estudio en cuestión, sirve como introducción a los temas profundos y complejos que el análisis de la interacción conlleva, y que en este caso en especial, el propio compositor considera como de fundamental relevancia en la factura de su pieza. Más allá de lo que pueda percibirse como improvisación musical, hay un punto clave en el que se basa la estructura creativa

propuesta para el Estudio sobre Ritmo y Espacio que resulta ser la interacción hombre-máquina. De dicha relación se espera, por lo menos en parte, una reacción, un elemento sorpresa, una respuesta que de algún modo sorprenda a quien inicia cada acción, provocando un circuito aparentemente simple, pero a la vez rico. La máquina no va a reaccionar de forma diferente porque así lo deseemos y esperemos, pero la misma postura que se adopta frente a la situación, confronta al humano con la máquina en un juego creativo donde la interacción está apoyada más en la imaginación y en las expectativas del artista que en la reacción de la máquina, la que en realidad podría ser (por lo menos en este caso y hasta cierto punto) predecible, esperable y calculable. A no olvidar aquí que éste es solamente un primer ejemplo donde justamente se parte de una pretendida interacción, y donde las fuerzas no tienen el mismo grado de libertad e independencia; sin embargo, la máquina “responde” de una forma u otra a su interlocutor a través de devolver algo esperable dentro de ciertos límites que no se han delimitado previamente de modo preciso. En este “juego” se produce el diálogo musical entre ambas partes de un sistema que concluye su interacción con un elemento sonoro que en el final (de este breve Estudio) rompe la elaboración que venía construyéndose.

El Estudio sobre un ataque de timbal(http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002734) mantiene ciertas características comunes

Page 56: En El Limite Nro2

56 | en el limite

con el Estudio sobre Ritmo y Espacio, pero la interacción en función del manejo y control de lo esperado versus lo inesperado aumenta aquí notablemente. El Estudio sobre un ataque de timbal fue realizado con el mismo “sampler” utilizado en el Estudio sobre Ritmo y Espacio: el Emulator. Este instrumento, que comenzó a producirse en 1981, permitía controlar en tiempo-real y simultáneamente, dos funciones que podían alterar sustancialmente una señal previamente digitalizada. Uno de estos controles permitía truncar parte de la señal digitalizada o fijar el punto de comienzo del “sustain loop”, mientras que el otro permitía fijar la duración de dicho “loop”. Este tipo de funciones, manejables en el Emulator mediante dos controles continuos, hacían posible manipular en vivo aspectos de una señal de audio digitalizada que poco después (en los modelos de “samplers” subsiguientes) ya no serían tan fácilmente accesibles para una manipulación directa. Claro que esta aparente desventaja, cuando se piensa en su aplicación para cierto tipo de música (por ejemplo: electroacústica en vivo), no representa necesariamente un problema cuando se considera otro tipo de música (rock, pop, etc.). Así la interacción hombre-máquina que se estableció en esta pieza, salta aquí cualitativamente en una dirección donde las fuerzas de acción y reacción cobran nuevas dimensiones, y donde la “respuesta” de la máquina propone un desafío a cada momento. Se plantea entonces un balance diferente al del Estudio sobre Ritmo y Espacio. El Estudio sobre un ataque de timbal

ofrece un verdadero reto a quien se atreva a participar del desarrollo de un sistema cuyos valores y estabilidad puedan variar durante el curso de la toma de decisiones (artísticas). Los factores que intervienen en la creación/ejecución, como por ejemplo, las determinaciones que va tomando el músico en tiempo-real sobre los controles de duración y comienzo del “sustain loop”, así como la elección de la tecla ”sampling rate”, construyen un complejo sistema de interacciones con la máquina, con el “sampler”, que parece ir bastante más allá del rol pasivo que podría asignársele en principio al aparato, pasando éste a ser un actor que sorprende y con poder suficiente para incluso inducir a torcer el curso de los acontecimientos.

3. De la vinculación hombre-máquina En las fuerzas interactuantes que se ponen de manifiesto como necesarias en la mayoría de las improvisaciones donde por lo menos participen dos personas, el elemento “sorpresa” no es menor. Ese factor que de algún modo es inesperado y esperado a la vez, aún sin saber exactamente qué (será) ni cómo (llegará), es el que diseña el mapa de la creatividad, de la musicalidad, es el que mantiene o no nuestra atención. Cuando la acciones se producen entre un humano y una máquina, el ejecutante (persona) puede tener un pleno manejo y control de la situación y los resultados, o no tanto, dando lugar a una rica diversidad de posibilidades que nos cuestiona sobre lo

esperable, sobre las reglas y su acatamiento o enfrentamiento. En esta compleja elaboración del intelecto se mueven, en diferentes capas, los planteos del compositor, las acciones del ejecutante, las expectativas del oyente. En las intersecciones de esas capas está gran parte de la riqueza de la música. Son esas interacciones entre plan, ejecución y recepción donde podemos encontrar las características que luego en nuestro análisis nos llevan a la disección de elementos mas específicos, como la importancia y el significado de la interactividad en la creación artística.

Retomando la relación hombre-máquina entre ejecutante e instrumento en un planteo de interacción musical, Audiciones (Dal Farra, 1983) y el Estudio Elíptico (Dal Farra, 1983) pueden ser tomados como ejemplos de una aproximación más compleja a la problemática eje de este trabajo. Mientras que en Estudio sobre Ritmo y Espacio y el Estudio sobre un ataque de timbal encontramos una interacción desbalanceada entre los dos agentes, donde el peso de la acción humana devuelve una reacción con variaciones notables, sensibles, pero siempre dentro de márgenes claramente manejables por la persona, en los dos ejemplos siguientes es de destacar el mayor grado de libertad que se le asigna a la máquina para declarar su reacción y establecer un juego de poderes con mayor y mejor balance entre las partes. Audiciones (http://www.fondation-langlois.org/html/e/ oeu.php?NumEnregOeu=o00002077)

Page 57: En El Limite Nro2

en el limite | 57

plantea una permanente transformación tanto en el plano de las alturas, como en el metro, el ritmo, la dinámica, el espacio y el timbre, a partir de una única fuente sonora electrónica manipulada y modulada en tiempo-real. Una danza donde más allá del control y la determinación del hombre sobre la máquina, ésta última comienza a moverse con mayor independencia si comparamos el proceso desarrollado aquí con respecto a los característicos de los dos Estudios descriptos en la sección anterior. Como si se tratase de una entidad que va creciendo y desarrollándose casi por si misma, en Audiciones la máquina va logrando ubicarse en un lugar cada vez más significativo en esta relación de fuerzas y sugestiones, de propuestas e imposiciones que cada actor, de algún modo, acepta al establecer las interacciones que son parte ineludible de la factura de la obra.

El Estudio Elíptico (http://www.fondation-langlois.org/html/e/ oeu.php?NumEnregOeu=o00002736) puede ubicarse como cercano a Audiciones, en el sentido del balance entre los componentes del sistema hombre-máquina que conforma el mapa conceptual planteado para la interacción de base en ambas piezas. Al igual que en los casos hasta aquí cotejados, la realización del Estudio Elíptico fue resultado de una única toma, de un solo registro ininterrumpido al que no se le aplicó ningún tipo de proceso de posproducción, dejando intacto, hasta donde fue posible, el espíritu mismo del

trabajo basado en la interacción. En el Estudio Elíptico, la relación entre ruido y sonido tónico se plantea a lo largo de toda la obra. Esta competencia pasa por una diversidad de estados, incluyendo aquellos donde es difícil para nuestra percepción saber donde ubicarse, si se toma en cuenta que incluso una secuencia de sonidos con claras posibilidades de discernirse como tónicos pueden convertirse en ruido ante determinadas características (por ejemplo, si consideramos a una serie de sonidos que puedan, ante circunstancias propicias, ser escuchados como poseedores de una tonicidad indudable, el cambio en nuestra percepción puede producirse en función de la frecuencia de alternancia entre los componentes de esa secuencia, dependiendo el resultado también de la amplitud del registro planteado).

Retomando entonces los avances planteados sobre composición e improvisación, lejos de intentar abrir aquí una nueva puerta para comenzar una discusión infinita sobre el tema, deseo darle a esta relación un espacio con toda la amplitud y apertura intelectual que merece, considerando en la ecuación al campo de las interacciones como un factor influyente y significativo a tomarse también en cuenta, según los resultados buscados. Que una obra musical sea ejecutada en tiempo-real, que no se le apliquen procesos de posproducción posteriores a la grabación original y sobre todo, que esté basada en sistemas donde un cierto nivel de interactividad, improvisación o aleatoriedad controlada hacen a la esencia

misma de la realización, no significa de modo alguno que no existan también los elementos esperables en una composición, que la obra no haya sido el resultado de una reflexión, elaboración y planificación considerable. Cabe también decir que mientras interactividad, improvisación y aleatoriedad controlada son cuestiones diferentes, pueden accionar de forma conjunta o no, simultánea o alternativamente, en una misma pieza musical. La breve definición de la Real Academia Española sobre componer, dice: “producir obras musicales”, lo que sin duda contribuye al apasionante debate sobre las diferencias y características entre compositor e intérprete (palabra que no había utilizado hasta aquí) o ejecutante musical, entre composición e improvisación, y más. Cabe recordar aquí lo expresado en el comienzo sobre limitarnos en este escrito al ámbito de la “música de tradición europea”, ya que si abrimos la discusión a una diversidad de tradiciones establecidas por diferentes culturas, la estructura de nuestra construcción intelectual sobre lo musical y su relación con la composición y la improvisación se nos complica y mucho. Es decir, la interactividad tiene múltiples perspectivas y percepciones, y no es ajena al resto de las situaciones y transformaciones que van sucediendo en la sociedad y la cultura donde está inmersa. La música como fenómeno y proceso forma parte de la vida, del mundo y de sus circunstancias, aunque a veces pareciera que se la toma como un elemento paralelo

Page 58: En El Limite Nro2

58 | en el limite

a la realidad. Por lo tanto, la incidencia y la relevancia de la interactividad en la música no es ajena e independiente del complejo entramado de relaciones que de diversas formas se van estableciendo en la cultura de la sociedad que las contiene.

4. Otras relaciones/interacciones Un planteo fuertemente conectado a la relación hombre-máquina y que a la vez incorpore elementos de improvisación grupal dentro del contexto de una composición, puede servir como base de un sistema de retroalimentación que permita una forma diferente de realización musical, donde cada agente necesite mantener el equilibrio a partir de la interdependencia de las fuerzas actuantes. Un modo de esclarecer esta modalidad interactiva de operación artística aparece en la descripción parcial del funcionamiento de obras como Double (Dal Farra-Gervasoni, 1986), Ancestros (Dal Farra, 1986), Clones (Dal Farra-Gervasoni, 1986), Integrados (Dal Farra-Gervasoni, 1986) y EGT (Dal Farra, 1989). En ellas, dos músicos, uno ejecutando un instrumento acústico y el otro manipulando un conjunto de procesadores electroacústicos, interactúan de modo tal que cada paso enlaza la acción de uno a la reacción del otro. La retroalimentación es tal que requiere de una alta velocidad de reacción por parte de cada participante, ya que de eso depende lo que finalmente la audiencia escucha. A diferencia de trabajos donde la improvisación conecta en algún nivel a los ejecutantes pero le permite a cada uno hacer llegar de forma

autónoma su generación de contenido al público, la modalidad propuesta aquí es una donde el músico, con el instrumento acústico, genera el material sonoro de base que puede o no llegar de forma directa al público, pero que indispensablemente entra en el sistema electroacústico controlado por el segundo músico, quien manipula la señal y la devuelve al espacio sonoro para que llegue entonces ya transformada hasta la audiencia, y también a la vez, al primer músico que produjo la materia prima básica. Para comprender el circuito hace falta explicar aquí que un cierto retardo es incorporado en el proceso electroacústico sobre la señal original, lo que hace que retorne al primer músico cuando éste ya está tocando algo diferente. El proceso de interacción se torna interdependiente a tal punto que cada agente del sistema no puede actuar sin el otro.

En Double (http://www.fondation-langlois.org/html/e/ oeu.php?NumEnregOeu=o00002069) el material sonoro proviene de una guitarra tradicional española. Aunque en esta pieza el sonido original del instrumento acústico llega a la audiencia de modo directo, la obra no solo estaría así incompleta por la falta del material que se necesita procesar a través del dispositivo electrónico, sino además porque el músico que genera los sonidos con su guitarra solo puede actuar en base a los elementos compositivos pre-elaborados cuando estos operan en conjunto con los resultados de la interacción con el sistema electroacústico. Es decir, el primero no ejecuta una partitura rígida e independiente en su totalidad del proceso, sino que justamente dispara los elementos que van a permitir que ese proceso, y por ende el sistema mismo, existan.

Figura 1. Double (1986) para guitarra y procesos electroacústicos en tiempo-real.

Page 59: En El Limite Nro2

en el limite | 59

Se plantea entonces un circuito multimodal donde el sistema electroacústico no puede existir sin la materia prima del instrumento acústico, pero el ejecutante y productor de la materia prima original, en Double desde una guitarra, no podría elaborar y desarrollar el mapa de la composición sin la interacción con ese sistema (del que forma parte) y que devuelve gran parte de los mojones e indicadores que van pautando y/o estableciendo los posibles caminos a seguir. La complejidad del sistema de retroalimentación musical no es obstáculo sin embargo para impedir la evolución de una estructura compositiva clara, que no presenta dudas en cada nueva interpretación de la obra. A través del balance entre libertad, interdependencia, responsabilidad, creatividad y conocimiento se genera el equilibrio que da lugar a la obra musical, que mantiene sus elementos constitutivos aunque puedan aparecer factores de variación sustancial ante cada nueva ejecución.

Tal como mencioné antes, además de Double, también Ancestros, Clones, Integrados y EGT son ejemplos de esta modalidad de operación musical. En Ancestros, la simultaneidad de sonidos que se escuchan en el registro sonoro (http://www.fondation-langlois.org/html/e/ oeu.php?NumEnregOeu=o00002068) nunca existió durante la producción y grabación original, ya que los instrumentos de viento andinos (quena, quenacho y antara) fueron ejecutados siempre en forma secuencial. A través del sistema electroacústico, el resultado

de una acumulación sonora artificial se le devuelve al músico generador del material acústico original. Se trata entonces de un producto para él reconocible pero a la vez nuevo, sobre el cual puede continuar la elaboración y construcción artística final.

La grabación de Ancestros, así como la de todas las obras dadas aquí como ejemplos, fue realizada en una sola toma y en ningún caso se aplicaron ediciones posteriores. Es decir que es posible escuchar estas piezas tal como llegarían a la audiencia en una situación de concierto.

Figura 2. Ancestros (1986) para quena, quenacho, antara y procesos electroacústicos en tiempo-real (detalle).

Page 60: En El Limite Nro2

60 | en el limite

Clones (http://www.fondation-langlois.org/ html/e/oeu.php?NumEnregOeu=o00002071) para guitarra y sistema de procesamiento electroacústico en tiempo-real propone un trabajo aparentemente simple desde lo compositivo, pero altamente demandante para los intérpretes. El ejecutante desde la guitarra mantiene el mismo grado cromático a lo largo de toda la pieza en la guitarra, y es la interacción con el músico que opera sobre el sistema electroacústico lo que permite las constantes variaciones. Es a través de las sutiles diferencias en la articulación y el manejo espectral de los sonidos producidos en el instrumento acústico donde se generan los condiciones básicas decisivas que luego se expanden mediante el proceso electroacústico; por otro lado, es justamente en este proceso electroacústico donde radica toda la transformación de alturas que se escucha a lo largo de la obra, partiendo siempre de la aparente monotonía generada por la reiteración inflexible del mismo grado cromático en la guitarra. Un elemento distintivo en Clones, en referencia con la interactividad planteada a través de los diversos ejemplos anteriores, es que aquí la indispensable interacción entre los agentes participantes parece transcender a un estadio diferente cuando en la última parte, el sistema electroacústico continúa operando musicalmente con los sonidos de la guitarra pero sin la necesidad de la entrada de materia prima permanente generada desde este instrumento acústico. Así, en concierto,

el intérprete de la guitarra podía detener su ejecución y retirarse del escenario durante la fase final de la pieza aunque, paradójicamente, el delicado equilibrio de realimentaciones que constituye dicha parte de la obra no existiría si no fuese por el material generado por la guitarra momentos antes de que su ejecutante abandonara la escena, saliéndose, aparentemente, del sistema de interacciones.

Es importante ubicar, antes de continuar, el momento histórico en el que fueron realizadas estas obras y las tecnologías disponibles en dichos momentos. Cada nuevo trabajo representa, de alguna manera, una exploración artística donde las ideas musicales se entrelazan con

las tecnologías electrónicas en una búsqueda por expandir los límites. Integrados (http://www.fondation-langlois.org/ html/e/page.php?NumPage=1663) requiere para su interpretación en vivo el desarrollo de ciertas técnicas de ejecución en la guitarra que hagan posible, por ejemplo, la sección donde se escuchan sonidos cortos, punteados, en simultáneo con complejos acordes rasgueados [escuchar a partir de los 3’30” de comenzada la obra]. A la vez, la diversidad de alturas que se perciben a través de las cambiantes estructuras de acordes, requiere de una sincronización entre ambos músicos ya que como en Double, el sistema de realimentación hace que la interdependencia sea en Integrados altamente significativa.

Figura 3.Integrados (1986)para guitarray procesoselectroacústicosen tiempo-real.

Page 61: En El Limite Nro2

en el limite | 61

Los cambios en las sonoridades de cada acorde dependen del qué (notas componen el mismo) y del cómo son tocados cada uno de ellos en la guitarra, pero igualmente son consecuencia de las variaciones y transposiciones realizadas por medios electrónicos, y de que esos procesos electroacústicos sean realizados en el instante adecuado para que las transformaciones consecuentes no aparezcan desconectadas del hecho generador (acústico) principal [también aquí, escuchar desde los 3’30” de comenzada la obra]. A pesar de emplear la misma instrumentación en Double, Clones e Integrados, la guitarra como generador sonoro principal, y una unidad de retardo digital, un transpositor digital y una sencilla mesa de mezcla analógica, todo controlado manualmente como único sistema electroacústico para el procesamiento en tiempo-real, ciertas diferencias, por ejemplo en el manejo de los tiempos de retardo del sistema, producen como consecuencia una forma de interacción, y desde luego, resultados sonoro/musicales, radicalmente distintos en cada caso. Igualmente EGT (http://www.fondation-langlois.org/html/e/ oeu.php?NumEnregOeu=o00002066), que mantiene ciertos factores en común con varias de las obras citadas en esta sección, incluyendo especialmente a Clones, se diferencia sustancialmente en los resultados musicales de cada una de las otras piezas. En EGT la guitarra ejerce un nivel de control importante sobre las acciones dinámico-tímbricas que produce el sistema electroacústico, a partir de

ciertos cambios extremos en las articulaciones de los sonidos que el instrumento acústico produce. Las acciones en la guitarra disparan importantes cambios en los procesos electrónicos, más allá de utilizar en EGT y en Clones, una instrumentación electroacústica similar. En EGT el ejecutante de guitarra actúa diferente y ejerce un manejo sobre el sistema electroacústico distinto al control que puede ejercer en Clones. Las modalidades de intervención, de interacción, de balance de fuerzas son distintas. Mientras que en Clones una de las claves es el sutil y limitado manejo de las articulaciones sobre el sonido del instrumento acústico, en EGT es justamente el rango amplio, casi extremo, utilizado en el trabajo con las articulaciones, uno de los elementos a destacar y que definen su factura. En cualquier caso, ambas piezas solo existen como consecuencia de complejas interacciones electro<->acústicas. Las obras fueron así planteadas y así fueron realizadas. Las grabaciones de estas obras, todas ellas disponibles en Internet, sirven como ejemplos de lo hasta aquí escrito, pero además dan testimonio de un momento, de una interpretación de las reglas, de una interacción en un tiempo dado.

5. Entre Quetzalcoatl y Frankenstein Muchos pasos se han dado en el camino hacia lo que hoy entendemos por interactividad en música. La interrelación de fuerzas entre los agentes de un sistema se hace cada vez más equilibrada, hasta incluso hacer posible

que el compositor genere un “alter ego” mediante recursos informáticos. La revolución de las computadoras personales que viene modificando nuestra forma de vida desde hace unas tres décadas, no tardó en hacer su aparición en el mundo de la creación y la ejecución musical. El acceso a esas computadoras personales, primero de escritorio y ahora portátiles, abrió puertas insospechadas para la mayoría de nosotros. La conectividad entre unidades complejas de generación, procesamiento y control de señales sonoras en tiempo-real convirtió a la música electrónica en vivo que conocíamos, mediante la manipulación de sintetizadores analógicos y el control de unidades de transformación relativamente simples, en un campo de experimentación tan sofisticado que se expande hoy a través de relaciones que pueden abarcar casi cualquier campo de la investigación científica y del desarrollo de tecnologías.

Pero en ese camino recorrido, antes de llegar adonde estamos, acampamos en diferentes sitios. La tecnología MIDI nos facilitó el control de unidades autónomas, y la construcción de sistemas en red. La creciente capacidad computacional disponible para los músicos hizo que comenzara a ser posible trabajar a través del control indirecto de unidades que ya no necesitaron una instrucción precisa del compositor para cada una de las acciones a realizar. Así, un generador de ideas (el compositor, en nuestro caso) podía instruir a un tercero (la computadora) para que aplicara

Page 62: En El Limite Nro2

62 | en el limite

las indicaciones y reglas de bajo nivel que le indicara. Esto lo liberaba de la toma de decisiones para cada detalle, permitiéndole que se ocupara de un control de alto nivel, enfocándose sobre los gestos musicales, en caso que así lo deseara.

SP4 (Dal Farra, 1989) es un ejemplo de esta, para entonces, nueva modalidad de interacción musical hombre-máquina. De un modo algo distinto, también Homotecia (Dal Farra, 1992) puede servir a tal fin. El sistema utilizado en SP4 (http://www.fondation-langlois.org/ html/f/oeu.php?NumEnregOeu=o00002064) requiere que una cantidad de datos y alternativas posibles sean ingresados a la computadora con anticipación a la ejecución de la pieza; esto permite que luego una variedad de parámetros y gestos musicales sean controlados en tiempo-real durante la interpretación de la obra en concierto, facilitando el manejo en vivo de opciones que modifican “comportamientos”, y no necesariamente la definición de hechos puntuales, de notas o sonidos aislados, independientes. Cada uno de los sonidos que se escuchan en SP4 forman parte de una base de datos donde los mismos están digitalizados. Son todos eventos sonoros aislados que fueron organizados temporalmente mediante el control indirecto del músico-intérprete sobre la computadora, en el mismo instante de la ejecución de la obra en concierto. Es entonces la interacción hombre-máquina entre ejecutante y computadora la que da pie

a que ésta última se ocupe de cada uno de los detalles de la (micro) organización musical, ante las diversas (macro) decisiones que toma el músico en tiempo-real. Esta pieza no podría existir de otro modo. Es el resultado de la interacción planteada, donde hasta las “imperfecciones” en el solo de percusión sobre el final [escuchar aproximadamente entre los 13’40” y 14’20” de comenzada la obra], forman parte de las acciones de control sobre el sistema informático que se ejecutan como consecuencia de las indicaciones que el ejecutante va impartiendo en un cierto instante. Una vez más aquí, el registro fue realizado en una sola toma. Esto se propuso, de algún modo, como el envío de una señal. Había un mensaje, una propuesta, y al mismo tiempo, una búsqueda. Se trataba del planteo de una forma de trabajo musical que pudiese ir creciendo en base a la interacción, y a la comunicación de ideas y conceptos dentro de un sistema complejo. Ese mensaje conllevaba una especie de oculto deseo, de esperanza, pensando en que con el tiempo esta modalidad pudiese ir desarrollando mayores capacidades e incluso, lograse incorporar al sistema un cierto nivel de inteligencia que equilibrara las fuerzas de ambos agentes principales (el compositor/intérprete y la computadora). El tiempo transcurrió y los cambios fueron ocurriendo. SP4 fue creada con las posibilidades que la tecnología ponía a nuestro alcance hace ya más de dos décadas.

La serie de interacciones propuestas en Homotecia (http://www.fondation-langlois.org/ html/f/oeu.php?NumEnregOeu=o00002743) son diferentes, aunque mantiene elementos comunes con SP4. Homotecia es una obra mixta, para un instrumento acústico solista o un ensamble, y sonidos pregrabados sobre soporte fijo. Pese a las apariencias que en un primer acercamiento pueden confundir, la interacción cumple un rol fundamental en esta obra y desde múltiples perspectivas. La generación del material de base, la serie de notas pregrabadas, fue realizada a partir del control interactivo de un sistema algorítmico. De la secuencia así generada fue extraída una de las “voces”. La misma fue luego editada y finalmente utilizada como partitura para el solista o el ensamble que tocaría en vivo junto a la parte generada previamente. La interactividad no solamente fue un factor fundamental utilizado durante la manipulación en tiempo-real del sistema algorítmico generador del material inicial, sino que reaparece en la misma interpretación. La propuesta para la interpretación de la pieza por parte del o los instrumentos acústicos, hace hincapié en la necesidad de interacción con la parte pre-grabada. No pone en manos de los músicos ni una partitura cerrada (que no les dejaría margen para una cierta flexibilidad interpretativa) ni tampoco propone una libre improvisación o un trabajo aleatorio. En realidad, la propuesta para Homotecia se va transformando poco a poco durante su breve duración (de entre 4 y 5 minutos, según la versión). Mientras que durante la primera

Page 63: En El Limite Nro2

en el limite | 63

parte, la pieza le ofrece al intérprete una libertad casi total hasta que comiencen a escucharse los sonidos pre-grabados. Una vez que estos aparecen el músico debe interactuar con la grabación. Los intérpretes deben ir adaptándose lentamente a la rítmica dada desde los sonidos pre-grabados, acercándose poco a poco a los diseños rítmico-melódicos indicados en la partitura, y considerando a la vez su interacción con el resto de las voces presentes en el registro sobre soporte fijo. El trabajo del/los intérprete/s requiere de una constante toma de decisiones, pero debe/n arribar al final de la pieza en forma absolutamente sincrónica con el material pre-grabado, tocando “juntos” las últimas figuras indicadas en la partitura, las que se corresponden con la estructura rítmica de una de las “voces” presentes en el final del registro. El planteo incluye una transformación gradual pero incesante, partiendo de aquella libertad cuasi-total hasta llegar a un final fuerte y decidido, de absoluta coordinación con los sonidos pre-grabados. Entre estos extremos, el o los músicos deben trabajar con un sentido de “responsabilidad y compromiso”, como concepto que puede aplicarse igualmente a la realización adecuada de la obra, así como a la visión del rol de cada uno de nosotros en el sistema de interacciones que nos toca vivir, en el entorno social y cultural en que nos desenvolvemos y nos desarrollamos. Algunas líneas más arriba, sobre el final del párrafo dedicado a SP4, mencionaba la intención y voluntad de explorar y

desarrollar formas de interacción donde la máquina tuviese y pudiese aplicar una cierta inteligencia. De ese modo, la misma no solo sería entonces un acompañante (que podría ocuparse de ciertas funciones básicas como responder con elementos sonoros ciertamente limitados y estrictamente pautados temporalmente a las acciones de los músicos que operen con instrumentos acústicos) sino que dicha máquina podría representar un reto, nos acercaría una alternativa exigente que podría llevar al límite nuestra capacidad de reacción, de decisión, de elaboración, de construcción. Una máquina que sea un interlocutor válido, un competidor hábil capaz de desafiarnos en la ejecución en vivo de la obra, interpretando la propuesta compositiva para convertirse en un miembro del “equipo de trabajo musical interactivo”. Un nuevo modelo para el mundo musical. Una contraparte deseada para la interacción. Un agente entrenado, capacitado para responder específicamente a las necesidades y características de una composición en particular.

Mel18 (Dal Farra, 1994) fue creada pensando de ese modo, como un paso dado en esa dirección, donde la máquina (la computadora) tiene un rol fundamental, tanto que nada ni nadie puede reemplazarla en los objetivos fijados. Los sonidos empleados en Mel 18 (http://www.fondation-langlois.org/html/e/ oeu.php?NumEnregOeu=o00002075) son notas de piano digitalizadas, sin ningún tipo

de proceso electroacústico para alterar sus características. Toda la pieza está realizada empleando solamente esos sonidos. Sin embargo, la forma en que se ejecuta este “piano virtual” (de allí el subtítulo: Siete piezas para piano virtual) apunta a presentar, en la mayoría de las secciones de la obra, un modo extremo que escapa a las habilidades normales de un músico. A través de un sistema creado sobre el entorno de programación Max, la interpretación de Mel18 en vivo permite que un músico mantenga el macro-control de los gestos musicales, mientras la computadora mantiene el micro-control de los eventos. Todo dentro del contexto inicial definido por el compositor al diseñar el sistema, incluyendo diversos niveles de interactividad. El músico controla entonces a la computadora, la cual reacciona a su vez controlando vía MIDI al módulo con los sonidos de piano digitalizados. La ejecución de la pieza requiere casi permanentemente que el músico tome decisiones, y con gran celeridad. Algunos de los comandos dados por el músico son los que justamente van a disparar la modalidad operativa de la computadora sobre el módulo de sonido, pero el intérprete no puede definir con anticipación, por ejemplo: el metro o el tipo de gesto o curva melódica que el sistema digital adoptará. La serie de alturas ejecutadas es siempre secuencial (melódica), pero la frecuencia de aparición de cada nuevo evento sonoro, que a veces es muy alta, llega a ser percibida cuasi-armónicamente, provocando incluso efectos tímbricos derivados de la

Page 64: En El Limite Nro2

64 | en el limite

velocidad del flujo de información musical. El sistema construido sobre Max utiliza una arquitectura simple pero produce resultados complejos, entre otros motivos por el empleo de generadores de datos aleatorios controlados dentro de un rango variable (una variación del movimiento browniano). La cadena de acciones diseña un modelo de interacción que puede ser considerado aquí como una evolución con respecto a los sistemas descriptos anteriormente, ya que ahora el agente digital aparece con niveles de autonomía significativos en su comportamiento y al mismo tiempo, al haber sido creado casi completamente por el compositor, mantiene el planteo estético y filosófico por él elaborado.

6. Nuevos senderos En la construcción de los senderos hacia una diversidad de modelos de organización sonora, otros sentidos se han ido cruzando para dar cabida a un entrelazado aún mayor en lo que hace a la percepción humana y su capacidad de elaboración cognitiva. Particularmente, la interacción entre imágenes y sonidos.

Así fue como nació Interacciones (Dal Farra, 1990), consecuencia de la exploración estética y tecnológica de diversas relaciones entre imágenes y sonidos. Interacciones es una obra para sonidos e imágenes generadas digitalmente en tiempo real, cuya presentación en vivo involucra la transformación de los materiales en base a las interacciones hombre-máquina, entre el artista-ejecutante y el sistema digital.

Pero esto abre un capítulo nuevo en la exploración de la interactividad en su relación con el arte, y en particular con el mundo del sonido organizado y su conexión con el otro mundo, el de las imágenes organizadas, por lo que merece un espacio y desarrollo aparte en otro escrito especialmente dedicado.

Page 65: En El Limite Nro2

en el limite | 65

Bibliografía

Dal Farra, R. (1982) Estudio sobre Ritmo y Espacio http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002080

Dal Farra, R. (1982) Estudio sobre un ataque de timbal http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002734

Dal Farra, R. (1983) Audiciones. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o0000207

Dal Farra, R. (1983) Estudio Elíptico http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002736

Dal Farra, R. y Gervasoni, Arturo (1986) Double http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002069

Dal Farra, R. (1986) Ancestros. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002068

Dal Farra, R. y Gervasoni, A. (1986) Clones http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002071

Dal Farra, R. y Gervasoni, A. (1986) Integrados http://www.fondation-langlois.org/html/e/page.php?NumPage=1663

Dal Farra, R. (1989) EGT http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002066

Dal Farra, R. (1989) SP4 http://www.fondation-langlois.org/html/f/oeu.php?NumEnregOeu=o00002064

Dal Farra, R. (1992) Homotecia http://www.fondation-langlois.org/html/f/oeu.php?NumEnregOeu=o00002743

Dal Farra, R. (1994) Mel18 http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002075

Referencias

Todas las obras de compositores latinoamericanos citadas a continuación pueden ser escuchadas -completas- accediendo al Archivo de Música Electroacústica de Compositores Latinoamericanos disponible online en el sitio web de La fondation Daniel Langlois pour l’art, la science et la technologie de Montreal, Canadá (http://www.fondation-langlois.org/html/e/page.php?NumPage=556).

Dal Farra, R y Costa, C. (1984). Música para Hall, para guitarra, sonidos electrónicos y procesamiento electroacústico en tiempo-real. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002730

Dal Farra, R. y Gervasoni, Arturo (1987) G [I. Gravitacional; II. Inercial], para guitarra MIDI, sintetizador digital y procesamiento electroacústico en tiempo-real. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002731

Dal Farra, R. y Gervasoni, A. (1987) Para Todos Ellos, para guitarra MIDI, sintetizador digital y procesamiento electroacústico en tiempo-real; con diapositivas del pintor Víctor Magariños D. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002067

Dal Farra, R. (1989) Xastock, para saxo tenor y procesamiento electroacústico en tiempo-real. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002065

Dal Farra, R. (1991) Ashram, para mukha veena y procesamiento electroacústico en tiempo-real o sonidos pregrabados en soporte fijo. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002063

Dal Farra, R. (1983-2003) Civilizaciones, para seis percusionistas y procesamiento electroacústico en tiempo-real. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002737

Lanza, Alcides (1995) Ektenes III [1995-I], para clarinete, sonidos pregrabados en cinta y procesamiento digital de señales. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002050 http://www.fondation-langlois.org/html/e/media.php?NumObjet=58010

Quintanar, Héctor (1972) Voz, para soprano y sonidos electrónicos. http://www.fondation-langlois.org/html/e/page.php?NumPage=1672

Russek, Antonio (1981). Continuidades y Distancias [Estudio Electrónico III], para bailarina, proyección de diapositivas y sonidos electrónicos. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00003687

Russek, A. (1981). Summermood, para flauta baja amplificada y procesamiento electroacústico en tiempo-real. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00003688

Russek, Antonio (1988). De vez en vez, para solista, sintetizador MIDI controlado en tiempo-real y sistema de audio multicanal. http://www.fondation-langlois.org/html/e/oeu.php?NumEnregOeu=o00002682

Silva, Conrado (1989). Pericón, música electrónica en vivo. http://www.fondation-langlois.org/html/e/page.php?NumPage=1675

Sukorski, Wilson (1989). Voice Solo, para contratenor, sonidos electrónicos y transformaciones de la voz en vivo. http://www.fondation-langlois.org/html/e/page.php?NumPage=1676

Todos los sitios web citados en este texto fueron consultados y verificados en mayo de 2011.

Page 66: En El Limite Nro2

66 | en el limite

Matías Romero Costas Biopus IUNA / Instituto Universitario Nacional del Arte

1. Resumen El presente artículo aborda la problemática de la interactividad como parte fundamental de la gramática del arte digital o arte electrónico interactivo. Se pondrá un especial énfasis en las obras que se enmarcan en lo que se conoce como entornos de Realidad Aumentada.

El tema es analizado desde tres conceptos fundamentales que permiten entender el funcionamiento de la relación entre el artista, la obra y la participación del público: la metáfora como base para la comprensión del discurso, el fenómeno de la inmersión en la obra y el papel de las interfaces como medio que articula la participación.

2. Introducción Desde finales del siglo pasado somos testigos del crecimiento de las experiencias del arte a través de las nuevas tecnologías y de cómo ellas han modificado los modos de producción y comunicación. Además de establecerse como un nuevo lenguaje, plantean nuevas formas de expresión y participación del público. ¿Qué diferencia a estas obras artísticas de las tradicionales?

La respuesta, obvia pero a su vez compleja, se encuentra en el proceso interactivo: mientras que en el arte tradicional el espectador se vincula con la pieza de arte de un modo

contemplativo, en las obras tecnológicas interactivas la relación obra-público se constituye como un proceso comunicacional de ida y vuelta que supone un intercambio de información entre ambos. Como sostiene Burnham, el vínculo puede ser considerado un diálogo donde dos sistemas se juntan (...) para modificarse constantemente el uno al otro [5].

El protagonismo del público en la construcción de la obra desdibuja la noción moderna del artista como genio creador. El rol del artista que trabaja con nuevas tecnologías radica en crear la gramática con la que el público construirá el discurso (...). Es decir, que el artista construye un conjunto de reglas, de entre las que el público puede elegir para desarrollar su propio discurso [7].

Desde el punto de vista del diseño, la interactividad también redefine la manera en que se conciben e implementan los contenidos sonoros, visuales y/o hápticos1

de la obra: preponderan aquellos que son capaces de transformarse y evolucionar de forma inmediata, a partir de la intervención del espectador. En definitiva, el eje de la concepción de la obra se traslada del objeto al lugar donde se produce el proceso de comunicación entre el sistema informático y el usuario, es decir, en el espacio de interacción.

Comenzaremos por acotar el universo del arte digital a aquellas piezas que se constituyen como un sistema multimedia interactivo, donde se conjugan dos dimensiones de

naturaleza diferente: lo virtual y lo real. Reflexionaremos acerca de cómo la claridad en el planteo de la metáfora, y especialmente el diseño de las interfaces, funcionan como ejes fundamentales para la creación de la ilusión inmersiva que permite al usuario ser parte fundamental en el desarrollo de la obra.

3. Entornos de Realidad Aumentada Como dijimos anteriormente, centraremos nuestro análisis en las experiencias de arte digital o electrónico concebidas como un Sistema Multimedia Interactivo.

Un Sistema Multimedia Interactivo está constituido por un entorno y una serie de entidades vinculados a partir de su interacción. Constituye un sistema porque sus componentes están enlazados a partir de un conjunto de reglas o principios, y es multimedia debido a que utiliza modalidades sensoriales múltiples tanto en la percepción de los espectadores o participantes como en el análisis sus acciones.

El rol de la interactividad en el arte digital

Figura 1. Sistema Multimedia Interactivo

Page 67: En El Limite Nro2

en el limite | 67

En este sistema participan • Objetos Reales: son aquellos objetos

que tienen una existencia actual objetiva, que existen efectivamente en el entorno.

• Objetos Virtuales: son aquellos que pueden ser creados, destruidos, utilizados o modificados dinámicamente, es decir que sus propiedades pueden ser cambiadas a través del tiempo por los sujetos. Generalmente no pueden ser observados directamente (necesitan de una interfaz), pero los efectos de su uso pueden ser percibidos.

• Objetos Mixtos: objetos reales que tienen algún tipo de aumento virtual u objetos virtuales que tienen una contraparte real.

Por Sujeto se entiende todo aquel capaz de: • percibir qué sucede en el entorno que lo rodea • actuar en concordancia con esta facultad

Aquí se utiliza la palabra sujeto en el sentido de agente. Un agente es aquel que percibe su entorno a través de los sensores e interviene sobre el entorno a través de los actuadores. La distinción entre sujetos reales, virtuales o mixtos es similar a la de los objetos, y depende también del tipo de existencia que posean. • Sujetos Reales: ejemplos de este tipo son

los seres humanos y los robots, pero estos últimos solamente si poseen la capacidad de percibir y actuar, es decir que tengan un cierto grado de autonomía expresiva.

• Sujetos Virtuales: los sujetos virtuales son capaces de observar el entorno a través de los sensores y de procesar la información para obtener una representación interna de ese entorno y de actuar a través de los actuadores (sonido, imágenes, etc.).

• Sujetos Mixtos: ídem objetos.

Una propiedad fundamental de los elementos de la estructura (objetos y sujetos) es el dinamismo; es decir que ambos son capaces de transformarse en el tiempo. Es posible, además, que los objetos se conviertan en sujetos: pueden adquirir la habilidad de percibir y actuar.

La Realidad Mixta es la disciplina que estudia los entornos donde se combina o superpone contenido generado digitalmente con el mundo real, es decir entornos mixtos que se ubican dentro de un continuo entre los entornos totalmente virtuales y los entornos físicos. Un entorno puede ser totalmente real o totalmente virtual, o bien estar en algún punto intermedio entre estos dos extremos.

• Entornos Reales (físicos): entornos sujetos a las leyes físicas de la naturaleza.

• Entornos Virtuales: entornos sintetizados digitalmente que pueden o no simular un entorno real. Un caso particular de este tipo de entornos es lo que se denomina Realidad Virtual, una situación en la cual un participante esta totalmente inmerso en un entorno sintético. Esa inmersión generalmente se logra a través de la utilización de sistemas head-mounted display o sistemas del tipo CAVE.

• Realidad Aumentada: se define como cualquier caso en el que un entorno real es “aumentado” con objetos virtuales (gráficos, sonidos, etc.).

Virtualidad Aumentada: entornos donde se combinan sonidos, imágenes, sensaciones de fuerza y tacto del mundo real a un entorno generado sintéticamente.

Figura 2. Continuo Realidad-Virtualidad de Milgram, Takemura, Utsumi y Kishino.

Figura 3. Entorno de Realidad Mixta (Imagen obtenida en: http://www.techepics.com)

Page 68: En El Limite Nro2

68 | en el limite

Desde que Paul Milgram y Fumio Kishino definieron, en 1994, el continuo Realidad-Virtualidad, la Realidad Aumentada se convirtió en el género que ha despertado mayor interés para la investigación y la producción artística con nuevas tecnologías.

Los entornos de Realidad Aumentada están concebidos como Sistemas Multimedia Interactivos conformados por objetos y sujetos reales, virtuales y mixtos. Dichos entornos combinan mundos reales y virtuales donde todas esas entidades conviven e interactúan en tiempo real.

experiencia se hace más rica en cuanto menos definidos estén los límites entre ambos mundos. 4. La Metáfora La metáfora es una figura retórica utilizada para construir analogía entre dos cosas o ideas. Básicamente consiste en reemplazar un objeto con otro, pero que mantenga alguna conexión, correspondencia o semejanza con el primero. En los sistemas operativos, por ejemplo, la metáfora se aplica en el diseño de las interfaces gráficas, como por ejemplo la interfaz usuario (UI). Un ejemplo clásico lo podemos hallar en el sistema operativo Windows, con su metáfora del escritorio, organizado en carpetas, archivos, ventanas, etc.

La primera función de la metáfora es la de hacer comprensible los procesos informáticos del sistema a través de una representación concreta. Los atributos y las relaciones que se establecen entre los datos digitales que conforman el universo virtual se vuelven accesibles al usuario gracias a la metáfora2. Pero además de ello, la metáfora posee el papel fundamental de disolver la separación entre lo físico y lo virtual. De allí su importancia en la determinación de la función de los elementos dentro del sistema, pero sobre todo de sus relaciones.

La metáfora es la encargada de construir el universo simbólico de la obra, de transmitir el conjunto de ideas y valores estéticos, y de hacer legible su sintaxis. De ella depende, en primera instancia, el crear la ilusión de un espacio al que nos es posible acceder.

4.1. La metáfora en “Sobra la falta” Sobra la falta es una instalación en donde un robot “cartonero” (o “botellero”, o que simplemente recoge desechos) intenta crear imágenes usando la basura que el público arroja. Al entrar en la sala, el público se encuentra con un depósito de basura en donde puede arrojar residuos. Al acumularse basura en este sector, un robot se acerca para extraer residuos y redistribuirlos en el espacio para crear con éstos una imagen. Estas imágenes icónicas son representaciones de las carencias de la gente: alimento, hogar, trabajo, seguridad, educación, etc.

Sobra la falta surge como respuesta a la “necesidad de construir algo desde la basura”, es decir, frente a la necesidad de encontrar algo positivo en la basura. En esta paradoja está perdido nuestro robot e intenta construir lo que falta desde las sobras, siempre a riesgo de subrayarla, de reafirmarla.

Figura 4. Realidad Aumentada (Imagen obtenida en: http://www.archimuse.com/mw2007/ papers/kondo/kondo.html)

Es importante señalar que el fenómeno de la aumentación supone que la información digital debe agregar propiedades a la materialidad de lo físico, y va más allá de una mera superposición de lo virtual y lo real. La

Figura 5. Sobra la falta, del grupo Proyecto Biopus(Imagen obtenida en www.biopus.com.ar)

Page 69: En El Limite Nro2

en el limite | 69

En esta instalación robótica interactiva, la metáfora articula todo el discurso de la pieza. Se hace presente ya en el título de la obra, un juego semántico que manifiesta su intención: poner en evidencia la realidad social que nos rodea. Cómo aquello que se encuentra más presente entre nosotros, aquello que sobra, es precisamente la falta. Y siguiendo el juego de palabras, un robot que intenta, absurdamente, construir lo que falta desde las sobras.

Desde su mismo aspecto, este robot construido con desperdicios, pone al descubierto la paradoja de la tecnología. La basura y el desecho en contraposición a la idea, presente en el inconsciente colectivo; la robótica como representación de la tecnología más avanzada.

Las “sobras”, todo aquello de lo que nos queremos deshacer, conforman al mismo tiempo la interfaz y la acción interactiva con la obra. El usuario es invitado a formar parte de la experiencia, a transformar la basura en la materia prima que utiliza este pequeño robot para crear sus dibujos.

5. Inmersión El fenómeno de inmersión, en las obras de arte interactivo, tiene lugar en el momento que el sujeto se involucra física, emocional y cognitivamente con la experiencia. Si la reflexión analítica necesita de una distancia a la obra que permita la objetividad, la inmersión requiere romper con ella para crear un vínculo subjetivo.

Si bien el acontecimiento inmersivo se encuentra presente en todas las formas del arte, es quizás en las obras interactivas con nuevas tecnologías donde este aspecto se vuelve indispensable. Al tratarse de una participación protagónica, que muchas veces involucra al cuerpo, un alto grado de inmersión facilita la comprensión de la gramática propia de la obra, necesaria para definir su desarrollo discursivo. Si el primer paso para conseguir que la inmersión tenga lugar queda supeditado a la claridad de la metáfora, desde el punto de vista del sujeto, el grado de inmersión logrado estará dado principalmente por los siguientes factores:

• Los sentidos involucrados, tanto la cantidad como la intensidad en que estos son puestos en funcionamiento por la interacción.

• El nivel (o grado) de interacción, es decir la cantidad y calidad de las acciones que admita el entorno.

Figura 6. Sobra la falta, del grupo Proyecto Biopus (Imagen obtenida en www.biopus.com.ar)

• La conciencia del entorno. La capacidad que tiene el entorno para percibir nuestra presencia, captar nuestras particularidades y responder en consecuencia.

Cuando Oliver Grau sostiene que el fenómeno de inmersión surge cuando la obra de arte y el dispositivo, cuando el medio y el mensaje, convergen en una casi inseparable unidad, cuando el medio se vuelve invisible [10], lo hace pensando en la necesidad de desdibujar la línea que separa el espacio virtual del físico, como una estrategia para facilitar el paso entre ambos mundos. Parte del desafío se encuentra, entonces, en el diseño de las interfaces que faciliten este movimiento.

6. Interfaces La interactividad supone la participación directa del usuario dentro de los procesos informáticos. Los espectadores se convierten en actores-usuarios, ya que pueden modificar o generar directamente contenido a partir de sus acciones, mientras que las interfaces son el medio que posibilita esta intervención.

La Interacción Humano-Ordenador (HCI) es la disciplina que estudia de qué manera los medios informáticos se vinculan con el ser humano, basándose en el análisis del gesto expresivo y el diseño de interfaces.

Gui Bonsiepe entiende a la interfaz como un espacio en el que se articula la interacción entre el cuerpo humano, la herramienta y objeto de la acción [4], es decir que no se trata sólo de un

Page 70: En El Limite Nro2

70 | en el limite

objeto físico o virtual, sino que es el medio que permite unir al hombre con su objetivo, es el canal que conduce la interactividad. Nuevamente encontramos en esta definición la idea de conectar dos realidades esencialmente diferentes, lo virtual y lo real.

Desde hace unos años el paradigma que guía el diseño de interfaces se volcó más hacia las interfaces tangibles (TUI, por Tangible User Interface), como las define Hiroshi Ishii3 son …las interfaces de usuario que emplean objetos, instrumentos, superficies y espacios físicos como interfaces de la información digital [19]. Situándose al otro extremo del paradigma de las GUI (Graphical User Interface), estas nuevas “interfaces naturales” devuelven a la realidad física los objetos del paradigma del “escritorio”, donde representaciones gráficas icónicas y metafóricas de objetos existentes, como los portapapeles, las carpetas, servían como nexos entre nuestras acciones y la información dentro del ordenador.

información, donde la persona se encuentra sentada frente al ordenador con interfaces físicas diseñadas y construidas específicamente para esos fines, como el mouse y el teclado, este nuevo paradigma plantea un vínculo más natural, donde objetos reales, de uso cotidiano, permiten una interacción más intuitiva.

De esta manera, la interfaz se hace “invisible”: la atención del usuario entonces, se traslada de la interfaz al vínculo mismo que se genera entre el objeto y el sujeto. No es necesario, entonces, estar inmóvil frente a una computadora, o utilizando nuestro tiempo para aprender a utilizar un nuevo dispositivo. Un nuevo paradigma en el diseño de interfaces se encamina en este sentido. La tecnología calma abre nuevos caminos para repensar el papel del dispositivo tecnológico en su relación con el cuerpo y el entorno, una manera de trascender la herramienta y explotar la experiencia con la obra.

6.1. Interfaces Transparentes “La computación ubicua es el nombre de la tercera ola de la informática, que acaba de comenzar. Primero fueron los mainframes, cada una compartida por muchas personas. Ahora estamos en la era de la informática personal: persona y máquina mirándose fijamente con inquietud a través del escritorio. Luego viene la computación ubiqua, o la era de la tecnología calma, cuando la tecnología se retira hacia el fondo de nuestras vidas.”

Figura 7. Trasformación de las GUI en las TUI (Imagen obtenida en [19])

Mientras que el paradigma de las GUI propone un tipo de relación entre el usuario y la

Figura 8. Reactable , un ejemplo de Interfaz Tangible (Imagen obtenida en: http://mtg.upf.es/reactable)

Es así que los límites entre el mundo físico y el virtual se hacen más difusos y permeables, permitiendo moverse libremente entre ambos, sin necesidad de un esfuerzo especial, o un acomodamiento artificial a interfaces o espacios determinados.

Figura 9. Sensible, pantalla sensible al tacto de lycra, del grupo Proyecto Biopus (Imagen obtenida en: www.biopus.com.ar)

Page 71: En El Limite Nro2

en el limite | 71

Figura 10. Las tres olas de la informática. (Imagen obtenida en: http://www.ubiq.com/hypertext/ weiser/UbiHome.html)

Así Mark Weiser4 definió a la computación ubicua (Ubiquitous Computing), como una tecnología invisible, que no vive en ningún dispositivo personal de ningún tipo, pero que está presente en todas partes. Este nuevo paradigma, conocido también como tecnología calma, inteligencia ambiental, o computación omnipresente, constituye una nueva visión de una tecnología, donde el proceso de la información ya no se encuentra en el centro de nuestra atención, sino que se encuentra en todos lados, rodeándonos. Una tecnología que nos permite estar en contacto con ella, e interactuar, del mismo modo que lo hacemos habitualmente con el mundo físico que nos circunda.

Pensando en la definición de interfaz de Bonsiepe, la invisibilidad del dispositivo permite trascender la herramienta y prestarle mayor atención al objetivo de nuestra acción.

6.2. Dispositivos Ambientales Con el término “Ambient Device” (dispositivos ambientales) se conoce a un nuevo género de dispositivos electrónicos que se caracterizan por su capacidad para ser percibidos “de un vistazo”. La idea detrás de la concepción de estos aparatos de diseño, se basa en la extracción de información sin la necesidad (aparente) de realizar una decodificación racional compleja, es decir que sólo con mirarlos podemos inferir una serie de datos acerca de la realidad sin una gran demanda de esfuerzo.

Uno de los primeros dispositivos, desarrollado por la compañía “Ambient Devices”, fue el Ambient Orb, una pequeña bola de cristal capaz de variar su color en función del estado del tiempo, el monitoreo de los mercados o el estado del tránsito, o cualquier otra información ambiental que se le determine.

Los dispositivos ambientales nos muestran una manera de integrar las interfaces tangibles a nuestro ámbito cotidiano. La información se acopla al entorno y nos circunda haciéndose presente sin demandar un mayor esfuerzo de nuestra parte. La tecnología se retira y se hace invisible. Las interfaces se vuelven transparentes, reafirmando la difusión de los límites entre lo real y lo virtual. Los datos se encuentran accesibles a nuestro alrededor, mezclándose sin solución de continuidad con los objetos cotidianos. El nuevo paradigma confirma la realidad mixta en la que vivimos.

6.3. El cuerpo como interfaz – La instalación Tango Virus “Tango Virus” es una instalación interactiva que permite al público modificar en tiempo-real un tema de tango mediante un proceso viral. En la instalación el público posee un espacio donde puede bailar el tango que se está escuchando, mientras que esos movimientos generan a su vez un proceso viral que ataca al tema musical, haciendo que éste varíe. En casos extremos, los virus atacan tan profundamente al tema musical, que queda incapaz de defenderse y “fallece”.

La idea detrás de la instalación es la de explorar la participación del público en la creación artística a partir de un proceso destructivo (como es el proceso viral). Si, como se dice, al tango lo llevamos en nuestra sangre, entonces ahora “nosotros infectaremos el cuerpo del tango”. La búsqueda de la

Figura 11. Ambient Orb. Dispositivo de tecnología calma, capaz de variar su color en función del estado del tiempo, el monitoreo de los mercados o el estado del tránsito.

Page 72: En El Limite Nro2

72 | en el limite

obra consiste en invertir la relación entre el movimiento corporal y la música. En lugar de que el cuerpo se mueva al compás de la música, lograr que la música sea alterada por el movimiento del cuerpo. Esto genera un círculo vicioso, dado que nuestro cuerpo sigue siendo influenciado por la música a la vez que la música se ve modificada por éste. Se ingresa, de esta manera, en un ciclo cerrado donde ambos elementos reverberan a partir de sus propias y mutuas evoluciones.

a través del cuerpo, entonces este trabajo permite que la música y el baile ingresen en un diálogo propio, al margen del cuerpo, pero que a su vez permite dar al baile una existencia propia. ¿Qué mejor homenaje al tango, que lograr que su baile se transforme en una forma de vida en sí misma?5

Una cámara de video captura de forma cenital el área iluminada que delimita la pista de baile. El movimiento de los bailarines es analizado por la cámara como una trayectoria en el espacio, como un trazo o patrón visual que representa la historia del movimiento de la pareja en su coreografía. Esta huella de baile es la que se transformará luego en el virus que infecte al tema musical, y que puede eventualmente destruirlo. La huella coreográfica es la representación visual de cada virus, en el sentido de que es la forma concreta en que los virus se manifiestan en la pantalla de monitoreo de la instalación. A medida que las huellas se repiten, es decir que se producen movimientos similares, un sistema inmunológico las memoriza y adquiere anticuerpos contra este tipo de virus, es decir que se hace inmune a patrones similares. El ataque viral puede detectarse en las transformaciones musicales que sufre el tema de tango. Dependiendo del “sistema inmunológico” del tango, puede suceder que se repela el ataque del virus y se reestablezca la música gradualmente a su estado original, o bien que el tango no pueda recuperarse y muera, en cuyo caso la música llega a su punto máximo de deformación y finaliza.

En esta pieza podemos ver un claro ejemplo de una interfaz transparente. Sin objetos externos o instrumentos, el cuerpo y la herramienta se fusionan y se convierten en uno solo. Y como la acción es orgánica a la interfaz, no es necesario incorporar nuevos elementos y el objetivo de la acción se transforma en lo central. El cuerpo es la interfaz, es el medio que comunica al usuario con el sistema La complejidad de dicha comunicación no depende del grado de pericia que pueda adquirirse con la herramienta, sino con la experiencia que cada uno tenga con su propio cuerpo. Indudablemente esto implica involucrarse físicamente con la obra, y llegar a un alto grado de inmersión.

7. Conclusión A lo largo del escrito analizamos de qué manera se relacionan dentro del entorno de realidad mixta, aquellos elementos que hacen posible su existencia o, para comprenderlo mejor, cómo cada uno de los elementos depende de los demás, y a su vez condiciona y modifica la existencia de los otros.

Así, entendemos que la metáfora es la que va a articular todo el discurso de la obra, ya que a partir de ella se definen tanto la estructura como los elementos del sistema, la elección del tipo de comunicación que se va a establecer con los usuarios y la manera en que esta comunicación puede sostenerse efectivamente a través de las interfaces (físicas y virtuales).

Figura 12. Tango Virus, del grupo Proyecto Biopus (Imagen obtenida en: www.biopus.com.ar)

La instalación busca perpetuar un hecho efímero, como es el baile, a partir de la creación de una entidad auto-organizativa, como es un virus, logrando que el baile trascienda como hecho a la persona y evolucione en forma independiente. Esto produce un desplazamiento del lugar del cuerpo en el hecho del baile: si en un principio uno puede pensar que la música se hace baile

Page 73: En El Limite Nro2

en el limite | 73

El diseño de la metáfora es el diseño de la estructura, y el proceso de comunicación, el sostén de la interactividad entre el entorno, los elementos del sistema y los participantes, la que permite unir la realidad física con la virtual y viceversa: es el canal de comunicación entre ambos.

La metáfora establece o crea una realidad distinta que se manifiesta de diferentes maneras (como un ambiente, un personaje, etc.) y con diferentes niveles de presencia y conciencia; vehiculiza el comportamiento del usuario y el modo de participar de éste en el discurso de la obra.

El desarrollo de nuevas interfaces permite mejorar las posibilidades de integrar al cuerpo con el entorno. La aparición de nuevas TUI amplia el campo de acción disponible para el usuario, que puede acercarse de una forma más efectiva y natural al flujo de información, y al mismo tiempo desenvolverse dentro de un mundo con objetos y espacios que se ajustan a las leyes físicas que conocemos, y a las que estamos acostumbrados a manipular.

El nivel de inmersión se acrecienta cuando el usuario se ve más involucrado físicamente, es decir cuando una mayor cantidad de sentidos son estimulados, su intensidad es mayor y cuando puede intervenir dentro del relato para modificar su devenir.

Mientras que la Realidad Virtual, para lograr un alto grado de inmersión, intentaba

alejarnos del mundo real y rodearnos de imágenes generadas digitalmente, la Realidad Aumentada nos devuelve nuevamente a la experiencia sensible con lo material y tangible. Cualquier objeto cotidiano puede ahora transformarse en la herramienta que nos permite manipular los datos.

En definitiva, la tendencia del diseño interactivo parece dirigirse hacia los entornos de Realidad Aumentada, que combinan los objetos físicos enriquecidos con información digital, y donde los límites entre ambos permanecen difusos. Un paradigma que devuelve la materialidad a la experiencia, a través de las interfaces tangibles, pero que al mismo tiempo las hace invisibles para lograr un vínculo más natural con el sistema, fomentando la inmersión desde una interacción más intuitiva.

Es a partir de ahora que el arte digital debe superar la mera anécdota tecnológica y el regodeo por la novedad del dispositivo, para explorar la riqueza discursiva que surge de la unión del artista, la obra y la participación del público. Es el momento de explotar las posibilidades expresivas que ofrece este nuevo lenguaje.

Page 74: En El Limite Nro2

74 | en el limite

Bibliografía

[1] Bach, C. y Scapin D. L., Adaptation of Ergonomic Criteria to Human-Virtual Environments Interactions. http://www. idemployee.id.tue.nl/g.w.m.rauterberg/conferences/ INTERACT2003/INTERACT2003-p880.pdf. Consultado el 20/10/2008. Actualmente en línea.

[2] Bach, C. y Scapin D. L., Obstacles and Perspectivas for Evaluating Mixed Reality Systems Usability.

[3] Barr, P., Biddle, R., Noble, J., A Taxonomy of UserInterface Metaphors., School of Mathematical and Computing Sciences Victoria University of Wellington, Wellington, New Zealand, 2002.

[4] Bonsiepe, Gui. Del objeto a la interface, Ed. Ediciones Infinito Buenos Aires. 1999.

[5] Burnham, J. W. The Aesthetics of Intelligent Systems. On the future of art; essays by Arnold J. Toynbee [and others], Viking Press, NY, 1970. pg. 95-122.

[6] Causa, Emiliano y Silva, Chirstian. Interfaces y metáfora en los entornos virtuales, RIM (Revista de Investigación Multimedia). Año 1 Número 1. Publicación del Area Transdepartamental de Artes Multimediales del IUNA. 1996.

[7]Causa Emiliano, Los Virus En El Arte El Desarrollo De La Instalación Tango Virus, en Publicación Inter/activos, Ambientes, Redes. Tele actividad. Programa de Arte Interactivo II, 2006. A cargo de Rodrigo Alonso y Mariano Sardón. Espacio fundación Telefónica, PG. 22. Bs. As. 2006.

[8] Dubois E. and Philip D. Gray and Daniela Trevisan and Jean Vanderdonckt, MIXER ‘04, Exploring the Design and Engineering of Mixed Reality Systems, Proceedings of the IUI-ADUI*04 Workshop on Exploring the Design and Engineering of Mixed Reality Systems, Funchal, Island of Madeira, January 13th, 2004.

[9] Fencott, Clive. Towards a Design Methodology for Vitual Enviropments. Virtual Reality Applications Research Centre, University of Teesside.

[10] Grau, Olivier. BLUR: The Recombinant Reality: Immersion & Interactive Image Spaces. En linea: mediartchina.org/essays/Grau.pdf

[11] Milgram, P. Takemura, H. Utsumi, A. Kishino, F. Augmented Reality: A class of displays on the reality-virtuality continuum, Proceedings of SPIE, Telemanipulator and Telepresence Technologies 2351, 282–92 (1994).

[12] Milgran, P. and A. F. Kishino, Taxonomy of Mixed Reality Visual Displays. IEICE Transactions on Information and Systems, E77-D(12), pp. 1321-1329, 1994.

[13] Milgran, P., Herman, C. J., A Taxonomy of Real andVirtual World Display Integration, in Mixed Reality, Merging Real and Virtual Enviropments, Ohmshda & Springer-Verlag, pp 5-30, 1999.

[14] Penny, Simon . From A to D and back again: The emerging aesthetics of Interactive Art. First published in Leonardo Electronic Almanac april 1996, and NextWave catalog, May 1996, Melbourne Australia.

[15] Ratti, Carlo ; Wang, Yao; Ishii, Hiroshi; Piper, Ben; Frenchman, Dennis. Tangible User Interfaces (TUIs): A Novel Paradigm for GIS. In Transactions in GIS Volume 8, Issue 4, pages 407–421, October 2004.

[16] Rogers I, Scaife M, Gabrielli S, Smith H, Harris E. A Conceptual Framework for Mixed Reality Environments: Designing Novel Learning Activities for Young Children. Interact Lab – COGS, University of Sussex, UK. Presence, Vol 11, Nº6, 677-686.

[17] Ullmer, B. and Ishii, H., The metaDESK: Models and Prototypes for Tangible User Interfaces, in Proceedings of Symposium on User Interface Software and Technology UIST ‘97), (Banff, Alberta, Canada, October, 1997), ACM Press, pp. 223-232.

[18] Volpe, Gualterio. Computational models of expressive gesture in multimedia systems, Ed. InfoMus Lab. University of Genova, Italia. 2003.

[19] Ishii, Hiroshi; Ullmer, Brygg. Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms. 1997. En linea: http://tangible.media.mit.edu/papers/Tangible_Bits_CHI97.php

Referencias 1 Háptica, estrictamente hablando significa todo aquello referido al contacto, especialmente cuando éste se usa de manera activa. La palabra no está incluida en el diccionario de la Real Academia Española y proviene del griego hápto (tocar, relativo al tacto). Wikipedia.

2 Para una explicación más profunda acerca de la metáfora, véase Legrady, George. 1994. Interface Metaphors & New Narratives in Interactive Media, y Causa, Emiliano y Silva, Chirstian. Interfaces y metáfora en los entornos virtuales, RIM (Revista de Investigación Multimedia). Año 1 Número 1. Publicación del Área Transdepartamental de Artes Multimediales del IUNA. 1996.

3 Hiroshi Ishii es un científico y programador, miembro del grupo de Investigación en Medios Tangibles (Tangible Media Research Group), y fue el primero e utilizar la denominación Tangible User Interfaces (TUI). http://tangible.media.mit.edu/

4 Mark Weiser: http://www.ubiq.com/hypertext/weiser/UbiHome.html

5 Información obtenida en www.biopus.com.ar

Page 75: En El Limite Nro2

en el limite | 75

Sergi Jordà MTG / Grupo de Tecnología Musical Universidad Pompeu Fabra - Barcelona [email protected]

Introducción Con el auge de la música electrónica en vivo, el diseño de nuevos controladores musicales, un área de investigación y desarrollo que durante décadas ha permanecido semioculta en la oscuridad de los laboratorios, parece estar llegando finalmente a las masas. En este artículo se analizan algunas de las necesidades específicas de las interfaces para los sistemas de creación musical en vivo de hoy, y de cómo éstas difieren por definición y por requerimientos de los instrumentos musicales tradicionales, ya sean acústicos o eléctricos. Se describe el caso particular de los controladores e instrumentos musicales denominados “multiproceso”, estudiando un caso particular, el reactable. Para concluir, se analiza el auge de los nuevos instrumentos musicales para dispositivos móviles multitouch, y de como estos pueden estar alterando las tendencias en el consumo y la producción de música electrónica.

Controladores musicales Las interfaces específicas para la creación de música electrónica en vivo, o los controladores musicales como comúnmente se los denomina, no se inventaron ayer. Comenzaron a proliferar de hecho hace ya casi tres décadas, con la llegada de MIDI, pero es innegable que en los últimos años están despertando un interés

creciente. Como muestra de esta tendencia, la conferencia anual sobre nuevas interfaces para la expresión musical (New Interfaces for Musical Expression o NIME1) comenzó en 2001 y hoy reúne anualmente a más de trescientos investigadores, luthiers y músicos de todo el mundo que comparten sus conocimientos y sus últimos trabajos en el diseño de nuevas interfaces musicales digitales. Un campo que, como veremos, plantea diferencias esenciales con el diseño de instrumentos acústicos o eléctricos.

Los instrumentos acústicos están constituidos por (i) una fuente de excitación que puede oscilar de diferentes formas bajo el control de un ejecutante, y por (ii) un sistema de resonancia que acopla las vibraciones de este oscilador con el aire circundante. Estos instrumentos se basan en las leyes de la mecánica, y (exceptuando algunos instrumentos de teclado) los dos subsistemas, el de control y el de generación de sonido, no pueden ser separados ni intercambiados caprichosamente.

Los instrumentos musicales digitales por su parte, se pueden dividir siempre en (i) un controlador de gestos o dispositivo de entrada, que toma la información de control emitida por el intérprete, y (ii) un generador de sonido que adopta el papel de fuente de excitación. El componente de control pueden ser un simple ratón o teclado de computadora, un teclado MIDI o una caja de potenciómetros MIDI (MIDI Fader box), aunque actualmente, con el uso de los sensores analógicos adecuados y de un convertidor analógico-digital,

cualquier señal externa puede convertirse fácilmente en mensajes de control comprensibles por el sistema digital: los cambios en el movimiento, la presión, la velocidad, la cantidad de luz, la fuerza de gravedad, la conductividad de la piel o la tensión muscular, cualquier señal en suma, es ahora susceptible de ser convertida en una señal de control musical.

Los controladores musicales hoy disponibles se cuentan por centenares. Pueden imitar la forma y la funcionalidad de instrumentos tradicionales, como versiones MIDIficadas de saxofones, trompetas, guitarras, violines, tambores, xilófonos o acordeones, o eludir este mimetismo y adoptar formas tan dispares como la de un par de guantes, o unos sensores musculares o bioeléctricos, por mencionar tan solo un par de posibilidades (Cutler et al., 2000). Adicionalmente, muchos dispositivos de control digital originalmente diseñados para otros fines, pero económicos y ampliamente disponibles en el mercado, como los joysticks u otros controladores para videojuegos, como las tabletas gráficas, etc., son también a menudo adoptados por los músicos (Wessel y Wright, 2002; Kessous y Arfib, 2003).

Estos controladores pueden preservar modos de ejecución tradicionales, permitiéndonos soplar, percutir, pinzar o frotar nuestras computadoras, o pueden también salvaguardar enfoques más “neo-tradicionalistas” que nos permitirían seguir haciendo clic y doble clic, escribiendo, apuntando, deslizando o

El reactable, interacción tangible, instrumentos “multiproceso” y música “móvil”

Page 76: En El Limite Nro2

76 | en el limite

arrastrando (drag&drop). La decisión depende de cada uno. Con los sensores apropiados, los nuevos instrumentos digitales podrán ser también acariciados, estrujados (Weinberg y Gan, 2001), besados, lamidos, bailados, tarareados o cantados. Podrán incluso desaparecer o desmaterializarse, al tiempo que respondan a nuestros movimientos, nuestra tensión muscular o nuestras expresiones faciales (Lyons et al., 2003).

Con la flexibilidad que ofrece el MIDI, ¡cualquiera de estos controladores puede combinarse con cualquier dispositivo de sonido y producir música! Sin embargo, cada elección es crítica. Como bien señala Joel Ryan, improvisador y destacado investigador en el campo de los NIME y director técnico del laboratorio holandés de “lutheria digital” STEIM2, “un deslizador horizontal, un mando giratorio, un sensor que mida la presión en un dedo, un acelerómetro que mida la inclinación y responda a movimientos rápidos, un sonar o un sistema de infrarrojos que detecte la distancia entre dos puntos, cada uno de ellos tiene sus características idiosincrásicas” (Ryan, 1991). Cualquier dispositivo de entrada puede ser una buena o mala elección en función del contexto, el parámetro de control elegido o el artista que lo vaya a utilizar. Al igual que el ingeniero en automoción elige un volante frente a un par de botones izquierda/derecha, “no habría que ofrecer a un músico un caza-mariposas, si lo que necesita es un rastrillo” (Puckette y Settel, 1993). El reto esencial del nuevo luthier no

es pues meramente tecnológico, sino que consiste fundamentalmente en saber concebir e integrar diseños coherentes que fomenten experiencias musicales significativas y con una potencial profundidad emocional.

Música interactiva y “laptop performance” De forma paralela a la eclosión que se vive en la investigación de nuevas interfaces, la computadora portátil se acerca al punto de sentirse tan cómoda en un escenario como pudiera estarlo un saxo o una guitarra eléctrica. Y sin embargo la escena musical contemporánea no refleja todavía esta potencial convergencia: más allá de la integración de simples potenciómetros MIDI, la mayoría de los músicos, intérpretes o ejecutantes de portátiles continúan reticentes a la hora de adoptar controladores nuevos o alternativos. Pareciera como si – tal como apunta (Turner, 2003) - la “laptop performance” y la exploración de los espacios sonoros post-digitales tuviera ineludiblemente que ser un diálogo llevado a cabo entre ratones, potenciómetros, botones y las metáforas ofimáticas. A mi modo de ver, las principales causas de este desencuentro no se deben tanto a un supuesto conservadurismo o falta de riesgo por parte de los músicos, sino precisamente a las mal asimiladas nuevas posibilidades musicales de los instrumentos basados en computadoras, tal como comentaremos a continuación.

Puede que yo haya dado lugar a esa objeción, que quizá no me hubieseis hecho si hubierais considerado la diferencia entre el instrumento-filósofo y el instrumento-clavecín. El instrumento-filósofo es sensible; es, al mismo tiempo, el músico y el instrumento. Como es sensible, tiene la conciencia momentánea del sonido que produce; como es animal, guarda memoria de ella. Esta facultad orgánica, uniendo los sonidos en él mismo, ahí produce y conserva la melodía. Suponedle al clavecín sensibilidad y memoria, y decidme si no repetirá por sí solo las tonadas que hayáis interpretado en sus teclas. Somos instrumentos dotados de sensibilidad y memoria. Nuestros sentidos son otras tantas teclas tañidas por la naturaleza que nos rodea y que a menudo se tañen a sí mismas; y he aquí, a mi juicio, todo lo que pasa en un clavecín organizado como vos y yo. (Diderot, 1975)3.

En la interpretación instrumental tradicional, en el instrumento-clavecín, todos los matices, todas las variantes de control, todos los pequeños cambios o modulaciones (por ejemplo, un vibrato o trémolo) deben ser abordados físicamente por el intérprete o ejecutante, que es 100% responsable de lo que sucede, ya que estos instrumentos no “saben” ni toman decisiones. La computadora musical por su lado, igual que el instrumento-filósofo descrito por Denis Diderot en el siglo XVIII, es un sistema dotado de memoria y de conocimiento, con agentes inteligentes susceptibles de recordar, percibir, responder o actuar en su entorno. La computadora musical es en suma, un instrumento capaz de manejar tareas de forma semi-autónoma y de dirigir y supervisar, mediante procesos informáticos, el control

Page 77: En El Limite Nro2

en el limite | 77

de múltiples detalles. Este nuevo paradigma instrumental no impone ya al intérprete el control total directo y permanente de todos los aspectos involucrados en la producción sonora, liberándolo y permitiéndole dirigir y supervisar, en su lugar, los procesos digitales que controlan estos detalles. En este contexto, el instrumentista tiende a delegar o a permutar con el ordenador el control parcial del instrumento, y la música deja de ser responsabilidad exclusiva del humano para pasar a serlo del binomio humano-máquina.

A raíz de la potencial complejidad de todos estos procesos en curso, que pueden estar bajo el control exclusivo del instrumento o bajo una responsabilidad compartida por el instrumento y el instrumentista, la creación musical en vivo con computadoras potencia un diálogo interactivo entre máquina y humano. Tal como se simboliza en la figura 1, este nuevo tipo de instrumento tiende a desplazar el centro de atención del instrumentista, de los detalles de más bajo nivel a los procesos de alto nivel responsables de controlar estos detalles. El músico ejecuta estrategias en lugar de ejecutar datos de control, y el instrumento favorece respuestas más complejas a los estímulos del músico, superando la ejecución “nota a nota” así como el paradigma “un gesto, un evento acústico”, tan ligados ambos a la creación musical con instrumentos tradicionales, y permitiendo así a los músicos el trabajar en diferentes niveles musicales y obligándolos a tomar sobre la marcha decisiones de más alto nivel (i.e. más “compositivas”) (Jordà, 2005).

El concepto de “nota”, la columna vertebral estructural de la música occidental, se convierte en una opción más que en una necesidad, rodeada ahora por la forma macroestructural de un lado, y la microestructura tímbrica del sonido del otro. El músico se aleja del artista intérprete acústico, acercándose más al director de orquesta e incluso al compositor (¡un compositor en tiempo real, por supuesto!), así como, en el otro extremo, al luthier creador de instrumentos.

Instrumentos musicales multiproceso con control compartido La mayoría de los controladores musicales que se desarrollan en la actualidad no persiguen, a mi modo de ver, este enfoque “multiproceso y de control compartido”, prolongando más bien el paradigma instrumental tradicional. Looks futuristas o sofisticadas e inusitadas combinaciones de sensores no deberían ocultarnos el hecho de que la mayoría de las interfaces musicales continúan estando diseñadas para ser tocadas y ejecutadas “todo el tiempo”, ofreciendo un control continuo y preciso sobre unas pocas dimensiones.

Una interfaz “íntima”, sensible y sin excesivas dimensiones de control o grados de libertad, metafóricamente más cercana a un arco de violín, una boquilla de saxo o incluso a un joystick, que a un piano, seguirá siendo una candidata ideal para un microcontrol directo, como el requerido para trabajar el timbre o la articulación del sonido. Sin embargo, una interfaz no “portable” (non-wearable), distribuida y multiplexada en el espacio y que permita un acceso intermitente, en el que el control pueda ser fácil y rápidamente transferido y recuperado a/de la máquina, una interfaz más próxima a un piano, una batería o a un tablero de mandos, será sin duda mucho más eficaz y recomendable para un control macroestructural, indirecto y de más alto nivel (Jordà, 2005).

Figura 1. El microcontrol instrumental tradicional (izquierda) vs. el instrumento multiproceso con control compartido, que combina micro (líneas sólidas) y macro (líneas punteadas) control.

Page 78: En El Limite Nro2

78 | en el limite

Información Visual En este modelo de control compartido, en el que el instrumentista tiende a delegar y a alternar frecuentemente el control con el instrumento, no estará de más ningún medio disponible que facilite el monitoreo de los procesos y las actividades en curso. La retroalimentación visual se convierte así en un importante activo para que este tipo de instrumentos pueda “comunicar” sus estados y los comportamientos de sus procesos musicales de una forma dinámica, didáctica y eficiente (Jordà, 2003). Las luces e indicadores de los tableros de control en los aviones actuales pueden no ser estrictamente indispensables para el pilotaje de la aeronave (ver Figura 2), pero ¿cuantos pilotos se atreverían volar con sus pantallas apagadas? ¡Es de hecho la pantalla del portátil y no el ratón lo que los músicos digitales se resignan a perder! Y, sin embargo, hasta hace bien poco, eran todavía escasas las nuevas interfaces musicales que aprovechaban plenamente las capacidades visuales de las computadoras digitales. Esto nos lleva a introducir a continuación los conceptos de “interacción tangible” (TI) e “interfaces tangibles de usuario” o “Tangible User Interfaces” (TUI).

Figura 2. ¿Cuántos pilotos se sentirían cómodos con una manta tapando todos estos controles?

Interfaces tangibles de usuario Hoy en día, cuando palabras como “multi-touch” y gestos como el “zoom con dos dedos” se han integrado ya en la vida cotidiana de muchos de nosotros, la “interacción tangible”4, hasta hace bien poco un área de investigación muy minoritaria, parece haber entrado finalmente en la corriente principal. Pero la TI es bastante más que compartir colecciones de fotos virtuales o aplicarles zooms y navegar por Google maps con nuestros dedos. Veamos pues.

Los términos TI y TUI fueron acuñados en 1997 por Iroshi Ishii en el MediaLab del MIT (Ishii y Ulmer, 1997), aunque desde principios de los noventa existen investigaciones e implementaciones previas relacionadas. Las interfaces tangibles de usuario (TUI) combinan el control y la representación en un mismo dispositivo físico (Ulmer y Ishii, 2001). Mientras que en

la manipulación directa con interfaz gráfica de usuario (GUI) (Sneiderman, 1983) los usuarios interactúan con la información digital a través de la selección de sus representaciones gráficas (iconos, ventanas, etc) mediante dispositivos apuntadores, en la TI se enfatiza en la tangibilidad y en la materialidad, en la encarnación física de los datos, en la interacción corporal y en la incorporación de estos sistemas en espacios reales. Ishii parte del ábaco como fuente de inspiración y como la metáfora definitiva de lo que la interacción tangible debiera llegar a ser. A diferencia de las computadoras o las calculadoras de bolsillo, que disponen siempre de dispositivos de entrada y salidas físicamente disociados (e.g. teclado/pantalla) y acoplados tan solo a través de una convención arbitraria, en el ábaco, los componentes de entrada y de salida coinciden y las operaciones aritméticas se realizan mediante la manipulación directa de los resultados (ver Figura 3). Partiendo de esta metáfora, Ishii imagina interfaces destinadas a enriquecer el mundo físico real mediante el acoplamiento de información digital en objetos físicos cotidianos. El objetivo final, sería el de permitir la manipulación de la información digital asociada a estos objetos, mediante la manipulación física real de éstos, fusionando así representación, control de datos digitales y operaciones con artefactos físicos.

Page 79: En El Limite Nro2

en el limite | 79

Figura 3. Ábaco

Dentro del ámbito de la TI, las mesas interactivas constituyen uno de los géneros más populares. Entre los pioneros, podríamos citar el Sensetable o el Audiopad, ambos desarrollados en el MIT Medialab a finales de los noventas (Patton et al. 2002, Patton et al. 2006). Independientemente de las diversas tecnologías utilizadas (varios sistemas de detección ópticos, electromagnéticos, por ultrasonido, etc.), las mesas interactivas suelen combinar el seguimiento de objetos de control sobre su superficie, con técnicas de proyección que convierten estas mesas en grandes pantallas. Una mesa con estas posibilidades se acerca al ideal de interacción propuesto por Ishii, a la vez que a las necesidades de control de los instrumentos musicales multiproceso previamente expuestas, favoreciendo la interacción y la exploración, el control multiparamétrico o la colaboración multiusuario, sin por ello relegar una interacción más íntima y delicada (por ejemplo, moviendo y girando dos objetos con las dos manos), tan necesaria también para el

microcontrol tímbrico y otros aspectos de la expresividad musical.

Por otra parte, la perfecta integración de la información visual y del control físico, que elimina la indirección presente en un sistema integrado por “una pantalla convencional + dispositivo apuntador”, ofrece una interacción más directa, natural, intuitiva y rica. Creo firmemente que estas interfaces pueden cumplir muchos de los requerimientos específicos de la creación de música digital en vivo previamente expuestos. Para concluir esta sección, conviene también señalar que la información visual presentada por estas interfaces puede solventar parcialmente otro problema relevante en las actuaciones musicales con portátiles, como es el de la percepción por parte del público del control y del esfuerzo realmente ejercidos por los músicos. La falta de comprensión y las dudas que este tipo de conciertos provocan frecuentemente entre la audiencia (Turner, 2003), se sintetizan en lo que podríamos denominar “el síndrome del correo electrónico”: “¿cómo distinguir un músico que está utilizando potentes herramientas de software generativo, de otro que se dedica a leer su correo electrónico mientras pincha con iTunes?” (Collins, 2003).

El reactable. Objetivos del diseño El proyecto reactable se inicia en 2003 cuando un equipo de cuatro investigadores del Grupo de Tecnología Musical de la Universidad

Pompeu Fabra de Barcelona (Marcos Alonso, Günter Geiger, Martin Kaltenbrunner y yo mismo) (Jordà et al, 2005; Jordà et al, 2007. ), se autoimponen una tabula rasa conceptual y tecnológica, con el ambicioso objetivo de concebir el mejor instrumento musical basado en computadora que ellos pudieran imaginar a partir de sus experiencias y de las intuiciones adquiridas a lo largo de años de prácticas como luthiers digitales y ejecutantes de música digital en vivo (Jordà, 2003). Después de muchos años de experiencia práctica, y de algunos más de maduración teórica, el equipo se dispone a concebir un instrumento que preservara tanto como fuera posible los mejores aspectos de los instrumentos tradicionales (como es el control directo y simultáneo de varios parámetros, utilizando idealmente ambas manos), aprovechando también al máximo las ya mencionadas posibilidades de las computadoras como herramientas para la creación musical en vivo.

Todos los problemas tecnológicos, como la creación de la librería de código abierto reacTIVision para el seguimiento de objetos marcados sobre una superficie (Bencina et al, 2005; Kaltenbrunner y Bencina, 2007), hoy en día ampliamente utilizada para el desarrollo de aplicaciones de mesas interactivas, se fueron abordando y resolviendo a medida que el proyecto evolucionaba: “en primer lugar decidimos que era lo que queríamos crear y luego descubrimos cómo hacerlo”.

Page 80: En El Limite Nro2

80 | en el limite

Los principales objetivos fueron los de diseñar un instrumento atractivo, intuitivo y no intimidante, susceptible de ser utilizado por varios usuarios simultáneos, que permitiera una aproximación inmediata (i.e. ser tocado desde el primer minuto) a la par que una progresión y un perfeccionamiento infinitos. Un instrumento en suma, sencillo, intuitivo y accesible, indicado para niños y usuarios ocasionales, y a la vez, enormemente sutil y complejo, que justificara un aprendizaje infinito y su uso en conciertos de la mano de instrumentistas profesionales.

Todos sabemos que la creación puede resultar enormemente divertida, pero no pretendíamos concebir un simple juguete sonoro, que pudiera resultar aburrido y predecible después de unos pocos minutos; este dispositivo ideal debía ser fácilmente abordable, pero a la vez, al igual que cualquier instrumento musical convencional, debería ser un instrumento complejo e infinito, capaz de recompensar el esfuerzo y el tiempo empleados en dominarlo. Construir juguetes atractivos no es tan complicado. Conseguir instrumentos que atraigan desde el primer segundo pero que no se agoten tras diez minutos de juego, resulta mucho más difícil.

Dentro de estos objetivos, la sensualidad del instrumento no resultaba pues una cuestión secundaria. Teniendo en cuenta la velocidad a la que las tecnologías y las modas prescriben en nuestro actual siglo XXI, soy de la opinión

de que el proselitismo que pueda conllevar a un potencial virtuosismo, no se logrará ya más prometiendo a nuestros futuros virtuosos un paraíso a largo plazo después de una década de duro sacrificio. La cuestión no radica en la supuesta caducidad de la moral judeo-cristiana imperante, disfrazada de hedonismo ciertamente, pero todavía dominante en nuestro mundo occidental, sino que se basa sobre todo en la percepción que nuestra sociedad tiene de la carrera tecnológica, en la fugacidad y permanente provisionalidad en la que nos vemos sumergidos. ¿Cuantos padres presionarán a sus hijos, cuántos estaremos dispuestos a sacrificarnos en el dominio de X1.0, si todo el mundo sabe que con x2.0 todo volverá a cambiar de nuevo? Bromas aparte, pocos estarán dispuestos a invertir años de esfuerzo para dominar una tecnología que se presume quedará obsoleta en los próximos meses. Si aspiramos a que un nuevo instrumento pueda ser aprendido y dominado, éste deberá ser pues instantáneamente atractivo y ser capaz de capturar la imaginación de los músicos desde el primer contacto.

Conceptos tales como “no-intimidación” o “naturalidad” suponían en realidad para nosotros, algo más que atractivos caramelos para los recién llegados. Aspirábamos a crear también un instrumento para el “hemisferio cerebral derecho”; un dispositivo que, al igual que todos los instrumentos musicales convencionales y a diferencia de la mayoría

de sistemas musicales informáticos, se pudiera tocar “sin pensar”, que permitiera que sus usuarios desconectaran y “se perdieran” en una exploración sonora y sensorial, ya que más frecuentemente que no, los músicos no piensan en lo que tocan, limitándose a tocar. La interacción multiusuario llegó también como una opción natural: cuando la responsabilidad compartida (entre instrumentista e instrumento) se convierte en la norma y, a la vez, la multidimensionalidad y complejidad del control disponible supera claramente las capacidades estándar del control humano, compartir este control entre varios humanos parecía una extensión sumamente natural.

En este sentido, pensamos que una interfaz en forma de mesa nos podía ayudar a satisfacer la mayor parte de las necesidades anteriores, permitiéndonos combinar lo que consideramos los aspectos esenciales de los instrumentos acústicos (i.e. el control directo, fino y simultáneo de varios parámetros, a ser posible con ambos manos) con las posibilidades propias de los sistemas musicales informáticos (i.e. la posibilidad de compartir el control entre el instrumentista y el instrumento en varios procesos simultáneos, y la capacidad de monitorearlos y de alternar rápidamente entre estos procesos). Una mesa interactiva podría mejorar el control, seguimiento y retroalimentación de la información, así como también de la colaboración humana. Con el diseño adecuado, se podía maximizar el ancho de banda de comunicación en todas

Page 81: En El Limite Nro2

en el limite | 81

las direcciones (es decir, entre los músicos y el instrumento, entre el instrumento y los músicos, entre los mismos músicos y, por qué no, entre el sistema y el público), de una forma eficiente y no abrumadora. Una de las primeras decisiones, destinada a promover la colaboración y a eliminar la figura del líder, prohibiendo puntos de vista o de control privilegiados, fue hacer que la mesa fuera circular. Después llegó el paradigma musical a aplicar.

La metáfora de la síntesis modular La síntesis modular, la metáfora musical que decidimos aplicar en el reactable, sigue siendo, medio siglo después de su creación por Max Mathews (Mathews et. Al, 1969), uno de los modelos predominantes en la música electrónica mostrando todavía hoy un potencial y una flexibilidad difícilmente alcanzables mediante otros modelos. La síntesis modular se remonta a los primeros sintetizadores musicales, tanto en el entorno digital (Mathews et al, 1969) como en el ámbito analógico, con los sintetizadores controlados por voltaje creados por Robert Moog y Donald Buchla a mediados de los años sesenta (Moog, 1965). Esta forma de síntesis de sonido y su método de control asociado, basado en la interconexión de generadores de sonido y unidades de procesamiento, puede también considerarse como el punto de partida de todos los entornos de programación visuales para sonido y música, que surgieron con el lenguaje Max a finales de 1980,

y que constituyen hoy en día uno de los paradigmas más flexibles y potentes para la creación de música electrónica interactiva (Puckette, 2002). Las interfaces para la síntesis modular tradicional, al igual que estos lenguajes visuales de programación, se controlan mediante la conexión de cables entre las salidas y las entradas de los diferentes módulos (ver Figura 4). Así, la señal sonora que parte de algún punto, va modificándose progresivamente en cada tramo, a través de diferentes procesos totalmente configurables y parametrizables.

Este enfoque, extremadamente flexible, resulta sin embargo con demasiada frecuencia, poco amigable. Como señala Davies (2001) al comentar una exposición de instrumentos de música electrónica que curó y organizó: “cuantos más controles hay en un sintetizador modular, más fácil resulta que alguien realice un ajuste al azar que produzca la extinción total del sonido, sin que esta persona consiga revertir el proceso. No tiene sentido exhibir un instrumento electrónico en un entorno lúdico e interactivo a menos que éste sea siempre capaz de producir sonido, incluso si para que ello sea posible, de antemano haya que restringir enormemente las capacidades de este instrumento”.

Por nuestra parte, nosotros seguíamos sin embargo convencidos de que desechando todas las complejidades innecesarias, este paradigma modular y de flujo de datos podía ser muy fácil de entender, sin por ello perder un ápice de su flexibilidad y su potencia.

Figura 4. Un sintetizador modular Robert Moog Studio-66 System del año 1970 (arriba) y detalle del mismo modelo con algunos cables de conexión.

En el reactable este enfoque modular se consigue mediante la interrelación de objetos sólidos sobre la superficie de una mesa luminosa. Cada uno de estos objetos cumple una función específica para la generación, la modificación o el control del sonido, de forma que las señales que parten de cada uno de los objetos generadores, van modificándose al atravesar por diferentes objetos. Estos objetos se clasifican en cinco grupos funcionales básicos (ver Tabla 1): los generadores de sonido, los filtros de audio, los

Page 82: En El Limite Nro2

82 | en el limite

controladores (que proporcionan un control variable adicional sobre cualquier otro objeto), los objetos globales (que afectan el comportamiento de todos los objetos dentro de su área de influencia) y los selectores (que se pueden conectar temporalmente a la mayoría de los objetos modificando algunos de sus parámetros internos). Cada familia se asocia con una forma física diferente (cuadrados, círculos, cuadrados redondeados, etc.) y puede estar integrada por diversos objetos, cada una de ellos con un símbolo en su superficie que lo distingue de los demás (ver figuras 5, 6 y 7 y la Tabla 1).

Mediante el uso de objetos físicos desaparece el primer problema cognitivo presente en los sintetizadores modulares tradicionales (así como en sus réplicas virtuales), que viene provocado por la enorme cantidad de módulos presentes en un panel, cada uno con sus correspondientes potenciómetros, entrados y salidos. Los usuarios de reactable sólo interactúan en cada momento con los objetos que necesitan y que se colocan sobre la superficie de la mesa. Si el músico deseara comenzar con un oscilador y un filtro, tan sólo estos dos objetos ocuparían la parte interactiva de la superficie mientras que todos los restantes permanecerían inactivos (y al no estar iluminados, prácticamente invisibles) sobre el borde de la mesa.

Tabla 1. Tipos de objetos reactable

El segundo problema de interacción, de difícil solución en los sintetizadores modulares tradicionales, el de “como evitar las conexiones erróneas”, se resuelve de forma sencilla en el reactable con lo que denominamos “cableado dinámico”

o dynamic patching (Kaltenbrunner et al., 2004). Las conexiones entre los objetos son gestionadas de forma semiautomática por el sistema sin la indicación explícita de los usuarios. Esto se logra por medio de un simple conjunto de normas basadas en los tipos y las afinidades de los objetos y en la proximidad entre ellos. Como resultado, sólo se llevan a cabo conexiones correctas. Con tan sólo desplazar los objetos sobre la superficie, situándolos en la proximidad unos de otros, los usuarios pueden conectar y desconectar módulos, creando, deshaciendo y modificando complejas redes de procesado con gran agilidad y dinamismo. No menos relevante resulta el hecho de que, tal como se muestra en la Figura 5, los flujos sonoros que se construyen en cada instante tienen una representación permanente sobre la superficie de la mesa, gracias a un sintetizador gráfico que ilustra las conexiones entre los módulos, dibujando de forma realista las formas de onda que viajan de un objeto a otro.

Figura 5. Cuatro manos al reactable

Page 83: En El Limite Nro2

en el limite | 83

Control e Información Visual La retroalimentación visual constituye un componente esencial en el uso de reactable siendo uno de los principales responsables de que el manejo de un sistema tan complejo pueda parecer sencillo. Para permitir y facilitar un control total del sistema, decidimos seguir tres pautas importantes en el diseño visual de los gráficos proyectados sobre la superficie de la mesa:

1. éstos deberán mostrar de forma permanente toda la información sobre el estado del sistema, en la forma más accesible e inmediata (o todo lo que es, está)2. no deberán mostrar nada que no aporte una información relevante (el sistema carecerá de adornos, o todo lo que está, es)3. todo esto, deberá lograrse sin utilizar ningún tipo de información textual o numérica.

En consecuencia, sobre la superficie del reactable tan sólo se proyectan líneas, puntos, colores y proporciones gráficas que evolucionan en el tiempo. Las líneas de audio que conectan a los objetos muestran las formas de onda real resultantes. Las conexiones de control indican la densidad e intensidad de los valores que transportan. Los objetos que, como los osciladores de baja frecuencia o los metrónomos vibran “más lentamente” (i.e. con una frecuencia visible), ilustran esas frecuencias mediante pulsaciones animadas. Las auras que rodean a cada objeto físico transmiten toda la información sobre el estado de estos,

su configuración, los valores instantáneos de sus parámetros, sugiriendo asimismo sus posibilidades de interacción.

conexiones silenciadas se representan mediante líneas rectas punteadas, indicadores circulares de nivel y en algunos casos botones de pasos discretos rodean muchos de los objetos, indicando sus valores de rotación o sugiriendo la posibilidad de pulsar o arrastrar con los dedos en varias áreas (ver objetos en la Figura 7).

Figura 6. Modificando un parámetro con un dedo en el reactable

Cada objeto reactable se corresponde con un módulo de un sintetizador, cada uno con sus propios parámetros de control, por lo que el desplazamiento de estos objetos en una superficie de dos dimensiones no parece suficiente como para controlar todos los parámetros disponibles en la mayoría de estos módulos. En consecuencia, todos los objetos reactable también se pueden rotar, a la vez que son capaces de capturar la interacción multitáctil que se produce a su alrededor (ver figura 6). El uso de los dedos no se limita tampoco a la modificación de los parámetros de los objetos. Así, profundizando en la metáfora del flujo de datos de la forma más natural, los dedos pueden ser también empleados para cortar o mutear las conexiones de audio. La retroalimentación visual sigue siendo esencial en todos estos casos: las

Figura 7. Captura de pantalla mostrando las conexiones entre diferentes objetos. El objeto A (un reproductor de bucles) suena directamente sin ninguna modificación, mientras que el generador B (un sintetizador FM) está siendo controlado por el secuenciador de pasos D, mientras que el sonido resultante se procesa a través de un filtro paso-banda C que, a su vez, es manipulado por el oscilador de baja frecuencia (LFO) E. G es un objeto global, un tonalizador, que corrige las alturas de las notas emitidas por los generadores A y B.

¿Estilo? En la misma medida en que es difícil imaginar la música romántica sin la orquesta sinfónica o el piano, el jazz sin el saxo, el rock sin la guitarra eléctrica, o el hiphop sin el giradiscos,

Page 84: En El Limite Nro2

84 | en el limite

la máxima aspiración de cualquier instrumento nuevo podría ser la creación o la consolidación de un estilo musical. Sin aspirar a tanto parece claro que la razón de ser de cualquier instrumento sea la de poseer una identidad, algo que lo haga diferente de todos los demás. Para sobrevivir en el sumamente competitivo ecosistema instrumental, cualquier nuevo instrumento deberá pues destacar en algo.

En este sentido, los principios básicos del reactable son similares a los de los sintetizadores modulares, y por ello su sonoridad puede tener evocaciones de comienzo de los setenta, especialmente de aquellos músicos o grupos que hacían un uso restringido del teclado (ya que el reactable carece de teclado). Pero, como todo instrumento basado en ordenadores, el reactable puede usar también (y de hecho usa frecuentemente) sonidos pregrabados, loops, y efectos típicamente digitales. En este sentido, como instrumento digital que es, su identidad difícilmente procederá de sus características sonoras, dado que los ordenadores pueden sonar de cualquier forma, reproducir cualquier sonido, existente o inaudito. En el reactable, su identidad procede sin duda de la forma en que se toca, única; no hay nada que se le parezca.

Génesis, desarrolloy evolución del proyecto Las premisas de diseño de interacción que se han ido exponiendo, fueron definidas en 2003 y se alteraron muy levemente durante todo el

desarrollo del proyecto. Durante los dos años siguientes se fueron resolviendo paulatinamente los principales problemas tecnológicos, tanto a nivel de hardware como de software, siendo sin duda el más relevante, el desarrollo de la librería de software reacTIVision para el seguimiento de dedos y de objetos marcados con etiquetas sobre una superficie interactiva (Bencina et al., 2005). Hoy en día, reacTIVision es una librería freeware y de código abierto5 que se utiliza en centenares de proyectos de mesas interactivas, tanto académicos como comerciales.

La presentación oficial de reactable se dio en la International Computer Music Conference (ICMC) que tuvo lugar en Barcelona en septiembre del 2005. Para aquella ocasión se realizó un concierto para dos mesas conectadas entre sí, una en Barcelona y otra en Linz (Austria) donde se celebraba Ars Electronica, interpretándose una pieza especialmente compuesta para la ocasión por el compositor e improvisador californiano Chris Brown6 que también fue uno de los instrumentistas en la mesa barcelonesa7.

Aproximadamente 13 meses después, en octubre del 2006, gracias a tres vídeos que el equipo creador cuelga irreflexivamente en el entonces novedoso YouTube8, la popularidad de reactable se dispara trascendiendo el ámbito de la academia. En 2007, varios millones de personas han visto ya estos vídeos, y con Björk presentando a diario el reactable ante centenares de miles de espectadores durante

su gira “Volta” entre abril del 2007 y agosto del 20089, las consecuencias se propagan como una bola de nieve10.

Durante estos últimos años, el reactable se ha exhibido en centenares de ocasiones en cerca de cuarenta países, donde ha sido tocado por centenares de miles de usuarios de todas las edades y con formaciones y conocimientos muy diferentes. Si bien no hemos realizado ningún estudio sistemático, los comentarios siempre han sido enormemente positivos, a menudo incluso apasionados, lo que demuestra que – tal como pretendíamos - el reactable puede ser disfrutado incluso por aquellos que no lo comprenden completamente. Hemos estimado que las personas interesadas comienzan a entender sus principios básicos a los 10 o 15 minutos de interacción no guiada, mientras que los usuarios que pasan más de 10 minutos se convierten en “adictos”, y tienden a volver en repetidas ocasiones tratando de encontrar los momentos especiales en los que la instalación está vacía o con menos gente. A fecha de hoy, 14 museos de 3 continentes cuentan además con un reactable permanente11. Paralelamente a estas instalaciones públicas, el reactable ha sido presentado en centenares de conciertos por toda Europa, América y Asia, tanto por Björk como por su equipo creador. Estas situaciones extremadamente exigentes han ayudado a convertirlo en un instrumento musical completamente maduro que ha superado claramente nuestras previsiones más optimistas.

Page 85: En El Limite Nro2

en el limite | 85

Reactable Systems, reactable mobile A raíz del éxito obtenido, y de la dificultad de fabricar y vender mesas desde el grupo de investigación de una universidad, en 2009 se funda Reactable Systems, la segunda empresa spin-off del Grupo de Tecnología Musical de la Universidad Pompeu Fabra12. Sin llegar a ser todavía un producto “asequible”, en poco más de dos años los precios del reactable se han reducido de momento en cerca de un 75%13 y hoy en día, más de medio centenar de músicos y Djs disponen de una mesa Reactable Live. Medio centenar de músicos de todo el mundo, con formaciones e intereses musicales variados y diferentes a los nuestros, que progresan en el manejo del instrumento y lo abren hacia nuevas direcciones estéticas, son sin duda muchos más de los que inicialmente podíamos esperar, pero probablemente todavía no los suficientes como para hablar de un impacto real en la música de hoy. Es en esta coyuntura cuando tiene lugar, en octubre del 2010, nuestro último paso hacía una verdadera democratización de la creación de música electrónica en vivo. Un paso en el que podemos estar aportando nuestro grano de arena, aunque, como veremos a continuación, nuestra pequeña aportación no pueda sino ser meramente circunstancial.

Hemos expresado en la primera parte de este artículo el enorme potencial de las interfaces tangibles para la creación musical en vivo, precisando también que la interacción tangible, con la posibilidad de manipulación

directa de objetos físicos, puede conllevar bastante más de lo que hoy entendemos y podemos lograr con el archiubicuo concepto de “multitouch”. Pero esta tecnología “multitouch” está realmente aquí, disponible en los bolsillos de millones de usuarios14, y no aporta poco. No es de hecho una coincidencia ni un capricho que de las miles de aplicaciones existentes hoy en día para teléfonos y tabletas multitáctiles, un porcentaje muy relevante corresponda a aplicaciones para la creación musical en vivo. Ahora podemos afirmar ya de forma totalmente contundente que, desde hace poco más de un año, la creación de música electrónica en vivo está pasando por el que probablemente sea su cambio más impactante en su algo más de un siglo de historia.

Los cambios tecnológicos en la producción sonora no habían sido sustancialmente relevantes durante la última década. Hace ya más de diez años que, lo que hasta hacía dos o tres décadas era tecnología restringida a unos pocos estudios millonarios, se encontraba ya al alcance de cualquier usuario de un ordenador personal. Eso supuso, a finales de los noventa, un gran cambio en la producción musical, democratizándola de una forma inimaginable hasta la fecha. El nuevo milenio aportó cambios cuantitativos en esta dirección, pero no cualitativos. El penúltimo cambio radical se había producido no en las herramientas de producción, sino en los mecanismos de difusión, con el auge de MySpace, los blogs o YouTube. Si como decíamos, hacía ya un tiempo que

cualquiera podía utilizar, sustancialmente, las mismas herramientas de producción que Madonna, muy pocos disponían de sus mismos mecanismos de publicidad y distribución. A partir del 2005 esto pasa a ser casi una realidad, en la medida en que es la misma creciente potencia de difusión de la web2.0 la que está menguando muy notablemente la eficacia de los canales tradicionales.

Figura 8. Reactable Mobile

Tras este cambio en la difusión, con la nueva década, la más reciente revolución se basa ahora en la miniaturización, la portabilidad,

Page 86: En El Limite Nro2

86 | en el limite

la accesibilidad y la idoneidad tecnológica (multitouch) de las nuevas herramientas para dispositivos móviles. Antes de lanzar la aplicación Reactable mobile para iPhone y iPad (ver Figura 8) en octubre del 2010, nosotros mismos teníamos nuestras dudas. ¿Tenía realmente sentido trasladar un concepto, el reactable, que se apoyaba básicamente en la manipulación de objetos físicos, a otras plataformas en los que estos objetos desaparecían virtualizándose? Afortunadamente, hoy sabemos que sí tenía sentido. No tanto porque a las dos semanas de su lanzamiento Reactable mobile se hubiera convertido en una de las principales aplicaciones musicales del AppStore en una veintena de países, sino ante todo porque unos meses después podemos realmente observar como decenas de miles de personas crean música electrónica, suben sus composiciones y sus vídeos a Internet, y utilizan nuestra herramienta a menudo de formas que ni siquiera nosotros mismos podíamos llegar a prever.

Hemos comentado que la máxima aspiración de todo nuevo instrumento pueda ser la creación o consolidación de un nuevo estilo musical, pero este extremadamente ambicioso objetivo se encuentra frecuentemente fuera del alcance de sus creadores. Ochenta años separan a Adolphe Sax de Coleman Hawkins, y no menos de treinta tuvieron que transcurrir entre Les Paul y Jimi Hendrix. Hoy en día, todo parece evolucionar más rápido. En cualquier caso, la semilla ya ha sido plantada.

La creación musical móvil ¿una revolución real? ¿Que estaremos analizando en unos pocos años? ¿Cuales serán los resultados musicales y sociales de la actual explosión de aplicaciones musicales multitouch en dispositivos móviles? ¿Estaremos a punto de que se cumpla parcialmente el ideal marxista (aunque por razones diferentes a las que vaticinaba Marx), según el cual, con la desaparición del trabajo especializado, llegaría el reino de la felicidad y la libertad en el que el trabajo sería libre y creador, artístico en suma, y todos nos convertiríamos en artistas, creadores y no en consumidores de arte? Cierto es que el ratio entre creadores y consumidores de música parece estar aumentando favorablemente en el sentido creativo, y en este sentido, la agonía del mercado de la música tal como lo conocemos parece también un fenómeno irreversible, a priori bueno para la creación, por mucho que las multinacionales nos quieran hacer creer lo contrario15.

Aunque también es cierto que no todo es maravilloso, y que esta profusión de oferta y facilidad de acceso, conlleva una peligrosa contrapartida: la trivialización de la música como consecuencia del consumo musical inopinado. Cuando yo era adolescente, comprar un vinilo era un rito emocionante. Hoy, cualquiera puede llevar en su bolsillo más música de la puede llegar a escuchar, y para muchos, la vida parece coja sin el aditivo de una permanente e interminable banda sonora. Pero si dejamos de lado el tema del consumismo para volver a centrarnos, ya para

terminar, en el de la creación musical, no cabe duda de que la llegada de herramientas musicales más intuitivas, accesibles y asequibles debería fomentar y democratizar la creación musical. Aunque también aquí haya que ir con pies de plomo; un instrumento democratizador no es aquel que siempre suena bien, se le haga lo que se le haga. Un buen instrumento debe ser capaz de sonar muy mal, para que los que lo utilicen aprendan a controlarlo, y progresen a través de sus errores y de resultados indeseados. De lo contrario, la “creación” no sería más que una ilusión. Afortunadamente, en manos de inexpertos ¡el reactable también suele sonar bastante mal!

Page 87: En El Limite Nro2

en el limite | 87

Bibliografía

Bencina, R., Kaltenbrunner, M. and Jordà, S. (2005) ‘Improved Topological Fiducial Tracking in the reacTIVision System’, Proceedings of the IEEE International Workshop on Projector-Camera Systems.

Collins, N. (2003) ‘Generative Music and Laptop Performance’, Contemporary Music Review, Vol. 22, No. 4, pp.67-79.

Cutler, M., Robair, G. and Bean (2000) ‘Outer Limits’, Electronic Musician Magazine, August 2000, pp.49-72. Davies, H. (2001) ‘The Preservation of Electronic Musical Instruments’, Journal of New Music Research, Volume 30, No. 4, pp.295-302.

Diderot, D. (1975) Escritos filosóficos (traducción de F. Sabater). Biblioteca de la Literatura y el Pensamiento Universales, Zaragoza. Edición original en francés (1951) Œuvres, Paris : La Pléiade, Gallimard.

Ishii, H and Ullmer, B. (1997) ‘Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms’, Proceedings CHI 97, pp.22-27.

Jordà, S. (2003) ‘Sonigraphical Instruments: From FMOL to the reactable*’, Proceedings of the International Conference on New Interfaces for Musical Expression (NIME03), pp.70-76.

Jordà, S. (2005) Digital Lutherie: Crafting musical computers for new musics performance and improvisation, PhD. dissertation, Universitat Pompeu Fabra, Barcelona.

Jordà, S., Kaltenbrunner, M., Geiger, G. and Bencina, R. (2005) ‘The reacTable*’, Proceedings of the International Computer Music Conference (ICM05).

Jordà, S., Geiger, G., Alonso, M., Kaltenbrunner, M. (2007) “The reacTable: exploring the synergy between live music performance and tabletop tangible interfaces”, TEI ‘07: Proceedings of the 1st international conference on Tangible and embedded interaction, 139-146.

Kaltenbrunner, M., Geiger, G. and Jordà, S. (2004), ‘Dynamic Patches for Live Musical Performance’, Proceedings of the International Conference on New Interfaces for Musical Expression NIME04, pp.19-22.

Kaltenbrunner, M. and Bencina, R. (2007) ‘ReacTIVision: a computer-vision framework for table-based tangible interaction’, Proceedings of the 1st international conference on Tangible and embedded interaction, Baton Rouge, Louisiana, pp.69-74.

Kessous, L. & Arfib, D. (2003), ‘Bimanuality in Alternate Musical Instruments’, Proceedings of the 2003 International Conference on New Interfaces for Musical Expression NIME03, pp.140-145.

Lyons, M. J., Haehnel, M. & Tetsutani, N. (2003) ‘Designing, playing and performing with a vision-based mouth interface’, Proceedings of the 2003 Internationl Conference on New Interfaces for Musical Expression NIME03, Montreal, pp.116-121.

Mathews, M. V., Miller, J. E., Moore, F. R., Pierce, J. R. & Risset, J. C. (1969). The Technology of Computer Music. Cambridge, MA: The MIT Press.

Moog, R. (1965) ‘Voltage-Controlled Electronic Music Modules’, Journal of the Audio Engineering Society, Vol.13, No. 3., pp.200-206.

Patten, J., Recht, B. and Ishii, H. (2002) ‘Audiopad: A Tag-based Interface for Musical Performance’, Proceedings of the International Conference on New Interface for Musical Expression NIME02, pp.24-26.

Patten, J., Recht, B. and Ishii, H. (2006) ‘Interaction Techniques for Musical Performance with Tabletop Tangible Interfaces’, ACE 2006 Advances in Computer Entertainment, Hollywood, California.

Puckette, M. & Settel, Z. (1993) ‘Non-obvious roles for electronics in performance enhancement’, Proceedings of the 1993 International Computer Music Conference, San Francisco, CA: International Computer Music Association, pp.134-137.

Puckette, M. (2002) ‘Max at 17’, Computer Music Journal, Vol. 26, No. 4, pp.31-43.

Ryan, J. (1991) ‘Some Remarks on Musical Instrument Design at STEIM’, Contemporary Music Review, Vol. 6, No.1, pp.3-17.

Shneiderman, Ben. (1983). Direct Manipulation: A step beyond programming languages. IEEE Computer, 16, 57-69.

Turner, T. (2003) ‘The Resonance of the Cubicle: Laptop Performance in Post-digital Musics’, Contemporary Music Review, Vol. 22, No. 4, pp.81-92.

Ullmer B. and Ishii, H. (2001) ‘Emerging Frameworks for Tangible User Interfaces’, In Human-Computer Interaction in the New Millenium, Ed. John M. Carroll, Addison-Wesley, pp.579-601.

Weinberg, G., and Gan, S. (2001) ‘The Squeezables: Toward an Expressive and Interdependent Multi-player Musical Instrument’, Computer Music Journal, Vol. 25, No. 2, pp.37-45.

Wessel, D. & Wright, M. (2002) ‘Problems and Prospects for Intimate Musical Control of Computers’, Computer Music Journal, Vol. 26, No. 3, pp.11-22.

Page 88: En El Limite Nro2

88 | en el limite

Referencias 1 International Conference on New Interfaces for Musical Expression (NIME): http://www.nime.org/

2 STEIM (studio for electro-instrumental music): http://www.steim.org/steim/

3 Esta cita ha sido tomada directamente de la traducción al castellano de Fernando Sabater, Diderot, D. (1975) Escritos filosóficos Diderot. Biblioteca de la Literatura y el Pensamiento Universales, Zaragoza.

4 International Conference on Tangible, Embedded, and Embodied Interaction (TEI): http://www.tei-conf.org/

5 reacTIVision: http://reactivision.sourceforge.net/

6 Chris Brown: http://www.cbmuse.com/

7 En el concierto de presentación de reactable, se interpretó la pieza de Chris Brown Teleson, para dos reactables conectadas por Internet, especialmente compuesta para esta ocasión (http://www.cbmuse.com/ look/teleson.mov). Los intérpretes en la mesa de Barcelona fueron Chris Brown y Günter Geiger, mientras que los dos intérpretes en la mesa de Linz (Austria) fueron Marcos Alonso y Martin Kaltenbrunner.

8 El primer video de reactable colocado en Youtube en octubre de 2006, cuenta hoy con más de 2,6 millones de visitas: http://www.youtube.com/watch?v=0h-RhyopUmc

9 Vídeo con una actuación de Bjork + reactable en la BBC, en el show de Jools Holland: http://www.youtube.com/ watch?v=MHeX6yg95xU

10 Extracto de una entrevista a Sergi Jordà, realizada en septiembre del 2007, y publicada en la revista colombiana ElNiuton vol.4, septiembre 2007, http://www.elniuton. com/erotismo/view_niuton.php?ed=04&pag=181 Hemos percibido obviamente, un interés totalmente inusitado e inesperado. Parece que de repente, hemos inventando el instrumento musical más famoso del siglo XXI (lo cual no es poco, a pesar de que sea un siglo todavía muy joven). Pero todavía está por ver el impacto cultural a

largo plazo. A corto plazo, esto pone obviamente de manifiesto el poder real de la denominada web 2.0, de YouTube, los blogs… Hace unos meses sólo nos conocían unos pocos músicos e investigadores del sector. A raíz de tres vídeos que publicamos en noviembre del 2007 (http://www.youtube.com/ profile_videos?user=marcosalonso), y que hoy, nueve meses después, suman más de 2.000.000 de visitas, miles de blogs hablan del reactable, y vamos realizando tantos conciertos y presentaciones en tantos países, que hemos tenido que fabricar más reactables (ahora tenemos tres) para poder repartirnos el trabajo. Björk, fue ante todo una consecuencia de este éxito, pero ahora es, lógicamente, la causa más relevante de su preservación y propagación. Pero cuan ¿“cultural” es éste impacto? Nuestros medios “naturales” (i.e. los que podrían hablar de nosotros), es decir los de la música electrónica, el media-art, la human-computer-interaction… nos conocen y hablan de nosotros, pero también hablan de nosotros otros medios menos “naturales”: magazines de televisión de tarde, eventos para empresas de publicidad que quieren contratarnos… en los que corremos el riesgo de aparecer como la “mujer barbuda” o “el enano de las dos narices”… con lo que podríamos calificar de impacto “incultural”. Algo parecido nos sucede en el terreno estrictamente musical. Leemos algunas posts sobre nuestros vídeos en YouTube… de repente hemos llegado a las masas: “esto es sólo ruido, ¿dónde está la música?”. De hecho, tienen razón: tan sólo eran unas demos sin pretensión, grabadas en unos breves minutos; unas demos que mostraban algunas de las posibilidades técnicas del instrumento. No era música ni pensábamos que fuesen a tener trascendencia alguna. Pero después sigues leyendo algunos comentarios y… “¿donde están las notas, las bellas melodías?”… “Esto no es música. ¡No se puede plasmar en un pentagrama!” Y entonces te das cuenta de que si hubiésemos hecho “música”, nuestra música, algunos comentarios hubiesen sido incluso peores. Está claro que no todo el mundo tiene que conocer a Stockhaussen, ni siquiera apreciar a Autechre, pero ellos tampoco aparecen en los magazines de tarde, con lo cual no se produce esta extraña confrontación e incomprensión. De hecho, mi música prereactable es mucho más “ruidosa”, por llamarla de alguna forma sencilla. Y ahora, cuando estamos en el proceso de descubrir la voz de nuestro instrumento, nos vemos sometidos a una especie de esquizofrenia creativa. Yo nunca había hecho techno; me pueden gustar algunas cosas, bastantes de hecho, pero nunca había hecho música de baile. Y ahora, a menudo, en concierto, aunque seguimos haciendo música improvisada, nos vemos sometidos en este dilema esquizoide. Tal vez tan sólo sea nuestra inmadurez reactablera. Culpa nuestra, por lo tanto…

11 http://www.reactable.com/products/reactable_ experience/

12 Reactable Systems: http://www.reactable.com

13 Las primeras mesas se vendían por cerca de 30.000 euros, mientras que el precio actual de Reactable Live es de unos 8.000 euros.

14 El termino “bolsillo” se utiliza aquí de forma metafórica (asequible) pero también, y sobre todo, de forma literal (portátil).

15 Pretender que el fin del mercado acabará con la música, es como pretender que si la prostitución y la pornografía dejaran de ser rentables, eso supondría el fin del sexo. Defender asimismo las ventajas del arte “producido” o de la necesidad de inversión en la producción, es parecido a alegar que el porno es mejor que el sexo personal e intransferible, porqué tiene más silicona (Sergi Jordà).

Page 89: En El Limite Nro2

en el limite | 89

Julio d’Escriván Anglia Ruskin Universityjulio.d’[email protected]

El Live Cinema, o práctica de performance audiovisual que aspira a una condición cinematográfica, presenta una oportunidad interesante para concretar la evocativa visual de las artes sonoras. En una consideración poco teleológica, partiendo de ejemplos concretos y pasando por una reflexión sobre su práctica, discutiremos aspectos de una sinergia Live Cinema – Artes Sonoras.

Introducción Era el 2008 y Amsterdam, casi en primavera, aún exigía gorra, abrigo y bufanda de noche. En una sala de exposición del Nederlands Instituut voor Mediakunst, en total oscuridad y con un atronador sonido envolvente, había una gran pantalla de cine a todo color presentando una especie de asteroide preso en la proyección audiovisual. Adonde se moviera la persona más cercana a la pantalla, allí le seguía esta especie de cuerpo sideral atrapado en ella. La mecánica de este artilugio no era evidente, sólo el espectáculo de una película que de modo casi amenazador reaccionaba a su público. Al retirarse el espectador de la pantalla, el asteroide comenzaba a girar vertiginosamente a medida que se enrojecía como en llamas y la intensidad del audio se hacía ensordecedora. Desde afuera de la sala, el sonido permeaba las demás instalaciones, también parte del simposio Sonic Acts XII y, francamente, les hacía sombra. En esta reunión

bienal, mezcla de conferencia, exposición y festival de cine, música electrónica y arte sonoro, la obra PROBE de Boris Debackere se convertía para mí en un gran signo de interrogación.

dado que muchas performances audiovisuales hacen uso de la música electrónica o de reproducciones de audio digital.

Antes de abordar mi discurso (¡que espero resulte leve!), quisiera aclarar que el concepto de live cinema se ha explorado a principios del siglo veintiuno como performance audiovisual (Schaher, 2008, Debackere & Debackere, 2006) y también como la reconstrucción de la narrativa cinematográfica a través de interfaces de edición en directo (Lew, 2004). También quisiera señalar que la práctica del llamado VJ o ‘video jockey’ es similar y a menudo sólo se diferencia en la intencionalidad del creador y en la localización del evento (es decir en clubes y discotecas en contraposición a la galería de museo o a la sala de conciertos).

Por otra parte, sugiero que para una discusión general de la historia de la performance audiovisual se lea a Amy Alexander y Nick Collins en su artículo ‘Live Audiovisuals’ del Cambridge Companion to Electronic Music (Collins y d’Escriván, 2007), ya que en este artículo no voy a cubrir el contexto histórico de modo consistente. A efectos de este artículo tampoco discutiré el tema de la recepción audiovisual que ha sido ya presentado por Andrew Hill (Hill, 2010). Finalmente quiero señalar que la distinción entre cine experimental y vídeo arte es tenue para el espectador casual. Por esto, habré de usar el término cine con un poco de ligereza ¡y pido disculpas de antemano!

Anotaciones sobre Interactividad entre las artes del sonido y la performance audiovisual, partiendo del ‘Live Cinema’.

Figura 1. PROBE 2008 de Boris Debackere

La obra de los hermanos Boris y Brecht Debackere ya me era conocida por su trabajo ROTOR. Una performance audiovisual que ellos (como parte de una movida al menos Europea de principios de los ‘00) llaman live cinema o ‘cine en directo’. En esa misma conferencia el conocido teórico de medios Douglas Kahn, autor de Noise Water Meat, una historia del sonido en las artes (Kahn, 1999), hizo una presentación sobre la cuestión de si estaban dadas las condiciones para que existiera, hoy en día, el ‘live cinema’. La propuesta de Kahn era que no estaban dadas. Estos dos eventos, sumados a mis inquietudes por el trabajo audiovisual, me llevaron a reflexionar sobre el tema de si el cine puede ser ejecutado como performance. Y, sobre todo, qué significa esto para un artista sonoro en términos estéticos y de potencial creativo

Page 90: En El Limite Nro2

90 | en el limite

LiveCinema Entrando en materia, pues y para excusar la ligereza a la que me refiero, debo mencionar que es importante para mí, no sólo cómo los expertos nombran al arte sino cómo la gente ‘común y corriente’ lo nombra. El cine, para los que lo estudian en las universidades, es generalmente un arte de la imagen en movimiento (abstracta o narrativa) registrada a través de la cámara de cine y ensamblada en estudio. Para la mayoría de los no-iniciados, el cine es exclusivamente esa narrativa en pantalla grande que va desde el Hollywood clásico, pasando por los estrenos de verano y llegando hasta los creadores de cine de arte y ensayo. En general, el lenguaje del cine tiende a oscilar entre una reconstrucción de una narrativa teatral y una presentación casi poética de la imagen en movimiento. Lo que parece darse por descontado siempre es que el cine es usualmente una obra plástica: una vez hecho preserva su forma (es un arte de la reproducción, una forma diacrónica). Pero el Live cinema no es obra ‘plástica’ sino performativa.

La presentación poética, es decir sin importar el grado de narratividad, es la más relevante al Live Cinema en esta discusión, pues es la forma que se encuentra con mayor frecuencia1. Un Ejemplo de esa presentación poética en el cine experimental puede verse en el trabajo silente de Stanley Brackhage (por ejemplo en Mothlight de 1963) o bien en el trabajo de Ken Jacobs en colaboración con John Zorn en la performance en directo llamada Celestial Subway Lines / Salvaging Noise Ch.3 (2004), donde no

usa vídeo o cine, sino sólo el proyector y la modificación de la luz con música improvisada. Este último trabajo es más cercano a lo que podríamos denominar Live Cinema.

Figura 3. Subway Lines / Salvaging Noise Ch.3 (2004) Jacobs/Zorn

He visto definiciones de ‘Live Cinema’ que aducen saber que el término se empleaba para el cine mudo con acompañamiento musical en vivo (Debackere and Debackere, 2006; Makela, 2008), sin embargo no dan referencias y desconozco otra evidencia para ello. Lo más certero que he visto señalar por varios autores lo resumiría con mis palabras de esta manera: el Live Cinema es la creación de un espacio cinematográfico donde la selección, síntesis y mezcla de la imagen sucede en tiempo real y la música puede ser hecha de la misma manera, como en la obra de Jacobs y Zorn a la que hacía referencia (pero no es una condición).

¿Qué tiene que ver esto con el arte sonoro? Como ya sabemos, el arte sonoro3 es una gran etiqueta que parece abarcar toda la electrónica/electroacústica. Es interesante ver cómo los académicos anglo-parlantes diferencian ‘sound art’ de ‘sonic art’ (Hugill, 2008, p.68),

Figura 2. Mothlight (1963)Stanley Brackhage

En obras como la de Jacobs/Zorn se puede observar un trabajo audiovisual muy cercano a la música electroacústica/electrónica en donde lo sonoro podría ser denominado acusmático en tanto que las fuentes originales del sonido no pueden ser observadas (¡aunque efectivamente haya algo qué observar en pantalla!2). Donde la comparación termina, un poco, es en el carácter improvisatorio y performático de este audiovisual de Jacobs versus la obra fija, plástica, del creador electroacústico en lo que se llama de ordinario ‘acusmática’. Por esto habría que asemejarla más al ‘live electronics’, que es, por supuesto, una vertiente de lo electroacústico.

Page 91: En El Limite Nro2

en el limite | 91

el primero se refiere más a el sonido con y en las artes plásticas (instalaciones, multimedia, arte radiofónico, etc.), el segundo se refiere a el arte de organizar sonidos facilitado por la electrónica que nos viene de Schaeffer y descrito prescientemente por Varése en su texto La liberación del sonido de 1936.

Lo que ambas etiquetas tienen en común es su posible distancia de la ‘narrativa’ melódica, rítmica y tímbrica de la música tradicional. Esta distancia resulta en una abstracción del lenguaje musical que luego se plasma en gestualidad tímbrica, dinámica y rítmica. Más aún, ésta distancia obra de forma poética para dotar de significado a la obra sonora sin instrumentos tradicionales4.

Es allí, en esa distancia o espacio de significación imaginaria, donde también encontramos que la música electrónica/electroacústica a menudo hace uso de ‘imágenes’ auditivas logradas a través de un montaje quasi-cinematográfico del audio como vemos por ejemplo en el Clair de Terre (2000) de Robert Normandeau5. Este uso del potencial supuestamente sinestésico del arte sonoro está muy bien expresado por Stéphane Roy en su análisis de la forma y la cita en la obra de Francis Dhomont (Roy, 1996). Allí señala como el uso de sonidos reconocibles deriva por fuerza en imágenes visuales que el oyente puede emplear para explicarse (o cuestionar) la fuente y construir mentalmente el paisaje auditivo que se le propone en la obra.

Es por esto que me parece que bien podemos ya ‘cruzar el río’, pecar de promiscuos, y describir nuestro arte del sonido con las palabras con que describe el Live Cinema el VJ Toby Harris (Harris, 2010):

“[los ejecutantes del Live Cinema] cada vez cuentan historias distintas, y no es porque [no] haya una historia definitiva sino porque es más interesante, pues tienen como un ‘mar de memorias’ y cada historia navega a través de este mar haciendo asociaciones distintas y nuevos enlaces”.

O lo que es lo mismo, la asociación de imágenes visuales/auditivas es libre y subjetiva cuando se emplea en un lenguaje ‘no-figurativo’ (es decir libre de la secuencia narrativa). Esto lo corrobora Jan Schaher cuando nos dice que en el Live Cinema estamos frente al desarrollo de una práctica artística que se vale de la tecnología para explorar un espacio simbólico entre medios (imagen/sonido) e intermedio (o separador) que es a veces no-descriptivo (Schaher, 2008, p.148). Trasladar esto al arte de lo sonoro-electrónico nos puede ser útil ya que a menudo nuestro público parece percibir el discurso electroacústico un poco de esta manera. Y de poder describir las artes del sonido como artes visuales, diríamos que oscilan entre la abstracción y el surrealismo (¿figuración no funcional?), y que si las artes del sonido fueran prosa, bien podrían ser prosa poética, verso libre.

Por estas razones que he expuesto, me parece que hay una condición natural de fraternidad entre el arte sonoro, la música electrónica/

electroacústica y el Live Cinema que es interesante investigar a través de la práctica creativa además del tradicional estudio musicológico.

Imagen para la música Si bien es verdad que las artes sonoras y el Live Cinema se comunican en un espacio poético abstracto y metafórico (para emplear de nuevo las herramientas teóricas de Cook, 2000), la imagen editada para ser música tiene un discurso propio donde el objeto sonoro se hace realmente visible (como en el comienzo del clip de Addictive TV (2009) para el trailer alternativo de SlumDog millionaire donde la carrera de los niños sobre un gran tubo de metal se convierte en un perfecto sillon fermé ¡al mejor estilo Schaefferiano!)

Figura 4. Alternative Trailer for Slumdog Millionaire – Addictive TV

Un buen ejemplo de un discurso visual construido como paralelo a un discurso musical es el género del video clip popularizado por MTV a fines de los 80s y principios de los 90s. El vídeo clip se vale de la coherencia y conformación entre edición y música para lograr un objeto de arte unificado, si lo vemos desde el punto de vista de Nicholas Cook según su análisis de la multimedia musical

Page 92: En El Limite Nro2

92 | en el limite

(Cook, 2000). En el vídeo clip, la imagen funciona como una auralidad aumentada6 y el discurso sigue una lógica que es en esencia musical. Podríamos aseverar sin mucho riesgo que la práctica naciente del VJ en esa época combinada con el desarrollo de la performance audiovisual al servicio del espectáculo de rock masivo, de estadio, fue un terreno fértil para sembrar el Live Cinema. Y es, para nuestros efectos, una auralidad aumentada dado que sus practicantes aducen una forma quasi-musical como explicación de su lógica interna.

Dado que el Live Cinema está libre de la tarea narrativa que puede tener el cine editado en estudio, su estructura temporal tiene que ensamblarse a través de juegos de tensión y distensión, expectativa y resolución (o no-resolución) articulados por la edición y generación de imágenes en tiempo real y complementados por música/audio. En algunas prácticas, como por ejemplo en la obra de 242.pilots (H.C. Gilje, Lukasz Lysakowski, Kurt Ralske), Live in Bruxelles con música de Justin Bennn ett (http://vimeo. com/3333080), la música no se integra a las imágenes más que como un acompañamiento apropiado. Desde el contexto de la música de cine su función es tenuemente incidental y quizás hasta débil. Pero para los ejecutantes de mezclas de imágenes en tiempo real esta música representa una suerte de croquis auditivo que da forma a su trabajo improvisatorio.

Figura 5. Live in Bruxelles (2002) 242.pilots

Schaher confirma esto al mantener que el arco de tensión de una obra de Live Cinema se asemeja más a una obra musical que al cine, y más aún si la música ofrece texturas sin elementos melódicos (utilizando objetos sonoros), ya que provee un marco de referencia muy apropiado para una obra audiovisual abstracta pues carece de elementos de representación y narrativa (Schaher 2008, p. 150). En su ensayo sobre la Práctica del Live Cinema Mia Makela especula que “quizás la imaginería abstracta es analizada mejor como si fuera música” (Makela, 2008) señalando que entonces se puede hablar, por ejemplo, de la estructura rítmica de su presentación, su sentido de la composición y su belleza entre otras cosas.

En la práctica Para entender mejor cómo puede funcionar un evento de Live Cinema, podemos presentar a modo de ilustración la metodología empleada

a principios de la década del 2000 por 242. pilots. Según Kurt Ralske, la coherencia y complejidad de su producción audiovisual rivalizaba con la de obras pre-editadas y por tanto el público asumía que el material estaba pre-grabado y estructurado de antemano. Sin embargo no era así (Ralske, 2011).

Cada integrante utilizaba su propia laptop con su software original de manipulación de vídeo en tiempo real. De esta manera podían producir tres capas de proyección visual. Uno de los integrantes estaba a cargo de escoger de entre estas capas o bien de mezclarlas y de regular la densidad del flujo visual de manera expresiva y de establecer relaciones entre el sonido y la imagen. Cada integrante tomaba decisiones continuamente sobre qué material ofrecer para la mezcla audiovisual y de qué manera afectar la fuente visual bajo su control.

Es interesante ver como el método de 242. pilots es poco ‘instrumental’ en tanto que las modificaciones de la imagen, por su propia admisión, se efectuaban usando el teclado y el ratón de la laptop. En ese sentido, la estrategia de los VJ de mediados y fines de la década han sido más gestuales, más al estilo del scratch-DJ. Por ejemplo, los integrantes del trío Londinense de remezcla y ’mashup’ audiovisual Eclectic Method (Jonny Wilson, Ian Edgar y Geoff Gamlen), utilizan ‘decks’ de vídeo digital y CD para hacer el pinchado de imagen/sonido en vivo. Esto les permite usar los recursos manuales tradicionales del DJ como

Page 93: En El Limite Nro2

en el limite | 93

el loop y el scratch rítmico, pero además, dado el uso de la consola de mezcla visual, les permite crear superposiciones de imágenes, encuadres inusuales y otras combinaciones características de la edición cinematográfica. El uso de controladores externos USB permite ahora lo mejor de ambas prácticas7. Estamos apenas al comienzo de todo un desarrollo de interacción persona-ordenador que hace uso de la imagen y el sonido de forma simultánea y coherente.

Un pequeño gran paréntesis Al igual que la tensión existente entre distintas vertientes de la práctica de la música electrónica, entre los practicantes de performances audiovisuales hay una tendencia más abstracta y cercana al arte de galería y una tendencia más urbana (aunque a menudo no menos experimental). La diferencia audiovisual radica en la edición rítmica versus aquella más abstracta y tal vez temática. Basta comparar 242.pilots o el trabajo de Schaher o Debackere con los Londinenses Exceeda, Eclectic Method, UVA, Emergency Broadcast Network, Addictive TV (en particular el trailer alternativo para Slumdog millionaire) y los pioneros Coldcut (como se ve en el clásico video-clip True Skool). Estas dos vertientes, la una más abstracta y ‘arte serio’, la otra más urbana y ligera son un eco de las músicas que alimentan su performance audiovisual. Sin embargo es importante mencionar que estos últimos no siempre se consideran VJs y aspiran a un público atento a su obra y no como una especie de

papel tapiz sonoro para discotecas, fiestas o clubes nocturnos. En su primer DVD, la agrupación Eclectic Method titula su trabajo del 2005 ‘We are not VJs’ –‘no somos VJs’. Es la cultura audiovisual urbana aspirando a la condición de las ‘artes serias’, esas que alegan merecer nuestra atención absoluta.

¿El Cine ‘Concreto’? (Más allá de la multimedia como metáfora) Nicolás Cook en su libro Analysing Musical Multimedia (Cook, 2000) acota el rechazo que hace Eisenstein de la correspondencia sinestésica como “una base viable para una relación entre la música y las imágenes” (Cook, 2000, p.57) y de su propuesta de establecerla más bien en el contexto particular de cada película8. Su discurso se pasea por Eisler y Kandinsky para proponer –luego de un análisis profundo y completo– la multimedia como metáfora. Más allá de esta valiosa contribución de Cook, podríamos entender que el objeto audiovisual, que no es el objeto sonoro, trae consigo de modo natural un ‘hit point’. Es el átomo de la performance audiovisual: combinable pero indivisible. Por ejemplo, la imagen en blanco y negro de Martin Luther King en el Lincoln Memorial de Washington en Agosto de 1963 diciendo “I have a dream… (that one day this nation will rise up and live out the true meaning of its creed… etc)” está para siempre unida a su voz.

Figura 6. “I Have a dream…” Martin Luther King (1963)

Desde la performance audiovisual, éste es un objeto audiovisual que aún si se presentara mudo nos habla con la misma voz. Es por esto que lo llamo indivisible. De esta manera la performance audiovisual nos trae –en términos Schaefferianos– otro arte de lo concreto, ¿quizás sería mejor llamarlo ‘cine concreto’? Sin embargo, el problema de que haya un ‘átomo audiovisual’ es que puede establecer condiciones a la interactividad. Veamos porqué.

Conclusiones El live cinema, tal como lo hemos discutido, a veces se hace eco de la propuesta estructural de la música que lo acompaña (242.pilots) y a veces muestra un discurso musical bastante unívoco con la imagen (Addictive TV, Eclectic Method). En el primer caso, el ejemplo de Live in Bruxelles muestra cómo los

Page 94: En El Limite Nro2

94 | en el limite

integrantes de 242.pilots reaccionan a una música preestablecida. En particular, cómo articulan la estructura de la música a través de sus selecciones de tomas y de la relación entre estas tomas. En el segundo caso, tanto Addictive TV como Eclectic Method buscan el refuerzo visual ‘momento a momento’ con la música. Es decir que sus imágenes ilustran la acción visible de modo literal: se ve un golpe, se oye un golpe. Más allá de estos dos casos, están los trabajos en la línea de Ken Jacobs y John Zorn, donde la música y lo visual se fecundan mutuamente para dar origen a un discurso unificado. Es éste último, el que muestra la tendencia más interesante de miras al futuro: aquella donde el elemento de expresión e improvisación no es auditivo o sonoro sino íntegramente audiovisual. Es decir que el ejecutante es capaz de contribuir música e imagen por igual y de identificar componentes esenciales que podríamos llamar ‘atómicos’ del discurso audiovisual. Estos a su vez pueden ser combinados en directo (‘live’) para redefinir el mensaje audiovisual de modo dinámico e innovador y fiel a la naciente tradición de la cultura del remix y del mashup.

Por supuesto, se desprende también que las condiciones que impone el ‘objeto’ o ‘átomo’ audiovisual (¡y perdónenme el neologismo!) que discutíamos antes tienen que ver con el grado de importancia de su audio original para la percepción global de la toma en cuestión. En el caso del ejemplo de Luther-King, la importancia del sonido es grande (pues son

sus famosas palabras), pero en el caso de una película cualquiera en ‘toma abierta’ de un paisaje urbano (de las que se llaman en cine ‘establishing shots’), por ejemplo, la importancia semántica es poca y el audio es en consecuencia sustituible sin que haya gran disonancia cognitiva per se. La composición y mezcla de ‘átomos audiovisuales’ permite, por supuesto, su recontextualización como apuntaba en el párrafo anterior y yace ahí su gran riqueza. Es en esta recontextualización o remezcla (remix) donde puede obrar con éxito la música al reubicar nuestra perspectiva de la imagen mientras convive con su audio original o lo sustituye. Y a lo mejor sobra señalar que la obra en general siempre es más que esta secuencia de momentos audio-video. Por tanto la relación entre el empleo de las artes auditivas en conjunto con la imagen, debe ir en la dirección de establecer una estrategia unificadora para el discurso.

En conclusión, el Live Cinema nos presenta un planteamiento donde la música puede funcionar en igualdad con la imagen. Es decir que una idea musical puede dar lugar a una secuencia de imágenes al punto de que éstas funcionen de modo incidental a la música (en contraposición al rol habitual de las artes auditivas en cine que le son incidentales a la imagen). Y más allá de esto, ambos medios pueden participar de una misma plantilla estructural.

Pienso que los recursos del ejecutante audiovisual o VJ con su colección de tomas y

‘video bites’ son un excelente complemento a los recursos de la música electroacústica en directo. Es posible que las avenidas de investigación estén aún un poco aisladas, ora en el mundo de la electroacústica, ora en el género del cine experimental. Lo que si está claro es que ambas áreas de actividad artísticas tienen un potencial de enriquecimiento semántico tremendo con solo coordinar esfuerzos, plantearse una colaboración en igualdad de condiciones y programar obras de este tipo con más frecuencia en los festivales electroacústicos.

Page 95: En El Limite Nro2

en el limite | 95

Bibliografía

Alexander, Amy y Collins, Nick, 2007. Live Audiovisuals en Cambridge Companion to Electronic Music,Collins, N. y d’Escriván, J. eds. Cambridge University Press.

Chion, Michel, 1990. Audiovision. New York: Columbia University Press. Debackere, Boris and Debackere, Brecht, 2006. Cinema in the age of instant creation in Transmedia Text Series 05, Asselberghs, Herman (ed.). Brussels: Transmedia. Harris, Toby (a.k.a. toby*spark), 2009. Live Cinema Documentary. Accesed on VIMEO: http://vimeo. com/9065736.

Hill, Andrew, 2010. Investigating Audience Reception of Electroacoustic Audio-visual Compositions: developing an effective methodology in eContact! 12.4 — Perspectives on the Electroacoustic Work / Perspectives sur l’œuvre électroacoustique(August 2010). Montréal:Communauté électroacoustique canadienne/ Canadian Electroacoustic Community. Hugill, Andrew, 2008. The Digital Musician. N. Y.: Routledge. Kahn, Douglas, 1999. Noise Water Meat, a history of sound in the arts. Cambridge: MIT Press.

Lew, Michael, 2004. Live Cinema: Designing an Instrument for Cinema Editing as a Live Performance In Proceedings of New Interfaces for Musical Expression 2004. Hamamatsu, Japan.

Makela, Mia 2008. The Practice of Live Cinema in Media Space Journal, Issue 1.

Roy, Stéphane, 1996. Form and referential citation in a work by Francis Dhmont in Organised Sound (1: 29-41). Cambridge University Press. Ralske, Kurt. On the performance techniques of 242. pilots accessed at http://retnull.com/242pilots/code/ technique.html in April 2011.

Schaher, Jan, 2008. Live audiovisual performance as a cinematic practice in The Cinematic Experience Debackere, B. and Altena, A. (eds.). Amsterdam: Sonic ActsPress

Audio y vídeo: referencias y enlaces

Addictive TV. http://www.addictive.com/clips.php# Clair de Terre (2001) [CD] Robert Normandeau. empreintes DIGITALesIMED 0157 Exceeda. http://www.exceeda.co.uk/live.html?id=4 Emergency Broadcast Network. http://www.youtube. com/watch?gl=GB&v=6dh0iEkDEkU

Referencias 1 Admito que no he hecho un estudio estadístico de ello. Es mi impresión anecdótica y sin excluir la narrativa como recurso.

2 Puesto que acusmático no significa que no se vea nada, sino que no se ve la fuente real del sonido.

3 Siguiendo la onda de rotularlo todo, yo me referiría a ‘las artes sonoras’ en vez de ‘el arte sonoro’ pues la primera da a entender que son varias (la música, las instalaciones, la electrónica, la electroacústica y así) mientras que la segunda, dado el pronombre, parece implicar que hay una cosa en particular que es ‘el arte sonoro’ (¡y eso es precisamente en lo que todos estamos en desacuerdo!).

4 Teniendo en cuenta las muchas expresiones mixtas que combinan lo tradicional y lo electrónico, por supuesto, aunque el punto de la discusión está más bien referido al género más abstracto de electrónicas y electroacústicas.

5 Quién como sabemos, junto a varios compositores de la escuela acusmática Canadiense, liderada por Francis Dhomont, adhiere su trabajo a una corriente de ‘cine para el oído’ o (Cinema for the ear).

6 Uso este término como paralelo a la ‘augmented reality’ que se difunde en estos momentos a través de nuevas apps en smartphone que sobreponen a la imagen del visor una capa virtual de sonido que reside en la red. Un gran ejemplo de este trabajo es la auralidad aumentada propuesta por Enrique Tomás de http://www.notours. org/ y http://www.escoitar.org/ )

7 De hecho, hoy día los integrantes de Eclectic Method están progresivamente sustituyendo sus tocadiscos digitales por laptops y controladores externos.

8 Esto no es muy distinto de la famosa propuesta de ‘síncresis’ de Michel Chion en su libro Audiovisión (Chion, 1990, p.63)

Page 96: En El Limite Nro2