En El Limite Nro2

Universidad Nacional de Lanús Dra. Ana Jaramillo Rectora Mg. Nerio Neirotti Vicerrector Prof. Héctor Muzzopappa Director del Departamento de Humanidades y Artes Comité Editorial Dra. Mirta Fabris Mg. Ana Farber Prof. Héctor Muzzopappa Dr. Daniel Rodríguez Dr. Oscar Tangelson

escritos sobre arte y tecnología

en el límite

Interacción

Coleccion Humanidades y Artes Ediciones de la UNLa.

2 Compilado por Raùl Minsburg. Remedios de Escalada : De la UNLa .1a ed. . En el límite nro. 2011.Compilador Raúl Minsburg Autores Fabián Beltramino Rajmil Fischman Jorge Sad Levi Petra Bachratá Ricardo Dal Farra Matías Romero Costas Sergi Jordá Julio D’ Escriván Colección Humanidades y Artes Ediciones de la UNLa.Universidad Nacional de Lanús. Centro de Estudios en Producción Sonora y Audiovisual .

instrumentos “multiproceso” y música “móvil” Sergi Jordá Anotaciones sobre Interactividad entre las artes del sonido y la performance audiovisual. escritos sobre arte y tecnología Interacción 07 09 11 16 28 36 54 66 75 Introducción Los autores Para una crítica de la originalidad del arte interactivo Fabián Beltramino Otras interacciones Rajmil Fischman Escucha acusmática e interacción musical Jorge Sad Levi Interacción gestual en la música para instrumentos y sonidos electroacústicos Petra Bachratá Interacciones Electro[±]Acústicas Ricardo Dal Farra Las interfaces en el arte digital interactivo Matías Romero Costas El reactable.índice en el límite. interacción tangible. partiendo del ‘Live Cinema’ Julio d’Escriván 89 en el limite | 5 .

Provincia de Buenos Aires. Diagramación Katerina Kolosova ISSN 2250-6136 Impreso en Argentina Queda hecho el depósito que marca la Ley 11.723 La fotocopia mata al libro y es un delito. 29 de setiembre 3901 1826 Remedios de Escalada.php Escritos sobre arte y tecnología Publicación 2011.unla. 54 11 6322 9200 publicaciones@unla.ar/public/enellímite/index. © Ediciones de la UNLa.edu. UNLa.ar www. Argentina Tel. Interacción . Partido de Lanús.edu.Diseño Dirección de Diseño y Comunicación Visual. © El autor/a.

describiendo particularmente cual es la diferencia. a comienzos de la década del ochenta. Por su parte Jorge Sad indaga acerca de que tipo de interacción surge a partir de la música acusmática. con el arte sonoro. un concepto que está en boca de todos en los últimos años. Comenzamos esta edición con el trabajo de Fabián Beltramino cuyo título no deja dudas acerca de la intención de polemizar del autor: Para una crítica de la originalidad del arte interactivo. Sergi Jordá nos habla de su creación reconocida internacionalmente. Es así que Beltramino se pregunta si ha habido en la historia del arte una práctica no-interactiva o. la generación de un discurso audiovisual en tiempo real. El tema del presente número es el de la “Interacción” que es una palabra. Me atrevería a decir que esto no es sólo un problema argentino. sino también latinoamericano. Ricardo Dal Farra nos habla de sus propias experiencias con la interacción musical utilizando tecnología. en el caso de trabajos que lo ameriten.Introducción El volumen que presentamos a continuación es el segundo de esta publicación que hemos llamado “En el límite – Escritos sobre Arte y Tecnología” manteniendo las mismas características que el primero: tener un tema monográfico. el reactable. no sólo con la idea de discutir tendencias recientes en el arte interactivo. dado el escaso hábito de registrar nuestra propia historia cultural y artística. sino con la idea de ampliar y reconsiderar la idea misma de interactividad en el arte. lo cual sin duda posee un valor histórico muy importante. analizando. entre otras cosas. Es por eso que hemos encarado el presente volumen. Julio D´Escriván analiza el Live Cinema. una expresión. por definición y requerimiento. ofrecer una edición en papel y otra electrónica y traducir artículos de otros idiomas. en el limite | 7 . partiendo de la necesaria interacción entre sonidos. y la problemática que este tipo de práctica plantea en su interacción con la música. combinación sonora que dio lugar a la llamada “música mixta”. enfocado desde distintos puntos de vista de acuerdo a cada especialista convocado. un hecho. con el fin de ampliar la bibliografía en lengua castellana sobre los temas de nuestra área. con los instrumentos tradicionales. El autor da claros ejemplos tomados de distintos momentos de la historia del arte que responden claramente su pregunta. Petra Bachratá también investiga la interacción que se produce a nivel gestual. por medio de la cual escuchamos música. Seguidamente Rajmil Fischman analiza la interacción más allá de la relación hombre – tecnología. la obra y la participación del público y que papel juegan las interfaces siendo el medio que articula dicha participación. considerando la relación entre el artista. considerando la ausencia de aspectos visuales en este tipo de expresión. hasta llegar a la interacción del creador con su tiempo. pero entre los sonidos electrónicos y los instrumentales. muy especialmente entre quienes nos dedicamos a ese fascinante mundo del arte y su entrecruzamiento con la tecnología. Por ultimo. Matías Romero Costas nos brinda un panorama actual hablando de obras enmarcadas en lo que se conoce como entornos de Realidad Aumentada. cuales son las consecuencias de este tipo de instrumentos y dispositivos en el consumo y la producción de música. Desde otra perspectiva. especialmente a nivel gestual. si puede sostenerse que la interactividad en el arte es un fenómeno propio y exclusivo de los siglos XX y XXI. sin duda un terreno fértil y estimulante para la imaginación de muchos compositores.

Es nuestro deseo que esta nueva publicación del CEPSA. regional e internacional. con la idea puesta en impulsar el intercambio multidisciplinar así como a establecer sólidos lazos con instituciones e individuos que compartan los mismos intereses. Raúl Minsburg (CEPSA) Agosto 2011 8 | en el limite . siga despertando interés en los lectores de habla castellana y de lugar a un rico intercambio entre investigadores y artistas a nivel local.

la UnTref. Ha recibido premios nacionales e internacionales. 2 º premio en concurso orquestral de Póvoa de Varzim. Segundo Premio en el concurso internacional de composicion Xicoatl. Gran Bretaña. Sus obras de música electroacústica han sido escuchadas en más de 40 países y grabadas en 20 ediciones internacionales.com. a la investigación de la teoría de música electroacústica y al desarrollo de software musical. Austria. el Ministerio de Educación de Argentina. y el consorcio interuniversitario de arte y nuevas tecnologías Hexagram. donde obtuvo su doctorado en 1991. Su producción está compuesta por obras instrumentales. Profesor en Producción Multimedial. Es Profesor de Composición en la Universidad de Keele desde 1988. en Canadá. investigador y docente. Premio Ján Levoslav Bella. que incluye obras instrumentales. y la UBA. Su música. Forma parte del grupo Proyecto Biopus con el que ha presentado obras de net-art. Ekolio. Matías Romero Costas (Quilmes. Argentina. Sus composiciones son interpretadas y transmitidas internacionalmente. www.. en Lima. ha sido presentada en conciertos y festivales alrededor del mundo. Salzburgo . Se dedica a la composición de música instrumental y electroacústica. Argentina. docente e investigador. donde estableció el programa de Maestría en Tecnología Musical Digital y el laboratorio de Música por computadora.Los autores Fabián Beltramino (Buenos Aires. performances e instalaciones interactivas.ar en el limite | 9 . en la Academi Rubin de la Universidad de Tel Aviv. Licenciado en Composición. etc. del Círculo de Compositores Peruanos (Circomper) y de Sound and Music en el Reino Unido. la ENERC (INCAA). Ha obtenido numerosos premios (1º premio en Musica Nova. y una Mención Honorífica en el Concurso Internacional sobre Arte y Vida Artificial – Vida de España en 2006 y 2008.). Peru. Creó el Archivo de Música Electroacústica de Compositores Latinoamericanos en The Daniel Langlois Foundation. artista multimedia.com. Jorge Sad Levi (Buenos Aires. mixtas y multimediales que han recibido numerosas performances en festivales y conciertos en América. Canadá y Director del Centro de Experimentación e Investigación en Artes Electrónicas de la Universidad Nacional de Tres de Febrero. Israel y en la Universidad de York. honedition. 1970) Magíster en Análisis del Discurso y Licenciado en Artes de la Facultad de Filosofía y Letras de la Universidad de Buenos Aires. Hevhetia. como el Gran Premio A Las Nuevas Tecnologías MAMBA/ Telefónica de Arte y Tecnología 2006. director de música en la Universidad (1998-2000) y director del programa de Tecnología Musical (2001-4). Rajmil Fischan (Lima. Ha dictado cursos de Semiología Musical a nivel de Posgrado en la Facultad de Filosofía y Letras de la UBA y en el Departamento de Crítica de Artes del IUNA. Numérica.U.A. 1956) Realizó estudios musicales en el Conservatorio Nacional de Música. diplomado en la UNLP. acusmáticas. siendo nombrado uno de los directores de este proyecto en 1988. 2009 y Premio Ciudad de Buenos Aires. Muchas de sus obras han sido editadas en discos por diversos sellos europeos (Spectral Records.Centro de Estudos em Música e Dança) y en UniMem (Unidade de Investigação em Música e Musicología). video arte. Es Asistente en el Medialab del Centro Cultural de España en Buenos Aires (CCEBA). Francia.matiasrc.en INET-MD (Instituto de Etnomusicología . Su reciente investigación desarrollada en la Universidad de Aveiro . Es miembro de la Red de Arte Sonoro Latinoamericano (RedASLA). Se unió al Composers’ Desktop Project (CDP). DocenteInvestigador del Departamento de Humanidades y Artes de la Universidad Nacional de Lanús. Slovart Music.ar / www.1959) Compositor. Argentina 1976) Compositor. Europa y Asia. Petra Bachratá Compositora. Sus obras han sido presentadas en Argentina y el exterior. etc. finalista de concurso en Bourges.) Ricardo Dal Farra Profesor en el Departamento de Música de Concordia University. Fue director artístico y director de orquesta principal de la Sociedad Filarmónica de Keele (1990-1995).N. Ha sido consultor de la UNESCO.biopus. postgrado e investigador en la UNLP. acusmáticas y mixtas. Trabaja como docente de grado. investigadora y neuróloga. Pierre Schaeffer y Confluencias. el I. se centra en el establecimiento de modelos analíticos y composicionales de la interacción en la música para instrumentos y sonidos electroacústicos.

tratando de entrelazar HCI. Ha sido dos veces ganador en la Bourges International Electroacoustic Music Competition. Es coeditor de la Cambridge Companion to Electronic Music y coautor del capítulo “Componiendo con SuperCollider” perteneciente a The SuperCollider Book recientemente publicado por la MIT Press. música y las artes digitales interactivas. Reino Unido. Su música electroacústica ha sido internacionalmente programada. donde imparte cursos de grado y postgrado relacionados con el audio y la música digitales. Julio d’Escriván (1960) Compositor y creativo de la tecnología que ha trabajado intensamente en música para publicidades. d’Escriván es Profesor Asociado en Creative Music Technology en la Universidad Anglia Ruskin. Investigador en el Grupo de Tecnología Musical de la Universitat Pompeu Fabra de Barcelona. Ha recibido varios premios internacionales. En este momento. Asia y América. en 1987 y 1989. la interacción persona ordenador (HCI) y el “media art”. Ha escrito artículos y libros e impartido conferencias y talleres en Europa. Ganó diversos premios por su música para concierto y para cine. 10 | en el limite . TV y cine. Francia.Sergi Jordà (1961) Licenciado en Física Fundamental y doctor en Ciencias de la Computación y Comunicación Digital. Su reciente trabajo incluye el “Cambridge Introduction book to Music Technology” que se publicará en Octubre 2011 por la Cambridge University Press. como el prestigioso Ars Electronica Golden Nica (2008).de Cambridge. y profesor agregado en la misma universidad.

en tanto indistinguible respecto de la artesanía. con un discurso que se propone como construido en conjunto y en simultáneo entre el artista y el público. una esfera de actividad particular. por lo general. el arte todavía no era eso que a partir de la Modernidad entendemos por arte. símbolo. si hay un lector-observadoroyente que lee-observa-oye metafóricamente. el del estilo Románico. se produjo. fundamentalmente aquel que corresponde a los primeros siglos del período. que se alejaba progresivamente del ideal monástico de rechazo de cualquier clase de “corporalidad”. elevaba espiritualmente y. así. las cosas empezaron a funcionar de otra manera. en cada uno de los períodos en los que suele dividirse la historia del arte europeo-occidental hasta el siglo veinte (Edad Media. el impulso a un arte no-religioso y. Es por eso que el arte medieval. el renacimiento de las ciudades. un espectador. también. es pionero en el establecimiento de una relación interactiva entre el público y la obra. Hay metáfora. Como afirma Umberto Eco1. no hay posibilidad de salto de una lectura literal a una lectura metafórica o simbolista sin la participación del lector. Como afirma Paul Ricoeur2. casi absolutamente anónimo. acercaba al hombre a Dios. Renacimiento. basada en el carácter simbolista de los objetos propuestos. Pero cabe preguntarse: ¿fue el arte europeooccidental. Y para ello exigía una contemplación adorativa. Como sabemos hoy desde la semiótica y la hermenéutica. excediéndolo. Se trataba. El receptor de la obra de arte medieval no era. El arte interactivo aparece. como señala José Luis Romero3. hacia una tónica cada vez más materialista. era alguien que interactuaba con la obra no con relación al objeto mismo sino respecto de aquello que lo trascendía. Es decir. Barroco. a través de lo estético. la obra y el público. todavía. no de la obra. y la interacción propuesta se basa. que con la noción de arte. así. por lo menos hasta el siglo XI. esto es. el comercio y la producción de bienes agrícolas y manufacturas en escala ascendente. sentido aludido. tareas extra-estéticas. alejado definitivamente éste de su tradicional rol de espectador. de un hacer artístico aun no connotado de genialidad y. Si bien existió y fue utilizado ampliamente el término latino ars. Ahora. La obra de arte medieval enseñaba. el surgimiento de la burguesía. es decir. el ars. en algún momento de sus ya largos quince siglos de historia –aceptando que la cultura a la que pertenecemos nace a partir de la caída del Imperio Romano de Occidente hacia fines del siglo V– una práctica nointeractiva? ¿Puede sostenerse seriamente la idea de que la interactividad en el arte es un fenómeno propio de los siglos XX y XXI? Lo que sigue es un intento por fundamentar la respuesta negativa a dichas preguntas. de forma correlativa. que podía ser tanto un mural para una capilla como una copa o una espada. En el contexto del debilitamiento del sistema feudal. El concepto actual de interacción en el arte tiene que ver. no era otra cosa que un procedimiento técnico cuyo objetivo consistía en concretar de la mejor manera la realización de una obra. de alguna manera. relativamente autónoma. interesada en grado sumo en cumplir. en primer lugar. la metáfora es un fenómeno de creación puramente receptivo. Ya a partir del estilo Gótico.Para una crítica de la originalidad del arte interactivo Fabián Beltramino Universidad Nacional de Lanús fbeltramino@unla. la relación con las obras de arte fue virando desde una dimensión casi mística. si hay un receptor activo. de una recepción “funcional”. en el uso y aprovechamiento de tecnologías electrónicas e informáticas aplicadas a la realización de las obras. ¿qué sucedía en el plano de la recepción de este arte? Se trataba. En sintonía con la mentalidad burguesa en ciernes que. se encuentra por definición mucho más apegada a la terrenalidad que a la espiritualidad divina.edu. una nueva modalidad de en el limite | 11 . sino de lo que la obra simbolizaba. su significado tenía más que ver con el vocablo griego techné. caracterizando en cada caso. alrededor del siglo XII. en la Edad Media. como una de las manifestaciones más innovadoras del arte contemporáneo.ar Interactividad medieval En primer término cabe afirmar que. en tanto techné. es decir. Neoclasicismo y Romanticismo) la modalidad concreta de la interactividad que se da entre el autor. en su acontecer más frecuente. al cual venía a reemplazar.

sí está claro que. entre otros autores. Por otro lado. en el caso de la pintura se concretaría en el Renacimiento. Así. de una propuesta de relación diferente entre el público y las obras. y en el caso de la música en el Barroco. con el desarrollo de la perspectiva tridimensional. con el establecimiento del sistema tonal. resulta efectiva. en nuestra cultura. Así. hasta ese momento. adquiere la complejidad. que implica el salto desde la sacralidad del texto a la valoración de cualidades puramente musicales. pasó de lo connotativo a lo denotativo. de los conocimientos más recientes en la época acerca de geometría y de óptica. sino sobre todo entre la representación y el espectador que. tanto el Manierismo como el Barroco representan la ruptura de la homogeneidad. en el arte Gótico. Este proceso. el naturalismo lo es en mayor grado ya que lo real evocado por el enunciador está determinado. resultado de operatorias que se desencadenan en el accionar del receptor. en tanto construcción artificial que funciona como representación natural. durante el Gótico. es el del desarrollo de un sistema de representación visual que funciona como representación fiel y natural del mundo real. respecto del Renacimiento. dando lugar a la impresión de continuidad entre los espacios de la representación y del espectador. si bien es cierto también que no tiene una duración específica ni un acontecer similar en cada una de las regiones en las que se manifiesta. directamente atada al progreso técnico/tecnológico. convirtiéndose claramente en una cuestión de código. como al contenido histórico o mitológico de las mismas. movilidad y rasgos cada vez más reales. la perspectiva llega a su punto gracias a la incorporación. por parte de la pintura. por un lado. el público del arte renacentista es un público competente y activo. como afirma Arnold Hauser4. fueron tratadas más literalmente como objetos –es el momento en el que el comercio de arte se desarrolla a la par del comercio en general– pero. debe sentirse parte de la imagen ubicándose en el punto que la propia representación prevé para el desencadenamiento de tal efecto. son ejemplos. de ese sistema de representación unificado y orgánico. en la música. . Si el simbolismo era casi plenamente un efecto de lectura. más valoradas y exigidas en sus aspectos técnicos. tanto una ruptura. Tanto el naturalismo. Interactividad renacentista El Renacimiento. Este es el punto en el que puede marcarse el inicio del interés y la valoración positiva que. Por otro lado. la complejidad técnica de la polifonía también depende del universo sonoro del oyente en su intención de ser percibida de la manera más completa posible. no representa. La perspectiva. una propuesta de interactividad radical en la cual el complejísimo dispositivo de producción se completa y funciona si el espectador participa activamente en él. en la pintura. entre los distintos planos de la representación (lo más cercano y lo más lejano). por la imagen del mundo que éste presupone en el destinatario de su discurso. un salto y un corte tajante como el punto de llegada de un proceso de relativa larga data. así. el espacio que la perspectiva propone es un “espacio sistemático” en el que se integran el punto de fuga y el punto de vista. como se desprende de los propios términos. debido a la ilusión de unidad que crea no sólo al interior del cuadro. para que la ilusión visual funcione.relación con las obras que. como la polifonía. al mismo tiempo. como ya se dijo. tanto en lo que hace a los aspectos formales. de confección de las obras –factor que lleva al progresivo reconocimiento de ciertos artistas por sobre otros y desde ahí a la noción de “genio” –. la interactividad. respecto del período anterior. Vemos. Como afirma Erwin Panofsky5. No es casual que sea ésta una época en la que proliferan tratados y sistemas de enseñanza de un arte considerado. La ilusión perspectivista y el efecto de continuidad son. en 12 | en el limite un intento de estabilización de un terreno de comunicación que. que hace que las imágenes busquen cada vez más dinamismo. Interactividad barroca Si bien el Barroco no es tanto un estilo homogéneo como una denominación peyorativa acuñada desde la estética neoclásica. y en el contexto del humanismo que surge a partir del siglo XV. que no existen de manera autosuficiente en la obra. sagrado. sobre todo. en gran medida. técnicos.

en una vía de conocimiento basada en lo sensible y lo imaginario que plantea. en un espía. sobre todo. Interactividad neoclásica Con la estética neoclásica ocurre algo bastante parecido a lo que sucede con la en el limite | 13 . indefectiblemente. cuando en realidad se trata apenas de un artificio. propone. y la ruina. la entrada del irracionalismo en el contexto de un racionalismo casi religioso. basada en la fe en la razón y el conocimiento que de ella deriva. Caravaggio. priorizando los ocultamientos antes que las mostraciones. una crítica al lenguaje concebido como mero instrumento de conocimiento científico-técnico9. en tanto fábula con final feliz moralizante (la victoria de la ley frente a los desafíos de la ley. debe convertirse. el conflicto aludido a través del devenir de la relación entre los temas y las relaciones de dominante y tónica. también y sobre todo. El lenguaje romántico no se plantea como un lenguaje poético cuya incumbencia termina en los límites del propio terreno de lo artístico. a través de su esquema. Si el espectador renacentista tenía ante sí la imagen acabada y realizada en función de su propia presencia. Y este es precisamente el conflicto central de este momento inicial de la modernidad: el problema de la convención y de la relación entre el individuo y lo social. el espectador del Barroco de. la unidad que la perspectiva renacentista establecía entre los espacios de la representación y del espectador. sólo se concreta en tanto exista la posibilidad.En el Barroco se rompe. por definición. En el caso de la música. Es el espectador el que otorga la cualidad de “natural” a una configuración basada en el cálculo y la racionalidad extremos. alguien en permanente búsqueda y movimiento. el individuo de esta época vive y corporiza la relación tensa que se establece entre el imperio de la libertad subjetiva y la sujeción a reglas convencionalizadas. y el impulso a los motivos poéticos y pictóricos prácticamente olvidados: la noche. lo misterioso. un espectador activo y dinámico. su intención efectista. El énfasis de apreciación suele estar puesto en la instancia de producción y en su búsqueda de perfección formal. la intención de expresar las emociones o ideas que constituyen la base simbólica de la composición mediante figuras reconocibles o identificables estabilizadas a través de la “teoría de los afectos”7 no constituye sino otra evidencia de que la obra depende de que el oyente maneje el código y lo ponga a pleno funcionamiento en el momento de la escucha. Y si además consideramos la dimensión expresiva del Barroco. por ejemplo. la representación se “desentiende” del espectador. la estructura dramáticonarrativa de la sonata. en un detective. Consiste. de la historia. Así. Así. Podríamos decir. el renacer de la poesía y la mitología. lo ambiguo. casi necesariamente. Si Charles Rosen afirma que la sonata. entendido esto último como lo colectivo y también como el imperio de la ley y las reglas objetivas. es una forma de oír y de experimentar por parte del oyente. de efectuar el salto desde la materialidad de lo que suena hacia el simbolismo que la forma. renacentista. la revalorización del pasado. que evidencia el límite inevitable de la existencia individual. como afirma Hauser6. de un dispositivo que se concreta y que depende casi plenamente de la instancia receptiva. del orden inicial a pesar de los desvíos y los devenires intermedios). como afirma Casullo. en el oyente. introduciendo un elemento de “confusión” que intenta alejarse de la claridad y la perfección del modelo anterior. Y no hay mejor ejemplo de la puesta en obra de esta situación por el arte de esta época que la consolidación de la forma sonata en la música. puede afirmarse que. inquieto. lo oscuro. más que un esquema formal es una forma de componer8. Interactividad romántica El romanticismo implica el pasaje de las formas objetivas a la independencia subjetiva. lo recóndito. planteándole el desafío de ir en busca de lo que hay que ver. De aquí surge la ambivalencia fundamental de la estética neoclásica: la alternancia entre la belleza más perfecta que sustenta una fe ilimitada en el futuro. vemos como el sentido de esta intención demanda.

no es el lugar de la perfección ni la residencia de la verdad sino el disparador de un proceso que se cumple en el sujeto que la experimenta. la sublimidad dependen de la obra tanto como de las capacidades. podemos llamar nuestra “civilización” occidental. a través de la cual pueden recuperar. captando plenamente la propuesta del movimiento romántico en el que. la obra propone y el hombre dispone de ella según sus necesidades y sus impulsos. Se podría decir. predisposiciones y actitudes del sujeto que entra en contacto con ella11. como he intentado mostrar. y así hasta el infinito. un arte que “dice”. inacabadas. “salvaje” para el contexto en el que estos términos se enuncian. para la cual ni la belleza ni. a partir de la ruptura de la relación espectador-obra propuesta por las vanguardias. por lo menos. los únicos caminos a través de los cuales los hombres pueden acceder a una auténtica experiencia de libertad. que vehiculiza sentidos previamente codificados. el siglo XVIII. El segundo. justamente. La obra. mucho menos.Así. Sin embargo. que “expresa”. la producción misma del objeto artístico es delegada. por primera vez. en lo que constituye una fuerte renuncia por parte del artista al rol que la estética idealista burguesa le ha asignado desde. entonces. El siglo XX: la interactividad explicitada Finalmente. representa. Lo más novedoso de esta instancia es que. una modalidad explícita de la interactividad. Las obras se presentan como. según el primero. el sentido no es algo a recibir sino a construir. la “integridad” humana perdida a lo largo del camino de la civilización tecnificante. entonces. 14 | en el limite . apenas como bocetos o posibilidades múltiples que la intervención concreta de un público concreto en espacios y circunstancias concretos redondeará en una forma terminada13. en el siglo veinte sí se da. presentar el concepto de “arte interactivo” como una novedad absoluta del arte contemporáneo significaría no reconocer la actividad e inter-actividad que el público viene desarrollando con relación a las obras desde los primeros siglos de esto que. por ejemplo para Schiller10. Esta concepción activa del espectador e inter-activa del arte romántico se vuelve explicita en la polémica entre Nietzsche y Wagner12. el arte y lo estético son. en un sentido no poco benevolente. Lo mismo podría afirmarse desde la estética kantiana. a priori. de alguna manera. y a destruir para volver a construirlo. activo. y gracias a la aplicación de los desarrollos de la tecnología y la informática a las realizaciones artísticas. En cambio Nietzsche propone un arte vivo.

Vol. Madrid: Trotta. Erwin: La perspectiva como forma simbólica. Buenos Aires: Eudeba. Madrid: Alianza. Buenos Aires: Lancelot. Madrid: Alianza. Nicolás: “El romanticismo y la crítica de las Ideas”. 13 en el limite | 15 . Ricardo Forster y Alejandro Kauffman. en Itinerarios de la Modernidad. Arnold: Historia social de la literatura y el arte. 2001 Romero. Nicolás: “El romanticismo y la crítica de las Ideas”. Barcelona: Tusquets. 2001 Hauser. 1997 1 2 Ricoeur. Paul: La metáfora viva. Haydn. Vol. José Luis: Estudio de la mentalidad burguesa. 2000 Schiller. Mozart. 2001 Romero. de Nicolás Casullo. Madrid: Alianza Música. 2006 Kant. 1999 9 Schiller. Barcelona: Athropos. 1876 11 Nietzsche.Bibliografía Casullo. 2001 7 Rosen. Arnold. Madrid: Alianza Música. 1999 5 6 Hauser. 2006 4 Panofsky. Beethoven. 1999 Eco. Madrid: Debate. 2011 12 La especificidad de la interactividad en el arte contemporáneo es abordada y desarrollada con mayor detalle en otros artículos de este mismo número. Fubini. Barcelona: Lumen. Beethoven. Barcelona: Tusquets. Cit. Friedrich: “El caso Wagner” en Ecce homo. Immanuel: Crítica del juicio seguida de las observaciones sobre el asentimiento de lo bello y lo sublime. Madrid: F. 1999 Ricoeur. en Itinerarios de la Modernidad. José Luis: Estudio de la mentalidad burguesa. Haydn. 1. 1876 Nietzsche. Friedrich: Kallias: cartas sobre la educación estética del hombre. Madrid: Debate. Buenos Aires: Lancelot. 2011 Panofsky. Immanuel: Crítica del juicio seguida de las observaciones sobre el asentimiento de lo bello y lo sublime. Friedrich: Kallias: cartas sobre la educación estética del hombre. 1990 10 Kant. Umberto: Arte y belleza en la estética medieval. Madrid: Visor. Charles: El estilo clásico. 1. 2000 8 Casullo. Charles: El estilo clásico. Barni. Buenos Aires: Eudeba. Mozart. 1990 Referencias Eco. Madrid: Visor. Barcelona: Athropos. Enrico: Estética de la música. Enrico: Estética de la música. Barcelona: Lumen. 1997 Fubini. de Nicolás Casullo. 1993 Rosen. 1993 3 Hauser. Ricardo Forster y Alejandro Kauffman. Friedrich: “El caso Wagner” en Ecce homo. Umberto: Arte y belleza en la estética medieval. Madrid: F. Op. Barni. Paul: La metáfora viva. Madrid: Trotta. Erwin: La perspectiva como forma simbólica. Arnold: Historia social de la literatura y el arte.

la diferenciación entre lo musical y lo no musical forma parte de un contrato comunicativo5 entre músicos y público en el que ‘cuando dos partidos establecen comunicación.ac. sin la cual no podría haber música. A continuación nos ocuparemos de la interacción entre el oyente y los materiales musicales y de allí procederemos a la interacción entre ejecutantes. Podemos ilustrar esto con otro ejemplo: imaginemos un sonido sin altura definida que comienza muy suavemente y crece en volumen e intensidad hasta llegar a un clímax. Esta asociación entre el concepto de interacción y el rol activo de la computadora es un reflejo casi inconsciente y ciertamente natural en una era de cambios dramáticos efectuados por la tecnología tanto en la música como en nuestras experiencias cotidianas. la interacción entre sonidos. relaciones de pregunta y respuesta. de su interacción. cultural e histórica. Es así que mientras que en un caso los interpretantes que atribuimos a los sonidos son “ataque” y “resonancia”. cambios que dirigen nuestra atención a las funciones que esta tecnología ha heredado de actividades que antaño eran exclusivamente humanas. Es por eso que precisamente cuando el enfoque en la interactividad entre el ser humano y el computador ha adquirido tal relieve e importancia. Nuevamente. Por último abordaremos la cuestión de la interacción del creador musical con su época y cultura. la interacción entre estos dos sonidos determina su significado y la identificación de su organización temporal. incluyendo intérpretes humanos y tecnológicos. sino más bien la complementan y ocurren dentro del contexto cultural.a. Es más. (ej. etc. 1990: 42). Pero la organización temporal de sonidos depende de la relación entre éstos. Luego expandiremos la 16 | en el limite discusión más allá del material sonoro para incluir otros medios. tal vez una textura. o quizá una interrupción. 2008: 43). una sinusoide sintetizada. es muy común referirnos a las relaciones entre el ser humano y la máquina en la realización de la obra musical. si escuchamos un sonido corto de ataque prominente (ej. las funciones que ejerce la tecnología no vienen a suplantar a la humanidad. En este caso podemos establecer una relación de causa y consecuencia gracias al perfil energético: el primer sonido acumula energía y el segundo la disipa. los interpretantes dependen de la manera como estos sonidos se relacionan entre sí: en otras palabras. en cuyo caso consideraríamos el primero como un sonido independiente. Por ejemplo. seguido inmediatamente por la grabación de un derrumbe. en el segundo caso son “textura” y “acento” (o “interrupción”). estos obedecen inconscientemente una serie de reglas’6(Shave. y descubrir otras interacciones cuya importancia en la creación musical es tan válida hoy como ayer. su evolución y el momento en que aparecen. por medio de procesos similares de causalidad. Interacción del Material Sonoro Al hablar de interacción (o cualquier otro aspecto) musical es obvio que diferenciamos entre algo que llamamos “música” y lo demás. etc. que resulta de sus características físicas. y el segundo como un acento. la misma nota tocada en un vibráfono con arco de violín. es decir. su relatividad social. Es más. que determinan su función y significado musicales. la interacción no solo ocurre a nivel de sonidos individuales sino también entre pasajes musicales más largos y secciones íntegras. incluyendo los efectos de la globalización.) consideraríamos el resultado como un ataque con resonancia. pasajes que disipan la energía acumulada por sus predecesores). Por último. una nota de xilofón) sincronizado con el comienzo de un sonido largo y tenue (ej. Nattiez (1990) ha discutido extensamente este fenómeno. recapitulación.). . No obstante.fischman@keele. School of Humanities Keele University r.uk Cuando hablamos de interacción en el contexto de la música que utiliza tecnología digital. El resultado no sería igual si el sonido largo apareciera antes que el sonido corto. y referencia (ej. vale la pena dar un paso atrás para poder abarcar con la mirada el contexto general dentro del cual ésta puede ser situada. y hasta su mera existencia en culturas que no tienen un concepto equivalente a “música”1. Nuestra trayectoria empezará con la interacción más primordial.Otras Interacciones Rajmil Fischman Music Department. social e histórico característico de toda actividad. En el contexto de este artículo bastará decir que identificamos la música como una articulación del tiempo realizada usualmente por medio de la organización del sonido2: ‘un hecho sonoro de cualquier tipo es reconocido como música … cuando asociamos interpretantes3 incluidos en el concepto de “música” o “lo musical” con aquel hecho sonoro’4 (Nattiez.

Michel Chion sostiene que la percepción visual y sonora tienen una relación poco natural.Interacción entre Medios Distintos – Expansión del Material Musical La interacción entre materiales se amplia cuando la música incluye otros medios además del sonido. la fenomenología de la interacción no tiene sentido alguno y ni siquiera existe. 1996: 309. prestándose respectivamente sus propiedades por medio de contaminación y de proyección’7 (Chion. Interacción Entre el Oyente y la Obra Cuando discutimos la interacción de elementos musicales asumimos tácitamente al “observador”. John Williams. observadores distintos inferirán organizaciones temporales diferentes entre los dos sonidos dependiendo de su punto de observación. obras litúrgicas. quizá hasta intimidante. Por otro lado. Por último. 1994: 247-8). etc. si continuamos esta línea de raciocinio corremos el peligro de llegar a la conclusión de que no puede haber música pues nadie comparte el mismo punto de observación. etc. que provee una plétora de ejemplos musicales excelentes desde los años 30 (ej. incluyendo a Whitney (1994). Chion llama a esta interacción el contrato audiovisual8 y al resultado que ejerce sobre cada uno de los medios. etc. la escena adquiriría una connotación seria. Danny Elfman). Es más. por medio de la cual ‘se influencian una a otra . lo que realmente queremos decir es que para alguien hay una relación entre los sonidos que cumple la función de extensión. visuales.hay elementos no sonoros que son parte integral de la interpretación musical: por ejemplo. en el que imagen y sonido ejercen sobre sí una influencia mutua. Mulder. pues sin éste. la investigación moderna de interfases digitales sugiere que el esfuerzo del intérprete constituye un componente esencial de la expresión musical (Vertegaal et al. posiblemente cómica. Coulter (2010). Si el sonido acompañando sus pasos fuera aquel que produce un metal pesado cuando hace contacto con un suelo duro.) o en el caso de la ópera. Max Steiner. de despliegue de una fuerza cibernética con funciones militares o policiales. modificando el significado que cada uno de ellos tendría por separado. En otras palabras. Claramente. los argumentos de la física ocurren en escalas extremas y desde el punto de vista práctico podemos asumir que la mayoría de los oyentes familiarizados con un género en el limite | 17 La música visual presenta uno de los casos más interesantes de interacción entre medios distintos. la vigencia de cualquier vínculo entre entidades sonoras. si los pasos fueran acompañados por sonidos de gotas de agua cayendo en una superficie el resultado crearía una situación incongruente. debemos tomar en cuenta las conclusiones de la física moderna que sostiene que la observación depende de las circunstancias en que el fenómeno es observado: teóricamente. Fischman (2011b) y el volumen 29(4) de Computer Music Journal. que empleó música electrónica en películas ya en los años 50. Pero esto no es todo: si los sonidos de las gotas fueran acompañados por imágenes diferentes –digamos la escena de un paisaje natural bañado por lluvia veraniega– su connotación cambiaría totalmente de lo cómico a lo pastoral. 1994). Erich Korngold. Además.. vemos robots armados con rifles marchando a través de un corredor. El efecto profundo del contrato audiovisual requiere la adopción de estrategias especializadas para tratar la combinación de sonidos e imágenes. Por ejemplo. valor añadido9. Miklos Rozsa. que está dedicado en su integridad a la música visual. los movimientos del intérprete son necesarios para lograr una expresión musical convincente cuando ejecuta un pasaje con expresión cantábile o legato (Nattiez. incluyendo pioneros como Toshiro Mayuzumi. de acuerdo con músicos de gran reputación. esto ocurre cuando contiene textos literarios (ej. Por ejemplo. cuando decimos que un sonido es extensión de otro. otros autores han discutido estrategias para la composición de música visual. Afortunadamente. El texto mismo de Chion cubre extensamente este tema. oratorios. muchas de estas estrategias vienen de la cinematografía. es posible que otro oyente infiera una relación funcional distinta o que no encuentre relación entre los sonidos fuera de su organización temporal consecutiva10. requiere un proceso de abstracción por parte de algún agente humano. Es más. Garro (2005). Naturalmente.tales como obras instrumentales sin sentido programático . Hans Zimmer. 1990: 43-44). si osamos extender este argumento hasta el límite..) hasta el día de hoy (ej. canciones. imaginemos una escena en la que . Aún en el caso de las expresiones musicales más “puras” .

ya que con los sonidos iniciales. sino que lo construye. etc. Al otro extremo encontramos las interacciones externas a nuestros cuerpos. Por eso. De igual manera. varias investigaciones han indicado que el proceso de establecer sentido en la música está vinculado fuertemente con los procesos que nos guían cuando damos sentido a nuestro entorno en el curso de nuestras experiencias cotidianas. Mientras la obra sigue desarrollándose. La participación en muchos de estos eventos incluye interacciones a nivel social. las relaciones entre oyentes e intérpretes y entre oyentes mismos. 2010: 46). y la ilusión de estar presente en su desarrollo proveen otro nivel de interacción entre el oyente y la música. Por eso podemos suponer correctamente que. sus procedimientos creativos. este es un proceso de interacción entre el último y la obra. que es intencionalmente más creativa pues el oyente imagina’21 (Kim. el proceso de creación de la forma simbólica sucede a nivel poiético17 por medio del ‘vínculo entre las intenciones del compositor. las observaciones de la mayoría de los oyentes familiarizados con un género musical serán similares mientras el creador mantenga referencia al contrato comunicativo12. Para poder explicar el estatus de la estésis musical mencionaremos nuevamente a Nattiez (1990: 8). … no “recibimos” el significado de un “mensaje” … sino que construimos significado. En realidad.: 12) Recientemente. no debemos olvidar que el punto de observación cambia radicalmente con el contexto cultural del oyente (aún en casos en que éste esté familiarizado con el género13). es decir. el oyente forma un concepto de la organización musical. La indispensabilidad del observador y su función como establecedor de relaciones entre los materiales musicales denotan una actitud muy activa por parte del oyente. sino por el placer de este proceso.musical comparten el mismo contexto cultural y participan del mismo contrato comunicativo11. 2010). … esta diferencia hace de la audición musical una tarea distinta. Esto es especialmente cierto en el caso de la música electroacústica. ‘La razón por la cual el significado de ciertas cosas nos da tanta riqueza es que tantas partes de nuestra experiencia corporal están conectadas neuronalmente e interactúan continuamente’22 (Johnson. Pero la forma simbólica materializada en la obra musical es solo el rastro19 del proceso poiético. En otras palabras. no para buscar la verdad o sobrevivir.: 90). en general. las componentes que entran en la materialización de la obra’18 (ibíd. Y esto corresponde precisamente al proceso semiológico de estésis14. [los oyentes] asignan uno o muchos significados a esta forma. su ritual25. 2010: 64). el concepto inicial puede ser reforzado o contradicho. pues la música es un hecho social total23cuya definición varía de acuerdo con cada era y cultura e incluye la etiqueta de la interpretación musical24. sus esquemas mentales. citado en Kendall. quien afirma que la música es una forma simbólica15 con la capacidad de ‘dar lugar a una red compleja e infinita de interpretantes’16. Interacción Entre Ejecutantes La colaboración mutua de los ejecutantes durante la interpretación es sin duda el aspecto . y el oyente va modificándolo de manera correspondiente. en cuyo caso las inferencias pueden ser radicalmente distintas. desde el punto de vista cognitivo. 18 | en el limite La descripción anterior de la interacción entre el oyente y la obra ilustra el proceso de construcción de estos interpretantes por medio del cual el oyente atribuye significado musical a los signos sonoros. Es por eso que el oyente solo puede inferir su significado por medio del proceso estésico: ‘cuando son confrontados con una forma simbólica. La diferencia entre estos dos procesos es que ‘el oyente electroacústico se ocupa de la música. y el resultado de esta colección de estrategias. el oyente no absorbe o recibe pasivamente un significado fijo de la obra. en el curso de un proceso activo de percepción’ 20 (ibíd. Norman (1994) mantiene que el compositor se convierte en cuentista que provee una interpretación personal de la realidad que sumerge al oyente: la identificación con la trama y el mundo sonoro de la “obra-cuento”. En el caso específico del uso de sonidos del mundo físico. consecuentemente. Por otro lado. Un aspecto interesante de estas interacciones es que se reflejan físicamente en nuestro aparato neurológico. interactuamos con la música de manera similar a nuestra interacción con el mundo físico que nos rodea. que a menudo incluye sonidos que relacionamos con nuestro entorno (Kendall.

la música es identificada como articulación del tiempo realizada por medio de sus materiales. Desde el punto de vista estético. Por otro lado. fue posible implementar técnicas que analicen directamente los atributos sonoros. mientras la interacción entre músicos humanos ha sido cultivada en práctica a través de la historia. Cuando MAX fue expandido por medio de MSP para incluir audio. Por otro lado. sea cual fuera el nivel de interacción técnico. La diferencia entre seres humanos que interpretan música usando medios puramente acústicos y la introducción de ejecutantes electrónicos. a pesar de sus limitaciones28. No obstante. el ejecutante humano lleva toda la responsabilidad en sus hombros. Es por eso que. como la máquina no escucha ni reacciona. también hay estados intermedios entre estos dos extremos y quizá La Interfase Entre Ejecutantes Como mencioné anteriormente.como en el caso del director . y éstos resultan exclusivamente de los procesos musicales. La sofisticación interactiva con el MIDI tomó ímpetu después de la aparición de aplicaciones tales como MAX29. sea más realista considerar un continuo de posibilidades entre ellos. Por supuesto. La aparición de la norma MIDI en los años 80 posibilitó el desarrollo de sistemas interactivos. el oído cumple una función doble. de orquesta y coro. tales como los cambios en el espectro. Este mecanismo es innato en la musicalidad humana y puede ser desarrollado por medio de la educación y práctica. no importa quién o qué produzca el sonido. se encuentra en la ampliación de la paleta sonora26 que introduce problemas de consonancia y disonancia tímbricos. “escuchando” a los otros intérpretes y no solo reaccionando a lo que aquellos producen. se introdujeron soluciones que fueron también humanas – y por eso también basadas en las mismas habilidades y convenciones . en la situación ideal de una tecnología con facultades casi humanas. no solo captando la información musical que rodea al ejecutante para poder ajustar sus acciones futuras sino también controlando el gesto matizado de estas acciones. El computador “escucha” mensajes binarios y por eso toda información musical debe ser traducida a este formato. MIDI solo permite el uso de instrumentos que producen información binaria de acuerdo con su protocolo: aunque es posible convertir el sonido de instrumentos acústicos a MIDI30. Es más. 1998). pues como dijimos anteriormente. la interacción con la máquina requiere planificación tecnológica y ergonómica que se puede resumir en dos aspectos principales: la actividad o pasividad de la máquina y la interfase entre ejecutantes. estamos interesados en la interacción del material sonoro (y/o de medios adicionales). Menezes (1997. existe interacción: la diferencia reside en la responsabilidad relativa de cada intérprete en el momento de la realización musical. En el caso pasivo la interacción sólo sucede a nivel sonoro de acuerdo con las instrucciones del compositor y. la responsabilidad es compartida de manera equitativa entre los ejecutantes. este proceso sufre de las limitaciones del protocolo que obligan a simplificar la información musical tan rica producida por los ejecutantes. y requiere estrategias especiales tales como las que discuten Emmerson (1994. la función de la máquina varía desde una pasividad total – por ejemplo en el caso de música para instrumentos y medio fijo – a la actividad total. sino también haciéndolo de manera matizada.más obvio de la interacción musical. tomando la iniciativa e instigando la dirección musical. la interacción refinada entre intérpretes humanos es el resultado de siglos de experiencia musical basada en la habilidad sofisticada del oído y la convención cultural. del cual surge la idea de la interacción entre el ser humano y la máquina. lo importante es el contenido sonoro y su organización. En ese sentido. en que ésta simula el comportamiento humano. al final de cuentas. Cuando la complejidad y el tamaño del grupo de ejecutantes lo hizo necesario. Esto permite en el limite | 19 La Actividad o Pasividad de la Máquina Desde un punto de vista técnico. 2002) y Frengel (2010)27. Por supuesto. y la detección de ataques y ritmo31. Pero en cualquier caso. para que la máquina pueda interactuar es necesario que pueda “escuchar” e idealmente producir sonidos de sofisticación y matiz comparables con aquellos producidos por ejecutantes humanos.

la Obra y su Época Hasta ahora hemos dicho relativamente poco del creador musical. usado por los seres humanos para informar o transformar su entorno inmediato (Cadoz. definida por Gadd y Fels (2002) como atributo del mapeo que indica la distancia psicofisiológica entre la intención de producir un sonido particular y su realización por medio de alguna acción. Para obtener un reenganche convincente entre el gesto y la intención musical es esencial que el mapeo sea intuitivo (Choi et al. 2005. explorando las propiedades intrínsecas de nuestro mapa cognitivo (Levitin et al 2002). 1999. Pero este beneficio trae consigo el peligro de perder la “lógica causal” entre las acciones del ejecutante (controlador de sonido) y lo que el oyente escucha (el sonido producido por el computador). Naturalmente. La descripción de estas estrategias de interacción va más allá del alcance de este artículo. esquemas mentales. 1995. y estrategias del compositor son parte del bagaje cultural e histórico que lleva a cuestas y estos están en constante estado de flujo35. Dannenberg (1984. 2001). 1989). Mulder. 1996. 2002. La afinidad entre gestos físicos y su mapeo está encapsulada en lo que podemos llamar metáfora (Sapir. 1984. 1996). 1994. puede ser el instrumento mismo manipulado en tiempo-real por el ejecutante humano a través de una interfase digital. y esto depende del tipo de “inteligencia” otorgada a la máquina por los diseñadores de aplicaciones. el acto de creación musical no se lleva a cabo en el vacío sino dentro del contexto de su época. como por ejemplo Chadabe (1989). 1997. 1990. Por eso debemos considerar el dominio del gesto musical y sus implicaciones. resumiré sus conceptos principales a continuación. Esto es posible gracias al desenganche entre el control del sonido y la producción sonora. que están dedicados a la interactividad. por medio de la cual las interfases digitales pueden emular gestos conocidos: estos gestos pueden originarse tanto en los paradigmas de instrumentos acústicos33 como en experiencias cotidianas34. Mientras que una discusión detallada está más allá del alcance de este artículo32. El gesto musical tiene una función doble: es tanto símbolo del sonido como objeto mismo de la composición (ibíd. 1988). Winkler (1998). Impett (2000. La metáfora facilita la transparencia. La transparencia posibilita el establecimiento de vínculos entre el gesto y su sonido correspondiente por medio de la referencia a un “saber común” aceptado como parte de nuestra cultura (ibíd. Mulder et al. Rowe (1992. y los volúmenes 5(1) y 14(2) de Organised Sound. Polansky (1994). Lo interesante es que la asociación de gestos espontáneos y el mapeo cognitivo son componentes esenciales de este “saber común”. es decir. Wessel et al. Por supuesto.). 2005). Este fenómeno afecta negativamente la expresión musical pues los gestos del ejecutante pierden su relación con los resultados sonoros (Cadoz et al. Roads. Por el otro. Pero la poiesis se manifiesta también a otro nivel. En realidad.la detección de aspectos más delicados de la ejecución. Cuando ocurre el desenganche entre control y producción de sonido en las interfases digitales. 20 | en el limite 1988.). Goto. Gesto es todo comportamiento físico multi-sensorial. limitándonos a describir su rol en la organización e interacción de los material musicales. 2000). Por un lado. 2003). procedimientos creativos. el gesto puede incorporar actos expresivos cotidianos (no solo tradicionalmente “musicales”) pues la asociación entre gestos espontáneos (musicales y no musicales) y sonidos se fija instintivamente en nuestro subconsciente desde que nacemos (Jensenius et al. la correspondencia entre los gestos. 1993). los parámetros de control y los sonidos producidos (Levitin et al. . este rol es una manifestación muy importante de la dimensión poiética en la creación musical. pero hay ya considerable literatura que considera este tema además de los artículos de esta publicación. el computador puede reproducir fácilmente sonido preparado de antemano en el estudio que incluya toda la sofisticación y matiz necesarios. la lógica causal entre el gesto musical y sus consecuencias es establecida por medio del mapeo. 2002). Interacción Entre el Compositor. En otras palabras. fuera de la transmisión vocal. pues las intenciones. Momeni y Wessel. no es suficiente que la tecnología pueda “escuchar”: también debe saber qué hacer y cómo hacerlo. La producción del sonido tiene dos extremos dentro de los cuales encontramos una gama de casos intermedios.

la ruta que tomó la tradición musical de África se volvió eventualmente invisible y perdió su presencia en el Caribe. Si esto último es cierto. El eje temporal representa el intervalo histórico de cada tradición musical con respecto al presente y el espacial su distancia cultural.. estando influenciados por su presencia durante el proceso poiético. Interacción Entre Contextos Culturales En la sección anterior discutimos interacciones que dependen del tiempo cultural. También. Attali sostiene que la música precede estas condiciones y por eso puede indicar condiciones futuras. desde un punto de vista práctico. El orden existente estaba completo antes del arribo de esa obra. el tango y el jazz. La permeabilidad e influencia mutua entre culturas ha existido siempre en el curso de la historia. y como resultado de una lejanía geográfica y de comunicaciones lentas. Basta pensar en ejemplos obvios. aunque sea de manera muy leve. Pero todos estos son ejemplos en los cuales los elementos de una cultura fueron adaptados a otra de forma relativamente gradual. De manera recíproca.. en comparación con la de hoy. nos valdremos de éstas ideas para considerar los resultados de la globalización y sus efectos culturales. La lejanía y la comunicación relativamente lenta y magra. sino que en la práctica. las culturas que donaron los elementos mantuvieron relativamente poco contacto con la cultura que los recibió. en el caso de la música afrocaribeña. el desarrollo de la música afrocaribeña. 1920: párrafo 4) Es por eso que el compositor y la obra interactúan con aquel orden cultural. las proporciones y los valores de cada obra con respecto a la totalidad son reajustados…36 (Eliot. Es más. Todos estos son parte de procesos de interacción entre espacios culturales. A continuación añadiremos el espacio cultural que define la tradición musical y que nos ayudará a conceptualizar cualitativamente las distancias entre distintas tradiciones. El origen representa la tradición principal articulada por la obra en el presente (figura 1). el flujo cultural proveniente del continente africano. en el limite | 21 . Subsecuentemente. las diversas tradiciones culturales mantienen su presencia de forma global. es así que las relaciones. entonces es posible concebir un proceso de interacción entre el contexto cultural de Eliot (y como consecuencia el compositor y la obra).T S Eliot resumió esta problemática con una lucidez ejemplar cuando afirmó que . que en casos extremos pueden variar de obra a obra en la producción creativa del mismo individuo. Los monumentos existentes forman entre ellos un orden ideal. el vals y la polka latinoamericanos. La diferencia esencial entre este caso y nuestra época es que no sólo los procesos de asimilación pueden suceder con rapidez. la sociedad y su economía. la incipiente tradición afrocaribeña y su curso de desarrollo fueron invisibles en África. para que el orden persista … su totalidad tiene que ser alterada. lo que sucede cuando una obra artística novedosa es creada. Habiendo considerado el tiempo y espacio culturales. tales como la inclusión de instrumentos de percusión otomanos en la orquesta sinfónica. en conjunción con la tecnología de muestreo y la movilidad geográfica de muchos músicos. Por ejemplo. gracias al vasto acceso a tradiciones musicales alrededor del globo. que se modifica con la introducción de la obra novedosa (la realmente novedosa) en su seno. y ésta se desarrolló por separado de la tradición oral de aquellos que se quedaron en África . la presencia de elementos africanos pertenece a la tradición oral que trajeron consigo los inmigrantes originales. pero también modificándolo a consecuencia del último. Mencionaremos brevemente otro tipo de interacción que resulta de la extensión que hace Attali (1985) de la proposición de Adorno (1958) en donde la música refleja las condiciones socioeconómicas de la época. nos hemos acostumbrado a la presencia de préstamos culturales en músicas contemporáneas de todo género (Gluck.sobre todo después que el tráfico de esclavos fue abolido y con éste. podemos imaginar un diagrama consistente de dos ejes en el cual es posible representar la posición de elementos culturales que interactúan dentro de una obra. 2008). nos permite concluir que. propiciando procesos de interacción37. es algo que les sucede simultáneamente a todas las obras que la precedieron.

Como ilustración de este diagrama examinaremos los procesos de interacción cultural en Mambo À la Braque. exuberante e hipnotizador. creando un ritmo irregular. de Javier Álvarez (1990). en los rituales. o en el caso de la música. La obra empieza con una muestra del sonido típico producido 22 | en el limite por la aguja de tocadiscos cuando ésta hace contacto inicial con el disco y termina con una de las interjecciones características de Pérez Prado. A partir de la obra. Además. Encontramos también resonancia internamente.Figura 1. Distancias históricas y culturales en Mambo À la Braque. Diagrama de posición de los elementos culturales que interactúan dentro de una obra. Tomando todos estos elementos en consideración podemos construir una tabla indicando sus distancias históricas y culturales de la música acusmática. descubrimos que sin interacción no sería posible concebir la organización del sonido que es la música. Esta última es una referencia directa al compositor del mambo mientras que el sonido inicial evoca la tecnología de los años de su apogeo. También pudimos observar que cuando la música emplea diversos medios. tales como el sonido y la imagen. la interacción se extiende a nuevos dominios. el discurso sonoro y la irregularidad rítmica son claramente característicos de la música acusmática en general y del lenguaje musical tan original de Álvarez. . La obra consiste del ensamblaje de muestras cortas extraídas de una grabación de Caballo Negro38. No obstante. como lo es el contrato audiovisual en cuyo proceso los medios adquieren valor añadido. Conclusión La discusión de la interacción musical desde un punto de vista holístico y panorámico nos ha permitido considerar sus manifestaciones más allá de las relaciones entre ejecutantes humanos y tecnológicos. Tabla 1. Además. como indica el compositor en el folleto del CD. las técnicas de recorte son similares a las de re-mezcla que ya efectuaban los disc jockeys (DJs) de los años 80 y 90. Mientras que es posible reconocer los colores musicales y gestos del mambo. el oyente. el mambo tiene sus orígenes en la amalgama del danzón europeo con tradiciones musicales africanas. es comparable al mecanismo por medio del cual da sentido a su entorno cotidiano. de Javier Álvarez. que es la tradición principal de la obra (tabla 1). etiquetas y relaciones que forman parte del hecho social total que es la música. como en el caso de otros géneros musicales del Caribe. pues es esa misma interacción de los materiales la que crea sus vínculos y le da sentido a su organización. tuvimos que admitir que la fenomenología interna de la obra sólo tiene sentido cuando ésta existe para el observador. Por último. la técnica usada para ensamblar los fragmentos musicales es reminiscente del cubismo en las artes visuales (por eso la referencia al artista Georges Braque en el título). que encarna el rastro de los procesos poiéticos. en la interacción neuronal del oyente y externamente. abarcando las tres dimensiones de la semiología. desde el punto cognitivo. Es así como abordamos la dimensión estésica para observar que el oyente es un participante activo que interactúa con la música de una manera que. aunque Álvarez no declara ningún vínculo con el hip-hop.

Y eso también es cierto de la tecnología: la diferencia es que las estrategias poiéticas y estésicas (o por lo menos los puntos de partida de éstas) son programadas por sus diseñadores humanos. el socio económico . Pero también tuvimos que admitir que en la era presente. reflejados en la manera como la obra se integra y a la vez modifica el contexto cultural – y. en el limite | 23 . La intención de seguir una trayectoria comprensiva a lo largo del eje semiológico nos ayudó a identificar interacciones musicales que a menudo yacen ocultas a pesar (o quizá como resultado) de su obviedad. La naturaleza de la interacción con la tecnología depende del grado de actividad o pasividad de ésta. amplificando la función del espacio cultural en un mundo simbiótico y pluralista. que navega en las dos dimensiones: estésis y poiesis. la globalización ha afectado estas relaciones. Las consideraciones poiéticas dirigieron nuestra atención a la interacción entre el creador musical y su época. el intérprete es observador y oyente. la esperanza del autor es que la discusión de este artículo sirva tanto como alerta a estas posibilidades y como mapa de lo ya descubierto. y por eso funciona a nivel estésico. él mismo aplica sus propios procedimientos creativos.En esta juntura embarcamos nuestros pasos hacia la poiesis y en el camino encontramos el estado intermedio del intérprete musical. de acuerdo con ciertos pensadores. Es muy posible que haya interacciones que se hayan escabullido por nuestra red y que futuras innovaciones creen nuevos modos de interacción. las dos últimas están relacionadas íntimamente con la sofisticación de las interfaces y la concepción del gesto musical. No obstante. Como constructor del mensaje codificado en las instrucciones musicales. de la sofisticación de la información que puede procesar y del refinamiento y matiz del sonido que puede producir.de la época. Mientras que la primera de estas cuestiones depende del grado de responsabilidad asignada a la tecnología. esquemas mentales y estrategias. Pero en el proceso de ejecución de la música. tomando parte en el proceso poiético.

Fischman R. Living electronic Music.uiuc. com: http:// www. L’Aquila. http://hzjournal. Sonic Ideas – Ideas Sónicas. 2011b).umich. Montréal. Between. Nueva edición: 1997. Fecha de acceso: 21/12/2010. Back to the Parlour. Within and Across Cultures.bartleby. Audio-Vision . 2005. Nueva edición 2003. Cadoz C. Computer Music Journal 8(3): 60–73. Capture. Digital Harmony of Sound and Light. ICMAPress (San Francisco. 1999. 1984. 2000. En Mathews M V y Pierce J R (eds. Gorbman. T W. Cadoz C y Ramstein C. Fecha de acceso: 8/9/2010. Accesible en forma electrónica: http://quod. ICMAPress (San Francisco. EEUU). 2008. Cadoz C. Fecha de acceso: 24/12/2010. Proceedings of the XIII Colloquim on Musical Informatics. A G y Blomster W V Philosophy of Modern Music. EEUU). C. Banff. 2010. The Music Machine. Eliot.nime. Representation and ”Composition” of the Instrumental Gesture.org/spip. Sept. Fischman R. 2001. 2007.lib. 1989. Frankfurt/Main: Edición Peters No. Fecha de acceso: 23/12/2010. Journal of New Music Research. A Glow on Pythagora’s Curtain.umich. Proceedings of the Electroacoustic Music Studies network conference.edu/cgi/t/text/ text-idx?c=icmc. Making the Computer Sing: The SqueezeVox. 2011a). Miranda E R. Minnesota: University of Minnesota Press (Minnesota. M. En Proceedings of the International Computer Music Conference. 1994. Emmerson S. Acoustic/electroacoustic: The relationship with instruments. Virtual Musical Instruments: Technological Aspects and Interactive Performance Issues. Centro Mexicano para la Música y las Artes Sonoras (CMMAS).idno=bbp2372. T. GB). ICMAPress (San Francisco. Philosophie der neuen Musik. 3(2). 2000. Interactive Composing: an overview. A Violin Controller for Real-Time Audio Synthesis. En Roads C (ed. Fischman R. essays on poetry and criticism. Goudeseune C. Bargar R. Organised Sound 5(1): 27-34. Alves B.Sound on Screen . Proceedings of the International Conference on New Interfaces for Musical Expression. Gadd A y Fels S. A Multidimensional Approach to Relationships between Live and Non-live Sound Sources in Mixed Works. EEUU). 1998.com/200/. Garro D. and Goudeseune C. Frengel. 1994. MIT Press (Cambridge. Massumi B.edu/camilleg/eviolin. 1958. Methune (London). Organised Sound. Instrumental gesture and musical composition.idno=bbp2372. Fecha de acceso: 21/12/2010. Artificial Life Models for Music 24 | en el limite . HZ Journal 6.). (2008). EEUU): 1–12.html. Italy. Faber and Faber (Londres). Galsgow. http://zx81. Impett J. 2005. 2005. Proceedings of the International Computer Music Conference . 4’33(Tacet) (1952).lib.1995. (próximo. 1988. Noise: The Political Economy of Music. Goto S. S. Goto S. IMED 9604. Choi I. Responsive input devices and sound synthesis by simulation of instrumental mechanisms: The Cordis system. ‘Mambo À la Braque’ (1990). En The Sacred Wood. Sonic Ideas – Ideas Sónicas.isl. 1985. Trad. 1999. En Bilotta E. 1989. Álvarez J. Del Tiempo al Espacio: Incorporación de medios visuales en la música. MIT Press (Cambridge. DIFFUSION i MéDIA. Sound in multimedia contexts. 1920. Fecha de acceso: 21/12/2010. Pantano P y Todd P M (eds. Centro Mexicano para la Música y las Artes Sonoras (CMMAS). Columbia University Press (Nueva York. Divine diversification or grey goo?. Proceedings of the 1995 International Computer Music Conference.ICMC-88. http://www. Computer Music Journal 29(4):45–54. Cologne. An On-Line Algorithm for Real-Time Accompaniment. En ÉLECTRO CLIPS.1990. Gluck R. 1(1): 46-54. Ashgate Publishing (Londres. Organised Sound 13(2): 141-62. Cage J. Luciani A y Florens J. Dannenberg R. Dannenberg R. 1990. Attali J. Fecha de acceso: 21/12/2010. Frankfurt: Europäische Verlagstanlt. Trad. 2002: 143-8. Continuum . simulation and invention: a model for interactive music. Leonardo Music Journal 9: 115–120.edu/cgi/t/ text/ text-idx?c=icmc. Accesible en forma electrónica: http://quod. Contemporary Music Review 10(2): 95-101 Emmerson S.*. Trad. Situating the “invention” in interactive music. ICMAPress (San Francisco. Emmerson S.emsnetwork. A Manifold interface for a high dimensional control space. Proceedings of the 1990 International Computer Music Conference. Coulter J. A Composer’s Perspective On Electroacoustic Music with Video. Cook P y Leider C. 2010. Mitchell. Current Directions in Computer Music Research. Chadabe J. ‘Live’ versus ‘real-time’.php?article169. 2005.). Artículos Selectos: 1er Foro Latinoamericano de Música de Computadora (FLAMUC).org/n6/goto. Tradition and the Individual Talent. 15(2): 26-34.pdf. (próximo.Bibliografía Adorno. Publicado en forma electrónica por Bartleby. 2002. 1990. EEUU): 68-72. EEUU). EEUU): 385–392. Real-time scheduling and computer accompaniment. http://www. empreintes DIGITALes. Interaction. Organised Sound 15(2): 96-106. Electroacoustic Music with Moving Images: the art of media pairing. 27(1-2): 146:64.*. 2000. 1984. MetaMuse: Metaphors for Expressive Instruments. International Publishing Group (Nueva York. Chion M.html.). 1995.org/2002/proceedings/paper/gadd. EEUU): 53–56. 6777. EEUU). The Aesthetics and Technological Aspects of Virtual Musical Instruments: The Case of the Super-Polm MIDI Violin. 1960. Impett J.

Organised Sound 13(1): 41–50. Trad.1998. 2003. Computer Music Journal 18(3): 44–52.lib. To Paint on Water: The Audiovisual Duet of Complementarity. Jensenius A R.pdf. Polansky L. Shave. Fecha de acceso: 21/12/2010.univr. 2010.unical.idno=bbp2372. En Proceedings of the 1998 International Computer Music Conference. RCA Victor 23-5301. Wessel D.ece. http://www. Organised Sound 7(3): 305-11. The Computer Music Tutorial. T. Retrospective. MBS 092390. 1997. 1996. Rowe R. Levitin D J.edu/cgi/t/text/ text-idx?c=icmc. Computer Music Journal. 2000. The Dysfunctions of MIDI.pdf.idno=bbp2372. New Princeton University Press (New Jersey. Whitney J.ca/musictech/nime/onlineproceedings/ Papers/NIME03_Momeni. Pérez Prado D. Control parameters for musical instruments: a foundation for new mappings of gesture to sound. Proceedings of Kansei – The Technology of Emotion. Kim S J. 2002. Feedback and Musical Function. Ann Arbor. Towards a Semiology of Music. USA): 282–285. 10(3): 103-9. Interactive Digital Audio Environments: Gesture as a Musical Parameter. Characterizing and Controlling Musical Material Intuitively with Geometric Models.umich.*. Godoy R y Wanderley M M. Proceedings of the International Conference on New Interfaces for Musical Expression. en el limite | 25 .edu/cgi/t/text/ text-idx?c=icmc. Accesible en forma electrónica: http://galileo. Composing Interactive Music: Techniques and Ideas Using Max.edu/cgi/t/text/ text-idx?c=icmc.pdf.pdf. 1993. MIT Press (Cambridge. Organised Sound 7(2): 171–189. music. Fecha de acceso: 21/12/2010.mcgill. Apel T y Zicarelli D D. Mulder A G E. Caballo Negro. Minas Gerais. Fels S y Mase K.2005. Cosenza: Bios: 108-119. http://profs. For a Morphology of Interaction.1996. Accesible en forma electrónica: http://quod.Applications. 2005. Rowe R.lib. EEUU): 308–311. AIMI International Workshop. 2002: 171-3. Computer Music Journal 12(1): 19-28. 2008.xspasm. Barcelona. 18(2): 59-77. EEUU). 2010. Ungvary T y Kieslinger M. ICMAPress (San Francisco. Music and Discourse. Meaning in Electroacoustic Music and the Everyday Mind. 1990. http://hct. Fecha de acceso: 21/12/2010. 243-250. Proceedings of the First Brazilian Symposium on Computer Music: Caxambu.lib. EEUU). Proceedings of the 1996 International Computer Music Conference. Mulder A. 1998. Abbate C. RTR 4131. Proceedings of the 2005 International Computer Music Conference. 1996. Brazil. Italy. 1996. Norman K. Real-time audio analysis tools for Pd and MSP. 1997. Vertegaal R.*. ICMAPress (San Francisco): 109-12. Moore F R. To Be and Not To Be – Aspects of the Interaction between Instrumental and Electronic Compositional Methods. Contemporary Music Review. Accesible en forma electrónica: http://www. McGill. Accesible en forma electrónica: http://quod. Fecha de acceso: 24/12/2010. Fecha de acceso: 21/12/2010. Wright D y Schott D. MIT Press (Cambridge. http://www. 1994. Proceedings of the International Conference on New Interfaces for Musical Expression. Menezes F. McAdams S y Adams R L.idno=bbp2372.nime. Organised Sound 15(1): 63-74. Leonardo Music Journal 6: 33-40. Momeni A y Wessel D. 1988. Leonardo Music Journal 7: 3-10. 16(1): 42-63.pdf. Nattiez J J. His 27 finest 1949 – 1956. 2002. Computer Music Journal. Virtual Musical Instruments: Accessing the Sound Synthesis Universe as a Performer. Accesible en forma electrónica: http://quod. Fecha de acceso: 21/12/2010. Towards a Musician’s Cockpit: Transducer.it/~dafx/Final-Papers/pdf/Sapir. 1994. 2002. Menezes F. MIT Press (Cambridge. Getting a GRIP on alternate controllers: Addressing the variability of gestural expression in musical instrument design. ICMAPress (San Francisco. Sapir S. 2003: 54-62.ubc. 1994.org/2002/proceedings/ paper/wessel. EEUU).ca/publications/pdf/ mulder-fels-mase-1997.pdf.*. Fecha de Acceso: 21/12/2010. Developing Tools for Studying Musical Gestures within the Max/ MSP/Jitter Environment.com/x/sfu/vmi/ BSCM1. Nueva edición (2008) en Perez Prado y su orquesta . 1994. Mulder A. Roads C. Communicative contract analysis: an approach to popular music analysis. Imaginal Listening: a quaternary framework for listening to electroacoustic music and phenomena of sound-images. Proceedings COST-G6 Conference on Digital Audio Effects (DAFx’00): 25–30. Fecha de acceso: 24/12/2010. 1998. Puckette M S. Interactive Music Systems: Machine Listening and Composing.umich. Winkler T. Live Interactive Music in HMSL. Telling Tales. Organised Sound 15(1): 43-53. EEUU). Genova. Empty-handed Gesture Analysis in Max/FTS. Kendall G S. San Francisco. Machine Listening and Composing with Cypher.El Rey Del Mambo. 1992. Intimate Musical Control of Computers with a Variety of Controllers and Gesture Mapping Metaphors. Fecha de acceso: 21/12/2010.it/esg/Music/ workshop/articoli/impett. umich.cincom. 1951. sci.

.la obra aún funciona como alusión al sonido mismo a pesar de su ausencia. 10 Por ejemplo por medio del convertidor de altura (pitch to MIDI converter).. en este caso.the link among the composer’s intentions. salsa. Naturalmente. one more intentionally creative in which the listener imagines.edu/~tristan/.com/. 29 9 Trace. 3 a sonorous fact of any kind is recognized as music when we make a distinction between music and nonmusic. lending each other their respective properties by contamination and projection. asociándola con otras categorías tales como “ritos”. Quizá esto explique (por lo menos en parte) las quejas de que cierto género de música es cacofonía cuando vienen de alguien que lo escucha por primera vez. in the course of an active perceptual process. chamánicos.yin. analyzer~. 31 26 | en el limite . his mental schemas. es posible usar la contradicción de estas reglas como referencia: por ejemplo en el caso ya mencionado de Cage.. 12 Total social fact Por ejemplo la etiqueta del silencio de los oyentes en la sala de conciertos clásicos.to give rise to a complex and infinite web of interpretants. 1990-2010. 20 The electroacoustic listener is engaged with the music. 22 23 Nattiez (1990: 43) mantiene que el concepto de la música incluye al sonido como requisito mínimo...ircam. Ver también la nota 3.mit.html.ucsd. Fecha de acceso: 21/12/2010. Ver por ejemplo el excelente artículo de Moore (1988) sobre las limitaciones de MIDI. Symbolic form. y gbr. los oyentes no familiarizados con el género no comparten el mismo punto de observación. 24 Interpretante es el significado que le atribuimos a un signo. 30 When confronted by a symbolic form. that is. they unconsciously coalesce in abiding by a set of rules. 1960) . 4 5 Por ejemplo.. … this difference makes of listening a different task. his creative procedures.. desarrollado en IRCAM (http:// ftm. a un sonido. 1998). 26 When two parties enter into communication. etc. consequently.media. 1 No obstante. 15 Hay una diferencia adicional que se manifiesta en la presencia humana en comparación con la tecnología descarnada. the components that go into the work’s material embodiment. Fecha de acceso: 24/12/2010) .fr/index. partitura: Cage..php/Gabor_Modules. 18 19 Cycling ’74. and the result of this collection of strategies. MAX/MSP/Jitter. Added value. 2 Mantener referencia al contrato comunicativo no quiere decir obedecer las reglas al pie de la letra. 28 Audiovisual contract.. que en 4’33” hace uso del silencio aparente en la sala de conciertos para llamar la atención de los oyentes a los sonidos del entorno. http://cycling74. el sonido de un avión a chorro en una obra electroacústica puede tener significados distintos para oyentes que viven en zonas de conflicto bélico y para aquellos que viven en zonas pacíficas.. but rather construct meaning. Por ejemplo en el caso del ejecutante que interpreta la parte acústica y la máquina inerte cuyo sonido emana de los altoparlantes. 6 . que es distinta de la participación activa de los oyentes que también bailan y se unen en coro a los intérpretes en ciertos conciertos de música popular.. 7 8 Poietic. 21 Por ejemplo los objetos fiddle~ y bonk~ de Miller Puckette (http://crca. . 13 14 Por ejemplo si es parte de eventos deportivos. “experiencias chamánicas”. de modo que en casos extremos de silencio – como en 4’33” de John Cage (compuesta en 1952.edu/~tapel/software. también desde un punto de vista práctico. debemos recordar que.Referencias Eso no quiere decir necesariamente que no cultiven lo que en nuestra concepción llamaríamos “música”. 2008). al extremo de la contradicción encontramos el proceso deformación de un contrato comunicativo nuevo: por ejemplo en la ruptura que dio existencia a la música atonal. etc. religiosos. 16 17 El lector podrá encontrar un enfoque más amplio y comprensivo de la electrónica ‘en vivo’ en Emerson (2007). Estos dos casos se diferencian de la audición de música privada por medio de audífonos o altoparlantes. especialmente en la música occidental. sino que no la identifican con este concepto. 27 . de Tristan Jehar (http://web. that is. Descripción en Puckette et al. Fecha de acceso: 21/12/2010). 11 The reason that the meaning of certain things can be so rich for us is that so many parts of our bodily experience are neurally connected and continually interact. not out of a search for truth or survival. Communicative contract (Shave. Eso es ciertamente posible cuando el observador no tiene familiaridad con el contexto musical específico en el que los sonidos son organizados y por eso no puede establecer relaciones funcionales entre estos. but for the pleasure of the process. [the listeners] assign one or many meaning to the form. 25 Esthesis.influence each other . . Ciertamente. we do not “receive” a “message’s” meaning . Fecha de acceso: 21/12/2010. when we associate interpretants conveyed by the concept “music” or “the musical” with that sonorous. etc. militares.. pitch~ y beat~.

34 La afirmación que el bagaje cultural está en estado de flujo no implica que haya un proceso de desarrollo o progreso o que el proceso del flujo tenga necesariamente dirección alguna. The existing order is complete before the new work arrives. 2001). 35 …what happens when a new work of art is created is something that happens simultaneously to all the works of art which preceded it.especialmente en la música popular . en el caso de eviolin (Goudeseune et al. 2002). 2011a). basado en la concertina. for order to persist … the whole existing order must be. en el caso de la metáfora de lluvia MetaMuse (Gadd and Fels.He discutido este tema detalladamente en otro artículo (Fischman.en otro artículo (Fischman. and so the relations. 32 Por ejemplo. basado en el violín. 2008). values of each work of art toward the whole are readjusted … 36 He discutido de manera más detallada los procesos de globalización . 37 38 Mambo del compositor Dámaso Pérez Prado (1951). en el limite | 27 . proportions. if ever so slightly. 2000). y SqueezeVox (Cook y Leider. altered. which is modified by the introduction of the new (the really new) work of art among them. 33 Por ejemplo. The existing monuments form an ideal order among themselves.

la pluralidad y la multiplicidad de perspectivas a las que da lugar la música entendida como fenómeno simbólico. la improvisación o las nuevas tecnologías pueden ser por sí mismas dimensiones sobre las cuáles es posible centrar la creación musical. en las que el puro gesto alude al sonido. (…)” “¿Que es un interprete? Para nosotros todavía. el autor sostiene que: ¨todo elemento perteneciente al hecho musical puede ser separado y tomado como variable estratégica de la producción musical. reducirla.com No hay duda que el disco y el magnetófono han contribuido. 1987) De la lectura de Molino es posible inferir que lo tímbrico.” (Molino. Introducción En su inagotable artículo de 1975 “Hecho musical y semiología de la música” (Molino. Entre la músicas silenciosas del grupo español Zaj. lo gestual. Departamento de Artes Dramáticas. se discute solamente la libertad que puede. el silencio. o en obras de Mauricio Kagel como Unguis incarnatus en las que lo sonoro está reducido a su mínima expresión. pronta a integrarse bajo las formas más diversas2. la interacción entre público e intérprete. entonces podemos plantear la pregunta: ¿para qué sirve. Tomemos un ejemplo de la revulsión salubre que produce esta distancia: después de haber mirado a los otros con ojos sorprendidos. en la corriente de la estética hanslickiana a reducir nuestra concepción cultural de lo musical a su sola dimensión sonora1” (Nattiez. el intérprete esta ahí. por un lado. es la de la interpretación. (…) Si se compara la situación a aquellas en las cuales algo como el intérprete no existe. Una música particular aparece entonces como habiendo hecho una elección entre esas variables. porqué el intérprete?. Tiempo diferido en la Música electroacústica”. jugar con ella. o en algunas piezas de Dieter Schnabel como Redeübungen für Hand und Mund (1983) o Nostalgie: Solo für 1 Dirigentenen. De esta manera. Jean Molino. durante la segunda posguerra del siglo XX. al proceso de la construcción de músicas nuevas.sad@gmail. 1999) Una de las primeras consecuencias del perfeccionamiento de las tecnologías de fonofijación es la aparición de dos vertientes musicales que podríamos considerar recíprocamente opuestas y a la vez complementarias. que debe otorgarle el compositor. va de suyo. Se puede tematizar la función del intérprete. desarrollarla. y las músicas las más inesperadas. resulta indudable que la dimensión de la interacción musical. pierde su ¨naturalidad¨ y carácter autoevidente. desde el perfeccionamiento de las tecnologías de fonofijación. comparable a la que había provocado en el siglo XVII. En este artículo intentaremos profundizar en las consecuencias de este fenómeno continuando con la perspectiva iniciada en nuestro trabajo “Tiempo Real. Una de las dimensiones musicales cuya autonomización vislumbra el fundador del post estructuralismo en musicología. nos observamos a nosotros con una mirada de extrañeza. el conocimiento de las creencias de los diferentes pueblos de la tierra. según exacerben o excluyan los aspectos visuales de la música: nos referimos al teatro musical y a la música acusmática. El intérprete deviene una variable de la música. el uso de nuevos modos de representación musical. (Chion. 1975 ) 28 | en el limite . 1998). (Sad. Esta autonomización juega el rol de una verdadera experimentación musical: poco a poco son puestas en evidencia las diversas variables del hecho musical total. que estuvo basada enteramente en la co-presencia de público en concierto. el ruido.Escucha Acusmática e Interacción Musical Jorge Sad Levi Cátedra de Lenguaje Sonoro. de las cuales ha privilegiado un cierto número¨(Molino. 1975). Más allá de la extrañeza por la cultura propia y la consecuente puesta en cuestión de la función del intérprete aludida por Molino. para pasar a constituirse en una elección estética. quien junto a J-J Nattiez funda una corriente semiológica basada en el dinamismo. vislumbra la posibilidad de convertir a cada una de las dimensiones del “Hecho musical total” en el eje de una corriente estilística o género particular. IUNA jorge. 1975). a la que dedica éstos interesantes párrafos: “(…) se ha creado un efecto de distancia etnográfica.

Lo que la acusmática hace. 1985). el teatro¨ (Duvignaud. tan original como se acostumbra a creer. intentó excluir del universo de la escucha. 1993). designa el acto de escuchar sin ver las causas. por el otro. es expulsar lo teatral. El pensamiento de Schaeffer no es. con un emplazamiento corporal y un anclaje psíquico detectable. el sonido más que una entidad morfológica abstracta es una unidad energética cargada de una significación histórico/cultural. tomando distancia del entorno interactivo que les proponía la situación de concierto. Por el contrario. 1976 #4 p. casi simultáneamente a la aparición del Tratado de los Objetos Musicales de Pierre Schaeffer y a la Sociedad del Espectáculo. implicada en la repetición en bucle del objeto musical. en ¨De lo bello en la música¨. el efecto hipnótico que se espera inducir a fines de realizar la escucha reducida y sobre todo. totalmente independientes de cualquier localización escénica. A propósito de esto. La epogé schaefferiana (suspensión o puesta entre paréntesis de todo reenvío del sonido a otra cosa que no sea su propia forma y materia) con su fuerte relativización o subvaloración de las condiciones de fabricación. ilustrando la idea con dos ejemplos bastante claros: a) ¨tocar un cristal con un pesado caño de metal ppp o bien. la teatralidad del hecho musical. oyente. b) golpear fff un almohadón¨. el rechazo de las asociaciones emotivas implicadas en lo sonoro. justamente. La escucha reducida constituye y funda el nuevo solfeo basado en la tipomorfología de los objetos musicales4 y consecuentemente es el acto que funda la música concreta de manera más radical que el uso de nuevas tecnologías. sostenía que “lo bello musical no reside ni en los sentimientos del compositor ni del . Hanslick quien. del esfuerzo necesario para producirlo y de las diferentes técnicas que permiten llegar a un resultado determinado. Es interesante recordar que ¨theaomai” significa en griego ¨ver¨ y theatron designa “lo que se ve. acusmático. de Guy Débord. habla del auge del pensamiento acusmático. al menos en éste sentido. Músicas en la que el gesto corporal se independiza de lo sonoro. se inscriben claramente en la tradición formalista inaugurada por E. en la obra de compositores como Kagel. enfatizando la importancia de la dimensión del esfuerzo del instrumentista y su relación con el resultado sonoro. en tanto variable composicional.compuestas en estudio para ser escuchadas a través de altoparlantes3. a los sonidos literalmente desgarradores que escribió en la parte de soprano de su trío “themA¨. la negación de los aspectos irreversibles del tiempo.5) y que. Lachenmann o Schnabel. entre las diferentes acepciones del término. recordamos que Helmutt Lachenmann se refirió durante su curso en el Instituto Goethe de Buenos Aires (Lachenmann.con su cuestionamiento de la primacía del sentido visual-. eligieran. como de las causas que lo hicieron posible. La práctica de la escucha reducida implica la puesta entre paréntesis tanto de las asociaciones afectivas a las que da lugar el fenómeno sonoro. podemos identificar un rasgo en común: la disociación de los signos kinético/visuales de los signos sonoros que constituyó por largo tiempo la base de la interacción entre los músicos y su público. constituyen hechos inéditos que aún no terminan de ser asimilados completamente por el campo teórico. La reducción del sonido a su pura forma. En éstos casos extremos es clara y extremadamente significativa la no linealidad entre fenómeno kinético/visual y resultado sonoro. y en eso consiste su radicalidad. sino en la pura contemplación de la forma” (citado por Nattiez. músicas en la que el sonido se independiza del gesto corporal o directamente surge como consecuencia de procesamientos electrónicos sin ningún correlato físico. no sólo producir sino concebir su música específicamente en el estudio de grabación. Que a mediados de los años 60 artistas tan disímiles como Glenn Gould o The Beatles. de un movimiento mucho más amplio y profundo que el concerniente al género musical así denominado. en en el limite | 29 La escucha reducida y el drama de la producción sonora.

30 | en el limite . para Schaeffer esta misma operación de neutralización o puesta entre paréntesis de los reenvíos extrasonoros del material. cuyo sujeto puede estar constituido indiferentemente por oyentes o compositores. por la producción de signos kinético-visuales sincrónicos a la producción sonora. ya que fundan científicamente las observaciones de L. imitación tipo ¨air guitar¨) y que a la vez el público puede interpretar y posiblemente replicar en ciertos casos.vista. Cone (citado por Meyer) “una implicación física imaginaria subyace en la identificación exitosa del oyente con la persona musical. no sean comparados críticamente en las instituciones musicales latinoamericanas. ha dado lugar a numerosas reflexiones de investigadores que no se hallaban explícitamente refutando las afirmaciones teóricas de Pierre Schaeffer ni sus seguidores. Meyer . Por esta razón. canto a coro. “Sentarse en solemne silencio” en nuestro living es perder (especialmente) los signos visuales-gestuales presentes en una performance en vivo. que se encuentran tan lejos de los conflictos nacionales que aquejan a alemanes y franceses. indiferencia. 1967-1994) Según Edward T. Lo que resulta muy llamativo. Esto implica que el músico puede reconocer las respuestas del público en el curso de la performance (silencio atento e inmóvil. 1987) Y en otro párrafo afirma ¨por una suerte de experiencia in vitro. por el contrario. que circulan en tiempo real entre público e intérpretes. a experimentar y comprender la secuencia de relaciones musicales. J-J Nattiez afirma: “Es muy difícil separar lo musical de lo kinestésico y de lo visual. sus fuentes y su contexto. danza. Así. Cone y J-J Nattiez. Situación Acusmática e interacción público/ intérprete La interacción musical podría definirse. tacto. y oído. (Meyer. Estos signos permiten obtener información a los actores del hecho musical acerca de los efectos producidos en su contraparte. La matriz de la experiencia musical interactiva del concierto y su relación con la situación de la escucha acusmática. es realizada como consecuencia del acto voluntario y artificial que constituye la escucha reducida.tanto no pertinente. de Karlheinz Stockhausen (incluído en ¨Cuatro aspectos fundamentales de la escucha musical¨). abucheo. como las asociaciones ligadas al cencerro de la música de Mahler. 1979 #9) quedan neutralizados por efecto de la estructuración composicional. que han reflexionado profundamente sobre el fenómeno de la escucha. Sugiriendo apropiadas conductas motoras/ corporales. iniciadas por el investigador italiano Giacomo Rizzolatti en 1992. es que el rico pensamiento tanto de Lachenmann como de Schaeffer. La observación de los gestos físicos de los músicos puede facilitar las reacciones empáticas de los oyentes a los gestos simbólicos de la música”. Lachenmann explica en su análisis de un fragmento de Gruppen. celulares encendidos. ¿no tenemos el sentimiento que nos falta algo de la música cuando el disco nos priva de todas las dimensiones del concierto?” (Nattiez. la estimulación visual (que se genera) viendo una performance es importante. nos habrá mostrado que no se podía prescindir tan fácilmente de todas estas “impurezas” (Nattiez. 1967/1994) Resulta interesante evocar aquí las investigaciones en el campo de la neurología acerca de la función de las neuronas espejo. los movimientos y expresiones de los músicos. sino intentando comprender los fenómenos de escucha implicados en el uso de las tecnologías de grabación de la música clásica. olfato. 1987) Para el musicólogo norteamericano Leonard Meyer estos signos son fundamentales en la aprehensión del mensaje musical: “normalmente experimentamos y comprendemos el mundo con todos nuestros sentidos . todo aquellas asociaciones provenientes de lo que Lachenmann llamó con certeza ¨el aura¨ del sonido. que para el compositor contemporáneo evocan en ese contexto la metáfora de ¨las alturas a resguardo del tumulto mundano¨ (Lachenmann.” (Meyer. E. Sin hablar de la danza o de la ópera. tentativamente. el recorte que opera la grabación entre el sonido. gusto. Notemos que. estos signos ayudan a los oyentes a empatizar con.tanto como con nuestro cuerpo”. T.

2005).“Las neuronas espejo parecen funcionar como un puente entre un agente y otro. lo cuál es menos habitual de lo que estamos dispuestos a creer. al carácter efímero de la tecnología numérica avanzada”. En ese mismo movimiento The Beatles. D. D. como Glenn Gould quien en 1964 se retira de la actividad de conciertos para dedicarse a producir su música en estudio y a las emisiones radiales. es el peso específico otorgado a la comunicación musical. Los resultados mostraron que “un gran número de neuronas espejo.¨ (Rizzolatti. (Sperber. (Rizzolatti. 1975)7. interpretantes que a su vez son susceptibles de modificar las condiciones de producción del hecho sonoro mismo. Las neuronas espejo de un mono fueron grabadas mientras el mono observaba una acción ruidosa (por ej. Estos aspectos negativos van más allá de la calidad de la escucha y tienen que ver con la anulación de las diferencias entre en el limite | 31 Acusmática e interacción II: La otra campana (¿cortada?) La interacción en la música y otros dominios de la actividad humana parece siempre deseable en tanto evidencia de un acto de comunicación. el caso de la comunicación musical es un caso especial de convergencia entre las estrategias estésicas y poiéticas. que “el control gestual empírico y ciego corre el riesgo de no conducirnos a las regiones que se desean alcanzar” (…) y mas adelante: “ yo considero que el tiempo real ha jugado muy a menudo el rol de un espejismo. (Heyes. Lo que tal vez debamos poner en cuestión entonces. imitar (…) y comunicar usando gestos y el habla”. No se presentaron o fueron muchos más débiles las respuestas al ruido blanco o al sonido de otras acciones”. 1971). The Beatles no pueden tocar más en público porque no se pueden escuchar. Esto explicaría cabalmente la producción de signos kinéticos por quienes reciben o bien aprehenden el mensaje musical. llevando a veces a una regresión musical. Rizzolatti y Craighero realizaron experimentos en los que se demuestra que un mono es capaz de comprender la significación de una acción sin información visual acerca de ella. Dicho valor específico puede variar de un compositor a otro y un compositor puede variar en el tiempo su postura. frotando un pedazo de papel) y luego le fue presentado el mismo ruido sin ver la acción. justificando así el paso a la producción de estudio. con ´Revolver´. que respondieron a la observación de acciones ruidosas también respondieron a la presentación del sonido propio de la acción aislado. y ésta tal vez sea una de sus mayores contribuciones. la intención detrás de sus acciones.permite al observador entender las acciones de otros. Wilson. Uno se asombra de ver a compositores preocupados por el rigor formal abandonarse a un empirismo desbocado (…) El tiempo diferido puede ser encarado como lo contrario de una limitación: la génesis y el control del sonido escapan a la empresa del tiempo. y sus sentimientos. a las restricciones imperiosas del tiempo real. ya que además de producir juicios de gusto y de valor. a causa de los gritos de sus fans. quiénes formularon en 1986 el modelo ostensivo/ inferencial de la comunicación6 comparan “esta actividad conjunta (…) con la de una pareja de baile que se tiene que coordinar para que el resultado sea armónico”. ya que relativiza la primacía visual en la interacción. (Risset. en su período de mayor auge. Contrariamente. Como lo dice Jean Molino de manera radical: “lo poiético no tiene necesariamente vocación de comunicación”. 2005) caso de Jean Claude Risset. Para la semiología tripartita. leer mentes (…). Daniel Sperber y Deirdre Wilson. 1994 ). el compositor francés va a decir en 1993. (Molino. y esto resulta significativo para nuestro estudio. quien en 1971 deploraba junto a Boulez la música hecha sobre soporte a causa de “la fijeza de la realización que aprisiona la obra para siempre” (Risset. representando “mi acción” y “tu acción” del mismo modo. están rechazando los aspectos antiartísticos de la interacción musical. 1993) En otro contexto estilístico. Por otra parte. el público puede manifestarse a través de signos corporales. Además. como en el . se ha sugerido que las neuronas espejo son la clave para explicar muchos aspectos de la cognición social incluyendo la habilidad para comprender las acciones de otros (…). recordemos que. ya que de esto dependerá el valor que le otorguemos a la interacción. 2009)5 Para Rizzolatti ¨-el mecanismo en espejo. los cuales funcionan como interpretantes del fenómeno sonoro.

unos de los modelos principales de conducta en la cultura 32 | en el limite europea occidental (A. la interacción no puede ser reducida a la producción de interpretantes kinético-visuales. el truco fue revelado. parecen constituir otro valor musical inmanente. en el que se ve a alguien realizando la mímica de la canción. Cuenta sus historias en estrofas simples que permiten un ritmo narrativo concentrado y exige atención total de su audiencia. Lomax “Estructura de la canción y estructura social”. La célebre discusión televisiva entre el guitarrista Pappo y el DJ DjDero. los oyentes deben permanecer en silencio y físicamente pasivos. en términos sociológicos. Este recurso que funcionó excelentemente desde los inicios de los dibujos animados. de los himnos grabados en los actos escolares y en general de toda situación en la que de manera colectiva se escucha en situación acusmática. en muchas situaciones. El siguiente texto de Lomax ilumina con claridad la situación que deseamos describir: “El patrón familiar del canto en la balada británica o de Kentucky es. ya que las representaciones mentales y estrategias de recepción de los oyentes pueden ser lentas. mientras canta. En otros casos se producen sincrónicamente interpretantes kinéticos que no son los gestos o acciones de producción imprescindibles al fenómeno sonoro. parodiado de manera brillante por Diego Capussotto12. o tiene la vista fija. Esto ocurre también. Otro ejemplo interesante puede ser el remix de Englishman in New York de Sting. Para desgracia de los protagonistas. negando su derecho a usar la palabra “tocar”10 ilustra el concepto claramente. p. Cualquier distracción rompería el encanto generado por el baladista. la ausencia o la no sincronicidad entre gesto y sonido no obstaculiza que el público responda interactivamente al mensaje. puede generar la sensación de estafa9 o de insatisfacción. . Es interesante notar que las bengalas son signos producidos por el público para demostrar su aprobación y afecto hacia sus “bandas” preferidas. como en la comunicación espistolar y sin embargo ocurrir. realizado por el Dj. sus ojos están cerrados. estar sentado calladamente con sus manos pasivas en su regazo. Lo curioso es que el mismo productor del dúo quiso relanzar a los cantantes que efectivamente cantaban las canciones. para el cantante. de autoridad exclusiva. Por otra parte. poiético y estésico ha hecho arder literalmente el conocido boliche Cromañon8 con sus adeptos adentro.12).. Sin embargo. Podría inferirse del texto de Lomax que la ausencia de signos kinético visuales favorece una intensificación de la experiencia musical. silenciosas. es el caso del baile en las discotecas.. o esporádicas. en la que el primero recomendaba al segundo “que se consiga un trabajo digno”. haciendo como si efectivamente la fuente sonora y el músico estuvieran ahí. como en la célebre imagen publicitaria de la Rca Victor en donde se ve al simpático perrito dirigir sus orejas hacia el gramófono. que recibió al momento de escribir este trabajo más de un millón y medio de visitas en Youtube. PH Electro. más allá de los géneros musicales considerados. (. Cualquier movimiento de su parte interferiría en la narración. durante su canto. un juego muy habitual en los niños y en el público de rock. razón por la cuál se les quitó el premio Grammy que habían ganado. Por lo tanto. fue utilizado por el dúo Milli Vanilli. pero el intento (plasmado en el álbum Moment of Truth) cayó en el fracaso11. perdida por encima de las cabezas de sus oyentes. forzando la atribución a un emisor falso o virtual. similar al que ocurre en la escucha acusmática. y tan evidente que su sola mención parece redundante: que el músico no produzca la materia sonora a pesar de estar presente en el concierto. y que funcionan de manera equivalente. quienes efectivamente aportaban sus imágenes glamorosas a la música cantada por otros. invisibles. Su asociación con su audiencia es.) El cantante principal gobierna y domina a sus oyentes durante su ejecución. y comentarios elogiosos Sincronicidad e interacción musical La sincronicidad y el vínculo causal entre los gestos y acciones de producción sonora y el sonido.quienes están arriba y abajo del escenario: sostenemos firmemente que la “comunión” y la “identificación” entre ambos polos.

de la cual también el público puede prescindir. señalan. le realizó algunas básicas operaciones de edición y filtrado y el agregado de un pulso.que parecerían atribuir la bellísima y compleja canción a quien además de simular cantar13. que aparece recortada como objeto de reflexión cuando la situación acusmática excluye todo el potencial comunicativo de los mecanismos de ostensión. que pasamos a explicar: Glosa: los signos kinéticos enfatizan. gobierna los últimos 150 años de música occidental. Para Salvador Pons el mecanismo ostensivo/ inferencial “consiste en ir guiando el proceso inferencial del oyente. tanto del bailarín como del intérprete de consola. Conclusión La interacción musical. sounds like he’s trying to hard to emulate Sting. Montolío 1998: 36). Nattiez piensa éste período en tanto contienda simbólica entre la estética inmanentista. ya que confunden tema y versión de una manera reveladora. sino como y donde el hablante le indique (Pons. puesto que proporciona una evidencia directa de que el hablante está siendo máximamente relevante” (E. guiando la interpretación del mensaje de acuerdo con las intenciones del emisor. iniciada por Hanslick. subrayan y visibilizan u ocultan las intenciones o supuestas intenciones del productor del mensaje. cualquier imagen superpuesta a una pieza musical reducirá significativamente el proceso semiótico desencadenado por la primera. de modo que este no se vea obligado a derivar información a ciegas. como en la espacialización de una pieza acusmática el movimiento. atribuyendo. subrayan y enfatizan la comprensión de las distintas unidades sintácticas que conforman la idea musical. como ocurre con la voz en off sobre un paisaje en un documental. suscitando en el público la convicción de estar viendo una versión diferente a la original. michaelshamanking 2 weeks ago sting englishman ın new york this is nice but this is better Parecería que las causas inducidas por la gestualidad de PH electro pueden reemplazar las causas reales. puede ser una variable composicional que se puede integrar o excluir y. entendida como la supremacía en el limite | 33 Funciones y Clasificación de los Signos Kinético Visuales Los signos kinéticos/visuales cumplen funciones que exceden las acciones necesarias de producción sonora y facilitan la interacción con el público. La reducción de sentidos posibles del mensaje o desambiguación. la autoría de la canción a la persona que ven cantar: like it its much better zhan sting sings it LoraSternRacan 2 weeks ago 1:44 THE BEST MOMENT IN SONG! juramaxi 2 weeks ago i prefer the original. consideramos capital para la comprensión de este problema la descripción de los mecanismos ostensivo/inferenciales descriptos por la Teoría de la Relevancia de Sperber y Wilson. Por esta razón. hace que el espesor semántico de un mensaje musical complejo se reduzca. Tanto la danza. Articulación Sintáctica: tanto en la danza Reducción semántica: la significación musical es difícilmente aprehensible y difícilmente reductible a su traducción verbal. contrariamente a lo que a primera vista aparece. o como en general funciona la música en el cine. Articulación Sintáctica y Reducción Semántica. citado por (Rodríguez. . Transcribimos aquí algunos comentarios de la página de Youtube14 que son extremadamente significativos. como el video y otras expresiones audiovisuales pensadas como acompañamiento del mensaje musical. Las principales funciones de éstos podrían resumirse en: Glosa. realzan. por un mecanismo que no por primitivo es menos eficiente. 2007). balizan y amplían el mensaje sonoro. 2004) Para E. que opera cuando un sistema de símbolos se superpone a otro. Montolio “Un estímulo ostensivo es aquel que reclama la atención sobre sí mismo. De esta manera y como es ampliamente sabido. La integración o exclusión de este dominio de signos constituye una dicotomía que puede ser comprendida en el marco de la metáfora propuesta por Jean-Jacques Nattiez para describir la dialéctica histórica que según el semiólogo franco/canadiense.

Synthèse et materiau musical.. F. M. Madrid: Visor. y la consecuente negación del tiempo. 2001) Bibliografía Chion. 2005 Lachenmann.asp?REVart_ID=122&REVnum_ID=8 Schaeffer. 2001) Como lo dice el mismo autor mas adelante. Paris: Seuil. C. Sur les musiques pour ordinateur et l’interprétation. Musique en Jeu 3. G. Chicago: The University of Chicago Press. Mirror neuron: a neurological approach to empathy. como filosofía y como teología” (Molino.Ethnology. Song Structure and Social Structure .. Paris 1976 Heyes. tallersonoro. Universidad de Sevilla 2007 Sad. 2002 Duvignaud.) “aceptar lo mixto es reconocer que nada en el mundo es reductible a una estructura. (Molino. que aparece al mismo tiempo como matemática. 1967/1994 Molino.1016/ j. En Paidos Comunicación. Curso en el Goethe Institut. “la música es un mixto” (. Alberto Bernal http://www. Cuatro aspectos fundamentales de la escucha musical. J. una música práctica en la cuál. y su contrario Cronos. Le singe musicien. Madrid: Arco Libros. Lingüística en la red.brinkster. El Sonido. ciencia de la armonía. Le combat de Chronos et d’Orphée.2009. Neurobiology of Human Values. a un modelo único”. PLoS Biol 3(3): e79. P... Barcelona Buenos Aires México: Paidos. A. In Sul Ponticello (ed. Berlin Heidelberg: Springer-Verlag 2005 Rodríguez. Conceptos y Aplicaciones de la Teoría de la Relevancia.) ya que según Molino. doi:10. et al. 1985 Lachenmann.del conjunto de configuraciones inmanentes del texto musical por sobre los procesos poiéticos y estésicos. desde sus orígenes. Biobehav. Sperber D. C. D. 1966 Wilson. Jean Le théâtre Librairie Larousse. J. La relevancia. H. Music. Valencia. J Fait musical et sémiologie de la musique. situado en el tiempo irreversible en el que prima el intercambio entre los actores (público y músicos). L. J Musicologie Générale et Sémiologie.) Revista on-line de Estudios Musicales 2005. “el pensamiento griego distingue. 1993 Rizzolatti. Grasping the intentions of others with one’s own mirror neuron system. 1993 Pons. C. S. Molnar-Szakacs I. 2001 Nattiez.com/espaciosonoro/07/Articulo2. Traité des Objets Musicaux.net/sulponticello/H001ASSP/ articulo_dtlle. Buccino G. H. Les cahiers de l’Ircam 2 (la synthèse sonore). Where do mirror neurons come from? Neurosci. Inédito. 1971 Risset. vol I No 4 1962 Meyer. Gallese V. azziotta JC. gracias al nexo que constituye el ritmo. texto o evento. que implica una concepción de la música como fenómeno performático. http://quomusic12. la batalla entre éstas concepciones musicales opuestas y complementarias. Paris: Christian Bourgois Editeur. se unen la poesía la danza y el arte de los sonidos y una música teórica. Paris: Christian Bourgois Editeur. 1994 34 | en el limite .007 2009 Iacoboni M. representada por Orfeo. “remonta a las fuentes de la civilización occidental” (. Trad. J.11. Rev. 2004 Risset. C. Lo que se dice: operador ostensivo metalingüístico. B.neubiorev.1987 Nattiez.htm 1979 Lomax. Estructura o proceso. the arts and ideas: patterns and predictions to twentieth-century culture. 1998 Debord Guy La sociedad del espectáculo Editorial PreTextos. J. Tiempo diferido / tiempo real en la música electroacústica (o la continuación del Combate de Cronos y Orfeo por otros medios. J.Buenos Aires. Musique en Jeu n 17 1975 Molino.

including the ability to understand the actions of others (Rizzolatti et al.Referencias 1 Todas las traducciones son del autor. la descripción tipomorfológica se adecua mucho más a la escucha de sonidos electrónicos.youtube. 1999. 12 Y que para desdicha de los organizadores de concursos de música acusmática su definición no se reduce al género sino que incluye a casi toda la música de rock desde Revolver de Los Beatles en adelante. 2001). efectivamente el DJ canta.com/watch?v=2ZVKxZ8QUMY Conocida como Teoría de la Relevancia. Rizzolatti et al. 2001) and to communicate using gestures and speech (Rizzolatti and Arbib. 13 14 http://www. Reenviamos a los lectores interesados en éste punto a leer la lapidaria crítica formulada por Nattiez en Musicologie Genérale et Sémiologie de la Musique. 4 “Mirror neurons seem to bridge the gap between one agent and another. Las negritas son nuestras. por otra parte en su versión de la canción San Francisco el timbre vocal cambia absolutamente.. 1987 ) 7 Incendio ocurrido en el boliche Cromañón. que fue vivido como una estafa por la multitudinaria concurrencia de 40. a las nociones de código y comunicación de Umberto Eco.com/watch?v=ItQ16mq-DjA en el limite | 35 . En una pequeña encuesta realizada por medio de Facebook entre músicos y no músicos las opiniones se dividieron al 50%.000 personas que abucheó al grupo.org/wiki/Milli_Vanilli 2 En el programa Peter Capussotto y sus videos que se emitió en la Tv Pública Argentina. to ‘read minds’ (Gallese and Goldman.. El criterio que consideramos determinante finalmente. por lo cuál se demuestra claramente la efectividad de la performance. Rizzolatti and Craighero. 5 6 Debemos reconocer sin embargo que tuvimos dudas acerca de si. Therefore. (Nattiez. que de sonidos concretos. 3 Paradójicamente. 9 10 http://www. it has been suggested that mirror neurons are the key to explaining many aspects of social cognition. to represent ‘my action’ and ‘your action’ in the same way. to imitate (Iacoboni et al. 11 http://es. es que si PH Electro cantara de ésta manera no sería Dj sino cantante..youtube. 1998. 1998). 2004)”. en diciembre de 2004 en donde murieron casi 200 personas en un concierto del grupo “Callejeros” 8 El incidente protagonizado por Los nocheros el 17 de diciembre de 2003 en la ciudad de Córdoba es ilustrativo: en dicho concierto el cd que servía para simular la actuación en vivo se rayó y reveló el playback.wikipedia.

me he concentrado en las . En la etapa teórica. además. representa un “punto de contacto”. clasificación y categorización de las diferentes relaciones interactivas del gesto musical entre instrumentos y sonidos electrónicos. al principio. Mi investigación se divide en tres etapas: teórica. mientras que el mundo instrumental está basado en la nota y en los métodos tradicionales de asimilación mediante el reconocimiento de intervalos. una de las posibles conexiones entre estos dos mundos. como una herramienta de composición. Portugal. la búsqueda de nuevos conceptos de composición y alternativas en la música electroacústica compleja y en la música contemporánea en general. el mundo electroacústico está basado en objetos sonoros. armonías. unidades morfológicas y diferentes estrategias de escucha. por ejemplo mediante el reconocimiento de las unidades morfológicas y sus características especiales. sistematización. A lo largo de mi investigación he utilizado varios conceptos y perspectivas en conjunto. junto con la utilización flexible de varias estrategias de escucha y la “aplicación extrapolada” de puntos de vista de un área a la otra. De esta forma pude considerar la parte electroacústica desde un punto de vista instrumental. cada uno basado en unidades fundamentales y modos de oír diferentes. como por ejemplo el análisis auditivo o la lectura de partituras. Estas nuevas estrategias de organización representan hoy en día el principal interés en lo que respecta a las composiciones contemporáneas. es decir. el diálogo entre los instrumentos acústicos y los sonidos electroacústicos se convirtió en un 36 | en el limite área fundamental de creación explorada por muchos compositores. Portugal petra. que llevé a cabo como parte del proyecto doctoral realizado en la Universidad de Aveiro.bachrata@sapo. instrumentales y electroacústicas y suponen también posibles perspectivas para el análisis actual. La meta principal de este enfoque es reflejar la percepción de una obra musical en toda su complejidad e incluirla dentro del proceso de análisis. respecto de los procesos de percepción y la complejidad del acto de escuchar. un entendimiento más completo de una pieza electroacústica mixta a través de las diferentes formas de interacción musical entre los elementos instrumentales y electroacústicos. tanto como de la rítmica o de la tímbrica. Introducción Este trabajo da cuenta de algunos de los resultados de mi investigación sobre interacción musical entre instrumentos y sonidos electroacústicos. el gesto musical. INET-MD Instituto de Etnomusicologia Centro de Estudos em Música e Dança Universidade de Aveiro. melodías. por ejemplo mediante el reconocimiento de la organización de alturas. El objetivo principal es establecer un grupo de modelos teóricos de interacción que puedan aplicarse como método de análisis y servir. Petra Bachratá UNIMEM / Unidade de Investigação em Música e Musicologia. En la evolución de la música electroacústica. La música mixta le ofrece al compositor abundantes posibilidades estructurales y expresivas. Esto nos permite acceder a varios aspectos de una obra y desarrollar. con todas sus cualidades complejas y su potencial para estructurar música. En la música mixta. es recomendable contar con una perspectiva analítica multidimensional para abordar y explorar una pieza electroacústica mixta y para constituir las relaciones entre dos eventos sonoros que poseen diferentes características. Por lo tanto. pero también trae consigo algunos problemas específicos. y la parte instrumental desde la perspectiva de la música electroacústica. tales como el gesto y la textura. reveló la importancia de contar con otras estrategias a la hora de estructurar el material musical.Interacción gestual en la música para instrumentos y sonidos electroacústicos. ritmo y contrapuntos. así. analítica y composicional. al analista o al compositor está en la forma en la que combina estos dos mundos. Uno de los desafíos que le propone al oyente. Intentaré dar cuenta de algunos de los aspectos relacionados con la manera en la que el fenómeno del gesto musical puede entenderse en el contexto de la interacción musical. En el novedoso contexto del mundo moderno posterior a la década del 50. que conecta dos mundos diferentes cada uno basado en materiales de distinta naturaleza.pt 1. para lo cual daré ejemplos de análisis.

2 La última etapa (la composicional) se llevó a cabo simultáneamente con la etapa analítica. como la altura/ frecuencia. se llevó a cabo un análisis más profundo sobre las interacciones gestuales. Posteriormente se examinaron estas características tanto en simultaneidad como sucesivamente. la organización rítmico/temporal. el modelo de estructura tripartita (nivel gestáltico). desde pequeños elementos estructurales a grandes formas gestálticas. la expresión de algo (significado). la transferencia de algún tipo de energía (su potencial energético). las características del contrapunto. con objeto de darle consistencia teórica al trabajo y establecer un marco analítico actualizado para la investigación. me he concentrado en la investigación de literatura y bibliografía relacionada con el tema del análisis del gesto. teniendo en cuenta las diversas relaciones espaciales entre los gestos. dio lugar a la selección de las diferentes características y criterios que consideré más importantes para el análisis y que han sido estudiadas en la etapa analítica. que utilizaba sonidos grabados previamente en un medio determinado. desde solista a conjunto de cámara o gran orquesta para establecer un corpus coherente de trabajos a analizar. fenomenológica. la comparación entre diferentes técnicas de análisis (tradicional. instrumentales y electroacústicos. Cada categoría se subdivide en varias subcategorías y algunas sub-subcategorías.). hasta las técnicas más recientes.4 en el limite | 37 . que se concentró en los 5 niveles principales: las características musicales elementales. que se ha generalizado a la energía musical.obras más importantes para instrumentos y sonidos electrónicos. que sirva para el análisis de un gran número de obras musicales diversas y también para justificar decisiones analíticas adicionales que he tomado a lo largo del estudio. que posee potencial jerárquico y que está determinado por el movimiento de un punto a otro (movimiento). paramétrica. que utilizan componentes electrónicos en vivo o una combinación de ambos. Finalmente. Se han aplicado tanto modelos que surgieron de la investigación.1 El estudio y el conocimiento de los diferentes enfoques utilizados para abordar el tema de la interacción hizo posible establecer los principales atributos de la interacción y utilizarlos como criterio a lo largo de las diferentes etapas de mi trabajo. se ha aplicado una generalización de los modelos interactivos basados en el gesto a una pieza acusmática y a cuatro piezas instrumentales. La categorización final corresponde a estos cinco niveles. En total hay alrededor de 70 modelos diferentes de interacciones gestuales. Al mismo tiempo. gestáltica. como la dirección y energía (dirección en el campo de las alturas.3 Asimismo. con el objetivo de lograr una definición más general de gesto musical. así como algunos modelos nuevos inventados. bajo mi perspectiva composicional personal. Durante esta etapa. se logró establecer la siguiente definición de gesto musical: “elemento estructural sonoro. la estructura de frase y los diferentes tipos de gestos. ciertas características semánticas y espectromorfológicas. En segundo lugar. energía como una suma de intensidad. se llevó a cabo un análisis de naturaleza superficial que proporcionó información sobre la forma. en particular el de las acciones o influencias mutuas y recíprocas que dos objetos tienen entre sí y el del atributo físico como transferencia de energía. dadas sus características de movimiento durante la espacialización en la interpretación. la interacción y la música electroacústica. a tres composiciones mixtas. El periodo de análisis musical se realizó en dos etapas: Primero. musicólogos y otros teóricos han utilizado para abordar el tema de la gestualidad. El estudio abarcó también diferentes formaciones instrumentales. me dediqué al estudio de una amplia variedad de perspectivas y enfoques que diferentes compositores. el timbre y la dinámica/intensidad (nivel paramétrico). etc. Desde un punto de vista histórico. velocidad y densidad) y el contexto espacial. Como resultado de esta etapa. me he concentrado en el estudio de la evolución de la interacción entre el medio instrumental y el electroacústico desde el período de la tecnología analógica. y que puede portar emociones específicas o inducir estados psicológicos”. dirección como evolución temporal.

2. Contraste por disparidad de frecuencias: diferencia de altura/frecuencia La altura es una sensación subjetiva. Interacción gestual por similitud o fenómeno físico de la frecuencia”7. De acuerdo con el registro aproximado. en el cual la totalidad de los objetos sonoros son morfologías dinámicas . constituirá el punto de contacto para analizar o crear conexiones e interacciones entre gestos musicales.1.1. no pueden fraccionarse en elementos separados como era posible hacer con los objetos musicales basados en entramado (lattice-based musical objects). Sin embargo. Interacción por fluctuación de la amplitud de frecuencias: es una relación entre dos gestos que son inestables en altura. en la música electroacústica existe un continuo sónico. la desviación intencional de la atención hacia los aspectos de las articulaciones gestuales con sus diferentes propiedades ayudará a entender las conexiones y a revelar posibles modos de interacción entre gestos. a menudo. Fusión por similitud de frecuencias: las conexiones más cercanas entre gestos se crean por similitud en el registro. podemos distinguir entre fusión en un registro grave medio o agudo. timbre y dinámica) como dimensiones integradas del gesto. que en general puede definirse como “la cualidad particular de un sonido que fija su posición en la escala y que se determina en relación a lo que el oído juzga ser la frecuencia de onda fundamental del sonido”6. en otras palabras. Por supuesto. a través de su notación. La altura es la dimensión básica de los sonidos musicales que se perciben como agudos o graves. junto con su evolución y comparación. Categorización: enfoque de 5 niveles. Los gestos se pueden fundir en altura/estructura de altura en simultaneidad. duración/ ritmo. cada uno de los cuales estará basado en conceptos tan diferentes como son los de entramado y continuo. basada en la representación de altura y duración. pero pueden relacionarse aún cuando estén separados en el tiempo. el desarrollo de la notación tradicional. la naturaleza de las propiedades sonoras individuales. en mi opinión. valores de duración y tipos tímbricos. a menudo. podemos reconocer las siguientes relaciones gestuales: Fusión por combinación de alturas/ frecuencias idénticas: Tanto los gestos instrumentales como los electroacústicos son idénticos en lo que respecta a la estructura de su altura/frecuencia. como . es “la percepción humana del representa una combinación de dos gestos. 2. Wishart habla de morfologías dinámicas existentes en la música acusmática. Puedo ir aún más allá y asumir que. delinea un entramado bidimensional. como un “sinónimo” de gesto musical. junto con la agrupación de los instrumentos en familias con diferentes características tímbricas expande la noción de entramado aún más: sugiere un entramado tridimensional. No obstante. al abordar el tema de la música mixta. El concepto de instrumento como una fuente tímbrica estable.gestalts cuyas propiedades se encuentran en constante evolución 38 | en el limite a través del tiempo y. Dos o más gestos pueden estar relacionados de acuerdo con las alturas/frecuencias en los que hayan sido compuestos y crean relaciones ya sea de similitud o de diferencia de altura/ frecuencia.1. Modelos elementales de interacción gestual Esta perspectiva se centra en las diferentes formas de interacción entre dos o más gestos desde el punto de vista de las características musicales elementales (altura. se acostumbraba considerar la altura y el ritmo como los dos parámetros principales de la estructura musical. De acuerdo con el concepto de entramado (lattice) 5 propuesto por Wishart. aunque nuestra percepción de gestos como gestalts predominará principalmente sobre la percepción de las propiedades gestuales individuales. En consecuencia. en donde la altura estaba relacionada con la disposición de las frecuencias de las notas musicales y el ritmo con la descripción y la comprensión de la duración y de los patrones de duración. 2. que se componen de alturas/sonidos pertenecientes a registros diferentes. según Wishart. conformado por niveles de altura discretos. El término morfología dinámica que aparece en los textos de Wishart puede entenderse. En el ámbito de la música instrumental.

no siempre encontramos estructuras rítmicas o melódicas en la música electroacústica pero lo que sí encontramos son proporciones de duración. en la música que combina instrumentos y sonidos electrónicos.creación de modelos temporales interactivos entre los gestos instrumentales y electroacústicos-.1. el autor introduce el término surrealismo sónico. sonidos ambientales y cotidianos en movimiento espacial. tendré en cuenta dos criterios principales: el criterio de sincronicidad y el de asincronicidad. pero aún así podemos percibir “impresiones rítmicas” diferentes. De este modo. en la música electroacústica. en mi opinión.11 las relaciones temporales entre sonidos (su separación en el tiempo. como por ejemplo yuxtaposiciones de espacios acústicos. la polirritmia. que está relacionado con situaciones en las que se dan yuxtaposiciones entre diferentes “escenas auditivas” no relacionadas entre sí o que presentan transformaciones de su comportamiento natural. se observa en situaciones en las que los objetos o eventos no están coordinados en el tiempo y actúan independientemente el uno del otro. los patrones y sus órdenes. yuxtaposiciones de sonidos cotidianos. Interacción gestual basada en la organización temporal La duración puede definirse como “la extensión en el tiempo de un evento musical que puede ser descrito en términos de tiempo relativo o absoluto”8.2. los ritmos regulares divisibles o los ritmos irregulares aditivos. Interacción basada en el ruido: es una relación entre gestos que no tienen una altura identificable a través de la percepción.por ejemplo la articulación del vibrato instrumental y un gesto electroacústico compuesto de uno o más sonidos con una frecuencia fluctuante y oscilante. Para la identificación y la creación de estos modelos. algunos de los patrones rítmicos de la música instrumental pueden aplicarse a la en el limite | 39 . sonidos ambientales utilizados en un dominio diferente de organización temporal sin destruir su comportamiento y surrealismo derivado de las elongaciones temporales. como la agrupación textural o el surrealismo sónico. tales como la síncopa. no siempre están presentes. se acostumbraba reconocer varios tipos de estructuras y agrupaciones rítmicas. Todos estos ritmos estaban relacionados en mayor o menor medida con los conceptos de métrica y pulso. Estoy convencida que el conocimiento de las organizaciones temporales. Sin embargo. Además. sus patrones u órdenes temporales) representan uno de los aspectos más importantes del sonido. En la música instrumental tradicional. hay tres modos básicos de organización temporal de la música: pulso. Como lo describe Garcia-Valenzuela: “… por cierto.o composicional . 2. Según Bregman. las aproximaciones en las relaciones temporales entre eventos sonoros derivados de estos mundos distintos pueden crearse también por medio de la aplicación de los principios de un medio al otro. La sincronicidad en general se observa cuando dos objetos o eventos se coordinan en el tiempo y son “en cierta medida” dependientes el uno del otro. tales como las agrupaciones que no están basadas en el pulso o agrupaciones texturales. También utilizaré para la clasificación el criterio de proporcionalidad o relaciones temporales proporcionales entre gestos y algunas organizaciones temporales conocidas en el ámbito de la música electroacústica. representan también uno de los principales objetivos de nuestra atención ya sea desde el punto de vista analítico identificación . tal como los conocemos en la práctica musical tradicional. métrica y ritmo. ritmos que no están basados en el pulso y otras estrategias relacionales de organización”10. la métrica es la medida del número de pulsos entre acentos más o menos regularmente recurrentes y el ritmo puede definirse como el modo en el que uno o más tiempos no acentuados (débiles) se agrupan en relación a uno acentuado (fuerte). y la asincronicidad. Además de las agrupaciones temporales conocidas en el ámbito de la música electroacústica. la métrica y el pulso. que delimitan unidades iguales en el continuo temporal. Mientras que el pulso es uno en una serie de estímulos regularmente recurrentes y exactamente equivalentes. La definición de gesto como un “movimiento en el tiempo” deja bien en claro que el aspecto temporal jugará un papel fundamental a la hora de generar una comunicación intergestual. Según Leonard Meyer y Grosvenor Cooper9.

Muchos compositores utilizan una combinación de relaciones sincrónicas y asincrónicas en el curso de una articulación gestual. o una sincronización de gestos o capas de gestos previamente asincronizadas. gesto representa la reducción (disminución) o multiplicación (aumento) proporcional de la duración o del patrón de duración de otro gesto. la pulsación de las olas. Por otro lado. se pierde la sensación de ritmo. También se puede proporcionar una especie de “organicidad” a la naturaleza del sonido instrumental. Surrealismo sónico temporal: es una categoría especial de relaciones gestuales que pueden crearse a través de una combinación de patrones rítmicos “tradicionales” aplicados al material electroacústico -diferentes ritmos o patrones rítmicos aplicados a gestos compuestos de sonidos de naturaleza orgánica. los sonidos de máquinas. que usualmente es de naturaleza estrictamente “arquitectónica”. ya sean aleatorios o irregulares. se la denomina interacción asincrónica irregular cuando tenemos una combinación de gestos con patrones rítmicos irregulares sin que exista ningún tipo de sincronización entre ellos. todas las capas gestuales son rítmicamente independientes.. Interacción proporcional temporal: un organización rítmica o fuerza de agrupación alguna en la interacción percibida entre gestos. todos ellos con algún tipo de regularidad en sus patrones rítmicos. En este tipo de interacción. Interacción atemporal: cuando no existe una cuando los patrones temporales de dos gestos actúan de forma sincronizada (dependencia). que se da cuando la estructura rítmica de dos gestos está sincopada en 40 | en el limite cuando los patrones temporales de dos gestos actúan de forma asincrónica (independencia). la caída de gotas de lluvia. Como resultado de la aplicación de las estrategias y los criterios que desarrollamos anteriormente en las propiedades temporales del gesto. como el sonido de un tren. que ocurren en diferentes capas de sonido. pulso y métrica. La interacción polirrítmica ocurre cuando interactúan varias capas de gestos con diferentes patrones o agrupaciones temporales. como los ritmos sincopados de gotas de lluvia-. Aquí podrían incluirse las situaciones donde lo “instrumental” y lo “electroacústico” han intercambiado roles desde el punto de vista de la organización “rítmica/temporal”: gestos electroacústicos compuestos de sonidos ambientales y del entorno que poseen ritmo natural. junto con las agrupaciones u organizaciones atemporales aplicadas a los gestos instrumentales. ya sea una desincronización de gestos o capas de gestos previamente sincronizadas. se da en situaciones en las que los gestos no tienen estructuras rítmicas idénticas y su sincronización es irregular. La interacción sincrónica irregular. Estas relaciones de mayor complejidad pueden percibirse como patrones temporales “híbridos”. pero puede reconocerse en ellos cierta interdependencia y regularidad en la sincronización entre sus patrones de duración. y los gestos instrumentales sin ritmo o patrones de ritmo significativos. mediante la aplicación de las estrategias de agrupación de la música acusmática observables a través de la percepción. Interacción asincrónica regular representa las combinaciones de gestos con estructuras rítmicas regulares sin sincronización. Como una subcategoría de este tipo de relaciones podemos considerar la interacción rítmica sincopada. Esto supone una cierta alteración o interrupción del flujo del ritmo de un gesto (ya sea regular o irregular) causado por el patrón rítmico del otro gesto. Interacción temporal asincrónica: Se presenta Interacción por agrupación textural: interacción entre ritmos o patrones gestuales de duración.organización del material electroacústico para así “romper con su organicidad” y crear nuevas “relaciones arquitectónicas”. podemos identificar y crear algunas de las siguientes relaciones gestuales: Interacción temporal sincrónica: Se da relación a la otra. constituidos por la suma de la combinación de agrupaciones rítmicas/ temporales. Se la denomina interacción sincrónica regular ya sea cuando los gestos tienen patrones de estructura/duración rítmicamente idénticos (“unirrítmicos”) o también cuando no poseen una estructura rítmica idéntica. . por otro lado. etc.

En general. Muchos compositores de música electroacústica han intentado encontrar respuestas a qué es exactamente el timbre. Interacción gestual según las las que el aumento de la intensidad de los gestos instrumentales se “entrecruza” (crosses over) con los gestos electroacústicos y alcanza su intensidad máxima o viceversa. la identidad sonora y la fuente de reconocimiento del sonido. es decir. Smalley se refiere a esta “unión causa-fuente” como “la tendencia natural a relacionar sonidos con sus supuestas fuentes y causas. estos gestos pueden tener diferentes caracteres de intensidad pero en conjunto se los percibe como un gran gesto en crescendo – la suma de las trayectorias de sonoridad. En psicoacústica. En la música electroacústica.15 Por otro lado. cuando un compositor utiliza el análisis espectral para conceptualizar las relaciones con la altura y las cualidades sonoras.2. el timbre o la cualidad tono/ sonido está determinado por el comportamiento del contenido de la frecuencia o espectral del sonido en el tiempo.1. junto con sus transientes que son extremadamente importantes para la identificación del timbre. amplitud. en qué situaciones es significativo utilizar el término o si su concepto es relevante en el contexto de la música electroacústica. su evolución y sus intersecciones de sonoridad. Combinación de los modelos anteriores (< >. Interacción gestual por trayectorias de sonoridad (loudness) La psicoacústica define la sonoridad como “la sensación subjetiva de la intensidad o magnitud del sonido”. participará en la percepción final de esta situación como en crescendo.1. Los gestos también pueden relacionarse mediante incrementos simultáneos de intensidad. la música instrumental suponía la presencia de fuentes identificables que permitían que el oyente pudiese relacionar el sonido con la fuente (el cuerpo sonoro instrumento) y con la causa física humana (los movimientos del intérprete). este tipo de interacciones se observa en piezas para cámara/orquesta y sonidos electroacústicos.13 También puede definirse como “un conjunto de los parámetros de altura. (<) Interacción decrescendo: Es la opuesta a la relación crescendo (>) características tímbricas Según la concepción tradicional. la espectromorfología.4. > <. el timbre es el color tonal que representa la cualidad del tono y distingue un instrumento del otro. ambiguas o desconocidas.12 Se puede crear una conexión entre dos gestos según sus variaciones. de varias maneras: Interacción crescendo: representa situaciones en Interacción por intersección y entrecruzamiento de la sonoridad: Se da cuando los gestos suenan simultáneamente con diferentes evoluciones dinámicas de sonoridad. o la noción de la nota instrumental como aquella que combina la altura con el timbre). Por lo que Smalley crea el término subrogación (surrogacy)16 para describir los niveles y grados en los cuales un oyente puede relacionarse a través de la percepción con las fuentes físicas o gestuales. Puede darse otra situación al crearse un gran gesto en crescendo a partir de capas de gestos instrumentales o electroacústicos más pequeños. De acuerdo con sus observaciones. En su intento de definir el timbre. es decir. El timbre se percibe y se entiende como una gestalt. en las que. el contenido espectral. duración.3. En la música electroacústica el timbre representa un complejo fenómeno de relaciones entre la frecuencia. Smalley compara el concepto de timbre en la música instrumental tradicional (entendido como una extensión de la armonía y viceversa. con la expansión de este concepto a partir de la aparición de la música electroacústica. etc. y se define como “la fisionomía sonora general en el limite | 41 . en la música electroacústica. el flujo principal conformado por gestos con sonoridad creciente. cuando no podemos identificar las fuentes y las causas reales y no es posible establecer una unión causa-fuente. como la reflexión de una unidad sonora y no así de las partes que lo componen. componentes espectrales y evolución dinámica” que determina el “color del sonido”14. a pesar de que algunos de los gestos instrumentales y electroacústicos pueden tener un carácter en decrescendo. y a relacionar sonidos entre sí porque parecen tener orígenes compartidos o asociados”. el timbre se relacionará con el despliegue temporal y la conformación espectral. las fuentes y las causas pueden ser evidentes.) 2. es decir. Individualmente. ya sean reales o imaginarias.

cuyo conjunto espectromorfológico permite que se le atribuya una identidad”.17 Smalley sugiere que al buscar la identidad tímbrica en la música electroacústica, debemos dirigir nuestra atención a la espectromorfología intrínseca de la obra musical, que está relacionada con el movimiento, el comportamiento, la experiencia en el espacio, la energía, las tensiones psicológicas, etc. Wishart abordó18el tema del reconocimiento de objetos sonoros individuales considerando nuestra experiencia de ellos. De acuerdo con sus observaciones, ciertos sonidos retendrán su capacidad de ser reconocidos incluso bajo las formas de distorsión más extremas, dada su significación inmediata en el oyente y su complejidad de articulación única, como por ejemplo la voz humana que puede producir entidades tímbricas distintas (gritos, glosolalia, sonidos eróticos, llantos, etc.) en rápida sucesión. Se puede reconocer la voz humana incluso si se modifican sus características espectrales, pero será muy difícil imitarla electrónicamente sin reconocer su “naturaleza sintética”. No ocurre lo mismo con algunos sonidos sintetizados, como por ejemplo la imitación electrónica de sonidos ambientales reales. En este caso la capacidad de reconocer el origen de estos sonidos dependerá de su ubicación contextual. La imitación electrónica aislada de ciertos sonidos ambientales, tales como un grillo, un pájaro o el sonido de las olas, pueden ser difíciles de identificar. Por otro lado, si se ubican en un ambiente acústico
42 | en el limite

lo suficientemente realista, incluso estas imitaciones electrónicas podrán sonar “reales”, sin que se reconozca su verdadero origen sintético (electrónico). Christopher Biggs, en su investigación sobre la identificación del timbre en la música electroacústica en vivo19, sugiere un modelo para la interacción entre la investigación en psicoacústica y la experimentación musical en el área de la música mixta. Por ello parte de los estudios que sugieren que “la actividad neuronal en la corteza auditiva primaria representa los sonidos en términos de objetos auditivos y no en términos de características acústicas invariables” y de la definición de identificación tímbrica como “la relación perceptual de los objetos auditivos independiente del mecanismo de producción de sonido, del agente aparente o de la fuente sonora percibida” y reconoce tres maneras en las que los sonidos electrónicos pueden identificarse a través del timbre con instrumentos en vivo: reproducción del timbre (reproducción del instrumento en vivo en la parte electrónica con manipulación limitada); integración del timbre (reproducción del instrumento en vivo en la parte electrónica con manipulación ampliada); y asociación del timbre (uso de diferentes timbres en la parte electrónica que están asociados con los instrumentos en vivo). Partiendo de los experimentos psicoacústicos hechos sobre identificación del timbre en la música mixta, tal como los propuso Biggs, de la noción de Smalley sobre unión de fuentes y subrogación, y del concepto de Wishart de capacidad de reconocimiento contextual

del timbre, podemos distinguir las siguientes relaciones tímbricas interactivas entre gestos:
Interacción por reproducción de timbre:

se da cuando el timbre del gesto electroacústico es una reproducción del timbre del gesto instrumental, mediante el uso de sonidos instrumentales grabados, ligeramente manipulados.
Interacción por derivación de timbre:

ocurre cuando el timbre del gesto instrumental es una reproducción del timbre del gesto electroacústico, con un mayor grado de manipulación.
Interacción por asociación de timbre:

cuando el timbre distintivo del gesto electroacústico no tiene una naturaleza instrumental, aunque puede simular en cierta medida las características instrumentales e, incluso en caso de no ser real, puede percibirse o asociarse como “instrumental”. Un ejemplo de esto es el uso de sonidos sintéticos que simulan algunas de las propiedades del sonido instrumental, como los sonidos del viento al simular el sonido de aspiración de los instrumentos de viento o los sonidos sintéticos “con sabor metálico” que simulan algunos instrumentos de percusión. Estas tres categorías expresan diferentes grados de fusión del timbre desde la perspectiva de la capacidad de reconocimiento del timbre; representan lo que Smalley llama unión de

fuente y corresponden a la “subrogación de primer y segundo orden”.
El contraste por disociación de timbre es

la interacción entre los gestos independientes en lo que respecta al timbre, cuando el timbre distintivo del gesto electroacústico no puede asociarse al timbre del gesto instrumental. Esta situación sería equivalente a lo que Smalley denomina “subrogación remota”.
2.2 Modelos de interacción gestual basados

ejemplo las campanas, dadas sus propiedades internas de resonancia, continuarán sonando aún después del aporte inicial de energía) y la morfología impuesta, relacionada con el aporte continuo de energía (por ejemplo el sonido de la flauta requiere un aporte continuo de energía – aire exhalado – para producir el sonido).22 Por lo tanto, la morfología intrínseca estará más relacionada con la fuente, en el sentido de sus características físicas, mientras que la morfología impuesta tendrá una relación más fuerte con la causa. Aún teniendo en cuenta las grandes semejanzas que existen entre los conceptos de morfologías de Smalley y Wishart, es interesante destacar que mientras los principales arquetipos morfológicos de Smalley están más estrechamente relacionados con la morfología “externa” de las estructuras de sonido, o incluso con las relaciones entre ellas, las categorías morfológicas de Wishart tienen más en cuenta la morfología “interna” (ya sea intrínseca o impuesta) de los objetos sonoros y podrían utilizarse para la descripción de matices delicados del objeto sonoro, pero con menor potencial de ser aplicada a las relaciones entre ellos. Debido a estas observaciones y a las consecuencias que tienen a la hora de encontrar relaciones entre gestos como formas gestálticas, podemos extender el modelo de estructura tripartito y algunos de los arquetipos morfológicos antes mencionados más allá de los gestos individuales e intentar entender la totalidad de la relación entre ellos, sin tener en

cuenta la morfología intrínseca o impuesta del sonido (la fuente o la causa del sonido). Desde esta perspectiva, podemos identificar o generar diferentes tipos de relaciones gestuales interactivas, como las siguientes:
Interacción por ataque: es la combinación

entre dos o más gestos con perfil de ataque, ya sean simultáneos o separados en el tiempo.
Interacción iterada: es la combinación

en el modelo tripartito de estructura La flexibilidad del modelo tripartito de estructura (comienzo, continuación, conclusión) permite su aplicación a cualquier nivel de estructura musical, ya sea la nota, el objeto, el gesto, la textura, el tipo de movimiento, etc. Smalley hace una distinción entre cuatro arquetipos morfológicos básicos de la estructura musical: el ataque (impulso), el ataque-decaimiento, el ataque-decaimiento invertido y la continuación graduada.20 En su investigación de los objetos sonoros, en la cual analizó la forma de su continuación en el tiempo, Wishart reconoce tres categorías morfológicas básicas: la continuación discreta, representada por sonidos individuales no resonantes, la continuación iterada, observada en sonidos con ataques rápidos sostenidos y la continuación continua, reconocida en los sonidos sostenidos.21 Wishart considera importante distinguir aún más dentro de estas características morfológicas entre la morfología intrínseca, relacionada con las propiedades físicas del medio sonoro (por

de varios gestos cortos con perfil de ataque, de manera que no se perciban más como elementos separados sino como una unidad.
Interacción por resonancia: puede percibirse

como ataque-decaimiento en donde un gesto representa el “ataque” y el otro representa el “decaimiento”; o en situaciones donde el final de un gesto instrumental resuena en el sonido electrónico o viceversa.
Interacción por resonancia invertida:

Puede percibirse como ataque-decaimiento invertido, en donde un gesto representa la fase de decaimiento invertido que lleva a otro gesto de ataque; o como la transición de un gesto instrumental a un gesto electroacústico (o viceversa), que termina abruptamente.
Interacción por combinación de resonancia (ataque-decaimiento) y resonancia invertida (ataque-decaimiento invertido).

en el limite | 43

Interacción “cadencial”: Se da cuando el

gesto electroacústico acentúa o prolonga el final del gesto instrumental o viceversa. La cadencia se entiende como el movimiento convencionalmente asociado a la finalización de una frase, que funciona como una forma de dar énfasis al final a través de la llegada de algo más o menos esperado (tradicionalmente un intervalo o un acorde), o una resolución que puede variar en sus grados de explicitación o ambigüedad. En cierto modo, la cadencia es lo opuesto de un final abrupto y repentino, que es el caso del modelo de ataque o modelo de ataque-decaimiento de relación.
Interacción por cross-fading: representa los

tanto intuitiva como intencionalmente, en forma más simple o más compleja, en muchas composiciones electroacústicas. Las combinaciones de dos o más gestos de manera que establezcan una relación entre sí, mientras cada uno retiene su propia individualidad, se denominarán interacciones contrapuntísticas o relaciones contrapuntísticas. De acuerdo con las diferentes formas de creación de estas interacciones, podemos distinguir las siguientes categorías de interacciones contrapuntísticas:
Interacción repetitiva: se presenta cuando

rítmica o tonal, ya sea relacionada al ritmo o
relacionada a la altura. Interacción canónica con bucle (loop):

ocurre cuando existe una unión entre gestos instrumentales y gestos electroacústicos que están relacionados por repetición constante (“gestos en bucle”).
Interacción proporcional: es cuando un

modelos híbridos de relaciones inter-gestuales que se fusionan o combinan en alguna de sus fases temporales.
2.3 Interacción gestual contrapuntística.

el gesto instrumental se repite en el sonido electrónico o viceversa.
Interacción imitativa: se da cuando el gesto

Tanto en la música electroacústica como en la música mixta se pueden observar relaciones entre materiales musicales (gestos, frases, etc.) que son similares a aquellos provenientes de la teoría musical tradicional y que están basados en el contrapunto. Aunque la práctica convencional de composición desarrolló en gran medida los conceptos de contrapunto, ya se ha reconocido su potencial constructivo de relaciones para crear conexiones entre las estructuras musicales y los eventos en la música acusmática. La audición y el estudio de las piezas electroacústicas de diferentes décadas muestran que estos métodos se han aplicado
44 | en el limite

electroacústico es una forma de imitación del gesto en el instrumento o viceversa. Cuando se da simultáneamente, la interacción gestual imitativa puede enfatizar su carácter contrapuntístico. En algunas ocasiones, sin embargo, los gestos que se encuentran en relación imitativa pueden estar más separados en el tiempo. En el caso de que un gesto imitativo comience casi al momento de la finalización del gesto previo, su coexistencia en simultaneidad puede durar por tan solo un corto período de tiempo.
Interacción canónica: es un tipo de relación

contrapuntística en el que un gesto va seguido de otro gesto que imita o replica su estructura

gesto “imita” la estructura de otro pero con un cambio proporcional. Esta imitación proporcional puede involucrar tanto el ritmo, como la altura o ambos. Por ejemplo, un gesto puede imitar el patrón/duración rítmica de otro por aumento o disminución de sus valores de duración/ritmo, sin que se produzcan cambios en la estructura de alturas. También puede ocurrir que un gesto imite a otro a través de un cambio de altura o de manipulación de intervalos, sin que se modifiquen los valores de patrón/ duración rítmica. La última situación estará representada por la relación entre dos gestos en la que uno es la imitación del otro con un cambio proporcional producido tanto en la altura como en la estructura rítmica. Algunos compositores han intentado crear un modelo detallado de contrapunto, diseñado específicamente para la música electroacústica. Por ejemplo Wishart intentó establecer un concepto de relaciones de contrapunto en la música acusmática que no dependa de una estructura de entramado, a través del análisis de los conceptos de contrapunto en la música

comparables al contrapunto tradicional de nota contra nota. Los gestos en estas relaciones pueden ser tímbricamente similares o diferentes. o el inicio de la terminación de gestos existentes por el comienzo repentino de otro gesto. distintas relaciones entre ellos ya sean horizontales (arquitectónicas) o verticales (dinámicas). (interacción disparadora por potenciación entre morfologías). Dado que todo movimiento implica una dirección. podemos identificar diferentes relaciones entre gestos basadas en sus características morfosemánticas. excepto en la mera coexistencia de estratos musicales.25 podemos analizar las relaciones contrapuntísticas entre gestos de naturalezas diferentes y distinguir. gesto genera el comienzo o la finalización abrupta de otro gesto o potencia un cambio en su comportamiento. recíproco y céntrico o cíclico.26 en el limite | 45 .23 Luego.convencional y su posterior comparación en el continuo multidimensional. 2. una vez sometido a diversas manipulaciones y distorsiones. curvilíneo. Este desencadenamiento puede darse ya sea de acuerdo con los conceptos morfológicos. pueden establecerse dos criterios de reconocimiento de la estructura contrapuntística: el principio arquitectónico.1. Por ejemplo. como la dirección o la energía. asimismo. podemos identificar una gran variedad de tipos de movimientos. etc. el gesto instrumental sirve como disparador del gesto electroacústico y viceversa. Contrapunto por división gestual: es Lo que determina que un contrapunto sea “homogéneo” o “heterogéneo” es el carácter morfológico de los gestos. que determina la naturaleza del movimiento (la evolución gestual y la interacción entre estratos separados. unidireccional. El ejemplo más simple de esta división gestual se da cuando un gesto comienza en un instrumento y finaliza en el sonido electrónico o viceversa. que. Dirección Si consideramos al gesto como un “movimiento en el tiempo”. una relación frecuentemente observada que ocurre cuando el curso de un gesto se divide en dos o más partes. por el hecho de que “deben relacionarse entre sí o interactuar de algún modo durante el curso de su desarrollo individual”. como por ejemplo el cambio de timbre gradual de un gesto a otro (interacción disparadora por transformación tímbrica).4. Todo esto lleva a establecer las siguientes relaciones entre gestos: Contrapunto entre gestos homogéneos: se Contrapunto entre gestos heterogéneos: ocurre entre gestos morfológicamente diferentes. el sonido de un violonchelo mediante la utilización de diversas técnicas extensivas de ejecución puede transformarse gradualmente en un chirrido. se convierte en el sonido de una puerta chirriante en la parte electrónica. Relación disparadora (triggering): un da entre gestos morfológicamente similares. Una de las teorías más complejas sobre el movimiento es la teoría espectromorfológica de Smalley. según Wishart. que posee su propio camino específico en el espacio y en el tiempo y que posee potencial energético. El hecho de sentir una experiencia musical como contrapuntística está dada. Pueden observarse interacciones más complejas cuando un gesto mayor está compuesto de varias “alternancias” entre sonidos instrumentales y electroacústicos. comparable a la progresión tradicional de una tonalidad a otra) y el principio dinámico. independientemente de sus características tímbricas. relacionado con la interacción de consonancia-disonancia armónica y coordinación rítmica). que provee puntos de referencia en la progresión del material musical (concepto de transformación de un área tímbrica o de morfología sonora a otra. algunas provenientes del instrumento y otras provenientes del sonido electrónico.4 Relaciones gestuales basadas en características morfo-semánticas Si tenemos en cuenta que el gesto se determina por el movimiento de un punto a otro. Por ejemplo. en la que se distingue entre seis tipos de movimiento principales: lineal. como la potenciación del comienzo de un gesto por el carácter morfológico de otro.24 De acuerdo con estos conceptos y si consideramos la música mixta según los conceptos de continuo y de estrato. 2. podemos reconocer diferentes tipos direccionales de movimiento. bi o multidimensional. o según los conceptos de transformaciones tímbricas.

cuando dos o mas gestos se mueven linealmente en la misma dirección.1. Dirección en el campo de las alturas (unidireccional). se pueden aplicar también al gesto. Además. cuando dos o más gestos fase ascendente y descendente está divido entre instrumento/conjunto de cámara/ orquesta y sonido electrónico. derecho y sin desviaciones. en las cuales percibimos la convergencia o divergencia de mejor manera cuando se dan simultáneamente. como por ejemplo ascendente. interacción divergente. cuando los gestos se mueven en diferentes direcciones y comienzan cerca pero finalizan alejados el uno del otro en lo que respecta a su altura/ frecuencia e interacción reciproca. A menudo podemos observar combinaciones de estas tres relaciones gestuales entre instrumentos y sonidos electrónicos.altura/ frecuencia de un sonido y otras manipulaciones de gestos en su dirección . Para que se produzca esta relación se debe escuchar la dirección del primer movimiento gestual para poder evaluar el carácter de dirección del siguiente gesto como recíproco. en un determinado momento.Dado que estas categorías poseen un amplio rango de aplicación en los diferentes niveles de la estructura musical.). cuando los gestos se mueven en la misma dirección de forma ascendente en el registro. etc. . la flauta no puede tocar un glissando simultáneo en dos direcciones. Los gestos en relación curvilínea pueden continuar también en direcciones similares o diferentes una vez que el ángulo del movimiento cambie. cuando los gestos se mueven en diferentes direcciones y comienzan alejados pero finalizan cerca el uno del otro en lo que respecta a su altura/ frecuencia. cuando los gestos se mueven en direcciones diferentes. Existen ciertas relaciones gestuales que se encuentran entre la interacción lineal y la curvilínea. En este caso.4. Interacción curvilínea (interacción por Si nos basamos en el estudio de las relaciones entre gestos en lo que respecta a la similitud o la diferencia de su dirección en el campo de las alturas. Aquí radica la diferencia con las primeras dos relaciones. cuando los gestos se mueven en la misma dirección sin que se presenten cambios significativos en sus alturas/frecuencias. Aquí podemos distinguir entre interacción convergente. el curso de su movimiento cambia de ángulo y de dirección. o por diferentes direcciones de movimiento (bi/ multidireccional). cuando los gestos se mueven en la misma dirección de forma descendente en el registro. Éstas se dan cuando el gesto se completa en la cinta por movimiento simultáneo en direcciones diferentes. podemos distinguir entre interacción lineal por dirección de movimiento similar 46 | en el limite se mueven juntos linealmente en diferentes direcciones. relaciones con ciertas “referencias centrales” . Otro ejemplo de interacción recíproca se da cuando un gesto con una movimiento curvilíneo): se presenta cuando dos gestos se mueven juntos a través una línea pero. 2. Desde la perspectiva de los dos tipos de “dirección” pueden analizarse otras relaciones gestuales: dirección en el campo de las alturas y dirección como evolución en el tiempo (dirección en el campo de duración). descendente. en particular al contorno de su movimiento externo. la manipulación de la dirección del gesto instrumental lograda a través de la creación de su continuación “virtual” electroacústica permite que se formen eventos musicales que son imposibles de generar utilizando tan solo el instrumento (por ejemplo. podemos distinguir dos tipos principales de movimiento: similar. Denominaremos esta situación modelo como interacción por movimiento “bi/ multidireccional virtual”. cuando el movimiento de un gesto en una dirección se equilibra por un movimiento recíproco de otro gesto en dirección opuesta.1.estirar o contraer su “camino”) podemos combinar estos criterios y así generar la siguiente clasificación de modelos gestuales interactivos: Interacción lineal: se presenta cuando existe una interacción por movimiento a lo largo de una línea recta en las relaciones donde dos gestos se mueven al mismo tiempo por un camino directo. plano. cuando los gestos se mueven hacia la misma dirección y diferente. Teniendo en cuenta el carácter del “contorno exterior” de estos tipos de movimientos (relaciones línea/curva.

Tipos combinados de interacción: se presenta cuando ocurren combinaciones diferentes entre gestos acelerados y desacelerados o incluso combinaciones entre aceleraciones y desaceleraciones en un mismo gesto. Un ejemplo es el caso de una relación simple de aceleración-desaceleración o de desaceleración-aceleración. las propiedades temporales de segundo orden (cambios en la velocidad a través del tiempo).Interacción por manipulación de la dirección en el campo de las alturas: puede llevarse a cabo por contracción. como los gestos con movimientos lineales similares de carácter ascendente o descendente (diferentes movimientos divergentes y dirigidos desde el “centro” hacia fuera) o pericéntrica. sino también por su comportamiento en el tiempo. tal como cierta altura o frecuencia del sonido. En ciertos casos se puede observar una combinación de modelos caracterizados por contracción o expansión tanto en altura como en tiempo. podemos considerar la dirección también como una evolución en el tiempo o una dirección en el campo de la duración.1. aceleradodesacelerado y desacelerado-acelerado – aplicados al nivel gestual. . como los gestos con movimientos lineales similares de carácter ascendente o descendente (movimientos convergentes dirigidos hacia el centro). las propiedades temporales de tercer orden (modo en el que las propiedades temporales de segundo orden cambian a través del tiempo) y sus seis clases de movimiento (contornos de tiempo) – constante. Interacción por desaceleración: se da cuando los gestos se encuentran en desaceleración de forma simultánea o “contrapuntística”. cuando un gesto es la expansión de otro gesto en relación a su estructura de alturas o a su registro. etc. como movimientos cíclicos de gestos alrededor de ciertas alturas o registro. La combinación de diferentes modelos direccionales expuestos anteriormente permitirá la creación de numerosas en el limite | 47 . podemos reconocer las siguientes relaciones gestuales: Interacción por velocidad constante: se da cuando los gestos se relacionan entre sí a través de la velocidad constante similar de su movimiento (lento.movimiento hacia el centro. . sino por la relación entre los gestos y el punto central de referencia. Interacción por manipulación temporal: se da cuando existen relaciones en las que un gesto estará contraído (interacción por contracción temporal) o expandido (interacción por expansión temporal) en comparación con otro gesto. centrífuga. acelerado. Dirección entendida como una evolución en el tiempo (dirección en el campo de las duraciones) Dado que el movimiento se caracteriza no sólo por su recorrido en el espacio. Esta interacción céntrica puede diferenciarse también entre centrípeta.el movimiento desde el centro hacia fuera. Interacción por aceleración: ocurre cuando los gestos se encuentran en aceleración de forma simultánea o “contrapuntística”. como es.4. . 2. La mayoría de los modelos analizados pueden aplicarse también en relación a un punto de referencia central.las relaciones entre los movimientos gestuales alrededor del punto de referencia central. Según los tres niveles de propiedades temporales del movimiento27 de Wishart. entre los que se encuentran las propiedades temporales de primer orden (tipos de velocidad). algunas de estas realizadas por un instrumento y otras por sonidos electrónicos. irregular. por ejemplo. el caso de las relaciones convergentes y divergentes.2. o un gran gesto combinado que puede estar compuesto de varias partes de carácter acelerado o desacelerado. Interacción por velocidad irregular: se presenta cuando tanto los gestos instrumentales como los electroacústicos tienen una velocidad irregular o cambiante. cuando un gesto es la contracción de otro gesto en relación a su estructura de alturas o a su registro. En este caso las conexiones no estarán representadas por las relaciones entre gestos en sí mismas. o por expansión. desacelerado. que será expresada por diferentes contornos temporales. medio o rápido).

o cuando la energía decreciente de un gesto en desaceleración o en decrescendo se transforma en energía incrementada de un gesto en aceleración o en crescendo. Asimismo. todo movimiento se relacionará también con una sensación de energía. La energía no desaparecerá. como. 2.4. Los movimientos a una velocidad constante pueden aparentar mantener su nivel de energía. Se pueden percibir diferentes cantidades de energías relacionadas no sólo con las características del movimiento. Interacción por disminución de energía: la encontramos en las diferentes relaciones gestuales relacionadas con la disminución de la intensidad (decrescendo) y/o de la velocidad (desaceleración) y/o de la densidad espectral. mientras que los movimientos rápidos o acelerados pueden evocar una sensación de energía acumulada o en incremento. Esto sucede. Por ejemplo. De acuerdo con el carácter energético de los gestos y a los cambios de energía involucrados en las relaciones entre gestos.2. su velocidad y su densidad espectral. Se puede percibir más energía cuando la intensidad se encuentra en aumento que cuando se encuentra en disminución. la intensidad constante puede también percibirse generalmente como energía constante. cuando un aumento de la densidad espectral puede generar una sensación de energía aumentada o acumulada. La trayectoria de la intensidad puede influenciar nuestra percepción de la energía de una manera similar a la que lo hacen los cambios en la velocidad. por ejemplo.derivaciones de relaciones interactivas. La cantidad de energía de un gesto puede potenciar o disparar el inicio de otro gesto. diferentes direcciones de movimiento. cuando la energía estática de un gesto se convierte en energía cinética de otro. cuando la contracción puede percibirse como energía más “localizada” y la expansión como energía más “difusa”. Combinación de los modelos previos. Interacción por incremento de energía: ocurre en las diferentes relaciones gestuales relacionadas con el incremento de la intensidad (crescendo) y/o de la velocidad (aceleración) y/o de la densidad espectral. etc. la pérdida del potencial de energía cuando la intensidad de un gesto se encuentra en disminución se convierte en la energía cinética de otro gesto y acelera su contorno temporal. sino que se transformará o convertirá en otra forma de energía. influenciarán el modo en el que se podrán percibir los gestos. mientras que los movimientos de aceleración-desaceleración pueden evocar la sensación de energía culminante. Pueden percibirse varias relaciones energéticas en diferentes densidades espectrales de gestos. la combinación de gestos acelerados y desacelerados con direcciones de movimiento convergentes o divergentes. la contracción y la expansión pueden generar una sensación de energía. por ejemplo. su intensidad. Los movimientos a bajas velocidades o a velocidades desaceleradas pueden parecer tener menos energía o energía decreciente. acelerar o desacelerar su continuación o su final. como por ejemplo. por ejemplo. la combinación de gestos acelerados/ desacelerados con estructuras de altura contraídas/expandidas. De forma similar. etc. etc. la energía localizada “estática” de un ataque corto puede transformarse en energía cinética de otro gesto rápido o de gestos que vienen en cadena. Energía Si consideramos los gestos como “movimientos en el espacio y en el tiempo”. Interacción por energía transformada o convertida: se da en las relaciones entre gestos cuando cierto carácter o “tipo de energía” de un gesto se convierte o se transforma en otro “tipo de energía” de otro gesto. las variaciones en las velocidades de los gestos y las combinaciones de diferentes modelos de relaciones de movimiento temporal y direccional. podemos distinguir las siguientes relaciones: Interacción por energía constante o mantenida: se da cuando existen relaciones entre gestos que no presentan cambios significativos en el carácter de su movimiento. Algunas de las relaciones disparadoras que hemos descrito antes podrán percibirse como transformaciones de energía entre gestos. como. . 48 | en el limite sino también con la intensidad de los gestos.

que se denominan gestos espaciales.2. y sus distintas categorías como. como. los gestos comienzan cerca el uno del otro. según la simetría del movimiento. Modelos espaciales de interacción gestual Si relacionamos el movimiento con el espacio acústico externo y arquitectural y consideramos que los gestos se “reflejan en la trayectoria espacial”28 (poseen un “comportamiento espacial” producido por ciertos tipos de trayectoria). se puede identificar una amplia variedad de estas trayectorias (movimientos gestuales en el espacio). la difusión sonora se vuelve un arte frágil. distancia en el espacio. los gestos tienen una localización idéntica en el espacio a lo largo de toda su duración. etc. los gestos pueden preservar un marco lineal. Durante la interpretación es posible espacializar el sonido instrumental. los compositores pueden crear diferentes tipos de gestos espaciales según sus diferentes direcciones de movimiento. como. circular. En la fusión espacial parcial. por ejemplo. varias de estas posibilidades serían más hipotéticas que prácticas. línea recta. En condiciones simples de estéreo básico. simétrica. cuando la música combina instrumentos y sonidos electroacústicos. Las interacciones de los gestos musicales con el espacio dadas por la manipulación espacial pueden resultar en diferentes transformaciones morfológicas. que percibiremos a través de diferentes cambios.5. un gesto que se mueve en línea recta de derecha a izquierda sonará diferente que el mismo gesto si se moviera circularmente en el espacio alrededor del oyente. Relación interactiva (fusión espacial): se presenta cuando los gestos interactúan entre sí a través de la dirección de su movimiento en el espacio. Relación independiente (contraste espacial): se da cuando los gestos actúan independientemente en el espacio.29 En el campo de la música acusmática. en el caso de sonidos electroacústicos fijos. mientras que otras fases están distribuidas y dirigidas de manera diferente en el espacio: en la relación convergente. asimétrica. Valiéndose de la visualización de un espacio virtual acústico con diferentes configuraciones de parlantes.31 Dado que estos aspectos espaciales se encontraban fuera del campo de mi investigación y era imposible abarcar toda la complejidad involucrada en materia de la localización espacial. en el limite | 49 . En primer lugar. según Smalley. Todos estos modelos gestuales pueden combinarse para construir diferentes relaciones espaciales. aunque puede ser bastante difícil mantener un sonido instrumental bien balanceado y “no demasiado artificial”. Aún así este caso no es tan común. es decir. Wishart y Smalley se han encargado de analizar en sus trabajos30 un gran número de movimientos espaciales. La manera en la que los gestos se moverán en el espacio influenciará la manera en la que el oyente los perciba. una simetría central o una simetría dentro de un marco rotativo. cíclica. por ejemplo. De hecho. algunas fases temporales de los gestos tienen una localización idéntica en el espacio. los gestos que están inicialmente separados en el espacio se acercan entre sí a lo largo del tiempo y su final se percibe en la misma localización espacial. en la misma localización espacial y luego se alejan entre sí a lo largo del tiempo y terminan en diferentes localizaciones espaciales. por razones prácticas de interacción entre gestos. por ejemplo. curva. Desde esta perspectiva. un ejemplo puede ser un gesto localizado en la derecha y otro en la izquierda. que afectará tanto a la sustancia como a la estructura musical. sólo haré distinción entre algunos de los modelos más elementales de relaciones espaciales entre gestos instrumentales y electroacústicos. Por ejemplo. “cualquier aspecto dirigido de un movimiento puede ser considerado un gesto espacial”. cambios en la riqueza o en el contorno espectral. la articulación espacial funciona como una determinante morfológica que crea una relación cercana entre la espaciomorfología y la espectromorfología. el uso más común es el de la configuración estéreo y la posición fija del intérprete. en las relaciones divergentes. tienen diferente localización espacial. En la fusión espacial completa. Sin embargo. Las interpretaciones que incluyen “sonidos electrónicos en vivo” (live electronics) están más abiertas a los diferentes tipos de experimentación con sonidos en el espacio. dirección. de acuerdo con su tipo de movimiento. De este modo.

la composición y la percepción. Traducción de Lucas Traba Alumno del Traductorado Público en Idioma Inglés de la Universidad Nacional de Lanús Revisado y supervisado por Trad. Al contrario. Desde esta perspectiva. Conclusiones La creación de modelos teóricos que den cuenta de las diferentes relaciones gestuales interactivas puede aportar herramientas útiles e interesantes 50 | en el limite para el análisis de la música mixta. La intuición. dinámicos y variables en el discurso musical. junto con el conocimiento de las posibles maneras de estructurar el material musical y su uso conciente. Mariela Santoro y Raúl Minsburg . Las ubicaciones de llegada y partida pueden ser iguales o diferentes. incluso un ejemplo puede ser analizado desde perspectivas diferentes. pero seguramente podremos valernos de ellos y lo haremos en ciertos momentos. no solo en la música mixta. 3. Cabe aclarar que todos los ejemplos de relaciones gestuales pueden tener distintas interpretaciones. la esencia de una expresión musical sincera debería surgir de un balance entre la libertad. cuando la llegada de un gesto a cierta ubicación causa un movimiento repentino y la partida de otro gesto de su ubicación. no siempre podremos utilizar los modelos sugeridos anteriormente de forma conciente. Relación disparadora (disparador de movimiento espacial): supone una interacción espacial cuando un gesto potencia el movimiento de otro gesto. Es deseable que se realicen estudios más profundos sobre las relaciones gestuales interactivas y que se ponga más atención en las interacciones texturales y las diferentes interrelaciones entre gestos y texturas para que se puedan así abrir nuevos horizontes que apunten hacia la aprehensión y definición de nuevas formas musicales. sino también en la música electroacústica y la música contemporánea en general. En mi opinión personal. Además. en una condición simple de estéreo. la libertad y la conciencia. en el curso de una composición. Todo esto crea una relación más cercana de lo que jamás se ha observado entre la teoría y la práctica musicales – el análisis. no son conceptos incompatibles. pero puede analizarse también desde una perspectiva contrapuntística o gestáltica. el acto de componer se encuentra entre la intuición y la intención. por ejemplo. Se da. etc. un gesto que se mueve rápidamente de derecha a izquierda. sin miedo de confiar en la intuición. La toma de conciencia de estas relaciones y su aplicación bajo una perspectiva personal como una de las posibles técnicas de composición puede ayudar al compositor a crear eventos perceptivamente interesantes. al llegar a la izquierda causa que el gesto que comenzó a la izquierda se mueva hacia la derecha. el conocimiento de las diferentes relaciones interactivas y su reconocimiento perceptivo pueden convertirse en una herramienta eficiente para escuchar y puede ayudar a comprender mejor una obra mixta.Se pueden crear otras interacciones combinando los modelos anteriores. Por ejemplo. El hecho de que el movimiento de un gesto cause el cambio en la ubicación y el movimiento de otro gesto es un factor determinante del disparador espacial. Publ. y al mismo tiempo un fuerte sentido de la estructura y la forma. Por ejemplo una interacción gestual puede categorizarse de acuerdo con las relaciones de altura o de ritmo.

Smalley. Gesture Interaction in Music for Instruments and Electroacoustic Sounds. 1996. James and Toop. Temporal Forces in Electroacoustic Music. 145-164.” Organised Sound 7(3): 305-311. 33-41. 1997. The Language of Electroacoustic Music. positions.. Topics. Garcia-Valenzuela. 1990.” Organised Sound 12(1): 67-78.html Tarasti. 1995. Nattiez. 2007. Schaeffer.No4. 2006. “Il Tempo Della Figura. 1960. Roy. 2000. Schachter. 2007. Ação e Significação: Em Busca de uma Definição de Gesto Musical. http://www. alanstones. “Mind and Body in Music. Flo. Orton..Carolyn Abate). 1992.ac. “Space-form and the acousmatic image. Marseille: Édition MIM – Documents Musurgia. “The Emancipation of the Sign: On the Corporeal and Gestural Meanings in Music. Albert S. Guide to Sound Objects. http://www. Grosvenor and Meyer. 2003. . Auditory Scene Analysis: the Perceptual Organization of Sound (nueva edición). Roads Curtis. Biggs. Mandelbrojt. et al. Timbre Identification and the Perceptual Reconciliation of Live Instruments and Electronics. Beethoven.” Contemporary Music Review 10(2): 35-48. Alan. Stephane. Tésis doctoral. 1997. Musique acousmatique – propositions.. Lidov. Emmerson. Is Language a Music? Writings on Musical Form and Signification. Les Unités Sémiotiques Temporelles . 35-58. Anthony and King. Simoni. Aldershot: Ashgate Publishing Limited. Albany: State University of New York Press. 1984. Traducción al inglés de la versión de 1983 por John Dack and Christine North.. Bregman. S. São Paulo: Universidade Estadua Paulista “Júlio de Mesquita Filho”. 1966. Disertación doctoral.” En: Gritten. and Tropes: Mozart. Cambridge: MIT Press. Chion. London: Routledge. Don.” In: Lidov. Analytical Methods of Electroacoustic Music. New York: Routledge. L.. Christopher. 61-93. David. Denis. Ihde.utoronto. Princeton: Princeton University Press. 2002.” Organized Sound 2(2): 107-26. 1994. Brian Ferneyhough – Collected Writings.) The Language of Electroacoust ic Music. R. Music and Gesture. EMS: Electroacoustic Music Studies Network. Jacques. 2010.dmu.éléments nouveaux d’analyse musicale. Richard (eds). “Emotive Gesture in Music and its Contraries. 2005.php?article238 Gritten. EARS: ElectroAcoustic Resource Site. http://www.chass. 1993. 2004. Stones. London: Routledge. Weale. 24-44. Schubert. 2006. Cambridge. (desde 2002). R. Smalley. 1996. 2006 (reimpresión de 1998). Companion to Contemporary Musical Thought. En: ElectroAcoustic Resource Site. “Spectromorphology: explaining sound-shapes. Landy.” Applied Semiotics 2(4): 15-26. Anthony and King Elaine. 2004.Tarasti.org/spip.uk Cooper. The Rhythmic Structure of Music. “Towards New Models for the Construction of Interactive Electroacoustic Music Discourse.ems-network. Music and Gesture. The Computer Music Tutorial. “For Morphology of Interaction. Kansas City: University of Missouri – Kansas City.pdf en el limite | 51 . Brian. New York: Routledge. Daniel.” Organized Sound 12(1): p. eds. “Form-Figure-Style: An Intermediate Assessment. 2006. Menezes.” En: Boros. Brian. Beijing. London: Macmillan Press Ltd. Smalley. Leonard B. P. Souza. 1982.. Traité des Objets Musicaux (nouvelle édition 1977). François. 21-28. L’analyse des musiques électroacoustiques: Modèles et propositions. Richard (eds). Pablo. “Defining Timbre – Refining Timbre. Bloomington: Indiana University Press. Bayle. “Spectro-morphology and Structuring Processes. André Ricardo. Hatten. Paris: L’Harmattan. Aldershot: Asgate. Pierre Schaeffer and Musical Research. David.” En: Boros. Universidade de Aveiro. Michel.ca/french/as-sa/ASSA-No4/ Vol2. Massachusetts: MIT Press. Ferneyhough. John. Denis. Master dissertation. Interpreting Musical Gestures. http://www. 514-554. (tr. Paris: Éditions du Seuil. T. Music and Discourse: Toward a Semiology of Music. Phenomenologies of Sound (segunda edición). 2006 (reimpresión de 1998). Chicago: University of Chicago Press.H. Ferneyhough. Dal Farra. Peter eds. Robert S. Pierre. 1994. Denis. The Analysis of Mixed Electroacoustic Music: Kaija Saariaho’s Verblendungen. Denis. London: The Macmillan Press. Listening and Voice. Simon (ed.net/analysis/analysis. Mary.” In: Paynter. Richard and Seymor. http://www.” In: Emmerson.Bibliografía Bachratá. Simon (ed. 2007. Elaine.ears.ears. 2006. 2007. “The Listening Imagination: Listening in the Electroacoustic Era..uk/ Lidov.ac.dmu.) 1986. Denis. Jean-Jacques. Smalley. London. Atkinson. Petra. Eero. a case study. James and Toop. Smalley. Paris: Buchet /Chastel. Bloomington: Indiana University Press. Couprie.. 1986. Brian Ferneyhough – Collected Writings. David.

. 1986. Durante la parte inicial de un sonido. R. oxfordmusiconline. Hanbook for Acoustic Ecology. 1999. 1994. Xenakis. Trevor. eds. 8 Cooper. New York: Routledge. 13 Nunataq (2005). On Sonic Art (nueva edición corregida. “Defining Timbre – Refining Timbre.ca/sonicstudio/handbook/ Whittal. http://www. 10 Wishart.htm Bachratá. (2009). New York: Routledge. New York: Pendragon Press.. 1 En mi tésis doctoral.” In: The Oxford Companion to Music. Iannis. p. 1992.oxfordmusiconline. where the rainbow ends. Hanbook for Acoustic Ecology. http://www. Simon.) The Language of Electroacoustic Music. Spectromorphological Analysis of Sound Objects. como por ejemplo madera o metal) del gesto (“vemos y escuchamos” los gestos). Trevor. Si pudiéramos aislarlos y retirarlos de la grabación de un sonido. A Plain and Easy Introduction to Practical Sound Composition.37. Trevor. Denis.ems-network.sfu. Temporal Forces in Electroacoustic Music.pdf Truax. dicho sonido se confundirá fácilmente por otro. Formalized Music. ed.com/trans/trans9/zanpronha. ed. Christopher. 1960.” Transcultural Music Review 9. como. Universidade de Aveiro. Gesture Interaction in Music for Instruments and Electroacoustic Sounds. Albert S. 49-50. 11 Biggs. London: The MacMillan Press.com 6 Simoni. EMS: Electroacoustic Music Studies Network. Audible Design. no alternative (2007). Barry. Edson. por ejemplo. http://www. Pablo. 2006. su ubicación en el espacio y su timbre. “Transiente” es una fluctuación corta y repentina en un sonido..” Organized Sound 2(2): 111-112. se incluyeron más de 180 ejemplos de relaciones gestuales interactivas. P. php?article238. 2010. Eyes wide shut (2008) y Somewhere. Cambridge: MIT Press..). Subrogación remota: está relacionada con las transformaciones más extendidas y profundas del sonido original. 1996.” En: Simon Emmerson (ed. en la que tanto la causa como la fuente son desconocidas. Simon (ed. Lasse. Wishart. Emmerson.). Grosvenor and Meyer. Wishart. 18 Bregman. Tesis doctoral. (since 2002). http://www. 2005. Dal Farra. Chicago: University of Chicago Press.. Un evento es dos veces más largo en relación a otro (relativo) o la duración de un evento es exactamente tres segundos (absoluto).ca/sonic-studio/handbook/ 12 52 | en el limite . An Adaptation of Pierre Schaeffer’s Typomorphology. 2006.. R. 4 Landy. New York: Routledge. sibetrans. London: MacMillan Press. Portugal. Zampronha. L. 1996. 2006.. On Sonic Art (nueva edición corregida. 1997..ears. Simon. 1994.. Trevor. 9 Smalley. cuando un violinista apoya el arco sobre la cuerda o cuando un trompetista articula las notas utilizando la lengua. http://www. Versión online de la segunda edición. 16 17 Smalley 1994. Denis. versión online de la segunda edición http://www.org/spip. Subrogación de primer orden: Puede reconocerse tanto la causa (instrumental) como la fuente (tipo de material. EARS: ElectroAcoustic Resource Site. Weale. Vozes de Aço (2008).. “Sound Symbols and Landscapes. EMS: Electroacoustic Music Studies Network Beijing. 1999.ems-network. 2 Reflections (2005).” En: Emmerson. Atkinson. et al. p.Referencias Thoresen. “Spectromorphology: explaining sound-shapes.uk/ 14 Wishart. Couprie. “Rhythm. 41-60.” Contemporary Music Review 10(2). Barry. Analytical Methods of Electroacoustic Music. Mary. http://www.) The Language of Electroacoustic Music.” Disertación doctoral. cada categoría está documentada por varios ejemplos de audio. 7 Simoni 2006.ac. Los transientes son importantes para identificar la fuente sonora. Oxford: Oxford Music Online. Auditory Scene Analysis: the Perceptual Organization of Sound (new edition). “Gesture In Contemporary Music – On The Edge Between Sound Materiality And Signification. Petra.sfu. Kansas City: University of Missouri and Kansas City. En total. Subrogación de segundo órden: Se saca el gesto instrumental tradicional de su situación típica (la interpretación). la causa puede suponerse a partir del perfil energético pero no hay manera de identificarla visualmente. “Sound Symbols and Landscapes. 1994. 5 Smalley. Luminiscencia (2006) y Mystic Garden (2007) 3 Ibid. Beijing.38. The Rhythmic Structure of Music. Thought and Matematics in Music (revised edition). Subjective risk. 2007. Trevor. http:// www. Arnold. Leonard B. p. 1986. Garcia-Valenzuela. 15 The Oxford Online Dictionary of Music. 19 Truax. “Timbre Identification and the Perceptual Reconciliation of Live Instruments and Electronics. Emmerson.dmu.org/IMG/EMS06-LThoresen. S. ed.com/subscriber/article/ opr/t114/e5635 Wishart. ocurren muchas de estas fluctuaciones. Alison Latham. Orpheus the Pantomime Ltd.

p. New York: Routledge. 222 Smalley 1986. Simon. On Sonic Art (nueva edición corregida. ed. Denis. Emmerson. Ibíd. Wishart 1996.92 25 26 27 28 29 30 31 en el limite | 53 . Trevor.Smalley. p. p.74.91 Wishart 1996.” En: Emmerson. 23 24 Ibíd. 116. Bregman 1994. Simon (ed. 22 Wishart. p. 1986.231 Smalley 1986. p. 69. p. p. “Spectro-morphology and Structuring Processes. 1997. p. 1996.) The Language of Electroacoustic Music. 20 21 Wishart 1986. London: The Macmillan Press.).56-60. Wishart 1996 Smalley 1986. Wishart 1996 Smalley 1986.

términos como tiempo-real y tiempo-diferido. particularmente con sistemas que involucren tecnologías electrónicas (tanto sean analógicas como digitales). Tanto en la creación como en la ejecución musical hay múltiples oportunidades donde la interacción puede aparecer como un factor clave. entre una variedad de otros puntos. Nuestra vida misma es una muestra permanente de la complicada y compleja multiplicidad de niveles que es posible alcanzar en lo que hace a la interactividad. fuerzas.com (Entre la composición. la improvisación y la comprovisación) La incorporación de la inmediatez como factor clave de la experimentación y el estudio. Todos nosotros interactuamos permanentemente con nuestro entorno (y con nuestro interior) en la definición y ejecución de nuestras acciones. la cultura y la vida. agentes. la interacción propia de las improvisaciones musicales donde intervenga más de un músico. Sin embargo. elaboración y maduración del material musical. Según sea la formación. ya sea en la creación o en la ejecución musical. la relevancia y el significado de la precisión en la ejecución. De cualquier modo. Siendo ésta una postura estética y filosófica ampliamente discutida en torno al arte occidental durante el siglo XX. la improvisación. por lo menos esperables. empleando sistemas apoyados en la interactividad y en el uso de tecnologías electrónicas.dalfarra@gmail. si no indispensables. a la inmediatez. Decisiones La interacción desbalanceada que se produce cuando tocamos un instrumento musical cuyo control. y de igual modo de la notación.”. La decisión de no decidir nos lleva a un debate profundo y apasionante sobre el mundo. puede formar parte de un análisis sobre la interacción. no solamente no puede ser exacto al ser manipulado en tiempo real sino que además lleva implícito a la “inestabilidad” en la aproximación al dispositivo como un elemento estructural y propio de la estética de la obra. la interacción plantea como uno de sus elementos. aunque ampliándola en las siguientes líneas también a la interacción entre seres humanos cuando la misma se ve mediada o afectada de modo concreto y específico por la intervención de la máquina. aparecen como significativos cuando se desea remarcar la diferencia. 54 | en el limite 2. sus relaciones y nuestros conceptos sobre el arte. De ahí la necesidad de limitar este escrito a ciertas interacciones. El análisis vendrá a partir de ejemplos musicales que servirán como guía de una exploración donde los proyectos de investigación/creación fueron creciendo a través de la relación entre música y tecnología. etc. sino además a la música de tradición [fundamentalmente] europea realizada durante las últimas décadas.Interacciones Electro[±]Acústicas Ricardo Dal Farra CEIArtE-UNTreF Universidad Nacional de Tres de Febrero Concordia University ricardo. que según la óptica de quien se acerque a la cuestión. la inclinación musical y también la intencionalidad del observador. lleva en el caso de la música a plantear como elemento de análisis a la improvisación y su rol sustancial. el objetivo propuesto para este texto es aproximar al lector a algunas de las opciones y estrategias que ha aplicado este autor en el contexto de la creación y/o ejecución musical. desde luego variando su relevancia de acuerdo con la corriente musical de la que se hable. funciones. Limitándonos en este escrito no solo al ámbito de la música. De ahí el término muchas veces empleado: tiempo-real. como intento para despegarse del concepto necesario en gran parte de la creación musical occidental. alimentados por la riqueza y las restricciones que esa misma relación ofrece cuando se la investiga tomando como punto nodal a la interacción. puede suscitar cuestionamientos sobre la interpretación. de contar con un tiempo de reflexión. y aún dentro de ellas. 1. . parece ser ineludiblemente mayor al tiempo de duración del resultado del trabajo artístico generado. Territorio La Real Academia Española define interacción como la “acción que se ejerce recíprocamente entre dos o más objetos. buscando principalmente en lo que se conoce como la relación hombre-máquina. en algunas culturas más que en otras. En particular me refiero aquí a la libertad del compositor en decidir no decidir.

con el resultado sonoro. la necesidad de decidir cuando en realidad se considera que el resultado no se va a ver enriquecido sino por el contrario. esperable y calculable. El Estudio sobre un ataque de timbal (http://www. De dicha relación se espera. Estas reglas incluyen tanto criterios establecidos específicamente para este Estudio. como los desarrollados a lo largo de años de preparación para adentrarse en el mundo profesional de la música. una respuesta que de algún modo sorprenda a quien inicia cada acción. una reacción. La misma devuelve. los mensajes que van a condicionar las acciones siguientes del ejecutante. 1982) ofrecen dos aproximaciones dentro de la perspectiva planteada. Entre los sistemas cerrados y la indeterminación hay un amplio y rico campo que podemos explorar e investigar. el propio compositor considera como de fundamental relevancia en la factura de su pieza. Más allá de lo que pueda percibirse como improvisación musical. Pero existe una acción recíproca. El Estudio sobre Ritmo y Espacio (Dal Farra. sirve como introducción a los temas profundos y complejos que el análisis de la interacción conlleva. no independiente de la acción inicial. propias de un instrumento que controla desde un teclado musical una serie discreta de frecuencias de muestreo (“sampling rate”). por lo menos en parte.org/html/e/ oeu. y sobre cuyos fundamentos podemos crear. pero la misma postura que se adopta frente a la situación. la que en realidad podría ser (por lo menos en este caso y hasta cierto punto) predecible. la máquina “responde” de una forma u otra a su interlocutor a través de devolver algo esperable dentro de ciertos límites que no se han delimitado previamente de modo preciso. y que en este caso en especial. quien no maneja una partitura estricta sino un conjunto de reglas. A no olvidar aquí que éste es solamente un primer ejemplo donde justamente se parte de una pretendida interacción. o hasta cambiar los resultados. así como también el tiempo de exposición a una cierta tradición cultural. un elemento sorpresa. según sea el contexto. tomaré lo que mejor conozco: algunos de mis trabajos. Con similar intención.php?NumEnregOeu=o00002734) mantiene ciertas características comunes en el limite | 55 . La máquina no va a reaccionar de forma diferente porque así lo deseemos y esperemos. En este “juego” se produce el diálogo musical entre ambas partes de un sistema que concluye su interacción con un elemento sonoro que en el final (de este breve Estudio) rompe la elaboración que venía construyéndose.fondation-langlois. y donde las fuerzas no tienen el mismo grado de libertad e independencia. confronta al humano con la máquina en un juego creativo donde la interacción está apoyada más en la imaginación y en las expectativas del artista que en la reacción de la máquina. La interacción aquí es claramente desbalanceada dado que la acción principal que se ejerce sobre el instrumento está determinada por quien está controlando el teclado. posiblemente empobrecido por ese requerimiento de delimitar territorio. provocando un circuito aparentemente simple. 1982) y el Estudio sobre un ataque de timbal (Dal Farra. la “comprovisación” aprovecha el espacio entre la composición y la improvisación para flexibilizar las estructuras y ofrecer la oportunidad de completar o incluso armar un cierto discurso musical. Como ejemplos. la homogeneización. muy por el contrario puede dosificarse como un remedio contra la repetición. Esta discutible interpretación de la creación y ejecución del Estudio en cuestión. la selección de cada tecla en el “sampler” utilizado (un E-mu Emulator) marca las diferencias de duración. en el momento. Mientras el ejecutante trabaja con flexibilidad sobre una propuesta rítmica creada con el sonido propio de una moto. y la circunstancia. sin embargo.fondation-langlois. Es ese “momento” en el que se puede enriquecer o empobrecer una propuesta. pero a la vez rico. En el primer caso (Estudio sobre Ritmo y Espacio: http://www.php?NumEnregOeu=o00002080) la interacción hombre-máquina es relativamente simple y por cierto desbalanceada. de altura/ banda de ruido y tímbrica. hay un punto clave en el que se basa la estructura creativa propuesta para el Estudio sobre Ritmo y Espacio que resulta ser la interacción hombre-máquina.org/html/e/ oeu.Pero desde luego la no decisión no necesariamente debe aplicarse a todo. dependiendo del planteo del compositor y/o del ejecutante-improvisador.

etc. con el “sampler”. salta aquí cualitativamente en una dirección donde las fuerzas de acción y reacción cobran nuevas dimensiones. construyen un complejo sistema de interacciones con la máquina. sensibles. Audiciones (Dal Farra. El Estudio sobre un ataque de timbal 56 | en el limite ofrece un verdadero reto a quien se atreva a participar del desarrollo de un sistema cuyos valores y estabilidad puedan variar durante el curso de la toma de decisiones (artísticas). o no tanto. de la musicalidad.fondation-langlois. manejables en el Emulator mediante dos controles continuos. es el que mantiene o no nuestra atención. Ese factor que de algún modo es inesperado y esperado a la vez. Se plantea entonces un balance diferente al del Estudio sobre Ritmo y Espacio. Este tipo de funciones. Cuando la acciones se producen entre un humano y una máquina. En las intersecciones de esas capas está gran parte de la riqueza de la música. como la importancia y el significado de la interactividad en la creación artística. En esta compleja elaboración del intelecto se mueven. De la vinculación hombre-máquina En las fuerzas interactuantes que se ponen de manifiesto como necesarias en la mayoría de las improvisaciones donde por lo menos participen dos personas. el elemento “sorpresa” no es menor. en los dos ejemplos siguientes es de destacar el mayor grado de libertad que se le asigna a la máquina para declarar su reacción y establecer un juego de poderes con mayor y mejor balance entre las partes. Este instrumento. Los factores que intervienen en la creación/ejecución. es el que diseña el mapa de la creatividad. el ejecutante (persona) puede tener un pleno manejo y control de la situación y los resultados. dando lugar a una rica diversidad de posibilidades que nos cuestiona sobre lo . así como la elección de la tecla ”sampling rate”.php?NumEnregOeu=o00002077) 3. hacían posible manipular en vivo aspectos de una señal de audio digitalizada que poco después (en los modelos de “samplers” subsiguientes) ya no serían tan fácilmente accesibles para una manipulación directa. pero la interacción en función del manejo y control de lo esperado versus lo inesperado aumenta aquí notablemente. cuando se piensa en su aplicación para cierto tipo de música (por ejemplo: electroacústica en vivo).con el Estudio sobre Ritmo y Espacio. Uno de estos controles permitía truncar parte de la señal digitalizada o fijar el punto de comienzo del “sustain loop”. donde el peso de la acción humana devuelve una reacción con variaciones notables. sobre las reglas y su acatamiento o enfrentamiento. ejecución y recepción donde podemos encontrar las características que luego en nuestro análisis nos llevan a la disección de elementos mas específicos. permitía controlar en tiempo-real y simultáneamente. pero siempre dentro de márgenes claramente manejables por la persona. Así la interacción hombre-máquina que se estableció en esta pieza. las acciones del ejecutante. en diferentes capas. El Estudio sobre un ataque de timbal fue realizado con el mismo “sampler” utilizado en el Estudio sobre Ritmo y Espacio: el Emulator. esperable. aún sin saber exactamente qué (será) ni cómo (llegará). 1983) pueden ser tomados como ejemplos de una aproximación más compleja a la problemática eje de este trabajo. las expectativas del oyente. las determinaciones que va tomando el músico en tiempo-real sobre los controles de duración y comienzo del “sustain loop”. y donde la “respuesta” de la máquina propone un desafío a cada momento. Audiciones (http://www. que comenzó a producirse en 1981. pasando éste a ser un actor que sorprende y con poder suficiente para incluso inducir a torcer el curso de los acontecimientos. dos funciones que podían alterar sustancialmente una señal previamente digitalizada. Claro que esta aparente desventaja.org/html/e/ oeu. no representa necesariamente un problema cuando se considera otro tipo de música (rock. Son esas interacciones entre plan. mientras que el otro permitía fijar la duración de dicho “loop”. que parece ir bastante más allá del rol pasivo que podría asignársele en principio al aparato.). como por ejemplo. pop. 1983) y el Estudio Elíptico (Dal Farra. los planteos del compositor. Mientras que en Estudio sobre Ritmo y Espacio y el Estudio sobre un ataque de timbal encontramos una interacción desbalanceada entre los dos agentes. Retomando la relación hombre-máquina entre ejecutante e instrumento en un planteo de interacción musical.

improvisación o aleatoriedad controlada hacen a la esencia . pueden accionar de forma conjunta o no. considerando en la ecuación al campo de las interacciones como un factor influyente y significativo a tomarse también en cuenta. la estructura de nuestra construcción intelectual sobre lo musical y su relación con la composición y la improvisación se nos complica y mucho. de propuestas e imposiciones que cada actor. el espíritu mismo del trabajo basado en la interacción. misma de la realización. que esté basada en sistemas donde un cierto nivel de interactividad. aunque a veces pareciera que se la toma como un elemento paralelo en el limite | 57 Retomando entonces los avances planteados sobre composición e improvisación. simultánea o alternativamente.php?NumEnregOeu=o00002736) puede ubicarse como cercano a Audiciones. la interactividad tiene múltiples perspectivas y percepciones. el cambio en nuestra percepción puede producirse en función de la frecuencia de alternancia entre los componentes de esa secuencia. dejando intacto. a partir de una única fuente sonora electrónica manipulada y modulada en tiempo-real.fondation-langlois. ésta última comienza a moverse con mayor independencia si comparamos el proceso desarrollado aquí con respecto a los característicos de los dos Estudios descriptos en la sección anterior.plantea una permanente transformación tanto en el plano de las alturas. que la obra no haya sido el resultado de una reflexión. Una danza donde más allá del control y la determinación del hombre sobre la máquina. el ritmo. Cabe recordar aquí lo expresado en el comienzo sobre limitarnos en este escrito al ámbito de la “música de tradición europea”. Es decir. no significa de modo alguno que no existan también los elementos esperables en una composición. en el sentido del balance entre los componentes del sistema hombre-máquina que conforma el mapa conceptual planteado para la interacción de base en ambas piezas. en una misma pieza musical. la dinámica. como en el metro. la relación entre ruido y sonido tónico se plantea a lo largo de toda la obra. ante circunstancias propicias. Al igual que en los casos hasta aquí cotejados. en Audiciones la máquina va logrando ubicarse en un lugar cada vez más significativo en esta relación de fuerzas y sugestiones. si se toma en cuenta que incluso una secuencia de sonidos con claras posibilidades de discernirse como tónicos pueden convertirse en ruido ante determinadas características (por ejemplo. La música como fenómeno y proceso forma parte de la vida. si consideramos a una serie de sonidos que puedan. La breve definición de la Real Academia Española sobre componer. el espacio y el timbre. lejos de intentar abrir aquí una nueva puerta para comenzar una discusión infinita sobre el tema. Cabe también decir que mientras interactividad. según los resultados buscados. de algún modo. En el Estudio Elíptico. ser escuchados como poseedores de una tonicidad indudable. incluyendo aquellos donde es difícil para nuestra percepción saber donde ubicarse. del mundo y de sus circunstancias. Esta competencia pasa por una diversidad de estados.org/html/e/ oeu. de un solo registro ininterrumpido al que no se le aplicó ningún tipo de proceso de posproducción. y no es ajena al resto de las situaciones y transformaciones que van sucediendo en la sociedad y la cultura donde está inmersa. ya que si abrimos la discusión a una diversidad de tradiciones establecidas por diferentes culturas. lo que sin duda contribuye al apasionante debate sobre las diferencias y características entre compositor e intérprete (palabra que no había utilizado hasta aquí) o ejecutante musical. Como si se tratase de una entidad que va creciendo y desarrollándose casi por si misma. dice: “producir obras musicales”. que no se le apliquen procesos de posproducción posteriores a la grabación original y sobre todo. deseo darle a esta relación un espacio con toda la amplitud y apertura intelectual que merece. y más. dependiendo el resultado también de la amplitud del registro planteado). improvisación y aleatoriedad controlada son cuestiones diferentes. Que una obra musical sea ejecutada en tiempo-real. elaboración y planificación considerable. entre composición e improvisación. la realización del Estudio Elíptico fue resultado de una única toma. acepta al establecer las interacciones que son parte ineludible de la factura de la obra. El Estudio Elíptico (http://www. hasta donde fue posible.

Double (1986) para guitarra y procesos electroacústicos en tiempo-real. 1986).org/html/e/ oeu. sino además porque el músico que genera los sonidos con su guitarra solo puede actuar en base a los elementos compositivos pre-elaborados cuando estos operan en conjunto con los resultados de la interacción con el sistema electroacústico. donde cada agente necesite mantener el equilibrio a partir de la interdependencia de las fuerzas actuantes. La retroalimentación es tal que requiere de una alta velocidad de reacción por parte de cada participante. y también a la vez. Aunque en esta pieza el sonido original del instrumento acústico llega a la audiencia de modo directo. 1989). sino que justamente dispara los elementos que van a permitir que ese proceso. A diferencia de trabajos donde la improvisación conecta en algún nivel a los ejecutantes pero le permite a cada uno hacer llegar de forma 58 | en el limite autónoma su generación de contenido al público. con el instrumento acústico. Para comprender el circuito hace falta explicar aquí que un cierto retardo es incorporado en el proceso electroacústico sobre la señal original. El proceso de interacción se torna interdependiente a tal punto que cada agente del sistema no puede actuar sin el otro. Figura 1. 4. puede servir como base de un sistema de retroalimentación que permita una forma diferente de realización musical. al primer músico que produjo la materia prima básica. pero que indispensablemente entra en el sistema electroacústico controlado por el segundo músico. Es decir. Un modo de esclarecer esta modalidad interactiva de operación artística aparece en la descripción parcial del funcionamiento de obras como Double (Dal Farra-Gervasoni. el primero no ejecuta una partitura rígida e independiente en su totalidad del proceso. Por lo tanto. interactúan de modo tal que cada paso enlaza la acción de uno a la reacción del otro.fondation-langlois. . la modalidad propuesta aquí es una donde el músico. dos músicos. Clones (Dal Farra-Gervasoni. y por ende el sistema mismo. 1986).a la realidad. 1986). uno ejecutando un instrumento acústico y el otro manipulando un conjunto de procesadores electroacústicos. quien manipula la señal y la devuelve al espacio sonoro para que llegue entonces ya transformada hasta la audiencia. existan. Ancestros (Dal Farra.php?NumEnregOeu=o00002069) el material sonoro proviene de una guitarra tradicional española. En ellas. la obra no solo estaría así incompleta por la falta del material que se necesita procesar a través del dispositivo electrónico. 1986) y EGT (Dal Farra. Integrados (Dal Farra-Gervasoni. Otras relaciones/interacciones Un planteo fuertemente conectado a la relación hombre-máquina y que a la vez incorpore elementos de improvisación grupal dentro del contexto de una composición. la incidencia y la relevancia de la interactividad en la música no es ajena e independiente del complejo entramado de relaciones que de diversas formas se van estableciendo en la cultura de la sociedad que las contiene. ya que de eso depende lo que finalmente la audiencia escucha. lo que hace que retorne al primer músico cuando éste ya está tocando algo diferente. genera el material sonoro de base que puede o no llegar de forma directa al público. En Double (http://www.

pero el ejecutante y productor de la materia prima original. además de Double. no podría elaborar y desarrollar el mapa de la composición sin la interacción con ese sistema (del que forma parte) y que devuelve gran parte de los mojones e indicadores que van pautando y/o estableciendo los posibles caminos a seguir. quenacho. en el limite | 59 . interdependencia. Ancestros (1986) para quena. En Ancestros.org/html/e/ oeu. ya que los instrumentos de viento andinos (quena. antara y procesos electroacústicos en tiempo-real (detalle). La grabación de Ancestros. Es decir que es posible escuchar estas piezas tal como llegarían a la audiencia en una situación de concierto. que no presenta dudas en cada nueva interpretación de la obra. A través del balance entre libertad.php?NumEnregOeu=o00002068) nunca existió durante la producción y grabación original. la simultaneidad de sonidos que se escuchan en el registro sonoro (http://www. fue realizada en una sola toma y en ningún caso se aplicaron ediciones posteriores. creatividad y conocimiento se genera el equilibrio que da lugar a la obra musical. que mantiene sus elementos constitutivos aunque puedan aparecer factores de variación sustancial ante cada nueva ejecución. también Ancestros. Clones. Integrados y EGT son ejemplos de esta modalidad de operación musical. quenacho y antara) fueron ejecutados siempre en forma secuencial.fondation-langlois. A través del sistema electroacústico. responsabilidad. en Double desde una guitarra. así como la de todas las obras dadas aquí como ejemplos. Tal como mencioné antes. Figura 2. sobre el cual puede continuar la elaboración y construcción artística final. Se trata entonces de un producto para él reconocible pero a la vez nuevo.Se plantea entonces un circuito multimodal donde el sistema electroacústico no puede existir sin la materia prima del instrumento acústico. el resultado de una acumulación sonora artificial se le devuelve al músico generador del material acústico original. La complejidad del sistema de retroalimentación musical no es obstáculo sin embargo para impedir la evolución de una estructura compositiva clara.

Integrados (http:// www. A la vez. Integrados (1986) para guitarra y procesos electroacústicos en tiempo-real. Cada nuevo trabajo representa. el sistema electroacústico continúa operando musicalmente con los sonidos de la guitarra pero sin la necesidad de la entrada de materia prima permanente generada desde este instrumento acústico. php?NumPage=1663) requiere para su interpretación en vivo el desarrollo de ciertas técnicas de ejecución en la guitarra que hagan posible. la sección donde se escuchan sonidos cortos. El ejecutante desde la guitarra mantiene el mismo grado cromático a lo largo de toda la pieza en la guitarra. punteados. el momento histórico en el que fueron realizadas estas obras y las tecnologías disponibles en dichos momentos. por otro lado. de alguna manera. 60 | en el limite el intérprete de la guitarra podía detener su ejecución y retirarse del escenario durante la fase final de la pieza aunque. en concierto.php?NumEnregOeu=o00002071) para guitarra y sistema de procesamiento electroacústico en tiempo-real propone un trabajo aparentemente simple desde lo compositivo. Figura 3. el delicado equilibrio de realimentaciones que constituye dicha parte de la obra no existiría si no fuese por el material generado por la guitarra momentos antes de que su ejecutante abandonara la escena. por ejemplo.org/ html/e/page.fondation-langlois. en referencia con la interactividad planteada a través de los diversos ejemplos anteriores. paradójicamente. partiendo siempre de la aparente monotonía generada por la reiteración inflexible del mismo grado cromático en la guitarra. aparentemente. Es a través de las sutiles diferencias en la articulación y el manejo espectral de los sonidos producidos en el instrumento acústico donde se generan los condiciones básicas decisivas que luego se expanden mediante el proceso electroacústico. el sistema de realimentación hace que la interdependencia sea en Integrados altamente significativa.Clones (http://www. antes de continuar. Es importante ubicar. pero altamente demandante para los intérpretes. saliéndose.org/ html/e/oeu. una exploración artística donde las ideas musicales se entrelazan con las tecnologías electrónicas en una búsqueda por expandir los límites. Así. . requiere de una sincronización entre ambos músicos ya que como en Double. la diversidad de alturas que se perciben a través de las cambiantes estructuras de acordes. del sistema de interacciones.fondation-langlois. y es la interacción con el músico que opera sobre el sistema electroacústico lo que permite las constantes variaciones. es que aquí la indispensable interacción entre los agentes participantes parece transcender a un estadio diferente cuando en la última parte. Un elemento distintivo en Clones. en simultáneo con complejos acordes rasgueados [escuchar a partir de los 3’30” de comenzada la obra]. es justamente en este proceso electroacústico donde radica toda la transformación de alturas que se escucha a lo largo de la obra.

Pero en ese camino recorrido. en un campo de experimentación tan sofisticado que se expande hoy a través de relaciones que pueden abarcar casi cualquier campo de la investigación científica y del desarrollo de tecnologías. pero además dan testimonio de un momento. pero igualmente son consecuencia de las variaciones y transposiciones realizadas por medios electrónicos. y una unidad de retardo digital. a partir de ciertos cambios extremos en las articulaciones de los sonidos que el instrumento acústico produce. en EGT es justamente el rango amplio. escuchar desde los 3’30” de comenzada la obra]. antes de llegar adonde estamos. acampamos en diferentes sitios. no tardó en hacer su aparición en el mundo de la creación y la ejecución musical. un transpositor digital y una sencilla mesa de mezcla analógica. producen como consecuencia una forma de interacción. La creciente capacidad computacional disponible para los músicos hizo que comenzara a ser posible trabajar a través del control indirecto de unidades que ya no necesitaron una instrucción precisa del compositor para cada una de las acciones a realizar. utilizado en el trabajo con las articulaciones. radicalmente distintos en cada caso. Así. Mientras que en Clones una de las claves es el sutil y limitado manejo de las articulaciones sobre el sonido del instrumento acústico. la guitarra como generador sonoro principal. procesamiento y control de señales sonoras en tiempo-real convirtió a la música electrónica en vivo que conocíamos. ambas piezas solo existen como consecuencia de complejas interacciones electro<->acústicas. resultados sonoro/musicales. mediante la manipulación de sintetizadores analógicos y el control de unidades de transformación relativamente simples. Las modalidades de intervención. abrió puertas insospechadas para la mayoría de nosotros. y desde luego. de interacción.fondation-langlois. El acceso a esas computadoras personales. La interrelación de fuerzas entre los agentes de un sistema se hace cada vez más equilibrada. Clones e Integrados. Las acciones en la guitarra disparan importantes cambios en los procesos electrónicos. un generador de ideas (el compositor. en nuestro caso) podía instruir a un tercero (la computadora) para que aplicara en el limite | 61 5. una instrumentación electroacústica similar. que el compositor genere un “alter ego” mediante recursos informáticos.Los cambios en las sonoridades de cada acorde dependen del qué (notas componen el mismo) y del cómo son tocados cada uno de ellos en la guitarra. que mantiene ciertos factores en común con varias de las obras citadas en esta sección. A pesar de emplear la misma instrumentación en Double.php?NumEnregOeu=o00002066). todas ellas disponibles en Internet. se diferencia sustancialmente en los resultados musicales de cada una de las otras piezas. todo controlado manualmente como único sistema electroacústico para el procesamiento en tiempo-real. primero de escritorio y ahora portátiles. La conectividad entre unidades complejas de generación. casi extremo.org/html/e/ oeu. y de que esos procesos electroacústicos sean realizados en el instante adecuado para que las transformaciones consecuentes no aparezcan desconectadas del hecho generador (acústico) principal [también aquí. sirven como ejemplos de lo hasta aquí escrito. ciertas diferencias. de una interpretación de las reglas. La revolución de las computadoras personales que viene modificando nuestra forma de vida desde hace unas tres décadas. Las grabaciones de estas obras. En EGT la guitarra ejerce un nivel de control importante sobre las acciones dinámico-tímbricas que produce el sistema electroacústico. uno de los elementos a destacar y que definen su factura. En EGT el ejecutante de guitarra actúa diferente y ejerce un manejo sobre el sistema electroacústico distinto al control que puede ejercer en Clones. por ejemplo en el manejo de los tiempos de retardo del sistema. Las obras fueron así planteadas y así fueron realizadas. de balance de fuerzas son distintas. y la construcción de sistemas en red. La tecnología MIDI nos facilitó el control de unidades autónomas. En cualquier caso. más allá de utilizar en EGT y en Clones. Entre Quetzalcoatl y Frankenstein Muchos pasos se han dado en el camino hacia lo que hoy entendemos por interactividad en música. incluyendo especialmente a Clones. de una interacción en un tiempo dado. hasta incluso hacer posible . Igualmente EGT (http://www.

independientes. Se trataba del planteo de una forma de trabajo musical que pudiese ir creciendo en base a la interacción. una búsqueda.org/ html/f/oeu. SP4 fue creada con las posibilidades que la tecnología ponía a nuestro alcance hace ya más de dos décadas. Es el resultado de la interacción planteada. el registro fue realizado en una sola toma. La interactividad no solamente fue un factor fundamental utilizado durante la manipulación en tiempo-real del sistema algorítmico generador del material inicial.las indicaciones y reglas de bajo nivel que le indicara. permitiéndole que se ocupara de un control de alto nivel. donde hasta las “imperfecciones” en el solo de percusión sobre el final [escuchar aproximadamente entre los 13’40” y 14’20” de comenzada la obra]. también Homotecia (Dal Farra. Había un mensaje. SP4 (Dal Farra. Es entonces la interacción hombre-máquina entre ejecutante y computadora la que da pie 62 | en el limite a que ésta última se ocupe de cada uno de los detalles de la (micro) organización musical. En realidad. Mientras que durante la primera . No pone en manos de los músicos ni una partitura cerrada (que no les dejaría margen para una cierta flexibilidad interpretativa) ni tampoco propone una libre improvisación o un trabajo aleatorio. De la secuencia así generada fue extraída una de las “voces”. La propuesta para la interpretación de la pieza por parte del o los instrumentos acústicos. pensando en que con el tiempo esta modalidad pudiese ir desarrollando mayores capacidades e incluso. Esta pieza no podría existir de otro modo. la interacción cumple un rol fundamental en esta obra y desde múltiples perspectivas. y a la comunicación de ideas y conceptos dentro de un sistema complejo. php?NumEnregOeu=o00002064) requiere que una cantidad de datos y alternativas posibles sean ingresados a la computadora con anticipación a la ejecución de la pieza. hace hincapié en la necesidad de interacción con la parte pre-grabada. 1992) puede servir a tal fin. fue realizada a partir del control interactivo de un sistema algorítmico. de esperanza. en caso que así lo deseara. para un instrumento acústico solista o un ensamble. según la versión). la serie de notas pregrabadas. La misma fue luego editada y finalmente utilizada como partitura para el solista o el ensamble que tocaría en vivo junto a la parte generada previamente. en el mismo instante de la ejecución de la obra en concierto. Esto lo liberaba de la toma de decisiones para cada detalle. 1989) es un ejemplo de esta. como el envío de una señal. enfocándose sobre los gestos musicales. Son todos eventos sonoros aislados que fueron organizados temporalmente mediante el control indirecto del músico-intérprete sobre la computadora.org/ html/f/oeu. para entonces. La generación del material de base. Ese mensaje conllevaba una especie de oculto deseo. aunque mantiene elementos comunes con SP4. de notas o sonidos aislados.fondation-langlois. Homotecia es una obra mixta. El tiempo transcurrió y los cambios fueron ocurriendo. forman parte de las acciones de control sobre el sistema informático que se ejecutan como consecuencia de las indicaciones que el ejecutante va impartiendo en un cierto instante. y sonidos pregrabados sobre soporte fijo. una propuesta. El sistema utilizado en SP4 (http://www. facilitando el manejo en vivo de opciones que modifican “comportamientos”. La serie de interacciones propuestas en Homotecia (http://www. Una vez más aquí. y no necesariamente la definición de hechos puntuales. Cada uno de los sonidos que se escuchan en SP4 forman parte de una base de datos donde los mismos están digitalizados. lograse incorporar al sistema un cierto nivel de inteligencia que equilibrara las fuerzas de ambos agentes principales (el compositor/intérprete y la computadora). nueva modalidad de interacción musical hombre-máquina. De un modo algo distinto. de algún modo. Pese a las apariencias que en un primer acercamiento pueden confundir. Esto se propuso. ante las diversas (macro) decisiones que toma el músico en tiempo-real.php?NumEnregOeu=o00002743) son diferentes. fondation-langlois. esto permite que luego una variedad de parámetros y gestos musicales sean controlados en tiemporeal durante la interpretación de la obra en concierto. sino que reaparece en la misma interpretación. la propuesta para Homotecia se va transformando poco a poco durante su breve duración (de entre 4 y 5 minutos. y al mismo tiempo.

un competidor hábil capaz de desafiarnos en la ejecución en vivo de la obra. provocando incluso efectos tímbricos derivados de la en el limite | 63 . La serie de alturas ejecutadas es siempre secuencial (melódica). Mel18 (Dal Farra. en la mayoría de las secciones de la obra. Toda la pieza está realizada empleando solamente esos sonidos. 1994) fue creada pensando de ese modo. Todo dentro del contexto inicial definido por el compositor al diseñar el sistema. nos acercaría una alternativa exigente que podría llevar al límite nuestra capacidad de reacción. la interpretación de Mel18 en vivo permite que un músico mantenga el macro-control de los gestos musicales. tanto que nada ni nadie puede reemplazarla en los objetivos fijados. Un agente entrenado. Una contraparte deseada para la interacción. que a veces es muy alta. Una vez que estos aparecen el músico debe interactuar con la grabación.php?NumEnregOeu=o00002075) son notas de piano digitalizadas. de absoluta coordinación con los sonidos pre-grabados. mencionaba la intención y voluntad de explorar y desarrollar formas de interacción donde la máquina tuviese y pudiese aplicar una cierta inteligencia. la cual reacciona a su vez controlando vía MIDI al módulo con los sonidos de piano digitalizados. Algunos de los comandos dados por el músico son los que justamente van a disparar la modalidad operativa de la computadora sobre el módulo de sonido. tocando “juntos” las últimas figuras indicadas en la partitura. donde la máquina (la computadora) tiene un rol fundamental.fondation-langlois. sobre el final del párrafo dedicado a SP4. De ese modo. de elaboración. de construcción. El trabajo del/los intérprete/s requiere de una constante toma de decisiones. pero la frecuencia de aparición de cada nuevo evento sonoro. las que se corresponden con la estructura rítmica de una de las “voces” presentes en el final del registro. partiendo de aquella libertad cuasi-total hasta llegar a un final fuerte y decidido. Un nuevo modelo para el mundo musical. Sin embargo. la misma no solo sería entonces un acompañante (que podría ocuparse de ciertas funciones básicas como responder con elementos sonoros ciertamente limitados y estrictamente pautados temporalmente a las acciones de los músicos que operen con instrumentos acústicos) sino que dicha máquina podría representar un reto. acercándose poco a poco a los diseños rítmico-melódicos indicados en la partitura.parte. sin ningún tipo de proceso electroacústico para alterar sus características. interpretando la propuesta compositiva para convertirse en un miembro del “equipo de trabajo musical interactivo”. incluyendo diversos niveles de interactividad. como un paso dado en esa dirección. un modo extremo que escapa a las habilidades normales de un músico. y considerando a la vez su interacción con el resto de las voces presentes en el registro sobre soporte fijo. de decisión. la pieza le ofrece al intérprete una libertad casi total hasta que comiencen a escucharse los sonidos pre-grabados. capacitado para responder específicamente a las necesidades y características de una composición en particular. El músico controla entonces a la computadora. Los sonidos empleados en Mel 18 (http://www. llega a ser percibida cuasi-armónicamente. mientras la computadora mantiene el micro-control de los eventos. Entre estos extremos. El planteo incluye una transformación gradual pero incesante. y con gran celeridad. en el entorno social y cultural en que nos desenvolvemos y nos desarrollamos. Algunas líneas más arriba. pero el intérprete no puede definir con anticipación. por ejemplo: el metro o el tipo de gesto o curva melódica que el sistema digital adoptará. A través de un sistema creado sobre el entorno de programación Max. pero debe/n arribar al final de la pieza en forma absolutamente sincrónica con el material pre-grabado. la forma en que se ejecuta este “piano virtual” (de allí el subtítulo: Siete piezas para piano virtual) apunta a presentar. como concepto que puede aplicarse igualmente a la realización adecuada de la obra. así como a la visión del rol de cada uno de nosotros en el sistema de interacciones que nos toca vivir.org/html/e/ oeu. La ejecución de la pieza requiere casi permanentemente que el músico tome decisiones. el o los músicos deben trabajar con un sentido de “responsabilidad y compromiso”. Los intérpretes deben ir adaptándose lentamente a la rítmica dada desde los sonidos pre-grabados. Una máquina que sea un interlocutor válido.

Nuevos senderos En la construcción de los senderos hacia una diversidad de modelos de organización sonora. El sistema construido sobre Max utiliza una arquitectura simple pero produce resultados complejos. otros sentidos se han ido cruzando para dar cabida a un entrelazado aún mayor en lo que hace a la percepción humana y su capacidad de elaboración cognitiva. Pero esto abre un capítulo nuevo en la exploración de la interactividad en su relación con el arte. Particularmente. al haber sido creado casi completamente por el compositor. y en particular con el mundo del sonido organizado y su conexión con el otro mundo. entre otros motivos por el empleo de generadores de datos aleatorios controlados dentro de un rango variable (una variación del movimiento browniano). 64 | en el limite . el de las imágenes organizadas. consecuencia de la exploración estética y tecnológica de diversas relaciones entre imágenes y sonidos. 6. La cadena de acciones diseña un modelo de interacción que puede ser considerado aquí como una evolución con respecto a los sistemas descriptos anteriormente. la interacción entre imágenes y sonidos. ya que ahora el agente digital aparece con niveles de autonomía significativos en su comportamiento y al mismo tiempo.velocidad del flujo de información musical. por lo que merece un espacio y desarrollo aparte en otro escrito especialmente dedicado. cuya presentación en vivo involucra la transformación de los materiales en base a las interacciones hombre-máquina. entre el artistaejecutante y el sistema digital. Así fue como nació Interacciones (Dal Farra. 1990). Interacciones es una obra para sonidos e imágenes generadas digitalmente en tiempo real. mantiene el planteo estético y filosófico por él elaborado.

http://www.org/html/e/oeu.fondation-langlois. sintetizador MIDI controlado en tiempo-real y sistema de audio multicanal.org/html/e/oeu.fondationlanglois.fondation-langlois. para guitarra MIDI.org/html/e/oeu. (1983-2003) Civilizaciones. R. Voice Solo. R. para contratenor. R.fondation-langlois.fondation-langlois.org/html/e/oeu. Arturo (1986) Double http://www. http://www.php?NumEnregOeu=o00003687 Russek. sonidos electrónicos y transformaciones de la voz en vivo. php?NumEnregOeu=o00002065 Dal Farra. php?NumEnregOeu=o00002050 http://www. http://www. php?NumEnregOeu=o00002737 Lanza. php?NumPage=1672 Russek. php?NumEnregOeu=o00002730 Dal Farra.org/html/e/oeu.org/html/e/oeu.org/html/e/oeu. (1989) SP4 http://www.org/html/e/page. en el limite | 65 . para bailarina. sintetizador digital y procesamiento electroacústico en tiempo-real. http://www. y Gervasoni. R y Costa.org/html/e/oeu.org/html/f/oeu.fondation-langlois. R. Continuidades y Distancias [Estudio Electrónico III]. php?NumEnregOeu=o00002064 Dal Farra. De vez en vez. php?NumEnregOeu=o00002075 Referencias Todas las obras de compositores latinoamericanos citadas a continuación pueden ser escuchadas -completas. proyección de diapositivas y sonidos electrónicos.fondation-langlois. para solista.fondation-langlois.fondation-langlois.fondation-langlois. para mukha veena y procesamiento electroacústico en tiempo-real o sonidos pregrabados en soporte fijo.php?NumPage=1663 Dal Farra. php?NumObjet=58010 Quintanar.php?NumEnregOeu=o0000207 Dal Farra. R.fondationlanglois. (1982) Estudio sobre Ritmo y Espacio http://www. R.fondationlanglois. php?NumEnregOeu=o00002731 Dal Farra.php?NumEnregOeu=o00002736 Dal Farra.org/html/e/oeu. http://www. (1989) EGT http://www.fondation-langlois. php?NumEnregOeu=o00002743 Dal Farra. php?NumEnregOeu=o00002067 Dal Farra.fondation-langlois.org/html/e/oeu. A.accediendo al Archivo de Música Electroacústica de Compositores Latinoamericanos disponible online en el sitio web de La fondation Daniel Langlois pour l’art. php?NumEnregOeu=o00002080 Dal Farra. R. R.org/html/e/oeu. para saxo tenor y procesamiento electroacústico en tiempo-real. sonidos electrónicos y procesamiento electroacústico en tiempo-real. A. R. (1981).org/html/e/oeu. http://www. (1989) Xastock. R.fondation-langlois. php?NumEnregOeu=o00002734 Dal Farra. Antonio (1988). Antonio (1981). Canadá (http://www. http://www. Héctor (1972) Voz.org/html/e/page.org/html/e/oeu. (1994) Mel18 http://www.org/html/e/oeu. y Gervasoni.fondation-langlois.php?NumEnregOeu=o00002068 Dal Farra. php?NumEnregOeu=o00003688 Russek. para seis percusionistas y procesamiento electroacústico en tiemporeal. http://www. (1992) Homotecia http://www. A.org/html/e/oeu. Arturo (1987) G [I.fondation-langlois. la science et la technologie de Montreal. (1983) Estudio Elíptico http://www. (1991) Ashram. II. Gravitacional. (1987) Para Todos Ellos. Dal Farra. y Gervasoni.org/html/f/oeu. (1986) Integrados http://www. R. Alcides (1995) Ektenes III [1995-I].org/html/e/oeu. (1986) Ancestros. C. php?NumEnregOeu=o00002682 Silva. y Gervasoni. R.org/html/e/page. Música para Hall. http://www.fondation-langlois. R. A. http://www. y Gervasoni. Wilson (1989). música electrónica en vivo. (1982) Estudio sobre un ataque de timbal http://www.fondationlanglois.fondation-langlois.org/html/e/oeu. sintetizador digital y procesamiento electroacústico en tiempo-real. R.fondationlanglois.fondation-langlois. Conrado (1989). fondation-langlois.org/html/e/media.org/html/e/page. para soprano y sonidos electrónicos. php?NumEnregOeu=o00002066 Dal Farra. sonidos pregrabados en cinta y procesamiento digital de señales. (1983) Audiciones. (1986) Clones http://www. R. http://www. php?NumPage=1675 Sukorski. (1984). para guitarra MIDI. Inercial]. para flauta baja amplificada y procesamiento electroacústico en tiemporeal. php?NumEnregOeu=o00002071 Dal Farra.org/html/e/oeu. http://www. php?NumEnregOeu=o00002069 Dal Farra.fondation-langlois. para guitarra. http://www.org/html/e/oeu. Pericón. R. Summermood.org/html/e/page. php?NumEnregOeu=o00002063 Dal Farra.Bibliografía Dal Farra. http://www. R. con diapositivas del pintor Víctor Magariños D.fondation-langlois. http://www. php?NumPage=1676 Todos los sitios web citados en este texto fueron consultados y verificados en mayo de 2011. para clarinete.php?NumPage=556).fondation-langlois.fondation-langlois.

Reflexionaremos acerca de cómo la claridad en el planteo de la metáfora. Comenzaremos por acotar el universo del arte digital a aquellas piezas que se constituyen como un sistema multimedia interactivo. en las obras tecnológicas interactivas la relación obra-público se constituye como un proceso comunicacional de ida y vuelta que supone un intercambio de información entre ambos. que el artista construye un conjunto de reglas. el vínculo puede ser considerado un diálogo donde dos sistemas se juntan (. la interactividad también redefine la manera en que se conciben e implementan los contenidos sonoros. Introducción Desde finales del siglo pasado somos testigos del crecimiento de las experiencias del arte a través de las nuevas tecnologías y de cómo ellas han modificado los modos de producción y comunicación. Sistema Multimedia Interactivo .. de entre las que el público puede elegir para desarrollar su propio discurso [7]. obvia pero a su vez compleja. El protagonismo del público en la construcción de la obra desdibuja la noción moderna del artista como genio creador.El rol de la interactividad en el arte digital Matías Romero Costas contemplativo. Es decir. ¿Qué diferencia a estas obras artísticas de las tradicionales? La respuesta. En definitiva.. Además de establecerse como un nuevo lenguaje. Un Sistema Multimedia Interactivo está constituido por un entorno y una serie de entidades vinculados a partir de su interacción. la obra y la participación del público: la metáfora como base para la comprensión del discurso. Como sostiene Burnham. Constituye un sistema porque sus componentes están enlazados a partir de un conjunto de reglas o principios. Entornos de Realidad Aumentada Como dijimos anteriormente. visuales y/o hápticos1 de la obra: preponderan aquellos que son capaces de transformarse y evolucionar de forma inmediata. y es multimedia debido a que utiliza modalidades sensoriales múltiples tanto en la percepción de los espectadores o participantes como en el análisis sus acciones. se encuentra en el proceso interactivo: mientras que en el arte tradicional el espectador se vincula con la pieza de arte de un modo 66 | en el limite Desde el punto de vista del diseño. funcionan como ejes fundamentales para la creación de la ilusión inmersiva que permite al usuario ser parte fundamental en el desarrollo de la obra.) para modificarse constantemente el uno al otro [5]. El tema es analizado desde tres conceptos fundamentales que permiten entender el funcionamiento de la relación entre el artista. el eje de la concepción de la obra se traslada del objeto al lugar donde se produce el proceso de comunicación entre el sistema informático y el usuario. y especialmente el diseño de las interfaces. El rol del artista que trabaja con nuevas tecnologías radica en crear la gramática con la que el público construirá el discurso (. Se pondrá un especial énfasis en las obras que se enmarcan en lo que se conoce como entornos de Realidad Aumentada. 2. es decir. el fenómeno de la inmersión en la obra y el papel de las interfaces como medio que articula la participación. naturaleza diferente: lo virtual y lo real.). centraremos nuestro análisis en las experiencias de arte digital o electrónico concebidas como un Sistema Multimedia Interactivo. plantean nuevas formas de expresión y participación del público. donde se conjugan dos dimensiones de Figura 1. a partir de la intervención del espectador. en el espacio de interacción. Resumen El presente artículo aborda la problemática de la interactividad como parte fundamental de la gramática del arte digital o arte electrónico interactivo.. Biopus IUNA / Instituto Universitario Nacional del Arte 1.. 3.

imágenes. Generalmente no pueden ser observados directamente (necesitan de una interfaz). Figura 2. Sujetos Mixtos: ídem objetos. sonidos. que existen efectivamente en el entorno. utilizados o modificados dinámicamente. Un agente es aquel que percibe su entorno a través de los sensores e interviene sobre el entorno a través de los actuadores. sensaciones de fuerza y tacto del mundo real a un entorno generado sintéticamente. • Sujetos Reales: ejemplos de este tipo son los seres humanos y los robots. etc. Un entorno puede ser totalmente real o totalmente virtual. pero estos últimos solamente si poseen la capacidad de percibir y actuar. Por Sujeto se entiende todo aquel capaz de: • percibir qué sucede en el entorno que lo rodea • actuar en concordancia con esta facultad Aquí se utiliza la palabra sujeto en el sentido de agente.). • Virtualidad Aumentada: entornos donde se combinan sonidos.En este sistema participan • Objetos Reales: son aquellos objetos que tienen una existencia actual objetiva. virtuales o mixtos es similar a la de los objetos. es decir que ambos son capaces de transformarse en el tiempo. es decir que sus propiedades pueden ser cambiadas a través del tiempo por los sujetos. • Sujetos Virtuales: los sujetos virtuales • son capaces de observar el entorno a través de los sensores y de procesar la información para obtener una representación interna de ese entorno y de actuar a través de los actuadores (sonido. • Entornos Reales (físicos): entornos • Entornos Virtuales: entornos sujetos a las leyes físicas de la naturaleza. Es posible. sintetizados digitalmente que pueden o no simular un entorno real.). La Realidad Mixta es la disciplina que estudia los entornos donde se combina o superpone contenido generado digitalmente con el mundo real. Figura 3. Realidad Aumentada: se define como cualquier caso en el que un entorno real es “aumentado” con objetos virtuales (gráficos. o bien estar en algún punto intermedio entre estos dos extremos. • Objetos Mixtos: objetos reales que tienen algún tipo de aumento virtual u objetos virtuales que tienen una contraparte real. además. pero los efectos de su uso pueden ser percibidos. es decir que tengan un cierto grado de autonomía expresiva. Continuo Realidad-Virtualidad de Milgram. es decir entornos mixtos que se ubican dentro de un continuo entre los entornos totalmente virtuales y los entornos físicos. que los objetos se conviertan en sujetos: pueden adquirir la habilidad de percibir y actuar. Entorno de Realidad Mixta (Imagen obtenida en: http://www. una situación en la cual un participante esta totalmente inmerso en un entorno sintético. destruidos. Un caso particular de este tipo de entornos es lo que se denomina Realidad Virtual. y depende también del tipo de existencia que posean. Takemura. Esa inmersión generalmente se logra a través de la utilización de sistemas head-mounted display o sistemas del tipo CAVE. • Objetos Virtuales: son aquellos que pueden ser creados. etc. La distinción entre sujetos reales. Utsumi y Kishino. imágenes.techepics.com) en el limite | 67 . Una propiedad fundamental de los elementos de la estructura (objetos y sujetos) es el dinamismo.

La Metáfora La metáfora es una figura retórica utilizada para construir analogía entre dos cosas o ideas. En los sistemas operativos. siempre a riesgo de subrayarla. De allí su importancia en la determinación de la función de los elementos dentro del sistema. experiencia se hace más rica en cuanto menos definidos estén los límites entre ambos mundos. La 68 | en el limite Figura 5. un robot se acerca para extraer residuos y redistribuirlos en el espacio para crear con éstos una imagen. 4. con su metáfora del escritorio. del grupo Proyecto Biopus (Imagen obtenida en www.1.html) Es importante señalar que el fenómeno de la aumentación supone que la información digital debe agregar propiedades a la materialidad de lo físico. En esta paradoja está perdido nuestro robot e intenta construir lo que falta desde las sobras. Realidad Aumentada (Imagen obtenida en: http://www. La primera función de la metáfora es la de hacer comprensible los procesos informáticos del sistema a través de una representación concreta. la metáfora posee el papel fundamental de disolver la separación entre lo físico y lo virtual. o que simplemente recoge desechos) intenta crear imágenes usando la basura que el público arroja. Pero además de ello. Al acumularse basura en este sector. Figura 4. virtuales y mixtos. como por ejemplo la interfaz usuario (UI). pero sobre todo de sus relaciones. organizado en carpetas. Dichos entornos combinan mundos reales y virtuales donde todas esas entidades conviven e interactúan en tiempo real. Estas imágenes icónicas son representaciones de las carencias de la gente: alimento. frente a la necesidad de encontrar algo positivo en la basura. la Realidad Aumentada se convirtió en el género que ha despertado mayor interés para la investigación y la producción artística con nuevas tecnologías. Los atributos y las relaciones que se establecen entre los datos digitales que conforman el universo virtual se vuelven accesibles al usuario gracias a la metáfora2. trabajo. y va más allá de una mera superposición de lo virtual y lo real. el público se encuentra con un depósito de basura en donde puede arrojar residuos. 4. Un ejemplo clásico lo podemos hallar en el sistema operativo Windows. etc. el continuo RealidadVirtualidad. la metáfora se aplica en el diseño de las interfaces gráficas. es decir. Sobra la falta surge como respuesta a la “necesidad de construir algo desde la basura”.ar) . hogar. La metáfora en “Sobra la falta” Sobra la falta es una instalación en donde un robot “cartonero” (o “botellero”. ventanas. etc. en 1994.Desde que Paul Milgram y Fumio Kishino definieron. De ella depende.com. en primera instancia. Sobra la falta. seguridad. y de hacer legible su sintaxis. correspondencia o semejanza con el primero. de reafirmarla. pero que mantenga alguna conexión. La metáfora es la encargada de construir el universo simbólico de la obra. archivos.com/ mw2007/ papers/kondo/kondo. Al entrar en la sala. de transmitir el conjunto de ideas y valores estéticos. el crear la ilusión de un espacio al que nos es posible acceder. Básicamente consiste en reemplazar un objeto con otro. educación.archimuse. por ejemplo.biopus. Los entornos de Realidad Aumentada están concebidos como Sistemas Multimedia Interactivos conformados por objetos y sujetos reales.

entonces. 6. tanto la • cantidad como la intensidad en que estos son puestos en funcionamiento por la interacción. Se hace presente ya en el título de la obra. Sobra la falta. en el diseño de las interfaces que faciliten este movimiento. ya que pueden modificar o generar directamente contenido a partir de sus acciones. 5. desde el punto de vista del sujeto. un robot que intenta. emocional y cognitivamente con la experiencia. convergen en una casi inseparable unidad. Interfaces La interactividad supone la participación directa del usuario dentro de los procesos informáticos. la inmersión requiere romper con ella para crear un vínculo subjetivo. como una estrategia para facilitar el paso entre ambos mundos. Si el primer paso para conseguir que la inmersión tenga lugar queda supeditado a la claridad de la metáfora. Los espectadores se convierten en actores-usuarios.ar) . presente en el inconsciente colectivo. Si bien el acontecimiento inmersivo se encuentra presente en todas las formas del arte.com. aquello que sobra. Las “sobras”. el grado de inmersión logrado estará dado principalmente por los siguientes factores: • La conciencia del entorno. un juego semántico que manifiesta su intención: poner en evidencia la realidad social que nos rodea. a transformar la basura en la materia prima que utiliza este pequeño robot para crear sus dibujos. la herramienta y objeto de la acción [4]. El usuario es invitado a formar parte de la experiencia.biopus. construir lo que falta desde las sobras. Gui Bonsiepe entiende a la interfaz como un espacio en el que se articula la interacción entre el cuerpo humano. La basura y el desecho en contraposición a la idea. es quizás en las obras interactivas con nuevas tecnologías donde este aspecto se vuelve indispensable. absurdamente. Cuando Oliver Grau sostiene que el fenómeno de inmersión surge cuando la obra de arte y el dispositivo. lo hace pensando en la necesidad de desdibujar la línea que separa el espacio virtual del físico. El nivel (o grado) de interacción. la robótica como representación de la tecnología más avanzada. todo aquello de lo que nos queremos deshacer. que muchas veces involucra al cuerpo. Parte del desafío se encuentra. un alto grado de inmersión facilita la comprensión de la gramática propia de la obra. pone al descubierto la paradoja de la tecnología. la metáfora articula todo el discurso de la pieza. captar nuestras particularidades y responder en consecuencia. es decir la cantidad y calidad de las acciones que admita el entorno. Cómo aquello que se encuentra más presente entre nosotros. Y siguiendo el juego de palabras. mientras que las interfaces son el medio que posibilita esta intervención. Desde su mismo aspecto. conforman al mismo tiempo la interfaz y la acción interactiva con la obra. cuando el medio se vuelve invisible [10]. este robot construido con desperdicios.En esta instalación robótica interactiva. Si la reflexión analítica necesita de una distancia a la obra que permita la objetividad. cuando el medio y el mensaje. necesaria para definir su desarrollo discursivo. del grupo Proyecto Biopus (Imagen obtenida en www. en las obras de arte interactivo. Figura 6. La capacidad que tiene el entorno para percibir nuestra presencia. basándose en el análisis del gesto expresivo y el diseño de interfaces. es precisamente la falta. tiene lugar en el momento que el sujeto se involucra física. es decir que no se trata sólo de un en el limite | 69 • Los sentidos involucrados. La Interacción Humano-Ordenador (HCI) es la disciplina que estudia de qué manera los medios informáticos se vinculan con el ser humano. Inmersión El fenómeno de inmersión. Al tratarse de una participación protagónica.

Reactable . información. permitiendo moverse libremente entre ambos. pantalla sensible al tacto de lycra. De esta manera. es el canal que conduce la interactividad. Nuevamente encontramos en esta definición la idea de conectar dos realidades esencialmente diferentes. la interfaz se hace “invisible”: la atención del usuario entonces. servían como nexos entre nuestras acciones y la información dentro del ordenador. Desde hace unos años el paradigma que guía el diseño de interfaces se volcó más hacia las interfaces tangibles (TUI. cada una compartida por muchas personas.” Figura 8. Primero fueron los mainframes. se traslada de la interfaz al vínculo mismo que se genera entre el objeto y el sujeto. o utilizando nuestro tiempo para aprender a utilizar un nuevo dispositivo. 6. este nuevo paradigma plantea un vínculo más natural. lo virtual y lo real. estar inmóvil frente a una computadora. que acaba de comenzar. un ejemplo de Interfaz Tangible (Imagen obtenida en: http://mtg. Un nuevo paradigma en el diseño de interfaces se encamina en este sentido. Ahora estamos en la era de la informática personal: persona y máquina mirándose fijamente con inquietud a través del escritorio. Figura 7. como los portapapeles. superficies y espacios físicos como interfaces de la información digital [19]. sino que es el medio que permite unir al hombre con su objetivo. Interfaces Transparentes “La computación ubicua es el nombre de la tercera ola de la informática.objeto físico o virtual. como las define Hiroshi Ishii3 son …las interfaces de usuario que emplean objetos. donde representaciones gráficas icónicas y metafóricas de objetos existentes. donde objetos reales. instrumentos. estas nuevas “interfaces naturales” devuelven a la realidad física los objetos del paradigma del “escritorio”. donde la persona se encuentra sentada frente al ordenador con interfaces físicas diseñadas y construidas específicamente para esos fines.ar) . las carpetas. No es necesario. Luego viene la computación ubiqua. cuando la tecnología se retira hacia el fondo de nuestras vidas.com.1. como el mouse y el teclado. sin necesidad de un esfuerzo especial. La tecnología calma abre nuevos caminos para repensar el papel del dispositivo tecnológico en su relación con el cuerpo y el entorno. del grupo Proyecto Biopus (Imagen obtenida en: www. Trasformación de las GUI en las TUI (Imagen obtenida en [19]) Mientras que el paradigma de las GUI propone un tipo de relación entre el usuario y la 70 | en el limite Figura 9. una manera de trascender la herramienta y explotar la experiencia con la obra. Sensible. por Tangible User Interface).es/reactable) Es así que los límites entre el mundo físico y el virtual se hacen más difusos y permeables.upf.biopus. Situándose al otro extremo del paradigma de las GUI (Graphical User Interface). permiten una interacción más intuitiva. o la era de la tecnología calma. de uso cotidiano. entonces. o un acomodamiento artificial a interfaces o espacios determinados.

html) Los dispositivos ambientales nos muestran una manera de integrar las interfaces tangibles a nuestro ámbito cotidiano. los virus atacan tan profundamente al tema musical. el monitoreo de los mercados o el estado del tránsito. La búsqueda de la en el limite | 71 Figura 11. capaz de variar su color en función del estado del tiempo. Pensando en la definición de interfaz de Bonsiepe. . entonces ahora “nosotros infectaremos el cuerpo del tango”. conocido también como tecnología calma. como una tecnología invisible. la invisibilidad del dispositivo permite trascender la herramienta y prestarle mayor atención al objetivo de nuestra acción. desarrollado por la compañía “Ambient Devices”. reafirmando la difusión de los límites entre lo real y lo virtual. En casos extremos. como se dice. una pequeña bola de cristal capaz de variar su color en función del estado del tiempo.com/hypertext/ weiser/UbiHome. La idea detrás de la concepción de estos aparatos de diseño. inteligencia ambiental.3. el monitoreo de los mercados o el estado del tránsito. Dispositivo de tecnología calma. que queda incapaz de defenderse y “fallece”. Figura 10. pero que está presente en todas partes. Dispositivos Ambientales Con el término “Ambient Device” (dispositivos ambientales) se conoce a un nuevo género de dispositivos electrónicos que se caracterizan por su capacidad para ser percibidos “de un vistazo”. La tecnología se retira y se hace invisible. fue el Ambient Orb. rodeándonos. donde el proceso de la información ya no se encuentra en el centro de nuestra atención. Ambient Orb. mezclándose sin solución de continuidad con los objetos cotidianos. Si. Así Mark Weiser4 definió a la computación ubicua (Ubiquitous Computing).6. Los datos se encuentran accesibles a nuestro alrededor. El nuevo paradigma confirma la realidad mixta en la que vivimos. mientras que esos movimientos generan a su vez un proceso viral que ataca al tema musical. 6. Una tecnología que nos permite estar en contacto con ella. del mismo modo que lo hacemos habitualmente con el mundo físico que nos circunda. o computación omnipresente. constituye una nueva visión de una tecnología. Este nuevo paradigma. (Imagen obtenida en: http://www. o cualquier otra información ambiental que se le determine. sino que se encuentra en todos lados. es decir que sólo con mirarlos podemos inferir una serie de datos acerca de la realidad sin una gran demanda de esfuerzo. Las tres olas de la informática.2. se basa en la extracción de información sin la necesidad (aparente) de realizar una decodificación racional compleja. que no vive en ningún dispositivo personal de ningún tipo. Uno de los primeros dispositivos. La información se acopla al entorno y nos circunda haciéndose presente sin demandar un mayor esfuerzo de nuestra parte. El cuerpo como interfaz – La instalación Tango Virus “Tango Virus” es una instalación interactiva que permite al público modificar en tiemporeal un tema de tango mediante un proceso viral. La idea detrás de la instalación es la de explorar la participación del público en la creación artística a partir de un proceso destructivo (como es el proceso viral). haciendo que éste varíe. En la instalación el público posee un espacio donde puede bailar el tango que se está escuchando. Las interfaces se vuelven transparentes.ubiq. e interactuar. al tango lo llevamos en nuestra sangre.

Figura 12. en un ciclo cerrado donde ambos elementos reverberan a partir de sus propias y mutuas evoluciones. y llegar a un alto grado de inmersión. cómo cada uno de los elementos depende de los demás. en el sentido de que es la forma concreta en que los virus se manifiestan en la pantalla de monitoreo de la instalación. A medida que las huellas se repiten. de esta manera. Tango Virus. El cuerpo es la interfaz. Y como la acción es orgánica a la interfaz. entendemos que la metáfora es la que va a articular todo el discurso de la obra. puede suceder que se repela el ataque del virus y se reestablezca la música gradualmente a su estado original. Así. y que puede eventualmente destruirlo. Se ingresa. entonces este trabajo permite que la música y el baile ingresen en un diálogo propio. dado que nuestro cuerpo sigue siendo influenciado por la música a la vez que la música se ve modificada por éste. a partir de la creación de una entidad auto-organizativa. ¿Qué mejor homenaje al tango. En esta pieza podemos ver un claro ejemplo de una interfaz transparente. un sistema inmunológico las memoriza y adquiere anticuerpos contra este tipo de virus. o bien que el tango no pueda recuperarse y muera.ar) La instalación busca perpetuar un hecho efímero. sino con la experiencia que cada uno tenga con su propio cuerpo. pero que a su vez permite dar al baile una existencia propia. El ataque viral puede detectarse en las transformaciones musicales que sufre el tema de tango. al margen del cuerpo. aquellos elementos que hacen posible su existencia o. la elección del tipo de comunicación que se va a establecer con los usuarios y la manera en que esta comunicación puede sostenerse efectivamente a través de las interfaces (físicas y virtuales). lograr que la música sea alterada por el movimiento del cuerpo. logrando que el baile trascienda como hecho a la persona y evolucione en forma independiente. como es un virus. que lograr que su baile se transforme en una forma de vida en sí misma?5 Una cámara de video captura de forma cenital el área iluminada que delimita la pista de baile. el cuerpo y la herramienta se fusionan y se convierten en uno solo.com. Dependiendo del “sistema inmunológico” del tango.obra consiste en invertir la relación entre el movimiento corporal y la música. en cuyo caso la música llega a su punto máximo de deformación y finaliza. Esta huella de baile es la que se transformará luego en el virus que infecte al tema musical. es decir que se hace inmune a patrones similares. Esto produce un desplazamiento del lugar del cuerpo en el hecho del baile: si en un principio uno puede pensar que la música se hace baile 72 | en el limite . Indudablemente esto implica involucrarse físicamente con la obra. Conclusión A lo largo del escrito analizamos de qué manera se relacionan dentro del entorno de realidad mixta. como un trazo o patrón visual que representa la historia del movimiento de la pareja en su coreografía. y a su vez condiciona y modifica la existencia de los otros. En lugar de que el cuerpo se mueva al compás de la música. La huella coreográfica es la representación visual de cada virus. a través del cuerpo. no es necesario incorporar nuevos elementos y el objetivo de la acción se transforma en lo central. Esto genera un círculo vicioso. El movimiento de los bailarines es analizado por la cámara como una trayectoria en el espacio. del grupo Proyecto Biopus (Imagen obtenida en: www. Sin objetos externos o instrumentos. para comprenderlo mejor. es el medio que comunica al usuario con el sistema La complejidad de dicha comunicación no depende del grado de pericia que pueda adquirirse con la herramienta.biopus. ya que a partir de ella se definen tanto la estructura como los elementos del sistema. 7. es decir que se producen movimientos similares. como es el baile.

fomentando la inmersión desde una interacción más intuitiva. pero que al mismo tiempo las hace invisibles para lograr un vínculo más natural con el sistema. y donde los límites entre ambos permanecen difusos. su intensidad es mayor y cuando puede intervenir dentro del relato para modificar su devenir. para explorar la riqueza discursiva que surge de la unión del artista. vehiculiza el comportamiento del usuario y el modo de participar de éste en el discurso de la obra. un personaje. Cualquier objeto cotidiano puede ahora transformarse en la herramienta que nos permite manipular los datos. Es a partir de ahora que el arte digital debe superar la mera anécdota tecnológica y el regodeo por la novedad del dispositivo. Un paradigma que devuelve la materialidad a la experiencia.El diseño de la metáfora es el diseño de la estructura. La metáfora establece o crea una realidad distinta que se manifiesta de diferentes maneras (como un ambiente. El desarrollo de nuevas interfaces permite mejorar las posibilidades de integrar al cuerpo con el entorno. El nivel de inmersión se acrecienta cuando el usuario se ve más involucrado físicamente. el sostén de la interactividad entre el entorno. la que permite unir la realidad física con la virtual y viceversa: es el canal de comunicación entre ambos. Mientras que la Realidad Virtual. etc. Es el momento de explotar las posibilidades expresivas que ofrece este nuevo lenguaje. la Realidad Aumentada nos devuelve nuevamente a la experiencia sensible con lo material y tangible. y a las que estamos acostumbrados a manipular. que combinan los objetos físicos enriquecidos con información digital. que puede acercarse de una forma más efectiva y natural al flujo de información. y el proceso de comunicación. los elementos del sistema y los participantes. La aparición de nuevas TUI amplia el campo de acción disponible para el usuario. intentaba alejarnos del mundo real y rodearnos de imágenes generadas digitalmente. la tendencia del diseño interactivo parece dirigirse hacia los entornos de Realidad Aumentada. a través de las interfaces tangibles. para lograr un alto grado de inmersión. en el limite | 73 . y al mismo tiempo desenvolverse dentro de un mundo con objetos y espacios que se ajustan a las leyes físicas que conocemos. En definitiva. es decir cuando una mayor cantidad de sentidos son estimulados.) y con diferentes niveles de presencia y conciencia. la obra y la participación del público.

Smith H. and Ishii. May 1996.pdf [11] Milgram.mit. Ed. Emiliano y Silva. Ben. Wikipedia. [17] Ullmer.Bibliografía [1] Bach. Ediciones Infinito Buenos Aires. Brygg..org/essays/Grau. 1999. J. Biddle. Interfaces y metáfora en los entornos virtuales. Issue 4. Gabrielli S. [8] Dubois E. C. Utsumi. A Taxonomy of UserInterface Metaphors. Proceedings of SPIE. In Transactions in GIS Volume 8. Olivier. Interact Lab – COGS.com. Scaife M. pp. Ohmshda & Springer-Verlag. Melbourne Australia. P. Computational models of expressive gesture in multimedia systems.com/hypertext/weiser/ UbiHome. y Causa. Año 1 Número 1. Nº6. R. La palabra no está incluida en el diccionario de la Real Academia Española y proviene del griego hápto (tocar. BLUR: The Recombinant Reality: Immersion & Interactive Image Spaces. [4] Bonsiepe.edu/ 3 Mark Weiser: http://www. Chirstian. 677-686. Towards a Design Methodology for Vitual Enviropments.media. W. Gualterio. [16] Rogers I. Adaptation of Ergonomic Criteria to Human-Virtual Environments Interactions. [18] Volpe.ubiq. relativo al tacto). 1994. miembro del grupo de Investigación en Medios Tangibles (Tangible Media Research Group). A Taxonomy of Real andVirtual World Display Integration. 1997). New Zealand.. pg. E77-D(12). Obstacles and Perspectivas for Evaluating Mixed Reality Systems Usability. Espacio fundación Telefónica. MIXER ‘04. 1997. [6] Causa. y Scapin D. Dennis. 2002. Gui.w. Piper. Gray and Daniela Trevisan and Jean Vanderdonckt. 223-232. 2003. School of Mathematical and Computing Sciences Victoria University of Wellington.html 4 5 Información obtenida en www.. Ishii. Wang. [15] Ratti. Redes.id. Actualmente en línea. pp. Bits and Atoms. 1 Para una explicación más profunda acerca de la metáfora. L. http://www. H. Los Virus En El Arte El Desarrollo De La Instalación Tango Virus. Island of Madeira. http:// tangible. 1996. P.. From A to D and back again: The emerging aesthetics of Interactive Art. véase Legrady. Taxonomy of Mixed Reality Visual Displays.. J.biopus.php Referencias Háptica. RIM (Revista de Investigación Multimedia). January 13th. IEICE Transactions on Information and Systems.m. especialmente cuando éste se usa de manera activa. Año 1 Número 1. Exploring the Design and Engineering of Mixed Reality Systems. Carlo . October 2004. Viking Press. Augmented Reality: A class of displays on the reality-virtuality continuum. Del objeto a la interface. H. 2 Hiroshi Ishii es un científico y programador.. October. University of Genova. A Conceptual Framework for Mixed Reality Environments: Designing Novel Learning Activities for Young Children. Interface Metaphors & New Narratives in Interactive Media.edu/papers/Tangible_Bits_CHI97. Frenchman. 1996. and A. 2006. [10] Grau. Proceedings of the IUI-ADUI*04 Workshop on Exploring the Design and Engineering of Mixed Reality Systems. [19] Ishii. (Banff. [2] Bach. Hiroshi. Ed. idemployee. C. Publicación del Area Transdepartamental de Artes Multimediales del IUNA. 2004. Merging Real and Virtual Enviropments. essays by Arnold J. in Mixed Reality. estrictamente hablando significa todo aquello referido al contacto. 22. Chirstian. Hiroshi. PG. in Proceedings of Symposium on User Interface Software and Technology UIST ‘97). F. 282–92 (1994). B. En linea: http:// tangible. pages 407–421.. Bs. Harris E. NY.ar 74 | en el limite . Canada. RIM (Revista de Investigación Multimedia).. 2006. En linea: mediartchina. Emiliano y Silva. First published in Leonardo Electronic Almanac april 1996. On the future of art. y fue el primero e utilizar la denominación Tangible User Interfaces (TUI). George. Wellington. The Aesthetics of Intelligent Systems. Programa de Arte Interactivo II. Interfaces y metáfora en los entornos virtuales.rauterberg/conferences/ INTERACT2003/INTERACT2003-p880. InfoMus Lab. University of Sussex. en Publicación Inter/activos. 1994. Consultado el 20/10/2008. Yao. The metaDESK: Models and Prototypes for Tangible User Interfaces. As. 95-122.media. P. Simon .. [3] Barr. L. ACM Press. 1321-1329. A. Toynbee [and others]. Alberta. Italia. Presence. C. A cargo de Rodrigo Alonso y Mariano Sardón. Ullmer.mit. [5] Burnham. UK. and NextWave catalog. Tangible User Interfaces (TUIs): A Novel Paradigm for GIS. [14] Penny. Ambientes.pdf. F. 1999. Herman. Kishino. [7]Causa Emiliano. Tele actividad. J. and Philip D. 1970. Kishino. Noble. Takemura.tue. Virtual Reality Applications Research Centre. Clive. Tangible Bits: Towards Seamless Interfaces between People. [12] Milgran. Funchal.nl/g. [13] Milgran. Vol 11. y Scapin D. Telemanipulator and Telepresence Technologies 2351. Publicación del Área Transdepartamental de Artes Multimediales del IUNA. P. University of Teesside. [9] Fencott. pp 5-30.

cualquier señal en suma. y por (ii) un sistema de resonancia que acopla las vibraciones de este oscilador con el aire circundante. o unos sensores musculares o bioeléctricos. Los controladores musicales hoy disponibles se cuentan por centenares. la velocidad. con el uso de los sensores analógicos adecuados y de un convertidor analógico-digital. pero económicos y ampliamente disponibles en el mercado. Los instrumentos acústicos están constituidos por (i) una fuente de excitación que puede oscilar de diferentes formas bajo el control de un ejecutante. la fuerza de gravedad. violines. trompetas. por mencionar tan solo un par de posibilidades (Cutler et al. el diseño de nuevos controladores musicales. el de control y el de generación de sonido. El componente de control pueden ser un simple ratón o teclado de computadora. un teclado MIDI o una caja de potenciómetros MIDI (MIDI Fader box). la conferencia anual sobre nuevas interfaces para la expresión musical (New Interfaces for Musical Expression o NIME1) comenzó en 2001 y hoy reúne anualmente a más de trescientos investigadores. permitiéndonos soplar. un área de investigación y desarrollo que durante décadas ha permanecido semioculta en la oscuridad de los laboratorios..Barcelona sergi. luthiers y músicos de todo el mundo que comparten sus conocimientos y sus últimos trabajos en el diseño de nuevas interfaces musicales digitales. Para concluir. estudiando un caso particular. aunque actualmente. Estos controladores pueden preservar modos de ejecución tradicionales. instrumentos “multiproceso” y música “móvil” Sergi Jordà MTG / Grupo de Tecnología Musical Universidad Pompeu Fabra . Se describe el caso particular de los controladores e instrumentos musicales denominados “multiproceso”. el reactable. que toma la información de control emitida por el intérprete. Los instrumentos musicales digitales por su parte. creciente. xilófonos o acordeones. la cantidad de luz. no se inventaron ayer. pero es innegable que en los últimos años están despertando un interés . con la llegada de MIDI. no pueden ser separados ni intercambiados caprichosamente. escribiendo. es ahora susceptible de ser convertida en una señal de control musical. etc. 2000). apuntando. muchos dispositivos de control digital originalmente diseñados para otros fines. percutir. como veremos. Adicionalmente. se analiza el auge de los nuevos instrumentos musicales para dispositivos móviles multitouch.El reactable. Kessous y Arfib. Estos instrumentos se basan en las leyes de la mecánica. Un campo que. y de cómo éstas difieren por definición y por requerimientos de los instrumentos musicales tradicionales. la presión.jorda@upf. tambores. deslizando o en el limite | 75 Controladores musicales Las interfaces específicas para la creación de música electrónica en vivo. o pueden también salvaguardar enfoques más “neo-tradicionalistas” que nos permitirían seguir haciendo clic y doble clic. como los joysticks u otros controladores para videojuegos. o eludir este mimetismo y adoptar formas tan dispares como la de un par de guantes. la conductividad de la piel o la tensión muscular. y (exceptuando algunos instrumentos de teclado) los dos subsistemas. o los controladores musicales como comúnmente se los denomina. pinzar o frotar nuestras computadoras. guitarras. parece estar llegando finalmente a las masas. como las tabletas gráficas. y (ii) un generador de sonido que adopta el papel de fuente de excitación. Comenzaron a proliferar de hecho hace ya casi tres décadas. y de como estos pueden estar alterando las tendencias en el consumo y la producción de música electrónica. son también a menudo adoptados por los músicos (Wessel y Wright. como versiones MIDIficadas de saxofones. interacción tangible. 2002. Pueden imitar la forma y la funcionalidad de instrumentos tradicionales. cualquier señal externa puede convertirse fácilmente en mensajes de control comprensibles por el sistema digital: los cambios en el movimiento. ya sean acústicos o eléctricos.edu Introducción Con el auge de la música electrónica en vivo. En este artículo se analizan algunas de las necesidades específicas de las interfaces para los sistemas de creación musical en vivo de hoy. se pueden dividir siempre en (i) un controlador de gestos o dispositivo de entrada. Como muestra de esta tendencia. 2003). plantea diferencias esenciales con el diseño de instrumentos acústicos o eléctricos..

El instrumento-filósofo es sensible. Somos instrumentos dotados de sensibilidad y memoria. La computadora musical por su lado. un acelerómetro que mida la inclinación y responda a movimientos rápidos. es un sistema dotado de memoria y de conocimiento. intérpretes o ejecutantes de portátiles continúan reticentes a la hora de adoptar controladores nuevos o alternativos. todo lo que pasa en un clavecín organizado como vos y yo. que quizá no me hubieseis hecho si hubierais considerado la diferencia entre el instrumento-filósofo y el instrumentoclavecín. El reto esencial del nuevo luthier no 76 | en el limite es pues meramente tecnológico. la mayoría de los músicos. estrujados (Weinberg y Gan. uniendo los sonidos en él mismo. guarda memoria de ella. nuestra tensión muscular o nuestras expresiones faciales (Lyons et al. todos los pequeños cambios o modulaciones (por ejemplo. Con la flexibilidad que ofrece el MIDI. sino que consiste fundamentalmente en saber concebir e integrar diseños coherentes que fomenten experiencias musicales significativas y con una potencial profundidad emocional. cada uno de ellos tiene sus características idiosincrásicas” (Ryan. 1991). Podrán incluso desaparecer o desmaterializarse. En la interpretación instrumental tradicional. improvisador y destacado investigador en el campo de los NIME y director técnico del laboratorio holandés de “lutheria digital” STEIM2. Como es sensible. percibir. Al igual que el ingeniero en automoción elige un volante frente a un par de botones izquierda/derecha. 2003) . (Diderot. el parámetro de control elegido o el artista que lo vaya a utilizar. Puede que yo haya dado lugar a esa objeción. con agentes inteligentes susceptibles de recordar. Con los sensores apropiados. un instrumento capaz de manejar tareas de forma semi-autónoma y de dirigir y supervisar.. tiene la conciencia momentánea del sonido que produce. Suponedle al clavecín sensibilidad y memoria. un mando giratorio. el control . todas las variantes de control. ya que estos instrumentos no “saben” ni toman decisiones. un sonar o un sistema de infrarrojos que detecte la distancia entre dos puntos. 1993). todos los matices. Pareciera como si – tal como apunta (Turner. 1975)3. al tiempo que respondan a nuestros movimientos. A mi modo de ver. el músico y el instrumento.arrastrando (drag&drop). a mi juicio. botones y las metáforas ofimáticas. potenciómetros. cada elección es crítica. Y sin embargo la escena musical contemporánea no refleja todavía esta potencial convergencia: más allá de la integración de simples potenciómetros MIDI. en el instrumento-clavecín. ahí produce y conserva la melodía. Cualquier dispositivo de entrada puede ser una buena o mala elección en función del contexto. tarareados o cantados. tal como comentaremos a continuación. un vibrato o trémolo) deben ser abordados físicamente por el intérprete o ejecutante. La computadora musical es en suma. ¡cualquiera de estos controladores puede combinarse con cualquier dispositivo de sonido y producir música! Sin embargo. si lo que necesita es un rastrillo” (Puckette y Settel. y he aquí. responder o actuar en su entorno. bailados. lamidos. al mismo tiempo. es. un sensor que mida la presión en un dedo. la computadora portátil se acerca al punto de sentirse tan cómoda en un escenario como pudiera estarlo un saxo o una guitarra eléctrica. “no habría que ofrecer a un músico un caza-mariposas. Nuestros sentidos son otras tantas teclas tañidas por la naturaleza que nos rodea y que a menudo se tañen a sí mismas. como es animal. Música interactiva y “laptop performance” De forma paralela a la eclosión que se vive en la investigación de nuevas interfaces. las principales causas de este desencuentro no se deben tanto a un supuesto conservadurismo o falta de riesgo por parte de los músicos.la “laptop performance” y la exploración de los espacios sonoros post-digitales tuviera ineludiblemente que ser un diálogo llevado a cabo entre ratones. y decidme si no repetirá por sí solo las tonadas que hayáis interpretado en sus teclas. La decisión depende de cada uno. Como bien señala Joel Ryan. los nuevos instrumentos digitales podrán ser también acariciados. 2003). besados. Esta facultad orgánica. que es 100% responsable de lo que sucede. mediante procesos informáticos. “un deslizador horizontal. 2001). sino precisamente a las mal asimiladas nuevas posibilidades musicales de los instrumentos basados en computadoras. igual que el instrumento-filósofo descrito por Denis Diderot en el siglo XVIII.

el instrumentista tiende a delegar o a permutar con el ordenador el control parcial del instrumento. y la música deja de ser responsabilidad exclusiva del humano para pasar a serlo del binomio humano-máquina. una boquilla de saxo o incluso a un joystick. indirecto y de más alto nivel (Jordà. Looks futuristas o sofisticadas e inusitadas combinaciones de sensores no deberían ocultarnos el hecho de que la mayoría de las interfaces musicales continúan estando diseñadas para ser tocadas y ejecutadas “todo el tiempo”. Figura 1.de múltiples detalles. en el que el control pueda ser fácil y rápidamente transferido y recuperado a/de la máquina. el instrumento multiproceso con control compartido. de los detalles de más bajo nivel a los procesos de alto nivel responsables de controlar estos detalles. y el instrumento favorece respuestas más complejas a los estímulos del músico. Sin embargo.e. acercándose más al director de orquesta e incluso al compositor (¡un compositor en tiempo real. seguirá siendo una candidata ideal para un microcontrol directo. la columna vertebral estructural de la música occidental. A raíz de la potencial complejidad de todos estos procesos en curso. una batería o a un tablero de mandos. tan ligados ambos a la creación musical con instrumentos tradicionales. un evento acústico”. que combina micro (líneas sólidas) y macro (líneas punteadas) control. ofreciendo un control continuo y preciso sobre unas pocas dimensiones. En este contexto. en el otro extremo. El músico ejecuta estrategias en lugar de ejecutar datos de control. Instrumentos musicales multiproceso con control compartido La mayoría de los controladores musicales que se desarrollan en la actualidad no persiguen. distribuida y multiplexada en el espacio y que permita un acceso intermitente. Una interfaz “íntima”. será sin duda mucho más eficaz y recomendable para un control macroestructural. sensible y sin excesivas dimensiones de control o grados de libertad. rodeada ahora por la forma macroestructural de un lado. y permitiendo así a los músicos el trabajar en diferentes niveles musicales y obligándolos a tomar sobre la marcha decisiones de más alto nivel (i. metafóricamente más cercana a un arco de violín. así como. que pueden estar bajo el control exclusivo del instrumento o bajo una responsabilidad compartida por el instrumento y el instrumentista. 2005). en su lugar. 2005). una interfaz más próxima a un piano. se convierte en una opción más que en una necesidad. la creación musical en vivo con computadoras potencia un diálogo interactivo entre máquina y humano. los procesos digitales que controlan estos detalles. El microcontrol instrumental tradicional (izquierda) vs. a mi modo de ver. liberándolo y permitiéndole dirigir y supervisar. este enfoque “multiproceso y de control compartido”. Tal como se simboliza en la figura 1. al luthier creador de instrumentos. por supuesto!). una interfaz no “portable” (non-wearable). que a un piano. como el requerido para trabajar el timbre o la articulación del sonido. más “compositivas”) (Jordà. en el limite | 77 . El concepto de “nota”. y la microestructura tímbrica del sonido del otro. superando la ejecución “nota a nota” así como el paradigma “un gesto. El músico se aleja del artista intérprete acústico. este nuevo tipo de instrumento tiende a desplazar el centro de atención del instrumentista. Este nuevo paradigma instrumental no impone ya al intérprete el control total directo y permanente de todos los aspectos involucrados en la producción sonora. prolongando más bien el paradigma instrumental tradicional.

78 | en el limite . hasta hace bien poco un área de investigación muy minoritaria. 2003). Figura 2. aunque desde principios de los noventa existen investigaciones e implementaciones previas relacionadas. Ishii imagina interfaces destinadas a enriquecer el mundo físico real mediante el acoplamiento de información digital en objetos físicos cotidianos. teclado/ pantalla) y acoplados tan solo a través de una convención arbitraria. sin embargo. Mientras que en la manipulación directa con interfaz gráfica de usuario (GUI) (Sneiderman. A diferencia de las computadoras o las calculadoras de bolsillo. Esto nos lleva a introducir a continuación los conceptos de “interacción tangible” (TI) e “interfaces tangibles de usuario” o “Tangible User Interfaces” (TUI). hasta hace bien poco. eran todavía escasas las nuevas interfaces musicales que aprovechaban plenamente las capacidades visuales de las computadoras digitales. Las luces e indicadores de los tableros de control en los aviones actuales pueden no ser estrictamente indispensables para el pilotaje de la aeronave (ver Figura 2). cuando palabras como “multitouch” y gestos como el “zoom con dos dedos” se han integrado ya en la vida cotidiana de muchos de nosotros. ¿Cuántos pilotos se sentirían cómodos con una manta tapando todos estos controles? Interfaces tangibles de usuario Hoy en día. El objetivo final. en el que el instrumentista tiende a delegar y a alternar frecuentemente el control con el instrumento. Veamos pues. etc) mediante dispositivos apuntadores. Partiendo de esta metáfora. que disponen siempre de dispositivos de entrada y salidas físicamente disociados (e. la “interacción tangible”4. en la interacción corporal y en la incorporación de estos sistemas en espacios reales. La retroalimentación visual se convierte así en un importante activo para que este tipo de instrumentos pueda “comunicar” sus estados y los comportamientos de sus procesos musicales de una forma dinámica. en la TI se enfatiza en la tangibilidad y en la materialidad. control de datos digitales y operaciones con artefactos físicos. pero ¿cuantos pilotos se atreverían volar con sus pantallas apagadas? ¡Es de hecho la pantalla del portátil y no el ratón lo que los músicos digitales se resignan a perder! Y. fusionando así representación. 1983) los usuarios interactúan con la información digital a través de la selección de sus representaciones gráficas (iconos. Pero la TI es bastante más que compartir colecciones de fotos virtuales o aplicarles zooms y navegar por Google maps con nuestros dedos. los componentes de entrada y de salida coinciden y las operaciones aritméticas se realizan mediante la manipulación directa de los resultados (ver Figura 3). parece haber entrado finalmente en la corriente principal. Las interfaces tangibles de usuario (TUI) combinan el control y la representación en un mismo dispositivo físico (Ulmer y Ishii. Los términos TI y TUI fueron acuñados en 1997 por Iroshi Ishii en el MediaLab del MIT (Ishii y Ulmer. en la encarnación física de los datos. sería el de permitir la manipulación de la información digital asociada a estos objetos. en el ábaco. 1997). 2001). ventanas. mediante la manipulación física real de éstos. Ishii parte del ábaco como fuente de inspiración y como la metáfora definitiva de lo que la interacción tangible debiera llegar a ser. didáctica y eficiente (Jordà.g. no estará de más ningún medio disponible que facilite el monitoreo de los procesos y las actividades en curso.Información Visual En este modelo de control compartido.

moviendo y girando dos objetos con las dos manos). Por otra parte. con el ambicioso objetivo de concebir el mejor instrumento musical basado en computadora que ellos pudieran imaginar a partir de sus experiencias y de las intuiciones adquiridas a lo largo de años de prácticas como luthiers digitales y ejecutantes de música digital en vivo (Jordà. hoy en día ampliamente utilizada para el desarrollo de aplicaciones de mesas interactivas. el control multiparamétrico o la colaboración multiusuario. Günter Geiger. se autoimponen una tabula rasa conceptual y tecnológica. Entre los pioneros. Kaltenbrunner y Bencina. la perfecta integración de la información visual y del control físico. Martin Kaltenbrunner y yo mismo) (Jordà et al. El reactable. Independientemente de las diversas tecnologías utilizadas (varios sistemas de detección ópticos. conviene también señalar que la información visual presentada por estas interfaces puede solventar parcialmente otro problema relevante en las actuaciones musicales con portátiles. Todos los problemas tecnológicos. las mesas interactivas suelen combinar el seguimiento de objetos de control sobre su superficie. 2002. 2007. que elimina la indirección presente en un sistema integrado por “una pantalla convencional + dispositivo apuntador”. de otro que se dedica a leer su correo electrónico mientras pincha con iTunes?” (Collins.). por ultrasonido. tan necesaria también para el Pompeu Fabra de Barcelona (Marcos Alonso. ). Después de muchos años de experiencia práctica. Objetivos del diseño El proyecto reactable se inicia en 2003 cuando un equipo de cuatro investigadores del Grupo de Tecnología Musical de la Universidad en el limite | 79 . Figura 3. se fueron abordando y resolviendo a medida que el proyecto evolucionaba: “en primer lugar decidimos que era lo que queríamos crear y luego descubrimos cómo hacerlo”. Para concluir esta sección.microcontrol tímbrico y otros aspectos de la expresividad musical. las mesas interactivas constituyen uno de los géneros más populares. Una mesa con estas posibilidades se acerca al ideal de interacción propuesto por Ishii. 2006). con técnicas de proyección que convierten estas mesas en grandes pantallas. electromagnéticos. se sintetizan en lo que podríamos denominar “el síndrome del correo electrónico”: “¿cómo distinguir un músico que está utilizando potentes herramientas de software generativo. como es el de la percepción por parte del público del control y del esfuerzo realmente ejercidos por los músicos. 2005. 2003). Patton et al. 2003). ofrece una interacción más directa. podríamos citar el Sensetable o el Audiopad. La falta de comprensión y las dudas que este tipo de conciertos provocan frecuentemente entre la audiencia (Turner. etc. a la vez que a las necesidades de control de los instrumentos musicales multiproceso previamente expuestas. y de algunos más de maduración teórica. ambos desarrollados en el MIT Medialab a finales de los noventas (Patton et al. intuitiva y rica. favoreciendo la interacción y la exploración. aprovechando también al máximo las ya mencionadas posibilidades de las computadoras como herramientas para la creación musical en vivo. el equipo se dispone a concebir un instrumento que preservara tanto como fuera posible los mejores aspectos de los instrumentos tradicionales (como es el control directo y simultáneo de varios parámetros. 2005. 2007). como la creación de la librería de código abierto reacTIVision para el seguimiento de objetos marcados sobre una superficie (Bencina et al. natural. Jordà et al. sin por ello relegar una interacción más íntima y delicada (por ejemplo. Creo firmemente que estas interfaces pueden cumplir muchos de los requerimientos específicos de la creación de música digital en vivo previamente expuestos. utilizando idealmente ambas manos). Ábaco Dentro del ámbito de la TI. 2003).

fino y simultáneo de varios parámetros. este dispositivo ideal debía ser fácilmente abordable. disfrazada de hedonismo ciertamente. cuántos estaremos dispuestos a sacrificarnos en el dominio de X1. que justificara un aprendizaje infinito y su uso en conciertos de la mano de instrumentistas profesionales. Teniendo en cuenta la velocidad a la que las tecnologías y las modas prescriben en nuestro actual siglo XXI. intuitivo y accesible. Conseguir instrumentos que atraigan desde el primer segundo pero que no se agoten tras diez minutos de juego. Construir juguetes atractivos no es tan complicado. Todos sabemos que la creación puede resultar enormemente divertida. así como también de la colaboración humana. La cuestión no radica en la supuesta caducidad de la moral judeocristiana imperante. enormemente sutil y complejo. la multidimensionalidad y complejidad del control disponible supera claramente las capacidades estándar del control humano.e. que permitiera que sus usuarios desconectaran y “se perdieran” en una exploración sonora y sensorial. que permitiera una aproximación inmediata (i. La interacción multiusuario llegó también como una opción natural: cuando la responsabilidad compartida (entre instrumentista e instrumento) se convierte en la norma y. no se logrará ya más prometiendo a nuestros futuros virtuosos un paraíso a largo plazo después de una década de duro sacrificio. pocos estarán dispuestos a invertir años de esfuerzo para dominar una tecnología que se presume quedará obsoleta en los próximos meses. el control directo. Un instrumento en suma. Aspirábamos a crear también un instrumento para el “hemisferio cerebral derecho”.0.0 todo volverá a cambiar de nuevo? Bromas aparte. Una mesa interactiva podría mejorar el control. intuitivo y no intimidante. compartir este control entre varios humanos parecía una extensión sumamente natural. sino que se basa sobre todo en la percepción que nuestra sociedad tiene de la carrera tecnológica.e. Si aspiramos a que un nuevo instrumento pueda ser aprendido y dominado. Dentro de estos objetivos. ser tocado desde el primer minuto) a la par que una progresión y un perfeccionamiento infinitos. y la capacidad de monitorearlos y de alternar rápidamente entre estos procesos). debería ser un instrumento complejo e infinito. la sensualidad del instrumento no resultaba pues una cuestión secundaria. algo más que atractivos caramelos para los recién llegados. pero no pretendíamos concebir un simple juguete sonoro. limitándose a tocar.Los principales objetivos fueron los de diseñar un instrumento atractivo. ya que más frecuentemente que no. que pudiera resultar aburrido y predecible después de unos pocos minutos. a la vez. ¿Cuantos padres presionarán a sus hijos. pensamos que una interfaz en forma de mesa nos podía ayudar a satisfacer la mayor parte de las necesidades anteriores. al igual que cualquier instrumento musical convencional. los músicos no piensan en lo que tocan. la posibilidad de compartir el control entre el instrumentista y el instrumento en varios procesos simultáneos. y a la vez. si todo el mundo sabe que con x2. Conceptos tales como “no-intimidación” o “naturalidad” suponían en realidad para nosotros. resulta mucho más difícil. permitiéndonos combinar lo que consideramos los aspectos esenciales de los instrumentos acústicos (i.e. al igual que todos los instrumentos musicales convencionales y a diferencia de la mayoría de sistemas musicales informáticos. éste deberá ser pues instantáneamente atractivo y ser capaz de capturar la imaginación de los músicos desde el primer contacto. susceptible de ser utilizado por varios usuarios simultáneos. indicado para niños y usuarios ocasionales. En este sentido. en la fugacidad y permanente provisionalidad en la que nos vemos sumergidos. sencillo. capaz de recompensar el esfuerzo y el tiempo empleados en dominarlo. se pudiera tocar “sin pensar”. un dispositivo que. pero todavía dominante en nuestro mundo occidental. se podía maximizar el ancho de banda de comunicación en todas . seguimiento y retroalimentación de la información. pero a la vez. Con el diseño adecuado. a ser posible con ambos manos) con las posibilidades propias de los sistemas musicales informáticos (i. soy de la opinión 80 | en el limite de que el proselitismo que pueda conllevar a un potencial virtuosismo.

y que constituyen hoy en día uno de los paradigmas más flexibles y potentes para la creación de música electrónica interactiva (Puckette. sin por ello perder un ápice de su flexibilidad y su potencia. Cada uno de estos objetos cumple una función específica para la generación. la metáfora musical que decidimos aplicar en el reactable. medio siglo después de su creación por Max Mathews (Mathews et. a través de diferentes procesos totalmente configurables y parametrizables. van modificándose al atravesar por diferentes objetos. al igual que estos lenguajes visuales de programación. Una de las primeras decisiones. que surgieron con el lenguaje Max a finales de 1980. Figura 4. se controlan mediante la conexión de cables entre las salidas y las entradas de los diferentes módulos (ver Figura 4). No tiene sentido exhibir un instrumento electrónico en un entorno lúdico e interactivo a menos que éste sea siempre capaz de producir sonido. Un sintetizador modular Robert Moog Studio-66 System del año 1970 (arriba) y detalle del mismo modelo con algunos cables de conexión. Al. con los sintetizadores controlados por voltaje creados por Robert Moog y Donald Buchla a mediados de los años sesenta (Moog. Por nuestra parte. basado en la interconexión de generadores de sonido y unidades de procesamiento. entre los mismos músicos y. tanto en el entorno digital (Mathews et al. 2002). entre el instrumento y los músicos. Esta forma de síntesis de sonido y su método de control asociado. Como señala Davies (2001) al comentar una exposición de instrumentos de música electrónica que curó y organizó: “cuantos más controles hay en un sintetizador modular. En el reactable este enfoque modular se consigue mediante la interrelación de objetos sólidos sobre la superficie de una mesa luminosa. extremadamente flexible. nosotros seguíamos sin embargo convencidos de que desechando todas las complejidades innecesarias. incluso si para que ello sea posible. Así. los en el limite | 81 . sin que esta persona consiga revertir el proceso. más fácil resulta que alguien realice un ajuste al azar que produzca la extinción total del sonido. de forma que las señales que parten de cada uno de los objetos generadores. la modificación o el control del sonido. 1965). entre los músicos y el instrumento. La síntesis modular se remonta a los primeros sintetizadores musicales. este paradigma modular y de flujo de datos podía ser muy fácil de entender. 1969). de antemano haya que restringir enormemente las capacidades de este instrumento”. va modificándose progresivamente en cada tramo. los filtros de audio. sigue siendo. Este enfoque. resulta sin embargo con demasiada frecuencia. fue hacer que la mesa fuera circular. Después llegó el paradigma musical a aplicar. prohibiendo puntos de vista o de control privilegiados. la señal sonora que parte de algún punto. 1969) como en el ámbito analógico. puede también considerarse como el punto de partida de todos los entornos de programación visuales para sonido y música. Las interfaces para la síntesis modular tradicional.las direcciones (es decir. por qué no. Estos objetos se clasifican en cinco grupos funcionales básicos (ver Tabla 1): los generadores de sonido. destinada a promover la colaboración y a eliminar la figura del líder. uno de los modelos predominantes en la música electrónica mostrando todavía hoy un potencial y una flexibilidad difícilmente alcanzables mediante otros modelos. poco amigable. de una forma eficiente y no abrumadora. entre el sistema y el público). La metáfora de la síntesis modular La síntesis modular.

creando. Como resultado. dibujando de forma realista las formas de onda que viajan de un objeto a otro. Los usuarios de reactable sólo interactúan en cada momento con los objetos que necesitan y que se colocan sobre la superficie de la mesa. gracias a un sintetizador gráfico que ilustra las conexiones entre los módulos. el de “como evitar las conexiones erróneas”. los flujos sonoros que se construyen en cada instante tienen una representación permanente sobre la superficie de la mesa. Las conexiones entre los objetos son gestionadas de forma semiautomática por el sistema sin la indicación explícita de los usuarios. de difícil solución en los sintetizadores modulares tradicionales. etc. Cada familia se asocia con una forma física diferente (cuadrados. Esto se logra por medio de un simple conjunto de normas basadas en los tipos y las afinidades de los objetos y en la proximidad entre ellos. situándolos en la proximidad unos de otros. Cuatro manos al reactable 82 | en el limite .. cada una de ellos con un símbolo en su superficie que lo distingue de los demás (ver figuras 5. entrados y salidos. los usuarios pueden conectar y desconectar módulos. 6 y 7 y la Tabla 1). 2004).) y puede estar integrada por diversos objetos. Si el músico deseara comenzar con un oscilador y un filtro. o dynamic patching (Kaltenbrunner et al.controladores (que proporcionan un control variable adicional sobre cualquier otro objeto). que viene provocado por la enorme cantidad de módulos presentes en un panel. sólo se llevan a cabo conexiones correctas. prácticamente invisibles) sobre el borde de la mesa. círculos. cuadrados redondeados. Mediante el uso de objetos físicos desaparece el primer problema cognitivo presente en los sintetizadores modulares tradicionales (así como en sus réplicas virtuales). No menos relevante resulta el hecho de que. cada uno con sus correspondientes potenciómetros. tal como se muestra en la Figura 5. Tabla 1. deshaciendo y modificando complejas redes de procesado con gran agilidad y dinamismo. los objetos globales (que afectan el comportamiento de todos los objetos dentro de su área de influencia) y los selectores (que se pueden conectar temporalmente a la mayoría de los objetos modificando algunos de sus parámetros internos). se resuelve de forma sencilla en el reactable con lo que denominamos “cableado dinámico” Figura 5. Tipos de objetos reactable El segundo problema de interacción. Con tan sólo desplazar los objetos sobre la superficie. tan sólo estos dos objetos ocuparían la parte interactiva de la superficie mientras que todos los restantes permanecerían inactivos (y al no estar iluminados.

La retroalimentación visual sigue siendo esencial en todos estos casos: las Figura 7. decidimos seguir tres pautas importantes en el diseño visual de los gráficos proyectados sobre la superficie de la mesa: 1. puntos. indicando sus valores de rotación o sugiriendo la posibilidad de pulsar o arrastrar con los dedos en varias áreas (ver objetos en la Figura 7). como los osciladores de baja frecuencia o los metrónomos vibran “más lentamente” (i. cada uno con sus propios parámetros de control. en el limite | 83 . En consecuencia. Para permitir y facilitar un control total del sistema. todos los objetos reactable también se pueden rotar. un tonalizador. o el hiphop sin el giradiscos. Las auras que rodean a cada objeto físico transmiten toda la información sobre el estado de estos. los valores instantáneos de sus parámetros. El uso de los dedos no se limita tampoco a la modificación de los parámetros de los objetos. sobre la superficie del reactable tan sólo se proyectan líneas. mientras que el sonido resultante se procesa a través de un filtro paso-banda C que. Los objetos que. En consecuencia. el rock sin la guitarra eléctrica. no deberán mostrar nada que no aporte una información relevante (el sistema carecerá de adornos. es manipulado por el oscilador de baja frecuencia (LFO) E. Captura de pantalla mostrando las conexiones entre diferentes objetos. su configuración.e. todo esto. indicadores circulares de nivel y en algunos casos botones de pasos discretos rodean muchos de los objetos. profundizando en la metáfora del flujo de datos de la forma más natural. deberá lograrse sin utilizar ningún tipo de información textual o numérica. con una frecuencia visible). sugiriendo asimismo sus posibilidades de interacción. a la vez que son capaces de capturar la interacción multitáctil que se produce a su alrededor (ver figura 6). Las líneas de audio que conectan a los objetos muestran las formas de onda real resultantes.Control e Información Visual La retroalimentación visual constituye un componente esencial en el uso de reactable siendo uno de los principales responsables de que el manejo de un sistema tan complejo pueda parecer sencillo. G es un objeto global. a su vez. mientras que el generador B (un sintetizador FM) está siendo controlado por el secuenciador de pasos D. colores y proporciones gráficas que evolucionan en el tiempo. conexiones silenciadas se representan mediante líneas rectas punteadas. en la forma más accesible e inmediata (o todo lo que es. ilustran esas frecuencias mediante pulsaciones animadas. ¿Estilo? En la misma medida en que es difícil imaginar la música romántica sin la orquesta sinfónica o el piano. está) 2. éstos deberán mostrar de forma permanente toda la información sobre el estado del sistema. Figura 6. Las conexiones de control indican la densidad e intensidad de los valores que transportan. por lo que el desplazamiento de estos objetos en una superficie de dos dimensiones no parece suficiente como para controlar todos los parámetros disponibles en la mayoría de estos módulos. Así. es) 3. Modificando un parámetro con un dedo en el reactable Cada objeto reactable se corresponde con un módulo de un sintetizador. los dedos pueden ser también empleados para cortar o mutear las conexiones de audio. o todo lo que está. El objeto A (un reproductor de bucles) suena directamente sin ninguna modificación. el jazz sin el saxo. que corrige las alturas de las notas emitidas por los generadores A y B.

como todo instrumento basado en ordenadores. el reactable ha sido presentado en centenares de conciertos por toda Europa. Para aquella ocasión se realizó un concierto para dos mesas conectadas entre sí. loops. desarrollo y evolución del proyecto Las premisas de diseño de interacción que se han ido exponiendo. América y Asia. Para sobrevivir en el sumamente competitivo ecosistema instrumental. varios millones de personas han visto ya estos vídeos. interpretándose una pieza especialmente compuesta para la ocasión por el compositor e improvisador californiano Chris Brown6 que también fue uno de los instrumentistas en la mesa barcelonesa7. lo que demuestra que – tal como pretendíamos . su identidad procede sin duda de la forma en que se toca.. tanto por Björk como por su equipo creador. tanto a nivel de hardware como de software. y tienden a volver en repetidas ocasiones tratando de encontrar los momentos especiales en los que la instalación está vacía o con menos gente. el desarrollo de la librería de software reacTIVision para el seguimiento de dedos y de objetos marcados con etiquetas sobre una superficie interactiva (Bencina et al. 2005).la máxima aspiración de cualquier instrumento nuevo podría ser la creación o la consolidación de un estilo musical. En el reactable. el reactable puede usar también (y de hecho usa frecuentemente) sonidos pregrabados. las consecuencias se propagan como una bola de nieve10. y por ello su sonoridad puede tener evocaciones de comienzo de los setenta. gracias a tres vídeos que el equipo creador cuelga irreflexivamente en el entonces novedoso YouTube8. Paralelamente a estas instalaciones públicas. En este sentido. a menudo incluso apasionados. desarrollo del proyecto. como instrumento digital que es. los principios básicos del reactable son similares a los de los sintetizadores modulares. una en Barcelona y otra en Linz (Austria) donde se celebraba Ars Electronica. y efectos típicamente digitales. dado que los ordenadores pueden sonar de cualquier forma. Durante los dos años siguientes se fueron resolviendo paulatinamente los principales problemas tecnológicos. 14 museos de 3 continentes cuentan además con un reactable permanente11. los comentarios siempre han sido enormemente positivos. En 2007. siendo sin duda el más relevante. existente o inaudito.el reactable puede ser disfrutado incluso por aquellos que no lo comprenden completamente. única. donde ha sido tocado por centenares de miles de usuarios de todas las edades y con formaciones y conocimientos muy diferentes. en octubre del 2006. En este sentido. algo que lo haga diferente de todos los demás. Pero. Génesis. fueron definidas en 2003 y se alteraron muy levemente durante todo el 84 | en el limite . la popularidad de reactable se dispara trascendiendo el ámbito de la academia. Sin aspirar a tanto parece claro que la razón de ser de cualquier instrumento sea la de poseer una identidad. no hay nada que se le parezca. Hoy en día. A fecha de hoy. especialmente de aquellos músicos o grupos que hacían un uso restringido del teclado (ya que el reactable carece de teclado). tanto académicos como comerciales. reacTIVision es una librería freeware y de código abierto5 que se utiliza en centenares de proyectos de mesas interactivas. y con Björk presentando a diario el reactable ante centenares de miles de espectadores durante su gira “Volta” entre abril del 2007 y agosto del 20089. cualquier nuevo instrumento deberá pues destacar en algo. su identidad difícilmente procederá de sus características sonoras. reproducir cualquier sonido. Aproximadamente 13 meses después. Si bien no hemos realizado ningún estudio sistemático. mientras que los usuarios que pasan más de 10 minutos se convierten en “adictos”. Durante estos últimos años. Estas situaciones extremadamente exigentes han ayudado a convertirlo en un instrumento musical completamente maduro que ha superado claramente nuestras previsiones más optimistas. La presentación oficial de reactable se dio en la International Computer Music Conference (ICMC) que tuvo lugar en Barcelona en septiembre del 2005. el reactable se ha exhibido en centenares de ocasiones en cerca de cuarenta países. Hemos estimado que las personas interesadas comienzan a entender sus principios básicos a los 10 o 15 minutos de interacción no guiada.

un gran cambio en la producción musical. Es en esta coyuntura cuando tiene lugar. No es de hecho una coincidencia ni un capricho que de las miles de aplicaciones existentes hoy en día para teléfonos y tabletas multitáctiles. Ahora podemos afirmar ya de forma totalmente contundente que. un porcentaje muy relevante corresponda a aplicaciones para la creación musical en vivo.0 la que está menguando muy notablemente la eficacia de los canales tradicionales. y de la dificultad de fabricar y vender mesas desde el grupo de investigación de una universidad. con el auge de MySpace. Figura 8. democratizándola de una forma inimaginable hasta la fecha. la segunda empresa spin-off del Grupo de Tecnología Musical de la Universidad Pompeu Fabra12. A partir del 2005 esto pasa a ser casi una realidad. sustancialmente. en poco más de dos años los precios del reactable se han reducido de momento en cerca de un 75%13 y hoy en día. a finales de los noventa. más de medio centenar de músicos y Djs disponen de una mesa Reactable Live. desde hace poco más de un año. aunque. y no aporta poco. nuestra pequeña aportación no pueda sino ser meramente circunstancial. muy pocos disponían de sus mismos mecanismos de publicidad y distribución. como veremos a continuación. que progresan en el manejo del instrumento y lo abren hacia nuevas direcciones estéticas. Los cambios tecnológicos en la producción sonora no habían sido sustancialmente relevantes durante la última década. en el limite | 85 . son sin duda muchos más de los que inicialmente podíamos esperar. en octubre del 2010. puede conllevar bastante más de lo que hoy entendemos y podemos lograr con el archiubicuo concepto de “multitouch”. los blogs o YouTube. Medio centenar de músicos de todo el mundo. con formaciones e intereses musicales variados y diferentes a los nuestros. El nuevo milenio aportó cambios cuantitativos en esta dirección. nuestro último paso hacía una verdadera democratización de la creación de música electrónica en vivo.Reactable Systems. Si como decíamos. disponible en los bolsillos de millones de usuarios14. sino en los mecanismos de difusión. la portabilidad. Pero esta tecnología “multitouch” está realmente aquí. las mismas herramientas de producción que Madonna. pero probablemente todavía no los suficientes como para hablar de un impacto real en la música de hoy. reactable mobile A raíz del éxito obtenido. Hace ya más de diez años que. con la posibilidad de manipulación directa de objetos físicos. en 2009 se funda Reactable Systems. Sin llegar a ser todavía un producto “asequible”. hacía ya un tiempo que cualquiera podía utilizar. Eso supuso. Hemos expresado en la primera parte de este artículo el enorme potencial de las interfaces tangibles para la creación musical en vivo. precisando también que la interacción tangible. lo que hasta hacía dos o tres décadas era tecnología restringida a unos pocos estudios millonarios. la creación de música electrónica en vivo está pasando por el que probablemente sea su cambio más impactante en su algo más de un siglo de historia. con la nueva década. Un paso en el que podemos estar aportando nuestro grano de arena. la más reciente revolución se basa ahora en la miniaturización. se encontraba ya al alcance de cualquier usuario de un ordenador personal. Reactable Mobile Tras este cambio en la difusión. El penúltimo cambio radical se había producido no en las herramientas de producción. pero no cualitativos. en la medida en que es la misma creciente potencia de difusión de la web2.

en el de la creación musical. comprar un vinilo era un rito emocionante. por mucho que las multinacionales nos quieran hacer creer lo contrario15. ya para terminar. 86 | en el limite La creación musical móvil ¿una revolución real? ¿Que estaremos analizando en unos pocos años? ¿Cuales serán los resultados musicales y sociales de la actual explosión de aplicaciones musicales multitouch en dispositivos móviles? ¿Estaremos a punto de que se cumpla parcialmente el ideal marxista (aunque por razones diferentes a las que vaticinaba Marx). Ochenta años separan a Adolphe Sax de Coleman Hawkins. según el cual. creadores y no en consumidores de arte? Cierto es que el ratio entre creadores y consumidores de música parece estar aumentando favorablemente en el sentido creativo. Pero si dejamos de lado el tema del consumismo para volver a centrarnos. la “creación” no sería más que una ilusión. No tanto porque a las dos semanas de su lanzamiento Reactable mobile se hubiera convertido en una de las principales aplicaciones musicales del AppStore en una veintena de países. Antes de lanzar la aplicación Reactable mobile para iPhone y iPad (ver Figura 8) en octubre del 2010. pero este extremadamente ambicioso objetivo se encuentra frecuentemente fuera del alcance de sus creadores. la semilla ya ha sido plantada. y no menos de treinta tuvieron que transcurrir entre Les Paul y Jimi Hendrix.la accesibilidad y la idoneidad tecnológica (multitouch) de las nuevas herramientas para dispositivos móviles. y que esta profusión de oferta y facilidad de acceso. Aunque también aquí haya que ir con pies de plomo. que se apoyaba básicamente en la manipulación de objetos físicos. ¿Tenía realmente sentido trasladar un concepto. y todos nos convertiríamos en artistas. el reactable. Hemos comentado que la máxima aspiración de todo nuevo instrumento pueda ser la creación o consolidación de un nuevo estilo musical. cualquiera puede llevar en su bolsillo más música de la puede llegar a escuchar. conlleva una peligrosa contrapartida: la trivialización de la música como consecuencia del consumo musical inopinado. la agonía del mercado de la música tal como lo conocemos parece también un fenómeno irreversible. un instrumento democratizador no es aquel que siempre suena bien. llegaría el reino de la felicidad y la libertad en el que el trabajo sería libre y creador. nosotros mismos teníamos nuestras dudas. se le haga lo que se le haga. a otras plataformas en los que estos objetos desaparecían virtualizándose? Afortunadamente. Un buen instrumento debe ser capaz de sonar muy mal. no cabe duda de que la llegada de herramientas musicales más intuitivas. la vida parece coja sin el aditivo de una permanente e interminable banda sonora. sino ante todo porque unos meses después podemos realmente observar como decenas de miles de personas crean música electrónica. y utilizan nuestra herramienta a menudo de formas que ni siquiera nosotros mismos podíamos llegar a prever. suben sus composiciones y sus vídeos a Internet. para que los que lo utilicen aprendan a controlarlo. Hoy en día. y en este sentido. Cuando yo era adolescente. En cualquier caso. todo parece evolucionar más rápido. y progresen a través de sus errores y de resultados indeseados. Hoy. De lo contrario. Afortunadamente. artístico en suma. con la desaparición del trabajo especializado. y para muchos. Aunque también es cierto que no todo es maravilloso. a priori bueno para la creación. accesibles y asequibles debería fomentar y democratizar la creación musical. en manos de inexpertos ¡el reactable también suele sonar bastante mal! . hoy sabemos que sí tenía sentido.

pp.116-121. Geiger. (2003) ‘Generative Music and Laptop Performance’.140-145.. R. Ryan. (1983). Carroll. Barcelona. No. Computer Music Journal. Vol. No. 4. Miller. (1993) ‘Non-obvious roles for electronics in performance enhancement’. San Francisco. Direct Manipulation: A step beyond programming languages. G. Bits and Atoms’. No. R. Gallimard. ‘Bimanuality in Alternate Musical Instruments’. 3. California. Contemporary Music Review. pp. pp.67-79. H. Mathews. J.. en el limite | 87 .31-43.295-302. Ishii.81-92. Ed. pp. Vol.. (2003) ‘The Resonance of the Cubicle: Laptop Performance in Post-digital Musics’.134-137. Vol. C. Proceedings of the 2003 Internationl Conference on New Interfaces for Musical Expression NIME03. Recht. Universitat Pompeu Fabra.. S. and Ishii. Vol. M. pp. pp. Patten. M. Turner. & Risset. No. Davies. Journal of New Music Research. (2006) ‘Interaction Techniques for Musical Performance with Tabletop Tangible Interfaces’. Kaltenbrunner. (1997) ‘Tangible Bits: Towards Seamless Interfaces between People. Computer Music Journal. and Bean (2000) ‘Outer Limits’.. Kaltenbrunner. pp. (1991) ‘Some Remarks on Musical Instrument Design at STEIM’. (2004). 26. Sabater). R.. E. R. dissertation. pp. pp. No. Robair. Shneiderman. Jordà.. Contemporary Music Review. S. F. (2002) ‘Problems and Prospects for Intimate Musical Control of Computers’. No. (2007) ‘ReacTIVision: a computer-vision framework for table-based tangible interaction’. Proceedings of the International Conference on New Interface for Musical Expression NIME02. Proceedings of the IEEE International Workshop on Projector-Camera Systems. Pierce. Weinberg. (1969). Proceedings of the International Conference on New Interfaces for Musical Expression NIME04. Haehnel. T. Moog.1. (2002) ‘Audiopad: A Tagbased Interface for Musical Performance’.13. & Tetsutani. J. G. 4. Jordà. N. Vol. Proceedings of the 1993 International Computer Music Conference. G. S. ‘Dynamic Patches for Live Musical Performance’.3-17.22-27. Electronic Musician Magazine.. Ullmer B.Bibliografía Bencina. M. (2001) ‘The Preservation of Electronic Musical Instruments’.579-601. Z. Lyons. B. Paris : La Pléiade. R. 25.69-74. H. H. (2001) ‘The Squeezables: Toward an Expressive and Interdependent Multi-player Musical Instrument’. J.. John M. Addison-Wesley. and Ishii. Proceedings of the International Computer Music Conference (ICM05). Vol. J. J. 22. Proceedings of the 2003 International Conference on New Interfaces for Musical Expression NIME03. M. Wessel. Zaragoza. Puckette. (1965) ‘Voltage-Controlled Electronic Music Modules’. playing and performing with a vision-based mouth interface’. ACE 2006 Advances in Computer Entertainment. Volume 30. D. Geiger. (2002) ‘Max at 17’. and Jordà. Louisiana. 16.. Alonso. Contemporary Music Review. Kaltenbrunner. 22. (2001) ‘Emerging Frameworks for Tangible User Interfaces’. MA: The MIT Press. pp. Diderot. 6. Cambridge. Journal of the Audio Engineering Society. M. H. In Human-Computer Interaction in the New Millenium. Vol. M. and Ishii. N. CA: International Computer Music Association. S. B. 4.49-72. V.19-22. pp. Jordà. pp. and Gan. pp. R. M. M. TEI ‘07: Proceedings of the 1st international conference on Tangible and embedded interaction. No. H and Ullmer. Patten. & Settel. and Jordà. No. pp. M.. M. Montreal. D. Biblioteca de la Literatura y el Pensamiento Universales. 2. The Technology of Computer Music.. (2003) ‘Designing. G. Recht. L. pp. 57-69. (2005) ‘The reacTable*’. (1975) Escritos filosóficos (traducción de F. B.11-22. Jordà. J. Cutler.. Collins..70-76. 139-146. M. (2005) ‘Improved Topological Fiducial Tracking in the reacTIVision System’. G. Proceedings CHI 97.. Kaltenbrunner. August 2000. Kaltenbrunner. & Arfib. & Wright.37-45. Edición original en francés (1951) Œuvres. pp. and Bencina. Puckette. Proceedings of the 1st international conference on Tangible and embedded interaction. 3. Baton Rouge. Geiger. (2003) ‘Sonigraphical Instruments: From FMOL to the reactable*’. Kessous. pp. S. D. IEEE Computer.200-206. (2007) “The reacTable: exploring the synergy between live music performance and tabletop tangible interfaces”. PhD. (2003). Proceedings of the International Conference on New Interfaces for Musical Expression (NIME03). and Bencina. Hollywood. Moore. Computer Music Journal. M. 4. S.. (2005) Digital Lutherie: Crafting musical computers for new musics performance and improvisation. J. 26. S. Ben. M.24-26. pp.

Referencias
International Conference on New Interfaces for Musical Expression (NIME): http://www.nime.org/
1

STEIM (studio for electro-instrumental music): http:// www.steim.org/steim/
2

Esta cita ha sido tomada directamente de la traducción al castellano de Fernando Sabater, Diderot, D. (1975) Escritos filosóficos Diderot. Biblioteca de la Literatura y el Pensamiento Universales, Zaragoza.
3

International Conference on Tangible, Embedded, and Embodied Interaction (TEI): http://www.tei-conf.org/
4 5

reacTIVision: http://reactivision.sourceforge.net/ Chris Brown: http://www.cbmuse.com/

6

En el concierto de presentación de reactable, se interpretó la pieza de Chris Brown Teleson, para dos reactables conectadas por Internet, especialmente compuesta para esta ocasión (http://www.cbmuse.com/ look/teleson.mov). Los intérpretes en la mesa de Barcelona fueron Chris Brown y Günter Geiger, mientras que los dos intérpretes en la mesa de Linz (Austria) fueron Marcos Alonso y Martin Kaltenbrunner.
7

El primer video de reactable colocado en Youtube en octubre de 2006, cuenta hoy con más de 2,6 millones de visitas: http://www.youtube.com/watch?v=0h-RhyopUmc
8

Vídeo con una actuación de Bjork + reactable en la BBC, en el show de Jools Holland: http://www.youtube.com/ watch?v=MHeX6yg95xU
9

Extracto de una entrevista a Sergi Jordà, realizada en septiembre del 2007, y publicada en la revista colombiana ElNiuton vol.4, septiembre 2007, http://www.elniuton. com/erotismo/view_niuton.php?ed=04&pag=181 Hemos percibido obviamente, un interés totalmente inusitado e inesperado. Parece que de repente, hemos inventando el instrumento musical más famoso del siglo XXI (lo cual no es poco, a pesar de que sea un siglo todavía muy joven). Pero todavía está por ver el impacto cultural a
10

largo plazo. A corto plazo, esto pone obviamente de manifiesto el poder real de la denominada web 2.0, de YouTube, los blogs… Hace unos meses sólo nos conocían unos pocos músicos e investigadores del sector. A raíz de tres vídeos que publicamos en noviembre del 2007 (http:// www.youtube.com/ profile_videos?user=marcosalonso), y que hoy, nueve meses después, suman más de 2.000.000 de visitas, miles de blogs hablan del reactable, y vamos realizando tantos conciertos y presentaciones en tantos países, que hemos tenido que fabricar más reactables (ahora tenemos tres) para poder repartirnos el trabajo. Björk, fue ante todo una consecuencia de este éxito, pero ahora es, lógicamente, la causa más relevante de su preservación y propagación. Pero cuan ¿“cultural” es éste impacto? Nuestros medios “naturales” (i.e. los que podrían hablar de nosotros), es decir los de la música electrónica, el media-art, la human-computer-interaction… nos conocen y hablan de nosotros, pero también hablan de nosotros otros medios menos “naturales”: magazines de televisión de tarde, eventos para empresas de publicidad que quieren contratarnos… en los que corremos el riesgo de aparecer como la “mujer barbuda” o “el enano de las dos narices”… con lo que podríamos calificar de impacto “incultural”. Algo parecido nos sucede en el terreno estrictamente musical. Leemos algunas posts sobre nuestros vídeos en YouTube… de repente hemos llegado a las masas: “esto es sólo ruido, ¿dónde está la música?”. De hecho, tienen razón: tan sólo eran unas demos sin pretensión, grabadas en unos breves minutos; unas demos que mostraban algunas de las posibilidades técnicas del instrumento. No era música ni pensábamos que fuesen a tener trascendencia alguna. Pero después sigues leyendo algunos comentarios y… “¿donde están las notas, las bellas melodías?”… “Esto no es música. ¡No se puede plasmar en un pentagrama!” Y entonces te das cuenta de que si hubiésemos hecho “música”, nuestra música, algunos comentarios hubiesen sido incluso peores. Está claro que no todo el mundo tiene que conocer a Stockhaussen, ni siquiera apreciar a Autechre, pero ellos tampoco aparecen en los magazines de tarde, con lo cual no se produce esta extraña confrontación e incomprensión. De hecho, mi música prereactable es mucho más “ruidosa”, por llamarla de alguna forma sencilla. Y ahora, cuando estamos en el proceso de descubrir la voz de nuestro instrumento, nos vemos sometidos a una especie de esquizofrenia creativa. Yo nunca había hecho techno; me pueden gustar algunas cosas, bastantes de hecho, pero nunca había hecho música de baile. Y ahora, a menudo, en concierto, aunque seguimos haciendo música improvisada, nos vemos sometidos en este dilema esquizoide. Tal vez tan sólo sea nuestra inmadurez reactablera. Culpa nuestra, por lo tanto…

http://www.reactable.com/products/reactable_ experience/
11 12

Reactable Systems: http://www.reactable.com

Las primeras mesas se vendían por cerca de 30.000 euros, mientras que el precio actual de Reactable Live es de unos 8.000 euros.
13

El termino “bolsillo” se utiliza aquí de forma metafórica (asequible) pero también, y sobre todo, de forma literal (portátil).
14

Pretender que el fin del mercado acabará con la música, es como pretender que si la prostitución y la pornografía dejaran de ser rentables, eso supondría el fin del sexo. Defender asimismo las ventajas del arte “producido” o de la necesidad de inversión en la producción, es parecido a alegar que el porno es mejor que el sexo personal e intransferible, porqué tiene más silicona (Sergi Jordà).
15

88 | en el limite

Anotaciones sobre Interactividad entre las artes del sonido y la performance audiovisual, partiendo del ‘Live Cinema’.
Julio d’Escriván
Anglia Ruskin University julio.d’escrivan@anglia.ac.uk

bienal, mezcla de conferencia, exposición y festival de cine, música electrónica y arte sonoro, la obra PROBE de Boris Debackere se convertía para mí en un gran signo de interrogación.

dado que muchas performances audiovisuales hacen uso de la música electrónica o de reproducciones de audio digital. Antes de abordar mi discurso (¡que espero resulte leve!), quisiera aclarar que el concepto de live cinema se ha explorado a principios del siglo veintiuno como performance audiovisual (Schaher, 2008, Debackere & Debackere, 2006) y también como la reconstrucción de la narrativa cinematográfica a través de interfaces de edición en directo (Lew, 2004). También quisiera señalar que la práctica del llamado VJ o ‘video jockey’ es similar y a menudo sólo se diferencia en la intencionalidad del creador y en la localización del evento (es decir en clubes y discotecas en contraposición a la galería de museo o a la sala de conciertos). Por otra parte, sugiero que para una discusión general de la historia de la performance audiovisual se lea a Amy Alexander y Nick Collins en su artículo ‘Live Audiovisuals’ del Cambridge Companion to Electronic Music (Collins y d’Escriván, 2007), ya que en este artículo no voy a cubrir el contexto histórico de modo consistente. A efectos de este artículo tampoco discutiré el tema de la recepción audiovisual que ha sido ya presentado por Andrew Hill (Hill, 2010). Finalmente quiero señalar que la distinción entre cine experimental y vídeo arte es tenue para el espectador casual. Por esto, habré de usar el término cine con un poco de ligereza ¡y pido disculpas de antemano!

El Live Cinema, o práctica de performance audiovisual que aspira a una condición cinematográfica, presenta una oportunidad interesante para concretar la evocativa visual de las artes sonoras. En una consideración poco teleológica, partiendo de ejemplos concretos y pasando por una reflexión sobre su práctica, discutiremos aspectos de una sinergia Live Cinema – Artes Sonoras.

Introducción
Era el 2008 y Amsterdam, casi en primavera, aún exigía gorra, abrigo y bufanda de noche. En una sala de exposición del Nederlands Instituut voor Mediakunst, en total oscuridad y con un atronador sonido envolvente, había una gran pantalla de cine a todo color presentando una especie de asteroide preso en la proyección audiovisual. Adonde se moviera la persona más cercana a la pantalla, allí le seguía esta especie de cuerpo sideral atrapado en ella. La mecánica de este artilugio no era evidente, sólo el espectáculo de una película que de modo casi amenazador reaccionaba a su público. Al retirarse el espectador de la pantalla, el asteroide comenzaba a girar vertiginosamente a medida que se enrojecía como en llamas y la intensidad del audio se hacía ensordecedora. Desde afuera de la sala, el sonido permeaba las demás instalaciones, también parte del simposio Sonic Acts XII y, francamente, les hacía sombra. En esta reunión

Figura 1. PROBE 2008 de Boris Debackere

La obra de los hermanos Boris y Brecht Debackere ya me era conocida por su trabajo ROTOR. Una performance audiovisual que ellos (como parte de una movida al menos Europea de principios de los ‘00) llaman live cinema o ‘cine en directo’. En esa misma conferencia el conocido teórico de medios Douglas Kahn, autor de Noise Water Meat, una historia del sonido en las artes (Kahn, 1999), hizo una presentación sobre la cuestión de si estaban dadas las condiciones para que existiera, hoy en día, el ‘live cinema’. La propuesta de Kahn era que no estaban dadas. Estos dos eventos, sumados a mis inquietudes por el trabajo audiovisual, me llevaron a reflexionar sobre el tema de si el cine puede ser ejecutado como performance. Y, sobre todo, qué significa esto para un artista sonoro en términos estéticos y de potencial creativo

en el limite | 89

LiveCinema
Entrando en materia, pues y para excusar la ligereza a la que me refiero, debo mencionar que es importante para mí, no sólo cómo los expertos nombran al arte sino cómo la gente ‘común y corriente’ lo nombra. El cine, para los que lo estudian en las universidades, es generalmente un arte de la imagen en movimiento (abstracta o narrativa) registrada a través de la cámara de cine y ensamblada en estudio. Para la mayoría de los no-iniciados, el cine es exclusivamente esa narrativa en pantalla grande que va desde el Hollywood clásico, pasando por los estrenos de verano y llegando hasta los creadores de cine de arte y ensayo. En general, el lenguaje del cine tiende a oscilar entre una reconstrucción de una narrativa teatral y una presentación casi poética de la imagen en movimiento. Lo que parece darse por descontado siempre es que el cine es usualmente una obra plástica: una vez hecho preserva su forma (es un arte de la reproducción, una forma diacrónica). Pero el Live cinema no es obra ‘plástica’ sino performativa. La presentación poética, es decir sin importar el grado de narratividad, es la más relevante al Live Cinema en esta discusión, pues es la forma que se encuentra con mayor frecuencia1. Un Ejemplo de esa presentación poética en el cine experimental puede verse en el trabajo silente de Stanley Brackhage (por ejemplo en Mothlight de 1963) o bien en el trabajo de Ken Jacobs en colaboración con John Zorn en la performance en directo llamada Celestial Subway Lines / Salvaging Noise Ch.3 (2004), donde no
90 | en el limite

usa vídeo o cine, sino sólo el proyector y la modificación de la luz con música improvisada. Este último trabajo es más cercano a lo que podríamos denominar Live Cinema.

Figura 3. Subway Lines / Salvaging Noise Ch.3 (2004) Jacobs/Zorn

Figura 2. Mothlight (1963)Stanley Brackhage

En obras como la de Jacobs/Zorn se puede observar un trabajo audiovisual muy cercano a la música electroacústica/electrónica en donde lo sonoro podría ser denominado acusmático en tanto que las fuentes originales del sonido no pueden ser observadas (¡aunque efectivamente haya algo qué observar en pantalla!2). Donde la comparación termina, un poco, es en el carácter improvisatorio y performático de este audiovisual de Jacobs versus la obra fija, plástica, del creador electroacústico en lo que se llama de ordinario ‘acusmática’. Por esto habría que asemejarla más al ‘live electronics’, que es, por supuesto, una vertiente de lo electroacústico.

He visto definiciones de ‘Live Cinema’ que aducen saber que el término se empleaba para el cine mudo con acompañamiento musical en vivo (Debackere and Debackere, 2006; Makela, 2008), sin embargo no dan referencias y desconozco otra evidencia para ello. Lo más certero que he visto señalar por varios autores lo resumiría con mis palabras de esta manera: el Live Cinema es la creación de un espacio cinematográfico donde la selección, síntesis y mezcla de la imagen sucede en tiempo real y la música puede ser hecha de la misma manera, como en la obra de Jacobs y Zorn a la que hacía referencia (pero no es una condición).

¿Qué tiene que ver esto con el arte sonoro?
Como ya sabemos, el arte sonoro3 es una gran etiqueta que parece abarcar toda la electrónica/ electroacústica. Es interesante ver cómo los académicos anglo-parlantes diferencian ‘sound art’ de ‘sonic art’ (Hugill, 2008, p.68),

Por estas razones que he expuesto. Es allí. Lo que ambas etiquetas tienen en común es su posible distancia de la ‘narrativa’ melódica. el segundo se refiere a el arte de organizar sonidos facilitado por la electrónica que nos viene de Schaeffer y descrito prescientemente por Varése en su texto La liberación del sonido de 1936. y describir nuestro arte del sonido con las palabras con que describe el Live Cinema el VJ Toby Harris (Harris. Es por esto que me parece que bien podemos ya ‘cruzar el río’. me parece que hay una condición natural de fraternidad entre el arte sonoro. Alternative Trailer for Slumdog Millionaire – Addictive TV Un buen ejemplo de un discurso visual construido como paralelo a un discurso musical es el género del video clip popularizado por MTV a fines de los 80s y principios de los 90s. si lo vemos desde el punto de vista de Nicholas Cook según su análisis de la multimedia musical en el limite | 91 . la asociación de imágenes visuales/auditivas es libre y subjetiva cuando se emplea en un lenguaje ‘no-figurativo’ (es decir libre de la secuencia narrativa). etc. 2010): “[los ejecutantes del Live Cinema] cada vez cuentan historias distintas. pues tienen como un ‘mar de memorias’ y cada historia navega a través de este mar haciendo asociaciones distintas y nuevos enlaces”. Trasladar esto al arte de lo sonoro-electrónico nos puede ser útil ya que a menudo nuestro público parece percibir el discurso electroacústico un poco de esta manera. dinámica y rítmica. la imagen editada para ser música tiene un discurso propio donde el objeto sonoro se hace realmente visible (como en el comienzo del clip de Addictive TV (2009) para el trailer alternativo de SlumDog millionaire donde la carrera de los niños sobre un gran tubo de metal se convierte en un perfecto sillon fermé ¡al mejor estilo Schaefferiano!) Figura 4. 2000). Y de poder describir las artes del sonido como artes visuales. O lo que es lo mismo. p. Allí señala como el uso de sonidos reconocibles deriva por fuerza en imágenes visuales que el oyente puede emplear para explicarse (o cuestionar) la fuente y construir mentalmente el paisaje auditivo que se le propone en la obra. Esta distancia resulta en una abstracción del lenguaje musical que luego se plasma en gestualidad tímbrica. donde también encontramos que la música electrónica/ electroacústica a menudo hace uso de ‘imágenes’ auditivas logradas a través de un montaje quasi-cinematográfico del audio como vemos por ejemplo en el Clair de Terre (2000) de Robert Normandeau5. 1996). Imagen para la música Si bien es verdad que las artes sonoras y el Live Cinema se comunican en un espacio poético abstracto y metafórico (para emplear de nuevo las herramientas teóricas de Cook.). verso libre. pecar de promiscuos. en esa distancia o espacio de significación imaginaria. rítmica y tímbrica de la música tradicional. ésta distancia obra de forma poética para dotar de significado a la obra sonora sin instrumentos tradicionales4. Esto lo corrobora Jan Schaher cuando nos dice que en el Live Cinema estamos frente al desarrollo de una práctica artística que se vale de la tecnología para explorar un espacio simbólico entre medios (imagen/ sonido) e intermedio (o separador) que es a veces no-descriptivo (Schaher. Este uso del potencial supuestamente sinestésico del arte sonoro está muy bien expresado por Stéphane Roy en su análisis de la forma y la cita en la obra de Francis Dhomont (Roy. y no es porque [no] haya una historia definitiva sino porque es más interesante.el primero se refiere más a el sonido con y en las artes plásticas (instalaciones. 2008.148). Más aún. diríamos que oscilan entre la abstracción y el surrealismo (¿figuración no funcional?). arte radiofónico. El vídeo clip se vale de la coherencia y conformación entre edición y música para lograr un objeto de arte unificado. la música electrónica/ electroacústica y el Live Cinema que es interesante investigar a través de la práctica creativa además del tradicional estudio musicológico. bien podrían ser prosa poética. multimedia. y que si las artes del sonido fueran prosa.

su estructura temporal tiene que ensamblarse a través de juegos de tensión y distensión. Ian Edgar y Geoff Gamlen). Live in Bruxelles con música de Justin Bennn ett (http://vimeo. com/3333080). expectativa y resolución (o no-resolución) articulados por la edición y generación de imágenes en tiempo real y complementados por música/audio. Desde el contexto de la música de cine su función es tenuemente incidental y quizás hasta débil.pilots a principios de la década del 2000 por 242.C. En su ensayo sobre la Práctica del Live Cinema Mia Makela especula que “quizás la imaginería abstracta es analizada mejor como si fuera música” (Makela. Y es. una auralidad aumentada dado que sus practicantes aducen una forma quasi-musical como explicación de su lógica interna. Sin embargo no era así (Ralske. De esta manera podían producir tres capas de proyección visual. como por ejemplo en la obra de 242. se efectuaban usando el teclado y el ratón de la laptop. de la estructura rítmica de su presentación. los integrantes del trío Londinense de remezcla y ’mashup’ audiovisual Eclectic Method (Jonny Wilson. por ejemplo. y más aún si la música ofrece texturas sin elementos melódicos (utilizando objetos sonoros). Live in Bruxelles (2002) 242. 2000). Lukasz Lysakowski.(Cook. Esto les permite usar los recursos manuales tradicionales del DJ como Dado que el Live Cinema está libre de la tarea narrativa que puede tener el cine editado en estudio. Schaher confirma esto al mantener que el arco de tensión de una obra de Live Cinema se asemeja más a una obra musical que al cine. por su propia admisión.pilots (H. Por ejemplo. más al estilo del scratch-DJ. Kurt Ralske). 2011). pilots es poco ‘instrumental’ en tanto que las modificaciones de la imagen. Cada integrante utilizaba su propia laptop con su software original de manipulación de vídeo en tiempo real. su sentido de la composición y su belleza entre otras cosas. En el vídeo clip. En algunas prácticas. de estadio. Uno de los integrantes estaba a cargo de escoger de entre estas capas o bien de mezclarlas y de regular la densidad del flujo visual de manera expresiva y de establecer relaciones entre el sonido y la imagen. fue un terreno fértil para sembrar el Live Cinema. pilots. En la práctica Para entender mejor cómo puede funcionar un evento de Live Cinema. Pero para los ejecutantes de mezclas de imágenes en tiempo real esta música representa una suerte de croquis auditivo que da forma a su trabajo improvisatorio. En ese sentido. Gilje. Podríamos aseverar sin mucho riesgo que la práctica naciente del VJ en esa época combinada con el desarrollo de la performance audiovisual al servicio del espectáculo de rock masivo. la estrategia de los VJ de mediados y fines de la década han sido más gestuales. 2008) señalando que entonces se puede hablar. utilizan ‘decks’ de vídeo digital y CD para hacer el pinchado de imagen/sonido en vivo. la música no se integra a las imágenes más que como un acompañamiento apropiado. Figura 5. para nuestros efectos. ya que provee un marco de referencia muy apropiado para una obra audiovisual abstracta pues carece de elementos de representación y narrativa (Schaher 2008. la coherencia y complejidad de su producción audiovisual rivalizaba con la de obras pre-editadas y por tanto el público asumía que el material estaba pre-grabado y estructurado de antemano. p. Cada integrante tomaba decisiones continuamente sobre qué material ofrecer para la mezcla audiovisual y de qué manera afectar la fuente visual bajo su control. 150). Es interesante ver como el método de 242. la imagen funciona como una auralidad aumentada6 y el discurso sigue una lógica que es en esencia musical. Según Kurt Ralske. podemos presentar a modo de ilustración la metodología empleada 92 | en el limite .

encuadres inusuales y otras combinaciones características de la edición cinematográfica. la una más abstracta y ‘arte serio’. esas que alegan merecer nuestra atención absoluta. fiestas o clubes nocturnos. Veamos porqué. Por ejemplo. Su discurso se pasea por Eisler y Kandinsky para proponer –luego de un análisis profundo y completo– la multimedia como metáfora. tal como lo hemos discutido. Más allá de esta valiosa contribución de Cook. Sin embargo es importante mencionar que estos últimos no siempre se consideran VJs y aspiran a un público atento a su obra y no como una especie de Figura 6. Conclusiones El live cinema.el loop y el scratch rítmico. trae consigo de modo natural un ‘hit point’. papel tapiz sonoro para discotecas. En su primer DVD. Estas dos vertientes. Estamos apenas al comienzo de todo un desarrollo de interacción persona-ordenador que hace uso de la imagen y el sonido de forma simultánea y coherente. Es el átomo de la performance audiovisual: combinable pero indivisible. la otra más urbana y ligera son un eco de las músicas que alimentan su performance audiovisual. ¿El Cine ‘Concreto’? (Más allá de la multimedia como metáfora) Nicolás Cook en su libro Analysing Musical Multimedia (Cook. El uso de controladores externos USB permite ahora lo mejor de ambas prácticas7. ¿quizás sería mejor llamarlo ‘cine concreto’? Sin embargo. 2000) acota el rechazo que hace Eisenstein de la correspondencia sinestésica como “una base viable para una relación entre la música y las imágenes” (Cook.57) y de su propuesta de establecerla más bien en el contexto particular de cada película8. Es por esto que lo llamo indivisible. p. el problema de que haya un ‘átomo audiovisual’ es que puede establecer condiciones a la interactividad. Addictive TV (en particular el trailer alternativo para Slumdog millionaire) y los pioneros Coldcut (como se ve en el clásico video-clip True Skool). Emergency Broadcast Network. entre los practicantes de performances audiovisuales hay una tendencia más abstracta y cercana al arte de galería y una tendencia más urbana (aunque a menudo no menos experimental). podríamos entender que el objeto audiovisual. Basta comparar 242. dado el uso de la consola de mezcla visual. De esta manera la performance audiovisual nos trae –en términos Schaefferianos– otro arte de lo concreto. el ejemplo de Live in Bruxelles muestra cómo los en el limite | 93 .pilots) y a veces muestra un discurso musical bastante unívoco con la imagen (Addictive TV. Es la cultura audiovisual urbana aspirando a la condición de las ‘artes serias’. Un pequeño gran paréntesis Al igual que la tensión existente entre distintas vertientes de la práctica de la música electrónica. Eclectic Method. “I Have a dream…” Martin Luther King (1963) Desde la performance audiovisual. En el primer caso. a veces se hace eco de la propuesta estructural de la música que lo acompaña (242. La diferencia audiovisual radica en la edición rítmica versus aquella más abstracta y tal vez temática. les permite crear superposiciones de imágenes. pero además. 2000. UVA. la agrupación Eclectic Method titula su trabajo del 2005 ‘We are not VJs’ –‘no somos VJs’.pilots o el trabajo de Schaher o Debackere con los Londinenses Exceeda. Eclectic Method). que no es el objeto sonoro. éste es un objeto audiovisual que aún si se presentara mudo nos habla con la misma voz. la imagen en blanco y negro de Martin Luther King en el Lincoln Memorial de Washington en Agosto de 1963 diciendo “I have a dream… (that one day this nation will rise up and live out the true meaning of its creed… etc)” está para siempre unida a su voz.

Es posible que las avenidas de investigación estén aún un poco aisladas. ora en el género del cine experimental. Y más allá de esto. ambos medios pueden participar de una misma plantilla estructural. Es decir que el ejecutante es capaz de contribuir música e imagen por igual y de identificar componentes esenciales que podríamos llamar ‘atómicos’ del discurso audiovisual. se desprende también que las condiciones que impone el ‘objeto’ o ‘átomo’ audiovisual (¡y perdónenme el neologismo!) que discutíamos antes tienen que ver con el grado de importancia de su audio original para la percepción global de la toma en cuestión.pilots reaccionan a una música preestablecida. En el caso del ejemplo de Luther-King. tanto Addictive TV como Eclectic Method buscan el refuerzo visual ‘momento a momento’ con la música. Estos a su vez pueden ser combinados en directo (‘live’) para redefinir el mensaje audiovisual de modo dinámico e innovador y fiel a la naciente tradición de la cultura del remix y del mashup. La composición y mezcla de ‘átomos audiovisuales’ permite. ora en el mundo de la electroacústica. el Live Cinema nos presenta un planteamiento donde la música puede funcionar en igualdad con la imagen. Es decir que una idea musical puede dar lugar a una secuencia de imágenes al punto de que éstas funcionen de modo incidental a la música (en contraposición al rol habitual de las artes auditivas en cine que le son incidentales a la imagen). están los trabajos en la línea de Ken Jacobs y John Zorn. se oye un golpe. Y a lo mejor sobra señalar que la obra en general siempre es más que esta secuencia de momentos audio-video. plantearse una colaboración en igualdad de condiciones y programar obras de este tipo con más frecuencia en los festivales electroacústicos. Por tanto la relación entre el empleo de las artes auditivas en conjunto con la imagen. En conclusión. cómo articulan la estructura de la música a través de sus selecciones de tomas y de la relación entre estas tomas. Es decir que sus imágenes ilustran la acción visible de modo literal: se ve un golpe. En el segundo caso. pero en el caso de una película cualquiera en ‘toma abierta’ de un paisaje urbano (de las que se llaman en cine ‘establishing shots’). por supuesto. el que muestra la tendencia más interesante de miras al futuro: aquella donde el elemento de expresión e improvisación no es auditivo o sonoro sino íntegramente audiovisual. debe ir en la dirección de establecer una estrategia unificadora para el discurso. la importancia semántica es poca y el audio es en consecuencia sustituible sin que haya gran disonancia cognitiva per se. Más allá de estos dos casos. Lo que si está claro es que ambas áreas de actividad artísticas tienen un potencial de enriquecimiento semántico tremendo con solo coordinar esfuerzos.integrantes de 242. su recontextualización como apuntaba en el párrafo anterior y yace ahí su gran riqueza. Es éste último. En particular. donde la música y lo visual se fecundan mutuamente para dar origen a un discurso unificado. por ejemplo. Es en esta recontextualización o remezcla (remix) donde puede obrar con éxito la música al reubicar nuestra perspectiva de la imagen mientras convive con su audio original o lo sustituye. Pienso que los recursos del ejecutante audiovisual o VJ con su colección de tomas y ‘video bites’ son un excelente complemento a los recursos de la música electroacústica en directo. Por supuesto. la importancia del sonido es grande (pues son 94 | en el limite sus famosas palabras). .

html in April 2011. 7 Esto no es muy distinto de la famosa propuesta de ‘síncresis’ de Michel Chion en su libro Audiovisión (Chion.php# Clair de Terre (2001) [CD] Robert Normandeau. and Altena.org/ ) 6 De hecho. eds. Ralske. Harris. Cinema in the age of instant creation in Transmedia Text Series 05. p. 2 Siguiendo la onda de rotularlo todo. Michael. las instalaciones. Investigating Audience Reception of Electroacoustic Audio-visual Compositions: developing an effective methodology in eContact! 12. Live Cinema Documentary. 1990. toby*spark).exceeda. http://www. liderada por Francis Dhomont. Issue 1. Stéphane.63) 8 en el limite | 95 . la electroacústica y así) mientras que la segunda. Y. com/9065736. 5 Uso este término como paralelo a la ‘augmented reality’ que se difunde en estos momentos a través de nuevas apps en smartphone que sobreponen a la imagen del visor una capa virtual de sonido que reside en la red. Chion. Kurt. sino que no se ve la fuente real del sonido. a history of sound in the arts. Mia 2008. N. adhiere su trabajo a una corriente de ‘cine para el oído’ o (Cinema for the ear). Jan. 2006. com/watch?gl=GB&v=6dh0iEkDEkU Referencias Admito que no he hecho un estudio estadístico de ello. Toby (a.4 — Perspectives on the Electroacoustic Work / Perspectives sur l’œuvre électroacoustique(August 2010). Hill. On the performance techniques of 242. yo me referiría a ‘las artes sonoras’ en vez de ‘el arte sonoro’ pues la primera da a entender que son varias (la música. Lew. Andrew. 1 Puesto que acusmático no significa que no se vea nada.k. Cambridge University Press. New York: Columbia University Press. (eds. Japan. http://www. 2010. A. pilots accessed at http://retnull. Hugill. Cambridge: MIT Press.youtube.). Live Audiovisuals en Cambridge Companion to Electronic Music.html?id=4 Emergency Broadcast Network.escoitar.co. aunque el punto de la discusión está más bien referido al género más abstracto de electrónicas y electroacústicas. 4 Quién como sabemos. Douglas. hoy día los integrantes de Eclectic Method están progresivamente sustituyendo sus tocadiscos digitales por laptops y controladores externos.com/clips. The Digital Musician. y d’Escriván. Brecht. Herman (ed.uk/live. B. Amy y Collins. Form and referential citation in a work by Francis Dhmont in Organised Sound (1: 29-41). The Practice of Live Cinema in Media Space Journal. Es mi impresión anecdótica y sin excluir la narrativa como recurso. org/ y http://www. Live audiovisual performance as a cinematic practice in The Cinematic Experience Debackere. por supuesto. 3 Teniendo en cuenta las muchas expresiones mixtas que combinan lo tradicional y lo electrónico. 1999. 2007. Hamamatsu. parece implicar que hay una cosa en particular que es ‘el arte sonoro’ (¡y eso es precisamente en lo que todos estamos en desacuerdo!). dado el pronombre. J.addictive. Brussels: Transmedia. Audiovision. Kahn. Makela. junto a varios compositores de la escuela acusmática Canadiense. N. Nick.a. Montréal:Communauté électroacoustique canadienne/ Canadian Electroacoustic Community. Schaher.notours. Live Cinema: Designing an Instrument for Cinema Editing as a Live Performance In Proceedings of New Interfaces for Musical Expression 2004. Michel. Cambridge University Press. Asselberghs. 2008.Bibliografía Alexander. Accesed on VIMEO: http://vimeo. Roy.com/242pilots/code/ technique. Debackere. la electrónica.Collins. Boris and Debackere.: Routledge. http://www. Amsterdam: Sonic ActsPress Audio y vídeo: referencias y enlaces Addictive TV. Noise Water Meat. 2004. 2008. Un gran ejemplo de este trabajo es la auralidad aumentada propuesta por Enrique Tomás de http://www.). Andrew. empreintes DIGITALesIMED 0157 Exceeda. 1996. 1990. 2009.

Sign up to vote on this title
UsefulNot useful