Proyecto Speak
Proyecto Hoseo
Alejandra ceriani

C.6.Sobre los aspectos sonoros

El software MAX/MSP [Entorno gráfico de programación para aplicaciones musicales, de audio y multimedia. Desarrollado a mediados de los ochenta en el IRCAM por Miller Puckette, y posteriormente implementado por David Zicarelli y Cycling'74 (compañía que desde 1997 lo comercializa) En línea. Dirección URL: http://www.cycling74.com/] opera con sonido e imagen en tiempo real a partir de una determinada “señal” que entra al sistema de programación. Este sintetizador procesa señales a través de conectar diferentes objetos que permiten operar sobre el sonido emitido trabajando sobre los tonos, las envolventes, etcétera. Toma y modifica la información procesada por delay, feedback y filtros, operando casi sincrónicamente.  El sistema de traducción de movimientos en tiempo real, captado por la webcam, analiza los datos en la computadora y luego responde al estímulo con imagen (EW) y sonidos. La capacidad cinestésica se pone a prueba al sumergirse en otra hiper-realidad basada en los códigos de esta programación. Se produce el fenómeno  en donde el movimiento corporal puede crear sonido, sin tacto ni emanación, sino a través del gesto, expresivo, interactivo. Tal como indica el propio David Rokeby (1982) [artista canadiense que ha trabajado para crear formas de instalaciones interactivas. Su invención es el Very Nervous System, una conjunción de video cámaras, procesadores de imágenes, sintetizadores y sistemas de sonido con los que se crea un espacio en el que el movimiento corporal puede crear sonido.
En línea. Dirección URL: http://homepage.mac.com/davidrokeby/vns.html] se trata de una experiencia “visceral” con las computadoras.

Para Proyecto Hoseo el diseño de la programación de MAX busca simular la sonoridad interna del cuerpo en movimiento, su resonancia íntima amplificada. Los sonidos fueron procesados simulando sonidos internos del cuerpo, pasaje de fluidos básicamente. De este modo, a nivel programático, la metáfora se sostendrá  tanto por la parte física como virtual de la interface, articulándose igualmente la idea de dos espacios cohabitantes: exterior e interior.
La pregunta disparadora para dicha construcción fue: ¿qué sonoridades se componen con las estructuras internas del organismo cuando nos movemos?
El gesto o micro danza ejecutada frente al sensor de la webcam dispara sonidos de forma aleatoria, dado que, las entradas y las salidas de las regiones enmarcadas por EW no se ejecutan de manera puntual.
VER VIDEO

Esto tiene dos razones:

1-El volumen del cuerpo respecto de la cámara.
El volumen no solo describe al cuerpo en sí mismo, sino a la iluminación que sobre él incide creando una superficie de píxeles blancos en movimiento, que al detenerse se extingue. Las extensiones de píxeles blancos actúan como un ON al entrar en las regiones: a mayor superficie = mayor volumen de salida del sonido.

2. La distancia del cuerpo respecto de la cámara.
La distancia se debe a dos razones: una, para evitar el ruido visual que intervenga en el registro del encuadre de la cámara; y dos, por el interés de generar movimientos –en particular– desde la zona del torso.

Danzainteractiva | Webcamdanza Movimiento Blogspot | Speakinteractive.Blogspot

© 2013 www.gearcomunicacion.com.ar Reservados todos los derechos. All rights reserved.

colaboraciones