Proyecto Speak
Proyecto Hoseo
Alejandra Ceriani

D.2. Consideraciones metodológicas

Para desarrollar la performance se abordan dos líneas de exploración paralelas: la primera transitará la relación entre movimiento, imagen y sonido para organizar los dispositivos e interfaces; y, la segunda, para construir la instalación de lenguaje interactivo.
Entonces, por un lado, están las interfaces que analizarán las señales mecánicas y articulares del cuerpo del performer, transformándolas en paradigmas computacionales y, devolviéndolas en configuraciones de imágenes y sonidos aleatorios.
Por otro, estarán los compositores-programadores en vivo, que ejecutarán y procesarán el sonido y la imagen en tiempo real, tanto de lo generado por el performer como a través de otros dispositivos (joystick, láser) puestos a jugar escénicamente.
Para lo cual se:
- Trabajará a nivel compositivo, sobre los nuevos modos de experiencia del cuerpo propuestos por las interfaces de las puestas interactivas; reflexionando sobre las posibilidades inmersivas y expresivas inauguradas por los sistemas de captación del movimiento corporal en vivo.
- Trabajará a nivel articular de los movimientos, particularmente en pos del seguimiento de ciertas partes del cuerpo captadas por la cámara-sensor cenital o frontal, con el reconocimiento de patrones de posición en el encuadre.
- Trabajará a nivel escénico, sobre los nuevos modos de experiencia de la percepción del sonido y la imagen.
- Conectará el software de sonido MaxMSP a Moldeo, imagen y video en tiempo real.
VER VIDEO
En los primeros ensayos de Speak se experimentó, en varias sesiones, con la generación de frecuencias audibles y sub-audibles desde un sintetizador de sonidos hacia un parlante. Luego, se registraba con una cámara los movimientos de la membrana del parlante producidos por los sonidos de ondas simples.
VER VIDEO
La superficie del cono del parlante reaccionaba y mutaba ante pequeños cambios en las variables acústicas (amplitud, frecuencia, forma de onda, densidad de sonido). Se trataba de un fenómeno sugestivo de movimiento y de sonido simultáneo que pasó a definir la estructura sonora para el proyecto. Se conformó un banco de sonidos con un procesamiento mínimo y elemental.
VER VIDEO
En cuanto a la instalación interactiva, se trabajó sobre el diseño de los movimientos por parte del performer interactiva, y la captación por la cámara que opera como sensor. El músico, por su parte,  reinterpreta esta información de la cámara en órdenes hacia el software de sonido, que suena o es modulado por los movimientos y quietudes que propone el movimiento corporal. Así se crea un ‘concierto interactivo’ entre cuerpo, música e imagen en tiempo real.VER VIDEO
En la segunda versión, se realizan las siguientes modificaciones técnicas: se cambia la cámara a posición cenital, la división de las regiones pasa de ser de ocho a dieciséis, y tanto la perfomer como el músico interactúan provocando al sistema a través del uso de linternas con leds.

En la tercera versión de la obra, se le da más relevancia a los aspectos visuales incorporando un nuevo software open source: MOLDEO. VER VIDEO
Se trata de una plataforma de código-fuente abierto que posibilita la realización de entornos interactivos con elementos de video y animación –en dos y tres dimensiones– y con efectos digitales en tiempo real. Esta propuesta interactiva funciona como una plantilla de conversión a datos de los movimientos corporales captados por la cámara web. Esta plantilla retransmite vía red inalámbrica a la programación del software MAXMSP,  para generar parte del sonido. La forma de la obra es de tipo improvisación interactiva pautada. Es decir, existen zonas predefinidas pero su duración y el pasaje de una a la otra no es rígido, sino que depende de los climas e impulsos que se generan en vivo por la interacción de los tres performers.

Danzainteractiva | Webcamdanza Movimiento Blogspot | Speakinteractive.Blogspot

© 2013 www.gearcomunicacion.com.ar Reservados todos los derechos. All rights reserved.

colaboraciones