- 31 de enero de 2018

COD05, un código para la danza

Un equipo multidisciplinario de la Universidad de la Plata creó COD05, un lenguaje de programación diseñado para ser utilizado en escena por bailarines. Sus algoritmos se programan a través de movimientos corporales sensados mediante captura óptica de movimiento, ingresando comandos en el mismo momento que se ejecuta la presentación.


Entre la danza y el código, allí es donde nace y vive COD05. Gestado en el laboratorio EmmeLab, perteneciente a la de la Facultad de Bellas Artes de la Universidad Nacional de La Plata, sus orígenes y presente combinan los talentos de programadores y bailarines.

Tal como explica su página Web, el sistema funciona en tiempo real y consta de dos interfaces: en una se desarrolla el algoritmo representado gráficamente, mientras la otra proyecta el resultado visual generado. Así, logra combinar “livecoding” con danza o expresión corporal.

“Es un proyecto Open Source por lo cual no sólo lo pódes descargar y usar gratis sino que además, si sos programador podés modificarlo y agregar tus propiedades”, nos explicó Ezequiel Rivero, diseñador e impulsor del proyecto, a quien entrevistamos en las jornadas NeoMedialab que organizó la Universidad Tres de Febrero.

– ¿Cómo nació EmmeLab y qué objetivos tiene?

– Bellas Artes tiene una carrera que se llama Diseño Multimedial que a su vez tiene un laboratorio (EmmeLab) compuesto por docentes y alumnos. Desde hace 9 años, nos dedicamos a desarrollar nuevas interfaces para el arte. Los primeros seis años hicimos obra, creando muchas instalaciones interactivas. Hace unos tres o cuatro años dejamos de hacer obras y nos dedicamos a herramientas para que otros artistas trabajen.

– ¿Cómo fueron los inicios de COD05?

– Este proyecto ya tiene tres años y empezó por una experiencia muy puntual que habíamos tenido el año anterior sobre relacionar nuevas tecnologías con danza. En primer momento, era un desarrollo súper tradicional con un código de captura de movimiento que después, en escena, lo ponía en marcha una bailarina, generando visuales y sonido. En ese momento nos dimos cuenta que limitaba mucho a la artista.

– ¿Por qué la limitaba?

– Porque vos le estás asignando reglas muy estrictas. Por ejemplo, en ese caso tenía que desplazarse por determinada área del escenario circular, tenía que adoptar determinada posición durante un tiempo hasta que el sistema de captura, en este caso Kinect, reconociera lo que le estaba haciendo y demás. Eso lo vimos como una limitación.

– ¿Qué pilares se propusieron a partir de esta limitación?

– Nos propusimos un desarrollo parecido pero que no limitara tanto. Es decir que el performer pueda hacer lo que quiera y de esa manera interactuar con el sistema. Ese era uno de los grandes pilares del proyecto. El otro gran pilar es que esa programación no sea previa y ajena a la escena, sino que suceda con livecoding.

Así, creamos un sistema donde la bailarina empieza a generar su baile y en ese mismo momento recibe conscientemente una serie de instrucciones al sistema. No hay imágenes pregrabadas o almacenadas, sino que de acuerdo a la situaciones que pasan el sistema va cambiando. Por eso, decimos que se parece más a un dialogo que un monólogo.

– ¿Cómo funciona el sistema?

– La performer dirige al sistema y le pide que ingrese modificadores que le den movimiento a las partículas. Las partículas le dan movimiento y le devuelven una visualización. Después, la performer decide si quiere que sean círculos, líneas y así se le puede ir agregando un monton de modificadores y a la vez se le pueden ir poniendo distintos valores a esos modificadores.

Así se generan algortimos, combinaciones únicas, entre todas esas variables que tiene disponible. Por lo cual, una presentación va a ser única siempre. A nosotros nos resulta más interesante eso. Hay que aprender a usar al sistema, no es una app que fue diseñada para que sea intuitiva.

– ¿Qué otras funciones sumaron desde el inicio hasta hoy?

– El primer año fue de diseño de comportamiento, tuvo muy poco de programación y mucho más de pensar cuál es la lógica más efectiva para relacionar a una bailarina con el dispositivo. Después desarrollamos de forma muy rudimental porque hay mucha programación fuerte para que el sistema funcione en términos más fríos. Mis compañeros, por ejemplo, trabajaron todo un año para que el sistema tenga un modificador solo. Recién en el tercer año lo empezamos a testear con una bailarina con la que estamos trabajando hace rato. Ella ya sabe usarlo, entonces puede hacer cosas muy interesantes. Estamos desarrollando todo de cero, ahora la idea es ir puliéndolo.

– ¿Qué implementaciones quieren aplicar en el futuro?

– Nos gustaría sumar la posibilidad de que puedas agrupar todo un paquete de modificadores en uno solo. A eso lo llamamos maquinarias, como si fuera un gran conjunto de modificadores que ya tenés guardados para agregar.

Por otro lado, hasta hace unos pocos meses solamente andaba con Kinect, lo cual resultaba en una inversión extra para todos los que querían usar el sistema. Ahora también funciona con cámara. Eso lo hace más democrático y accesible.

– Trabajás con un equipo multidisplinario que incluye a bailarines, programadores y diseñadores ¿Qué balance haces de esa experiencia?

– Desde que el dispositivo fue usable, la bailarina se acopló a nosotros y semana a semana fuimos trabajando con ella directamente. Nosotros podemos dar por hecho un montón de decisiones de danza, por lo que es fundamental trabajar con alguien que realmente nos cuente sus necesidades específicas. Ella es tan desarrolladora como nosotros.

Lo bueno es que como espectador mirás una obra doble: por un lado ves una obra de programación en tiempo real y por el otro ves una obra de danza muy interesante.

Tags: COD05, Diseño Multimedial, EmmeLab, Ezequiel Rivero, Kinect, livecoding, programación, Universidad de la Plata

Más notas de interés

Registrarse en el Newsletter de Portinos