vlcsnap-2016-02-16-15h53m38s582

MotioSuit es un traje de captura de movimiento activo, es decir, funciona a partir de medidas de velocidad, orientación y fuerzas gravitacionales obtenidas mediante sensores que se llevan en el cuerpo, a diferencia de otra formar de captar los movimientos mediante cámaras y unos marcadores que también se sitúan en el cuerpo. En el vídeo que se muestra a continuación puedes ver cómo funciona, en este se puede ver cómo se captura el movimiento a partir de unos puntos rojos situados en el cuerpo del usuario).

El traje lee los ángulos a los que están orientadas las distintas partes del cuerpo y los envía por Bluetooth al ordenador, donde se actualiza el modelo de Blender para que siga los movimientos del usuario.

El traje se pensó en un principio para controlar a personajes de videojuegos, pero sirve igual de bien para animar a personajes humanos de forma orgánica y más rápidamente que a mano, ¡e incluso para controlar robots!

Componentes

Desde el punto de vista hardware es necesario:

  • El traje está basado en los sensores BNO055, que son IMUs (unidades de medición inercial) de 9DOF con microprocesador M0+ incorporado que mediante un algoritmo de fusión sensorial devuelve ángulos de euler o quaternios.
  • Un multiplexor I2C.
  • Un BT-USB, que funcionará como puente entre el traje (mediante Bluetooth) y el ordenador (mediante USB).
  • Microcontrolador Zum Core.


motiosuit-situar-imu-cuerpo motiosuit-bluetooth-ordenador-puente motiosuit-microcontrolador

Además, puedes ver en el apartado de descargas dos modelos de Blender que se pueden usar. El primero “MotioSuit.blend” está listo para ser usado como en el vídeo; mientras que el archivo “Armature.blend” contiene el script, la lógica y esqueleto necesarios pero no el modelo. Puedes usar este segundo archivo para montar tu propio diseño 3D y controlarlo con el traje.

Todos los archivos e información necesarios están disponibles en github: https://github.com/bqlabs/MotioSuit

2 comentarios

  1. Enhorabuena por el trabajazo! Me fascina la precisión con la que funciona la captación por lo que se ve en el vídeo. Gracias a una beca de colaboración un compañero de universidad y yo desarrollamos una interfaz natural, que permite el uso de cualquier programa o videojuego en un ordenador mediante el movimiento corporal captado por una Kinect. Básicamente traduce movimientos corporales a eventos de teclado. La herramienta está pensada para que la gente discapacitada o con movilidad reducida pueda usar exactamente los mismos programas o videojuegos que las personas sin problemas motores. Reconozco que se me ha quedado una cara de niño pequeño ilusionado al pensar la infinidad de camino que se abren, desde un mayor banco de movimientos hasta la posibilidad de uso para rehabilitación, con el desarrollo de herramientas tan precisas y que parecen sencillas de usar para el usuario.

    De verdad, enhorabuena. He sentido la necesidad de escribir para decíroslo porque me parece que la herramienta tiene muchísimo potencial y creo que la realidad aumentada además de hacer los videojuegos más entretenidos, puede ayudar a resolver muchos problemas de interacción con la tecnología.

    Saludos!

    1. Alvaro Ferrán Cifuentes

      Muchas gracias!
      En efecto, al principio la idea era usarlo para videjuegos y luego se nos ocurrió que podría valer para controlar robots, pero lo que planteas es un uso genial que no se nos había ocurrido. Desde luego te animamos a que lo uses y modifiques si te sirve!
      Un saludo!

Los comentarios están cerrados.