You are on page 1of 40

Índice

1. Ficha del proyecto…………………………………………..…………………………………


………………….2

2. Objetivos del trabajo…………………………………………………………………………


….…………….…4

3. Proceso creativo………………………………………………………………….……………
…………………..6
3.1. Elección del tema…………………………………………………………………………
………….……….6
3.2. Investigación previa………………………………………………………………………
……………….…6
3.2.1. Investigación sobre los métodos de captación del movimiento a
través de
Eyesweb................................................................................................................
.....7
3.2.2. Investigación fisioterapéutica……………………………………………………
………………11
3.2.2.1. Ejercicios de rehabilitación del hombro…………………………………
……………13

4. Proceso de producción………………………………………………………………………
…………….…..16
4.1. Softwares utilizados………………………………………………………………………
………………..17
4.1.1. EyesWeb………………………………………………………………………………
………………….17
4.1.1.1. El patch de la Terapia Sonificada…………………………………………
……………..18
4.1.1.2. Resultados después del ejercicio…………………………………………
……………..21

1
4.1.2. PureData………………………………………………………………………………
…………………23
4.1.2.1. El patch de la Terapia Sonificada…………………………………………
……..……..23
4.1.2.2. Resultados después del ejercicio…………………………………………
………….….27

5. Autocrítica final…………………………………………………………………………………
………….…….29

6. Fuentes…………………………………………………………………………………………
…………………..32

7. Agradecimientos………………………………………………………………………………
……………..….35

2
Ficha del proyecto

Título: Terapia sonificada

Autora: Adriana Conde

Dirección Web: www.adrianaconde.com

¿Cómo funciona?

Este proyecto funciona como una instalación y pretende ser un prototipo de un


programa que funcione como apoyo a los pacientes en rehabilitación muscular
de lesiones, en este caso, del hombro. Para el trabajo sobre la captación del
movimiento he escogido el color azul por ser el menos parecido, junto al verde,
al tono de la piel. Para ello colocamos un guante azul en la mano del paciente,
que debe ir vestido de cualquier color que no se corresponda con un tono
parecido al azul y debe estar sobre un fondo con las mismas características. La
cámara web que le capta está conectada al ordenador con el software
EyesWeb activado para que al comenzar el ejercicio, éste se inicie de forma
que el paciente pueda verse al mismo realizando la terapia y escuchar, a su
vez, las notas producidas por el movimiento de su cuerpo, en este caso, del
brazo. También ve, en la proyección, su silueta y el rastro o cola de color (con
un delay) que va dejando su movimiento. Los datos en forma de sonido del
movimiento del brazo quedan registrados en una gráfica de forma que al final
del ejercicio el paciente puede observar los errores efectuados y corregirlos en
las posteriores sesiones. Todo ello se trabaja partiendo de unos rangos
máximos y mínimos entre los cuales el ejercicio habrá sido correcto o no según
lo acordado anteriormente con el terapeuta especialista. Así, el movimiento
tiene que favorecer el proceso de rehabilitación del hombro, y ello se ve
reflejado en el rango en el cual se mueve la mano del paciente captada a
través del guante azul.

3
La parte de sonido es muy básica y se compone de unas notas MIDI producidas
a través de PureData que acompañan la parte visual y involucran de forma
definitiva al paciente. Para ello EyesWeb manda datos numéricos a PureData a
través del protocolo OSC (Open Sound Control). El sistema está programado de
modo que como más arriba llegue el usuario con el brazo al realizar los
ejercicios, más agudas son las notas que se reproducen. Por tanto, una vez
informado de ello, el paciente se esforzará para que el sonido sea el indicado y
podrá ir corrigiendo, a tiempo real, el movimiento de su brazo, cosa que le dará
también cierto nivel de independencia. En este sentido el proceso podría
entroncar con la tan conocida músico-terapia.

Este prototipo no elimina la figura del fisioterapeuta porque las directrices


iniciales, los datos obtenidos en cada sesión, las correcciones específicas y el
análisis de los objetivos cumplidos al final de la terapia, los efectua el
especialista con ayuda de los datos obtenidos. Los ejercicios escogidos para
este prototipo son muy básicos, pero se pueden complicar y extender a todo
tipo de rehabilitaciones, aun así se recomienda que, para el aprovechamiento
óptimo del programa, intervengan las extremidades, tanto superiores como
inferiores.

Softwares utilizados: EyesWeb, PureData.

4
Objetivos del trabajo

Este trabajo parte de varios objetivos, el primero es el de darle una aplicación


más práctica y funcional a los conocimientos adquiridos a través del máster. He
intentado también apostar por la vertiente artística en el proyecto pero por
tiempo y conocimientos este ha pasado a ser uno de los puntos en los que
quiero seguir trabajando después de presentado el proyecto. Al ser un trabajo
individual me he encontrado quizá con más obstáculos de los habituales, pero
el punto de partida no ha variado excesivamente.

Otro de los objetivos era conseguir una terapia favorecida por la incorporación
de sonido y de la visualización subjetiva del paciente. Numerosos estudios (que
después veremos con detenimiento) han demostrado que cuando el paciente
se ve involucrado visual y sonoramente en un proceso ya sea artístico o
terapéutico, el nivel de involucración aumenta y los resultados son muy
positivos. En este caso encontramos el trabajo con pacientes autistas o con
discapacidades neurológicas como el alzeheimer.

Por otra parte, he buscado que el tipo de ejercicios fueran lo más ‘visuales’
posibles, que los movimientos a realizar dentro de una sesión pudieran ser
captados por una webcam y producir algún resultado. Eso exigía que en ellos
interviniera el movimiento de, almenos, un miembro superior o inferior del
cuerpo de los ‘pacientes’. Finalmente he escogido las extremidades superiores
y dos ejercicios que se incluyen en la terapia para rehabilitar el hombro.

El tercero de los objetivos era diseñar una interfaz atractiva y sencilla de


utilizar también por parte de personas sin conocimientos informáticos o
audiovisuales, que sólo con ir clicando en botones el sistema se activase y
funcionase. Mi intención era usar Flash o GEM. Éste es otro de los apartados
que quedan pendientes después de la presentación, ya que al estar trabajando
en la parte técnica y analítica del proceso ha sido complicado combinarlo con
el diseño del interfaz o de una aplicación sencilla.

5
Por otra parte, después de consultar a diversos fisioterapeutas, uno de los
puntos de partida más importantes ha variado. Se trata de la voluntad de que
sea el paciente el que pueda realizar la rehabilitación de forma individual o a
distancia partiendo de unas directices, desde casa o de forma más o menos
libre. Los especialistas consultados me han aconsejado que no es positivo que
el paciente disponga de las directrices de la terapia y las aplique libremente
porque se crean malos vicios en los movimientos y muchas incorrecciones
posicionales en los ejercicios. Aún así, la aplicación de una terapia visual y
sonora en los centros de rehabilitación les ha parecido muy positiva y factible.

Otra de las ideas iniciales era captar la expresividad de un gesto determinado


estableciendo unos rangos determinados. La relación de esto con la
rehabilitación no es clara, pero la recuperación de la expresividad del gesto en
la fisioterapia también es una parte significativa en el recobro de la mobilidad.
Este es uno de los aspectos que también me gustaría seguir trabajando ya que
se puede partir de la captación de colores de, por ejemplo, los labios o los ojos,
y que estos provoquen una respuesta según se muevan de un modo o se
dirijan hacia un lado, previo mapeo del espacio.

6
Proceso creativo:

- Elección del tema

La elección de la fisioterapia como aplicación de los diversos softwares


utilizados partió del mismo proceso de rehabilitación de un familiar. Inicié una
investigación exhaustiva sobre las posibles aplicaciones funcionales en el
cuerpo humano de programas de captación de movimiento como EyesWeb.
Pensé que si se podían producir resultados visuales y sonoros sólo ocupando un
espacio y moviéndote en él, esto podía ayudar a realizar una terapia más
efectiva en un paciente con alguna dolencia musucular. Inicialmente pensé en
las posibilidades de interacción humano-máquina que ello tenia, almenos de
forma potencial. Buscando en la red me dí cuenta de que muchos expertos ya
habían trabajado sobre este tema y sobre el análisis del movimiento del cuerpo
humano sobretodo aplicado a la corrección de dolencias neuronales. Las
terapias con sonido e imagen a tiempo real eran muy útiles y ofrecían
resultados muy positivos en pacientes con discapacidades mentales o
limitaciones físicas de algún tipo. Aún así, me pareció que en el estudio
realizado en lo que se refiere a la rehabilitación muscular, no existían
aplicaciones reales.

- Investigación previa

Para este proyecto el proceso de búsqueda previo a la realización de éste era


una parte muy significativa. Puedo, aquí, diferenciar la investigación en el
terreno de la captación de movimiento con un fin terapéutico y la indagación
fisioterapéutica para averiguar que tipo de lesiones comunes podían ser
trabajadas en el proyecto. Destacaré tanto en un sentido como en el otro, los
documentos, investigaciones o expecialistas que más han ayudado, influído o
facilitado esta parte del proceso creativo.

7
Investigación sobre la captación de movimiento a través de EyesWeb

En primer lugar cabe destacar los estudios realizados por parte del InfoMus
Lab, establecido desde 1984 en la Facultad de Ingeniería de la Universidad de
Genova (DIST). Este laboratorio está liderado por Antonio Camurri, profesor
de Ingeniería de software y de Sistemas Multimedia y creador del software
EyesWeb, utilizado en este proyecto. Su tarea de investigación en cuanto a
reconocimiento, parametrización y codificación del gesto y de la expresión del
movimiento corporal en relación con el sonido y la música a tiempo real, ha
sido de gran inspiración y ayuda. Camurri tiene también gran interés en la
interacción humano-máquina, sobretodo a tiempo real y a través de un
ordenador, el cual permite que esta interacción tenga un resultado audiovisual
a través de la programación y del software concreto. Este concepto es parte
importante del proyecto que yo he realizado. Como a mí, a Camurri y a su
equipo le interesa que esta codificación del movimiento permita anticiparse a
él, analizarlo y que todo ello pueda tener un resultado emocional en el sujeto
que interviene en la interacción, sea del tipo que sea esta respuesta.

El punto de vista de Camurri está, tal vez, más enfocado a las artes escénicas
tales como la danza y la música en directo, por sí mismas y en relación con el
espectador. Esto se plasma en uno de sus estudios que me ha sido muy útil en
la investigación previa; ‘Análisis de la expresividad en el movimiento y en la
danza’. En él se insiste en el hecho de que un gesto o ‘una secuencia de
gestos’ puede hacerse de tantas maneras como emociones quieras transmitir.
Camurri estudia a través de qué parámetros se puede expresar este contenido
emocional. Su idea es establecer un canal más de comunicación entre el
humano y la máquina, al cual llama ‘expresividad’ y, para ello, usa cámaras,
aceleradores o sistemas de sensores. Quiere captar el gesto expresivo y
aprovecharlo para sacar conclusiones matemáticas, ¿acabarán los números
expresando algo que no se ve a simple vista? Por lo que parece sí; a cada
frame que capta la videocámara se le asocia una medida (posición, área
ocupada, etc.), y se estudia como éstas varían en el tiempo. Así, se puede
extraer por ejemplo valores como la ‘estabilidad’ de un cuerpo en movimiento,

8
el índice de contracción y de expansión de un cuerpo (básandose en la Teoría
del esfuerzo1 de Rudolf Laban), etc.

Podemos deducir pues que el gesto se puede parametrizar porque este se


repite y suele expresar siempre cosas similares. Estos cálculos son
aprovechados también para diseñar robots con movimientos y expresividad
casi idéntica a la humana, o para crear personas, o mejor dicho, personajes,
con características corporales humanas (videojuegos, escenarios virtuales,
efectos especiales en cine o televisión, etc.). Así, Camurri, junto a sus
compañeros Gualtiero Volpe y Barbara Mazzarino, confeccionan librerías de
patches de Eyesweb para trabajar sobre la expresividad del gesto (The
Eyesweb Expressive Gesture Processing Library, que incluye The EyesWeb
otion Analysis Library, The EyesWeb Space Analysis Library y The EyesWeb
Trajectory Analysis Library). Sus investigaciones hacen que mejore
notablemente la interación humano-máquina porque se crean patrones
expresivos que se repiten. Por ello, Camurri habla en sus estudios de un
modelo de ‘emociones artificiales’ cuando interactuamos a través de nuestro
cuerpo con la máquina a través de canales visuales y sonoros.

En este sentido, la conexión entre estos trabajos y el proyecto que me ocupa


es clara, ya que no hay nada más potencialmente parametrizable que una
secuencia de repeticiones de una rehabilitación de una lesión muscular. Los
ejercicios se deben por fuerza repetir un numero de veces determinado para
conseguir los resultados óptimos en cada caso (en la mayoría de ellos la
recuperación de la movilidad de la zona del cuerpo afectada). En ese sentido
no hay nada mejor que añadir la imagen y el sonido para involucrar más al
usuario o parte ‘humana’ de esa interacción hombre-máquina.

1
Rudolf Laban (Austria 1879-1958), coreógrafo, filósofo y arquitecto, planteó una serie de teorías sobre el
análisis de los patrones del movimiento en todos los aspectos de la vida, desde las artes marciales hasta
en personas discapacitadas mental o físicamente. En las artes escénicas sus estudios permiten una
observación más exhaustiva de los movimientos, lo cual permite, a su vez, describir cambios ‘cualitativos’
en el movimiento. Esto se consigue observando como un cuerpo se mueve en un espacio y las formas que
este dibuja al hacerlo, en relación con su peso y con las variaciones del movimiento y como éstas se
producen en el tiempo (su duración).

9
Otra de las investigaciones más reveladoras en mi investigación previa ha sido
la realizada dentro de la European Information Society Technologies (EU IST),
una comunidad europea que promueve la investigación en distintas áreas
(socioeconomia, administración, tecnologías aplicadas, etc.). El estudio
significativo en este caso es el de CARE HERE2 (Creating Aesthetically
Resonant Enviroments for the Handicapped, Elderly and Rehabilitation),
realizado por Tony Brooks (Cultural Center of Scania, Suecia), Stefan Hasselblad
(Emaljskolan Special Needs School in Landskrona, Suecia), Antonio Camurri
(otra vez) y Nishan Canagarajah (University of Bristol Department of Electrical
and Electronic Engineering). En él buscan que los ‘esfuerzos’ de los pacientes,
sea cual sea su discapacidad, tengan una respuesta visual y/o sonora
immediata que sea muy placentera para ellos. Así, esa resonancia estética
produce también una clara respuesta en los usuarios, como se demostró
sobretodo con niños con deficiencias mentales severas. En caso de pacientes
con discapacidades auditivas, se trabajó también con la transmisión de
vibraciones o movimientos como respuesta a su interacción con la ‘máquina’.
La inmersión en la experiencia estético-sensorial era completa en la mayoría
de casos y los pacientes desarrollaban pautas de comportamiento y aprendían
cuáles debían ser sus comportamientos para conseguir unos resultados
determinados. Se comprobó que la mejora sensitiva y de immediatez de
respuesta en los que intervinieron en el estudio, fue muy considerable y que su
percepción del espacio era mucho más concreta que antes.

En las conclusiones de este estudio se destaca la importancia de elegir un


método de inmersión concreto y correcto para cada paciente, ya que cada
discapacidad o lesión tiene sus peculiaridades. En mi proyecto el aspecto de
adecuación individual a cada tipo de paciente y lesión es muy significativo, ya
que todos los fisioterapeutas consultados insistían en la importancia de
establecer una terapia personalizada y asistida.

Otro estudio también importante en la investigación previa es el que involucra


otra vez a Antonio Camurri y, además, a Pasqualino Ferrentino y a Riccardo

2
http://www.bristol.ac.uk/carehere/

10
Dapelo. El estudio lleva por título ‘Un modelo computacional de las emociones
artificiales’. Éste parte del usuario colocado en un entorno mapeado en el que
se mueve. Según la posición del usuario en el espacio, la intensidad, rapidez,
lentitud o fluidez, por ejemplo, el sonido que se cree a través del software
concreto será uno u otro (más agudo, más grave, etc.) o sonarán unos u otros
instrumentos (de percusión, de viento, de cuerda, etc.). Por tanto, es el mismo
cuerpo del sujeto (coreógrafo, músico tocando su instrumento, actores, etc.) el
que construye su propia hiper-melodía. Por tanto, el sujeto será capaz de
aprender cuales tienen que ser sus movimientos para que se produzcan unos
sonidos u otros, cosa que resultará en unas u otras emociones en el receptor y
en el mismo actor, bailarín o músico. De esta forma se están creando
emociones ‘artificiales’ a través del movimiento del cuerpo el cual se mueve, a
su vez, según unas emociones individuales determinadas que construirán todo
el proceso de interacción.

La integración del cuerpo, su expresividad y la pieza sonora que de ello se


deriva es total y immediata por ser una experiencia en directo. En este estudio,
además, se busca que el sonido que emite uno de estos artistas, en este caso
un músico que toca el trombón, provoque respuestas en el movimiento de un
elemento robótico. La expresividad del instrumento está íntimamente ligada a
las características de los movimientos de este elemento con cierta autonomia.
Por ejemplo, las notas largas y graves producen un movimiento lento en el
robot, dejando entrever que el ‘estado de ánimo’ de éste se corresponde con lo
que un humano acostumbraría a sentir al escuchar una melodía de este tipo.
Un cambio en la melodía producirá, por lo tanto, una variación en los
movimientos del robot; si se aceleran las notas, el robot se moverá
frenéticamente. Es en este momento en el que se están creando emociones
artificiales. Aún así, el robot nunca será capaz de hablar sobre lo que está
sintiendo o lo que ha sentido, su actitud responde simplemente a unas órdenes
computacionales que le hace imitar el comportamiento humano. Aunque se
mapee el espacio para conformar una especie de personalidad para el robot
(cada cuadrante se corresponde con un estado de ánimo, entre los cuales hay
puntos intermedios también preestablecidos), éste sigue respondiendo a unos

11
valores artificiales. En cambio, si trabajamos con humanos, que es mi caso, las
respuestas respecto a la experiencia vivida pueden ser concretas y mejorar el
proceso de interacción.

En cuanto a los estudios que demuestran que, en cualquier terapia, si


añadimos el factor del placer visual y sonoro, éste resulta mucho más efectivo,
me ha influído mucho uno en concreto realizado por distintos centros y
universidades europeas (Autisme Europe, en Bélgica; Centro de rehabilitación
de Daño Cerebral, en Sevilla; Emaljskolan Special Needs School, en Suecia;
Laboratorio di Informatica Musicale, DIST, University of Genoa, en Italia; Digital
Music Research, Electrical and Electronic Engineering Dept., Bristol University,
en el Reino Unido, etc.). Este estudio llamado ‘CEREBRO- Empatia; Movimiento
expresivo para el placer y la terapia para pacientes con lesiones o
discapacidades cerebrales’. Los organismos implicados pretenden demostrar
que poniendo a los sujetos con daños o discapacidades mentales, tales como
alzheimer, deficiencias de nacimiento o distintos grados de invalidez, en un
entorno que ellos puedan controlar de forma immediata a través del
movimiento y interactuar con su contenido, ya sea visual, audible, táctil, etc.,
hace que, a parte producirse una experiencia estética placentera, las terapias
de rehabilitación o de recuperación de actividad neuronal sean más efectivas.
Además se especifica que la repetición de este tipo de terapias de forma
continuada en el tiempo es positiva para el paciente ya que le proporciona un
mayor evolución. En este sentido la investigación se centra en desarrollar
teorias o modelos de entorno para la terapia en diversos tipos de daños
cerebrales.

Para ello, los expertos de las universidades y centros de investigación


desarrollan interfaces ‘naturalizadas, adaptables y multi-sensoriales’ según las
necesidades de cada paciente, capaces de responder de forma inteligente al
habla, a los gestos, etc. La idea es ‘esconder la complejidad de la tecnología’
en estos entornos, programados con EyesWeb en su mayoría y que deben ser
también multilingües y multiculturales.

12
Investigación fisioterapéutica

En cuanto a la otra parte de la investigación previa, la que se refiere a la


fisioterapia en concreto -qué zona del cuerpo era óptimo trabajar y que
lesiones podían tratarse- tuve que consultar con diversos especialistas que me
aconsejaron y orientaron. Antes de hacerlo quise
indagar sobre como sacar el máximo partido a la
captación del movimiento en relación con el color.
Me informé sobre las posibilidades de la
esferodinamia, que consiste en la rehabilitación
física o el entrenamiento y fortalecimiento
muscular del cuerpo a través de esferas kinésicas, también llamadas pelotas
de estabilidad. Estos grandes balones se utilizan también para pacientes con
parálisis cerebrales para ayudarles a recuperar el equilibrio y mejorar sus
reflejos. También se incorporan las esferas en el ámbito de la danza. En
relación a mi proyecto era muy útil aprovechar el color de los balones para la
captación del movimiento y, por eso, pensé en trabajar inicialmente en una
sesión de rehabilitación de amputados, ya que sabía que se utilizaban en la
reorganización de los patrones motores.

Para resolver mis dudas en este terreno acudí a Joaquim Aranda,


fisioterapeuta del Hospital de Bellvitge, el cual me desaconsejó que enfocara
este proyecto como una interacción pura entre la máquina y el paciente, ya
que se podrían producir incorrecciones en la terapia. Por tanto tomé el camino
de la terapia sonificada asistida y supervisada por un especialista, incorporada
en los centros de rehabilitación. Por otro lado, después de asistir a varias
sesiones de rehabilitación de pacientes con miembros inferiores amputados
(por encima y por debajo de la rodilla), me dí cuenta de que los movimientos
de este tipo de pacientes es muy limitado y que las esferas sirven sólo como
punto de apoyo para incidir sobre el equilibrio del cuerpo. Este tipo de sesiones
no eran, por tanto, útiles para el proyecto, ya que el movimiento de la parte del
cuerpo elegida tenía que ser suficientemente exagerado como para que se

13
produjese su captación a través de la cámara web para la recogida de los datos
numéricos.

Finalmente, Aranda me sugirió que asistiera a sesiones de rehabilitación de


hombro. Después de observar a los pacientes en esas sesiones, saqué varias
conclusiones. Primero que los pacientes que se derivaban al hospital estaban,
en su mayoría, en un proceso de recuperación post-operatoria. El tratamiento
de este tipo de pacientes tiene que estar muy controlado, por tanto para mi
proyecto sería mejor tratar con lesiones más leves o con pacientes en procesos
post-operatorios avanzados. La lesión del tendón del manguito rotador o
tendinitis del manguito rotador era una de las lesiones que podía ser leve
más habitual y además los movimientos en el proceso de la rehabilitación de
esta zona eran del tipo que buscaba. El manguito rotador está formado por el
conjunto de músculos y tendones que proporcionan estabilidad al hombro. Éste
tipo de lesión es la causa más común de dolor de hombro ya que es la zona
que ayuda al movimiento circular del brazo y se produce por el sobreuso
repetitivo de la zona provocando dolor en el hombro y la parte superior del
brazo. Esta lesión está asociada a deportes de raqueta, a la natación (‘hombro
de nadador’) o los de lanzamiento o levantamiento de pesas, pero también a
otras actividades más cotidianas como pintar o conducir.

El proyecto está pensado para lesiones parciales del manguito rotador, en caso
de ser una rotura completa o masiva el tratamiento más adecuado es un
proceso quirúrgico o más agresivo. Aun así, la rehabilitación posterior a una
operación sí que podría incluir los ejercicios
escogidos para el proyecto.

Para hacernos una idea más aproximada de


cómo es la zona que pretendo trabajar
podemos fijarnos en el siguiente dibujo:

El manguito rotador está formado por: el


tendón supraespinoso, el cual descansa sobre

14
la parte superior del hombro y su tendón se desplaza debajo del hueso en la
parte externa del hombro (este tendón es uno de los que se lesiona con mayor
frencuencia por su posición entre los huesos), el músculo infraespinoso, el cual
ayuda a rotar el brazo lateralmente, el músculo redondo menor, que también
rota el brazo lateralmente y el músculo subescapular, que realiza los primeros
20 grados de separación del brazo del tronco cuando lo separamos
lateralmente (no se muestra en el dibujo, se encuentra en la parte anterior
justo por detrás del infraespinoso).

Ejercicios de rehabilitación del hombro

En las sesiones de rehabilitación de hombro observadas en el Hospital de


Bellvitge, los pacientes realizaban una serie de ejercicios determinados y
fijados por el especialista que incluían los siguientes:

1- El péndulo circular

Consiste en inclinarse formando un ángulo de 90 grados con


el cuerpo y dejar el brazo del hombro afectado colgando y
hacer con él un movimiento circular en el sentido de las
manecillas del reloj. Hay que repetirlo 10 veces y, luego, 10
veces más en el otro sentido.

2- Flexión del hombro (tumbado):

Se entrelazan las manos con los brazos estirados y, tumbado,


se levantan por encima de la cabeza 10 veces.

3-Rotación interna del hombro:

15
La mano del brazo con el hombro afectado se coloca detrás de la espalda y se
mueve hacia el lado opuesto. Se tienen que hacer repeticiones de 10 tandas.

4- Flexión del hombro:

Hay que elevar la mano del brazo con el hombro afectado


hacia el techo llegando al punto más alto que sea posible
para el paciente y repetir ese movimiento 10 veces.

5- Abducción del hombro (activa):


Este ejercicio consiste en elevar el brazo lateralmente 10
veces, con los codos derechos y las palmas hacia arriba,
no se puede inclinar el tronco ni encojer los hombros.
6- Extensión del hombro:

Colocándose con la espalda contra la pared y los brazos rectos hacia los
costados, manteniendo los codos derechos, hay que empujar con los
brazos contra la pared durante 5 segundos y luego relajar (10 veces).

7- Rotación externa del hombro:


En este ejercicio hay que mantener el codo doblado
a 90 grados lateralmente sosteniendo un peso ligero,
elevar la mano lejos del estómago y regresando
lentamente. Repetir este ejercicio 10 veces.

8-Abducción de hombro (isométrica):

16
Resiste un movimiento lateral hacia arriba empujando el brazo contra el
respaldo de una silla, manteniendo esta posición durante 5 segundos para
luego relajar. Hay que repetir esto 10 veces.

Hay muchos más tipos de ejercicios parecidos a los enumerados, pero,


finalmente, escogí los más útiles para el proyecto; los que implicaban un
movimiento más ‘visual’ para facilitar la captación del color por parte de la
cámara web. En los ejercicios que requieren presión sobre un elemento el
movimiento del brazo no es evidente, de hecho, debería ser traducido a otro
tipo de movimiento (ascendiente, por ejemplo) para que alguien desde fuera
pueda notar que se está realizando el ejercicio. Eso hace que dentro de la
sesión programada para el proyecto no sea un movimiento viable, pero que sí
lo sea en caso de que se hiciese esa interpretación presión-movimiento
ascendente (como si soplásemos por un tubo haciendo subir una bolita).
Finalmente, los ejercicios que elegí para el prototipo de mi proyecto fueron el
de la abducción activa del hombro (5) y el de la flexión del hombro (4). Tanto
uno como el otro reúnen las características que estaba buscando para el tipo
de ejercicios a trabajar y, además, pueden funcionar como modelos
prototípicos para ampliar la gama de movimientos.
Proceso de producción:

La instalación seguiría este esquema:

17
En este esquema, el fondo detrás del usuario/paciente debe ser de un tono que
el software no pueda confundir con el azul de la mano en movimiento para
evitar interferencias. El ordenador, por otro lado, debe tener una salida de
audio para que el paciente oiga las notas que sus movimientos producen. Lo
que el usuario estará viendo en la pantalla es lo que se ve en la pantalla del
ordenador y se proyecta (su propio cuerpo en movimiento, las gráficas que va
generando, etc.).

18
Softwares utilizados:

-EyesWeb:

EyesWeb es un software gratuito fruto de las investigaciones del Infomus Lab,


fundado dentro de el Departamento de Informática, Sistemas y Telemática de
la Facultad de Ingeniería de la Universidad de Génova, en Italia. EyesWeb
consiste en módulos software y hardware integrados y incluye librerías de
distintos componentes (llamados blocks) que, al ser unidos por el usuarios
construyen patches con una función determinada. EyesWeb, además se puede
conectar con otros softwares a través del protocolo de comunicación OSC3
(Open Sound Control), el cual se usa para comunicar distintos ordenadores,
sintetizadores o otros dispositivos multimedia. En este proyecto el protocolo
OSC se ha usado para mandar datos de EyesWeb a PureData, aunque la
comunicación también se puede establecer a la inversa, es decir, controlar el
patch de EyesWeb desde otro software. EyesWeb también trabaja con
dispositivos externos como videocámaras o sensores que pueden funcionar
simultáneamente para la captación del movimiento. En mi caso he utilizado
solo una cámara web, la cual dispone de las suficientes prestaciones para
captar el color azul en un fondo con muy pocas interferencias y
suficientemente iluminado.

Inicialmente este software nació como apoyo a los sistemas interactivos


multimedia y a las interfaces que se diseñaban dentro de este departamento.
También fue empleado desde sus comienzos para el diseño y el desarrollo de
aplicaciones interactivas que trabajaban con danza y música en directo, con
especial atención en el análisis de los gestos expresivos y del movimiento. Sus
estudios han estado dirigidos desde sus inicios a la creación de interfaces de
comunicación humano-máquina a través de un lenguaje no-verbal aplicando
las nuevas tecnologías multimedia y integrando las artes escénicas (danza,
teatro, música, etc.). También han trabajado en el terreno de la rehabilitación y
han expuesto en museos y teatros sus instalaciones interactivas.

3
http://opensoundcontrol.org/

19
20
El patch de la Terapia Sonificada:

El patch de EyesWeb para el proyecto tenía como objetivo final captar un


movimiento determinado del paciente en rehabilitación y transformarlo en
imagen y sonido. Para que no se produjeran interferencias en la imagen a
captar decidí trabajar con un color, no con blanco y negro. En este caso, tenía
que ser un color alejado de la gama cromática del tono de la piel y escogí el
azul. Dividí también la imagen en tres franjas, la central ayuda al paciente a
saber dónde tiene que colocar su cuerpo, la de la izquierda capta el
movimiento del brazo derecho y la franja derecha capta el del brazo izquierdo
por el efecto espejo que produce la cámara de vídeo. Dependiendo del hombro
lesionado activaremos una franja u otra, pero el ejercicio estudiado se tiene
que realizar con los dos brazos.

Para la captación del color de la forma adecuada tenemos que aplicar las
transformaciones correctas con los blocks determinados; primero
transformamos el color RGB en YUV, aplicamos un chroma para que capte sólo
el azul que lo ‘transformará’ en píxeles blancos después de aplicarle un filtro
gauss para minimizar las interferencias de color.

21
División en 3 franjas

De esos datos de color extraemos el área del color (la cantidad de color)
porque nos puede interesar saberlo para algún tipo de ejercicio (en caso, por
ejemplo, de que el paciente tuviera que acercarse y alejarse de la cámara), y la
posición (x,y) de la mancha de color convertida en píxeles blancos. Esas
coordenadas del color son las que generan los datos numéricos que se envían
a PureData a través del protocolo OSC y que se envían a las propias gráficas a
tiempo real del EyesWeb (coordenada ‘y’ en el tiempo –altura de la mano- y
coordenada ‘x’ versus ‘y’).

22
Los datos numéricos de ésta primera franja son plasmados en las cuadrículas correspondientes (X mano
Dcha, Y mano Dcha), una vez activado el patch. Estos datos son enviados a las gráficas y a PureData a
través del block OSC.

Hay también en el patch una serie de controles del treshold, y de los niveles de
U y de V.

Como efecto visual susceptible de ser anulado si el sistema ofrece demasiados


errores o se ‘cuelga’ sin dejar finalizar el ejercicio, he añadido el efecto de cola
de color para que la experiencia de cara al paciente sea más placentera. Este
efecto divide, con un retraso de la imagen que li indicamos nosotros, el objeto
o cuerpo en movimiento en colores. El paciente así podrá ver el movimiento de
su propio cuerpo a tiempo real pero también verá la posición anterior de éste
pudiendo corregir posibles errores en la ejecución del ejercicio y aumentando
así la interactividad con el programa.

23
Resultados después del ejercicio:

Las gráficas resultantes corresponden a las de la abducción lateral del brazo


(formando un ángulo recto con el cuerpo). Las tablas derivadas de la
realización del ejercicio que se incluyen en este patch de EyesWeb seran
visionados durante el ejercicio por parte del paciente a tiempo real. Una vez
desactivemos el patch estos datos desaparecerán. Para verlos tendremos que
consultar la gráfica grabada a través de PureData. Aún así, los datos a tiempo
real proporcionarán al paciente y al terapeuta una valiosa información para
analizar la sesión y la correcta realización del ejercicio durante su realización.

Las dos gráficas resultantes de una realización correcta del ejercicio tendrían
aproximadamente este aspecto:

La primera gráfica muestra la variación de la coordenada ‘y’ en el tiempo en la


primera franja, es decir, para la rehabilitación del hombro derecho. En esta
tabla al bajar la mano el valor alcanzará el nivel mínimo y, las subidas del
brazo se corresponderan por tanto, a los picos más altos de la gráfica. Como
más arriba lleguemos con el brazo dentro del ángulo recto que hay que formar
con el cuerpo para la correcta realización del ejercicio, más alto será el valor de
‘y’ que le llegue a la gráfica. El valor óptimo más alto se encontraría dentro de
el rango 120-150 aproximadamente dentro del tamaño de la pantalla, de 0 a
288. Cuando no llegue ningún valor de azul, es decir, cuando el brazo se junta

24
con el cuerpo y desaparece de la primera franja se dibujará una línea recta en
el tiempo, indicando la ausencia de valores. Si el dibujo de la gráfica indica que
el valor de la ‘y’ es bajo durante la realización del ejercicio (no se llega a un
valor dentro del rango antes indicado), querrá decir que el brazo del paciente
no alcanza el objetivo final del ejercicio. Eso no indica que sea incorrecta la
realización, sinó que el proceso de rehabilitación aun está en las primeras fases
y que el paciente no es capaz de llegar al ángulo recto. Puede también suceder
que por las características de la lesión el objetivo final no sea llegar con el
brazo a formar un ángulo recto respecto al cuerpo. Dependiendo de cada
paciente y del tipo de lesión, el terapeuta tiene que fijar los objetivos de cada
ejercicio y comunicarlos al usuario.

En la segunda
gráfica
observamos
que el trazado
es fruto de ‘x’
respecto a ‘y’
durante la
realización del
ejercicio. Si el
Estas gráficas serían las resultantes de que el paciente no llega a formar con el brazo
dibujo de las un ángulo recto respecto el cuerpo, que no llega al un valor dentro del rango óptimo
(ya sea por la mala realización del ejercicio o por indicación expresa del terapeuta).
coordenadas en
esta tabla no se asemeja al de la imagen, si está desviado o bien es más corto
que en la gráfica, el ejercicio no se estará realizando correctamente. Esto,
como en la primera gráfica, es relativo, ya que dependerá de los objetivos
marcados por el terapeuta especialista para cada paciente y cada caso o
lesión.

Los errores cometidos tendrán que ser indicados al paciente por parte del
terapeuta. Si la curba de la primera gráfica no es similar a la que observamos
(su rango mínimo y máximo varia mucho respecto al de la imagen), el ejercicio
no estará bien realizado y los objetivos de la realización no se habrán

25
conseguido. El terapeuta será, también, el que se ocupará de indicárselo al
paciente para optimizar sus movimientos.

26
- PureData:

Es un software también gratuito desarrollado por Miller Puckette durante los


años 90, una de las tres vertientes más importantes dentro de los lenguajes de
programación que se incluyen dentro de Max, según su autor ‘un entorno de
programación gráfica para desarrollar aplicaciones musicales a tiempo real’, ya
que permite generar y procesar flujos de datos MIDI o de audio durante una
performance en vivo, por ejemplo. En el momento de su creación había
diversos sistemas avanzados para la creación de música a tiempo real, pero
ninguno incorporaba una interfaz gráfica. Así, PureData funciona conectando
objetos entre sí para la computerización y creación de música interactiva. Estos
objetos funcionan como bloques de control y construcción de un programa de
forma similar a los de EyesWeb. Además, al operar como un código abierto
todo el mundo puede colaborar y aportar sus patches. Aun así, el mismo
programa incorpora una serie de ejemplos muy útiles.

Se ha incorporado también al PureData externos como el GEM (Entorno Gráfico


para Multimedia) que permiten trabajar con gráficos, imágenes, vídeo o
imagen en directo, y manipularlos a tiempo real con controles introducidos por
nosotros mismos, con el audio que genera Pd, con sensores, con el
movimiento, etc. Todo ello ofrece posibilidades visuales y sonoras infinitas.

El patch de la Terapia Sonificada:

El patch de PureData que he diseñado para este proyecto incorpora la parte


sonora a la terapia, por tanto, es muy importante que funcione, y además, es
el encargado de captar los datos de ‘x’ e ‘y’ de la posición del azul y plasmarlos
en una gráfica para su posterior análisis.

El patch principal tiene tres objetos para acceder al subpatch correspondiente


a cada franja. La franja 1 corresponde a la franja de la izquierda en EyesWeb, la
franja 2 es la central y la 3 es la de la derecha. Si accedemos al subpatch de la
franja 1 vemos que en él se recogen los datos numéricos de la posición de la

27
mancha de color azul que provienen de EyesWeb y se transforman en las notas
de un piano MIDI. El dumpOSC 1 manda datos al OSCroute /XcentroAzul, el cual
manda valores numéricos y bangs
continuos. Como cada nota se
corresponde a un valor, suena como un
continuo fluir de notas. La idea es que el
paciente pueda relacionar su movimiento
con las notas, así, en la abducción lateral
del brazo, por ejemplo, las notas sean
cada vez más agudas a medida que vaya
ascendiendo y más graves al bajar. El
propio paciente puede ir mejorando la realización del ejercicio mientras lo
realiza si el sonido que efectua no es lo suficientemente agudo y puede
observar y escuchar su evolución a lo largo de las sesiones.

A través del protocolo OSC el PureData capta los datos enviados desde EyesWeb.

El valor que envia EyesWeb tiene que escalarse para que sea plasmado en la
gráfica de forma adecuada. Para ello hay que introducir el objeto scale y
mandar el valor escalado a la gráfica tal y como se muestra en la captura de
pantalla siguiente.

28
Si abrimos el subpatch en el que se encuentran los objetos que activarán y
dibujarán la gráfica durante la ejecución de los ejercicios, vemos que es el
objeto tabwrite el que hará que esto
suceda y que un contador será el que
marque el tiempo durante el cual la
gráfica estará activa y la curba se estará
dibujando con los datos numéricos ya
escalados.

En este mismo subpatch encontramos el


sistema de ‘borrado’ de la gráfica en caso
de que queramos reanudar el ejercicio. Si
queremos para el patch y que la gráfica se
deje de dibujar tenemos que clicar en el
toogle del metrónomo dos veces. También
encontramos el objeto que nos lleva al
subpatch en el que se encuentra la gráfica.

29
Gráfica en su estado inicial, antes de poner en marcha el patch de EyesWeb

30
Resultados después del ejercicio

Para el análisis de los resultados en PureData he utilizado también el ejercicio


de la abducción lateral, en este caso, para el brazo derecho. La gráfica de la
coordenada ‘y’ respecto el tiempo que vemos a tiempo real en EyesWeb queda
aquí ‘grabada’ para su posterior visualización.

La tabla es muy parecida en su análisis a la que hemos visto ya en EyesWeb


pero aquí podemos ver de forma más clara la evolución real de la curba, las
diferencias entre las distintas ejecuciones de la repetición de la abducción
lateral del brazo, cual es el rango en el cual nos movemos, etc. Es importante
que cada movimiento ascendente y descendente del brazo en el ejercicio sea
parecido y que a cada sesión vayamos obteniendo un rango con valores
superiores más altos (o más bajos, según la lesión). Eso indicará que
recuperamos la mobilidad del hombro y que la terapia es exitosa.

El hecho de poder grabar y guardar las gráficas resultantes en PureData


permite que el terapeuta pueda hacer un estudio más exhaustivo de cómo
debe evolucionar la terapia y como está mejorando (o no) el paciente. Todo ello
dependerá, evidentemente, de los objetivos marcados por el especialista
inicialmente y del tipo de lesión que se esté tratando.

31
Una ‘incorrecta’ realización del ejercicio (siempre dependiendo de los objetivos
marcados, pero en su mayoría sucedería así) daría resultado gráficas con un
rango muy inferior de movimiento del brazo y, produciría, además, una
sensación auditiva menos placentera ya que las notas que escuchamos son
mucho más graves y casi inaudibles para el paciente. Para que se ‘oigan’ los
movimientos el paciente tendrá que esforzarse para elevar el brazo
lateralmente todo lo que pueda (siempre si hablamos de este ejercicio en
concreto, el de la abducción lateral del hombro).

Los primeros segundos de la


gráfica corresponden a que el
paciente no ha iniciado aún el
ejercicio y ningún dato numérico
es captado aún por PureData
provinente de EyesWeb. Si el
rango alcanzado por el brazo no
es suficientemente alto la gráfica
tendrá un aspecto aproximado al
de la imagen.

En caso de que la curbas en la gráfica se encuentren excesivamente separadas


entre ellas o sean demasiado amplias respecto el eje de la ‘x’ querrá decir que
el ejercicio es realizado de forma más lenta y que la pausa entre abducción y
abducción és más larga. No están pautados los tiempos correctos para este
ejercicio, por tanto, dependerá del paciente, de la lesión y de lo estipulado por
el terapeuta.

32
Autocrítica final

Está claro que este proyecto tiene muchos handicaps a superar, que podría
evolucionar hacia muchas direcciones, incluso muy divergentes de la línea
principal del trabajo y que hay partes que se podrían y deberían desarrollar
mucho más.

Para empezar, la parte técnica es susceptible a fallar y a no adaptarse a cada


paciente. El interfaz debería ser mucho más cerrado y navegable para ser
accesible a todo tipo de usuarios. Esta es una de las partes que habría sido útil
trabajar mucho más y quizá, si no fuera un trabajo individual, las tareas
podrían haber estado repartidas en este sentido; diseño del interfaz y
programación. Inicialmente quería plantearlo como una aplicación que el
paciente se podía descargar por internet o a la cual pudiera acceder con un
nombre de usuario y una clave personal. Aun así, según las fuentes
consultadas, este tipo de libertad de cara a los pacientes puede resultar muy
peligrosa.

Por otro lado, los ejercicios elegidos de la terapia de rehabilitación tienen unas
características muy determinadas. Si quisiéramos llevar a cabo una sesión
completa de rehabilitación a través de EyesWeb los problemas serían evidentes
y todo se volvería mucho más complejo. Cabe añadir aquí que las lesiones a
tratar no deben de ser graves o fruto de procesos quirúrgicos, ya que los
movimientos tienen que ser muy controlados. En ese sentido, como ya indiqué
en el texto del proyecto, muchos de los ejercicios tendrían que ser traducidos a
otro tipo de fuerza utilizando, por ejemplo, sensores con un alto grado de
sensibilidad y otro tipo de programación y softwares (Arduino, Firmata, etc.).

La parte de investigación teórica está mucho más trabajada que la parte


técnica, cosa que podría ser otro de las desventajas con las que me he
encontrado, ya que algunas partes las tenía muy claras pero no sabía como
llevarlas a la práctica a la hora de programar. Este es uno de los motivos por
los que estuve pensando en abandonar el proyecto. Me planteé si realmente

33
con este proyecto la terapia de rehabilitación mejoraba en algún sentido, si ello
aportaba algo nuevo. Después de observar varias sesiones en vivo de
rehabilitación, me dí cuenta de que este proyecto podría funcionar mejor en el
sentido artístico-experimental para pacientes con discapacidades, para
ayudarles a ser conscientes de su propio cuerpo y, por tanto, a controlar mejor
sus movimientos y a recuperar cierta funcionalidad de los miembros atrofiados.
También seria útil en pacientes con edad avanzada o con cierto nivel de
ceguera o problemas auditivos. A un nivel más práctico la Terapia Sonificada
resultaría un tanto incómoda para el paciente. Todo esto funciona muy bien a
nivel teórico, pero como ya he comentado se han hecho numerosos estudios
que demuestran que también se obtienen muy buenos resultados en la
práctica cuando en las terapias para pacientes con discapacidades de todo tipo
interviene el sonido y la imagen.

Para tener una salida real y factible hacia su utilización en los centros de
rehabilitación muchos de los aspectos más débiles técnicamente, sobretodo en
la programación, tendrían que mejorar. Por ejemplo, las gráficas podrían ser
mucho más detalladas y la parte visual ser independiente y más elaborada
para que el sistema no se sobrecargarse y, así, evitar riesgos de que todo se
‘colgase’ en cualquier momento. Ello exigiría un equipo potente de proyección
y de trabajo, cosa que no se da en todos los casos. Eso hace que este trabajo
tenga un nivel bajo de adaptabilidad por el momento. Aun así, si simplificamos
el patch, el sistema tiene muchas posibilidades de estar funcionando durante
un tiempo suficientemente largo; se cubre sin problemas el tiempo de
realización del ejercicio, pero exige un control del terapeuta o experto para que
las gráficas sean correctamente grabadas.

Este último punto dificulta su aplicación real ya que un fisioterapeuta no tiene


porqué tener conocimientos previos de informática ni tampoco de los softwares
utilizados. Como ya he dicho, hace falta diseñar una aplicación con un nivel
óptimo de accesibilidad a todo tipo de usuarios potenciales.

34
Si lo enfocamos positivamente, el proyecto presenta tantas salidas potenciales
como handicaps. En el diagnóstico de las lesiones y en el seguimiento de su
evolución puede resultar muy positivo disponer de datos numéricos concretos
o de gráficas que los plasmen de cara al terapeuta. Además, la visualización de
los datos y este seguimiento con cierto grado de profundización, influye
positivamente en la motivación del paciente. Es importante la predisposición
tanto del usuario como del terapeuta para utilizar sistemas de interacción con
máquinas, ya que a veces puede ser más un obstáculo que un instrumento
para mejorar la terapia.

En cuanto a los rangos en los que se trabajan los ejercicios, al ser datos
numéricos, se pueden generar modelos que sirvan para aplicar al mismo tipo
de lesiones o lesiones similares de hombros. En este sentido, también se
pueden crear pautas para otros tipos de lesiones o ejercicios y establecer
directrices del comportamiento de diversos tipos de pacientes. En
enfermedades de tipo mental o neuronal este tipo de ejercicios puede mejorar
y funcionar como apoyo de los procesos de rehabilitación. Ya que contamos con
datos numéricos del análisis del movimiento, sería también muy fructífero de
cara al proyecto, aplicar la ingeniería mecánica y el diseño industrial para la
construcción de prótesis o para mejorar la maquinaria ‘inteligente’ de la
práctica clínica en rehabilitación (como la terapia del biofeedback). Este
sistema también ayudaría a mejorar la relación activa entre el paciente y el
terapeuta, así como las técnicas de captación del movimiento del cuerpo
humano para animación o para videojuegos (a un nivel más rudimentario que
con otras técnicas avanzadas utilizadas actualmente con este fin).

La vertiente artística del proyecto radica en el hecho de capturar, en cifras y


números, la expresividad de un cuerpo. Esto puede aplicarse tanto en la danza
como en la rehabilitación. A nivel museístico, también seria una posible
aplicación el hecho de ‘dibujar con el cuerpo’; la gráfica plasma en un ‘lienzo’
los movimientos de un bailarín y eso se relaciona con la formación de formas,
figuras, luces, colores, sonidos, etc., muy determinados y estudiados que
provocan unas sensaciones y emociones específicas en el espectador, el cual

35
también puede participar en la performance. El aspecto médico también es
destacable ya que se pueden extraer muchos datos del trabajo con los gestos
de la cara o del cuerpo para determinar y preveer conductas o enfermedades
futuras: reacciones exageradas (en personas excesivamente violentas, por
ejemplo), síntomas de una enfermedad mental futura en bebés, detectar
atrofias o faltas de mobilidad, etc. En cuanto a la sociología podemos, además,
estudiar y analizar gestos que indican un comportamiento determinado: que
estamos mintiendo, que tenemos miedo, que nos da vergüenza, que estamos
contentos, que algo nos entristece, etc.

Fuentes

Bibliografía (textos y artículos consultados):

- A. Camurri, P. Ferrentino, R. Dapelo (1997)


A Computational Model of Artificial Emotions, in Proc. AIMI Intl. Workshop
on Kansei - the Technology of Emotion, Genova, Italy, October 1997.

- A.Camurri, P.Coletta, M.Peri, M.Ricchetti, A.Ricci, R.Trocca, G.Volpe


A real-time platform for interactive performance, in Proc. Intl. Conf. ICMC-
2000, Berlin, Germany, August 2000.

- T. Brooks, A. Camurri, N. Canagarajah, S. Hasselblad.


Interaction with shapes and sounds as a therapy for special needs and
rehabilitation. Kulturcentrum Skaane, DIST, University of Bristol, Emaljskola
(Suecia), 2002.  http://www.icdvrat.reading.ac.uk/2002/papers/2002_27.pdf

- T. Brooks, N. Canagarajah, S.Hasselbald, R. Laborde.


CARE HERE (Creating Aesthetically Resonant Environments for the
Handicapped, Elderly and Rehabilitation). BRAIN – Empathy. Expressive
Movement for Pleasure and Therapy. Programme for the Brain Injured and
Impaired), 2000.

36
- A.Camurri, R.Trocca
Analysis of Expressivity in Movement and Dance, in Proc. XIII Colloquium
on Musical Informatics, L'Aquila, Italy, September 2000.

- S. Sapir, D. Campolo, G. Cavallo, F. Taffoni, E. Guglielmelli, F. Keller.

Sonification of Infants’ Movements for Early Detection of


Developmental Disorders, 2007 
http://www.specknet.org/publications/6thWorkshop2007/Delafield-
Butt_SpecklesTalk_2007.pdf

- A. Camurri, M. Ricchetti, R. Trocca (1999)


EyesWeb - toward gesture and affect recognition in dance/music
interactive systems, in Proc. IEEE Multimedia Sustems '99, Firenze, Italy, June
1999.

- G.Castellano.
Experiments, Analysis, and Models of Motor Activation as a
Component of an Emotional Process, Master Thesis, DIST-University of
Genoa, InfoMus Lab, October 2004.

- A. Camurri, C. L. Krumhansl, B. Mazzarino, G. Volpe.


An Exploratory Study of Anticipating Human Movement in Dance, in
Proc. 2nd International Symposium on Measurement, Analysis and Modeling of
Human Functions, Genova, Italy, June 2004.

- A. Camurri, B. Mazzarino, G. Volpe, P. Morasso, F. Priano.


Application of multimedia techniques in the physical rehabilitation of
Parkinson's patients, Journal of Visualization and Computer Animation,
Vol.14, No.5, pp. 269-278, December 2003, Wiley.

- A. Camurri, B. Mazzarino, G. Volpe.


Analysis of Expressive Gesture: The EyesWeb Expressive Gesture
Processing Library, in A. Camurri, G. Volpe (Eds.), "Gesture-based

37
Communication in Human-Computer Interaction", LNAI 2915, Springer Verlag,
2004.

- R. Timmers, A. Camurri, G. Volpe


Performance cues for listeners' emotional engagement, in R. Bresin
(Ed.) Proc. International Stockholm Acoustic Conference 2003 (SMAC03),
Stockholm, Sweden, August 2003.

- A.Camurri, P.Coletta, B.Mazzarino, R.Trocca, G.Volpe. Improving the man-


machine interface through the analysis of expressiveness in human
movement, in Proc IEEE Intl.Workshop on Robot and Human Interactive
Communication (ROMAN2002), pp. 417-422, Berlin, Germany, September 2002.

- Adriana Marcela Hernández Acosta. Parametrización y digitalización


biométrica de la forma de caminar humana con fines de identificación.
Universidad Militar Nueva Granada (Ingeniera en Telecomunicaciones. Año no
especificado.

Páginas web

http://www.icdvrat.reading.ac.uk/2002/papers/2002_27.pdf
http://www.infomus.dist.unige.it/
http://www.iua.upf.es/~xamat/Thesis/html/node77.html
http://digitalmedia.oreilly.com/2005/04/27/pd.html

Ejemplos de interacción humano-máquina:


http://interfacemindbraincomputer.wetpaint.com/page/2.A.1.0.-
+Ejemplos+de+Interacci%C3%B3n+Humano+Maquina?t=anon

Fisioterapia (rehabilitación del hombro):


http://orthoinfo.aaos.org/topic.cfm?topic=A00495
http://familydoctor.org/
http://www.efisioterapia.net/

38
Biofeedback:
http://www.mayoclinic.com/health/biofeedback/SA00083
http://www.neurobitsystems.com/es/
http://en.wikipedia.org/wiki/Biofeedback
http://www.bioingenieria.edu.ar

Esferodinamia:
http://www.silviamamana.com.ar/bibliografia.htm
http://www.planetamama.com.ar

39
Agradecimientos

A Anna Carreras por tutoritzarme.


A Encarna Córdoba (fisioterapeuta) por permitirme acceder a las instalaciones
del Hospital de Bellvitge.
A Joaquim Aranda (Hospital de Bellvitge) por su gran ayuda en la parte
fisioterapéutica.
A Anna… (fisioterapeuta del Hospital de Bellvitge) por dejarme asistir a las
sesiones de rehabilitación.
A Antonio Camurri (Universidad de Genova) por su ayuda desinteresada.
A Luis Arturo López (Bogotá, Colombia) por su ayuda técnica.
A José Carlos Flórez por su ayuda técnica.
A Raúl Díaz por su ayuda técnica.
A Jorge Vañó por colaborar en las pruebas del proyecto.
A Jordi Martínez por colaborar en las pruebas del proyecto.
A Carmen Platero por su ayuda en general.

A todos los que me han apoyado de la forma que sea durante la realización de
este proyecto.

40