sábado, 8 de marzo de 2014

Logran percibir siluetas humanas e imitar su postura sin verlas - ABC.es

Logran percibir siluetas humanas e imitar su postura sin verlas - ABC.es



CIENCIA / NEUROCIENCIA

Logran percibir siluetas humanas e imitar su postura sin verlas



Día 06/03/2014 - 19.32h


Una aplicación móvil convierte las formas en paisajes sonoros que activan la región del cerebro que procesa las imágenes del cuerpo humano



Logran percibir siluetas humanas e imitar su postura sin verlas

FOTOLIA




Solemos decir que una imagen vale más que mil palabras, y es verdad. Pero tal vez no nos hayamos parado a pensar lo importante que es en realidad en muchos aspectos de nuestra vida. Por ejemplo, en nuestra relación diaria con otras personas, sus posturas y movimientos son fundamentales para anticipar sus acciones e incluso sus intenciones. Para las personas que no pueden ver, esto es una desventaja. Pero podría dejar de serlo.
Un equipo de científicos de la Universidad Hebrea de Jerusalén muestran en el último número de Current Biology que los ciegos de nacimiento pueden aprender a percibir la forma del cuerpo humano mediante “paisajes sonoros” que convierten las imágenes en notas musicales gracias a un algoritmo. Con un pequeño entrenamiento, los invidentes pueden deducir de los sonidos la presencia de un cuerpo humano, su silueta y, lo que es más interesante, su postura, que pueden incluso imitar.
Esta investigación se ha traducido ya en una App llamada EyeMusicque se puede obtener gratis en iTunes. “La idea es reemplazar la información de un sentido que se ha perdido, como la vista, por la que puede transmitir otro (el oído). Es lo que hacen los murciélagos o los delfines, utilizan los sonidos y la ecolocalización para ver a través de sus oídos”, explica Amir Amedi, el autor principal de la investigación.

Imágenes musicales

Y para lograrlo han ideado un algoritmo que han denominado “vOICe”, capaz de “traducir” las imágenes en blanco y negro a notas musicales. Por ejemplo, una línea diagonal descendente de izquierda a derecha puede representarse con una escala musical descendente, explica Amedi. Y al revés, una diagonal que apunta hacia arriba estaría representada por una escala musical ascendente.
Posteriormente han desarrollado otra aplicación más compleja, EyeMusic, que proporciona información también sobre el color utilizando en este caso diferentes instrumentos musicales. EyeMusic es un dispositivo de sustitución sensorial (DSS) que escanea una imagen y utiliza tonos tonos musicales para representar la localización de pixels.
Cuanto más alto está situado un pixel de la imagen en un plano vertical, más agudo es el tono que le corresponde. Las notas que están próximas al inicio representa el lado izquierdo de la imagen, mientras que las que suenan al final dan información sobre el lado derecho. Los diferentes instrumentos musicales, incluida la voz humana, dan informacón sobre el color: la voz representa al blanco, la trompeta el azul, el órgano el rojo, el violín el amarillo, el negro el silencio... Este dispositivo de sustitución sensorial, a diferencia de otros, es agradable y relativamente bien tolerado durante un uso prolongado, explica Amedi.
Al leerlo puede parecer complicado, pero al parecer no lo es tanto. En la investigación, entrenaron a ciegos de nacimiento a percibir primero formas simples: puntos o líneas, como las diagonales descritas. Después aprendieron a percibir las uniones entre líneas, las líneas curvas y otras estructuras cada vez más complejas.
Después de solo 70 horas de entrenamiento (un par de meses) eran capaces de deducir, mediante los sonidos que percibían, la posición exacta de la persona representada en una imagen y de imitarla. Por cierto, imitar una postura es algo que hacemos inconscientemente cuando hablamos con alguien que nos cae bien. Forma parte del lenguaje que nuestro cuerpo utiliza para demostrar a nuestro interlocutor que simpatizamos (“empatizamos”) con él.

Corteza visual activa

Lo sorprendente en este experimento no es sólo lo que los invidentes logran “percibir” un contorno humano. También es muy interesante que en el cerebro de las personas ciegas que participaron se activó un área de la corteza visual recientemente descubierta (2001) que estáespecializada en el procesamiento de imágenes de cuerpos humanos y su movimiento.
Esta zona se ha relacionado con la percepción errónea de su cuerpo que tienen las personas con anorexia. Y más curioso aún es que los participantes en el estudio eran ciegos de nacimiento, por lo que esta zona, denominada área corporal extraestriada, teóricamente no había sido utilizada nunca.
Esto lleva a los investigadores a afirmar que el cerebro es algo más que una “pura máquina sensorial”. Es mucho más complejo y flexible, aseguran, como demuestra el escaso entrenamiento necesario para reconocer las imágenes, 70 horas, y a través de otra modalidad, sonidos, que no es la propia de la corteza visual.
Por eso Amedy opina que el cerebro tiene una organización que sobrepasa una experiencia sensorial concreta y que está relacionada con un fin o tarea específicos, en este caso la identificación de cuerpos humanos, independientemente del sentido que proporcione esa información. Es decir, que hay zonas del cerebro especializadas en realizar tareas concretas y que pueden ser activadas de diferentes formas. Y esta observación hace pensar en las aplicaciones de la rehabilitación visual en general.
El equipo de Amedi espera que su App EyeMusic, además de servir a las personas invidentes, se convierta en una herramienta utilizada también en la investigación en Neurociencia: “Podría ser interesante explorar los cambios en plasticidad asociados con el aprendizaje que lleva a decodificar la información del color a partir de sonidos en las personas con ceguera congénita, que nunca han percibido los colores. Además podría servir de ayuda para comprender la organización del cerebro en general”, explica el neurocientífico.

No hay comentarios:

Publicar un comentario