Desarrollan un dispositivo que simula la vista
Entre los 5 sentidos, la vista juega un papel fundamental en el día a día; las personas que carecen del mismo se enfrentan a enormes obstáculos, en las calles, en su propia casa, en el trabajo, en sus relaciones. Gracias a los esfuerzos de la comunidad científica, se está consiguiendo que estas personas carezcan cada vez de menos dificultades en su rutina, junto con los entrenamientos básicos de braile y la ayuda del perro guía. Pero aun así, requiere de mucha concentración conocer los detalles del ambiente que le rodean.
Esta barrera ha sido superada por el equipo de Shinsuke Shimojo, profesor de Psicología Experimental y director principal del estudio del California Institute of Technology gracias al desarrollo de un sistema de conexiones neuronales que podría ser usado por las personas invidentes para detectar y visualizar el entorno sin el compromiso de un largo entrenamiento y de forma sencilla.
Ver, al alcance de todos
Imaginaos una cocina; el sonido del café cuando está listo, el aroma del pan recién tostado, el aspecto de la comida encima de la mesa o el tacto y sabor de una naranja. Aunque todas estas señales parezcan ser independientes, interaccionan y son procesadas juntas, por el mismo sistema de integración en el cerebro, la red de neuronas sensoriales.
Pese a conocerse muy bien el sistema de recepción sensorial, apenas se sabe sobre como interaccionan estos sentidos a nivel neuronas, también conocido como procesamiento multisensorial. Y este último juega un papel vital en nuestro día a día.
Estáis en vuestro cuarto y escuchas un fuerte sonido como de algo pesado cayendo al suelo. Tu cerebro se pone a trabajar ofreciendote la figura y modelo espacial del posible objeto que se ha caído, basándose en la información obtenida por el sonido. Este es un ejemplo de como ambos sentidos son interpretados de forma conjunta, y ambos influyen el uno al otro.
Conociendo vOICe, el perfecto sustituto
El dispositivo diseñado por los investigadores recibió el nombre de vOICe, y básicamente actúa traduciendo imágenes en sonido. Consiste en un pequeño ordenador conectado a una cámara que lleva acoplada unas gafas oscuras, lo que simularía el ojo humano. Un algoritmo del ordenador procesará las imágenes visualizadas por la cámara de izquierda a derecha, y por cada columna de pixels, generará un sonido con una frecuencia y volumen que dependerá de la posición vertical y el brillo de esos pixels.
Se realizó una serie de pruebas, con un grupo formado por personas invidentes a las que se pediría de sentir texturas y unirlas al sonido, y otro por personas sin problemas en la vista que tendrían que unir imágenes a sonidos. Ambos grupos mostraron una capacidad intuitiva de identificar las texturas e imágenes asociándolas al sonido.
De esta forma pudieron formar el mapa neuronal implicado en este proceso multisensorial que todo el mundo posee, y que pueden usarse para el beneficio en personas que carezcan de algún sentido como la vista.
Fuente | California Institute