Quantcast

Ciencia

¿Podemos ver con las orejas?

Científicos de todo el mundo compiten por desarrollar un dispositivo que permita a las personas invidentes ‘visualizar’ el espacio a partir de sonidos. Los mecanismos de plasticidad cerebral están abriendo la puerta a soluciones que hasta hace poco parecían de ciencia ficción.

Eyal Toueg

Luis Palomares tiene 39 años y perdió la vista paulatinamente a causa de una retinosis pigmentaria hasta quedar totalmente ciego. Un día acudió a su oftalmólogo para confesarle que tenía un problema muy serio: pensaba que todavía veía. Cuando estaba esperando el metro, por ejemplo, podía ver el tren entrando en la estación o visualizaba las puertas al abrirse. Su cerebro reconstruía las imágenes tras escuchar sonidos que le resultaban reconocibles por su experiencia en el pasado. “El problema es que si me había equivocado y mi oído me había dado una falsa información yo podía meterme entre vagón y vagón pensando que estaba entrando por la puerta”, explica. Aún ahora, su cerebro sigue reconstruyendo imágenes en función de lo que escucha o lo que reconoce. “Me ha pasado cientos de veces”, relata a Next, “estar cenando en mi cocina y reconstruir mi entorno perfectamente, saber que tengo a la derecha la vitrocerámica, al otro lado el rollo de papel de plata… Y de repente me levanto, voy a apagar la luz y descubro que ya estaba apagada. Entonces, justo en ese momento, ¡se me oscurece todo el entorno!”, exclama. “Es espectacular”.

La recreación de imágenes visuales en personas ciegas es un descubrimiento relativamente reciente de la neurociencia. Una de las primeras pistas de que los estímulos estaban interrelacionados se obtuvo tras observar cómo personas ciegas de nacimiento dejaban de poder leer en Braille cuando les inhibían con estimulación magnética el área visual: estaban utilizando las neuronas de la visión para interpretar señales táctiles. Pruebas de neuroimagen más recientes también muestran que los sonidos activan el área visual, como si el cerebro quisiera traducirlo todo a imágenes a pesar de que la persona no pueda ver. Pat Fletcher, neoyorquina de 50 años, perdió la vista en un accidente cuando tenía 21 y relataba recientemente cómo al utilizar por primera vez un programa que traduce las imágenes a sonidos se quedó sin respiración al comprobar cómo la imagen de una valla se materializaba en su mente. “Me di la vuelta y casi pude ver la valla atravesando por mitad de mi estudio. Me dije: “Oh, Señor, ¿qué es esto? Y sentí un escalofrío por la espalda”.

“Todos estos mecanismos están basados en la plasticidad sensorial cruzada”, explica el neurocientífico gallego Javier Cudeiro. “Tú puedes manipular un sistema sensorial y alterar otro distinto porque entre ellos están comunicados, intercambian información”. El lóbulo occipital, la zona trasera del cerebro que alberga la capacidad de ver, posee una zona especializada llamada complejo occipital lateral, en la que, además de los estímulos visuales, se gestionan señales relacionadas con el tacto o con la audición. “Lo que sabemos ahora es que la corteza visual es multitarea, es decir, un mismo objeto tiene varias representaciones, visuales, auditivas y táctiles, y si te falla una de las representaciones aún puedes percibir el objeto con una de las otras”, explica Cudeiro. “Esto hace que la corteza visual sea capaz de ponerse en marcha cuando llegan señales de otros sentidos”. De hecho, es precisamente esta capacidad la que están utilizando equipos de investigación de todo el mundo para desarrollar dispositivos que permitan a las personas invidentes orientarse y “ver” a su alrededor a través del oído.

“La corteza visual se pone en marcha cuando llegan señales de otros sentidos”

Uno de los pioneros es el investigador israelí Amir Amedi, quien estudia la plasticidad cerebral y la integración sensorial para diseñar un sistema que permita a las personas ciegas “ver” utilizando sonidos y tacto. “Estamos intentando enseñar a personas ciegas a ver utilizando música y sonidos de una forma similar a como los delfines y los murciélagos ven en las profundidades del mar o en la oscuridad”, explica. Mediante un dispositivo que traduce las imágenes en sonido, las personas ciegas aprenden a distinguir formas y obstáculos. “Después de una hora distinguen un cuadrado azul, después de 10 horas de entrenamiento pueden encontrar sus zapatos y después de 70 horas pueden aprender a reconocer caras en una pantalla y sacar información importante de ellas”, asegura. Pero lo más llamativo es que en algunos casos el sonido produce una imagen en la mente de la persona ciega. “Es curioso que algunos ciegos recientes, cuando escuchan el sonido de la manzana dicen que la experiencia visual real aparece en su mente”, asegura Amedi.

VIDEO AMEDI

El investigador canario José Luis González Mora, que lleva desde el año 2000 investigando en este campo y desarrollando las primeras gafas para ciegos, ha observado lo mismo. Algunos ciegos que han probado sus gafas experimentan sensaciones visuales, como si el cerebro intentara activar la visión. Este neurocientífico de la Universidad de La Laguna diseñó el algoritmo principal que ha servido a muchos otros a seguir el camino y traducir la imagen en sonidos interpretables por el cerebro de los ciegos. Su proyecto Espacio Acústico Virtual consiste en asignar cada punto del espacio captado por la cámara (píxel o vóxel) a un sonido único medido en función de la configuración auditiva de cada individuo. El resultado es que la persona escucha una especie de crepitar continuo cuyas variaciones funcionan como un barrido espacial que le permite ‘visualizar’ el entorno después de varias horas de aprendizaje. “Es como si estuviera lloviendo alrededor de ti y pudieras percibir los objetos sobre los que cae. Cada sonido es característico, da un color, percibes la escena y vas detectando las estructuras separadas de las demás”.

“Es como si estuviera lloviendo alrededor de ti y pudieras percibir los objetos sobre los que cae”

En la actualidad él y su equipo trabajan en adaptar las tecnologías para conseguir un dispositivo más pequeño y versátil que el original, que requería que la persona portara una mochila. Las nuevas gafas permiten reconstruir una imagen en el cerebro de su portador de 128 x 68 píxeles (muy por encima de los 16x32 pixeles del prototipo original), una información suficiente para permitir a la persona circular sin chocarse. “Al principio nos sorprendimos cuando una de las personas ciegas que trabajaba con nosotros decía que podía ver puntitos de luz donde ocurrían los sonidos”, recuerda. “Nos parecía bastante raro, pero se repetía con las personas. Donde localizábamos los sonidos ellos veían puntitos de luz, y luego usando resonancia vimos que había estimulación de la corteza visual primaria y que lo que estaban viendo eran fosfenos”. Estos fosfenos son precisamente los mismos que perciben las personas a quienes se implanta un ojo biónico que manda señales eléctricas al cerebro.

Lo que hacemos es crear como un sueño, tu cerebro lo integra como si fuera una visión real”

“Desde luego estas personas no van a ver como si estuvieran viendo con los ojos”, matiza González Mora, “pero lo que ellos te cuentan es que es muy parecido a ver”. Esto se explica porque las neuronas del área visual - después de que una persona haya perdido la visión - reaccionan al más mínimo estímulo o información que llegue del exterior relacionada con la posición en el espacio. “En los escáneres cerebrales veíamos activación como si la persona estuviera viendo”, resume el investigador, “lo mismo que ocurre cuando la persona imagina cosas”. Esta idea contrasta con la concepción que se tenía sobre un cerebro con áreas exclusivamente especializadas en cada tarea. Lo que ocurre es más bien que la percepción se produce de manera global e integrativa, con una plasticidad mayor de lo que sospechábamos. “Tenemos un sistema de integración multimodal, todas las percepciones se asocian en un solo bloque”, asegura González Mora. “Al faltar la visión, el resto de las modalidades sensoriales suplen ese defecto, no es que tengan que aprender todo de nuevo. Cuando te pones un dispositivo lo que hacemos es crear como un sueño, tu cerebro lo integra como si fuera una visión real. Porque a fin de cuentas la realidad no existe, ni siquiera para los que vemos, sino que tu cerebro lo está reconstruyendo todo”.

Gafas para ciegos en el mundo real

Todos estos avances tecnológicos y en neurociencia se están empezando a trasladar al mundo real fuera de los laboratorios. José Luis Llorente lleva más de 35 años trabajando como asesor en materia de ciencia y tecnología del CIDAT, el Centro de Investigación, Desarrollo y Aplicación Tiflotécnica de la ONCE, y asegura que estamos asistiendo a un “salto tecnológico” en este tipo de dispositivos pensados para “ver con las orejas”. Los grupos de investigación de las principales universidades, explica, están trabajando en diseñar su propio dispositivo y ponerlo en el mercado. Así, está el sistema NAVSAT, diseñado por la Universidad Carlos III de Madrid (UC3M), que combina realidad acústica aumentada y guiado GPS, el sistema CASBLiP, de la Universidad Politécnica de Valencia, unas gafas que emiten un láser que permite localizar objetos por sonidos a una distancia de cinco metros, y las prometedoras gafas Eyesynth, de la Universidad Jaume I de Castellón, que acaban de obtener una ayuda de Bruselas para su puesta a punto para salir al mercado. “El problema es que después de todo este esfuerzo se venden una o dos unidades”, asegura Llorente, “porque lo duro viene después, cuando el equipo se usa durante 24 horas y se requiere un aprendizaje muy duro que a muchos ciegos no les interesa porque lo que tienen ya les vale para moverse”.

“De momento no tenemos nada que sustituya al bastón y al perro”, dice un técnico de la ONCE

Luis Palomares también trabaja en el CIDAT, probando los dispositivos que luego utilizarán otros invidentes como él. En su opinión, algunos de estos sistemas en los que se emplean tantos recursos no son lo que los ciegos están pidiendo para su vida diaria. “Lo que nosotros hemos visto como técnicos, y personalmente yo como ciego, es que los avances son importantes, pero de momento no tenemos nada que sustituya al bastón y al perro”, asegura a Next. “Estamos recibiendo información que sabemos obtener de otra forma, como por ejemplo localizar un objeto encima de una mesa: me basta estirar el brazo para cogerlo”. Para Luis, los nuevos dispositivos son comparables a las cámaras que incorporan los coches para poder ver la parte de atrás del vehículo al aparcar. “Están muy bien, pero el 80 por ciento de la gente sigue mirando por los retrovisores”, apunta. “Ahora imagina que en vez de aparcar tuvieras que aprender a mirar por la cámara para hacerlo todo”, señala. “Quizá no te compensaría el esfuerzo si puedes hacer prácticamente lo mismo como ya lo hacías”. Otro de los grandes inconvenientes de este tipo de dispositivos es que el aparato compite con sus otros sentidos y que se satura de estímulos el oído, que es del que más información reciben los ciegos. “Imagina que tú y yo estamos hablando y yo no te oigo porque tengo un constante chisporroteo, o que cruzo una carretera y detecto la posición, el color y hasta la matrícula del camión… ¡que me va a atropellar!”, bromea.

Para Antonio Quesada, principal responsable de las gafas EyeSynth, son más las ventajas que los inconvenientes que unas gafas como las suyas pueden proporcionar a un invidente. Su empresa lleva cuatro años trabajando en el prototipo y haciendo pruebas con invidentes que aprenden a usarlas y sortear obstáculos a las pocas horas. Su idea, asegura, parte de las peticiones de una persona ciega y no de cómo cree una persona vidente cree que debería “ver” un ciego, un error muy común en este tipo de desarrollos. “Nosotros queremos ser muy cuidadosos con las expectativas”, asegura. “Con nuestras gafas tienes conciencia de todas las formas que hay a tu alrededor, cuál es su medida y su lejanía. ¿Que eso lo quieres llamar “ver”? Eso ya lo dejamos en manos de cada uno. Nosotros proporcionamos información espacial a través del oído y es el cerebro el que lo construye todo”.

VIDEO QUESADA

Según sus creadores, la intención última de un dispositivo como Eyesynth - que tendría un coste final en el mercado en torno a los 2.000€ + IVA- es añadir una capa más de información, compatible con el perro guía y el bastón. El uso del dispositivo no interferiría con las conversaciones dado que el audio es coclear y el sonido se transmite a través del hueso, de manera que deja el oído libre y no provoca estrés auditivo. “Frente al perro guía”, señala Quesada, “la ventaja es que te orienta en los lugares desconocidos, donde el animal podría ir igual de despistado que tú, y además las gafas te avisan de la presencia de obstáculos con un rango de hasta seis metros de distancia, algo que el bastón no alcanza”. Otras ventajas añadidas son que las gafas podrían llevar un software de reconocimiento de caras (para que el invidente anticipe quién se dirige a él) o incluir un botón de pánico que pida ayuda e indique su posición en caso de emergencia. “Esto no proporciona la vista ni cura enfermedades ni alivia síntomas. Lo que hacemos es extraer toda la información espacial en tiempo real y la convertimos en sonido para que la persona tenga una consciencia del espacio que tiene a su alrededor con mucha precisión”. La señal, en este caso, es una especie de rumor parecido al sonido del mar que va variando a medida que la persona encuentra objetos u obstáculos por delante. “No queremos presentar esto como algo que te arregla la vida”, concluye Quesada, “sino como una herramienta muy potente que en algunos puntos supera lo que ya se está utilizando”. Ahora deben ser los usuarios los que decidan si merece la pena.

Ya no se pueden votar ni publicar comentarios en este artículo.