Quantcast

Ciencia

El secreto de la visión: el cerebro mejora al ojo con su propio 'Photoshop'

Ilustración de la portada de Neuron para el estudio sobre el sistema visual

Pese a lo que pueda parecer, nuestro ojo no es una cámara especialmente efectiva. Es cierto que tenemos unos 105 millones de fotorreceptores por cada ojo, un valor que si trasladáramos a una cámara digital nos daría una resolución de 105 megapíxeles (las más caras del mercado dan unos 40), pero toda esa información no se puede enviar al cerebro. "En origen", explica el investigador español Luis Martínez Otero a Next, "la resolución de nuestro ojo es brutal, pero en realidad solo mandamos un millón de cables al cerebro, o lo que es lo mismo, un megapíxel de información". Esto es así porque la evolución tiende a ahorrarse dispendios. Si cada receptor mandara la información directamente a la corteza, necesitaríamos 105 millones de cables y un nervio óptico tan grueso como el propio ojo. Esto, además de darnos un aspecto bastante marciano, con una cabeza descomunal y ojos saltones, provocaría que el consumo energético del sistema fuera insostenible.

Este ahorro de energía ha llevado a que el sistema visual tome algunos atajos. "La estrategia es: reducimos un montón el muestreado, hacemos uno muy grande al inicio y lo reducimos con una resolución baja con la esperanza de poder aumentarla en la estructura a la que llegue la información", explica Martínez Otero, investigador del Instituto de Neurociencias de Alicante. Su investigación, que acaba de merecer la portada de la prestigiosa revista Neuron, pone encima de la mesa un cambio de paradigma respecto al sistema visual y revela el papel de un núcleo del cerebro, el núcleo geniculado lateral del tálamo, en el proceso. "Lo que sucede, paradójicamente, es muy parecido a lo que pasa al mandar información por internet, o en otros procesos digitales. Haces una compresión de la información y luego lo descomprimes", asegura. "Lo que hemos descubierto es que hay un núcleo que hace exactamente lo que haría Photoshop con una imagen que quiere ampliar: primero la interpola para hacer la imagen mucho más grande. En ese proceso pierdes nitidez en los bordes y, para evitar eso, cualquier dispositivo fotográfico aplica máscaras de desenfoque y distintos tipos de filtros. Pues bien, resulta que los circuitos del tálamo hacen lo mismo".

Hay un núcleo que hace exactamente lo que haría Photoshop con una imagen que quiere ampliar

Hace más de treinta años, en 1981, David Hubel y Torsten Wiesel recibieron el premio Nobel de Medicina por sus investigaciones sobre el funcionamiento del sistema visual. Ellos fueron los primeros en describir cómo se desarrolla el entramado neuronal que permite interpretar imágenes desde la retina hasta la corteza cerebral. A medio camino, la información pasaba por una zona, el núcleo geniculado lateral, al que no dieron mucha relevancia. Se le llamó "núcleo de relevo" y el único papel que se le daba era su capacidad de desconectar la retina de la corteza para la transición de vigilia a sueño y la de focalizar la atención de una zona de la imagen retiniana con respecto a otras. Pero, desde que investigaba en EEUU, en el laboratorio de Torsten Wiesel, Martínez Otero tenía la sospecha de que quizá el núcleo hacía algo más. "Lo que nosotros hemos demostrado ahora es que ese núcleo hace algo fundamental con la imagen e incrementa su calidad para que la corteza la reciba bien", resume.

Para entenderlo mejor es necesario conocer en qué consiste la interpolación. Cuando tomamos una fotografía con el móvil, por ejemplo, y la queremos ampliar en el ordenador a un tamaño mayor, lo que hacen muchos programas es generar nuevos píxeles a partir de los que ya existen. El algoritmo saca una media, interpreta cómo sería el píxel contiguo a cada uno y genera más puntos para hacer la imagen más grande. Esto se hace a costa de la nitidez, pero hay otra parte del programa que corrige este efecto. "Lo que hemos demostrado", asegura Martínez Otero, "es que el tálamo hace dos cosas, interpola y luego hay otras células que compensan el difuminado de la imagen, de la misma manera que hace un programa de edición". Hasta hace unos años se conocía esta aparente contradicción: se sabía que el cerebro debía reducir la información visual para hacerla llegar al cerebro, pero se constataba que en la corteza se percibía mejor. "Nadie sabía explicar  por qué", recuerda el investigador, "y a esto lo llamaban hiperagudeza". Ahora, su equipo ha encontrado la explicación.

Luis Martínez Otero durante una conferencia en Naukas 2012

¿Cómo han llegado a esta conclusión sobre el papel de este núcleo del tálamo? La investigación se basa en experimentos con el modelo de visión del gato y en simulaciones matemáticas. "El núcleo tiene más células que la retina, el doble de neuronas excitadoras, con lo cual vemos que existe una expansión y que, de alguna manera,  se ha doblado la capacidad. Además hemos demostrado que cada neurona tiene información independiente, es decir, que no son redundantes, cada una de ellas interpola la información". Por si fuera poco interesante, la investigación les ha abierto otras dos puertas. Por un lado, las simulaciones matemáticas para conocer cómo se genera este sistema visual indican que no se sigue ningún esquema complicado sino que se genera por "conectividad azarosa", el enésimo golpe a los defensores del Diseño Inteligente. "La única regla es que las células tienden a conectar con la que le quede más cerca", explica Martínez Otero. "Ponemos una simulación y el ordenador construye un circuito igual al que hemos visto en el gato. El resultado es que el azar es mejor que cualquier regla".

Los científicos trabajan ahora en la creación de algoritmos de visión artificial más sencillos

El otro campo que se abre gracias a este estudio es el de la construcción de sistemas de visión artificial. Aún es pronto para decirlo, pero quizá el conocimiento de este paradigma visual permita desarrollar un nuevo algoritmo de visión artificial. "Hasta ahora", explica Martínez Otero, "los algoritmos visuales proponen distintos tipos de pasos, como interpolación, contraste de desenfoque, incremento de contraste local... Nosotros, al aplicar lo que conocemos ahora, creemos que podemos hacerlo todo en un paso y creas sistemas de visión artificial más sencillos y que funcionen como el cerebro".

El estudio de Martínez Otero y su equipo es también, en definitiva, otra prueba de que el proceso de "ver" es una reconstrucción del cerebro, una recomposición basada en trocitos de información que pasan por distintos circuitos. "El mayor consumo de recursos mientras miramos un objeto", apunta el científico, "no se produce por esta 'superposición de filtros', sino en la corteza cerebral, para contextualizar las imágenes". Cuando miramos, lo que vemos depende tremendamente del contexto, no hay percepciones en términos absolutos. Si miramos un folio blanco en la penumbra de casa y el mismo folio bajo el sol de mediodía, el blanco nos parecerá el mismo aunque no sean ni parecidos. Esto se ve muy bien con las ilusiones visuales. "Hay un trabajo ingente de construcción a posteriori de lo que vemos, basado en tu memoria, tu conocimiento del mundo, tus sensaciones... y por eso la visión, y el testimonio de un testigo ocular, es tan poco fiable". Por eso conviene no fiarse demasiado de los que nos dicen los ojos. Y conocer mejor cómo nos mienten es un buen comienzo.

Referencia: Statistical Wiring of Thalamic Receptive Fields Optimizes Spatial Sampling of the Retinal Image (Neuron)

--

Next es la nueva sección de Ciencia y Futuro de Vozpópuli. No te olvides de seguirnos en Twitter

Ya no se pueden votar ni publicar comentarios en este artículo.