Página web de Área Oftalmológica Avanzada

Página web de Área Oftalmológica Avanzada


BUSCAR EN ESTE BLOG

jueves, 30 de diciembre de 2010

IX.- Procesamiento Central. Vemos para actuar

Llegamos al final de los capítulos de “La Percepción Visual” y es hora de establecer lo más significativo en la nueva concepción de la visión. La visión hay que entenderla como algo dinámico y enfocada para la acción. Ya no podemos concebir el hecho de “ver” como algo que se asemeje a la génesis de una imagen, una foto, la visión pasa a formar parte de una acción, de un plan para actuar, la debemos englobar dentro de un proceso senso-motor multifactorial.

Os adelanto que en una próxima entrega desarrollaré dos temas que van directamente ligados a la que hemos visto en estos capítulos, la visión y la conducción y algunos aspectos nuevos en el tema de visión y deporte, dejando para más adelante una nueva serie de capítulos relacionados con la visión pero desde el enfoque cognitivo, donde hablaremos de cómo la visión se relaciona con la memoria, la atención, las emociones y la toma de decisiones.

En este capítulo desarrollaré los puntos siguientes:
-    Conducta y Jerarquía Neural.
-    Movimientos oculares y atención.
-    Visión y aprendizaje Senso-Motor.


CONDUCTA Y JERARQUÍA NEURAL

En la ejecución de una determinada acción, se ponen en funcionamiento dos mecanismos que se interrelacionan, el oculomotor y el motor. El oculomotor tiene dos funciones principales, (1) localizar objetos apropiados en el entorno inmediato y pasar las coordenadas al sistema motor y (2) y colocar los ojos en una posición adecuada para ofrecer un campo visual en el que se pueda desarrollar la acción que queremos lleva a cabo. El impulso principal para estas funciones es de tipo visual, suplementado por memoria a corto y largo plazo de la localización de los objetos.

El sistema motor, formula y ejecuta la secuencia de movimientos musculares requeridos para realizar la acción,  mediante la información visual y la información propioceptiva. Los estímulos de salida desde el cortex para estos dos sistemas, son el FEF (Frontal Eye Field),  para los movimientos oculares y las áreas 6 y 4 para el complejo motor y premotor.

Una de las preguntas que aparecen en este contexto es, cómo cooperan las regiones prefrontal, premotora y parietal, en la generación de una acción. Rizzolatti y Luppino (2001),  proponen un esquema en el que el área F5 del cortex premotor (que contiene las neuronas espejo), suministra  “prototipos motores” para diversas tareas de manipulación (ver figura). En una acción particular, su activación se determina por imputs del área parietal AIP, la cual tiene representaciones 3D de los objetos, con información sobre su significado vía conexiones desde el lóbulo temporal IT. También recibe imputs directos desde DLPFC (Cortex prefrontal dorso-lateral), presumiblemente sobre qué acción se está realizando. La AIP puede considerarse como proveedora de opciones o posibilidades (affordances) de acción con objetos que están en el entorno.

  
MOVIMIENTOS OCULARES Y ATENCIÓN

Podemos dirigir nuestra atención a  una zona determinada del campo visual, sin fijación foveolar (cover attention) o,  moviendo los ojos y fijando algo en la mácula (over attention).  Los cambios atencionales estarían relacionados con la preparación de los movimientos oculares. Las regiones FEF, SFEF y LIP del cortex parietal posterior, están asociadas con los movimientos sacádicos y en todas estas regiones hay células que se activan justo antes de que un sacádico se realice. Su sensibilidad a la estimulación depende del imput de la zona del campo visual, de su relevancia, en la tarea que se esté realizando en ese momento.

Los estudios con RMf demuestran que la relación entre los movimientos oculares y las áreas atencionales, no solo tienen una relación funcional sino que además se ha podido constatar una relación anatómica en la que se comparten regiones celulares y vías nerviosas.

El estudio de los mecanismos atencionales nos permiten explicar porque el mundo permanece estable cuando movemos los ojos en una sacada. Existiría un mecanismo de compensación a cargo de las células de la región LIP en el área parietal, de forma que ante un estímulo que capte nuestra atención, se produciría un “remapeo” de la escena exterior, de la representación espacial que tenemos en nuestra mente, de forma que las neuronas de la región LIP cambiarían de posición el mapa de la escena, buscando el nuevo foco u objeto que llama nuestra atención. Este “remapeo” se produce  80 mseg antes de que se inicie la sacada de búsqueda, así cuando los ojos alcance el nuevo punto de fijación, la escena externa ya estará estabilizada  por nuestra representación de la escena a nivel interno, es lo que ya hemos visto como “descarga corolaria”. Para algunos esto supone poder “ver” el futuro, adelantarnos en el tiempo, aunque sólo sea en una fracción mínima de milisegundos.

De forma general, realizamos una acción en un espacio de tiempo determinado, pero siempre de forma secuencial, no en paralelo. Ante una determinada tarea, elaboramos un plan de acción en el cerebro, dirigimos la mirada hacia la búsqueda del objeto o los objetos que necesitamos para realizar esa tarea, dentro del campo visual o el entorno que nos rodea (movimientos de ojos y/o cabeza) y activamos el sistema motor para realizar la tarea, con la ayuda del sistema perceptivo visual que guiará esos movimientos de manos, brazos, etc.

Estas fases se dan secuencialmente y se regulan en el cerebro mediante el “Control de Esquemas” o el “Sistema Supervisor Atencional”, dependiendo de la terminología que utilicemos, situado en el cortex frontal, tal como se representa en la figura:


 

Cada vez se admite con mayor consistencia el papel de los mecanismos atencionales en el control de las tareas motoras con actividad visual.

Diversos estudios evidencian el papel controlador de la atención sobre la detección de estímulos en determinadas zonas del campo visual. La estimulación del cortex  prefrontal, supone un mecanismo descendente, top-down, que es responsable de que seamos más sensibles a algunos estímulos en el campo visual,  al tiempo que produce un efecto filtro o pantalla para otros elementos de ese campo visual. Cuando buscamos un determinado objeto, si el grado de atención es alto, somos más sensibles a los estímulos que nos ayudan a localizar aquel objeto, los detalles que lo identifican dentro de la escena visual.

De la misma manera, hay evidencias que señalan el papel de la atención en los mecanismos de bottoom-up (Knudsen 2007, Itti y Baldi 2006). En una situación de alta tensión, con un elevado grado de nivel atencional, como cuando tenemos miedo, se comprueba que el umbral de detección de estímulos salientes en la escena visual, es mucho más alto que cuando el nivel atencional disminuye. Estímulos que en condiciones normales no serían percibidos, ahora si pasan a ser detectados.

VISIÓN Y APRENDIZAJE  SENSO-MOTOR


La información tarda unos100 mseg en pasar desde los ojos hasta el cerebro. En este tiempo, un coche que vaya a 48 Km/h, recorrerá 1.44 m  y un lanzador de beisbol, en el mismo tiempo, la bola habrá recorrido ¼ del trayecto hasta el bateador. Estos datos indican que es imposible hacer un seguimiento preciso de la trayectoria de movimientos que se dan en la vida diaria y sin embargo somos capaces de realizar estas actividades, especialmente la de conducir. Esto se debe a que utilizamos una serie de mecanismos para predecir la acción que vamos a realizar (feed-forward) a diferencia de los mecanismos de feed-back, que requieren mayor tiempo y que no son útiles en la mayoría de ocasiones en la vida diaria.

La realidad es que utilizamos la información feed-forward para anticipar el movimiento y la información de feed-back, para ajustarlo y calibrarlo, así tenemos velocidad y eficacia. Este sistema dual lo vemos en el ajuste de la mirada entre dos sacadas, el reflejo vestíbulo-ocular, confiere rapidez  y el reflejo optocinético (feed-back), corrige la posición de los ojos para que coincidan con el objeto que fijamos:

Este mecanismo dual permite eliminar la idea de que funcionamos con modelos internos así cuando trazamos una curva con el coche, tenemos información directa y rápida (feed-forward) con la dirección de la curva, la distancia que nos separa de la línea exterior de la carretera (punto tangente) y realizamos el ajuste fino (feed-back), si mantenemos la distancia correcta o si por el contrario nos acercamos a esta, lo cual indica que se cierra y que debemos girar más, corrige “errores”. Tenemos una serie de variables que nos van informando sobre el movimiento que debemos realizar e información dinámica, continua, que nos permite reajustar ese movimiento (luego lo veremos en mayor detalle la tratar el tema de la visión y la conducción).

En ocasiones, cuando se trata de movimientos muy rápidos, como contestar un saque de tenis, la información visual no es suficiente para ejecutar el movimiento correctamente. Se necesita un modelo que permita predecir o anticipar ese movimiento, podríamos decir que hay un modelo o representación mental que, más que anticipar la acción por sí mimo, lo que hace es facilitar la ejecución de la información feed-forward, reducir su tiempo de procesamiento, para que el movimiento se realice más rápido.

Se trataría de “mecanizar” un movimiento, es decir, crear un modelo que controle una determinada tarea o acción, existiría un “sistema control” que coordinaría la mirada, acciones motoras y control visual de los movimientos pero según un plan preestablecido, como cuando vamos en bicicleta, que implica una serie de acciones cuasi automáticas que se van reajustando sobre la marcha, si veo que el camino hace subida, cambio de marcha y debo pedalear para vencer una mayor resistencia.

Cuando juego a tenis, veo la pelota y antes de que me llegue debo cambiar la posición del cuerpo, desplazar el brazo hacia atrás, etc, ejecutar una serie de movimientos para contestar correctamente, intentando devolver la bola para que vaya en la forma y posición que quiero. Debo pensar donde quiero que vaya pero, los movimientos que realizo, están mecanizados, son estereotipados según un proceso de aprendizaje anterior basado en prueba-error. Lo vemos representado en el siguiente esquema:


Estos hechos reafirman todavía más la idea de que la visión, el direccionamiento de los ojos ante un estímulo del entorno (saliente o de búsqueda), en un contexto top-down, está muy determinado por elementos cognitivos y por modelos de acción “mecanizados” previamente, que facilitan o nos hacen más sensibles a ciertos estímulos, como los que se relacionan con un objeto que estuviéramos buscando en un entorno determinado (Najemnik y Geisler, 2005 – 2008).

935513300 - info@areaoftalmologica.com

martes, 28 de diciembre de 2010

VIII.- Visión Dinámica. Control del movimiento

En este capítulo seguimos avanzando en el tema de la visión dinámica. Hemos visto los mecanismos de la visión del movimiento y ahora veremos cómo se procesa toda la información que nos llega del mundo exterior, de un escenario que cambia continuamente. Los puntos que trataremos son:

Tipos de movimientos oculares.


Control de los movimientos oculares.


Cómo vemos el mundo.


Representación visual del mundo.


Representación del mundo en el contexto de la acción.


Nuevos aspectos de neuro-fisiología de la visión.



TIPOS DE MOVIMIENTOS OCULARES

Sorprende el hecho de que cuando analizamos los movimientos de los ojos, la mayor parte del tiempo no estamos fijando o siguiendo un objeto de forma continua, lo que hacen los ojos es ir “saltando” de un punto a otro de la escena, hasta que al final, fijamos la mirada en algo y mantenemos el enfoque siguiendo el movimiento que realice ese objeto o ajustándolo a nuestro movimiento, si es que no estamos parados.

De forma general, clasificamos los movimientos en tres categorías: sacadas,  seguimiento lento y fijación, a los cuales habría que añadir las vergencias como un movimiento diferente a los anteriores.

Las sacadas son los movimientos oculares más rápidos, que redirigen los ojos hacia un nuevo punto del escenario que nos rodea. Durante la sacada, el cerebro es ciego, no procesa información visual, únicamente lo hace cuando estamos fijando un objeto. Para conseguir  esto, el sistema de percepción visual se vale de dos mecanismos, el primero se relaciona con la capacidad de resolución de la retina, sólo la mácula tiene un poder de resolución elevado que le permite enviar información de detalles al cerebro, así, hasta que no se fija un objeto, hasta que no se foveoliza, la información que envía la retina periférica, es de una calidad baja, 10 veces inferior a tan solo 20º de ésta.

Cuando se fija un objeto, tanto si estamos en movimiento como si estamos quietos pero con la cabeza en movimiento, para estabilizar el objeto y el entorno que nos rodea, disponemos de dos mecanismos muy potentes, el Reflejo Oculo-Vestibular (VOR) y el Reflejo Optoquinético (OKR). Con estos sistemas, podemos estabilizar el entorno y los objetos y establecer un movimiento lento y controlado de seguimiento de ese objeto, aunque se esté moviendo o nos estemos moviendo o, ambas cosas a la vez (dentro de unos límites).
Se admite que hacemos una media de 1 a 4 sacadas segundo, siendo 4 el número máximo, por ejemplo cuando leemos. Una sacada tarda 30 ms y el rato que mantenemos la fijación, en torno a 300 ms, lo cual supone que si durante la sacada no vemos, equivale a decir que 1.5 hs al día somos ciegos. Las sacadas son bilaterales y simétricas, solo cambia algo si se trata de un movimiento ocular de vergencia.

Las sacadas tienen unas características muy similares en todos los individuos. Su velocidad no es constante y varía según la amplitud de su recorrido, más rápida y duradera según incrementa la amplitud, con una fase de ascenso inicial y de saturación posterior. Se desencadenan tras la llegada de estímulos externos como un movimiento de algo dentro de la escena visual, la aparición de  un nuevo objeto pero, en general, se generan sacadas de forma involuntaria y de forma constante cuando hacemos algo que requiere información visual, pero sin necesidad de buscar ningún objeto determinado, por ejemplo cuando vamos caminando, los ojos se van moviendo en sacadas, escaneando la escena que tenemos delante, procesando una información de calidad mínima pero suficiente para orientarnos y no tropezar, son sacadas algo más lentas que las anteriores, 130 mseg. En la mayoría de casos, las sacadas van alternando la posición, la dirección de la mirada, a un lado y a otro, bajo la acción de los grupos musculares, (si se activan el recto medio derecho y recto lateral izquierdo, mirando a la izquierda, la siguiente sacada se realizará, hacia la derecha, activando el lateral derecho y medio izquierdo. Son  menos frecuentes los movimientos con direcciones verticales.

En la vida real se produce un escaneo del entorno con amplitudes de 30 grados, de los cuales, 20º corresponden a los ojos, las sacadas y 10º al movimiento de la cabeza.

CONTROL DE LOS MOVIMIENTOS OCULARES


El control de los movimientos oculares se realiza a tres niveles: (1) cortex cerebral, responsable de los movimientos voluntarios, (2) estructuras del cerebro medio, especialmente el colículo superior, responsable de las sacadas y (3) Tallo cerebral, responsable del sistema motor que controla directamente los músculos oculares.

Los músculos oculares reciben inervaciones procedentes de los núcleos del tallo cerebral que  a su vez, reciben inervaciones de los núcleos premotores, también situados en el tallo, ubicados sobre los primeros. A los núcleos premotores llegan inervaciones de la formación reticular pontina paramedia, responsable de las  sacadas (burst units) y del mantenimiento de la posición de los ojos durante la fijación de los objetos (tonic units). En este nivel también se encuentran los núcleos reticulares del tegmento pontino, responsables de los movimientos finos de seguimiento.

Sobre los núcleos premotores también llegan inervaciones del núcleo vestibular, responsables de la estabilización de la visión durante los movimientos de la cabeza. En los núcleos premotores es donde se organizan los patrones inervacionales responsables de los distintos movimientos oculares.

En un nivel superior se encuentra el colículo superior, responsable de la orientación visual, no solo de los ojos, también de la cabeza y el tronco. Es responsable de las sacadas y de los movimientos de la cabeza relacionados con las sacadas. En su región superficial llegan señales visuales y en sus capas más profundas llegan señales auditivas y somatosensoriales. El colículo recibe inervaciones del cortex, de las regiones frontales visuales (frontal eye fields, FEF), del área lateral intraparietal (LIP) y desde V1. Las regiones FEF y LIP de cada hemisferio estarían interconectadas a través del tálamo.

Parece que las sacadas se activan directamente desde FEF o el colículo superior aunque el FEF representaría un estadio superior de control del sistema oculomotor. El FEF sería responsable también de la fijación y seguimiento fino de los objetos. El papel que representa el LIP no está tan claro, parece que estaría  más relacionado con funciones motoras, coordinación de movimientos de manos, cabeza, etc, desde estímulos visuales.

Sobre el FEF llegarían estímulos procedentes del cortex prefrontal dorsolateral, una región asociada con la elaboración de planes de acción e inter-relación con el mundo que nos rodea.
Cuando se mueve la cabeza, se produce un movimiento compensatorio de los ojos, opuesto a la dirección de la cabeza, para estabilizar las imágenes. Este fenómeno se consigue mediante los sistemas VOR y OKR. El sistema VOR, mediante los canales semicirculares del oído, detecta la velocidad de la cabeza y envía una señal compensadora a los núcleos que controlan los músculos extra-oculares, vía núcleos oculomotores.  El reflejo de compensación es prácticamente igual al de la cabeza, con una ganancia igual a 1, muy rápido, de aproximadamente 15 mseg. Si el estimulo de giro sigue, como cuando estamos delante de un tambor giratorio, cuando la amplitud del movimiento ocular supera los 50º, se produce una sacada donde los ojos vuelven a la posición de partida, iniciándose un nuevo movimiento de seguimiento, similar a un nistagmus.

Cuando la velocidad de giro de la cabeza no es tan elevada, se activa el OKR en vez del VOR. Funciona según la velocidad en la que se deslizan la imagen sobre la retina, generando un movimiento ocular compensatorio en la dirección contraria, a través de la estimulación de los músculos extraoculares. A diferencia del VOR, se ajusta el movimiento ocular mediante un mecanismo de feedback que intenta mantener la imagen alineada en la retina, en la mácula. El VOR no tiene reajuste y el OKR intenta estabilizar la escena para que se inicie el control fino de seguimiento de los objetos.

Generalizando, podemos decir que el OKR funciona para estabilizar la escena, a través de áreas amplias de esta, mientras que los movimientos finos, requieren un target pequeño. Los movimientos  finos pueden funcionar hasta velocidades que no superen los 15º seg, y si supera esta velocidad, se dispara una sacada que intenta corregir la posición y reiniciar el movimiento de seguimiento fino. Cuando se superan los 100º seg, se inicia un movimiento sacádico constante. Cuando hay un seguimiento fino constante, se produce una ganancia de 0.9, lo que significa que si un objeto se mueve  a 10º seg, los ojos lo sigue a 9º seg, con un error de desplazamiento en la retina de 1º seg. Esto explica la imposibilidad de fijar un objeto en el sitio exacto que le corresponde y explica situaciones conflictivas como el error de los árbitros al pitar un fuera de juego.

Cuando se trata de ajustar la visión a diferentes distancias, es cuando se activan las vergencias. Son movimientos lentos y finos, con una latencia de 120 mseg aprox. Se activan tras una disparidad retiniana (macular) y pueden acompañarse de estímulo de acomodación, de reenfoque de la imagen.

CÓMO VEMOS EL MUNDO


Una de las cuestiones más importantes en la percepción visual hace referencia a los patrones de escaneo y fijación de una escena y  sí estos patrones son similares en la mayoría de individuos.
Para estudiar el primer punto, patrones de escaneo y fijación, uno de los ejemplos más utilizados es el de la lectura y la inspección de cuadros. Los primeros estudios demostraron que había una gran disparidad entre los puntos de fijación de ambos ojos y el recorrido de estos sobre la escena.  Mediante los nuevos sistemas de eye tracker (registro de los movimientos oculares),  se evidencio lo contrario, a pesar de ciertas disparidades entre los dos ojos, en la mayoría de casos se observa un gran paralelismo, haciendo buena la ley de Hering. Respecto al patrón de inspección de la escena, también se encontró una cierta concordancia, se producía una fijación sobre los puntos más relevantes de la escena, caras, figuras, etc. Si la escena la analizamos con diferentes observadores, las diferencias son mayores en el patrón de inspección pero, nuevamente se observa una cierta similitud, fijación de caras, figuras y otros elementos destacables de la escena.

Otro aspecto interesante es que los ojos realizan varias sacadas por segundo, es decir que el observador permanece muy poco rato fijando un determinado punto de la escena, va saltando y vuelve sobre ese punto varias veces.

Dos son las escuelas de pensamiento que intentan explicar el patrón de inspección de la escena. (1) Bottoom-up (abajo-arriba), en la que los ojos se mueven según estímulos salientes de la escena que llegan a la retina, sin casi intervenir aspectos cognitivos y (2) Top-down (arriba-abajo), donde los movimientos no son tanto fruto de propiedades de la escena sino de fenómenos mentales, como el propósito de buscar un determinado objeto o llevar a cabo una determinada acción, claramente de índole cognitivo. Actualmente la tendencia es pensar en un mecanismo mixto, donde se combinan los estímulos salientes (bottoom up) y aspectos cognitivos (top-down).

En esta línea de estudio, se buscó saber qué es lo que hace que un estímulo sea “saliente”. Lo primero es asumir que algo será saliente o importante, cuando reclame nuestra atención. Hay que diferenciar entre aquello que llama nuestra atención y es identificado en alguna parte de nuestra retina periférica,  pero no dispara una sacada para fijarlo con la mácula y el estímulo que si provoca la foveolización con la sacada. El primero es el más frecuente en la vida diaria y sigue un mecanismo diferente al segundo. En el primer caso hablaríamos de un proceso preatentivo y en el segundo atentivo pleno. La diferencia entre ambos procesos queda clara cuando experimentamos con la detección de estímulos básicos en una escena con distractores. En la mayoría de casos, los individuos localizan rápidamente el elemento diferencial, en menos de 10 mseg, tiempo inferior al necesario para realizar un movimiento de foveolización, es un mecanismo automático de “pop-out” tal como lo describió Treisman en 1988. Si el número de distractores aumenta pero el tiempo de reacción, de detección, permanece constante, se trata de un proceso de abajo arriba puro, periférico y, si el número de distractores supone un incremento del tiempo de reacción, gasto atencional, quiere decir que entran en juego mecanismos cognitivos y estamos ante un proceso de arriba abajo.

En la actualidad se asume que en la vida real funcionamos con mecanismo de pop out (en paralelo) y solo en determinadas circunstancias pasamos a foveolizar algo mediante un escrutinio secuencial postatentivo.

El mecanismo preatentivo funciona en paralelo, es decir, a la retina le llegan de forma simultánea diferentes estímulos de bajo nivel procedentes de la escena, e incluyen color, brillo, orientación, etc. Cada uno de estos estímulos produce un mapa de características y cada mapa se combina con los otros de forma aditiva, hasta formar un único mapa saliente con diversos puntos calientes que pueden llegar a captar la atención y generar un movimiento sacádico para ir a foveolizar uno de esos puntos (Itti y Koch, 2000). Uno de los problemas que planteaba esta teoría es que si hay unos puntos claramente “calientes” que llaman la atención, siempre iríamos a eso puntos y no apreciaríamos el resto de la escena. Para solventar este problema se especula con la existencia de un mecanismo de inhibición transitoria de los puntos calientes, de forma que los ojos pueden moverse libremente sobre la escena captando estímulos de bajo nivel, no salientes.

No parece que sea totalmente así pero, sí que es cierto que cuando analizamos una escena, solemos fijarnos en unos puntos determinados, de forma más o menos recursiva (puntos calientes), aunque el orden de movimientos oculares sea diferente cada vez o al comparar diferentes individuos (Tatler y Vincent, 2008, 2009).

Otro aspecto importante en la detección de estímulos salientes es la ubicación de estos en la escena. Sabemos que cuando se sitúan en regiones centrales, el nivel de detección es mayor que cuando están en la periferia, por eso toma más cuerpo la idea de que existe un sistema de cierta inhibición o de filtrado de los estímulos salientes más potentes, para dejar que los ojos realicen sacadas de inspección a lo largo de toda la escena. Estos movimientos también siguen ciertas “normas”, suelen ser de amplitud no muy grande y con mayor frecuencia sobre el eje horizontal (menos el vertical y menos el oblicuo).

Frente a la concepción bottoom-up de los estímulos salientes, se sitúa la hipótesis top-down, que se confirma con los estudios que demuestran que el movimiento de los ojos cambia al pasar de observar simplemente una cosa a cuando pedimos al observador que busque algo determinado en la escena. En este momento el tracker de los ojos muestra un patrón de movimientos completamente diferente, lo cual evidencia que esos movimientos pasan a estar determinados por un proceso mental de arriba hacia abajo (top-down).

La idea más generalizada es que en situaciones donde no hay una influencia fuerte de la mente (búsqueda de algo, etc), predominan los mecanismo bottoom-up, mientras que cuando se inicia un proceso mental, predominan los mecanismos  top-down.

Uno de los puntos que todavía plantea dudas es el hecho de cómo reconocemos un determinado objeto, cúando captamos alguno de los aspectos salientes en la retina periférica o cúando se produce la sacada que lo foveoliza. Parece que en situaciones donde no hay una guía mental clara, la visión seguiría un mecanismo de mapas master formados por los mapas de bajo nivel fruto de los estímulos salientes que parten de la retina periférica. Se genera un mapa de calidad media, suficiente para que tengamos una visión que nos oriente en la escena, minimizando los movimientos oculares para foveolizar (Vincent, 2007). La foveolización aparece en las tareas concretas guiadas por una idea o proceso mental, generalmente de búsqueda y,  condicionado por experiencias cognitivas previas (Torralva y Oliva 2003 y 2006), si buscamos una jarra de agua en una foto de una cocina, inspeccionaremos primero la encimera antes que el suelo, es más probable que esté en esa zona de la cocina en la foto.

El papel que ejerce el pensamiento, la mente, a la hora de guiar los movimientos oculares, parece ser cada vez más relevante. Hay experiencias realizadas con el  eye tracker en una escena donde se han filtrado los estímulos salientes, como velado de caras, etc y se observa que no hay una reducción en la fijación de puntos calientes, como los ojos, nariz y boca, aunque no se aprecien correctamente. Estos resultados estarían en línea con el hecho de que la mayoría de estos puntos salientes, como los ojos en una cara, tienen una cierta base cognitiva. Respecto a las caras, en el humano y solo en este, se detectan según patrones de pop-out, <10 mseg, incluso en escenas con un amplio grupo de distractores (Hershler, 2005).

Otro punto de interés es el movimiento ocular respecto al tiempo que miramos o inspeccionamos una escena. No está claro que en las fases iniciales del reconocimiento “manden”  los mecanismos bottoom-up, basados en estímulos salientes y que a medida que pasa el tiempo vayan perdiendo efecto. Lo que sí parece más aceptado es el tiempo en que mantenemos la fijación en algún punto de la escena. En las fases iniciales estaría en torno a 250 mseg y posteriormente se irá alargando, hasta llegar a los 350 o 400 mseg. Es como si primero realizáramos una inspección general rápida y luego fuéramos analizando con más detenimiento alguno de los puntos escrutados.

REPRESENTACIÓN VISUAL DEL MUNDO

Si preguntamos a cualquier individuo cómo vemos, seguramente responderá que vemos de forma continua y completa, es decir como cuando vemos una película. La realidad es muy diferente. El proceso de visión es subjetivo, incompleto y discontinuo. La imagen que procesamos, en la mayor parte del tiempo, no procede de una fijación macular sino de la retina periférica o, en el mejor de los casos, paramacular, es decir, una imagen de bajo nivel, tan solo cuando foveolizamos es cuando realmente percibimos los detalles del mundo exterior y eso ocupa un tiempo mínimo en el cómputo global del periodo de visión a lo largo del día. Por otra parte, en un tercio del tiempo, durante los movimientos sacádicos, nuestra visión es ciega  y, finalmente, la imagen del mundo exterior que nos formamos en nuestra psique, está muy influenciada por aspectos cognitivos y emocionales, lo cual supone un concepto de visión subjetiva, no objetiva, donde lo qué “ve” o cómo lo ve un individuo, será diferente a cómo lo ve otro individuo.

Que la visión es discontinua lo vemos en el hecho de que uno mismo no es consciente o no puede percibir los movimientos sacádicos de los ojos. Si nos colocados frente al espejo no somos capaces de ver este tipo de movimientos oculares,  sin embargo es algo evidente cuando lo comprobamos en el registro que hace un eye-tracker. La continuidad de la visión es una mera ilusión.

La visión incompleta es algo que hasta la década de los noventa no se admitió, hasta entonces se creía que la visión suponía un análisis de la escena según el método “punto por punto”, análisis detallado de cada espacio y que su adición permitía reconstruir la escena como si de un cuadro se tratara, es lo que se conoce como “picture in the mind”. Los estudios de varios autores, entre ellos O´Regan (2000), demostraron que cuando observamos una escena, un cuadro o foto, si durante  la fase ciega de una sacada, cambiamos algo de esa escena, aunque sea bastante significativo, en la mayoría de casos no lo apreciaremos, seguiremos percibiendo la escena como en su inicio.

Una posible deducción de este hecho es que no vemos mediante una representación interna del mundo que nos rodea. Para O´Regan, lo que ocurre es que nos formamos una idea del entorno que nos rodea, de bajo nivel, justo para orientarnos y, sólo en determinadas circunstancias, detectamos los detalles de una parte de ese entorno, cuando nos interesamos por algo en concreto y lo foveolizamos.

El grado de atención que ponemos en cada momento es un factor fundamental a la hora de explicar lo que vemos. Es muy diferente los detalles que recordaremos si andamos por un camino dando un paseo, que si andamos por un camino desconocido intentando recordar por donde vamos si sabemos que debemos repetirlo otro día como guías de senderismo. Para Rensink, 2000, tal como se muestra en la figura original de su trabajo, más que una imagen tipo cuadro (en dos dimensiones), lo que hacemos es construir una representación virtual en 3D con niveles de detalle muy variables, sólo los más significativo para cada propósito (orientación, artístico, buscar setas, etc).



La representación virtual de Rensink estaría directamente ligada con la idea de representación integrada de Altman y Kamide, 2007, que  señalan la relación entre la información visual y del lenguaje. Si un observador lo dejamos en una habitación y luego lo trasladamos a otra donde no hay nada, si en la primera había una ventana, cuando hablamos de la ventana o de una ventana en general, se constata que en la mayoría de casos realiza un movimiento de los ojos hacia la posición en donde se encontraba la ventana en la primera habitación, como si la buscáramos dentro de una construcción virtual en nuestra mente, donde conjugan espacio y visión. Esta idea de integrar lenguaje y visión se sitúa más en la concepción dinámica de la percepción visual, alejándose de la concepción pictórica estática de antaño. La información hablada y la representación espacial generan un entorno virtual mucho más efectivo.

El espacio virtual puede ser de tipo egocéntrico o alocéntrico, es decir, en el primer caso representamos aquello que veríamos delante nuestro, como cuando buscamos un objeto determinado en una habitación, nos fijamos en objetos más pequeños que nuestro cuerpo, mientras que en la construcción alocéntrica, el espacio virtual es mayor, toda la habitación o el apartamento donde estamos, en general es una representación mayor que nosotros (Hayhoe, 2008).

Otro aspecto importante es cómo retenemos o cuánto retenemos, la información que estamos utilizando del entorno en un momento determinado. Cuando hacemos algo que requiere información visual, hemos dicho que tendemos a construir una representación virtual del entorno y de lo que tenemos delante de nosotros, el objeto que manipulamos, ese escenario virtual no está formado con todos los detalles de la realidad, sólo entran aquellos aspectos que nos son útiles para realizar aquella tarea determinada. El problema que se plantea ahora es, no solo qué elementos entran en la representación mental sino, en cómo van apareciendo y desapareciendo, ya que hemos dicho que la representación virtual es dinámica, no pictórica estática. Tatler, 2001, constató que si a un individuo que está realizando un determinado tipo de tarea, como puede ser servir café, y en la mitad de la tarea se le dice que vaya a encender las luces (apretar el interruptor que está en una pared), y al finalizar esta acción se le pide que describa lo que recuerda, éste dará una gran cantidad de detalles de la pared pero muy pocos sobre la tarea inicial de servía café, que tan sólo hace unos segundos ocupaba su atención principal.

La conclusión a la que se llega es que utilizamos solo la información del entorno, la que es mínimamente necesaria para realizar las tareas que estamos realizando en un momento preciso y que está información va cambiando rápidamente, lo que utilizamos es de forma instantánea, sólo mientras nos es útil,  así cuando cambiamos a otra cosa, ese dato se elimina de la memoria operativa, es como si no interesara guardarlo, ya no es útil en la representación virtual y mantenerlo puede interferir con los nuevos puntos entrantes y conducir a error, además del gasto energético que supone mantener más datos de los necesarios.

REPRESENTACIÓN DEL MUNDO EN EL CONTEXTO DE LA ACCIÓN

Cuando avanzamos en la idea anterior de la representación virtual, como algo dinámico, alcanza su momento álgido cuando se trata de tareas con una actividad motora importante, como jugar al tenis. En toda acción motora cabe diferenciar dos niveles, el referente a la especificación de la tarea y el referente a la ejecución de la tarea.

La especificación de la tarea supone todo aquello que está relacionado con la planificación de una tarea, la lista de acciones necesarias para conseguir el objetivo propuesto. Cabe diferenciar entre tareas rutinarias y las que no lo son. En el primer caso no se necesita una supervisión detallada, las solemos hacer de forma semiautomática, y se produce un proceso competitivo de esquemas que guían de forma rápida y con poco gasto energético nuestra actividad en el desarrollo de una tarea, al contrario de los mecanismos de esquemas secuenciales, que requieren mayor tiempo y son los propios de las tareas no rutinarias. En este último caso, las tareas están marcadas por el Sistema atencional de supervisión, que supone la toma de consciencia de los pasos a realizar en una tarea. Este sistema se localiza en la región dorsal prefrontal del cortex, mientras que la planificación de la tarea se realiza en el cortex premotor y los ganglios basales.

NURO-FISIOLOGÍA DE LA VISIÓN

Después de lo visto hasta ahora, estamos en condiciones de hacer una “puesta al día” de los aspectos más relevantes de la neuro-fisiología de la visión, de actualizar la distribución de los impulsos visuales en las áreas cerebrales y de sus interconexiones.

1.- EL IMPULSO VISUAL.

Los ojos envían la información retiniana a través del Nervio Óptico hacia el núcleo geniculado lateral del tálamo y de aquí hacia el cortex occipital. Algunas fibras del NO alcanzan el colículo superior. La mayoría de imputs visuales pasan por las áreas corticales primarias de la región occipital, V1, dividiéndose y proyectándose sobre otras áreas en las que se procesa la información de forma más selectiva, como V4 para el color y V5 para el movimiento. De forma general se admite que desde la región occipital partirían dos vías principales, la ventral y la dorsal. La ventral se dirige hacia los lóbulos temporales y llevaría información sobre la identificación de los objetos. Las células de estas regiones responden a estímulos como el de una cara, las manos, etc. La vía dorsal se dirigiría hacia  los lóbulos parietales y procesaría información sobre la localización y movimiento de los objetos.

2.- EL IMPULSO MOTOR (OUTPUT).

A ambos lados del sulcus central  está la región somato-motora del cortex. Posterior al sulcus está la zona somato-sensorial que recibe estímulos de la superficie corporal y de la musculatura, de forma topográfica. En la región anterior del sulcus se encuentra el cortex motor, con una estructura topográfica de todo el cuerpo,  similar a la que encontramos en la región sensorial.

Ambas regiones están conexionadas y permiten realizar los movimientos de nuestro cuerpo, desde los patrones más groseros hasta los más delicados movimientos de manipulación manual de los dedos.

3.- EL SISTEMA DE LOS MOVIMIENTOS OCULARES.

La parte principal del cortex en el control de los movimientos oculares está en el región visual forntal (FEF) del área 8 de Brodmann, delante del surco arcuato. Recibe imputs de otras regiones del cortex, desde zonas parietales: área intraparietal lateral (LIP), y zonas temporales: área visual medio temporal (MT) y la región media superotemporal (MST), especialmente dedicadas a la detección del movimiento. Otra región frontal dedicada al control de la motilidad ocular es la región visual suplementaria (Supplementary Eye Field, SEF), localizada en la zona rostral del área 6, en el banco dorsal del sulcus cingulado (fisura longitudinal). La estimulación de esta región ocasiona movimientos sacádicos, aunque con mayor latencia que los que se originan en la estimulación del FEF.



Las salidas principales del FEF, a nivel subcortical, van hacia el colículo superior (CS) y los núcleos oculomotores. El SC actúa como un organizador superior de la magnitud y dirección de los movimientos oculares sacádicos, así como los movimientos de orientación de la cabeza. El SC envía fibras retrogradas hacia el FEF a través del tálamo mediodorsal y también sabemos que está conectado con la región LIP del cortex parietal. Las señales neurales que controlan de forma precisa los músculos oculares, sacadas y movimientos lentos, resultan de la interacción de las células premotoras de la formación reticular pontina paramedia (PPRF) y de las neuronas motoras de los núcleos oculomotores,  (Guitton, 1991).

4.- CONTROL DE EJECUCIÓN:  CORTEX PREFRONTAL.

Los lóbulos prefrontales los dividimos convencionalmente en áreas ventrales y dorsales. El cortex prefrontal dorsal, áreas 6 y 46 en el sulcus principal,  está dedicado al control visual del entorno y está conectado recíprocamente con el FEF en el área 8 y con el cortex dorsal premotor.

También está conectado recíprocamente con el lóbulo parietal inferior, particularmente con el área 7a que procesa información sobre la dirección de la mirada y la localización espacial de los objetos. Tiene una proyección importante sobre el colículo superior y sobre el sulcus temporal superior en el lóbulo temporal, con conexiones reciprocas  con el cortex parietal inferior. De esta forma el cortex dorsal prefrontal está conectado simultáneamente con la vía dorsal y la ventral.

Las lesiones del cortex prefrontal dorsal, suponen alteraciones en la localización espacial de los objetos, memoria espacial y en la elaboración de planes de acción.  Parece que en esta región prefrontal cabría diferenciar  entre áreas medias y laterales, dedicadas principalmente a la elaboración de un plan de acción, pero antes de su ejecución, mientras que las regiones posteriores se activarían una vez se inicia la acción, previamente planeada.
Las conexiones principales del cortex prefrontal ventral están en el lóbulo temporal y en la amígdala. Respecto a esta última, parece que se centraría en la selección de la respuesta más adecuada para obtener éxito.

5.- RESOLUCIÓN DE CONFLICTOS: CORTEX CINGULADO ANTERIOR.

Situado en la superficie interna del cortex entre el cuerpo calloso y el sulcus cingulado se encuentra el cortex cingular. La región anterior del cortex cingulado (ACC), área 24, se ha visto que está implicado en la resolución de conflictos (conflict monitoring), durante tareas complicadas. Establece conexiones con el FEF, cortex preforntal y cortex paritetal, lo cual le confiere a este núcleo, el ACC, características ideales para monitorizar información visual tipo bottom-up e información top-down, en el control visual de la conducta.

935513300 - info@areaoftalmologica.com

viernes, 24 de diciembre de 2010

VII.- Neurofisiología del Movimiento. Percepción de la Forma, Tamaño y Profundidad de campo

Como ya estamos a las puertas de Fiestas, os hago una entrega de una capítulo doble, La percepción del espacio, la profundidad y el tamaño de los objetos, donde tratamos las visión binocular y, un segundo capítulos que trata la visión del movimiento. En este último apartado os hablo de lo más significativo de la visión dinámica y dejo para más adelante algunos aspectos que están más relacionados con el binomio visión y acción.

LA PERCEPCIÓN DEL ESPACIO. LA PROFUNDIDAD Y EL TAMAÑO
.

Un hecho que siempre ha llamado la atención de los investigadores es cómo la información que se proyecta en la retina, en dos dimensiones, se reconstruye nuevamente en el cerebro en tres dimensiones. Las posibles respuestas las encontramos en el análisis de cómo llega y cómo se procesa la información a nivel retiniano, lo que denominamos análisis de las claves de percepción y profundidad.

Las experiencias visuales que tenemos  con el paso del tiempo, son un punto fundamental para entender las claves de profundidad, el cómo las vamos aprendiendo. Cuando vemos un objeto tapado parcialmente por otro, sabemos que ese objeto está detrás, es la “clave de oclusión” y lo sabemos, básicamente  porque lo hemos aprendido con experiencias anteriores. Se definen tres tipos de claves de profundidad, oculomotrices, monoculares y binoculares.

CLAVES OCULOMOTRICES.


Son claves basadas en dos aspectos fundamentales,  nuestra capacidad de detectar la posición de los objetos  y la tensión de los músculos oculares en el momento de la percepción. Los dos puntos de información fundamentales son la convergencia y la acomodación,  que nos orientan sobre la proximidad o lejanía de los objetos respecto a nosotros, tanto de tipo pasivo como dinámico.

CLAVES MONOCULARES.

Son claves que pueden apreciarse incluso con un solo ojo. Las más importantes son las claves pictóricas, oclusión, altura relativa, sombras proyectadas, tamaño relativo, tamaño familiar, perspectiva atmosférica (los objetos distantes son menos nítidos  porque  las partículas del aire los difuminan), perspectiva lineal y gradiente de textura.

Dentro de las calves monoculares hay otras relacionadas con el movimiento, destacando el paralaje y la eliminación,  y el acrecentamiento. En el paralaje vemos que los objetos más cercanos pasan más rápidos mientras que los lejanos parecen desplazarse más lentamente. Esto lo vemos en la vida real en situaciones como la de mirar por la ventanilla de un coche o del tren. En la siguiente figura podemos ver la explicación: se aprecia como un ojo que se mueve pasando de la posición 1 a la 2, los objetos que está mirando, A y B, su proyección en la retina, la variación en el punto de fijación, es totalmente diferente para A, próximo, donde el recorrido es mucho mayor que para B, lejano, que apenas se desplaza respecto al eje ocular (línea punteada azul).



Cuando dos superficies se encuentran a distancias distintas, como en la figura siguiente, cualquier movimiento lateral del observador hace que las superficies parezcan moverse unas en relación con las otras. La superficie trasera queda tapada o eliminada por una superficie que está delante cuando el observador se mueve en una dirección, mientras que la superficie trasera queda destapada o acrecentada, cuando el observador se mueve en la otra dirección.




CLAVES BINOCULARES.

En las claves binoculares, la percepción de profundidad depende de ambos ojos. La convergencia de los ojos también entra en las claves binoculares, el ángulo de convergencia especifica la profundidad. El elemento más importante en la clave binocular es la disparidad de imágenes que se generan en ambos ojos, debido a que los ojos están separados 6 cm, y por lo tanto ven el mundo desde posiciones distintas. En la práctica lo podemos comprobar colocando el dedo índice de la mano delante nuestro, a unos 40 cm,  y  si ahora vamos cerrando uno ojo y luego el otro, de forma alternativa, tenemos la sensación de que el dedo se mueve, se desplaza horizontalmente. El fenómeno se explica porque cada ojo tiene un ángulo de visión diferente respecto al dedo y se proyecta en posiciones diferentes en la retina.

La percepción de profundidad se produce en dos etapas, primero las disparidad binocular, es decir, la diferencia entre las imágenes de los dos ojos, a partir de la cual, esta diferencia se trasforma en la percepción de la profundidad o estereopsis.

Los estereoscopios permiten observar la visión en relieve al descomponer la escena en señales diferentes para cada ojo, mediante filtros de colores o con polarización. El cerebro hace lo mismo mediante la génesis de imágenes ligeramente diferentes en cada ojo, generada por el ángulo de visión diferente que sostiene cada ojo. Recordemos que en el mapa retiniano, cada punto de la escena se proyecta en un punto de la retina que se corresponde con el mismo punto de proyección en la retina del otro ojo (correspondencia retiniana), sin embargo, estos puntos no coinciden exactamente, hay una ligera disparidad de posiciones debido a la separación de los ojos, a los ángulos que forman la retina de cada ojo y el objeto, esto es lo que nos hace ver en profundidad, en relieve,  sin llegar a percibir doble imagen.

Cuando los objetos están próximos o muy lejanos, la disparidad de los puntos retinianos de proyección de los objetos, están separados por distancias que superan a la capacidad de unificación del cerebro, es decir ya no se perciben como un objeto sino que vemos dos, se produce visión doble, no cruzada para los objetos lejanos y cruzada para los cercanos. La línea en la que la disparidad retiniana es mínima se conoce como horóptero y el área en la que no se produce visión doble, se denomina área de Panum.

Para ver si la profundidad se debía a claves monoculares o a la disparidad que genera estereopsis, Bela Julesz creó un tipo de estímulos que se conocen como estereogramas, basados en puntos aleatorios y que se utilizan en la clínica para el estudio de la estereopsis en los pacientes.

Una de las cuestiones importantes era cómo se procesaban las señales de disparidad retiniana en el cerebro. Los estudios del cortex estriado revelaron la presencia de células específicas  en V1 para la disparidad,  son las células de profundidad binocular o detectores de disparidad, porque responden mejor a estímulos con proyección retiniana dispar, tal como se muestra en la figura siguiente, donde las barras P y  Q se proyectan en la misma región en la retina del OI, mientras que en el OD las proyecciones de P y Q, están separadas por la distancia que implica el ángulo de visión del OD respecto a P y Q. En el OI, con proyección coincidente de P y Q, se estimulan neuronas de disparidad cero (b), mientras que la proyección de P y Q en el OD, separadas, estimulan neuronas selectivas a la disparidad en V1 (c), responsables de iniciar la percepción en profundidad.



Actualmente se han descubierto células sensibles a la disparidad en V2 y en las vías dorsal y ventral, hasta TM, demostrando la importancia de la percepción de estereopsis en la vida diaria. Los estudios con RMf mostraron que cuando se ve en situaciones de estereopsis, se activa en mayor grado los lóbulos parietales, la vía del dónde o el cómo, lo cual tiene sentido porque la estereopsis tiene mayor importancia a la hora de localizar un objeto en la escena.

La especificidad de estas células para la visión en estereopsis se pone de manifiesto mediante estudios experimentales en los que se priva a un ojo de visión (gatos y monos) y se elimina la disparidad retiniana. Con el paso del tiempo se observa que desaparecen las células que se activaban con estímulos dispares y que estos animales eran incapaces de realizar tareas en las que se requiere estereopsis (Randolph Blacke y Helmuto Hirsch 1975, y Gregory de Angelis, Bruce Cumming y Willian Newsome 1998).

PERCEPCIÓN DE MOVIMIENTO.

La percepción de movimiento es un mecanismo de visión mucho más primitivo que la percepción de profundidad o de los colores. El movimiento es clave para localizar a una presa y establecer los movimientos precisos para darle caza o, a la inversa, pasar desapercibida para el depredador y huir en el momento preciso. Para la mayoría de animales, el hecho de permanecer inmóviles les confiere un carácter de invisibilidad.

Los estudios clínicos con pacientes afectos de lesiones cerebrales, revelan que la percepción del movimiento asienta en la zona TM.(Temporal Media). La lesión de esta región se acompaña de agnosia para el movimiento.

Podemos definir la percepción de movimiento como la capacidad cognitiva que posee un organismo que le permite captar, de forma inmediata,  el cambio de lugar de un objeto o de un cuerpo y, a la vez, aprehender algunos atributos relacionados con este cambio, como velocidad y dirección.
La detección de movimiento supone, (1) el seguimiento fino de un objeto que se desplaza delante nuestro, (2) la función de “destino común”, en la que percibimos los diferentes elementos que se desplazan acompañando a nuestro objetivo principal, lo cual crea una serie de referencias muy útiles para la detección del movimiento global y la percepción tridimensional de ese objetivo, ya que confiere más claves que la simple visión estática y, (3) la posibilidad de identificar un determinado objeto por el análisis de su movimiento (un ave grande mueve las alas más lentamente que un ave pequeña, que supondría menos riesgo como depredador).

En términos generales existen dos mecanismos principales mediante los que se percibe el movimiento, el primero implica la detección de cambios en la posición relativa de las partes que componen la imagen visual: el segundo implica el uso de los ojos para seguir un objetivo en movimiento. El primer mecanismo, que responde a los cambios de la imagen, lo denominamos sistema imagen-retina y al segundo, que responde al movimiento a partir de cambios posturales del ojo y la cabeza, sistema ojo-cabeza (Gregory 1978).

Podemos afirmar que el análisis del movimiento en las áreas visuales primarias, procesamiento temprano, constituye una propiedad fundamental del sistema visual  y no depende del cómputo previo de la distancia, posibilitando así la ejecución de ciertas tareas en los tiempos adecuados para garantizar nuestra supervivencia. De modo esquemático podemos mencionar entre estas tareas:

- Codificación de la tercera dimensión,
- Estimación de la colisión,
- Diferenciación entre figura y fondo,
- Control del equilibrio,
- Control de los movimientos oculares  
- Percepción del movimiento continuo.

Desde el punto de vista matemático, el problema de analizar movimiento y el problema de analizar la orientación en el espacio, son prácticamente el mismo. La diferencia radica en que en la orientación nos movemos en un plano de coordenadas espaciales (x,y), mientras que el análisis de movimiento tiene lugar en el volumen, en el espacio tiempo, (x,y,t).

MOVIMIENTO APARENTE.

La realidad es que no es necesario que se produzca movimiento para que tengamos la sensación visual de que algo se mueve, Max Wertheimer (1912) fue uno de los primeros en estudiar el movimiento aparente  dando inicio a la Escuela de la Gestalt. Observo que cuando se encienden dos luces separadas por un espacio pequeño y con intervalos de encendidocorto, el observador tiene la sensación de movimiento, es lo que conocemos como Movimiento Estroboscópico. Debe existir un intervalo entre 10 y 14 msec para que se aprecie movimiento de forma óptima. Si el intervalo era menor se tiene la sensación de dos destellos simultáneos y, si era superior, la sensación era la de dos destellos sucesivos.  Siguiendo este principio se explica la sensación de movimiento que tenemos cuando vamos al cine o vemos la TV, en los que se da un cambio de fotogramas de 24 veces por segundo, con un refresco pixelado de 30 veces por segundo, respectivamente, (en el ordenador es de x 60).

Los experimentos actuales sobre movimiento  aparente establecen como tiempos interestimulares la relación siguiente: sensación de simultaneidad, menos de 20 msec; movimiento parcial, entre 20 y 40 msec; movimiento optimo o beta, entre 40 y 60 msec; movimiento fi, entre 60 y 200 msec y, movimiento sucesivo, más de 200 msec.

En el movimiento aparente sabemos que cuando mayor es la distancia entre los estímulos, más largos deben ser los intervalos entre interestimulares. (Farrell 1983). Lo más importante en el movimiento aparente es la asincronía entre los estímulos, el tiempo que transcurre entre el inicio de un estímulo y el  siguiente (asincronía de inicio del estímulo, SOA), además del intervalo interestímular (final de uno y principio del otro). Para el estudio del movimiento  aparente hay que diferenciar entre el movimiento de corto alcance y el de largo alcance.

El ejemplo tipo de movimiento de corto alcance es el del cine, con un intervalo fijo de secuencia de estímulos, 24 por segundo y con un desplazamiento mínimo de los objetos en cada fotograma entre 5 y 15 minutos de arco. El movimiento de largo alcance es el que obtenemos con luces de encendido secuencial que toleran distancias mayores a las del movimiento de corto alcance. También el tiempo entre los estímulos puede ser más prolongado, más de 200 msec.

Denominamos movimiento inducido a la ilusión que aparece cuando se desplaza un objeto que en realidad esta fijo, al mover el marco de referencia en el que se encuentra, como el ejemplo de la luna y las nubes, cuando estas se desplazan rápido por efecto del viento, si estamos mirando la luna, alpasar las nubes parece que la luna también se mueve, en sentido contrario al de las nubes.

Otro movimiento aparente es el autocinético, el movimiento que observamos cundo tenemos una fuente de luz fija en una habitación oscura. En esta ciscunstancia, tras un rato de observar la luz, tenemos la sensación de que se está moviendo, hecho que se debe al movimiento imperceptible de los ojos.

BASES FISIOLÓGICAS DE LA PERCEPCIÓN DE MOVIMIENTO.

Parece admitirse hoy en día que el movimiento es una percepción primaria de nuestro sistema visual, una de las evidencias utilizadas para esta afirmación es la ilusión de la cascada, en la que tras observar el agua fluyendo en una dirección, cuando fijamos la vista en la orilla,  durante unos instantes  veremos como ésta se mueve en dirección contraria a como lo hacía el agua de la cascada. Esto sugiere que hay neuronas de bajo nivel que se han fatigado, que son sensibles al movimiento, sintonizadas a una dirección y velocidad determinada. Esta ilusión se debe al fenómeno conocido como “adaptación selectiva”.

La señal de movimiento empieza a procesarse en la retina en la mayoría de animales inferiores, es a partir del gato y hasta llegar a los humanos, en los que el procesamiento se hace más complejo y pasa a darse a nivel central. En el humano, las primeras neuronas sensibles al movimiento están en el colículo superior y en la corteza estriada primaria. entre los primeros estudios sobre la forma en la que detectamos el movimiento, destacan los de Reichardt, que propuso un modelo con un mínimo de tres unidades neuronales, dos neuronas corticales simples, A y B, con un sistema de retraso de la información en una de ellas y, conectadas a una tercera neurona M (ver figura),  de forma que los campos receptivos de A y B estén sintonizados con los bordes de una orientación concreta (barras verticales), así, las señales que emiten se comparan con otra señal emitida por la  tercera neurona, M.



Si un estímulo, como puede ser una barra luminosa que se mueve de derecha a izquierda, como en la figura, llega a la neurona A y luego a la B, sucede que la respuesta de A pasa a un sistema de retraso que enlentece su activación, señal que es enviada a la tercera neurona M, enlentecida y así coincidirá con la llegada de la respuesta de la segunda neurona B. la coincidencia en M de las respuestas de A y B, hace que la descarga de M sea mayor respecto a si se estimulan primero la B y luego la A, donde ya no llegarían sus repuestas coincidentes a  M y la respuesta de ésta es inferior. En el primer caso, con la respuesta elevada de M, se percibe como movimiento y en el segundo caso, con una respuesta de M más reducida, ya no hay percepción de movimiento.  Cada sistema está sintonizado con una dirección y una velocidad de movimiento específicos.

El  estudio de las vías anatómicas de la percepción visual pudo de manifiesto la presencia de otras vías relacionadas con el movimiento, destacando la vía tectopulvinar. Es una vía más antigua desde el punto de vista evolutivo respecto a la vía genículo- estriada, aunque en esta vía, también encontramos vinculaciones con el sistema magnocelular, más específico de la percepción del movimiento. Ambas vías contiene muchas más células con respuesta temporal que sostenida, esta última más propia de la vía parvocelular, encargada de los detalles de los objetos o de la detección de movimientos lentos. La respuesta temporal o transitoria es mucho más propia de la detección del movimiento. Las células con respuesta a patrones transitorios se encuentran de forma más abundante en la retina periférica, mientras que en la retina central encontramos células  de respuesta mantenida, por ello los movimientos lentos se perciben con la mácula, con velocidades que no superen los 1.5 º por segundo, disminuyendo la presencia de estas células a medida que nos alejamos de la mácula al tiempo que aumentan ahora las células con patrón transitorio, con mayor capacidad para detectar movimientos rápidos. El sistema magno es ciego al color y sensible a la luminancia, mientras que el parvo es muy poco sensible a la luminancia y mucho al color, de ahí que el sistema magno está más dedicado a la percepción del movimiento.

En el cerebro existen áreas en las que se han encontrado gran número de detectores Reichardt, la corteza visual primaria y el lóbulo temporal (área medial temporal y área medial superotemporal o V5). Las células de estas zonas están sintonizadas según la dirección del movimiento y en muchos casos, también a la velocidad de este. Parece que la diferencia principal entre las neuronas de V1 y V5 es el tamaño de sus campos receptivos, casi 5 veces mayor en V5.

Experimentos con sistemas de coherencia de puntos demuestra que los humanos somos muy sensibles a la detección de movimiento, en ocasiones con solo una coherencia del 3% es suficiente para evidenciarlo, especialmente cuando la velocidad es de 2º por segundo y el CV estimulado es amplio. En V1 detectamos pequeños movimientos, respecto a su amplitud, siendo en V5 donde se detecta el movimiento global.

Un primer punto para analizar el movimiento es preguntarse sobre cuánto desplazamiento de la imagen es necesario para  poder percibirlo, es decir, nos preguntamos sobre el umbral mínimo de movimiento. Hermann Aubert (1886) fue el primero en observar que se podía detectar el movimiento de un punto de luz en la oscuridad, situado a 50 cm del ojo y moviéndose a 2.5 mm por segundo, que equivale a 10-20 minutos de arco o 1/5 parte de  un grado del ángulo visual por segundo. La forma precisa de detectar movimiento es utilizando métodos donde se compara un elemento que se mueve con otros que permanecen inmóviles, es lo que denominamos “contexto visual fijo” así, el movimiento mínimo percibido es de 0.25 mm por segundo o, 0.3º de ángulo visual por segundo, en comparación a los 0.02º que se necesitan con contexto fijo. Parece que esta capacidad de discriminar movimiento aparece en etapas tempranas de la vida, con tan solo ocho semanas.

El marco de referencia es también importante para detectar la aceleración de un objeto, pudiendo llevarnos a errores de apreciación.  Si tenemos un punto fijo dentro de un rectángulo que se mueve, aunque la velocidad sea constante, cuando el punto se acerca al borde del rectángulo, la velocidad parece aumentar, se acelera, aunque es tan solo una ilusión. Otra relación importante entre el objeto y el marco son los tamaños de estos. Un objeto en un marco grande tiene que moverse más rápido que si está en un marco pequeño. La sensación de velocidad es muy diferente.
Las investigaciones en la percepción de movimiento, muestran una serie de problemas que generan ambigüedad en la percepción, los más destacados son:

1.- Correspondencia de movimiento, que se plantea cuando se presenta el “fotograma” de la escena visual en el tiempo t1 y el correspondiente a un instante posterior, t2, donde los objetos de la escena han cambiado y debemos ensamblarlos (matching), para qeuse tenga una visión fluida de la secuencia. Se plantea el problema de qué parte de la primera imagen se corresponde con qué parte de la segunda imagen. Dawson (1991), propone el principio del vecino más cercano, el principio de suavidad y el principio de la integridad del elemento, para conseguir un efecto uniforme en el paso secuencial de los fotogramas.

2.- Problema de la apertura, en el que vemos como un detector de Reichardt  puede activarse con estímulos diferentes, tanto de velocidad como de dirección. Una unidad de detección se estimula con un desplazamiento horizontal de una barra vertical, pero también lo hará con una barra inclinada que se desplaza horizontalmente  o con una barra vertical que se desplaza oblicuamente, las respuestas será las mismas, lo cual supone un problema de ambigüedad en la detección de ese movimiento, es como si viéramos una figura moviéndose a través de una ventana muy estrecha, veríamos movimiento, algo se desplaza a su través, pero no podríamos decir en qué dirección lo hace.

Los trabajos experimentales señalan que las células de V1 serían sensibles al movimiento de apertura, mientras que el movimiento global se produce en las células de V5. En V1 se da un visión de movimiento lineal, se ve lo que ve la retina, mientras que en V5, se estructura el movimiento y en V3, se aprecia la forma dinámica, la forma del objeto en movimiento.

3.- Problema de la velocidad del movimiento. No está tan clara la forma que tiene nuestro sistema perceptivo de analizar la velocidad a la que se desplaza un estímulo. Sabemos que los estímulos inclinados se perciben más lentos que los verticales. En el momento actual hay varias hipótesis pero, parece que la del promedio ponderado de Castet, 1993, es la más aceptada.

Otro aspecto interesante es el de la constancia de velocidad. Si vemos un objeto moverse a velocidad constante y se va alejando, la mayor distancia  determina que la velocidad angular en el CV disminuya, sin embargo, no tenemos la sensación de que se reduzca su velocidad de desplazamiento. Se produce un desajuste entre la velocidad retiniana y la central, hecho que nos permite mantener la visón real de un objeto que sigue una velocidad constante, independiente de la distancia a la que se encuentre de nosotros.

Dejamos el tema del “Tiempo de colisión” como un apartado específico que lo trataremos cuando hablemos de visión y acción, especialmente en los casos de visión y deporte.

MOVIMIENTOS OCULARES Y PERCEPCIÓN DEL MOVIMIENTO. TEORÍA DE LA DESCARGA COROLARIA.

Un hecho habitual de la vida diaria, es que podemos seguir con los ojos un objeto que se desplaza delante de nosotros, lo seguimos y lo mantenemos fijo en la retina, no se desplaza sobre nuestra retina y sin embargo sabemos que ese objeto se mueve. De la misma forma, cuando buscamos algo, por ejemplo en una habitación, movemos los ojos sobre una escena que permanece fija, de forma que los objetos se mueven en nuestra retina pero sabemos, los percibimos, como inmóviles. En ambos casos los ojos se mueven pero la escena permanece estable. Para explicar esto se ha propuesto la teoría de la descarga corolaria.

Esta teoría propone que la percepción del movimiento depende de tres tipos de señales,  asociadas al movimiento de los ojos o a las imágenes que cruzan los ojos: (1) una señal motriz (SM,) que se envía a los músculos oculares cuando el observador se mueve o intenta mover sus ojos, (2) una señal de la descarga corolaria (SDC), que es una copia de la señal motriz y (3) una señal de movimiento de la imagen (SMI), que se produce cuando una imagen estimula los receptores mientras se mueve por la retina.

Según la teoría de la descarga corolaria, nuestra percepción del movimiento estaría determinada, bien  por la señal motriz de los músculos oculares y la descarga corolaria  o  bien  por la señal del movimiento de la imagen sobre la retina  o, incluso por ambas al darse de forma conjunta, que llegarían a una estructura llamada “comparador”, donde se reciben los estímulos de las neuronas que conducen estas dos señales. El movimiento se percibe cuando el comparador recibe la señal del movimiento de la imagen o la señal de la descarga corolaria por separado. Sin embargo, cuando las dos señales llegan al comparador al mismo tiempo, se cancelan entre sí, no hay visión en ese instante, por lo que no se percibe ningún movimiento. Veamos qué significa esto.

 

Los estudios neuroanatómicos han identificado células responsables del flujo interno y del flujo externo en el cerebro. Estos mecanismos sirven para estabilizar el campo visual así, ante el movimiento de los ojos o de la cabeza, no vemos desplazarse la escena visual delante nuestro, no se desestructura nuestra percepción externa, tal como hemos dicho anteriormente. Esto lo podemos comprobar presionando  el ojo con un dedo, el ojo se mueve y la escena externa se desplaza en dirección contraria, debido  a que el movimiento ocular no proviene de una orden del cerebro, no es voluntario, no hay la señal de los músculos oculares y por eso se desestabiliza la imagen externa,  todo se mueve. Este conjunto de hechos es lo que constituye la base de la  “Teoría de la Descarga Corolaria”.

La naturaleza de este proceso es que se realiza una copia de la orden motora. La descarga corolaria informaría del movimiento voluntario de los ojos, estableciendo un “sistema comparador de movimiento” al  tener en cuenta dicha señal con relación a la información aferente que le llegaría de la retina. Si dichas aferencias sobre el movimiento de la escena visual,  encajan con la previsión de movimiento deducible a partir del movimiento de los ojos, no habrá percepción de movimiento. En cambio, si se percibe cierta disparidad  entre la aferencia sensorial y la descarga corolaria, en el caso de seguir con la mirada un objeto móvil, las aferencias retinianas del objeto no encajarán con el desplazamiento que debe sufrir toda la escena visual de acuerdo con el movimiento de nuestros ojos, por lo que el comparador informa a las áreas sensoriales pertinentes  de la disparidad existente y, a pesar de las claves retinianas, acabaremos viendo un objeto móvil sobre un fondo estático.

La corteza frontal premotora medial,  genera  una réplica de la orden eferente, pudiendo dirigirse al sistema putativo comparador o podría ser integrada directamente en determinadas áreas corticales implicadas en la percepción del movimiento. La descarga corolaria es una copia  de la orden motora asociada a los movimientos  voluntarios que se dirige directamente a los centros perceptuales corticales. El sustrato neural anatómico donde se lleva a cabo esta función sería el colículo superior,  ya que existen evidencias clínicas que así lo apuntan. Se registra una descarga de sus neuronas cuando el ojo permanece inmóvil ante un determinado estimulo que atraviesa su campo receptor pero, quedan inactivas cuando, debido al movimiento de los ojos, es el campo periférico el que se mueve con relación a un estímulo estático. La inactividad de esta última situación se debería a que, pese a que el estímulo se mueve en la retina, y en el campo receptor de dichas neuronas, la copia motora de la orden para mover los músculos que provocan el desplazamiento ocular, neutralizaría la aferencia retiniana.

Trabajos recientes relacionan también al núcleo pulvinar- talámico con estas tareas, recibiría información sobre el movimiento de los ojos procedente del colículo superior y la compararía con la imagen visual recibida de V1. El output resultante de esta comparación la envía a las zonas corticales pre-estriadas especializadas en la percepción de movimiento, V3 y V5, así estas áreas pueden discernir entre los desplazamientos de la imagen  retiniana debido a un objeto que se mueve, de los producidos por los movimientos oculares.

Estudios más recientes en monos apuntan a que ciertas neuronas del área MST combinarían información visual con la de los movimientos oculares, constituyendo a lo que se ha llamado un “sistema comparador neocortical” (Barinaga 1996 y Andersen 1997).  En los humanos existiría un mecanismo similar pero, alojado  en el área parieto-occipital superior, SPO, lo cual indica que a este nivel se integraría un señal tipo descarga corolaria. A este nivel llegarían otras informaciones provenientes de áreas extraestriadas, vestibular, cinestésica, etc, que pueden resultar útiles para el sistema comparador. Un estudio de Brandt, 1998 señala que se da una inhibición recíproca entre el área SPO y una región de la corteza vestibular, un área parietal que se considera un centro de integración multisensorial para la percepción de la orientación del cuerpo y la automoción. Esto lo entendemos cuando vamos en un coche y acelera o decelera, se produce una activación de la corteza vestibular que induce una desactivación de la corteza visual del área PSO, de esta forma percibimos que somos nosotros los que nos movemos y no el paisaje que vemos por la ventanilla.

Junto a estos hechos cabría añadir la ceguera transitoria que se produce cuando realizamos un movimiento ocular rápido, una sacada. En estas circunstancias el sistema optocinético inhibe la señal retiniana, para que no se produzca un desplazamiento de la escena externa. El mecanismo implicado sería similar al de la descarga corolaria.

INFORMACIÓN SOBRE EL MOVIMIENTO EN LA MATRIZ ÓPTICA.

En la percepción del movimiento intervienen estímulos que activan los detectores de características o la descarga corolaria, pero también influye la forma en la que una cosa se mueve en relación con otras en el entorno. Gibson en 1979, fue el primero que defendió este hecho y acuño el término “matriz óptica” para referirse a la estructura creada por las superficies, las texturas y los contornos. El elemento más importante de la matriz óptica respecto a la percepción de movimiento, es la forma en la que ésta cambia cuando el observador se mueve o cuando algo se mueve en el entorno. Estos cambios son fundamentales para saber si se está moviendo el observador o si se están moviendo los objetos del entorno.

Hay varias situaciones que ofrecen pistas, cuando se mueve un objeto aislado del entorno, tapando y destapando alternativamente el fondo fijo. Esto corresponde a los fenómenos de eliminación y acrecentamiento. Lo vemos cuando miramos a una persona andando por una escena, es lo que se denomina “perturbación local de la matriz óptica”, y nos indica que esa persona se está moviendo. Paralelamente, sabemos que se está moviendo por las señales que envían los músculos oculares al seguir su movimiento y por el hecho del fenómeno de oclusión y desoclusión de los objetos de la escena, más lejanos respecto a la persona que anda y que “tapa” y “destapa” a medida que anda.
Cuando toda la escena visual se desplaza, toda la matriz, se denomina “flujo óptico global”, y esto indica que es el observador el que se está desplazando por el entorno.

ORGANIZACIÓN PERCEPTIVA DEL MOVIMIENTO. MOVIMIENTO BIOLÓGICO.


Ya vimos en otros capítulos que los objetos de una escena no aparecen de forma independiente, se agrupan en objetos más grandes siguiendo otros preceptos, tal como proponían las leyes de la Gestalt y, uno de los criterios de agrupamiento era el movimiento, por ejemplo, la ley del destino común que señala que los estímulos que se mueven en la misma dirección parece que  pertenecen al mismo objeto.

Otro ejemplo de cómo el movimiento contribuye a la organización perceptiva, lo vemos en la detección de un ser humano o un animal. Si colocamos luces a una persona o a un animal y solo percibimos esas luces en una habitación a oscuras, donde no vemos la figura que se desplaza, en el momento que inicia el movimiento, en la mayoría de casos adivinaremos que se trata de una persona, de un ser humano o un animal. El movimiento biológico es un estímulo muy potente que se hace patente de forma muy evidente. La detección de la figura humana obedece a un mecanismo mixto, de abajo-arriba y, muy especialmente, de arriba abajo, es decir, la experiencia previa de ver caminar a seres humanos, es fundamental para apreciar este tipo de movimiento, para identificarlo.

A partir del movimiento biológico,  se ha visto que la percepción del movimiento va ligada al conjunto de la percepción visual. La mayor parte del tiempo vemos objetos en movimiento, generalmente estamos en un escenario cambiante, bien porque nos movemos nosotros o bien porque hay elementos de la escena, ajenos a nosotros, que se mueven. La combinación de estímulos particulares de los objetos, su forma, textura, etc, se combina con sus características de movimiento, lo cual hace que sean más fáciles de identificar y con ello, de predecir qué pasará con ellos. Si detectamos una mesa, es probable que permanezca en su sitio y evitaremos chocar con ella, mientras que si identificamos un vehículo, un coche en movimiento y queremos cruzar una calle, estableceremos un plan de acción para que no nos atropelle, calculando el “tiempo de colisión”, en virtud del tamaño, velocidad de aproximación (expansión en retina, etc) y otros factores.

La influencia de los mecanismos de arriba abajo se pone de manifiesto en experimentos como el realizado por Shiffrat Freyd (1993), en el que proyectaban dos fotos de una persona con el brazo derecho levantado y flexionado a la altura de la cabeza. En la primera foto,  la mano está detrás de la cabeza y en la segunda, delante. Si el tiempo de presentación entre las dos fotos era inferior a 200 mseg, no hay tiempo de procesado consciente y las dos fotos se perciben como que la mano atraviesa la cabeza pero, si se presentan con tiempos superiores a 200 mseg, la mayoría de los observadores percibían un movimiento de la mano alrededor de la cabeza, pasando desde atrás hacia adelante. Esto indica la fuerza del efecto cognitivo, la mano no puede atravesar la cabeza, para pasar de atrás hacia adelante, debe rodear la cabeza y, aunque no es lo que se proyectaba, los observadores percibían este hecho.

Esto demuestra que la percepción del movimiento sigue los mismo preceptos que veíamos en la percepción de formas, estáticas, donde la Gestalt, los mecanismos cognitivos de arriba-abajo, representaban un papel fundamental.

935513300 - info@areaoftalmologica.com

martes, 21 de diciembre de 2010

VI.- Visión del Color

En este capítulo vamos a tratar la percepción de los colores, un elemento básico para entender la visión en los seres humanos. Se han descrito diferentes teorías y se han propuesto diversas explicaciones de cómo utilizamos la percepción de los colores en el sistema visual y, pese a que hemos aprendido muchas cosas, todavía quedan otras muchas por descifrar. Aquí veremos los mecanismos perceptivos del color y hablaremos de los aspectos psicofísicos de la visión de los colores, un tema que no suele tocarse demasiado en los tratados de percepción visual.

LA PERCEPCIÓN DEL COLOR.

El color es un elemento fundamental para la vida, además de embellecer y tener una función estética, desempeña una importante función señalizadora. El color facilita la organización perceptiva, especialmente la capacidad de diferenciar objetos en el entorno.

Los objetos se ven con un cierto color en función de cómo se refleja la luz que incide sobre ellos, considerando que la propia luz está compuesta por distintas longitudes de onda que corresponden a colores específicos. En base a este doble concepto, el color que vemos correspondiente a un objeto, es su reflectancia, es decir, lo que podríamos describir en una gráfica donde se represente el porcentaje de luz reflejada en función de la longitud de onda. Si la longitud de onda reflejada ocupa una posición en el espectro cercana a los 400 nm, ese objeto lo vemos azul pero, si la luz reflejada se sitúa en torno a los 700 nm, lo veremos de color rojo.

Los investigadores del color consideran que el rojo, el amarillo, el verde y el azul, son los colores básicos ya que permiten describir el resto de todos los colores que somos capaces de percibir.

TEORÍA  TRICROMÁTICA DE LA VISIÓN DE LOS COLORES.


Esta teoría fue propuesta en el siglo XIX por Young y Helmholz fruto de sus investigaciones psicofísicas basadas en la “igualación de colores” mediante la combinación de luces con longitudes de onda específicas. Una de las principales conclusiones a las que llegaron es que se necesitaban tres longitudes de onda para formar los distintos colores del espectro. Esto les indujo a pensar que a nivel retiniano deberían existir receptores específicos para cada una de estas tres longitudes de onda, es decir tres tipos de foto-receptores con sensibilidades espectrales diferentes. La luz que llega a la retina estimula a todos los receptores pero según su longitud de onda, determinaría una respuesta mayor en el tipo de receptores sensibles a esa longitud de onda.

Debieron pasar treinta años para que los fisiólogos encontraran el origen de esta sensibilidad espectral diferente en los foto-receptores. Se debe a la presencia de un pigmento diferente en los conos, tres tipos de pigmento que responden específicamente a longitudes de onda corta (419 nm), media (531) y larga (558 nm), que corresponden a los colores, azul, verde y rojo, respectivamente. Si proyectamos una luz de 430 nm, se disparan los conos de onda corta y vemos  la luz azul, si ahora proyectamos una luz amarilla de 580 nm, estimula por igual los conos de onda media y larga, así la combinación de luces azules y amarillas, como estimula a los tres foto-receptores por igual, determina que la percibamos como una luz blanca. Este hecho sorprende porque estamos acostumbrados a que si combinamos una pintura azul con una amarilla, la vemos verde, no blanca.

Sabemos que nuestra percepción de los colores depende del patrón de actividad de los diferentes tipos de foto-receptores. Con esto podemos explicar el fenómeno de igualación de colores, podemos generar un estímulo de percepción de color como el que daría la luz de 580 nm que la percibimos amarilla blanquecina, si mezclamos luces de 530 nm, verde con otra de 620 nm, roja, que estimulan fuertemente los receptores de onda media y larga y muy poco los de onda corta, generando un patrón de percepción amarillo, como el anterior.

De hecho, aunque se requieren los tres foto-receptores para una adecuada percepción del color, con solo dos bastaría para tener una percepción de color casi normal, mientras que uno solo es insuficiente para percibir color, ya que la absorción de la luz depende de la intensidad a la que la proyectemos, pudiendo estimular el mismo foto-receptor con longitudes de onda diferentes, simplemente ajustando la intensidad, por ello no basta con un solo foto-receptor para tener la sensación de colores como tenemos en la vida normal, es lo que se denomina “principio de univarianza”.

TEORÍA DE LOS PROCESOS OPONENTES DE LA VISIÓN DE LOS COLORES.


Hering descubrió que la teoría tricromática explicaba la mayoría de fenómenos del color pero no daba respuesta a todos los problemas que se planteaban, por ello propuso una nueva teoría que explicaba la percepción de los colores en base a las respuestas oponentes generadas por el azul-amarillo y el rojo-verde. Esto lo dedujo estudiando las postimágenes que se generan viendo láminas de colores. Observo que la visión de un campo rojo genera una postimagen verde y una cartulina verde, una postimagen roja y, de la misma forma ocurría con el azul y el amarillo. Hering ofreció una explicación en el plano fisiológico que mejoraba la concepción sobre la visión de los colores y aunque hoy en día se ha visto que no era cierta del todo, se ha podido confirmar parte de sus hallazgos psicofísicos.

La explicación actual sobre esta teoría se basa en los hallazgos en la retina y Núcleo Geniculado Lateral  de neuronas con campos oponentes del tipo centro periferia. Existirían cuatro tipos de combinaciones: Az+ Am-, V+ R-, Am+ Az-, R+ V-. Junto a estos hallazgos se confirmó la presencia de los tres tipos de foto-receptores en la retina descritos en la teoría tricromática, es decir que la explicación para la visón de los colores pasaba por unificar ambas teorías, la tricromática con la de campos oponentes.  Un ejemplo de cómo se integran estos dos sistemas lo tenemos en la figura, donde el cono L envía una señal a una célula bipolar R+ V-, al tiempo que envía otra señal de excitación a una célula bipolar A que inhibe la activación de la célula bipolar para Az+ Am-. Las células  Az+ Am- se activan con la estimulación de los conos S de onda corta, lo que hace que percibamos el color azul y sí se estimulan los conos M y L, ante la llegada de una luz verde y roja, se activa la célula bipolar intermedia A, que inhibe a la bipolar Az+ Am- y se percibe el color amarillo, tal como ocurría en las experiencias que tienen los sujetos cuando combinan luces de diferentes longitudes de onda en la igualación de colores.



Con esto vemos que la secuencia del color se inicia con los foto-receptores, los conos para longitudes de onda, corta, media y larga y, prosigue con un mecanismo de convergencia y potenciación que se consigue con las células ganglionares oponentes en la retina y en un segundo estadio, en el NGL. Lo que todavía no sabemos del todo bien es lo que ocurre en el cerebro. En la década de los ochenta se especulaba con una región específica para el color, en base a los casos de ceguera cortical al color pero no a la visión, que hacía pensar en que el color se procesaba en un área concreta del cortex.

En la actualidad se ha visto actividad cortical relacionada con el color en V1 y en áreas extraestriadas como V3 y V4, implicadas en la vía ventral del reconocimiento de las formas pero que también responden a estímulos en blanco y negro, por ello, más que una región específica para el color, este se procesaría en diferentes regiones.

TEORIA  RETINEX.


Fue propuesta inicialmente por Land en 1964, fruto de sus experimentaciones con la cámara fotográfica Polaroid. Primero observo la constancia del color, que éste no variaba a pesar de variaciones en el grado de iluminación ambiental. El cerebro ajustaría  “matemáticamente” el color partiendo de la información del tono global del color. Actualmente se debate sobre la base neurofisiológica de este proceso.

Zeki  en 1980 demostró que el color de una superficie en una escena compleja no dependía tan solo de la longitud de onda predominante reflejada, sino que el cerebro la campara con las longitudes reflejadas por el entorno.

DEFICIENCIAS EN LA VISIÓN DE LOS COLORES.

Las primeras referencias sobre la visón de los colores se deben al físico John Dalton, que padecía un trastorno en la visión de los tonos carmesí. En recuerdo a este físico se empezó a denotar las anomalías en la visión de los colores como daltonismo.

Tres son las formas principales de anomalías en la visión de los colores, monocromatismo, dicromatismo y tricromatismo anómalo. El monocromata es una forma rara de anomalía al color con base hereditaria. En general estos pacientes no tienen ningún cono funcional por lo que la visión no solo carece de color sino que, en la medida que esta posibilitada por la acción de los bastones, la agudeza visual es muy baja y deben protegerse por ser muy sensibles a la luz, padecen de fotofobia.

Los pacientes afectos de dicromatismo ven algunos colores y según estos, pueden clasificarse en: protanopsia, deuteronopsia y tritanopsia. Los dos primeros son los más frecuentes y están relacionados con el cromosoma X, por lo que se presentan con mayor frecuencia en varones. Los protánopes perciben el azul y a medida que aumenta la longitud de onda (492 nm), desparece el tono azul y solo se aprecia un tono grisáceo. Los que padecen deuteranopia, tienen una clínica parecida pero el tono azul se alarga un poco más, hasta longitudes de onoda de 498, a partir del cual se percibe en un tono grisáceo amarillento. El tritánope ve azules hasta los 570 nm y, a partir de aquí solo percibe los rojos.

Junto a las anomalías del color por alteraciones en los foto-receptores, tenemos las acromatopsias centrales, es decir, la ceguera al color, no porque no se procese las longitudes de onda de los distintos colores, sino por una alteración en la interpretación del color a nivel cortical.

PSICOFÍSICA DE LA PERCEPCIÓN DEL COLOR


La visión del color pasa por preguntarse, ¿qué tipo de información procesa el sistema visual humano y qué operaciones realiza para obtener esa información?.  Solemos entender por color un atributo  de la percepción ligada a los objetos o a la luz. Cuando nos referimos al color de un objeto, es necesario, en primer lugar  que llegue la luz emergente de ese objeto a los ojos y, en segundo lugar  que, en consecuencia se estimule el proceso de percepción visual, así el color será un atributo perceptivo de ese objeto, igual que lo es la forma, textura o profundidad. En 1970 el CIE  (Comisión Internacional de Iluminación), adopto la definición de color percibido como: “color es el aspecto de la percepción visual mediante el cual un observador puede distinguir entre dos campos del mismo tamaño, forma y textura por las diferencias en la composición  espectral de las radiaciones  relacionadas con la observación”.

En esta definición se pueden  asociar atributos importantes para entender mejor la visión del color:

TONO: es el atributo que permite caracterizar a un color como azul, verde, etc.
COLORIDO: es un atributo por el cual un campo parece tener más o menos un color cromático
COLOR CROMÁTICO: el color percibido que posee tono. Será color acromático, aquel color percibido que no posee tono, como el blanco y el gris.
LUMINOSIDAD: atributo por el cual un campo tiene más o menos cantidad de luz.
SATURACIÓN: colorido de un campo determinado en proporción a su luminosidad. Depende de la cantidad de gris que se mezcla con el color base. Será más puro o más saturado cuanto menos gris contenga.
CLARIDAD: hace referencia a objetos opacos o trasparentes, y es la luminosidad de un campo determinada en proporción a la luminosidad de un campo igualmente iluminado que se percibe como blanco o perfectamente trasparente.
CROMA: también hace referencia a objetos opacos o trasparentes y se define como el colorido de un cuerpo determinado en proporción a la luminosidad de un campo igualmente iluminado que se percibe como blanco o perfectamente trasparente.

En consecuencia a estos atributos, decimos que un objeto  tiene, por ejemplo, un color azul, vivo y claro.

El estudio del color se realiza con la colorimetría, que tiene como objetivo introducir un método de medida del color que permita asignar una magnitud mensurable a cada uno de los atributos perceptivos y, además determinar el color mediante números que permitan su especificación en un espacio de representación.

Tras estas definiciones podemos avanzar en lo que entendemos como “color psicofísico”. Según la CIE, es el atributo de la relación visible mediante el cual un observador puede distinguir dos campos de igual tamaño, forma y textura, por la diferencia en la composición espectral de las radiaciones relacionadas con la observación.  En esta línea, definimos el estímulo de color, como aquella energía radiante de una intensidad y composición espectral dada que al entrar en el ojo produce la sensación de color. La complejidad de la percepción de los colores, su psicofísica, la vemos en ejemplos como el “Efecto Bezold-Brücke”.

Si proyectamos un pincel de luz monocromática a través de la pupila hacia la retina, al cambiar el punto de incidencia en la pupila, se producen cambios  en el tono del estímulo luminoso, es lo que conocemos como “Efecto de Stiles Crawford de segunda especie”

En la psicofísica de la visión de los colores es interesante el hecho del color atribuido a un objeto, de forma simplificada, lo podríamos entender como el resultado de un cierto análisis espectral (en el cerebro), de la luz que ese objeto refleja o emite. Sin embargo este análisis espectral no es perfecto y lo vemos en el ejemplo de la contemplación de un cuadro. En la pintura de un paisaje vemos todas las clases de colores y tonos tal cual los reconocemos en los objetos naturales que nos rodean, los rojos de una manzana o el verde amarillento del pasto semiseco, etc y ello a pesar de que el espectro físico de la luz reflejada por los objetos de la pintura es, en muchos casos, muy diferente al del correspondiente objeto natural representado.

Lo interesante es que aceptamos estas percepciones evocadas por la pintura como inherentes a los objetos naturales (es un proceso cognitivo), y que la mayoría de observadores acepta la misma situación. Esto se debe a que en la mayoría de casos poseemos una percepción de los colores muy parecida, proveniente de las experiencias previas de la visón de los colores en la naturaleza real. Esto es importante porque un número determinado de personas, en torno al 10% de la población, presenta una visión diferente, anómala, de los colores, sin embargo, muchas veces pasa desapercibida porque han aprendido a diferenciar los colores utilizando otras características de los objetos en la vida real.

La teoría de los modelos de la visón del color se inicia con la teoría tricromática de Young y Helmholz pero pronto se evidenció que era inadecuada para explicar la apariencia de los colores, tal como hemos explicado más arriba. No dejaba claro por ejemplo, por qué la mezcla de luces percibidas como roja y verde induce la sensación de amarillo, un color cualitativamente diferente al mezclado, o por qué ese color amarillo, mezclado en proporción adecuada con azul, lleva a la sensación de blanco. El problema estaba en que no se podía explicar cómo la respuesta de los tres tipos de conos puede sumar  sus luminosidades y cancelar sus atributos  de color cuando son excitados simultáneamente.

Hering estudio el problema y vio que no se puede experimentar la sensación simultanea de rojo-verde o de amarillo-azul, por ello  propuso la existencia de tres procesos oponentes generados en algún lugar de la ruta visual, un proceso claro-oscuro, otro amarillo-azul y otro, rojo-verde. Esta hipótesis coincidía con las anomalías que se ven en la clínica respecto a la visión de los colores, ceguera rojo-verde, en la que persiste la visión claro-oscuro y amarillo-azul;  ceguera amarillo-azul, en la que persiste la visón claro-oscuro y verde-rojo y, ceguera total cromática, en la que solo queda la visón en blanco y negro fruto de la acción de los bastones.

La teoría de los colores oponentes resolvía parte de los problemas pero, no todos ya que no permitía explicar la curva de eficiencia luminosa que acompaña, por ejemplo a la protanopia. En la actualidad sabemos que la teoría tricromática es buena para explicar los fenómenos del color a nivel receptor, en retina, mientras que la teoría oponente, es eficaz para explicar lo que pasa en la fase neural.

El modelo de Boynton (1986) es el más admitido por los científicos y su originalidad  reside en el hecho de introducir un sistema de representación del color en que los mecanismos de visión del color se manifiestan de forma directa. El espacio así obtenido se conoce como “espacio de excitación de conos”. Los conos L y M son sensibles al espectro visible completo, con una sensibilidad máxima en 565 y 540 nm, respectivamente y,  en  las longitudes de onda larga, la sensibilidad del cono L es muy superior a la del M.  Por otra parte, el cociente de excitación de los conos L y M es máximo en 465 nm y para cada longitud de onda menor de esta cifra hay otra mayor, tal que si se ajusta la luminancia, ambas corresponderían  a estímulos que se verían iguales en personas que carecieran de conos S, ya que se pueden encontrar parejas de estímulos espectrales a ambos lados de 465 nm con igual valor de M (L+M) y de L (L+M). El espectro de acción de los conos S tiene el máximo en 440 nm y desciende rápidamente para longitudes de onda más largas, siendo insensibles más allá de los 520 nm.

Para entender mejor lo dicho, imaginemos que miramos un campo de luz monocromática y vamos variando su longitud de onda desde larga a corta. Consideremos un espectro de acción de conos en las que las longitudes de onda larga excitan a L mucho más que a M, se verá rojo, propio de estos conos L y casi nada de verde (M). Si ahora reducimos la onda a 575, la diferencia rojo-verde se hace menor y se equilibran las señales de L y M y como los conos S del azul todavía no se han excitado, la sensación visual  no es ni rojo ni verde sino un color amarillo. Si acortamos todavía más la longitud de onda, los M irán dominando sobre los L y se irá viendo verdoso, disminuyendo el tono amarillento, hasta llegar a los 500 nm donde S equivale a la suma de L y M, se equilibra el canal amarillo-azul y se ve un verde único. Si reducimos la longitud de onda, el azul ira reemplazando al verde y si todavía la bajamos más, el elevado nivel de excitación del azul desequilibra al canal rojo-verde en dirección al rojo, percibiéndose ahora un color violeta.

935513300 - info@areaoftalmologica.com