Latest Posts:

Mostrando las entradas con la etiqueta vision. Mostrar todas las entradas
Mostrando las entradas con la etiqueta vision. Mostrar todas las entradas

1 de mayo de 2013

¿Por qué desde tierra parece que los aviones viajaran muy lentamente?


Los aviones se mueven rápido, pero lejos en nuestro campo de visión.

Nuestra mente juzga la velocidad de los objetos que pasan ante nosotros por el tiempo que tardan en cruzar nuestro campo de visión.

Los que tardan más tiempo pueden estar cerca y moverse lentamente o moverse rápido pero estar lejos.

En el caso de los aviones, nuestro cerebro comprende que la segunda interpretación es la correcta.

Fuente:

BBC Ciencia

22 de abril de 2013

¿Por qué las gafas nos permiten ver mejor?


Las gafas son un invento de 1286. Pero se llevan tallando lentes desde prácticamente el siglo V a.C. Los antiguos sabían que nos permitían ver objetos aumentados o mejor enfocados, pero no exáctamente por qué.

El profesor Antonio Ruiz de Elvira recorre la exposición que el museo Cosmocaixa de la de la Obra Social La Caixa en Alcobendas en la que se explica cómo la forma de estos cristales hace desviar la luz hacia donde nos interesa.

Ruiz del Elvira nos cuenta que él mismo llega gafas desde los 14 años. Sin ellas vería solo veo manchas de luz. Ésta es un conjunto de diversas ondas electromagnéticas, que avanzan alrededor de líneas rectas, de 'rayos'.

En el cristalino del ojo, esos rayos que vienen de un objeto cambian su dirección, para llegar coordinadamente a la retina, donde generan corrientes eléctricas que el cerebro interpreta como imágenes de los objetos.

En muchas personas, el cristalino no consigue que las corrientes eléctricas se generen en un número pequeño de células retinales, y la imagen es gruesa, borrosa.

Los vidrios de las gafas cambian la velocidad de la luz y, con ello, las direcciones de los rayos que llegan al cristalino, de manera que las imágenes de los nuevos rayos que salen de éste ahora si son nítidas.

Fuente:

El Mundo Ciencia

19 de marzo de 2013

Sorprendente. Un perro se convierte en guía de otro ciego


Milo y Eddie

El terrier Milo está unido a Eddie, el labrador ciego, a través de un collar.

No hay nada raro en ver perros guías. Sin embargo, el caso de Milo, un terrier, ha llamado la atención porque no sólo se convirtió en guía de otro can, el labrador Eddie, sino que además lo hizo de manera espontánea, sin recibir entrenamiento.

Eddie comenzó a presentar los primeros síntomas de ceguera en 2012.

La dueña de ambos perros, Angie Baker-Stedham, se dio cuenta de que su labrador negro tropezaba con los objetos y en poco tiempo se quedo ciego.
"Todo pasó muy rápido y era triste porque antes, ellos (los dos perros) solían jugar juntos", recuerda.
Pero el terrier Milo que era muy cercano a Eddie empezó a guiar al labrador.

Su dueña se dio cuenta y colocó al pequeño terrier blanco cascabeles en el collar para que su amigo Eddie pudiera seguirlo.

Y si el labrador de aleja, Milo va a buscarlo.

"Sin Milo, Eddie estaría perdido"

"Ahora Milo me ayuda a buscar a Eddie cuando le llamo. Él lo trae donde estoy", afirma la dueña.
Según Baker-Stedham, los perros duermen en el mismo cuarto y pasan todo el tiempo juntos. "Sin Milo, Eddie estaría perdido", asegura.

Pero cuando más quedó patente la importancia de Milo en la vida de Eddie fue en el momento en el que el terrier tuvo que ser ingresado para tratarse de una anemia.

Milo volvió a casa y está curado pero mientras estaba en el hospital, Eddie tuvo muchas dificultades para moverse.

"No eramos conscientes de la manera de la que Eddie dependía de Milo para andar por casa", sostiene la dueña al recordar cómo cuando no estaba su compañero Eddie se chocaba con las puertas y los muebles.

"Lo tenía que llamar constantemente cuando lo llevaba a pasear para que viniese donde estaba".
Fuente:
BBC Ciencia

18 de marzo de 2013

Surgen nuevas teorías en torno a la extinción de los neandertales

Neandertales

El cerebro del neandertal estaba consagrado a la visión y el movimiento, lo que afectaba el pensamiento de alto nivel. 

Una nueva investigación sugiere que los neandertales tenían una visión más aguda y cuerpos más grandes que sus primos humanos de la temprana modernidad, lo que los pudo haber llevado a su extinción. 

Un análisis de datos de fósiles, publicado en la revista académica Proceedings of the Royal Society B, indica que grandes áreas del cerebro del neandertal estaban consagradas a la visión y el movimiento, lo que dejaba menos espacio para el pensamiento de alto nivel, necesario para formar grandes grupos sociales.
Los investigadores dicen que vivir en pequeños grupos sociales significaría menos amigos para venir al rescate en momentos de necesidad.

También sugiere que podrían haber tenido redes de intercambio más pequeñas, lo cual habría dejado a los grupos de neandertales más expuestos ante los cambios ambientales que los humanos modernos.

Se cree que los neandertales vivieron lado a lado con los primeros humanos modernos durante decenas de miles de años, pero desaparecieron como especie hace alrededor de treinta mil años.
Fuente:
BBC Ciencia

13 de marzo de 2013

5 datos sobre el glaucoma



Con la intención de prevenir e informar sobre esta enfermedad, el 12 de marzo se celebró el Día Mundial del Glaucoma. Seguro que has escuchado alguna vez hablar de esta afección pero, ¿sabes en qué consiste? ¿Existe tratamiento? ¿A cuántas personas afecta?

1. El glaucoma es una enfermedad neurodegenerativa que afecta al nervio óptico y, además, tiene carácter irreversible. El daño se suele producir por un aumento en la presión intraocular. El deterioro progresivo de las fibras del nervio disminuye el campo visual y, en los casos más graves, puede conducir a la ceguera. De hecho, el glaucoma se considera la segunda causa de ceguera en el mundo.

2. El glaucoma es una enfermedad que no da síntomas hasta encontrarse en las fases más avanzadas. Debido a ello, la mitad de los casos se encuentran sin diagnosticar. Los expertos estiman que en España el glaucoma afecta a más de medio millón de ciudadanos, y a 60 millones en todo el mundo.

3. La tonometría de no contacto es una prueba que consiste en medir la presión intraocular y sirve para detectar posibles casos de la enfermedad. No duele y se realiza en menos de un minuto.

4. Aunque el glaucoma es una enfermedad crónica, existe tratamiento para frenar su avance, por lo que el diagnóstico precoz es importante, especialmente en aquellas personas con alto riesgo: diabéticos, afectados de miopía severa, mayores de 50 años y personas con antecedentes familiares.

5. La mayor incidencia de la enfermedad se produce a partir de los 40 años y afecta a un 2,1 por ciento de las personas entre 50 y 59 años, a un 2,3 por ciento entre 60 y 69 y al 3,5 por ciento de mayores de 70 años.


Fuente:

Muy Interesante

11 de marzo de 2013

Ejército israelí se equipa con el Eyeball: El dispositivo que 'lo ve todo'


El Ejército israelí ha dotado a todas sus brigadas de combate con un dispositivo denominado Eyeball. Se trata de una pequeña bola negra con cámaras, especialmente diseñada para la guerra urbana y las unidades especiales de lucha antiterrorista. Esta ‘bola con ojos’ se ha convertido en una de las innovaciones más usadas por las fuerzas israelíes de infantería.

"El Eyeball está en servicio con las unidades que cumplen misiones en zonas urbanas", aclaró a la agencia Efe el mayor Ilia Shir, a cargo del proyecto en la Brigada Tecnológica de la Comandancia del Ejército de Tierra.

Cuenta con dos ‘pequeños ojos’ en su superficie que ofrecen visión diurna y nocturna, micrófono, sensores térmicos y otros medidores adaptables a las necesidades de cada unidad. Pesa tan solo 250 gramos por lo que el Ejército israelí puede lanzar la bola desde la calle y conseguir que esta rompa los cristales de una ventana para observar lo que hay dentro de un edificio. Además, es de bajo coste y desechable.



Lea el artículo completo en:

Actualidad RT

28 de febrero de 2013

Los videos en 3D: Una tecnología moribunda

3DF

Todo tiene un ciclo de vida. Las moscas viven 20 días, los elefantes 50 años, los árboles ahuehuete más de 500 años, las estrellas miles de millones de años. Las tecnologías, de la misma manera, tienen su ciclo de vida: A veces corto y a veces ridículamente efímero. El cine de 35mm a color nació en 1952 y hasta ahora, como tecnología, está muriendo para dar paso al cine digital.

Los ciclos de vida tecnológicos cada día se vuelven más cortos. Por ejemplo, el CD acaba de cumplir 30 años mientras que el DVD no ha cumplido ni 20 y ya está prácticamente obsoleto.

Algunas distribuidoras de cine, especialmente en Hollywood, están muy conscientes de estos procesos y su aceleración. Mientras que las salas de cine se han actualizado poco en los últimos 100 años, el entretenimiento casero ha tenido múltiples saltos cualitativos. Algunos argumentarán en favor del cine mencionando la transición del sonido óptico al magnético, la llegada del Dolby 5.1, el THX, la evolución de la calidad del grano de la película en la década de los 60, etc. Pero el avance no puede equipararse con el masivo desarrollo que ha ocurrido para el entretenimiento en casa, especialmente en las últimas dos décadas.

La llegada del home theater de 5.1 y posteriormente de 7.1 canales, acercaron como nunca la experiencia del cine al hogar. La tecnología HD y el Blu-Ray terminaron con este proceso, dejándonos con una calidad y experiencia ya muy cercanas a la pantalla grande.

La competencia impulsa el progreso y eso lo tienen bien claro cineastas como James Cameron, quienes vieron cómo las nuevas tecnologías de entretenimiento en casa iban arrasando la taquilla cinematográfica y concentraron su interés en la nitidez. Si puedes darte una vuelta a una sala cinematográfica trasnochada, con proyector de filme de 35 mm analógico, podrás notar mucha menor nitidez, casi como comparar un VHS y un DVD, en especial por el subtitulaje que se realiza para los rollos de película de 35mm aún por contacto, dejando un resultado borroso; podrás ver las “marcas de cigarro” en cada cambio de rollo, los arañazos por manejo de la película, etc. ¿Cómo puede competir esa calidad con una buena pantalla full HD alimentada con la información de un Blu-Ray? Simplemente, en cuanto a nitidez se refiere, no puede. ¿Cómo “obligas” a los exhibidores a actualizar su tecnología antes de que sea demasiado tarde? La respuesta: 3D.

Síganme la corriente un rato y verán que tiene sentido. 3D no es algo nuevo. La estereoscopía (sí, así se llama correctamente al 3D) está con nosotros desde hace millones de años. Un felino mira fijamente a su presa con ambos ojos. Su cerebro, por medio de la estereopsis, calcula la distancia exacta a la que está la víctima.

La mayoría de los animales herbívoros tienen los ojos en ambos lados de la cabeza para tener una visión panorámica y sobrevivir como presas. En cambio en los animales de caza, los ojos suelen estar acomodados al frente, permitiendo que buena parte del campo visual de ambos ojos haga convergencia, y de ahí estereopsis. Estereopsis es el proceso que hace el cerebro en comparar las imágenes de ambos ojos y de ahí deducir la profundidad.

Desgraciadamente en el humano se calcula que hasta un 10% de la población tiene problemas para hacer esptereopsis, ya sea por ojo vago, estrabismo u otras causas. Esto excluye por completo a esta población de la experiencia 3D.

La estereoscopía es un invento antiguo

Cuando digo que la estereoscopía es algo muy viejo, no lo digo sólo en la naturaleza, lo digo también en la tecnología; en un cajón tengo guardado un daguerrotipo estereoscópico de hace poco menos de 100 años. Básicamente son dos imágenes fotográficas sobre metal que a cierta distancia de los ojos pueden producir la ilusión de tridimensionalidad. Y es que engañar el cerebro a partir de dos imágenes ligeramente diferentes es un invento que está con nosotros desde 1833. Para 1890 ya existía una patente para cine estereoscópico, por William Friese-Greene, pero no se aplicó la técnica por su complejidad. Luego existieron otros intentos y en 1915 llegó el 3D anaglifo. En el anaglifo filtros de colores ayudan a formar la estereopsis. Básicamente es el mismo principio que el 3D del cine actual pero con filtros de colores en vez de polarizados. Esta técnica se volvió popular en la década de los 60 y todavía en los 80 podía ir uno al cine a marearse con los lentes anaglifo. En la misma década de 1960 apareció una interesante propuesta que llevó al cine a un nuevo nivel de nitidez y con una experiencia más envolvente: el IMAX, con un aproximado de 4 veces más resolución y mucha más luminosidad.

El asunto del IMAX es que tanto el costo para construir las salas como el costo para filmar en este formato lo han limitado principalmente a la factura de cortometrajes y a escasos puntos de exhibición, muchos de ellos con regulaciones que han sido ablandadas, en detrimento de la calidad de la experiencia IMAX, pero esa es otra historia.

Para 1986 ya teníamos el IMAX 3D. Para proyectar en las salas se usan filtros polarizados. Cuando aparece una imagen del proyector izquierdo, el polarizado del lente izquierdo de los anteojos coincide con el polarizado del proyector derecho, anulando la imagen derecha, haciéndonos ver sólo la izquierda. Y viceversa con el otro ojo.

Si se fijan, son los mismos lentes polarizados que usas cuando vas al cine, por tanto la tecnología es vieja. En 1994 tuve el gusto de ver uno de los primeros cortometrajes en 3D, The Last Buffalo, exhibido en Galveston, y como buen cortometraje IMAX 3D, fue una experiencia increíble.
 
Lea el artículo completo en:

FayerWayer

15 de febrero de 2013

Una nueva metodología acerca la percepción visual digital a la humana

Un equipo de la Universidad Pompeu Fabra (UPF) ha ideado un método “preciso, eficiente y robusto” –según sus creadores– para calcular un mapa de profundidad relativa a partir de una secuencia de imágenes o de vídeo capturada por una sola cámara.

La percepción en profundidad es una habilidad biológica inherente a los animales superiores. Gracias a esta capacidad podemos percibir el mundo en tres dimensiones y medir con precisión la distancia que hay entre dos objetos situados más cerca o más lejos cuando los observamos.

Una-nueva-metodologia-acerca-la-percepcion-visual-digital-a-la-humana_image365_ 

Ahora, una nueva tecnología ha sido desarrollada y los propietarios intelectuales del método son Felipe Calderero  y Vicent Caselles, investigador y director, respectivamente, del Grupo de Investigación en Procesamiento de Imagen (GPI) del Departamento de Tecnologías de la Información y las comunicaciones ( DTIC ) de la UPF. A finales de 2012, se ha presentado la patente europea.
 
La metodología, que se aplica a la visión por ordenador, se basa en un modelo matemático que codifica de una manera cuantitativa las señales de percepción de profundidad a diferentes escalas, como la convexidad-concavidad, la inclusión, y las intersecciones de contornos en forma de T (T-junctions). El resultado es una interpretación consistente con la percepción que lleva a cabo el sistema visual humano.

Captar la profundidad en una escena

La relación de profundidad entre los objetos de una escena, que se suele inferir a partir de una imagen o de un vídeo captado a través de una única cámara, es relativa. Es decir, permite establecer un orden en profundidad de los objetos presentes en un determinado escenario pero no el valor exacto de esta profundidad.

Esto significa que sólo se puede concluir que un objeto está más cerca, más lejos o la misma profundidad a la cámara, pero no la posición de profundidad absoluta.

Según Calderero, “en el contexto de la visión por ordenador, el problema de la estimación de profundidad monocular –a partir de una única vista– es un problema fundamental debido al impacto que la información de profundidad relativa de la escena tendría en aplicaciones de procesamiento de imagen de alto nivel, o de carácter semántico, orientadas a la comprensión de la escena”.

La importancia de esta herramienta es que permite mejorar en precisión y calidad muchas aplicaciones de procesamiento de imágenes sin comprometer su rendimiento, es decir, sin aumentar significativamente la carga computacional y el tiempo de cálculo.

Las aplicaciones, por tanto, son muy amplias. Por ejemplo, se puede usar en los ámbitos de los medios de comunicación, el entretenimiento, la seguridad, las telecomunicaciones, la detección y reconocimiento de objetos, la conversión de contenido de vídeo de 2D a 3D o en la edición de vídeo, por ejemplo.


Fuente:

Solo Ciencia

27 de diciembre de 2012

Cuando parpadeamos el cerebro "descansa"


ojo-alzheimerUn ser humano pestañea de 15 a 20 veces por minuto. Los expertos siempre han creído que estos parpadeos espontáneos, que se producen cada pocos segundos, tenían como objetivo únicamente lubricar la córnea y evitar que se reseque. Sin embargo, la velocidad es mayor que la necesaria para la lubricación ocular, según un estudio que publica la revista PNAS y del que se hace eco la agencia SINC.

Para averiguar las causas, Tamami Nakano y sus colegas de la Universidad de Osaka (Japón), autores de la investigación,  examinaron la actividad cerebral relacionada con el parpadeo espontáneo mientras los participantes veían vídeos grabados de la serie británica ‘Mr. Bean’, usando imágenes de resonancia magnética funcional. Durante el experimento, los participantes pestañearon espontáneamente una media de 17,4 veces por minuto (desde 3,1 a 51,0) frente a la pantalla, sobre todo en los momentos de interrupción de la trama.

Según los autores, de los resultados se deduce que el parpadeo espontáneo ayuda a liberar activamente la atención. Y que desempeña un papel fundamental en el equilibrio entre dos grandes redes cerebrales que sustentan anatómicamente la atención y que compiten entre sí: la red dorsal y la red neuronal por defecto. “Observamos que, al visualizar vídeos, justo después del parpadeo la actividad cortical disminuía momentáneamente en la red dorsal”, apunta Nakano. Sin embargo, la actividad aumentaba en la red neuronal por defecto, que es la que permanece activa cuando el cerebro está en reposo despierto, es decir, cuando el individuo no atiende al mundo exterior, sino que está concentrado en sus procesos internos.


Fuente:

Muy Interesante

26 de diciembre de 2012

Cómo organiza el cerebro lo que vemos

Investigadores de la Universidad de Berkeley han encontrado la manera en que nuestro cerebro organiza y categoriza todos los objetos y acciones que vemos en nuestra vida diaria, creando el primer mapa interactivo que ilustra el proceso.



El resultado, bautizado como “espacio continuo semántico“, se consiguió grabando la actividad cerebral de cinco investigadores (mediante la técnica fMRI, imágenes generadas por resonancia magnética funcional) mientras veían dos horas de secuencias de vídeo. A continuación hicieron un análisis de las imágenes para construir un modelo para mostrar cómo cada una de las aproximadamente 30.000 localizaciones en el córtex respondía a cada una de las 1.700 categorías de objetos y acciones que aparecían en los vídeos. Después, aplicaron otro análisis estadístico para encontrar el “espacio semántico” común a todos los sujetos del estudio.

Modelo interactivo del cerebro representando el espacio semántico con colores


Para visualizar los resultados del estudio han creado una impresionante aplicación web (se recomienda usar Google Chrome, ya que utiliza WebGL) que permite explorar con detalle dicho espacio semántico.

Tomado de:

Naukas

13 de diciembre de 2012

La ilusión de las caras grotescas

Antes de explicar de qué estamos hablando, hagamos una prueba. Coloca tu mirada en el puntero central y observa qué ocurre:



Como habrás comprobado, las caras de los personajes famosos que ves en cada fotograma parecen distorsionarse hasta convertirse en caricaturas, pero ninguna de las fotos ha sido manipulada. Este efecto visual, bautizado como "ilusión de las caras grotescas" fue descrito en 2011 en la revista Perception. El grado de distorsión, aseguran los investigadores, es mayor para aquellas caras que tienen un rasgo muy marcado, como una frente o una nariz más grandes que la media.Vía: @RichardWiseman

* Actualización y explicación: Por fin he tenido acceso al estudio y, con la ayuda de mi buen amigo el neurocientífico Luis Martínez Otero, trato de resumiros cómo se produce el efecto. Hay dos factores importantes para que se produzca: que las caras pasen a un ritmo rápido y que las veamos por visión periférica. De hecho, si se reproduce la secuencia a un ritmo más lento el efecto se suaviza, y si se introduce un fotograma negro entre parejas de caras, el efecto desaparece.

Pero vamos al grano: ¿por qué sucede esto? Por la forma que tiene nuestro cerebro de interpretar la realidad haciendo comparaciones. En otras ilusiones visuales hemos visto que un tono de azul puede parecer verde si se coloca en determinado contexto lumínico o visual. De la misma forma, al ver pasar cada pareja, nuestro cerebro lo compara inmediatamente con el rostro que acaba de pasar, y los rasgos más diferenciados se potencian. "Así, si acabamos de ver una cara con ojos pequeños y la siguiente los tiene grandes, estos parecerán inmediatamente saltones", me explica Martínez Otero. El hecho de verlo por el "rabillo del ojo" magnifica el efecto y da como resultado esa sensación de estar viendo caricaturas. Una vez más, comprobamos que la percepción es un juego de espejos en el que el cerebro reconstruye la realidad usando los atajos que suelen funcionarle. Y estos pequeños efectos nos permiten atisbar el mecanismo.

Si os quedáis con ganas de más, os recomiendo echar un ojo al vídeo que hicimos con la ayuda de Luis hace un tiempo: Diez ilusiones visuales explicadas y una sin explicación.
Fuente:

Fogonazos

10 de noviembre de 2012

¿Por qué los ojos se ponen amarillos?

Por-qué-los-ojos-se-ponen-amarillos-1.jpg

¿Has notado que en algunas personas la esclerótica, (la parte blanca de los ojos), toma un color amarillento? Seguramente has visto a alguien con esta peculiaridad al menos una vez o incluso, quizás a ti te pasa. ¿Sabes por qué ocurre? ¿Por qué a algunas personas se les pone amarilla la parte blanca del ojo?

Si no lo sabes, por tu propio bien te conviene estar al tanto, y si no, repasa un poco de todas formas. Hoy voy a hablarte, a grandes rasgos, sobre algunas de las causas que pueden provocar el color amarillo en la esclerótica de las personas y sobre el proceso de la condición médica conocida como ictericia.

Los ojos amarillos como indicadores de salud

Seguramente alguna vez has visto a alguien con escleróticas amarillas, ya sea a un anciano, a alguien en la televisión o en una fotografía. Los fumadores, por ejemplo, suelen tener la esclerótica amarilla cuando envejecen, pero lo más común es que ocurra como resultado de una enfermedad o una insuficiencia hepática en la persona, no se trata de algo normal y en muchas ocasiones puede estar indicando un problema riesgoso.

Posiblemente se trata de un problema en el funcionamiento del hígado, cuando la parte blanca de los ojos queda amarilla se le llama ictericia y entre otros tantos males, puede estar advirtiendo de enfermedades como la hepatitis o la cirrosis.

Por-qué-los-ojos-se-ponen-amarillos.jpg

La ictericia, explicación científica

En medicina, se le llama ictericia no sólo al color amarillento que toma la parte blanca del ojo en determinadas circunstancias, sino también al de la piel y las mucosas. Este color amarillo proviene de un pigmento biliar (la biomolécula de bilirrubina) del mismo color, que surge del degradado de la hemoglobina y que se acumula en los tejidos del organismo como un subproducto de los glóbulos rojos más viejos.

En pocas palabras, la bilirrubina aparece como algo natural, es el resultado natural de la necesaria descomposición de los glóbulos rojos que, ya envejecidos, no sirven y mueren para reemplazarse por otros nuevos. Estos glóbulos, inútiles, se filtran por el hígado y luego se excretan por el tracto digestivo en forma de bilis.

Pero cuando hay problemas con la descomposición de dichos glóbulos o de alguna manera el hígado corre algún tipo de riesgo, toda esa bilirrubina comienza acumularse en los tejidos, dejando ese característico y desagradable color amarillento. Entonces, la ictericia en sí no es algo que se trate o que se busque solucionar, sino la consecuencia de otro problema.

Por-qué-los-ojos-se-ponen-amarillos-2.jpg

Es más bien una alarma que advierte sobre problemas en el hígado, en la vesícula biliar o en el páncreas. También advierte de una infección, del consumo de determinadas drogas, cáncer, trastornos sanguíneos, cálculos y defectos de nacimiento, entre otras cosas.

En fin, la ictericia aparece como un exceso de bilirrubina cuando demasiados glóbulos rojos de la sangre mueren, cuando el hígado está dañado o sobrecargado o cuando la bilirrubina no logra moverse adecuadamente dentro del tracto digestivo. Todo eso, a su vez, es lo que determina que los ojos se pongan amarillos, así como muchas otras partes del cuerpo.

Es realmente interesante, ¿no lo crees? El cuerpo humano y su tan complejo y completo funcionamiento nunca deja de sorprendernos, tanto es así que un problema en el hígado, por ejemplo, puede estar determinando el color de la esclerótica de los ojos. ¿Tú que opinas?

Fuente:

7 de noviembre de 2012

Ciegos de nacimiento aprenden a ‘leer’ con sonidos

Un equipo de científicos muestra vídeos de personas invidentes identificando expresiones faciales y fachadas de casas gracias a complejas señales de audio.


El aparato se llama vOICe y no es casual que las tres letras intermedias se escriban en mayúsculas. En inglés, voice es voz, pero OIC se lee como “OH! I see!” (¡oh! ¡veo!). Y el dispositivo se llama así porque transforma las imágenes en complejas señales de audio, permitiendo así que las personas ciegas vean por los oídos, igual que ven por los dedos cuando leen braille.

El sistema, que consiste en una minicámara situada en la frente y acoplada a un ordenador que emite los sonidos por unos auriculares, lleva en pruebas desde 1992, cuando el investigador holandés Peter Meijer lo presentó en sociedad. Ahora, científicos de Francia e Israel presentan pruebas de que el aparato puede servir para que ciegos de nacimiento aprendan a leer con sonidos. Sus resultados se publican hoy en la revista Neuron, referencia para los neurocientíficos de todo el mundo.

El estudio asegura que algunas áreas del cerebro de personas ciegas de nacimiento pueden aprender a procesar información visual a través de los sonidos. Sus conclusiones navegan a contracorriente en el mundo de la intuición, que sugiere que la corteza visual del cerebro se atrofia sin dos ojos que le aporten información. “El cerebro adulto es más flexible de lo que pensábamos”, afirma en un comunicado uno de los autores principales, Amir Amedi, de la Escuela de Medicina de la Universidad Hebrea de Jerusalén (Israel).

Amedi y sus colegas han enseñado a ocho ciegos de nacimiento a emplear uno de estos aparatos para aprender a leer con sonidos que representan la imagen visual de las letras. Según los autores, esta habilidad implica a una región del suelo del cerebro llamada Área de la Formación Visual de las Palabras, que supuestamente se activa al leer en las personas con el sentido de la vista intacto. Tras unas 70 horas de entrenamiento, afirman, esta región del cerebro también se activó en personas ciegas al leer con sonidos.

Una máquina de ejecutar tareas

Para Amedi y los suyos, estos resultados sugieren que el Área de la Formación Visual de las Palabras es sensible al tipo de información que le llega, y no al camino por el que llega la información (ojos u oídos). El cerebro sería entonces una máquina de ejecutar tareas y no tanto una máquina sensorial.

Los invidentes también fueron capaces de distinguir expresiones faciales, fachadas de casas y partes del cuerpo gracias a los sonidos transmitidos por el dispositivo. Los creadores del aparato llaman “paisajes sonoros” a estos sonidos, aunque son más bien molestos chirridos.

De confirmarse esta inverosímil plasticidad cerebral, las implicaciones son importantes, según Amedi. “Los dispositivos de sustitución sensorial [como el vOICe] pueden ayudar a los ciegos o a las personas con discapacidad visual a aprender a procesar imágenes complejas, como se ha hecho en este estudio, o pueden usarse como intérpretes sensoriales que proporcionen información en alta resolución de apoyo a una señal visual simultánea procedente de un dispositivo externo”, vaticina el profesor.

Ya en 2003, la BBC informaba del caso de Michelle Thomas, una mujer ciega de nacimiento que reconocía las paredes y las puertas de su casa e incluso distinguía “un CD de un disquete” gracias al dispositivo vOICe. “Está viendo con sonido”, afirmaba la BBC. Sin embargo, una década después, estos aparatos siguen básicamente arrinconados en los laboratorios.

Fuente:

18 de septiembre de 2012

7 consejos para leer en ebook sin dañar la vista

libro-electronicoLas editoriales aseguran que uno de los regalos estrella de estas navidades serán los lectores de libros electrónicos o e-books. Pero ¿puede ser dañino para la vista la utilización de estos lectores? Los nuevos terminales de lectura digital tienen pantallas de tinta electrónica (e-ink), que no emiten luz, por lo que son más suaves para la vista, prometiendo ser “de fácil lectura para nuestros ojos” e incluso aseguran que son de “igual apariencia y capacidad de lectura” que la de un libro convencional.

Según Anabel Ríos, Responsable de Desarrollo de Producto de Multiópticas, estos son los 7 consejos básicos a tener en cuenta para un uso saludable de los nuevos terminales.

1. No los use cuando se encuentre demasiado cansado
2. Utilice una iluminación uniforme evitando generar sombras y reflejos
3. Adecúe el tipo de letra para ver correctamente desde 30/45 cm de distancia
4. Evite la sequedad ocular mediante sencillos parpadeos
5. Realice pausas cada hora de relajación ocular
6. Gestione de forma inteligente su exposición global
7. No olvide realizar una revisión anual de su vista.

Fuente:

17 de septiembre de 2012

Los hombres ven distinto que las mujeres


Ojo

A la hora de distinguir tonalidades, si son demasiados parecidas, el ojo del hombre las verá como iguales.

Si usted llega a su casa recién salida de la peluquería, con un tono de pelirrojo que nunca antes se había atrevido a usar y su pareja la recibe con un: "¡Qué lindo te quedan esos pendientes nuevos!", en referencia a unos aretes diminutos que le regaló su prima y que sólo se los puso por no dejar, recapacite antes de mirarlo con odio y pegarle un par de gritos.

No se trata -en este caso al menos- de falta de interés, atención y mucho menos de cariño. 
 
Según un estudio llevado a cabo por investigadores en Estados Unidos, los ojos de los hombres son más sensibles a los pequeños detalles y a los objetos que se mueven a gran velocidad, mientras que las mujeres son mejores a la hora de distinguir colores.
Isaac Abramov, profesor de Psicología del Brooklyn College, realizó dos estudios en paralelo para determinar estas diferencias.

En uno de ellos, les presentó a los participantes una muestra de un color determinado y les pidió que lo describieran empleando una serie de términos específicos.

Así, Abramov y su equipo descubrieron que los hombres describían el color que tenían en frente en otros términos, en comparación con las mujeres.

"Ambos ven el azul como azul, pero qué porcentaje de rojo ven en el color difiere si el individuo es hombre o mujer", le dijo Abramov a BBC Mundo.

De ahí se explica por qué las mujeres son mejores cuando se trata de combinar colores o de buscar tonos similares entre sí.

Y aunque suene a broma, si lo que le hace falta en la casa son unos almohadones que hagan juego con el tapizado del sofá, una mujer tiene más posibilidades de llevar a cabo la tarea con éxito que un hombre.

Un punto en el horizonte

Aviones

Las mujeres detectan más tarde que los hombes cuando un avión ingresa a lo lejos en el horizonte.

El otro estudio se concentró en cómo cada género percibe los detalles y las imágenes cambiantes.

Los hombres detectan los detalles, por mínimos que sean con más facilidad.

"Por ejemplo, si un avión ingresa en nuestro campo visual, como un punto ínfimo en el horizonte, el hombre lo notará primero que la mujer", explica el investigador.

"O si una persona tiene tendencia a volverse miope con el tiempo, si es hombre, tardará más hasta que necesite usar lentes".

50 y 50

¿Por qué estas diferencias?

Las hipótesis son varias y todas son dan lugar a debate, dice Abramov.

"Una explicación posible es que en el cerebro se encuentran receptores de la hormona masculina, la testosterona. Y la mayor concentración de esta hormona está en la parte superior del cerebro -la corteza cerebral- que es la principal zona visual", señala.
"Si un avión ingresa en nuestro campo visual, como un punto ínfimo en el horizonte, el hombre lo notará primero que la mujer"
Israel Abramov, líder del equipo de investigadores

"¿Por qué esta región del cerebro es tan sensible a la testosterona, también es una cuestión de especulación", agrega.

Otra teoría está relacionada con la evolución. Los hombres, en su rol de cazadores, evolucionaron las facultades que les permiten divisar a la distancia una presa o un animal que representa una amenaza con mayor precisión, mientras que las mujeres perfeccionaron sus capacidades para mejorar su desempeño como recolectoras.

Abramov deja en claro que todas estas diferencias son leves y que afectan el aparato visual en su nivel más primario.

Sin embargo, al ser una diferencia biológica, no es posible entrenar al ojo para "mejorar" en lo que hace peor.

No obstante, esto no afecta la percepción -al menos en lo que se sabe hasta el momento- ya que ésta se nutre de muchos otros factores, como la educación, la memoria o el interés.

El científico resalta que una de las lecciones más importantes -en un sentido práctico- de su investigación, es "que cualquier estudio basado en la biología debe incluir entre sus sujetos a un número significativo de hombres y de mujeres, porque si no corres el riesgo de que tus resultados sean parciales en favor de un género o del otro".

Fuente:

BBC Ciencia 


Contenido relacionado



31 de agosto de 2012

Los cinco sentidos de las plantas

Venus atrapamoscas

La sensibilidad táctll de la Venus atrapamoscas es comparable a la sensación causada por un insecto que camina por un brazo humano.

No tienen ojos, narices, ni oídos, pero dependen de sus sentidos, en formas que la ciencia sólo ahora está comenzando a comprender. 
 
"Las plantas pueden parecen inertes, pero viven en un mundo muy sensorial", dijo a BBC Mundo Daniel Chamotivz, director del Centro Manna para la Biociencia de la Plantas en la Universidad de Tel Aviv.
Chamovitz es el autor del libro "Lo que una planta sabe", en el que el científico reúne investigaciones que revelan un mundo desconocido para muchos.

"La mayoría de la gente se sorprende al saber que las plantas pueden diferenciar entre el rojo y el azul o responden al tacto", dijo Chamovitz.

¿Puede decirse que las plantas tienen cinco sentidos como los seres humanos?

"Responden a sustancias químicas en el aire, a señales de luz. Sí podemos decir que ven, huelen y responden al tacto, siempre que recordemos que al usar esos términos no estamos diciendo que experimentan el mundo de la misma forma que una persona".

Luz y tacto

Chamovitz señala que así como los seres humanos tienen fotorreceptores en sus ojos que permiten ver, las plantas tienen sus propios fotoreceptores en hojas y tallos.

Maíz

Las raíces de maíz crecen en dirección a vibraciones de frecuencias específicas, según científicos en Italia.

Estos receptores les permiten distinguir entre rojo y azul e incluso diferenciar longitudes de onda que nosotros no tenemos la capacidad de distinguir.

"Hay un tipo de fotorreceptor que compartimos. Durante el día, los criptocromos en las células diferencian la luz azul y ultravioleta, usando esta señal para marcar el reloj interno y el ritmo circadiano. En las plantas, este reloj regula muchos procesos, como los movimientos de las hojas y la fotosíntesis".

Las plantas también habitan un mundo táctil, respondiendo por ejemplo al frío y al calor moderando su uso de agua o su ritmo de crecimiento.

La sensibilidad táctil es evidente en la planta carnívora conocida como Venus atrapamoscas, Dionaea muscipula, que no se cierra ante cualquier estímulo.

"Deben ocurrir al menos dos contactos con los pelos en el interior de la trampa separados por unos 20 segundos. Esto ayuda a asegurar que la presa es del tamaño ideal y no se escapará".

Chamovitz señala que "el mecanismo por el que la Venus atrapamoscas siente a su presa es similar al que me permite sentir un insecto que sube por mi brazo. En el caso de las personas, receptores de tacto en la piel activan una corriente eléctrica que pasa por los nervios hasta llegar al cerebro que instiga una respuesta. En el caso de la planta, el contacto induce una corriente que se irradia por las hojas, lo que a su vez activa canales de iones en la membrana de las células haciendo que la trampa se cierre, todo en menos de una décima de segundo".

Vibraciones

Bosque de robles

Investigadores en Suiza grabaron las vibraciones que emanaban de robles durante una sequía.

Las plantas también pueden detectar sonidos.

Investigadores del Instituto de Ciencias Botánicas en Berna, Suiza, grabaron recientemente vibraciones ultrasónicas que emanaban de pinos y robles durante una sequía, tal vez alertando a otros árboles a prepararse para condiciones de escasez de agua, señaló Chamovitz.

Y Stefano Mancuso, del Laboratorio Internacional de Neurobiología de las Plantas en la Universidad de Florencia, Italia, y sus colegas, están comenzado a aplicar estándares rigurosos al estudio de la audición en estos organismos (Trends in Plant Sciences, vol. 17, p. 323).

"Sus resultados preliminares indican que las raíces de maíz crecen en dirección a vibraciones de frecuencias específicas. Y es más sorprendente aún su constatación de que las raíces mismas también podrían estar emitiendo ondas de sonido".

El científico también señala que, al igual que nuestras lenguas contienen receptores para distintas moléculas en alimentos, las plantas tienen receptores para moléculas solubles. Y cita el caso de una planta parásita, la cuscuta, que casi no contiene clorofila y huele a sus potenciales victimas.

Primas lejanas

Para Chamovitz, "cuando miramos a una planta debemos verla como una vieja prima lejana. Hace dos mil millones de años las plantas y los humanos evolucionaron de las mismas células. Unas tomaron un camino y otras otro, pero la biología básica es la misma".
"Pensemos que las plantas están viendo luz, oliendo aromas, distinguen arriba y abajo, e integran toda esta información sin tener un cerebro. ¿Cómo lo hacen? Esta es una de las preguntas increíbles que debemos comprender"
Daniel Chamovitz, Centro Manna para la Biociencia de las Plantas

Entender en mayor profundidad el mundo sensorial de las plantas es además vital para nuestro propio futuro, según el investigador.

"Pensemos que las plantas están viendo luz, oliendo aromas, distinguen arriba y abajo e integran toda esta información sin tener un cerebro. ¿Cómo lo hacen? Esta es una de las preguntas increíbles que debemos comprender".

Hacerlo es fundamental, según el científico, ya que "toda nuestra vida depende de las plantas": respiramos el oxigeno liberado por las plantas, nos alimentamos de ellas, nos vestimos con productos obtenidos a partir de ellas, viajamos en vehículos que funcionan con combustibles de plantas fósiles y nos curamos con medicinas derivadas de plantas.

"Y con un mundo que en 2050 tendrá 9.000 millones de habitantes, con menos agua, fertilizante, tierra disponible, menos de todo, ¿cómo vamos a cultivar suficientes plantas para satisfacer nuestras necesidades si no entendemos cómo responden al ambiente que las rodea?".

Fuente:

BBC Ciencia

Contenido relacionado

30 de julio de 2012

Dime lo que miras y te diré qué dirás

Imagen

Los investigadores les presentaron a los voluntarios una serie de situaciones diversas en espacios cerrados.

El recorrido que hacen nuestros ojos cuando observamos una imagen permite predecir qué frases usaremos para describir lo que estamos viendo.

Esta es la conclusión a la que llegó un equipo de investigadores de la Universidad de Edimburgo, en Escocia, que analizó la correlación entre el discurso y el movimiento de los ojos, y descubrió que la forma en que describimos una imagen no es caprichosa sino que está directamente vinculada al recorrido visual que hacemos por la imagen antes de hablar. 
 
Este hallazgo resulta extremadamente útil para mejorar la interface de lo programas que funcionan con reconocimiento de voz y para otras clases de software para personas discapacitadas, muchas de las cuales sólo cuentan con el movimiento de sus ojos para expresarse.
Según explican los investigadores, el patrón que sigue la mirada permite anticipar qué objetos describiremos de una escena determinada, qué relación percibimos entre ellos y cómo ordenaremos las palabras (que siguen el orden de los sitios u objetos en los que hemos posado los ojos), así como la longitud de la frase.

"Notamos muchas diferencias entre la gente", le dijo a BBC Mundo Moreno Coco, uno de los científicos a cargo del estudio. Ante la misma imagen, "algunos hablaron durante mucho más tiempo que otros, describiendo varios objetos, mientras que otros usaron frases muy cortas, concentrándose sólo en uno o dos detalles".

La imagen y el movimiento de los ojos están ligados porque en principio necesitamos ver lo que vamos a describir. Lo que la investigación pone en evidencia es la correlación entre el discurso y "la forma en que hablamos con la mirada", comenta Coco.

Predicción versus generación

Imagen

A los voluntarios se les mostró una serie de imágenes como esta y se les pidió que describan lo que veían.

Para hacer el estudio los investigadores les presentaron a un grupo de voluntarios una serie de imágenes con escenas realistas en espacios interiores, como por ejemplo una sala de estar o la recepción de un hotel.

Después de ver estas postales, los participantes debían describir la escena tal y como la veían.

Por ejemplo, si los ojos de la persona se dirigían primero al hombre en la foto y luego a la silla, solían decir: "Hay un hombre parado al lado de la silla". O si sus ojos se posaban primero en la silla, luego en el hombre, más tarde en el mostrador y finalmente en un sofá, empezaban hablando describiendo la silla primero, y, como sus ojos se habían detenido a mirar más objetos, se demoraban más describiendo la imagen.

Tras registrar los patrones del movimiento ocular de los voluntarios y las descripciones que hicieron de las escenas, los científicos lograron identificar qué patrón correspondía a qué frase y predecir cuál frase emplearían después de seguir un patrón determinado.

"Demostramos que es posible reconocer la frase con sólo leer el movimiento de los ojos. Ahora, el paso siguiente es ver si podemos, a partir de un patrón de movimiento, generar una frase. Es decir, analizar un patrón de escaneo de una imagen y generar una oración sin contar con ninguna clave lingüística", señaló Coco.

El científico reconoce que sería interesante observar también si el recorrido visual varía según el género o la cultura del sujeto, pero aclara que el estudio no se concentró en estas variables.

De la teoría a la práctica

En el campo de la práctica las conclusiones de la investigación, como mencionamos al comienzo, podrían ayudar en el desarrollo de las aplicaciones para personas discapacitadas que sufren algún tipo de parálisis y no pueden hablar.

"Creo que esta clase de estudios puede servir para desarrollar interfaces para usuarios basadas en la información provista por el movimiento de los ojos. Si estás confinado en una cama puedes usar tus ojos para expresar lo que lo que quieres decir", dice Coco.

En opinión de Changsong Liu, un investigador de la Universidad del Estado de Michigan, en Estados Unidos, que no está vinculado a esta investigación, los resultados de este estudio pueden ser un aporte para el diseño de cualquier interface entre computadoras y personas que se basa en claves visuales para mejorar los programas de reconocimiento de voz.

Actualmente Coco y su equipo están investigando el papel de la coordinación visual y los procesos lingüísticos en un diálogo entre dos personas.

"Nuestro foco está puesto en cómo se coordinan los movimientos de los ojos entre dos individuos cuando están resolviendo juntos un mismo problema. Queremos descubrir la asociación exacta entre lo que están mirando y lo que están diciendo ".

"Lo que estamos tratando de identificar es si la coordinación de estos movimientos le permite al par realizar la tarea de forma más exitosa", explicó el investigador.

 Fuente:

BBC Ciencia


Contenido relacionado

25 de julio de 2012

La mirada atada al centro del consumidor

Productos en un estante

Según el estudio, el ojo se enfoca en el centro durante los últimos instantes de la mirada.

La creencia de que como consumidores gozamos de libre albedrío está muy extendida. Sin embargo, nuestra mirada podría no ser tan libre como pensamos.

Un estudio sobre cómo los consumidores seleccionan productos agrupados en filas concluyó que las personas tienden a estar atraídas por los artículos en el centro y que esa opción se toma inconscientemente. 

La investigación la realizaron conjuntamente científicos de Gran Bretaña, Francia y Canadá y fue publicada en la revista sobre investigación del consumo Journal of Consumer Research.

Utilizando técnicas que rastrean el movimiento de los ojos, los investigadores pudieron detectar que las personas se enfocan más en el centro de su campo visual, sobre todo en los últimos segundos del período de observación.

Este sesgo hacia el centro determina el producto que escogen y, como lo hacen sin darse cuenta, puede no ser la mejor opción. El estudio también hace un análisis de lo que esto implicaría para el mercado de productos y si le debería costar más al vendedor colocar su mercancía en el centro de la estantería.

Centro de atracción

Ojo

Los investigadores rastrearon el movimiento de la pupila de los voluntarios.

"Estábamos interesados en buscar efectos que tienen que ver con la atención y que ayudan a algunos productos a tener ventajas sobre otros en el punto de venta", le dijo a BBC Mundo Onur Bodur, profesor de la Universidad Concordia, en Canadá, y director del Centro Multidisciplinario de Estudios de Comportamiento (CMBBR, por sus siglas en inglés).

Con sus colegas de las escuelas de Administración de Empresas HEC, de París, y Aston Business School, de Gran Bretaña, los autores del estudio presentaron imágenes en una pantalla de una serie de productos ordenados de la misma manera que se pueden ver en los estantes de un almacén.

"Tratamos de neutralizar los atributos de los artículos que los pudieran destacar, como el color, tamaño, nombre del producto, precio, para que ninguno dominara", explicó el doctor Bodur.

Utilizaron un equipo que permite seguir el movimiento de la pupila con mucha exactitud una vez se calibra para cada voluntario. Registra el píxel de la pantalla en el cual se enfoca el ojo cada 20 milisegundos.

El ejercicio se repitió varias veces cambiando la distribución de los productos. Después de tomar los datos se les ordenó a los participantes ir a la estantería que estaban viendo por la pantalla y seleccionar un producto.

"Encontramos que el producto del centro tenía una ventaja en cuanto al tiempo en que se miraba y eso quedó también reflejado en la selección final del producto", señaló el investigador.

Comparado con las marcas a la izquierda y derecha, concluyeron que se puede incrementar la selección del producto que ocupa el centro en 18%. Este aumento es significativo en el mercado de productos que compiten entre ellos por una colocación óptima en las estanterías.

No obstante, el doctor Bodur reconoció que apenas están rasguñando la superficie y no está muy claro qué es lo que hace que el ojo se sienta atraído hacia el centro y que el individuo tienda a seleccionar de los objetos ubicados en ese mismo centro.

"Cascada de la mirada"

Onur Bodur

El doctor Bodur señaló que el estudio está apenas rasguñando la superficie.

El investigador indicó que estudios de orientación de lectura que explican cómo los anunciantes prefieren colocar sus avisos en internet a la izquierda de la pantalla porque, en las culturas que leen de izquierda a derecha, eso es lo primero que se ve.

También se ha investigado cómo la gente analiza su entorno de la manera más eficiente. "En las primeras etapas de la percepción, el centro es el punto más cercano", comentó Bodur.

Igualmente, hay quienes argumentan que este "sesgo de orientación" tiene que ver con aspectos de psicología social pues, al observar un grupo de personas, se supone que el líder ocupa el centro, lo que hace esa posición más poderosa y la que atrae mayor atención.

Sin embargo, los investigadores descartaron que esa inferencia social transferida al producto -y otros sesgos de orientación- expliquen por qué los consumidores escogen el artículo del centro.

"La única explicación que tenemos viene de los datos visuales que sugieren que la gente tiende, cada vez con mayor frecuencia, elegir en los últimos segundos de la mirada", manifestó Onur Bodur.

A eso se le llama el "efecto de cascada de la mirada". El individuo hace elige el artículo que prefiere -después de compararlo con los demás- en los últimos instantes de su mirada.

"El patrón que vemos es que esa comparación está cada vez más concentrada hacia el centro", dijo el académico a la BBC.

Consumidor vs. vendedor

Mucho se habla del libre albedrío y del poder del consumidor cuando se trata de la selección de un artículo, pero el doctor Onur afirma que las personas no son conscientes de que se concentran más en el centro.

El consumidor podría estar manipulado por los vendedores que tienen más medios e influencia para asegurar que su producto esté en el centro de un mostrador o una estantería y así influir en su decisión al momento de comprar.

"Tal vez los consumidores deberían ser alertados de esto antes de hacer la compra", sugiere Onur.

Desde el punto de vista de la oferta, en el creciente ambiente de ventas y anuncios por internet, los vendedores deberían reevaluar dónde colocan su publicidad. "La orientación de lectura diría que los productos a la izquierda reciben más atención pero nuestros estudios sugieren otra cosa".

Igualmente, en una búsqueda de Google, el profesor de la Universidad Concordia indica que los sitios pagan una prima al buscador de internet para que en los resultados aparezcan de primero en la pantalla.

"Eso contradice los resultados que hemos obtenido y me pregunto si están recibiendo la atención visual que se merecen", concluyó

Fuente:

BBC Ciencia


Contenido relacionado

13 de julio de 2012

Un software que convierte la mirada del ojo humano en un ratón de ordenador



Un nuevo avance está a punto de revolucionar la forma de interactuar de las personas con los ordenadores. Investigadores del Imperial College de Londres han desarrollado un sistema que permite interactuar con los monitores de ordenador a través de la mirada.


Esta nueva tecnología, que ha sido presentada este jueves en la publicación del Instituto de Física (IOP, por sus siglas en inglés), 'Journal of Neural Engineering', comprende un dispositivo de rastreo del movimiento de los ojos y un software inteligente en las computadoras que permite 'adivinar' el lugar donde las personas dirigen su mirada. Si el avance se consolida, permitiría a los usuarios controlar el cursor en los ordenadores sin necesidad de ratón, únicamente con su mirada.

Este invento puede suponer una ayuda importante a millones de personas con enfermedades que impiden su correcta movilidad. Personas con esclerosis múltiple, parkinson, distrofia muscular, lesiones medulares o miembros amputados, podrían interactuar con los ordenadores sin ningún tipo de problema.

Otra característica que lo convierte en una tecnología accesible es su bajo coste, apenas 60 euros. Es una tecnología simple, formada por dos videocámaras de apenas 25 euros cada una, unidas a un par de gafas de 5 euros. Las cámaras obtiene constantemente instantáneas de los ojos, captando el lugar donde se dirigen las pupilas y a partir de ahí los investigadores pueden calibrar donde está mirando la persona en la pantalla.

El desarrollo no se queda ahí. A través de tecnología 3D son capaces de saber la distancia a la que las personas está mirando. Este avance, podría permitir a discapacitados manejar sus sillas de ruedas simplemente mirando al lugar hacia donde quieran ir.

El Dr Aldo Faisal, profesor de Neurotecnología en el Imperial College considera que el invento consigue dos logros: "Contruir un sistema de rastreo de la mirada en 3D muy barato y una máquina que permite a las personas interactuar más facilmente que otras tecnologías invasivas mucho más caras".

Para demostrar la eficacia y funcionalidad de su trabajo, los investigadores han usado la tecnología con un grupo de seis personas, que han jugado a Pong, un clásico juego de ordenador, sin ningún tipo de mando.

La tecnología, que según el doctor Faisal podría comercializarse en dos o tres años, está concebida en principio para personas que sufren parálisis, pero no se descarta su uso para el público general.

"El objetivo prioritario de la investigación es que esta tecnología llegue a los enfermos que la necesitan para usar un ordenador, pero por supuesto podría usarlo cualquier que quisiera interactuar con una pantalla sin tener que usar las manos", asegura el científico.

La empresa española Indra ha desarrollado un producto similar, en el que se puede controlar el ratón con los movimientos de la cara y la cabeza gracias a una webcam. Se puede utilizar conjuntamente con un teclado virtual. Ambas aplicaciones, gratuitas, ya han tenido más de 340.000 descargas en todo el mundo.

Fuente:

11 de julio de 2012

¿Por qué el espejo invierte la imagen?


Eso. ¿Por qué mi imagen mueve la mano derecha cuando yo muevo la izquierda o me guiña el ojo izquierdo cuando yo guiño el derecho? ¿Por qué hace este giro?

Aunque pueda parecerlo, el espejo no gira nada. Si miramos el espejo de frente nuestra imagen no aparece boca abajo. Algo que sí hace si lo colocamos en el suelo y nos colocamos de pies junto a él.

Y esto es así porque el espejo no invierte las cosas de izquierda a derecha o de arriba a abajo dependiendo de su ubicación, invierte las cosas del frente hacia atrás. No rota nada, invierte una dirección.

Cuando nos colocamos ante un espejo, los rayos luminosos reflejados por nuestro cuerpo llegan a su superficie y se vuelven a reflejar, viajando en sentido contrario del espejo a nosotros. Así, nuestros ojos captan una imagen que es simétrica a la nuestra. Nuestro delante y nuestro atrás se han invertido. Si miramos hacia el norte nuestra imagen mira hacia el sur, simplemente.

Y al igual que ocurre con una persona de carne y hueso que nos mire frente a frenta, su brazo izquierdo está situado a nuestra derecha y su brazo derecho a nuestra izquierda.

Ahora bien, el espejo no nos ofrece una imagen plana, sino con profundidad, como si la imagen se formara tras la superficie pulida. Cuanto más hacia atrás tengamos un objeto más hacia adelante se verá su reflejo.

Por ello, una persona miope o corta de vista verá la imagen del espejo correctamente enfocada cuando esta corresponda a objetos cercanos y la verá borrosa cuando la imagen corresponda a un objeto muy atrás a sus espaldas.

Y esto es porque no tiene mayor importancia si el espejo está a más o menos distancia, lo verdareramentre importante es a qué diatancia se encuentra el objeto reflejado de la superficie del espejo.

Para poder ver en el espejo un objeto situado tras nosotros, la luz reflejada es ese objeto debe viajar hasta el espejo, reflejarse en él y llegar hasta nuestros ojos. Cuanto más lejano esté el objeto la luz tendrá más camino a recorrer y presentará unos rayos más paralelos, lo que dificulta la visión del miope, cuyos ojos captan mejor los rayos de luz que divergen, como los de un objeto cercano, y peor los rayos de luz más o menos paralelos, como los de un objeto lejano.

Nota sabionda: Un miope verá más borroso un objeto lejano en el espejo, que si se gira y lo observa directamente.

Fuente:

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0