Latest Posts:

Mostrando las entradas con la etiqueta discapacidades. Mostrar todas las entradas
Mostrando las entradas con la etiqueta discapacidades. Mostrar todas las entradas

30 de junio de 2010

Alumnos de Salamanca inventan la primera silla dirigida por voz y móvil

Miércoles, 30 de junio de 2010

Alumnos de Salamanca inventan la primera silla dirigida por voz y móvil
  • Tres estudiantes de la Pontificia presentan este lunes el prototipo
Silla. | E. Carrascal

Silla. | E. Carrascal

Se imaginan una silla de ruedas que obedece a la voz, que se desplace según se mueva un teléfono móvil, que siga los movimientos de la cabeza de la persona que la utiliza captados por la cámara de un teléfono móvil o que moviendo un dedo sobre la pantalla del teléfono la silla conozca el camino a seguir. Eso es lo que han conseguido, con mucha imaginación y escasos recursos, en apenas unos meses tres alumnos de la Universidad Pontificia de Salamanca a través del Club de Innovación. Este lunes lo presentan públicamente.

El proyecto Aescolapius consiste en conectar a una silla de ruedas la cámara de un teléfono móvil y un pequeño ordenador. El software creado por estos tres universitarios de tercero de Ingeniería Técnica en Informática de Gestión y basado en la tecnología optical flow, que usa el ejército americano, permite, como primera opción, que la cámara del teléfono reconozca e identifique la cara del usuario, fijando su posición. A continuación, cualquier movimiento de la cabeza se convertirá, gracias al algoritmo que han creado, en una orden para la silla.

Las posibilidades de un teléfono móvil son infinitas. Tres alumnos de la Universidad Pontificia acaban de convertir en realidad una idea muy ambiciosa: mover una silla de ruedas con la cabeza, gracias a la cámara del móvil que identifica los movimientos.

El teléfono sirve también para guiar la silla de ruedas como si fuera un volante, reconocer la voz del usuario y dar instrucciones habladas, localizar en cada momento dónde se encuentra gracias a su GPS, conocer la ruta que ha realizado, enviar un mensaje de aviso al 112 o a un familiar en caso de accidente o para encender unas luces avisando de que la silla está parada o averiada, como los coches.

Fuente:

El Mundo Ciencia

Cuando el movimiento de la mano sustituye al ratón

Miércoles, 30 de junio de 2010

Cuando el movimiento de la mano sustituye al ratón

Un nuevo sistema permite usar el ordenador mediante impulsos eléctricos de los músculos. Investigadores de CEIT-IK4 desarrollan esta herramienta, para lo que han contado con la colaboración de la Asociación de Personas Sordas de Gipuzkoa


Usar el ordenador sin necesidad de clickar un ratón. Divertirse con un videojuego sin joystick, ni ningún otro tipo de mando. Interactuar en un entorno virtual de la forma más natural posible, a través del movimiento del cuerpo. Quizás en un futuro no tan lejano todo esto sea parte de nuestra vida cotidiana. Al menos en ello está un equipo de investigadores de CEIT-IK4 y de Tecnun-Universidad de Navarra, que lleva un año desarrollando un sistema que permite comunicarse con el ordenador mediante los impulsos eléctricos de los músculos generados por el movimiento de las manos.

Esta descripción recordará a más de uno a la Wii, la consola de Nintendo que ha revolucionado el sector de ocio. «Es algo parecido. Se trata de interactuar con lo que tienes delante de la forma más natural posible», cuenta Iker Mesa, ingeniero en Telecomunicaciones, máster en Biomedicina y con la tesis doctoral en marcha. Con la Wii hay que sujetar un mando. ¿Y si se pudiera eliminar?

La respuesta a esta pregunta se está gestando en los laboratorios de CEIT-IK4 en el Parque Tecnológico de Miramón, en un proyecto que arrancó con la idea de Jon Legarda y que otros ingenieros tratan de hacer realidad. «Hay diferentes compañías que desarrollan productos para poder interactuar cambiando los sistemas de comunicación tradicionales. Se buscan nuevos modelos que se parezcan más a la manera en que nosotros nos movemos de forma natural. Por ejemplo, interactuar con un ordenador sin teclado -explica el profesor Javier Díaz-. O ahora está muy de moda manejarse en un escenario virtual mediante los gestos que estás realizando. Ahí hay un potencial muy grande para comunicarte con el escenario».

Lo que ahora están desarrollando es una herramienta que reconoce las señales musculares. Díaz matiza que lo que capta este sistema no es el movimiento del músculo, sino la electricidad que hace que ese músculo se mueva. «En realidad es un proyecto de investigación bastante básico, en el que también queremos aprender los fundamentos de los movimientos de los músculos, es decir, la señal que producen sobre la piel, que es lo que se llama electromiografía, y relacionarla con los gestos que está haciendo el voluntario».

Con electrodos

Varios jóvenes están pasando por el laboratorio, donde les cubren el antebrazo con electrodos, en mayor número que los necesarios en realidad, «para ver cuáles son los más eficientes y más tarde utilizar aquellos que son clave», cuenta Mesa. Los voluntarios se sitúan delante del ordenador e imitan con la mano y el brazo los gestos que aparecen en pantalla. Su pulso es monitorizado durante todo el proceso.

En la actualidad, están registrando el lenguaje de signos que utilizan las personas sordomudas. «Los escogimos porque es estándar, para no tener que inventarnos gestos. Además, al principio tuvimos el apoyo de de la Asociación de Personas Sordas de Gipuzkoa. Cuando el experimento estuvo montado, vinieron y realizaron una labor de verificación», explica Óscar Blanco, ingeniero de telecomunicaciones que está realizando el proyecto fin de carrera.

Así que el voluntario realiza esos gestos delante de la pantalla, lo que significa que el sistema nervioso va lanzando pulsos a los músculos y hace que éstos a su vez desencadenen otro proceso eléctrico que es el que queda registrado por los electrodos. «Hay un proceso en cadena que se está produciendo y estamos intentando por un lado descifrar qué está pasando por ahí y, por otro, sacarle partido a esas señales», cuenta.

Díaz reconoce que hay otros sistemas basados en cámaras. Pero en la mayoría, cuenta, hay una pega, que es la oclusión, la interferencia de un objeto entre la cámara y la persona. «Si hay algo en medio, la cámara no lo ve y no puede interpretar lo que está pasando. Con la electromiografía ese problema no existe. Además, nuestro sistema va a funcionar con una transmisión wireless y no hay oclusión», explica.

La intensidad

Otra de las ventajas es que, a diferencia de las webcams, por ejemplo, esta tecnología permite captar con qué fuerza se agarra un objeto. «Hay métodos que sólo captan si abres o cierras la mano, pero con la electromiografía también se registra la intensidad», señala Mesa. En este momento están completando la base de datos de la que extraerán patrones universales que sirvan para todas las personas, independientemente de la edad, el sexo, la constitución física... De las pruebas con 15 gestos, la herramienta ya acierta 12 con un más del 90% de acierto.

Evidentemente, para cuando salga al mercado, no será necesario que el usuario se cubra el brazo de electrodos. «La idea es que una vez que desarrollemos todo el conocimiento, se simplifique el modelo». El quit que podría acabar comercializándose en el futuro sería una pulsera o un ratón inalámbrico con una espacio de llave USB. Todo bluetooth.

Fuente:

Diario Vasco

1 de mayo de 2010

Un niño ciego aprende a "ver" como los delfines

Sábado, 1º de mayo de 2010

Un niño ciego aprende a "ver" como los delfines


Su nombre es Ben Underwood, tiene 14 años y hace 11 le fueron extirpados ambos ojos por cáncer de retina. Sin embargo, Ben ha logrado desarrollar un sistema de orientación inaudito en un ser humano, pero muy normal en los delfines: la ecolocalización. Ben chasquea su lengua y analiza de forma instantánea el eco que devuelven los objetos. Sin duda, una muestra más de las infinitas potencialidades del ser humano.

Fuente:

Mangas Verdes

8 de junio de 2007

SUECIA | PROTOTIPO...

Papel que 'habla'
  • El proyecto aprovecha técnicas tradicionales de fabricación para crear papel interactivo
Un vído muestra cómo un gran panel de papel puede reproducir sonidos al tocarlo.

Un vído muestra cómo un gran panel de papel puede reproducir sonidos al tocarlo.

Actualizado viernes 08/06/2007 16:35

MADRID.- Imagínense un póster sensible al tacto, o un libro capaz de hablar. Una universidad de Suecia estudia cómo convertir el papel de toda la vida en una interfaz capaz de interactuar con el usuario. Se trata del el 'cuarto uso del papel'.

La idea es impulsar nuevos usos del papel, un material clave en la historia de la humanidad, ante el avance de las nuevas tecnologías. De esta manera, la interactividad llega al papel.

Este proyecto de la Universidad Mid Sweden se llama 'Paper IV' porque, según sus responsables, se trataría de la creación de la cuarta generación de este material si se tiene en cuenta su finalidad: la primera sería el papel para comunicar (libros), la segunda, para empaquetar, y la tercera, para higiene.

Ya han sido creados como prototipos algunos paneles fabricados con este papel, y los resultados son sorprendentes. Los responsables del proyecto explicaron a la revista New Scientist que su fabricación en muy similar a la del papel tradicional, lo que convierte al invento en algo barato de elaborar y fácil de reciclar.

Para hacer interactiva la superficie del material se utilizaron varias capas de papel, una de las cuales se imprimió con tintas conductoras. El sistema que hace que el papel reaccione al tacto, una serie de finas líneas que también conducen pequeñísimos impulsos eléctricos, se parece mucho al de las pantallas táctiles de las PDA, por ejemplo.

El equipo también explicó como se fabrican los altavoces, imprimiendo minúsculos electroimanes y estirando la capa exterior de papel sobre pequeñas cavidades en forma de cono. Como si fueran altavoces tradicionales, la vibración produce el sonido.

El proyecto consta de tres áreas. La primera tiene que ver con el diseño de la composición misma del papel, la segunda con el proceso de su fabricación, y la tercera busca nuevas interfaces sobre este papel especial con el fin de exprimir sus capacidades interactivas.

En los últimos tiempos vuelve a tomar impulso la idea de crear nuevas superficies e interfaces con el papel como protagonista, desde la extrema miniaturización de los 'chips', que fácilmente pueden unirse a las hojas de una publicación impresa, hasta la moda del papel electrónico y los bolígrafos lectores. Parece que el papel aún tiene mucho que contar.

El Mundo - Tecnología

15 de abril de 2007

www.leerescuchando.com el YouTube de los audiolibros

COLPISA/AFP/MÉXICO

Su idea inicial fue acercar a sus hermanas a la literatura, pero Lamberto Álvarez, un mexicano de 27 años, se propone ahora crear ‘el YouTube de los audiolibros’, un espacio en internet donde se descargan y suben gratuitamente clásicos de la literatura universal leídos por voces anónimas. «Creé la página www.leerescuchando.com en noviembre de 2005 para que los jóvenes, que siempre están en internet, no sólo encontraran ocio, sino también cultura, como una forma de acercarlos a la literatura», explica Álvarez.

En su casa no se acostumbraba leer, pero Lamberto, originario de Monterrey, al norte de México, devoraba desde la infancia cuanta lectura se ponía a su alcance. Sus primeros libros fueron textos de física y en el bachillerato se acercó a la literatura.

«Leo por gusto. Empecé con ciencia ficción, con H.G. Wells y Julio Verne», comenta Álvarez, ingeniero en sistemas de profesión y que reconoce no tener inclinación alguna por la creación o el análisis literario.

Hace tres años empezó a grabar, con su propia voz, algunos libros para que sus tres hermanas menores, a las que «les da pereza leer», los escucharan.

Como ingeniero de sistemas, Álvarez ideó su propia página de internet donde colocó los ‘audiolibros’, en formato mp3, que graba él, su novia, su familia y algunos colaboradores.

Autoedición

«La grabación es sencilla, nada profesional. Basta bajar un programa gratuito para grabar. Uno mismo se autoedita, es decir, si me equivoco, regreso al error y vuelvo a empezar», explica.

Los títulos, una treintena, son clásicos de la literatura universal, como cuentos de Edgar Allan Poe, Oscar Wilde, Arthur Conan Doyle y algunas piezas del poeta nicaragüense Rubén Dario y el novelista mexicano Manuel Altamirano.

«Escojo obras de más de 200 años para no tener problemas con los derechos de autor», explica Álvarez al detallar que también tiene ‘El Quijote’, de Miguel de Cervantes de Saavedra, en una grabación de la comunidad autónoma de Aragón.

Las lecturas son íntegras, no se hacen ediciones de los textos y Erika Sánchez, de 29 años de edad y novia de Lamberto, está inmersa en el proyecto de grabar ‘Las mil y una noches’.

«Sé que es una lectura que me llevará toda la vida, pero lo voy a terminar», dice la joven, quien confiesa haber llorado con varios de los mensajes que los cibernautas dejan en la página.

«Hay débiles visuales o invidentes a los que su familia les bajan los audiolibros y nos lo agradecen mucho, como una muchacha cuya madre ya no puede ver y nos dice que la hemos hecho muy feliz», comenta la joven.



Fuente:

Aula Blog 21

1 de marzo de 2007

Japón: Traje-Robot para discapacitados
Este esqueleto biónico ayuda al cuerpo a cumplir las órdenes del cerebro. Su creador lo quiere ceder a instituciones antes de comercializarlo

Por Mario Castro Ganoza, corresponsal


TOKIO. Al más puro estilo de Robocop, Yoshiyuki Sankai, un científico japonés de la reputada Universidad de Tsukuba que abandonó la medicina para dedicarse a la ingeniería, acaba de presentar la versión definitiva del Miembro Híbrido de Asistencia (Hybrid Assistive Limb o HAL, por sus siglas en inglés), un traje- robot para que personas con discapacidad física puedan moverse de manera independiente y utilizando sus propias piernas.

Este traje, confeccionado con láminas de metal, accesorios y acabados plásticos que le dan un aspecto futurista, pesa 15 kilos y cuenta con una minicomputadora que controla y coordina el movimiento, asimismo tiene un paquete de baterías de alto rendimiento. Todo ello, adosado al cinturón.

El invento, que fue desarrollado por Sankai durante los últimos 14 años y que actualmente es probado en asilos y hospitales en diversas regiones del Japón, tiene un costo de fabricación que bordea los dos millones de yenes (US$16.500), pero la intención de su creador es alquilarlo a un costo mensual de US$495, o cederlo en préstamo a hospitales y asilos, y solo después lanzarlo para la venta al público en general.

El HAL deberá ingresar al mercado, definitivamente, el próximo año.

El traje-robot no solo ayuda en la rehabilitación de personas con problemas de movilidad o les hace la vida más fácil a las personas que perdieron la independencia motriz de forma definitiva --al posibilitar la locomoción--, el HAL también potencia la fuerza física de quien lo viste; es decir, en el sentido más textual de la palabra, es una especie de traje, armazón o esqueleto biónico que le permite a un individuo totalmente sano cargar hasta el doble del peso que podría soportar si no lo vistiese. Esto hace del traje un aparato perfecto y muy necesario en tareas de rescate.

NO ES EL PRIMERO
Si bien es cierto que el HAL no es el primer robot que se fabrica dirigido a la rehabilitación de personas con problemas de movilidad, lo que hace único este traje-robot es que usa los impulsos eléctricos del cerebro humano para funcionar.

Según un informe elaborado a mediados del año pasado por una firma de investigación nipona, el mercado actual de los robots de servicio en el país es de siete mil millones de yenes (US$60 millones), cifra que podría subir hasta los dos billones de yenes (US$16.700 millones) en el 2025, principalmente gracias a la incursión en los hogares de estos aparatos, en especial en áreas del bienestar y seguridad.

Hoy en día y dentro de los hogares nipones, los robots solo cumplen una función decorativa o de diversión, como en el caso del famoso perro-robot Aibo, de la firma Sony. Incluso el sorprendente robot humanoide Asimo, de Honda, que puede caminar y subir o bajar escaleras con movimientos naturales, es netamente decorativo.
Sepa la manera en que funciona
El HAL integra la mecánica, la electrónica, la biónica y la robótica en un nuevo campo que ya se conoce como cybernics.

Sensores en la piel del individuo permiten que el traje registre órdenes o impulsos eléctricos enviados por el cerebro a un miembro determinado para que se mueva y los transfiere al motor del traje para que realice la misma acción. El HAL realiza la orden milésimas de segundo más rápido que el cuerpo, por lo cual se afirma que ayuda realmente a moverse.

Para ello interactúan dos sistemas. El primero es el biocibernético que registra las señales del cerebro y las envía a los motores eléctricos instalados en las caderas y rodillas. El segundo permite al HAL coordinar y reconocer los movimientos individuales de los miembros.

El traje-robot se activa automáticamente cuando la persona lo viste.

Fuentes:

20 minutos

La Vanguardia

El Comercio
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0