“La mayoría de la música para bailar “clásica” es tan basada en fórmulas, que debería ser fácil para una computadora el generarla“.
Esta frase proviene del creador del Infinite Horizon,
dispositivo electrónico capaz de crear música en forma automática y sin
intervención, desafiando a una de las disciplinas artísticas de las que
más se jacta el ser humano y su creatividad.
La meta es hacer música contemporánea para bailar, a través de un
secuenciador que genera patrones provenientes de un conjunto de reglas,
las que sirven para lograr coherencia en un resultado que puede duras
horas y horas. El ordenamiento de las piezas, sin embargo, se presenta
como uno de los desafíos más grandes, ya que si bien la estructura
musical de ciertos géneros como el Trance es muy predecible, se dice que esta labor es mejor dejársela a un ser humano.
Pero el tema central es que si se presiona el botón rojo de la
máquina, comienza a sonar música nueva y original, sin esfuerzo. Son
cinco los canales disponibles; dos melodías principales, dos líneas de
bajo y una para acordes. Sintetizadores virtuales generan el sonido y el
sistema propietario del Infinite Horizon hace el resto.
Un ejemplo de lo que se puede lograr podemos escucharlo en el archivo .mp3 de este vínculo, el que fue generado luego de preestablecer que el dispositivo haga música del género Trance en forma automática.
Y nosotros, en Conocer Ciencia, nos preguntamos ¿se podrá construir algún día una máquina que genere música clásica? Piense bien antes de contestar... recuerde que también en alkgún momento se poensó que sería imposible crear máquinas que derroten a humanos en el ajedrez, y esto es lo que ocurrió. También se han creado máquinas que pueden crear arte: puede dibujar y puede pintar!
Un robot con cerebro de abeja podría interpretar estímulos, en vez de sólo ejecutar tareas pre programadas.
Las abejas podrían darles a los robots voladores una o dos lecciones en materia de navegación.
Es la premisa detrás un estudio que espera
"reproducir" el cerebro de los pequeños pero complejos insectos para
aplicarlos a la robótica, en uno de esos ejemplos en los que parece
claro que la tecnología todavía tiene mucho que aprender de la
naturaleza. Los especialistas involucrados en el
proyecto, de las universidades de Sheffield y Sussex en Reino Unido,
están estudiando los sistemas sensoriales de las abejas, con la idea de
crear modelos neurológicos que puedan ser incorporados a los robots que
vuelan.
Los científicos creen que la sofisticada
capacidad de las productoras de miel para procesar lo que ven y lo que
huelen podría ser utilizada por los dispositivos para tomar decisiones
que les permitan desplazarse con seguridad en el aire.
Los robots resultantes de esta investigación, en
la que se está invirtiendo una suma cercana a US$1,5 millones, podrían
ayudar en misiones de rescate o trabajar en granjas, polinizando
mecánicamente los cultivos.
Inteligencia artificial
Uno de los coordinadores del proyecto, el doctor
James Marshall, de la Universidad de Sheffield, le dijo a la BBC que
simular un cerebro (de abeja, en este caso) es uno de los desafíos más
grandes en el área de inteligencia artificial.
Hasta ahora, precisó, muchos de los intentos que
se han efectuado para recrear cerebros biológicos en silicio se han
concentrado en los sistemas cognitivos de los humanos, los monos y los
ratones.
"Organismos más simples, como los insectos sociales, tienen habilidades cognitivas sorpresivamente avanzadas"
James Marshall, coordinador del proyecto
"Pero organismos más simples, como los insectos sociales, tienen habilidades cognitivas sorpresivamente avanzadas", afirmó.
Las abejas productoras de miel son bien
conocidas por su capacidad infalible para encontrar el camino de regreso
a la colonia o panal.
Se cree que utilizan la posición del sol como
punto de referencia y que pueden "computar" el desplazamiento del astro
en el horizonte al estimar la ruta que tienen que tomar para volver a
casa.
"Debido a que el cerebro de la abeja es más
pequeño y más accesible que el de ningún vertebrado, esperamos que
eventualmente podamos producir un modelo exacto y completo que podamos
probar en un robot volador", dijo Marshall.
Robots con cerebro de abeja
El plan es utilizar poderosas tarjetas gráficas
para recrear los modelos de los sistemas sensoriales, tal que puedan
manejar los cálculos necesarios para simular el cerebro de las abejas.
Muchos científicos han comenzado a usar tarjetas
gráficas como "máquinas de calcular", debido a que son menos costosas y
más fáciles de usar que las supercomputadoras tradicionales.
El equipo de investigadores espera que un robot
con "cerebro de abeja" pueda tomar decisiones sobre la base de lo que
perciben sus "sentidos", más que como resultado de tareas
pre-programadas.
Lo que vemos en las imágenes es el primer robot en el mundo que gana con una tasa del 100% en el famoso juego de piedra-papel-tijera. ¿Cómo? A través del reconocimiento gestual de nuestras manos.
Bajo el nombre de Janken tenemos a este curioso prototipo
desarrollado por el Laboratorio de Ishikawa Oku de la Universidad de
Tokio. El juego, como vemos en las imágenes, consiste en que el robot
pueda interpretar “a la de tres” lo que la mano humana lanzará.
Un trabajo donde los investigadores han conseguido que durante el
tiempo que la mano articula el movimiento (menos de un segundo), el
robot pueda reconocer a alta velocidad la posición y la forma que se va a
realizar.
Según cuentan, las articulaciones de la muñeca del robot tienen unos reflejos basados en la mano humana.
Por tanto es capaz de registrar a través de su visión lo que se va a
realizar y ejecutar posteriormente su acción en microsegundos.
Los investigadores dicen que esta tecnología se puede aplicar para la
ayuda de movimientos similares a los humanos, un futuro donde los
robots cooperen en trabajos donde tengan aprendido los movimientos
humanos.
Científicos de la Universidad de Granada, en colaboración con otras instituciones europeas, investigan para que los robots puedan interactuar con humanos
Su objetivo es que sean capaces de predecir
qué acción y movimiento concreto deben realizar en cada momento durante
tareas de manipulación de objetos
Científicos de la Universidad de Granada han diseñado un cerebelo artificial (un microcircuito adaptativo bio-inspirado),
que implementado en un robot, le permite manipular objetos con una alta
precisión, similar a la de los humanos. El cerebelo es una parte del
cerebro humano que desempeña un papel muy importante en la coordinación
de los movimientos y el sistema motor.
Hasta la fecha, los movimientos que la Ciencia ha logrado alcanzar en
los robots, aunque logran una precisión muy alta, se realizan a muy
alta velocidad, con fuerzas muy grandes y un alto consumo de energía.
Este enfoque industrial no puede ser utilizado en el marco de
aplicaciones de robots que interactúen con humanos, ya que sería
potencialmente peligroso en caso de mal funcionamiento.
Para superar este problema, los científicos de la Universidad de Granada
han implementado un nuevo modelo de cerebelo artificial capaz de
adaptar sus correcciones y almacenar las consecuencias sensoriales o los
comandos motores para predecir qué acción y movimiento concreto debe
realizar el robot en cada momento durante tareas de manipulación. Este
cerebelo permite articular un brazo robot de nueva generación,
consiguiendo un grado de movilidad nunca antes alcanzado.
Aprendizaje automático
Los investigadores han logrado que el robot realice un aprendizaje
automático, al conseguir abstraer la funcionalidad de la capa de entrada
de la corteza cerebral.
Además, han construido dos sistemas de control
de un brazo robótico que permiten un control preciso y estable durante
la manipulación de objetos.
La sinergia de aprendizaje entre cerebelo y control automático hace
que el robot sea adaptable a condiciones cambiantes, esto es, que pueda
interactuar con humanos.
Las arquitecturas bio-inspiradas que han
empleado combinan el enfoque de aprendizaje del error de
retroalimentación y el control adaptativo predictivo.
Los responsables de este nuevo avance son los investigadores Silvia Tolu, Jesús Garrido, y Eduardo Ros Vidal, del Departamento de Arquitectura y Tecnología de Computadores de la Universidad de Granada, y Richard Carrillo (que actualmente trabaja en la Universidad de Almería).
Referencia bibliográfica:
N. R. Luque, J. A. Garrido, R. R. Carrillo, S. Tolu,
E. Ros, Adaptive Cerebellar Spiking Model embedded in the control loop:
Context switching and robustness against noise, International Journal
of Neural Systems 21 (5) (2011) 385-401
En la imagen, los integrantes del grupo de investigación de la Universidad de Granada.
Alan Turing (1912-1954) se suicidó cuando tenía 42 años. | EL MUNDO
La comunidad científica rinde hoy homenaje a Alan Turing (1912-1954),
uno de sus miembros más brillantes. Hoy (23 de junio de 2012) se cumplen cien años de su
nacimiento en Londres, un acontecimiento que será aprovechado para
repasar a través de exposiciones y conferencias su extraordinaria
contribución a la ciencia y a la humanidad. Porque además de ser
considerado el padre de la informática y de la inteligencia artificial,
ha pasado a la historia como el hombre que ayudó a salvar miles de vidas durante la II Guerra Mundial. Lo logró gracias a su gran intuición matemática. El científico
británico fue el arquitecto del dispositivo 'Bombe', con el que desde la
instalación militar de Bletchley Park, a unos 80 kilómetros de Londres,
los británicos fueron capaces de descifrar los mensajes encriptados de
la máquina alemana 'Enigma' que usaban los nazis. Su sistema ayudó a los
Aliados a vencer a los germanos y, según calculan muchos analistas,
permitió acortar la duración de la guerra en un par años, evitando la
muerte de miles de personas.
Se le considera el padre de la informática y de la inteligencia artificial
Una de estas máquinas 'Enigma' se exhibe en la exposición que el Museo de Ciencia de Londres acaba de inaugurar para conmemorar el centenario de su nacimiento y que podrá visitarse hasta el 31 de julio. Turing también realizó importantes investigaciones en biología del desarrollo.
"Hay pocos científicos que hayan hecho contribuciones tan determinantes
a la ciencia", apunta Ramón López de Mántaras, director del Instituto
de Investigación de Inteligencia Artificial (IA) del CSIC. Un legado sorprendente, sobre todo teniendo en cuenta que tuvo una vida corta. Murió a los 42 años.
Se suicidó en 1954, dos años después de que fuera condenado por ser
homosexual, pues en aquella época se consideraba un delito. Y es que
aunque el científico fue reconocido por su valiosa aportación de la
ciencia, fue víctima de la intransigencia de la sociedad inglesa de
mediados del siglo XX.
Condenado por ser homosexual
Sus problemas comenzaron en 1952, cuando su amante, Arnold Murray,
entró a robar en su casa. Durante la investigación policial, Turing
admitió con naturalidad ser homosexual sin prever las consecuencias: se
abrió un proceso contra él y fue acusado de perversión. Para evitar ir a prisión, aceptó someterse a un tratamiento con estrógenos, que le causó impotencia y obesidad.
La máquina 'Enigma', usada por los nazis.
Dos años después de la castración química, fue encontrado muerto junto a una manzana mordisqueada en la que se había inyectado cianuro. La versión oficial sostiene que fue un suicidio,
una conclusión rechazada por su madre, que siempre sostuvo que su hijo
ingirió el veneno de forma accidental. Su muerte dio pie, además, al
desarrollo de teorías que sugerían que fue asesinado. Aunque se especuló
con que la manzana mordisqueada del logo de Apple fue un homenaje de
Steve Jobs a Turing, el fundador del gigante de la informática siempre
lo desmintió. En 2009, el primer ministro británico en aquella época, Gordon Brown,
se disculpó públicamente en nombre del gobierno por la forma en que el
científico fue tratado. Sin embargo, hace unos meses Cámara de los Lores
rechazó pedir un perdón póstumo y simbólico a Turing por haber sido
acusado de "indecencia grave" en 1952. El argumento para rechazar la
petición fue que en aquella época se trataba de un delito y la ley se
aplicó cómo debía hacerse.
Padre de la informática
La primera gran contribución de Turing, repasa López de Mántaras, fue
la Máquina Universal de Turing y el concepto de ordenador programable.
Es decir, que puede desarrollar distintas tareas: "Definió los límites de lo que un ordenador puede hacer".
Él fue el primero que definió de forma rigurosa el concepto de algoritmo,
que marca las instrucciones que siguen los programas. Además,
contribuyó a la construcción del ordenador ACE, aunque su prematura
muerte no le permitió verlo acabado. Su segunda gran aportación fueron sus trabajos sobre máquinas inteligentes:
"Fue el precursor de las redes neuronales en inteligencia artificial",
una rama que nació oficialmente en 1956. "La posibilidad de que las
máquinas pensaran es una idea muy antigua, que ya se planteaba en la
Edad Media", afirma.
Se suicidó en 1954, dos años después de ser sometido a una castración química por ser homosexual
En un artículo publicado en 1959 proponía una prueba, que se conoce
como el Test de Turing, para medir las habilidades de una máquina. Un
humano, que actúa como interrogador, debe conversar con una máquina
diseñada para comportarse como una persona y con otro humano (a los que
no puede ver) e intentar descubrir cuál es la persona y cuál es la
máquina.
López de Mántaras sostiene que esta prueba, que sigue utilizándose en
algunos ámbitos, ya no se considera relevante para medir el progreso de
la inteligencia artificial: "Este test se centra en los conocimientos y
habilidades que se pueden expresar. Y la inteligencia humana es mucho
más que poder llevar a cabo un diálogo. Hay procesos cognitivos
fundamentales que no son expresables y este test no puede valorarlos",
explica. El investigador del CSIC también destaca las investigaciones de Turing en biología del desarrollo: "Se
preguntó por qué había tanta variedad en la piel de los animales de la
naturaleza si las células embrionarias eran homogéneas. Para
explicar por qué algunos tenían rayas y otros manchas formuló una teoría
que este mismo año ha sido demostrada por un equipo de investigadores
del King´s College: "Turing creía que los diferentes patrones de los
animales (manchas, rayas, etc.) se debían a un desequilibrio en las
concentraciones de dos morfogenes, uno que es inhibidor y otro
activador. Si estas concentraciones estuvieran en equilibrio, no habría
diferencia en los patrones", explica López de Mántaras. Como recuerda David Leavitt en 'El hombre que sabía demasiado'
(Editorial Antoni Bosch), sólo tras la desclasificación de los
documentos sobre su trabajo en Bletchley Park y la posterior publicación
de la magistral biografía de Andrew Hodges en 1983, empezó a hacérsele
justicia a este gran pensador cuyo extraordinario legado e intuición
siguen provocando admiración 60 años después de su muerte.
Investigadores de la Universidad de Hertfordshire (Reino Unido) han creado un robot humanoide que es capaz de aprender a hablar como un niño de entre 6 y 14
meses tras entablar unos minutos de "conversación" con humanos. El
trabajo, del que se hace eco la agencia SINC, ha sido publicado esta
semana en la revista PLoS ONE.
El robot, bautizado como DeeChe y miembro de la serie iCub, es un humanoide infantil con inteligencia artificial
que posee un software con miles de posibilidades de sílabas sin
conexión. En el experimento, los participantes, que no eran
investigadores, se dirigieron al robot como si fuera un bebé, usando sus
propias palabras. El humanoide comenzó emitiendo algunos balbuceos para terminar pronunciando palabras de una o dos sílabas con los nombres de formas y colores.
La investigación podría ser útil para entender la adquisición del
lenguaje en humanos. “Se sabe que los bebés son sensibles a la
frecuencia de los sonidos en el habla, y estos experimentos muestran
cómo esta sensibilidad se puede modelar y contribuir al aprendizaje de las palabras en los robots”, ha señalado Caroline Lyon, coautora del trabajo.
De no ser por la cortina de censura que cae sobre el gigante asiático, quizás la universidad china de Zhejiang podría ser considerada como el MIT de Asia. Hace pocos días informaron que lograron implantar sensores en el córtex motriz cerebral de un mono con el objetivo de que el animal lograra mover una mano robótica con su cerebro.
Sin dudas la noticia parece sacada de una película futurista, pero de esas bien densas y oscuras ya que estremece no sólo ver al animal atrapado y sólo con la posibilidad de poder reaccionar con su cerebro (como se puede apreciar en este video), sino también ver cómo esa mano robótica se mueve sólo porque recibieron la respuesta motriz directamente de la neurona conectada por los científicos.
Según informaron los investigadores chinos, este experimento logró capturar y descifrar señales cerebrales del mono y traducirlas al movimiento indicado de los dedos de la interfaz conectada. Los dos sensores implantados en el cerebro del mono, de nombre Jianhui, sólo monitorean 200 neuronas del córtex motriz, lo que indica que las posibilidades de expansión de este proyecto son infinitas.
Luego de este primer paso, el objetivo a lograr es desarrollar movimientos cada vez más finos y precisos en los dedos de la prótesis. La investigadora Zheng Xiaoxiang comentó al respecto que “los movimientos de las manos están asociados con al menos varios cientos de neuronas. Ahora hemos descifrado los movimientos basados en 200 neuronas. Y claro, las órdenes que produjimos todavía están distantes en complejidad y fineza de los movimientos de los dedos verdaderamente flexibles”.
Si acaso la pareja de robots jugadores de ping pong chinos les parecieron un avance tecnológico relevante en los proyectos de robótica salidos de Zhejiang, imaginamos que este mono podría ser en breve el futuro Charles Xavier del gigante de Asia.
Un equipo internacional de científicos, entre los que se encuentran investigadores de la Universidad de Granada, han diseñado un cerebelo artificial para robots capaz de imitar la forma de manipular objetos de los seres humanos. La investigación se ha llevado a cabo durante 4 años, encuadrada dentro de dos proyectos europeos (SENSOPAC y REALNET).
El nuevo modelo de cerebelo artificial permite a los robots “aprender” las características intrínsecas de un objeto que se le presenta (masa, inercia, resistencia que opone al movimiento) y asociarlas con otra serie de características casuales (color o forma) que le ayudan a distinguirlo de otros objetos y a llevar a cabo una manipulación más precisa. Es decir, imita de modo artificial cómo el sistema nervioso dirige de forma precisa la realización de movimientos y obtiene conocimiento de los objetos que maneja.
A medio plazo, este estudio permitirá crear una nueva generación de robots capaces de interactuar con humanos de manera mucho más segura que los actuales. Además, este tipo de estudios puede ayudar al desarrollo de nuevos tratamientos para enfermedades relacionadas con el cerebelo (como es el caso de la ataxia), así como de nuevos métodos de rehabilitación y prótesis “inteligentes”.
¿Pensaron que era broma? Piensen otra vez. Cuando hace tres meses el presidente y fundador de Foxconn, Terry Gou, sostuvo que quería reemplazar miles de sus trabajadores humanoscon tendencias suicidas por robots inteligentes, no eran meras palabras al voleo, sino que realmente quiere que las cosas se automaticen en el principal fabricante de componentes computacionales del mundo.
Gou acaba de firmar con el alcalde de la ciudad taiwanesa de Taichung, Jason Hu, una carta de intención que esboza los planes de la compañía para construir nuevas instalaciones de producción e investigación y desarrollo, a la que se refieren como un “reino de robótica inteligente”. Las instalaciones generarían alrededor de 2.000 puestos de empleo y generarían unos US$4.000 millones en valor de producción dentro de los tres a cinco años, según explicó Gou. El problema viene después, cuando ya planta esté terminada y todos esos humanos comiencen a quedar desocupados…
El presidente de la compañía adujo un freno en el alza de los costos laborales como la razón para impulsar la creación de instalaciones con más de un millón de robots y equipos de automatización y que la maquinaria estaría encargada de tareas como pintura, soldadura y ensamblaje.
El inventor de Lisp, un lenguaje de programación creado para diseñar 'máquinas inteligentes', y considerado padre de la inteligencia artificial moderna, John McCarthy, murió la noche del 23 de octubre.
Fue su hija quien dió la primera información del fallecimiento aunque más tarde fue confirmada por Stanford.
John McCarthy nació en 1927 en Boston. Aprendió matemáticas usando libros de texto Caltech hasta que tomó clases avanzadas cuando era un adolescente. Recibió el doctorado en 1951 en Princeton.
Según apunta el sitio especializado TechCrunch, McCarthy sostuvo la primera partida de ajedrez 'computacional' entre científicos de Estados Unidos y la Unión Soviética.
Los propios artículos de McCarthy cuentan que diseñó Lisp como medio para crear máquinas de Turing con los limitados avances informáticos con los que contaba a su disposición.
El matemático creía que la inteligencia artificial debía ser interactiva, como ocurre con simuladores de AI como Eliza y, mas recientemente, Siri.
McCarthy ganó el Turing Award de la ACM (Association for Computing Machinery) en el año 1972 y la Medalla Nacional de la Ciencia en 1991.
Un sistema les permite conocer su entorno y resolver problemas.
Un grupo de científicos japoneses ha diseñado unos robots inteligentes capaces de pensar, aprender y decidir como llevar a cabo sus tareas antes de actuar. Los nuevos robots han alcanzado un punto aún más humano, pero este progreso también plantea ciertos problemas éticos.
Osamu Hasegawa, profesor asociado en el Instituto de Tecnología de Tokio, ha sido el encargado de diseñar un sistema que permite a un robot humanoide conocer su entorno y resolver los problemas a los que se enfrentará en él.
"La mayoría de los robots actuales son capaces de realizar tareas preprogramadas, pero saben muy poco sobre el mundo real en el que viven los humanos", apunta. "Nuestro proyecto es construir un puente entre el robot y el mundo real para que se comporten mejor cuando entren en contacto con los hombres", dice.
El robot tiene una "red neuronal incremental auto-organizados" (SOINN), es decir, una estructura que le permite acumular y utilizar el conocimiento para "deducir" cómo llevar a cabo tareas específicas en un particular. Es capaz de reconocer imágenes y sonidos y reproducir las acciones mediante el análisis del entorno.
Por ejemplo, si se le enseña al robot como verter agua en un vaso, él se encontrará estos objetos en diversas circunstancias y diferentes lugares, reconocerá los objetos y adaptará sus gestos al mundo que le rodea, aprenderá de sus acciones al controlar cada paso que dé y los resultados que obtenga.
Mejorar, ignorar
Estos robots capaces de pensar antes de actuar aprenden a pedir ayuda cada vez que se enfrentan a una tarea superior a sus capacidades. Una vez aprenden las nuevas habilidades requeridas, el robot puede ser reutilizado para otros fines, lo que requiere una mayor reflexión para determinar qué habilidades pueden ser útiles en función de cada problema.
El robot vertiendo agua | Afp
Además, al igual que ocurre con los humanos, el sistema permite a la máquina ignorar el 'ruido', la información insignificante que podría confundirles. Sabe diferenciar la información de interés de la que contamina. Durante una conversación, el ser humano es capaz de ignorar el ruido y centrarse en lo que dice el orador o localizar visualmente lo que desea observar en una escena a pesar de que exista una gran cantidad de objetos.
Además, el ser humano es capaz de identificar un objeto desde varios ángulos, por deducción, y no sólo aquellos que ya ha visto y recordado. "El cerebro humano hace estas actividades de manera tan natural y automática que ni siquiera nos damos cuenta de que hay que realizar un proceso de reconocimiento extremadamente complejo visual o de audio", dijo Hasegawa.
Por su parte, el robot utiliza Internet para almacenar la información nueva. "Hay una gran cantidad de datos disponibles en Internet, pero en la actualidad, sólo los seres humanos hacen uso de ella", dice el científico que decidió darle al robot la posibilidad de conectar directamente su cerebro a la enorme base de conocimiento que es la red.
Problemas éticos
En el futuro, el sistema neuronal artificial de la máquina podría encontrar una gran variedad de usos para mejorar el rendimiento en tiempo real de la máquina y que dispongan de una mayor capacidad de ayudar al hombre en sus tareas diarias. "Podríamos tener un robot que pusiera en la mesa de sushi el bote de sushi. A continuación, el robot podría consultar directamente en Internet la imagen de distintas botellas de salsa de sushi, identificar el objeto y encontrarlo en la cocina", explica el profesor.
Sin embargo, el propio científico reconoce que el crecimiento constante de las tecnologías robóticas plantea ciertos problemas éticos. Hasegawa apunta que se debe reflexionas sobre las tareas requeridas por estos robots 'inteligentes' para que sus acciones no se vuelvan contra los seres humanos que las crearon, como ocurre en la película '2001: Una odisea en el espacio'.
El profesor lo explica con un ejemplo: "un cuchillo es una cosa útil, pero también puede convertirse en un arma". Por lo tanto, advierte que hay que tener cuidado y debatir con personas de diversos orígenes que uso se hace de estas tecnologías.
¿Estás hablando con una persona o con una máquina? Es una pregunta que no tendría sentido si estuvieras viendo con quién hablas, pero en el mundo del internet, donde nos comunicamos ampliamente vía texto, a veces es recomendable plantearse esa duda. Sobre todo cuando existe un bot llamado “Cleverbot” que aparentemente ha logrado pasar una de las principales pruebas de la inteligencia artificial: el test de Turing.
Propuesto por el británico Alan Turing en la década de 1950, el test se pasa si un humano hablando con una máquina cree que la máquina es humana.
El test del Cleverbot se realizó en una feria tecnológica en la India, donde 30 voluntarios conversaron por 4 minutos con un desconocido. La mitad de los voluntarios habló con humanos, mientras la otra mitad habló con el bot (sin saber cuál era cual). Todas las conversaciones fueron desplegadas en pantallas para que la audiencia pudiera verlas.
Tanto los voluntarios como la audiencia luego calificaron la “humanidad” de las respuestas entregadas por el desconocido. Cleverbot fue votado un 59,3% humano, mientras que los humanos recibieron un 63,3% de humanidad (¿nos estamos robotizando?). En total hubo 1334 votos.
Sobre el test de Turing, el desarrollador del Cleverbot y especialista en inteligencia artificial, Rollo Carpenter afirmó que el bot “o pasó, o está muy cerca de hacerlo en este test en particular”.
Cleverbot conversa tomando como referencia conversaciones anteriores, y eligiendo respuestas apropiadas a los comentarios que se le hacen. La versión online del software es más básica que la que se usó en las pruebas, y realiza tres búsquedas antes de decidir qué responder, mientras que la versión más poderosa, hace 42 búsquedas. “Es bastante superior al Cleverbot online”, reconoce Carpenter.
Esto no significa que Cleverbot puede pensar. “Uno podría argumentar que quizás hay algo de inteligencia involucrada en lo que sucede, pero creo que habría que diferenciar pensamiento de la palabra inteligencia“, señala Carpenter. El problema parece estar en el test mismo – aunque un resultado superior a 50% se considera como que ha pasado, todavía hay una gran distancia entre el Cleverbot y un humano.
Pasar el test no implica inteligencia, dice Carpenter, sino que sólo muestra que una máquina puede imitar la inteligencia. Sin embargo, sigue siendo una prueba útil. Cleverbot aprende de las conversaciones anteriores, y la misma técnica se puede utilizar para crear una inteligencia artificial más general. “Nosotros los humanos aprendemos de datos sensoriales enormemente más ricos que eso. Imaginen un robot con técnicas de aprendizaje que tenga la capacidad de hacer lo mismo”, dice Carpenter.
Se puede conversar con el Cleverbot aquí, en inglés, para probar su “inteligencia” – aunque les recordamos que es la versión más “tonta” del bot. Lo probamos y aunque a veces entrega respuestas coherentes, también es posible que te deje mirando con cara de pregunta con lo que contesta.
El futuro ya llego hace tiempo, queridos lectores, y esta noticia da prueba de ello. Raúl Rojas, profesor de Inteligencia Artificial, en la Universidad Libre de Berlín, creo una interfaz humano-maquina que permite manejar un auto solamente con nuestros pensamientos.
¿Cómo es que se logra esto? Pensemos en los videojuegos, que por ahí viene la cosa. La empresa Emotiv diseño un aparato, llamado Emotiv- EPOC neuroheadset, un casco para nuestra cabeza, el cual nos permite manejar interfaces informáticas con nuestra mente. El profesor, junto a sus alumnos, adaptaron este dispositivo para que un conductor pueda manejar su auto solo con pensarlo.
El desarrollo de esta “tecnología” (o re-adaptación) se encuentra en un desarrollo temprano. Todavía falta, explica el profesor, para que esto pueda ser utilizado por el publico en general. Pero no deja de ser una gran noticia y un punto de partida para nuevos avances.
En muchas revistas y periódicos se invita a los lectores a jugar y encontrar las diferencias en una foto.
¿Se le ha pasado por alto alguna vez notar que un amigo o amiga suya se ha cortado el pelo? O quizás al llegar a la oficina no se dio cuenta, sino hasta mucho más tarde, de que las paredes son violetas, cuando antes eran blancas.
Esta aparente falta de atención que nos impide ver un cambio que resulta obvio es algo que experimentamos de manera inconsciente todos los días y se produce porque nuestro cerebro tiene que filtrar una enorme cantidad de información visual que lo inunda constantemente.
Los científicos la llaman ceguera frente el cambio.
Y para estudiar este fenómeno, un equipo de científicos del Queen Mary College, de Universidad de Londres, inventaron un juego de computadora.
Milan Verma, uno de los investigadores que participa en este proyecto, convocó a un grupo de voluntarios para participar en el juego, que consiste en mirar una pantalla que muestra en orden dos imágenes de una misma escena.
"La imagen cambia entre una escena y una segunda a la que se le han hecho cambios", le explicó Verma a la BBC. "Los voluntarios simplemente tienen que apretar un botón en el momento exacto en que notan el cambio".
Falta de objetividad
Durante años, tanto los neurocientíficos como quienes desarrollan tecnologías de inteligencia artificial se han interesado en esta faceta de la percepción humana. De hecho, el equipo del Queen Mary incorpora sus hallazgos biológicos en el diseño de sus robots, estudiando las bases de la visión humana y la percepción para poder recrearla artificialmente.
En opinión de Verma, el estudio que está llevando a cabo su equipo es uno de los primeros que se hace sobre la ceguera frente al cambio de manera objetiva.
"Antes, los científicos la estudiaban manipulando las imágenes manualmente", comenta Verma.
"Usaban programas de manipulación de imágenes y hacían cambios específicos, y luego le preguntaban a la gente: '¿Puedes ver algún cambio? ¿Sí o no?'".
Esto, dice Verma, es hacer trampa. Si un científico le hace una modificación a una fotografía, está tomando una decisión sobre dónde y cómo se está haciendo el cambio. Por ejemplo, en una foto de un parque puede eliminar al pájaro que está en una esquina, o en una escena en una sala puede decidir cambiar el color del sofá.
"De este modo, está haciendo un juicio subjetivo sobre cuán obvio resulta el cambio", añade el investigador.
La ley del más fuerte
El estudio explica por qué no notamos inmediatamente cambios como, por ejemplo, un nuevo color de pelo.
Para este estudio, Verma y su supervisor, Peter McOwan, crearon un algoritmo por el cual la computadora "decide" cómo cambiar la imagen.
"Hasta donde yo sé, ésta es la primera vez que la tecnología utilizada por la inteligencia artificial se usa para generar estímulos experimentales para poner a prueba la percepción humana", le dijo McOwan a la BBC.
Verma y McOwen diseñaron el programa que le permite al juego hacer cambios a cada imagen.
"Es un algoritmo genético", dice Verma. Básicamente, le dice a la computadora que cambie las imágenes, mediante un proceso similar al de la evolución.
"Es como un proceso donde sobrevive el más fuerte", explica el científico. "Darwin dijo que un individuo fuerte es aquél que tiene más chances de sobrevivir en su entorno", agrega.
Pero en este caso, la fortaleza está determinada por la diferencia más pequeña entre la imagen primera y la imagen cambiada, en términos de cuánta atención logra generar.
El ordenador utiliza esta información sobre la atención y la percepción para producir dos imágenes que la persona verá de la misma manera, dos imágenes que captan la atención en la misma medida.
Esto hace que los científicos puedan medir de forma precisa cuán notables son los cambios y obtener resultados objetivos.
La investigación ya ha comenzado a revelar a qué parte de la imagen se dirige la atención de la gente y qué clase de cambios son los más fáciles de identificar.
"Todo se reduce a una cuestión de contraste", dice Verma. "Contraste en cuanto al color o a la orientación, contraste en relación a la iluminación".
Otro aspecto que los investigadores notaron es el comportamiento de la mirada.
"Cuando entramos en una habitación, nuestros ojos se dirigen a una zona en particular y como estamos con los ojos puestos en ella, si se produce un cambio allí, lo notaremos más rápido".
Los científicos publicaron los resultados de la investigación en la revista especializada Vision.
¿Seríamos felices viviendo con un "sustituto" hecho a nuestra imagen y semejanza?
Las máquinas se parecen cada vez más a los humanos.
Uno se para a pensar y no tiene muy claro a qué ritmo avanzan las nuevas tecnologías, la innovación, la evolución... en fin, la carrera hacia el futuro. Coincidiendo con el lanzamiento en DVD de la última película de Bruce Willis, 'Los sustitutos', la preocupación por este desarrollo se hizo presente en forma de reportaje.
Ya en su día, a finales de los 80, veíamos a un visionario Stephen King dirigir 'La rebelión de las máquinas', una película que nos mostraba el mundo al revés, lo creado dominando al creador. Y es que al ritmo que va la tecnología no tenemos una idea del lugar que ocupará el ser humano frente a sus creaciones robóticas dentro de 100 años.
El caso es que en 'Los sustitutos' se recrea un futuro en el que la gente vive la vida por control remoto, desde la seguridad de su propio hogar, a través de robots sustitutivos creados a su imagen y semejanza, y mejorados al gusto del consumidor. He aquí la cuestión: ¿quién es verdaderamente real, el humano o su sustituto?
Aprovechando este tema tan interesante, El Referente ha tenido acceso a una entrevista con el director ejecutivo de Biodesings (una empresa dedicada a la generación de prótesis corporales que ayudó en el desarrollo de la película), Randall Alley, y con el doctor James Canton, uno de los futuristas más prestigiosos de EEUU. Ellos nos cuentan su visión de futuro, las posibles semejanzas de esta película con la realidad y la situación actual del mundo de la robótica.
Un "yo" dominado por nosotros mismos no parece una idea tan descabellada, sin embargo, no tan real y bonito como lo pinta la película. El mundo de las prótesis y la robótica avanza, pero tal y como reconoce James Canton, "la intimidad, el amor y la emoción son todavía rasgos puramente humanos".
Randall Alley también ve factible estos sustitutos en un futuro y, a pesar de que se ha avanzado mucho en el campo de su empresa, todavía queda mucho camino para crear un robot que tenga nuestra funcionalidad.
"El cerebro es el santo grial de la sustitución en el campo de las prótesis", explica Alley. Tanto es así que reconoce que en el campo de las extremidades inferiores las prótesis creadas hasta el momento son bastante satisfactorias, no tanto como las superiores. "La mano está en lo más alto dentro de la complejidad de su creación, debido a sus capacidades naturales", puso de ejemplo.
Roger Schank es un experto en Inteligencia Artificial que investigaba cómo educar a los ordenadores y acabó descubriendo que a los humanos nos educan mal. Schank fue profesor de Ciencias de la Computación yu Psicología en la universidad de Yale y, posteriormente, director del Proyecto de Inteligencia Artificial de la misma institutión. En 1989 fue contratado por la universidad de Northwestern para crear el Instituto de Ciencias de la Educación. Ha sido también profesor en Standford y Carnegie Mellon, pero ha tenido que esperar hasta los 64 años para que una institución académica le permitiese poner en práctica sus teorías: la Escuela de Negocios de La Salle presenta en marzo una serie de másters en Internet basados en la revolucionaria visión educativa de Schank.
Por si tu conexión va lenta aquí tienes el texto de la entrevista (gracias a Lautaro Ferrada):
Entrevista a Roger Schank (por Eduard Punset)
Eduard Punset: Roger, te voy a hacer una pregunta que por una parte parece trivial, casi banal, pero que por otra parte sigue pareciendo un misterio fascinante. ¿Cómo aprende un niño la lengua materna, o cómo funciona la memoria, o cómo es el proceso de aprendizaje? ¿Cómo aprende la gente? ¿Es banal o un misterio?
Roger Schank: Creo que no es ni banal ni un misterio. Es complejo pero bien conocido. ¿Quieres que te explique el proceso?
Eduard Punset: Sí.
Roger Schank: Los seres humanos son una colección de expectativas, nos imaginamos como serán las cosas según la forma en que fueron. Los niños pequeños se encuentran con que una cosa sigue a la otra: viene la madre y le cambia el pañal, y entonces le da un poco de leche. Si en lugar de leche una vez le da zumo de manzana, entonces llora. Los niños saben que las cosas suceden en un cierto orden, es una habilidad innata. Y años después, nos encontramos con que la gente tiene unas ciertas expectativas sobre el orden de cualquier cosa, por ejemplo el tomar un avión: se espera pasar la seguridad, embarcar, tomar asiento, … Se tienen expectativas, y si entras en el avión un día y las cosas son diferentes —nadie comprueba el billete, o las personas están sentadas en el suelo—, preguntarás qué es lo que sucede. El aprendizaje es comprender el orden en que suceden las cosas, y ser capaces de tratar las excepciones, ya que la vida está llena de excepciones. Pero fijémonos en la educación. La educación que nosotros conocemos es casi lo contrario de todo esto. La educación podría permitir a la gente tener una experiencia del mundo, comprender las cosas que no van bien e intentar reaccionar. Pero si en la escuela se hace esto, se tendría a toda una clase de niños cada uno con una experiencia diferente. No estaría organizado ni dirigido por el estado. ¿Qué es lo que sucede cuando el gobierno intenta dirigir la educación? Que no enseña que a veces las cosas no son así, sino que enseña que todo siempre es así, y evalúa para comprobar que se ha aprendido.
Eduard Punset: O sea que llegamos a esta paradoja en la que algunos dicen que estamos en plena revolución del sistema educativo, y los otros dicen que esto son tonterías, que lo que estamos viviendo es una crisis terrible en el sistema educativo. Tu obviamente estás del lado de los que piensan que hay demasiadas cosas que van mal en nuestro sistema educativo actual.
Roger Schank: Creo que todo está mal en nuestro sistema educativo actual, no algunas cosas, todo.
Eduard Punset: Vamos a ver algunas.
Roger Schank: Las dos preferidas son: lo que enseñamos está mal, y cómo lo enseñamos también. Voy a darte un ejemplo. En 1892 hubo una reunión presidida por el director de Harvard para determinar cuál debería ser el currículo de los Institutos. Y este mismo currículo es el que está implantado hoy en día, palabra por palabra. Entonces se decidió que primero se enseñaría la biología, luego la química, y luego la física. Primero literatura inglesa y luego americana. Todo en 1892, cuando se decidió sobre económicas o el álgebra. Pero me gustaría hacerte una pregunta: ¿para qué hay que aprender álgebra? Parece como una religión. A veces oímos que por ejemplo los coreanos tienen unos buenos cursos de matemáticas, y rápidamente todos pensamos que deben estar haciendo algo importante. Pero ¿sabes por qué el álgebra se puso en el currículo en 1892? Porque el presidente del comité de matemáticas que había elegido el director de Harvard, era el director del departamento de Princeton, y en esos momentos tenía un libro en venta sobre álgebra. Pero este no es un buen motivo para que mi hijos tengan que aprender álgebra.
Eduard Punset: También dices que… En esto estás ganando la batalla, porque este es un sentimiento que también tienen en otros lugares, en otras mentes: cuando dices que se aprende haciendo, es decir que o lo haces personalmente o no lo aprendes. Hay un proverbio chino que probablemente es de Confucio, o si no no se de quién es, y que dice: dime algo y lo olvidaré, enséñame algo y lo recordaré, pero hazme partícipe de algo y lo aprenderé.
Roger Schank: Yo diré algo muy simple: no hay otra forma de aprender. No se puede aprender de lo que te dicen, cuando doy conferencias yo pregunto: ¿Cuántas salidas de emergencia hay en un avión 757? ¿Cuántos salvavidas hay en un 757? Porque todos hemos escuchado estas explicaciones cien veces… y sin embargo nadie lo sabe. Y después pongo el video y la gente dice: Ahhhhhh!, hay 7. Pero no lo saben, porque decirle las cosas a la gente no es una buena manera de aprender. El aprender haciendo es un concepto que siempre ha existido. En este país había un educador, John Dewey, que era un gran defensor del aprender haciendo, y en 1916 se lamentó de que había estado intentando cambiar la metodología de aprendizaje en las escuelas y que nadie le hacía caso, y después añadía: quizá es porque yo sólo lo digo…
Eduard Punset: Y se han olvidado.
Roger Schank: Y no se acuerdan de lo que han oído. Nadie que nos esté escuchando es un experto en algo que no haya aprendido haciéndolo una y otra vez. Hay un chiste en este país: un hombre joven le pregunta a un señor mayor en Nueva York cómo se llega a Carnegie Hall, y el viejo le responde: por la práctica. Y así es como se consigue cualquier cosa. Si entiendes la educación como otra cosa que no sea práctica y experiencia, te has equivocado en tu percepción de la educación. Y todos los filósofos famosos, como Eisntein o Wittgenstein, han dicho exactamente lo mismo, pero las escuelas no lo hacen.
Eduard Punset: Increíble. En las escuelas en realidad los profesores explican lo que ellos creen que es importante, y no tiene nada que ver con el aprendizaje.
Roger Schank: Esto tiene unos orígenes muy interesantes, y es obvio por qué las escuelas son así. En 1600 un monje tenía un libro y lo leía porque tú no podías leer: esto era una buena idea en 1500. Lo que pasa es que no hemos cambiado el sistema desde entonces, y hoy sigue entrando un señor que da una clase, y como nadie recuerda lo que se dijo en clase, hay que hacer un examen. Así se estudia y se coloca todo en la cabeza. Yo les pregunto a mis estudiantes ¿cuántos podrían pasar el examen del año pasado ahora mismo? Ellos me preguntan: ¿podemos estudiar? Y les digo que no. Que se supone que tenían que haberlo aprendido. La respuesta es que no…
Eduard Punset: Porque lo aprendieron de memoria.
Roger Schank: No recuerdan los exámenes del año pasado. Yo no podría aprobar los exámenes de mi universidad, no sé si tú podrías.
Eduard Punset: Y hay otra cosa, y es que cuando nos modernizamos y utilizamos ordenadores, a menudo, por lo que tu dices y yo veo, es una paradoja la clase con ordenador. Se hace como las viejas clases, pero con un ordenador.
Roger Schank: El ordenador en realidad no está ayudando. Podría hacerlo pero no lo hace. ¿cómo podría ayudar? Si proporcionara experiencias permitiría que los estudiantes pudieran hacer cosas en el ordenador. Pero el sistema educativo está inherentemente en contra de ésto, y ahora te daré un ejemplo. Yo hice un programa para enseñar geografía donde los alumnos podían ver videos de lo que les interesaba, si eran deportes podían viajar por el país para ver partidos, si les gustaban las películas, podían ir a Filadelfia a ver a Rocky…, hicimos pruebas y vimos que los chicos aprendían geografía. Pero las escuelas no lo querían Y ¿sabes por qué? Porque un niño iba a California mientras el otro iba a Nueva York, y no podían controlar qué era lo que estaban aprendiendo.
Eduard Punset: Roger, ¿podemos poner un remedio a todo esto en los próximos años, con un aprendizaje creativo, o con ordenadores, sea lo que sea lo que eso quiera decir? ¿De qué manera puede el ordenador ayudar a salir de este desastre?
Roger Schank: Los ordenadores son una solución, pero no tienen por qué ser “la” solución. La clave es el sistema. Lo que permiten los ordenadores es tener una experiencia individual que les permite a los alumnos comunicarse con un compañero, o trabajar en equipo, o comunicarse con alguien al otro lado del mundo, o investigar algo que les interese, o hacer las experiencias que de otra forma no podrían hacer, pero cada uno en su propio campo. El ordenador en si no tiene ninguna relevancia, es un aparato que permite tener experiencias si se crea un buen software que lo acompañe; la mayor parte del software educativo que existe en estos momentos es malísimo. Es: lee este párrafo y responde las preguntas, es como si fuera un libro de texto, o peor que un libro de texto.
Eduard Punset: Hace un momento has dicho que los profesores se concentran en lo que saben en lugar de concentrarse en… ¿en qué se deberían concentrar?
Roger Schank: Los profesores deberían concentrarse en intentar comprender qué es lo que los estudiantes pueden hacer, y en ayudarles a hacerlo. Si yo quisiera aprender sobre fotografía ¿cómo lo harías? ¿me darías un libro sobre historia de la cámara de fotos, o me enseñarías cientos de fotografías buenas y malas? ¿o me darías una cámara de fotos y me dirías: ve a hacer fotos y cuando vuelvas veremos cómo hacerlas mejor. Esto es lo que yo creo que debe ser la educación, hay que tutorizar a los estudiantes a mejorar lo que hacen, mientras practican y mejoran. Y esto es cierto para cada aspecto de la educación, sea lo que fuere tiene que girar de alguna manera sobre cómo hacerlo.
Eduard Punset: Vamos a intentar dar un camino hacia el éxito a nuestra audiencia. ¿Existe algún consenso sobre cómo hacerlo? Una cosa que ha quedado clara es la de aprender haciendo, esto ya es algo; es posible que la gente no sepa cómo hacerlo, pero debería hacerse. Aprender debería ser divertido, y esto ya te lo he oído a ti y a otras personas. ¿Qué más hay que estemos seguros de que…?
Roger Schank: ¿Sabes cuándo las escuelas no están tan mal? Con asignaturas prácticas. Una vez me llamaron de una escuela que enseñaba asignaturas técnicas y tenían una escuela de cocina, y allí había 20 cocinas y 20 estudiantes. Les dije que no me necesitaban porque ya cocinaban. Cuando se trata de asignaturas que no son académicas no lo hacemos tan mal: no enseñamos a los pilotos a volar por medio de teorías de aviones, los ponemos delante de un simulador de vuelo y hacemos que lo intenten, y luego les hacemos volar primero en un avión pequeño, y luego en otros más grandes. Porque sabemos que un examen teórico en pilotar no los hace necesariamente buenos pilotos. Todas las asignaturas que no son teóricas ya sabemos cómo enseñarlas: si quieres enseñar cómo presentar un programa de TV hay que hacer todo tipo de trabajos como aprendiz, desde electricidad, iluminación, … No es difícil, esto ya lo sabemos como sociedad, el problema es que las escuelas no lo saben, no están al tanto de cómo enseñar.
Canadá: Un científico creó robot que sería una "novia perfecta"
Un joven programador japonés diseñó a Aiko, una robot de bella figura capaz de hablar distintos idiomas (puede decir hasta trece mil frases), y responder con dulzura al contacto físico. Además puede trabajar todo el día sin descanso, llevar las finanzas del hogar y realizar complejas operaciones matemáticas.
Le Trung, un científico japonés radicado en Canadá y creador del proyecto, lleva dos años trabajando en "Aiko" su creación más importante. Hasta ahora le costó 14 mil libras (cerca 21 mil dólares) y un ataque cardíaco.
Aparenta tener unos 33 años de edad, bien vividos.
Le Trung no se anduvo con rodeos. En lugar de buscarse una novia, o quizás luego de buscar una y no encontrarla, tomo su caja de herramientas, un buen puñado de componentes electrónicos y un álbum de fotos de una ex novia vietnamita de su juventud, y construyó Aiko. Aiko, digámoslo sin rodeos, es un robot mujer, con una función absolutamente clave para Trung: la de compañera sexual.
Aiko es, al menos para su trasnochado inventor, "la mujer perfecta". El fembot mide 1.52 centímetros de alto, tiene 82 centímetros de busto (podría haber sido un busto más generoso, ¿no creen?), 57 centímetros de cintura y 84 centímetros de cadera. Dicen los que saben que aparenta tener unos 33 años de edad, y lo mas retorcido de todo, es que su cara y aspecto general está calcado del de una ex novia del rompecorazones (robóticos) Le Trung que, como él, nació en Vietnam.
El software que da ¿vida? a Aiko demoró apenas 45 días en estar listo. Aquí tenemos que, forzosamente, preguntarnos si tan corto plazo obedece a que el canadiense es un genio programando, o bien a que solo le enseño a decir “oh, yes” y “oh, my God!” con voz de actriz porno. Sea como fuese, Trung se tomó otros dos años para que su invento reconozca la escritura, distinga los colores, detecte la presión en algunos lugares de su estructura (sí, claro, algo indispensable para un robot sexual que se considere superior a una muñeca hinchable) y haga algunas morisquetas con su rostro mientras dice “te quiero”.
Parece que incluso cuida el perro
El cacharro ya fue presentado en sociedad. Efectivamente, el mes pasado Le Trung cogió a Aiko y la llevó al "HobbyShow” de Toronto, una especie de súper feria de ciencias. Solo podemos imaginarnos las caras de los demás participantes cuando el inventor saco a la robot de la maleta. Se supo que para mantener las apariencias mientras estaba fuera de casa, y ante el manoseo indebido de su cuerpo, Aiko reaccionaba defendiéndose, tal como lo haría cualquier muchacha vietnamita de treinta y tres años cuyo novio inventa fembots en los ratos libres.
Según Le Trung "la experiencia de interactuar con la robot es única, ya que nadie esperaría una calidad de respuesta tan natural de una androide". Casi casi, dan ganas de tener una. De hecho, y a pesar de que el chisme cuesta alrededor de los 15 mil euros (unos 60 mil nuevos soles), puede que hasta sea más económico que una novia de carne, grasa y hueso, ya que a la hora de la separación no intentará quedarse con el piso o el coche. Además, entiende ordenes en inglés y japonés, algo que posiblemente nuestra novia no hace ni hará nunca (lo de “obedecer”, digo.)
¡Aiko usa peluca!
A la hora de intentar vender su invento, Le Trung sostiene que Aiko puede servir muy bien como compañía para personas mayores (se acabo aquello de ir de put@s con el abuelito) o niñera para los más pequeños. Pero si eres un adulto, la puedes pedir especialmente configurada para que responda a tus particulares preferencias sexuales, e incluso, puede "fingir un orgasmo”. Lo que se dice, ¡una robot totalmente realista!
No tenemos idea si se comercializarán alguna vez en España o en Perú, o si la dejaran pasar por la aduana cuando la compremos en eBay. Por lo pronto, ya podemos imaginar cuál fue la respuesta de Le Trung cuando le preguntaron “¿Tendrías sexo con un robot?"
Además...
La mujer robótica le lee los diarios a su "marido" y le da indicaciones cuando él maneja con rumbo incierto. Aiko no come, no duerme, no se queja y no tiene mamá, destaca un feliz Trung.
Sobre cómo la sociedad tomara esta particular relación, Trung dijo al Daily Mail que "las personas tienen reacciones distintas cuando conocen a Aiko. Algunos la aman, otros la odian. Algunas personas se enojan y me acusan de jugar a ser Dios", finalizó.
Japón: Repliee R-1: Un robot que no teme al valle inexplicable
No todos los robots en la CEATEC son lindos chiches amigables, también hay ginoides como el Repliee R-1, un robot de la Universidad de Osaka que pese a tener varios años fue presentado en la mentada feria para exhibir los últimos avances en imitación de gestos, ya que este robot imita la apariencia de una niña de 5 años de edad y para ello utiliza una serie de 50 sensores inteligentes y una infinidad de pequeños motores con el fin de imitar los movimientos de una niña real.
Los posibles usos de estos ginoides son varios: ayudantes para personas de edad o discapacitadas, vendedoras de tiendas, guías turísticos, etc. Pero el problema que muchos vemos es que el departamento de robótica de la Universidad de Osaka está rozando el “abismo” al valle inexplicable, un principio de la robótica que describe las respuestas negativas de los humanos a robots que aparentan serlo. Lo triste es que el R-1 genera mucho más rechazo que sus predecesores como la Repliee Q-2.
Con esto podemos ver cómo ha avanzado la robótica, pero a la vez confirmamos el principio del valle inexplicable que describiera Mori hace cerca de 40 años, y nos preguntamos cuándo tendremos persocons. Después del salto, un video de la Repliee R-1 en acción.
España: Científicos de Barcelona diseñan un robot que realiza tareas de mayordomo
• Se llama 'Reem-B', reconoce las caras humanas y responde a la voz de su interlocutor
• El prototipo es la estrella de las terceras Jornadas de Robótica que se celebran en BCN
Soñar hoy con un día a día controlado por robots no es nada descabellado. De hecho, las terceras Jornadas de Robótica de Barcelona, que se celebran hasta mañana en el Museu d'Art Contemporani (Macba), demuestran que ese sueño ya es una realidad, aunque, eso sí, algo costosa.
El concejal de Promoción Económica del ayuntamiento barcelonés presentó ayer la principal atracción de la cita, elReem-B, un androide construido por la empresa de los Emiratos Árabes Pal Robotics y un equipo de ingenieros catalanes. El robot goza de ciertas cualidades únicas en el mundo que lo convierten en un producto de primera línea y sitúan a la robótica catalana en la vanguardia mundial de esta industria.
Mide cerca de un metro y medio, pesa 40 kilos y consta de 41 motores que le permiten caminar, subir escaleras, coger objetos, transportarlos y sentarse. Es el primer androide bípedo capaz de orientarse en un ambiente tras su reconocimiento, de sostener cargas de hasta 12 kilos y de funcionar durante sus dos horas de autonomía. Aunque, tal y como declaró Davide Faconti, director de Pal Robotics, "el objetivo es que llegue a trabajar todo un día". "Buscamos otro tipo de robot más sencillo pero más próximo a las personas, es decir, de mayor utilidad", prosiguió.
El androide tiene un predecesor también catalán, el Reem-A, diseñado y construido en tan solo un año con un fin experimental que sirvió a la empresa para demostrar su potencial en un proyecto de tal envergadura. Pero, siguiendo la línea de ciertas máquinas ficticias, como el servicial Robby de Planeta Prohibido, por poner un ejemplo, el segundo prototipo vino al mundo con un propósito más humano. "Con el tiempo, hemos visto que los robots pueden ayudar a las personas u operar en lugares públicos, como en museos", explicó Faconti. Es por ello que el Reem-B puede reconocer caras y responder verbal y activamente a las órdenes que las personas le den.
MÁQUINAS DOMÉSTICAS
Las jornadas pretenden fomentar la vocación científicotecnica y acercar la robótica a la vida cotidiana. El Macba exhibe hasta mañana algunas máquinas como el mismo Reem-B, dos graciosos robots limpiadores --uno escoba y otro fregona-- y un controlador domótico de los sistemas energéticos del hogar --algo así como la versión benévola de HAL-9000, la computadora que coordinaba, a sus anchas, las funciones de la nave de 2001, Odisea en el espacio--. Charlas, talleres y una competición en el CosmoCaixa acabarán de mostrar la gran utilidad de la robótica en los quehaceres diarios y que la revolución --que no rebelión-- de las máquinas inteligentes es inminente.