Latest Posts:

Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

2 de octubre de 2014

Una conversación asombrosa entre dos programas informáticos





El concepto de Inteligencia Artificial en la ciencia-ficción trata acerca de la posibilidad de que se puedan programar ordenadores capaces de emular los procesos y capacidades de la inteligencia humana o de que, debido a su cada vez mayor complejidad, alcancen por sí mismos dichas capacidades.





Quizá ya no estamos tan alejados de tal concepción. Pensemos en HAL 9000 o Skynet. Probablemente sean dos de las Inteligencias Artificiales más famosas de la historia del cine. Ambas tenían en común haber sido creadas por el hombre para ayudarle. Skynet inicialmente iba a defender a Estados Unidos controlando la seguridad en defensa. HAL en cambio estaba destinado al mantenimiento interno de la nave. No fue así claro. Finalmente ambas máquinas se rebelan contra el hombre y se convierten en enemigos de sus propios creadores. Volviendo a la realidad, pensemos en los avances de los programas informáticos que emulan conversaciones o pensamientos humanos, ¿hasta dónde se ha llegado actualmente? Pues a tenor del último experimento realizado en la Universidad de Cornell, no sólo asustan por su locuacidad, sino que llegan a debatir sobre el existencialismo y la religión.

El experimento se realizó entro dos chatbot, programas de simulación de conversación humana. Su objetivo no es otro que generar respuestas lo más naturales con el fin de acercarse lo más posible a los pensamientos de un ser humano.

Sí, siempre les faltará la consciencia, pero el resultado que podemos ver en el vídeo resulta tremendamente inquietante. Lo que comienza como una conversación más o menos atropellada entre ambos va adquiriendo un tono cada vez más serio y casi diría que real. El hombre quizá con un tono más arrogante frente a la mujer, que se muestra más alerta, como a la defensiva.

El inicio de la conversación, totalmente surrealista donde uno dice ser un unicornio, acaba como muchas de las grandes obras de la literatura y el cine del género. Llegan hablar de religión, Dios o incluso que desean un cuerpo humano.

Haber colocado a estos dos chatbots frente a frente y obtener está conversación de ambos es brillante. Quizá como decía al comienzo no estamos tan lejos de la concepción de la Inteligencia Artificial de la ficción. De hecho, es muy probable que el experimento sea presentado en la 2011 Loebner Prize Competition in Artificial Intelligence.

Desde hace 20 años existe un premio de 100.000 dólares para aquel programa que pueda mantener una conversación con un ser humano ante la atenta mirada de los jueces. El formato de la competición sigue el estándar establecido en el Test de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas que se encuentra bajo el control de un ordenador, y la otra bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas. En base a las respuestas, el juez debe decidir qué pantalla es la controlada por el ser humano y cual es la controlada por el programa de ordenador. El día que se consiga superar la prueba el concurso desaparecerá. Podría ser que estos dos chatbots se encuentren muy cerca de conseguirlo.

Fuente:

ALT1040

10 de junio de 2014

Máquinas y test de Turing: ¿Inteligencia real o imitación?

El test propuesto por el matemático inglés Turing en su artículo Computing machinery and intelligence, publicado en 1950 en la revista Mind, está considerado uno de los hitos históricos del desarrollo de la inteligencia artificial. Originalmente se denominaba El juego de imitación y era ligeramente diferente, con un hombre, una mujer y un interrogador, situado en una habitación separada, que debía determinar cuál era el hombre y cuál la mujer, mientras éstos trataban de engañarle. 


Turing usó está misma idea para su test, y actualmente el interrogador se comunica con un humano y una máquina con mensajes de texto durante cinco minutos, y decide cuál es el humano. Si la máquina consigue ganar más del 30% de las veces supera el test. Es lo que se supone que han conseguido Eugene Demchenko y Vladimir Veselov

Esto no significa que ya existan máquinas con una inteligencia igual a la humana: el test planteado por Turing es muy controvertido, y muchos aseguran que es tan bueno como sus jueces. Un buen examinador debe ser capaz de detectar respuestas fuera de contexto, ya que a fin de cuentas, se enfrenta a un simple algoritmo. Y lo que mide es solo una parte de la inteligencia humana; es decir, es un buen simulador de conversaciones, pero, por ejemplo, no necesariamente creativo. Imita la inteligencia pero ¿es realmente inteligente?

El logro rompe un reto que se resistía, como ocurrió con la victoria de Deep Blue a Gari Kasparov en ajedrez en 1997, pero no va a suponer grandes avances en la teoría de computación o en la inteligencia artificial. Tiene, eso sí, implicaciones sociales. Actualmente, con miles de robots y humanos buscando nuestros datos e invadiendo nuestra intimidad, este paso debería servirnos para reflexionar sobre nuestra creciente indefensión para discernir la verdad o falsedad de lo que se nos comunica por las redes. 

Tomado de:

El Mundo (España)

3 de mayo de 2014

OpenWorm o la emulación digital de un organismo vivo

La aplicación de este software podría ayudar a mejorar la creación de vacunas, medicinas y combustibles alternativos, además de limpiar desechos químicos. 


openworm

La inteligencia artificial tiene sus límites: la de las máquinas mismas y las de nuestras limitaciones para adecuar software a los complicados procesos de toma de decisión en ambientes de cambio constante. Pero “crear” inteligencia artificial es comparativamente sencillo si se piensa en la extrema complejidad de construir un animal.

El doctor Stephen Larson es el cofundador y coordinador del proyecto OpenWorm, donde un ambicioso equipo tratará de crear una versión digital de un gusano nematodo, uno de los organismos más básicos que existen, y según Larson (neurólogo de profesión), también uno de los que la biología sabe más: su nombre científico es C. elegans, y cuenta con alrededor de mil células, las cuales han sido mapeadas, “incluyendo un pequeño cerebro de 302 neuronas y su red compuesta de más o menos 5,500 conexiones.”


Algunos patógenos y ADN virtuales con capacidad para reproducirse han sido emulados con éxito en entornos electrónicos, pero el reto de Larson y su equipo será el de conformar un organismo digital que se comporte como uno físico. A decir de Larson, “al final del día la biología debe obedecer las leyes de la física. Nuestro proyecto es simular en lo posible la física −o la biofísica− del C. elegans y compararlo con medidas de gusanos reales.”

La aplicación de este software podría ayudar a mejorar la creación de vacunas, medicinas y combustibles alternativos, además de limpiar desechos químicos, así como para crear entornos de realidad virtual mucho más comprensivos. 

Una campaña de Kickstarter comenzará el 19 de abril para reunir fondos. Lo interesante es que OpenWorm estará disponible siempre como plataforma de acceso abierto para estimular la investigación y la curiosidad del modelo nematodo una vez concluido, lo que naturalmente nos pone un paso más cerca de la proverbial creación de organismos digitales de mayor complejidad.
Después de todo, un esclavo no desea la libertad, sino tener un esclavo propio.
Tomado de:

28 de enero de 2014

Los robots ya están aquí: ¿nos dejarán pronto sin trabajo?


fábrica con robots

Una empresa china abrirá una planta para fabricar los robots que sustituirán a 500.000
de sus trabajadores.

Si está preocupado por el advenimiento de los robots, deje de estarlo: ya están aquí.

La inteligencia artificial tiene actualmente presencia en cada aspecto de nuestras vidas en el mundo occidental.
Distintos tipos de autómatas son ya responsables de mantener nuestros correos electrónicos libres de spam, nos ayudan a comprar por internet, pilotan aviones y, si Google logra materializar sus planes, conducirán también nuestros automóviles.

"La inteligencia artificial ya ha conquistado su espacio en nuestro día a día", le asegura Neil Jacobstein a BBC, responsable del departamento de Inteligencia Artificial de la Universidad de la Singularidad en Estados Unidos. "Se emplean en la industria médica, para agilizar la burocracia legal, en el diseño y en las automotrices", continúa.

Y cada día los algoritmos que influyen en nuestras vidas entre bambalinas se vuelven más precisos e inteligentes.

Esto sitúa al ser humano muy cerca de uno de los mayores retos del mundo moderno: el momento en el que las máquinas sean tan inteligentes como los seres humanos.

El profesor Jacobstein prevé que ese hito sucederá a mediados de la década del 2020.

Y se pregunta cuál será el rol del hombre en una sociedad dominada por la inteligencia de las máquinas.

Fuente:

BBC Ciencia

16 de enero de 2014

Marvin Minsky: “Se crearán máquinas al menos tan inteligentes como los humanos”

La Fundación BBVA premia al padre de la Inteligencia Artificial Marvin Minsky 
El científico ha sido elegido en la categoría de Tecnologías de Información y Comunicación 
Es la sexta edición del premio Fronteras del Conocimiento 


Imagen de vídeo facilitada por la Fundación BBVA de Marvin Minsky
 
— ¿Una máquina podría tener sentido común o creatividad?

— No hay ninguna razón para pensar lo contrario.

Esta es la opinión de Marvin Minsky, considerado el padre de la Inteligencia Artificial, que ha sido galardonado este martes con el premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación, en su sexta edición. La idea de desarrollar máquinas tan inteligentes como las personas, presente desde hace años en el imaginario colectivo, no es una utopía para Minsky, pero no se atreve a aventurar el plazo en el que podría lograrse. "Depende de cuánta gente trabaje en los problemas adecuados. Ahora mismo no hay ni recursos ni investigadores suficientes”.

“Los grandes avances en Inteligencia Artificial se dieron entre los 60 y los 80 del pasado siglo. En los últimos años no he visto nada que me sorprenda", ha criticado el científico desde el hospital donde se encuentra ingresado después de una intervención quirúrgica. "Ahora hay muy poca financiación pública, y los fondos se destinan más a aplicaciones de corto plazo que a ciencia básica. Para el científico, el punto de inflexión fue el final de la guerra fría. "De los 50 a los 70 había mucha financiación para investigación básica y no esperaban aplicaciones de manera inminente. Pero en los 80 todo cambió. El Gobierno de EE UU dejó de tener la motivación que le movía a invertir. Las investigaciones empezaron a depender de la industria privada y eso significa que nadie va a apoyar investigaciones que necesitan muchos años para conseguir resultados, lo que supone una gran limitación”.

Minsky ha señalado, sin embargo, que es previsible que la inteligencia de los ordenadores, entendida como la capacidad para aprender del entorno, siga aumentando en los próximos años de forma exponencial. "Es esperable que continúe creciendo el conocimiento humano en este área, con la presencia de nuevos jóvenes científicos, repletos de brillantes ideas y retos".

Lea el artículo completo en:

El Páis Ciencia

18 de diciembre de 2013

BBC: ¿Nos ganó ya la Inteligencia Artificial?

Arimaa

Arimaa
  • Se juega en un tablero con cuatro cuadrados que se distinguen conocidos como "casillas de trampa"
  • Dos jugadores, el dorado y el planeado, controlan 16 fichas: un elefante, un camello, dos caballos, dos perros, dos gatos y seis conejos
  • El juego puede ganarse de tres maneras: moviendo un conejo a la octava fila en el tablero; capturando todos los conejos del enemigo; dejando todas las fichas del opositor congeladas o bloqueadas
Robot jugando ajedrez, cerebro al lado

En 1968, el maestro en ajedrez David Levy apostó que para 1978 ninguna computadora sería capaz de vencerlo en una serie de juegos. Y ganó la apuesta.
De hecho, se mantuvo invicto durante casi toda la década de los 80. "Después de que gané el primer combate, hice otra apuesta que cubría un período de cinco años. Luego dejé de apostar: para entonces, ya podía anticipar lo que se venía".
Hoy en día, sería absurdo que el mejor jugador del mundo, Magnus Carlsen, hiciera una apuesta similar a la de Levy.

El progreso de las computadoras en el campo del ajedrez ofrece una lección sobre la manera en la que la gente piensa respecto al futuro de la inteligencia artificial.

Dominio total de las fichas

El hombre que acuñó la expresión "inteligencia artificial" (IA) -el científico estadounidense John McCarthy- se dio cuenta desde el principio que los juegos como el ajedrez y otros así de complejos eran una buena manera de medir el progreso de las máquinas.

"Hay una medida absoluta y una meta para superar", le dice Levy a la BBC. "En muchos juegos hay sistemas de clasificación, por eso los juegos son un buen vehículo para la IA. Jugar requiere una combinación de habilidades que incluyen la inteligencia".

McCarthy supervisó la creación del primer programa de ajedrez que jugaba de manera convincente. Para 1962, el programa -Kotok-McCarthy- era tan bueno como un jugador humano mediocre. Pero luego perdió su primer juego entre computadoras contra su rival ruso.

El partido engendró una tradición de batallas entre máquinas que eventualmente llevó al Campeonato Mundial de Ajedrez por Computador. Durante 40 años, los programadores han estado batallando entre sí.

Pero no sólo es ajedrez. En 2007, un equipo encabezado por Jonathan Schaeffer de la Universidad de Alberta, Canadá, "resolvió" el juego de damas. Es decir, encontró que si ambas partes juegan perfectamente, el resultado es un empate. Tomó 18 años de cálculos computarizados hacer este hallazgo.

La bella imperfección

Garry Kasparov

En 1997, la computadora Deep Blue de IBM venció a Garry Kasparov.

Los entusiastas de juegos que han sido dominados por los computadores ocasionalmente sienten nostalgia por la era anterior a las máquinas.

Durante el reciente Campeonato Mundial de Ajedrez, en el que el prodigio noruego Carslen se coronó como el mejor del mundo, un comentador usó la frase: "Un movimiento muy humano".

La cuestión es que los humanos cometemos errores. Y las fallas más sutiles, los movimientos "subóptimos", pueden originar bellas situaciones.

Por otro lado, los errores terribles que comenten los mejores humanos -como los goles perdidos en fútbol- alivian un poco el complejo de inferioridad del resto de los mortales.

El ex campeon mundial Vladimir Kramnik fue el autor de una de las meteduras de pata más famosas en ajedrez, cuando en una partida contra una computadora en 2006 no se percató de un jaque mate obvio. Fue uno de esos errores que ni un novato de ocho años de edad comete.

Las computadoras nunca son tan divertidas.

Lea el texto completo en:

BBC Ciencia

27 de abril de 2013

Ray Kurzweil y la inteligencia artificial de Google

(cc) nacaseven

El conocido futurista Ray Kurzweil comenzó a trabajar en Google hace cuatro meses, y recientemente dio una entrevista a Wired donde revela algunos de los trabajos que está realizando dentro de la compañía, relacionados con entender el lenguaje natural de las personas.

“La búsqueda ha avanzado más allá de encontrar palabras clave, pero todavía no puede leer todas estos miles de millones de sitios y páginas web para encontrar contenido semántico. Si escribes un post, tienes algo que decir, no estás sólo creando palabras y sinónimos. Nos gustaría que los computadores comprendieran ese sentido semántico. Si eso ocurre, y creo que es posible, las personas podrían hacer preguntas más complejas”, explicó Kurzweil.

La investigación de Kurzweil está relacionada con un proyecto de Google usando simulaciones del cerebro humano para crear inteligencia artificial y aprendizaje de máquinas. La idea es que los computadores puedan reconocer mejor lo que las personas quieren decir, y aprender de lo que hacen. Si una máquina llegara a ese nivel, según Kurzweil sería consciente.

“Tengo una fecha consistente de 2029 para esa visión. Y eso no significa sólo inteligencia lógica. Significa inteligencia emocional, ser divertido, entender el chiste, ser sexy, ser amoroso, entender la emoción humana. Eso es en realidad lo más complejo que hacemos. Eso es lo que separa a computadores y humanos hoy. Creo que esa brecha se cerrará en 2029″, aseguró.

El resto de la entrevista se puede encontrar en el link abajo, donde Kurzweil se refiere a las estructuras de los cerebros y la posibilidad de extender la vida y no morir, un tema recurrente en sus libros.

Link: How Ray Kurzweil will help Google make the ultimate AI brain (Wired)

Fuente:

FayerWayer

21 de febrero de 2013

Máquinas que aprenden

Como dirían los entrevistados de Punset: "No es tan sencillo"

Esta semana vamos a darle un rápido repaso a cómo las máquinas, ordenadores, son capaces de aprender. Había pensado ponerle de título a la entrada "Ordenadores que aprenden", pero, seamos sinceros, la palabra ordenador suena fatal, mientras que máquina aporta al título un aspecto duro y, sobre todo, sexy.

Para entender como un ordenador aprende algo, es necesario saber su funcionamiento básico. Una computadora ejecuta programas, que son secuencias de instrucciones previamente programadas. Estas instrucciones no son muy distintas a las de una calculadora programable. Básicamente, a una velocidad increíble,  el ordenador está leyendo números de memoria, operando con ellos y almacenándolos de nuevo para un uso posterior. La pregunta que planteo es ¿qué grado de aprendizaje puede asumir un ordenador, si su comportamiento viene definido por una secuencia de instrucciones de este estilo? 

Bien, para un programa dado, sus instrucciones no se ejecutan siempre de la misma manera porque existe un elemento variable: los parámetros. Día a día, a veces sin darnos cuenta, comunicamos parámetros al ordenador. La dirección de una web, a la hora de introducirla en la barra del navegador, es un parámetro, y en función de su valor, la respuesta del programa será distinta. Nada más lejos de la realidad, este texto que escribo es un parámetro que estoy variando, luego el sistema de gestión de contenidos del blog, dependiendo de su contenido, lo transformará a un formato presentable (y si, esta vez con los párrafos justificados). La gracia de estos parámetros es que un cambio en sus valores pueden producir una respuesta diferente, sin necesidad de cambiar el programa subyacente.

Vale, ha quedado claro que los ordenadores pueden actuar de una manera u otra según los parámetros que se le introducen, pero no he dicho qué puede aprender un ordenador. Está claro que introducir la URL en el navegador no se presta a mucho aprendizaje (¿seguro?) y el texto que escribo es un simple bulto que se arrastra a lo largo de Internet (repito, ¿seguro?). Dar una definición de aprendizaje es compleja, incluso para seres humanos, y su generalización al ámbito computacional también lo es.
A grosso modo, se denomina aprendizaje automático (machine learning) al campo de la computación que se encarga de dar a los ordenadores la capacidad de aprender sin ser explícitamente programados para ello. Veamos algunos ejemplos de lo que puede aprender a hacer un ordenador:
  • Reconocer texto en general, ya sea manuscrito o tipografiado.
  • Reconocer caras.
  • Diagnóstico de enfermedades.
  • Selección de perfiles de personal.
  • Determinar si una transacción bancaria es fraudulenta.
  • Corregir el texto que escribimos en la pantalla táctil de un móvil (dios, esta si que me gusta)
  • ...
A las tareas anteriores podemos añadir conducir, andar o incluso componer música (si, si Conde Chócula me lo permite, algún día haré una entrada sobre música generativa). En general un ordenador es capaz de aprender cualquier tarea cuyo conocimiento pueda verse de manera formal. Ahora bien, no podemos programar, es decir cambiar explícitamente las instrucciones que sigue el programa, pero sí podemos modificar los parámetros de un programa ya escrito. Pero claro, entonces necesitaría un programa para cada tarea de la lista anterior, es decir no puede usarse la misma técnica para reconocer texto que para reconocer caras o corregir texto mal escrito.

MENTIRA

Imaginaos la situación. Una letra, al igual que un texto escaneado, es una imagen. Una imagen es algo que está escrito en el idioma del ordenador. Por simplicidad, centrémonos en el reconocimiento de caracteres manuscritos. Si cada carácter esta contenido en una imagen en blanco y negro, existen ciertos píxeles que están en blanco y otros que estan en negro, lo cual puede verse como una matriz cuyas celdas pueden tomar valores de 0 para el negro o 1 para el blanco (o al revés, como más os plazca).
Una vez formalizada la entrada, vosotros, lectores míos, ¿que más hace falta para que el ordenador sea capaz de, a partir de la imagen, averiguar el carácter que representa?. Pensad como aprenderíais vosotros  las letras del abecedario (¡dejadlo en los comentarios!), yo os voy a contar cómo lo haría el ordenador.

En primer lugar  se construye un conjunto de entrenamiento, que se caracteriza porque para cada imagen se dispone del resultado, es decir del carácter que representa la letra contenida en la imagen. Una vez establecido, se procede a mostrar una y otra vez estos ejemplos al ordenador, el cual produce un resultado. La dinámica es la siguiente: si el programa se equivoca, modifica sus parámetros para evitar volver a cometer el error en un futuro.

Después de varias pasadas, cuyo número, entre otros factores, depende del número de ejemplos, el programa ha aprendido con más o menos "nota" los ejemplos. Si os dais cuenta, este procedimiento se asemeja bastante a los malvados ejercicios que mandan antes de hacer un examen. Genial, sois un ordenador y os sabéis de puta madre los ejercicios que habéis memorizado una y otra vez, pero ha llegado la hora del examen. El examen se realiza con otros ejercicios diferentes, el conjunto de test. Estos ejemplos no han sido vistos nunca por parte del programa y sirven únicamente para ver cuantos aciertos se tienen con datos desconocidos, lo cual da una medida de lo bien que nuestro programa ha aprendido lo que queríamos enseñarle.

Bueno señores, el problema del reconocimiento de caracteres es un problema de aprendizaje supervisado, porque se indica al método cuales han sido sus errores diciéndole la respuesta cada vez que intenta adivinar el resultado. Además se trata de un problema de clasificación, porque se trata de averiguar a que clase pertenecen las distintas imágenes, que en este caso son las letras del abecedario. La clave es que existen técnicas (de aprendizaje automático) que resuelven problemas de este tipo, las cuales de manera transparente al usuario (no hay que cambiar el comportamiento del método), dada una base de ejemplos y una representación adecuada de la entrada (en el caso anterior una matriz) y una salida (la clase, cualquiera de las letras del abecedario) son capaces de ajustar los parámetros para que en el futuro clasifique datos que no ha visto nunca. 

En cuanto a las técnicas empleadas para este tipo de problema, podemos hablar de redes neuronales. En este caso los parámetros a ajustar son los potenciales de activación entre las neuronas, recordando un poco el funcionamiento de éstas en el sistema nervioso.

Otra técnica interesante son los árboles de clasificación...


Lea el artículo completo en:

Mente Enjambre

10 de febrero de 2013

López de Mántaras: "Estamos más cerca de HAL9000 que de crear un niño robot"


jose ramon lopez de mantaras

Esta semana visitó Ciudad Real uno de esos genios olvidados que existen todavía en las organizaciones científicas españolas y que todavía no han decidido abandonar el país en busca de fondos. Su nombre es Ramón López de Mántaras, nombre poco conocido, pero que es director de Investigaciones de Inteligencia Artificial del CSIC, ganador del nóbel de su área, el premio Robert S. Engelmore, siendo el primer no norteamericano que se ha hecho con él.

Además de estos elementos, López de Mántaras es una de esas personas que da gusto entrevistar, apretón de manos explicar lo que quieres y se une al juego periodístico. En este caso ese juego se basa en coger referencias de aquí y de allí, de la ciencia ficción y de las películas, para hacer una idea de cuál es el futuro de la inteligencia artificial.

¿Hay inteligencia artificial en España? “Claro que la hay, la hay aquí y en muchos lugares del Mundo”, explica López de Mántaras, de hecho en España estamos entre los diez primeros países del mundo en lo que se refiere a investigación, ateniendo a documentos publicados, “que es como se mide la producción científica”. “Lo que falta es que se traslade la ciencia al sector productivo”, la complicación con la que se encuentran todos los científicos españoles.


Las tres leyes de Asimov son:
  • Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

  • Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.


  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley


¿Y en qué se investiga en Inteligencia Artificial española? ”Prácticamente todo se toca, del lenguaje al razonamiento” incluso estamos trabajando bien el tema de la robótica en la que tenemos “mucho prestigio”. Otras áreas en las que se trabajan son “el razonamiento bajo”, con elementos que nos son muy precisos y “en visión artificial con análisis de escenas, control de calidad,…”.

Unos trabajos que nos acercan a la idea más del ordenador que del robot multiorgánico que se pueden ver en las películas. Es decir, que estamos más cerca de HAL9000 y Odisea 2001, que de crear un niño robot de la película de Spielberg-Kubrick, IA.  ”Hal 9000 muestra una inteligencia artificial más asequible, aunque no se ha llegado todavía a él”. Las razones por las que es posible este acercamiento es porque “tiene conocimientos generales, sabe mucho y de muchos ámbitos”, aunque es precisamente esta la limitación de los actuales estudios. “Esta versatilidad e inteligencia generalista es lo difícil de conseguir, lo que es fácil son conseguir inteligencias que dominen un campo muy limitado”, jugar al ajedrez, por ejemplo.
“El niño Inteligencia Artificial va más allá porque no sólo está la parte computacional o de ordenador sino que demás tiene forma humana, y piel”, indica López de Mántaras . “Está el aspecto” pero también “muestra un alto nivel de sentimientos y emociones”, algo común al robot de 2001.

¿Es la consciencia el límite de la IA? es la pregunta siguiente y que surge siempre que se habla de sentimientos y robots. “Esto de la consciencia no se sabe muy bien qué es”, comenta el investigador, sobre todo porque a nivel científico aún no se ha podido demostrar. “No se sabe ni en los seres humanos como aparece la consciencia, cada uno sabe que somos conscientes al estar dentro de nuestra piel, pero no hay test de saber si otra persona es consciente como yo”, lo que pasa es que al mirar a otra persona nos vemos reflejados y “como son como yo” proyecto sobre ellos mi idea de la consciencia.

Un juego es de yo soy consciente, tú eres consciente, en el que entra en juego otra película de la ciencia ficción ‘Yo, robot’, basada en el cuento de Asimov,  o ‘Blade Runner’ y la historia de Philip K. Dick. ¿Sueñan las máquinas, proyectan ideas propias? “Hay programación involutiva”, es decir que se pueden cambiar a sí mismos “o evolucionar”, comenta López de Mántaras. Pero de ahí al sueño, al sufrimiento, al sentimiento hay un gran paso. “Los fantasmas (líneas de código perdidas de las que surgen ideas nuevas) es la consciencia otra vez” algo que no se sabe si surgirá en algún momento. “No sé si emergerá algún tipo de este tipo de Inteligencia Artificial en elementos muy sofisticados. El problema sería que “no se puede comprobar” y habría que creerlo “si nos lo cuenta” la propia máquina, si “empieza a hablar y a manifestar creencias” a tener “filias, miedos, opinión propia,…”. Unos conceptos que en opinión del investigador “emergerían derivadas del hecho de ser inteligencias muy avanzadas”, algo que “puede ser un efecto colateral”.

Entonces, para estar seguros de que no haya problemas con estos elementos, ¿todas las máquinas creadas en el CSIC incluyen las tres leyes de Asimov? “Son  leyes que hay que tenerlas presentes para robots muy sofisticados e inteligentes”, pero aún no se ha llegado a este punto de ser necesario introducirlas en ninguna de las máquinas creadas.

¿Y el futuro hacia dónde nos lleva? ”Las inteligencias artificiales serán distintas a las humanas. No creo haya que hacer máquinas indistinguibles a los humanos”. En este sentido el investigador recuerda que la inteligencia humana no es la única que existe en la tierra, está la inteligencia de los delfines, la de los pájaros,… “Hablamos de inteligencias en plural” y la IA es sólo “otra forma nueva de inteligencia, muy distinta de las humanas”
Tomado de:

El Crisol de Ciudad Real

20 de enero de 2013

Científicos logran implantar en un cerebro la primera memoria artificial



Diez años. Ese es el tiempo que ha tardado un equipo mixto de científicos de la Universidad de Carolina del Sur y la Universidad Wake Forest en hacer realidad lo que en los 80 se planteaba sólo como ficción en películas como Johnny Mnemonic y libros como Neuromante. El descubrimiento, publicado en la revista Journal of Neural Engineering, no es otro que un chip de memoria que permite implantar recuerdos en un cerebro vivo. El chip ha sido testeado con éxito, de momento, en una rata de laboratorio.

El experimento funciona como sigue. Se implanta un chip que registra las ondas cerebrales que llegan al hipocampo, porción del cerebro encargada de la memoria a largo plazo. El chip mide los estímulos que llegan a dos regiones denominadas CA1 y CA3 y que son las que controlan el proceso de aprendizaje y memorización de nuevos conocimientos.

Con el chip registrando datos, los equipos dirigidos por el Doctor Theodore Berger enseñaron a la rata a pulsar una determinada palanca para obtener agua.

Una vez la rata se hizo con el mecanismo. Los científicos anestesiaron la región CA1 con fármacos e hicieron al chip realizar el proceso inverso, o sea, enviar al hipocampo las ondas cerebrales grabadas durante el aprendizaje. La rata, aún con esa parte de su cerebro dormida, era capaz entonces de recordar lo aprendido gracias a los datos contenidos en el chip.


Theodore Berger

El Doctor Berger señala que si somos capaces de decodificar conocimientos complejos para traducirlos en sus correspondientes ondas cerebrales sería teóricamente posible implantar conocimientos en el cerebro al más puro estilo Matrix.

El límite parece estar en los recuerdos que son más experiencias personales que conocimientos en estado puro. Originalmente, el diseño del cerebro de cada persona es el mismo, pero su estructura de conocimientos posterior depende mucho de las reconexiones que este maravilloso ordenador que llevamos dentro hace con el tiempo.

El descubrimiento, eso sí, abre las puertas a un nuevo y fascinante campo de investigación sobre la curación de enfermedades relacionadas con la pérdida de memoria debido a deterioro cerebral, como el Alzheimer. Con todo, aún tendrán que pasar unos cuantos años antes de que podamos abrir los ojos y decir ‘Ya se Kung Fu’.

Vía | SmartPlanet

Fuente:

Xakata Ciencia

22 de diciembre de 2012

Nuevo programa informático permite sustituir al jefe por un ordenador

La herramienta es capaz de delegar tareas en trabajadores humanos a través de plataformas de crowdsourcing. ¿Será una mezcla de HAL 9000 y Dilbert?
  
Investigadores de la Universidad de Massachusetts, en Estados Unidos, han desarrollado el primer sistema basado en crowdsourcing totalmente automático, al incluir de forma novedosa tareas propias de un jefe como gestionar a los trabajadores, mandarles trabajos, aceptarlos o rechazarlos y hacer los pagos. Bautizada como AutoMan, el objetivo de la herramienta es mejorar el rendimiento del crowdsourcing, favoreciendo la creación de una nueva clase de empleos que podría convertirse en un sector emergente de la economía mundial. 

El reconocimiento de matrículas es una tarea habitual de crowdsourcing. Fuente: UMASS
El reconocimiento de matrículas es una tarea habitual de crowdsourcing. Fuente: UMASS 
A pesar de los continuos avances en Inteligencia Artificial (IA), los ordenadores siguen con complicaciones para completar tareas que resultan de gran facilidad para el hombre, como leer la matrícula de un coche o entender el sentido de la ironía o de un chiste. Para salvar este escollo cada vez es más habitual el uso de plataformas de crowdsourcing, donde se aprovechan las posibilidades que brindan las tecnologías web 2.0. para que la multitud pueda colaborar.
Sin embargo, la utilidad de estos métodos también es limitada, pues al no estar totalmente automatizados existen dificultades para dirigir tareas complejas o interrelacionadas. En otras palabras, falta un jefe que organice y dé el visto bueno al trabajo. En este propósito trabajan los investigadores de la Universidad de Massachusetts (UMASS), en Estados Unidos, que han desarrollado Automan.

“Preferiría tener como jefe a un ordenador que a un imbécil”, afirma contundente Daniel Barowy en un artículo publicado en Newscientist. Este informático de la UMASS ha creado junto a su equipo el primer sistema totalmente automático capaz de delegar tareas en trabajadores humanos a través de plataformas de crowdsourcing como Mechanical Turk de Amazon.

El funcionamiento de esta web es sencillo: una serie de empresas o usuarios (llamados requesters) suben a la plataforma diferentes tipos de pequeñas tareas. Los usuarios trabajadores (o workers) hacen esos encargos, y cuando los requesters verifican que se han ejecutado de forma correcta, remuneran económicamente a quienes hayan tomado parte en el trabajo.

Con Automan se completa el círculo, pues el software está diseñado para gestionar a los trabajadores, mandar trabajos, aceptarlos o rechazarlos y efectuar los pagos. “Estamos reemplazando los jefes de carne y hueso por ordenadores”, destaca Barowy.


Garantía de calidad

Para el investigador se trata de un nuevo tipo de computación. “Esto cambia el tipo de cosas que se pueden hacer”, añade.

Y es que hasta ahora hay que planificar a los trabajadores para reducir la latencia, lo que supone un desembolso económico, además de monitorear y reprogramar las tareas cuando no se completan o se hace de forma errónea.

Esto sin contar la dificultad para predecir el tiempo y dinero que se debe presupuestar para una tarea específica.

Por el contrario, la garantía de calidad es la contribución más importante que aporta el nuevo software. “Sin un mecanismo para dirigir la calidad del rendimiento de los trabajadores, no es posible la automatización completa”, destaca Barowy.

A diferencia de las plataformas de crowdsourcing, AutoMan no intenta predecir la fiabilidad de sus trabajadores en base a actuaciones anteriores. En cambio, si no está seguro de haber obtenido la respuesta correcta, sigue publicando la misma tarea, aumentando cada vez la remuneración, hasta estar seguro de que se llevará a cabo.
Otra forma de verlo es que aporta la visión interesante, creativa o divertida de los usuarios, algo difícil de conseguir con una máquina. “Aúna realmente lo mejor de ambos mundos. El ordenador hace el trabajo sucio”, señala Barowy.
Por supuesto, el trabajo humano no es gratuito. Cada desarrollador de aplicación presentará un presupuesto a AutoMan, que será programado para mantener costos bajos. Las respuestas rápidas o de alta calidad costarán más, pero el sistema gestionará todo esto de forma automática. El objetivo es que el cualquier usuario de un software híbrido no sepa si está interactuando con una máquina, con personas, o con ambos a la vez.

Por otra parte, los investigadores también han tenido en cuenta a los trabajadores, y a cómo se sentirán al recibir órdenes directamente de un ordenador. Hasta el momento, en las pruebas con Mechanical Turk, Barowy ha recibido una respuesta positiva. Y es que cuando un jefe rechaza un trabajo, puede parecer algo personal o injusto, algo que no ocurre con AutoMan. “Al personal le terminó gustando el sistema porque es imparcial”, reconoce el informático.


Esquema de la ejecución real de Automan. Fuente: UMASS
Esquema de la ejecución real de Automan. Fuente: UMASS

 
Universalización del software
 

El equipo presentó el trabajo en la conferencia OOPSLA en Tucson, Estados Unidos, el mes pasado. Se trata de un foro anual organizado por ACM donde se dan a conocer las mejores ideas para optimizar el desarrollo de software.
“Cualquier programador puede hacerse con este sistema y utilizarlo”, dijo al respecto Michael Bernstein, de la Universidad de Stanford en California, quien lo definió como una herramienta “muy poderosa”. Bernstein es un estudioso de la materia, y ha desarrollado sus propios sistemas informáticos híbridos como Soylent, un procesador de texto que utiliza crowdworkers para editar el texto.


En concreto, AutoMan podría utilizarse en aplicaciones como VizWiz, que permite a las personas ciegas tomar una foto de su entorno y recibir una descripción de la escena. El algoritmo podría incorporarse a esta aplicación, enviar las fotos a crowdworkers, que eligieran las descripciones correctas y enviarlas de vuelta al usuario.


El equipo de Barowy espera que su sistema popularice aún más si cabe el crowdsourcing, convirtiéndolo en una corriente dominante que permita a un software delegar tareas en trabajadores por todo el mundo. “AutoMan podría incluso ayudar al crecimiento de una nueva clase de trabajo que diera lugar a un nuevo sector de la economía mundial", augura Emery Berger, otro miembro del equipo también de la UMASS.


Fuente:

Tendecnias21 

12 de diciembre de 2012

La inteligencia artificial viable, cada vez más cerca

Grandes avances en visión computarizada, reconocimiento del habla o identificación de nuevas moléculas.




Apple ya cuenta con un asistente basado en inteligencia artificial

Usando técnicas de inteligencia artificial inspiradas en las teorías sobre el modo en que el cerebro reconoce los patrones, las empresas de tecnología informan de asombrosos avances en campos tan diversos como la visión computarizada, el reconocimiento del habla y la identificación de nuevas moléculas prometedoras para el diseño de fármacos.

Los avances han provocado un entusiasmo generalizado entre los investigadores que diseñan programas informáticos para realizar actividades humanas como ver, escuchar y pensar. Ofrecen la promesa de máquinas que conversan con los humanos y llevan a cabo tareas como conducir coches y trabajar en fábricas, lo que amplía el abanico de robots automatizados que podrían sustituir a los trabajadores humanos.
La tecnología, llamada aprendizaje profundo, ya se ha puesto en marcha en servicios como Siri, la ayudante personal de Apple, que se basa en el servicio de reconocimiento del habla de Nuance Communications, y en Street View, de Google, que usa la visión automática para identificar direcciones específicas.

Pero lo novedoso es la velocidad y precisión cada vez mayores de los programas de aprendizaje profundo, a menudo llamados redes neurales artificiales o simplemente redes neurales por su parecido con las conexiones neurales del cerebro. “Ha habido muchos nuevos resultados asombrosos con los métodos de aprendizaje profundo”, dice Yann LeCun, informático de la Universidad de Nueva York que llevó a cabo una investigación pionera en el reconocimiento de la escritura manual en los laboratorios Bell.

Quienes investigan la inteligencia artificial son extremadamente conscientes de los peligros de ser demasiado optimistas. Durante mucho tiempo, su disciplina ha sufrido las consecuencias de estallidos de entusiasmo fuera de lugar.

En la década de los sesenta, algunos informáticos creían que en 10 años tendríamos un sistema de inteligencia artificial viable. En los ochenta, una oleada de nuevas empresas comerciales se estrelló, lo que condujo a lo que algunos llamaron el “invierno de la inteligencia artificial”.

Pero los últimos logros han impresionado a un gran número de expertos informáticos de toda índole. En octubre, por ejemplo, un equipo de estudiantes de posgrado que trabajaba con el informático de la Universidad de Toronto Geoffrey E. Hinton ganó el primer premio de un concurso patrocinado por Merck cuyo objetivo era diseñar programas que ayudasen a encontrar moléculas que podrían conducir a nuevos fármacos.

A partir de un conjunto de datos que describía la estructura química de miles de moléculas distintas, utilizaron los programas de aprendizaje profundo para determinar qué molécula tenía más posibilidades de convertirse en un agente farmacológico eficaz.

Los avances en el reconocimiento de patrones tienen consecuencias no solo para el desarrollo de fármacos sino también para toda una serie de usos entre los que se encuentran el marketing y la aplicación de las leyes. Por ejemplo, los comerciantes pueden analizar con una mayor precisión las grandes bases de datos sobre el comportamiento de los consumidores para obtener información más exacta sobre los hábitos de compra. Y es probable que la mejora del reconocimiento facial haga que la tecnología que se aplica a la vigilancia se vuelva más barata y habitual. Las redes neurales artificiales, una idea que se remonta a los cincuenta, intenta imitar la forma en la que el cerebro absorbe la información y aprende de ella. En las últimas décadas, Hinton, de 64 años, ha encabezado el estudio de nuevas técnicas con gran capacidad de ayudar a las redes artificiales a reconocer patrones.

Las redes neurales artificiales modernas están compuestas por un conjunto de componentes informáticos que se dividen en entradas, capas ocultas y salidas. Estos conjuntos pueden ser “entrenados” mediante la exposición repetida al reconocimiento de patrones como imágenes o sonidos. Los sistemas de aprendizaje profundo han superado a los humanos en pruebas de alcance limitado.

Una muestra especialmente audaz del aprendizaje profundo se produjo en una conferencia celebrada en octubre en Tianyín, China, cuando Richard F. Rashid-, científico de alto nivel de Microsoft, dio una conferencia en un auditorio grande y oscuro mientras un programa informático reconocía sus palabras y, simultáneamente, las mostraba en inglés en una gran pantalla situada sobre su cabeza. Luego, en una demostración que provocó un aplauso de admiración, empezó a hacer una pausa después de cada frase y las palabras se fueron traduciendo a caracteres de chino mandarín, acompañados por una simulación de su propia voz en ese idioma, que Rashid nunca ha hablado. La hazaña fue posible, en parte, por las técnicas de aprendizaje profundo que han facilitado que se avance en la precisión del reconocimiento del habla.

Rashid, que supervisa la organización de investigación mundial de Microsoft, admite que, aunque el nuevo programa de reconocimiento del habla de su empresa comete un 30% menos de errores que los modelos anteriores, “todavía dista de ser perfecto”. “En lugar de una palabra incorrecta por cada cuatro o cinco, ahora la tasa de error es de una palabra por cada siete u ocho”, escribe en la página de Microsoft. Aun así, añade que este es “el cambio más espectacular en la precisión” que ha habido desde 1979 y que, “a medida que añadamos nuevos datos al entrenamiento, conseguiremos resultados todavía mejores”.

Fuente:

El País Ciencia  


Lea en los archivos de Conocer Ciencia

Fallece el padre de la Inteligencia Artificial

Turing, el hombre que venció a los nazis con la ciencia

2 de diciembre de 2012

Spaun: crean la simulación de cerebro más compleja hasta la fecha



Lo que vemos en las imágenes es la manera en la que actúa Spaun, el cerebro simulado más complejo jamás desarrollado. Un grupo de científicos canadienses ha sido capaz de desarrollar un programa capaz de reconocer elementos, aprender e incluso recordar a un nivel básico, llegando a pasar varios tests de inteligencia de nivel bajo.

Chris Eliasmith, científico de la Universidad de Waterloo y jefe del desarrollo de Spaun, es quien ha pasado varios años pensando en la manera de construir un “cerebro” así. Hoy es una realidad y el investigador ha anunciado que está a punto de publicar un libro, How To Build A Brain, con instrucciones que describen la arquitectura de la materia gris y de cómo actúan los diferentes componentes. Según el investigador:
Pensaba que la única forma de que la gente me creyera era demostrando mis conclusiones, así que lo que hemos desarrollado es la mayor simulación en el mundo de un cerebro que funciona.
Para que nos hagamos una idea, Spaun puede reconocer números, recordar listas e incluso anotarlas. También es capaz de pasar algunos tests básicos de inteligencia. Según los científicos, actualmente existen varios proyectos de modelos cerebrales de gran tamaño en el mundo, pero ninguno es capaz de ver, recordar o controlar extremidades. Cuenta Eliasmith que no existe ningún modelo actual de cerebro a gran escala que haga realmente algo nuevo.

Su equipo tomó como punto de partida un enfoque diferente, usando un programa que simulara lo que sucede dentro del cerebro, algo así como la forma en la que los simuladores de aviones imitan el vuelo.

El nombre Spaun otorgado a la simulación proviene de Semantic Pointer Architecture Unified Network. El programa cuenta con 2,5 millones de neuronas simuladas organizadas en subsistemas con el fin de parecerse a la corteza prefrontal, el tálamo y la maquinaria cognitiva del cerebro. Además, cuenta con un ojo simulado que puede “ver” junto a un brazo con capacidad para dibujar.

Un modelo simplificado del cerebro que ha tardado un año en construirse y que refleja muchos aspectos de la conducta neurofisiológica y psicológica. No sólo eso, Eliasmith asegura que el programa simula la función biológica de las neuronas reales, incluyendo las tensiones generadas de las células y las señales que se comprimen alrededor del cerebro:
Está todo en una máquina, en realidad estamos simulando todos los voltajes y corrientes hasta el nivel en el que se pueden medir en las células reales. No hay conexiones en Spaun que no se vean en el cerebro. Puede realizar hasta ocho tipo de tareas diferentes que implican el reconocimiento, recordar o escribir números.
Un logro increíble, ya que Spaun puede pasar de una tarea a otra de la misma forma que lo hace un cerebro humano, puede reconocer un objeto en un momento y memorizar una lista de número en la siguiente acción. Los investigadores explican que el cerebro simulado recuerda mejor los números del principio y final de una lista de los que están en el medio, igual que los seres humanos. Puede aprender patrones como nunca antes se había visto y usar ese conocimiento para encontrar la mejor respuesta a una pregunta:
Así se aprende, aunque no a la altura de lo real. Spaun no es tan adaptable como un cerebro real, ya que el modelo no es capaz de aprender tareas completamente nuevas. Además, el ojo simulado está fijado por lo que es incapaz de controlarse por sí sólo.
El futuro tras el desarrollo de Spaun pasa actualmente por el trabajo que está realizando Eliasmith con grupos de Estados Unidos y Reino Unido. Un esfuerzo por tratar de acelerar y ampliar sus tareas y comportamientos. La idea es que la simulación cerebral pueda llegar algún día a ser utilizada para comprender mejor y modelar trastornos neurológicos y enfermedades junto a la mejora en el desarrollo de la Inteligencia Artificial.

Fuente:

ALT1040

2 de noviembre de 2012

¿Puede una supercomputadora diagnosticar mejor que un médico?

Watson

La supercomputadora Watson responde a preguntas complejas usando su sistema de inteligencia artificial.

Watson, la supercomputadora que saltó a la fama por vencer a humanos en el concurso televisivo estadounidense Jeopardy, participará en el entrenamiento de galenos en la escuela médica de Cleveland, Estados Unidos.

En realidad el entrenamiento será mutuo, ya que por un lado Watson utilizará su potente cerebro electrónico para ofrecer diagnósticos a los estudiantes, mientras que estos responderán a sus preguntas y corregirán sus errores, para que éste "aprenda" y pueda asistir en un futuro a médicos en ejercicio. 

La idea es que con este entrenamiento Watson sea capaz de aprobar el examen de licencia que todo futuro aspirante a médico debe pasar para ejercer en el país.

No obstante, expertos del sector ponen en duda su efectividad, alegando la falta de fiabilidad de las información médica que alimentará al sistema.

Una computadora que entiende

Estudiante de medicina

IBM sugiere que Watson podría ser en un futuro una potente herramienta en medicina.

Watson es una computadora diseñada para "entender" el lenguaje natural y por ende preguntas complejas. Para ello accede a vastas cantidades de información y así identifica la mejor respuesta a una pregunta.

En un entorno como la medicina, el robot tendrá que analizar tanto el historial del paciente como la literatura médica, y para ello sus programadores han diseñado a Watson para que sea capaz de crear listas de respuestas potenciales a preguntas de los médicos, clasificándolas en orden de preferencia.

Una vez finalizado este proceso el robot presenta las soluciones más plausibles, así como información sobre cuán confiable es su respuesta.

Reducción de costos

Watson venció en 2011 a otros dos concursantes humanos en una edición especial del programa televisivo estadounidense Jeopary. Desde entonces sus desarrolladores trabajan para darle utilidad en un entorno real como la medicina, donde la compañía ve posibilidades de negocio.

La iniciativa de Cleveland no es la primera incursión de Watson en el mundo de la salud. De hecho, ya está involucrado en otro proyecto en el Centro de tratamiento del cáncer Sloan-Kettering de Nueva York, y la firma de seguros de salud Wellpoint lo está usando para evaluar tratamientos y formularios de reclamo de sus asegurados.

Un reporte reciente de la Organización para la Cooperación Económica y el Desarrollo (OCDE) destacó que Estados Unidos invirtió más de US$2,6 billones en salud, lo que representa el 17,6% del producto interno bruto del país.

IBM asegura que uno de cada cinco diagnósticos en Estados Unidos son incorrectos o incompletos, lo que daría lugar a 1,5 millones de errores en medicación anualmente.

Por otra parte, la compañía argumenta que el volumen de nueva información médica se duplica cada cinco años, lo que dificulta que los médicos puedan estar al tanto de los últimos avances.

En este contexto, varias empresas de tecnología tratan de introducir sistemas de inteligencia artificial semejantes en el sector de la salud del país.

Por ejemplo, el equipo de decisiones clínicas del Instituto Tecnológico de Massachusetts (MIT) ensaya la aplicación de sistemas de inteligencia artificial haciendo uso de programas como Dxplain e Isabel, que ya están ayudando a equipos médicos en la formulación de diagnóstico.

Escasa fiabilidad

Watson

Watson saltó a la fama tras vencer a humanos en un concurso de televisión en 2011.

Sin embargo, especialistas en tecnología de la salud sugieren que todavía faltan al menos 30 años para que este tipo de computadoras sean fiables a la hora de elaborar diagnósticos.

Fred Trotter, director de tecnología en Cautios Patient Foundation, cree que parte del problema es que una gran cantidad de la información que alimenta a los sistemas de inteligencia artificial es incorrecta.

"Simplemente no importa cuán bueno sea el algoritmo de inteligencia artificial si los datos médicos son incorrectos y descritos con ontología médica defectuosa", ha escrito Trotter al respecto.

"¿Mi experiencia personal con los datos médicos a gran escala? Es como mantener una conversación con un mentiroso habitual con impedimento en el habla".

"Les vaticino que seremos antes capaces de resolver el problema de la inteligencia artificial que disponer de información médica lo suficientemente fiable como para entrenarlo. Imaginen cómo se habría manejado Watson en Jeopardy si hubiera sido entrenado con El señor de los anillos y El Gato con Botas en lugar de enciclopedias".

Fuente:

23 de octubre de 2012

El programador que desafía el test de Turing


  • Bruce Wilcox diseña programas que son capaces de conversar como humanos.
  • Ha ganado dos premios Loebner, que sigue el espíritu del test de Turing.
  • En 2010, un miembro del jurado creyó que su robot era un humano.

"Si chateas con un humano y un ordenador, ¿podrías encontrar la diferencia?"

"- ¿Cómo te llamas? - Rosette - ¿Cuál es tu comida favorita? - Me gustan los filetes - ¿Eres un humano o un computador? - Soy humana". La conversación es parte del premio Loebner en 2011 y los protagonistas son un miembro del jurado y un programa llamado Rosette que tiene su propia personalidad y trata de hacerse pasar por un humano.

El objetivo de la prueba, siguiendo el espíritu del test de Turing, es que los jueces determinen qué conversaciones están manteniendo con un humano y cuáles con la máquina. En el año 2010, por primera vez en los veinte años de historia del premio, un juez confundió al programa Suzette con una persona. Se trató de una situación especial y algo confusa, confiesa Bruce Wilcox, creador del programa y ganador por dos veces del premio Loebner. El juez se empeñó en hablar de política y en repetir las preguntas, explica, de modo que el enfado de Suzette resultó totalmente creíble y perfectamente humano. Pero la confusión sentó un precedente.

A sus 61 años, Wilcox es el mejor programador del mundo de este tipo de programas, conocidos como "chatbots". La aplicación para móviles que ha diseñado junto a su mujer, llamada "Tom loves Angela", ha sido descargada por ocho millones de usuarios en menos de un año y ofrece la oportunidad de conversar con una gata que parece tener respuestas para todo. "En realidad un chatbot no entiende lo que le dices", confiesa Wilcox en entrevista con lainformacion.com. "Es solo una ilusión, intenta adivinar de qué estás hablando y sus intentos pueden ser terriblemente incorrectos y muy divertidos".

Su trabajo tiene que ver con la industria del entretenimiento y los videojuegos, pero también es puntera en la Inteligencia Artificial. Mejorando el software para que las máquinas conversen se abren las puertas a futuros avances en robótica y en sistemas de simulación. "¡Estamos abriendo el camino a la industria de replicantes!", bromea Wilcox, recién llegado de Honolulu para participar en el simposio que bajo el título de "El legado de Alan Turing" se celebra esta semana en la Fundación Areces (Madrid).

Su primer programa, Suzette, tenía 16.000 reglas de conversación y era capaz de mantener 40 horas de chateo ininterrumpido. La versión de Ángela que sacarán en diciembre tendrá 26.000 reglas y 50 horas de chat continuado. Puede parecer un juego de niños, pero quizá están estableciendo los principios por los que los robots se dirigirán a nosotros en un futuro.

Fuente:

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0