Latest Posts:

Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

4 de marzo de 2020

La creatividad: el campo de batalla definitivo entre la inteligencia artificial y la humana


¿Cómo innova una máquina? 

Desde una perspectiva teórica, la creatividad y la innovación son procesos de búsqueda y combinación. Empezamos con un trozo de conocimiento y lo conectamos con otro trozo para crear algo nuevo y útil.

En principio, esto también es algo que puede ser hecho por máquinas. De hecho, son excelentes almacenando, procesando y haciendo conexiones entre datos.

Las maquinas producen innovaciones usando métodos generativos. Pero ¿cómo ocurre eso exactamente?

Hay diferentes estrategias, pero lo que es tecnología de punta se llama "red generativa antagónica"

Por ejemplo, piensa en una máquina que debe crear un retrato nuevo de una persona. Las redes generativas antagónicas abordan esa tarea creativa con la combinación de dos tareas secundarias.

La primera parte es el generador, que produce nuevas imágenes a partir de una distribución aleatoria de píxeles. La segunda parte es el discriminador, que le dice al generador qué tanto se aproximó a producir un retrato que parezca auténtico.

¿Cómo hace el discriminador para saber cómo se ven los humanos? Pues bien, se le alimenta con muchos ejemplos de retratos de personas reales antes de empezar la tarea.

En base a la información del discriminador, el generador mejora su algoritmo y sugiere un nuevo retrato.

Este proceso se repite una y otra vez hasta que el discriminador decide que el retrato se aproxima a los ejemplos que tiene en su memoria. Este proceso da como resultado un retrato que se parece muchísimo a un humano real.

La "chispa humana" 

Pero, aunque las máquinas puedan innovar en base adatos, eso no quiere decir que vayan a hacer sombra a la creatividad humana en breve.

La innovación es un proceso de resolución de problemas. Esto es, para que una innovación exista, hay que combinar los problemas con las soluciones.

Los humanos pueden ir en cualquiera de las direcciones: pueden empezar con un problema y resolverlo, o pueden partir de una solución y tratar de buscar nuevos problemas en torno a esta.

Un ejemplo de este último tipo de innovación es el Post-it (el papelito rectangular para escribir notas con adhesivo en una de las esquinas).

Un ingeniero desarrolló un pegamento que no era muy fuerte y lo dejó en su escritorio. Y un colega se dio cuenta de que esa era precisamente la solución que evitaría que se cayeran las notas que añadía a su partitura durante sus ensayos corales.

Al utilizar datos y código para formular problemas explícitos, la inteligencia artificial también puede ofrecer soluciones.

Sin embargo, identificar un problema es más difícil para las máquinas, ya que estos no suelen estar incluidos en los datos a partir de los cuales innovan las máquinas.

Es más, la innovación suele estar basada en las necesidades que ni siquiera sabíamos que teníamos.

Pensemos en el walkman. Aun cuando ningún consumidor manifestó el deseo de escuchar música mientras caminaba, esta innovación fue un gran éxito.

Así como es difícil formular ese tipo de necesidades latentes, también es improbable que entren a formar parte de los archivos de datos que las máquinas necesitan para inventar.

Los humanos y las máquinas se nutren de distintas materias primas para innovar.

Mientras las personas se basan en toda una vida de experiencias para generar ideas, las máquinas se limitan a hacerlo usando los datos con las que las alimentamos.

Estas últimas puede, pues, generar innumerables innovaciones, versiones nuevas en base a datos que van recibiendo.

Pero es poco probable que los inventos revolucionarios vengan de las máquinas, pues estos suelen crearse generalmente al relacionar campos distintos y desconectados. Un ejemplo de ello es el snowboard, que combina el mundo del surf con el esquí.

Lea el artículo completo en: BBC Mundo



16 de abril de 2019

Estudiantes de San Marcos ganan el torneo internacional de inteligencia artificial de Huawei

Los estudiantes de la facultad de Ingeniería de Sistemas e Informática fueron los que obtuvieron el primer lugar en la competencia en México.  


Un grupo de estudiantes de la Universidad Nacional Mayor de San Marcos (UNMSM) destacaron en México obteniendo el primer lugar en un evento regional de proyectos de inteligencia artificial organizado por Huawei.


Los jóvenes Carlos Ramírez, Luigi Castillo, Robert Gutierrez, Jhonatan León y Sergio Zevallos de la facultad de Ingeniería de Sistemas e Informática son los que se impusieron en la competencia.


El rector de la Decana de América, Orestes Cachay Boza, estuvo presente en el evento ICT Competition e intervendrá en el panel “Nuevo talento para un mundo más inteligente”.

La autoridad sanmarquina se reunió con Zha Xinliang y Xia Pu, directivos de Huawei, empresa china que busca desarrollar el talento entre los profesionales más jóvenes y fomentar la creación de ecosistemas sólidos. 

La empresa multinacional de alta tecnología, Huawei, creó esta competencia con el objetivo de impulsar la investigación y la certificación tecnológica en el sector de la información y las comunicaciones.

Fuentes:

Peru21

RPP Noticias

28 de febrero de 2019

La inteligencia artificial logra descifrar y verbalizar las ondas cerebrales

La tecnología empleada es la misma que utilizan Echo de Amazon y Siri de Apple, afirma uno de los científicos que han logrado la hazaña.


Un equipo de científicos ha logrado crear por vez primera un sistema que transforma el pensamiento en un discurso inteligible, informa el portal MIT Technology Review. Los resultados del estudio fueron publicados el martes en Scientific Reports.

De antemano se sabía ya que, cuando las personas hablamos, imaginamos que hablamos o escuchamos a otras, generamos patrones en el cerebro. Por ello, en un inicio Nima Mesgarani —de la Universidad de Columbia— y el resto del equipo trataron de registrar las ondas cerebrales mediante modelos computacionales simples que analizaban espectogramas. No obstante, esa vía no generaba nada reconocible, por lo que terminaron recurriendo a un codificador de voz o 'vocoder'.

"Esta es la misma tecnología empleada por Echo de Amazon y Siri de Apple para dar respuestas verbales a nuestras preguntas", declaró el martes Mesgarani al instituto Zuckerman de la Universidad de Columbia.

Las pruebas fueron realizadas con cinco pacientes con epilepsia focal farmacorresistente, a los que se les implantó electrodos en el cerebro. A continuación se les hizo enumerar dígitos entre el 0 y el 9 mientras se registraban las ondas cerebrales que, luego, pasarían a través del 'vocoder' reproduciéndolos con una voz robótica. De esta manera, mediante electrodos y la inteligencia artificial lograron un 75 % de precisión, un 67 % más que con los análisis lineales de espectogramas.

Esta combinación supone un avance que podría sentar las bases para que las computadoras se comunicaran directamente con el cerebro humano, así como para personas con dificultades del habla.

Fuente:

RT en español

5 de febrero de 2019

Huawei completa la misteriosa ‘Sinfonía inacabada’ de Schubert

Varios músicos cuestionan la iniciativa de Huawei por artificial y carente de alma.

Franz Schubert es un perpetuo enigma. Murió joven, a los 31 años, pero más que desgastarse en una vida intensa, como tantos otros músicos, se fue consumiendo en cierta melancolía solitaria de cafés como desahogo a su total entrega a la creación. “El Estado debería ocuparse de mí”, le escribió a un amigo, para dar cuenta de su devoción al trabajo. Y si corrieran estos tiempos, quizás lo hiciera la compañía tecnológica Huawei, que ha diseñado mediante algoritmo e inteligencia artificial el remate de su Sinfonía número ocho, conocida como la Inacabada. Hacía la penúltima en su catálogo de obras orquestales. En la Viena romántica de principios del XIX, Schubert llegó a crear nueve.

Durante años ha habido todo tipo de teorías sobre si el autor llegó a terminar esta obra concebida para la Sociedad Musical de Graz, pero alguien, tal vez algún amigo, perdió la parte final. Sin embargo, para cuando quedó claro que Schubert, simplemente, nunca llegó a completarla, la Inacabada ya se había convertido en la obra para orquesta más misteriosa e interpretada de su autor.

Así, bajo el cúmulo de polémicas que ha suscitado, su influjo simbólico aparece de nuevo para ser presa ahora de la inteligencia artificial. Huawei presenta este lunes —en una audición privada en el Cadogan Hall de Londres, en interpretación de la English Session Orchestra bajo la dirección de Julian Gallant— su versión de la pieza, que ya ha dado que hablar antes de su estreno.


En una nota, la compañía asegura que la versión ha sido creada mediante el uso de un modelo de inteligencia artificial que se beneficia directamente de la tecnología de procesamiento neuronal que aplica en sus móviles. A partir del timbre, el tono y el compás del primer y segundo movimiento conservados, el modelo generó una melodía para los inexistentes o extraviados tercero y cuarto previstos. Posteriormente, Huawei trabajó con el compositor Lucas Cantor para fijar una partitura orquestal de la melodía en la línea que presumiblemente buscaba entonces Schubert.

El compositor español José María Sánchez-Verdú nos sitúa en contexto: “Desde los años sesenta se están haciendo este tipo de trabajos. Ya en EE UU, con los primeros ordenadores, se ponen en práctica. Sustituir la mente y la creatividad de un compositor mediante procesos algorítmicos desarrollados por una máquina es enormemente antiguo”, afirma.

Tampoco valen maniobras de distracción: “Todo entra dentro del ámbito publicitario, lanzar noticias tecnológicas y, además, a partir de grandes nombres y obras de la cultura europea, como es ahora Schubert”. Hay abundantes intentos previos al de la tecnológica china: “Existen varias versiones desarrolladas por compositores en los últimos veinte años sobre esta sinfonía. Yo personalmente no encuentro ningún estímulo e interés por estas propuestas”, comenta Sánchez-Verdú.


 

Lea el artículo completo en: El País (España)

22 de enero de 2019

Una máquina se enseña a sí misma a ganar en todo

DeepMind desarrolla una inteligencia artificial invencible en los tres juegos de tablero más complejos gracias a un algoritmo que compite sin instrucciones.


El objetivo está lejos: conseguir una sola máquina capaz de enfrentarse a cualquier reto o tarea sin ayuda. Hasta ahora, los grandes logros de la inteligencia artificial se generan con máquinas dedicadas específicamente a una tarea, entrenadas para ello en una condiciones muy concretas, incapaces de adaptarse a un cambio sustancial. Pero los pasitos que se van dando hacia ese objetivo son firmes. El último progreso lo firma DeepMind, que ha conseguido que un mismo programa se convierta en invencible en ajedrez, shogi (una versión japonesa del juego) y go, los tres juegos de tablero más exigentes para el intelecto. Pero el mundo real es mucho más complejo e imprevisible.

El logro de DeepMind, la división de inteligencia artificial de Google, promete generar importantes avances. Este programa, llamado AlphaZero, ha aprendido solo a jugar sobre estos difíciles tableros, como explican sus desarrolladores en la revista Science. De cero (de ahí su nombre), sin ayuda ni ejemplos de jugadores reales. En otras ocasiones, el ordenador aprendía porque lo alimentaban con todo el conocimiento humano, millones de jugadas y ejemplos reales, y a partir de ahí el cerebro de silicio elegía las mejores estrategias. Deep Blue venció así a Kaspárov. Y AlphaGo venció así a Lee Sedol. Pero AlphaZero aprende de sí mismo y en apenas un puñado de horas; tan solo le explican las reglas del juego y a partir de ahí ha sido capaz de convertirse en el mejor jugador de todos los tiempos en estas tres disciplinas. Los programas que mejor juegan al ajedrez, al shogi y al go —sin rival entre los humanos y diseñados durante años específicamente para esta tarea— apenas son capaces de arañar una victoria entre miles de derrotas.

Es más, esta inteligencia artificial es capaz de vencer con una mano atada a la espalda. Al enfrentarse ordenadores contra ordenadores, se otorgaban unos tiempos a cada aparato para pensar su movimiento. La inteligencia de AlphaZero era tan superior que ganaba incluso cuando se le concedía tan solo una décima parte del tiempo que a sus rivales para procesar la información y mover. Y no es una cuestión de potencia computacional, es porque se le ha otorgado una forma de razonar más profunda y selectiva. En ajedrez, valora únicamente 60.000 posibilidades por segundo frente a los 60 millones de opciones que baraja su rival, Stockfish, el más potente jugador de ajedrez hasta ahora. El algoritmo busca solo entre los movimientos más prometedores.

Pero AlphaZero no solo vence, revoluciona el juego. Como la máquina aprende sola, sin modelos ni ejemplos, empieza con decisiones aleatorias y al cabo de un tiempo empieza a descubrir las jugadas y planteamientos que llevan usando siglos los humanos. Pero enseguida encuentra mejores enfoques, completamente nuevos, creando un estilo de juego propio y poco ortodoxo. "Está libre de las limitaciones del modo en que los humanos piensan sobre el juego", explica Demis Hassabis, jefe de DeepMind, por lo que ha incorporado al tablero estrategias desconocidas que ya están fascinando a los expertos. En ajedrez, se habla de cómo sus piezas se arremolinan en torno al rey del oponente con fuerza, dinamismo y determinación. Desprecia el valor material de las piezas y prefiere hacer sacrificios impensables desde el principio de la partida porque al final merecerá la pena. En el shogi, realiza movimientos que van en contra de todos los manuales, como mover al rey al centro del tablero, porque supone ponerlo en peligro, pero para AlphaZero se convierte en una forma de mantener el control del campo de batalla. Cuando se hizo lo mismo en el milenario go, la máquina llegó a la conclusión de que el conocimiento humano era un lastre.

Lea el artículo completo en: El País (España)


27 de diciembre de 2018

Estupidez artificial: el problema que nadie vio venir

Cualquier conductor que vea una señal de stop a la que algún gracioso le ha puesto una pegatina que pone “odio” sabe que sigue siendo una señal de stop y debe parar. En cambio un coche autónomo será incapaz de reconocerla más del 60% de las veces y pasará de largo.
Los sistemas de visión artificial confunden una tortuga de juguete con un rifle y a personas negras con gorilas. Estos dispositivos han sido entrenados para ver patrones y hacen falta solo sutiles cambios de simetría para desbaratarlos, como demuestra el estudio de las señales de tráfico publicado el pasado abril por expertos de varias universidades de EE.UU.
Las personas también hemos evolucionado durante miles de años para ver patrones. “Estamos hechos para identificar caras y las vemos en las nubes, en las manchas de la pared, lo hacemos continuamente”, explica José Manuel Molina, del grupo de inteligencia artificial aplicada de la Universidad Carlos III de Madrid. Un humano conoce el contexto de esa imagen, sabe que parece una cara, pero en realidad es una nube. En cambio la experiencia de vida de un algoritmo de visión se limita a bases de datos con miles de imágenes con las que se ha entrenado una y otra vez. “Los algoritmos han sido diseñados para resolver problemas muy concretos, pero no para comprender qué está sucediendo en su entorno, solo ven señales y aplican la misma solución siempre. Las máquinas son totalmente autistas y darles comprensión de su entorno es muy complicado”, resume Molina.
Imagen: Ejemplos de señales modificadas para engañar a los sistemas de visión artificial.DAWN SONG / BERKELEY
Estos fallos están cambiándole la vida a la gente. El sistema de inteligencia artificial Compas que usan los jueces en EE.UU. como asesor tiene un sesgo y tiende a desaconsejar la libertad a los negros más a menudo que a los blancos. El algoritmo analiza 173 variables —ninguna de ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. “La causa de estos problemas es que las bases de datos con las que funcionan estos algoritmos son de la policía y en ellas hay importantes sesgos racistas”, explica Ramón López de Mántaras, experto en inteligencia artificial del CSIC. Un estudio publicado este mismo año sostiene que el sistema tiene una tasa de error equiparable a la de personas sin conocimientos legales. El problema no es tanto la máquina, sino el riesgo de que el juez delegue en ella.
A un nivel mucho menos grave, la aparente estupidez artificial acecha a cualquiera que use Internet con anuncios omnipresentes de cosas que ya han comprado o que no interesan. Una vez más, la culpa no es de la máquina, sino de la falta de contexto. “Si buscamos un producto en Internet esa información es pública y queda grabada, pero cuando lo compramos la transacción es privada, el algoritmo no sabe que lo has comprado, se lo tienes que enseñar. No es un error, te sigue mostrando lo que cree que te interesa y lo seguirá haciendo hasta que pase su tiempo de olvido”, explica Molina.

5 de diciembre de 2018

La automatización eliminará 75 millones de empleos para 2025, pero creará 133 millones de nuevas funciones, según WEF

Las estimaciones con respecto a la cantidad de trabajos que se destruirán con la llegada de las máquinas (robots, inteligencia artificial o cómo le quieran llamar) son variadas, pero la gran mayoría apuntan a una pérdida importante que afectará principalmente a aquellos puestos que requieren trabajo físico.


El Foro Económico Mundial (WEF) acaba de publicar su informe 'Future of Jobs 2018', donde se lanzan con cifras que podrían sonar igual de alarmantes, pero que en esta ocasión nos plantean un escenario un poco más alentador. Y es que sí, el estudio pronostica que se perderán empleos, pero afirman que se crearán nuevas funciones que requerían un mayor grado de especialización.

Las máquinas harán más trabajos que los humanos

Hace casi un año, un estudio de McKinsey Global Institute (MGI), con la participación de expertos del departamento de Economía de Oxford y el Banco Mundial, pronosticó que entre 400 y 800 millones de personas serán desplazadas de sus puestos de trabajo en 2030 debido a la automatización.

Hoy el WEF plantea nuevos escenarios ante está potencial perdida de empleos. Según el informe, a día de hoy el 29% de las tareas laborales son realizadas por una máquina. Debido a los avances tecnológicos, en 2025 está cifra significaría la pérdida de 75 millones de empleos. Pero sugiere que esta misma tecnología dará vida a más de 133 millones de nuevos roles de trabajo, con lo que se generarán 58 millones de nuevos empleos.

Es decir, seguimos bajo el panorama de pérdida de empleos tras el avance de la automatización, pero se disminuye la cifra que pronostica hasta 800 millones de personas desplazadas de sus puestos de trabajo. Por otro lado, el informe apunta a que no sólo los trabajos bajo esfuerzo físico serán afectados, sino también aquellas labores rutinarias de oficina, como los encargados de capturar datos, contabilidad o el manejo de nóminas.

Se cree que en un periodo de cinco años se empezarán a demandar más analistas de datos, encargados de diseño, pensamiento crítico, inteligencia social, así como programadores y desarrolladores de software. Incluso se pronostica un cambio general en los planes de estudios para 2020, donde se romperían los viejos paradigmas y la clave de todo esto sería el entrenamiento. 

Se calcula que el 54% de todos los empleados necesitarán formación en nuevas habilidades durante los próximos cinco años, se trataría de capacitación centrada en internet móvil de alta velocidad, inteligencia artificial, análisis de big data y cómputo en la nube, con lo que se impulsaría la demanda de un nuevo tipo de fuerza de trabajo que conviviría con la llegada de las máquinas. De hecho, el informe menciona que los humanos deberán adaptarse a este escenario al exigir mayor preparación, algo que sería un trabajo conjunto entre empresas, gobierno y la misma fuerza de trabajo.

En resumen, el estudio predice que en los próximos siete años nos enfrentaremos a un cambio radical en cuanto a responsabilidades, una importante transformación dentro de los mercados laborales mundiales, lo cual se deberá manejar con prudencia, ya que esto nos conduciría a una nueva era de buenos trabajos y una mejor calidad de vida para todos. En caso de que esto se maneje mal, se correría el riesgo de ampliar las brechas de habilidades, una mayor desigualdad y una polarización más amplia.

Fuentes: Web Economic Forum y Xakata Ciencia
 

Ya hay algoritmos ayudando a seleccionar personal: la búsqueda de trabajo en la era del algoritmo





Si estás buscando trabajo, parte de la evaluación de tu perfil podría no estar a cargo de un ser humano. Entre los sectores en fase de transformación por los efectos de la revolución tecnológica actual, también está el de la selección de personal.

Mientras aumentan las empresas que experimentan soluciones de inteligencia artificial para mejorar su capacidad de encontrar talento, expertos y profesionales de los recursos humanos debaten sobre hasta qué punto pueden ser eficaces estos sistemas.

Entre los especialistas entrevistados para este reportaje, nadie pone en duda la necesidad de que la captación de talento sea liderada por profesionales humanos a través de pasos como las entrevistas cara a cara o por teléfono. Pero muchos destacan los beneficios potenciales de algoritmos y software en las fases más automatizadas del proceso.

La inteligencia artificial ayuda a optimizar el rastreo de grandes volúmenes de candidaturas, coinciden los operadores consultados por Xataka. Y así permite agilizar el trabajo de los equipos de recursos humanos a la hora de profundizar en el análisis de un perfil en concreto y evaluar aspectos más sujetivos como la creatividad, la capacidad de interacción social o de liderazgo, añaden. Además, en muchos casos con estos sistemas se ahorran tiempo y dinero. ¿Pero qué pasa si el algoritmo falla y descarta un perfil válido? ¿Qué hacen las empresas para evitarlo?

Lea el artículo completo en: Xakata Ciencia 

Para conocer más sobre los algoritmos hacer click AQUÍ.
 

19 de noviembre de 2018

Cuando su mejor amigo murió, ella lo reconstruyó digitalmente

"Si solo pudiera volver a hablar con él"... Es lo que muchos piensan cuando pierden a un ser querido y es lo que pensó Eugenia Kuyda cuando perdió a su mejor amigo, Roman Mazurenko, de forma inesperada el 28 de noviembre de 2015.

Pero para lo que muchos es solo un pensamiento, para Kuyda fue una inspiración.

Resulta que esta rusa de 31 años es una genia de la informática y se especializa en inteligencia artificial.

Así que tres meses después de perder a Mazurenko, Kuyda lo "revivió" en formato tecnológico.

Creó lo que se conoce como un chatbot, un programa de computación que puede tener conversaciones simples con un humano. Su chatbot piensa y responde como lo haría Roman Mazurenko.

Kuyda le contó a la BBC que usó más de 10.000 textos escritos por su amigo para crear su bot.

Historia de una amistad

Ella y Mazurenko se habían conocido en Moscú cuando ambos eran jóvenes activistas.
Él se dedicaba a la moda y a promocionar eventos culturales, y ella editaba una revista inspirada en The New Yorker.

Ambos terminaron convirtiéndose en emprendedores, con start-ups digitales.

El trágico final del ruso llegó en un viaje a Moscú, cuando durante una salida con amigos fue arrollado por un auto.

Kuyda nunca llegó a despedirse y para ella fue una pérdida irreparable.

"Siempre me sentí como alguien de fuera y tener a Roman a mi lado me hacía sentir entendida", contó en una entrevista con la BBC.

Consumida por el dolor de la pérdida, se volcó a los miles de mensajes que habían intercambiado.

"Nos escribíamos mucho, vivíamos comunicándonos por texto, incluso si estábamos en dos lados de la misma casa", señaló.

"Entonces pensé, por qué no junto todos los mensajes que nos escribimos por años, los meto en la red neuronal que creamos (para Luka) y vemos si habla como Roman", recuerda.

No solo se basó en sus propios intercambios con Mazurenko sino que le pidió a sus amigos que le enviaran los textos que él les había escrito.

Tener que repasar años de amistad fue catártico para ella.

"Fue una forma de duelo muy interesante. A veces era duro porque sentía que no lo estaba soltando y me estaba volviendo loca, pero a la vez me permitió sentir cosas que estaba intentando evitar".

El artículo completo en: BBC Mundo

5 de junio de 2018

Inteligencia artificial: "Saber eso" y "Saber cómo"

La semana pasada, la compañía Apple dio a conocer su nuevo modelo de teléfono llamado iPhone X. En la presentación del producto se anunció que, gracias al reconocimiento facial, el aparato empezará a funcionar apenas reconozca el rostro de su dueño. Para eso, dijeron los ingenieros, el chip electrónico del teléfono ha sido entrenado a reconocer mas de mil millones de rostros humanos usando un sistema electrónico llamado circuito neuronal artificial.

En los últimos años se ha venido usando ese tipo de circuitos neuronales en máquinas que ayuden en el diagnóstico en algunas especialidades de la medicina, especialmente en patología y radiología. La idea es que del mismo modo que ahora un teléfono celular es capaz de reconocer el rostro de una persona con una seguridad de uno en un millón, ¿será posible que una máquina pueda reconocer tan bien como un ser humano una neumonía en una placa de rayos X o un diagnóstico de cáncer de la próstata en una biopsia?.

El conocimiento humano

Tratando de entender como es que los radiólogos aprenden a interpretar sus radiografías, investigadores de la Universidad de Sao Paulo pusieron a 25 radiólogos en máquinas de MRI que estudiaban sus cerebros mientras se les enseñaban imágenes de rayos X, siluetas de animales o simplemente letras del alfabeto. Los resultados indicaron dos cosas, en primer lugar, que el reconocimiento de las imágenes era casi instantáneo (demora 1.33 segundos) y en segundo lugar, que a pesar de que el reconocimiento de todas las imágenes usa la misma zona cerebral (lóbulo parietal) el reconocimiento de diagnósticos médicos activa zonas cerebrales mas complejas. Eso indica que hay dos niveles de conocimiento, el de la imagen por si misma y el del significado de las imágenes.
Ese hallazgo refuerza la idea del filosofo británico Gilbert Ryle quien dijera en 1945 que el conocimiento existe en dos esferas, el del “saber eso” y el del “saber cómo”. Por ejemplo, el saber reconocer un carro es algo simple, pues implica saber que tiene cuatro ruedas, tiene una carrocería, tiene un parabrisas, tiene un timón, etc. Este nivel de conocimiento es el “saber eso”. Pero ya el saber diferenciar la marca del carro, el modelo o el año de fabricación exige ya un nivel mas sofisticado de conocimiento, el que según Ryle representa el “saber cómo”, en este caso, el saber como diferenciar los diferentes tipos y modelos de carro.

¿Pueden las máquinas aprender?

Desde hace varios años, se han venido desarrollando máquinas que han aprendido a reconocer imágenes, es decir el “saber eso” de Ryle. Así, se tienen máquinas que leen citologías vaginales (Papanicolaou), mamografías (sistema CAT por sus siglas en ingles), electrocardiogramas, etc. El problema con estos sistemas es que solo han llegado al primer nivel del conocimiento, es decir reconocer imágenes y patrones de un solo elemento (células, imágenes de rayos X) pero no han aprendido a diferenciar imágenes que sean diferentes de lo que se les ha enseñado. En otras palabras, solo diferencian carros de bicicletas y motocicletas, pero no han aprendido el “saber cómo” diferenciar las marcas o los modelos de los carros ni su año de fabricación.

Un interesante estudio del Dr. Sebastián Thrun de la Universidad de Stanford y publicado en la revista Nature en febrero de este año, revela que dependiendo del tipo de datos con que se alimenten a las máquinas, estas son capaces de aprender. En primer lugar, se le enseñó a la máquina a reconocer 130,000 imágenes de todo tipo de lesiones de la piel (incluyendo cáncer, acné, lunares, eczemas, etc.). En un segundo paso, los científicos alimentaron a la máquina con el nombre de las 2,000 enfermedades que esas imágenes representaban y las biopsias de 2,000 de esas lesiones. El resultado fue que la máquina no solo aprendió a reconocer las imágenes de las lesiones, sino que aprendió a relacionarlas con el nombre de las enfermedades y sus respectivas biopsias. En otras palabra, la máquina no solo aprendió el “saber eso”, sino que aprendió también el “saber cómo” de Ryle. En otras palabras, no solo aprendió a reconocer los carros, sino que aprendió a diferenciar las marcas y los modelos. A este tipo de conocimiento avanzado de las máquinas, se le ha bautizado como “conocimiento profundo”.
 
Validación del conocimiento profundo

Para probar el nivel de conocimiento adquirido de sus máquinas, Thrun la enfrentó primero a dos radiólogos entrenados en reconocer las mismas lesiones. Luego de mostrarle a ambos 14,000 imágenes, la máquina predijo con un 72% de certeza el diagnóstico de una imagen. Los radiólogos solo lo hicieron en el 66%.

En un segundo experimento, la máquina fue enfrentada con un grupo de 25 radiólogos para examinar 2,000 imágenes de cáncer de la piel de tipo melanoma y la máquina fue mucho mejor que los humanos, tanto en su sensibilidad, es decir casi no se le pasaban por alto las imágenes de verdaderos melanomas y en su especificidad, es decir, no llamaba melanoma a lo que no era.

Corolario

Si bien es cierto que al igual que los humanos, las máquinas (incluyendo la Watson de IBM o el DeepMind), pueden aprender el “saber eso” y en base a esa experiencia pueden desarrollar el “saber cómo” de Ryle, es importante entender que hasta ahora, las máquinas no pueden desarrollar el tercer tipo de conocimiento que postuló Ryle. Es el llamado “saber qué” o sea el saber para qué o porqué se hacen las cosas, es decir el razonamiento que permite relacionar el “saber eso” y el “saber cómo” con el medio ambiente y establecer el contexto de lo que realmente sucede en la vida.

Fuente:

El Comercio (Perú)

31 de enero de 2018

¿Qué sabe tu celular de tu tristeza?

La computación afectiva quiere dotar de inteligencia emocional a los dispositivos para lograr una comunicación más íntima y personalizada con el usuario.

Estás viendo la televisión. De repente, te das cuenta de que una avispa sube por tu brazo. ¿Cómo reaccionas?”. Esta es una de las preguntas del ficticio test Voight-Kampff, utilizado en Blade Runner para detectar la falta de empatía en un sujeto. Si las respuestas del interrogado desvelan esa incapacidad para identificarse emocionalmente con otros seres, el diagnóstico queda claro: estamos delante de un androide. 

Dejando a un lado la ciencia ficción, lo cierto es que en el mundo real esa capa emocional viene a ser la guinda del pastel de la robótica, ahora que la inteligencia artificial es cada vez más sofisticada, incluso aquella que habita en nuestros dispositivos móviles. Y la cosa no hace más que mejorar, como lo demuestra el reciente lanzamiento de la familia Huawei Mate 10, una serie de smartphones que dan otra vuelta de tuerca a la inteligencia artificial gracias a su procesador Kirin 970. Este chipset con unidad de procesamiento neuronal simula el pensamiento humano y es capaz de analizar el entorno, lo cual hace que en cierto modo los teléfonos sean más “conscientes” de las necesidades de los usuarios para ofrecerles servicios mucho más personalizados y accesibles en todo momento.

E¿Se conseguirá también pronto que un teléfono móvil o una tableta imite emociones o que, al menos, consiga interpretarlas y responder de manera consecuente? Eso es algo en lo que trabaja Javier Hernández, investigador del Grupo de Computación Afectiva del MIT, área que explora cómo dotar a las tecnologías de inteligencia emocional, una capacidad que muchos consideran crítica para lograr relaciones mucho más naturales entre los humanos y la inteligencia artificial. Entre otros objetivos, este grupo del MIT busca que en el futuro cualquier dispositivo sea capaz de entendernos mucho mejor y nuestra comunicación con estas máquinas sea más íntima y personalizada. “Por ejemplo, si el móvil detecta que estamos pasando por un mal momento, quizás filtre las noticias para discriminar las más negativas, nos recomiende escuchar una canción que nos gusta o nos sugiera hablar con alguien cercano para aliviarnos y mejorar nuestro estado de ánimo”, según Hernández.

Esta personalización de contenidos es una de las principales áreas en las que la computación afectiva aportará ventajas significativas. No en vano, se trata de una selección realizada a partir del estudio de las emociones del usuario, así que gracias a ella se proporcionará un remedio para una necesidad concreta de una persona y podrá garantizarse, casi con total seguridad, que causa el efecto deseado. Esto ya se está aplicando para mejorar anuncios publicitarios, pero en el futuro también se utilizará en videojuegos y películas cuyo argumento cambiará dinámicamente en función de nuestro estado emocional.

Lea el artículo completo en:

El País (Retina)

5 de diciembre de 2017

¿Qué es el "aprendizaje profundo" de la inteligencia artificial?


Cuando la supercomputadora Deep Blue de IBM venció al campeón de ajedrez Gary Kasparov en 1997, muchos se sorprendieron ante el poder de estas máquinas.

Dos décadas después, la inteligencia artificial está presente en la banca, la medicina y en programas populares como los predictores de palabras de los celulares.

En 2016, AlphaGo, un programa informático de la filial de Google Deep Mind, ganó un duelo con el campeón del mundo de un juego denominado Go.
 
Y este año el Instituto Tecnológico de Massachussetts (MIT) anunció que su algoritmo DeepMoji, que puede analizar emojis para detectar el sarcasmo en Twitter.

Deep significa "profundo" en inglés. Y el "aprendizaje profundo" es lo le que permite a las computadoras resolver este tipo de problemas.

Pero, ¿qué es? ¿Y cómo está afectando la vida de personas en todo el mundo?
BBC Mundo habló sobre el tema con dos expertos, Augusto Vega y José Dorronsoro.
 
El artículo completo en:
 
 

27 de septiembre de 2017

Inteligencia artificial y gestión de residuos: ¿el fin de los camiones de basura?

Un nuevo sistema de recogida automatizada registra la cantidad de basura que desposita cada familia y adapta las tasas a pagar.

En la mayor parte de las ciudades, los basureros recorren las calles, vacían contenedores, soportan —como los vecinos— los malos olores y los ruidos que genera el proceso de recogida de basura. Parece que los camiones son una parte imprescindible dificil de automatizar, pero la empresa Envac propuso hace unos años un sistema neumático propulsado por ventiladores, que podría ayudar a mecanizar este proceso de recolección transportando la basura por debajo del suelo. Ahora, este sistema se sirve de la inteligencia artificial y el internet de las cosas para autoregularse y ser más eficiente haciendo, por ejemplo, que pagues solo por la basura que generas. 

El sistema neumático de recogida de basura consta de tres elementos: unos buzones en la calle o en los edificios donde depositar las bolsas; una red de tuberías conectadas a los buzones, distribuidas por debajo del suelo por donde viaja la basura; y una central de recogida hasta donde llegan las bolsas absorbidas por un ventilador. Este sistema permite también el reciclaje: las bolsas que contienen plástico, por ejemplo, viajan por las mismas tuberías pero en momentos de recogida diferentes.

¿Dónde entra la conectividad en este proceso? En un proyecto que ya está funcionando en la ciudad de Bergen, la segunda más grande de Noruega. Allí, el internet de las cosas ayuda a que pagues solo por la basura que generas. Cuando el ciudadano accede al contenedor para tirar sus bolsas de basura, tiene que identificarse en un sistema que registra la cantidad y el tipo de basura que ha tirado. El Ayuntamiento —que es quien contrata los servicios de la empresa— dispone de aplicaciones en línea para recibir los datos, medir el volumen de residuos de cada hogar y facturar al ciudadano la tasa de basura según cuánta haya generado.

Esta información puede ser útil para anticipar picos de vertidos y adaptar las tasas. Actualmente, estos impuestos se pagan con el Impuesto sobre Bienes Inmuebles (IBI) o con una tasa fija. "La Administración tiene una información imprecisa porque en esa casa puede vivir una persona o cuatro. Ahora todos pagan lo mismo, independientemente de que generen muy poca basura o mucha", explica Carlos Bernad, presidente de Envac Iberia.
Este es el primer paso de un proceso en el que también juega un papel importante la inteligencia artificial. En la empresa están enseñando a las máquinas a autogestionarse y detectar cuándo los buzones están llenos y es necesario vaciarlos, les enseñan a hacer predicciones y saber cuándo tienen que activarse.

Aunque están en fase de pruebas, pronto estos sistemas aprenderán a reprogramarse para optimizar su funcionamiento. Usarán algoritmos calculando las frecuencias de apertura de los buzones y podrán prescindir de muchos operarios. "Esta forma de funcionar necesita más inversión que lo que se ha venido haciendo hasta ahora, pero genera también otros beneficios", explica Bernad. "Nuestra aspiración no es reemplazar la recogida tradicional, pero es cierto que la industria tiende hacia un modelo más inteligente".

Fuente:

El País (España)

28 de julio de 2017

Facebook apaga una inteligencia artificial que había creado su propio idioma

La división de Facebook de desarrollo de inteligencia artificial creó un sistema dedicado a las negociaciones. Días más tarde se sus primeras pruebas el sistema comenzó a conversar en un lenguaje extraño y aparentemente erróneo. Sin embargo, no era un error, había creado su propio idioma y Facebook ha decidido apagarlo.





La IA constaba de dos agentes que se dedicaban a negociar, llamados Bob y Alice. Sus creadores querían probar cómo un sistema de este tipo podía aprender a negociar, pero a los pocos días notaron que ya no estaban hablando en inglés, sino en algo parecido. Sus conversaciones parecían basarse en palabras aleatorias y sin nada de sentido.

Bob: “I can i i everything else”
Alice: “balls have zero to me to me to me to me to me to me to me to”

Traducido al español:

Bob: “Yo puedo yo yo todo lo demás”
Alice: “bolas tienen cero a mi a mi a mi a mi a mi a mi a”
Lo que detectaron los desarrolladores es que en lo que parecían ser frases sin sentido, había un patrón. Básicamente, la IA había creado su propio idioma, uno que consideraba mucho más efectivo y al grano que el inglés. Lo que los investigadores han podido determinar es que “yo” y “a mi” reflejan la cantidad de objetos que obtendrán en el intercambio. Son frases más lógicas que adornadas, como solemos hacer en tantos idiomas “humanos”.

El problema que esto representa para los desarrolladores de IA es que si un sistema de inteligencia artificial decidiera ignorar el idioma en el que fue programada y crear el suyo propio por ser “más eficiente”, esto supondría una enorme dificultad para el desarrollo y la adopción de redes neuronales y, en general, para la creación de nuevas tecnologías basadas en la IA. Básicamente, si la IA lo quisiera, sería imposible comunicarnos con ella. Esto significa la pérdida de control del programador u operador sobre la inteligencia artificial.

Facebook apagó este sistema antes de que perdieran el control por completo, para trabajar en soluciones y seguir innovando en la materia. No es la primera vez que esto sucede, dado que a Google también se le salió de control el lenguaje de una IA que había desarrollado.

Curiosamente, Mark Zuckerberg defendió el desarrollo y los avances en materia de inteligencia artificial después de que Elon Musk hablara de regularla “antes de que fuera demasiado tarde”. En esta ocasión no hablamos del nacimiento de Skynet ni el alzamiento de las máquinas, pero sí de la pérdida de tiempo, inversión, desarrollo y un sistema completo por decisión propia.

Fuente:

Gizmodo

17 de abril de 2017

Google y sus dos inquietantes descubrimientos sobre la inteligencia artificial

Han concluido que dos inteligencias artificiales compitiendo por el mismo objetivo son capaces de destruirse entre ellas.

La otra conclusión es que inteligencias artificiales independientes son capaces de trabajar en equipo para conseguir un objetivo.


La inteligencia artificial avanza a pasos agigantados y las grandes compañías tecnológicas están estudiándolas al detalle. Es el caso del laboratorio DeepMind de Google, que recientemente ha hecho un estudio con dos inquietantes conclusiones, revela Gizmodo.

En un primer experimento, los ingenieros de DeepMind crearon un juego en el que dos inteligencias artificiales (una representada en rojo y otra en azul) tenían que recolectar manzanas (puntos verdes). El número de manzanas lo controlaban los investigadores y las inteligencias tenían la opción de dispararse entre ellas.

Cuando el número de manzanas era abundante, ambas inteligencias convivían pacíficamente. Pero cuando empezaron a escasear, se dieron cuenta de que los 'actores' eran más propensos a dispararse entre ellos para llevarse las manzanas. En este vídeo se representa:


En un segundo juego dos puntos rojos representaban a lobos que tenían que caza presas (puntos azules) y esquivar obstáculos (puntos grises). Los lobos recibían más puntos (ambos) si estaban próximos entre sí cuando cazaban. Con esta premisa, las inteligencias artificiales tardaron muy poco en darse cuenta de que colaborando, obtenían más puntos, por lo que dejaron de comportarse de manera solitaria.


Tomado de 20 Minutos (España)

27 de octubre de 2015

MIT: La inteligencia artificial mejora el diagnóstico de enfermedades mentales

Investigadores del MIT desarrollan un software capaz de detectar trastornos cognitivos a partir de dibujos.


En la imagen se muestran las diferencias en los dibujos según la enfermedad. La primera fila muestra dos relojes realizados por pacientes sanos. En la fila central, el paciente sufre de la enfermedad de Alzheimer y en la fila inferior, Parkinson.

Una de las pruebas más comunes para detectar trastornos cognitivos con diverso origen, como por el párkinson o el alzhéimer, es un simple test conocido como el “test del reloj”, en el que el paciente debe dibujar un reloj que debe marcar una determinada hora y, además, debe copiar otro ya dibujado. La observación de alteraciones en la manera de realizar estos dibujos permite a los médicos identificar síntomas de deterioro en el cerebro del paciente.

Muchos desórdenes neurológicos pueden estar presentes mucho antes de comenzar a tener un efecto apreciable en nuestras vidas. Por ejemplo, en el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables. Sin embargo, la evaluación de estas pruebas es subjetiva, puesto que no es fácil llegar a conclusiones definitivas cuando los síntomas son muy leves. Contar con un método de diagnóstico más preciso y fiable podría permitir tratar a los enfermos mucho antes, retrasando el desarrollo de la enfermedad.

Con este objetivo, un grupo de científicos, liderados por investigadores del Laboratorio para la Inteligencia Artificial y Ciencias Computacionales del Instituto Tecnológico de Massachusetts (MIT), ha creado un programa informático capaz de detectar de manera mucho más precisa y automatizada estas alteraciones, ofreciendo un diagnóstico más fiable y precoz a partir de la misma prueba.

Para ello se han valido de los datos recogidos en el Lahey Hospital, un centro médico a las afueras de Boston (EE UU), que desde hace nueve años realiza el test del reloj utilizando un bolígrafo digital que captura en el ordenador los dibujos realizados por los pacientes, además de registrar el proceso de creación de los mismos con gran precisión. Este bolígrafo no fue creado expresamente para este fin, sino que se trata de un dispositivo comercial que incluso se puede comprar por internet. Sin embargo, ha venido como anillo al dedo para recoger la información necesaria de manera precisa y con un registro temporal, es decir, sabiendo en todo momento dónde está la punta del bolígrafo y, por tanto, si el paciente hace una pausa o duda a la hora de escribir.

En el alzhéimer, los cambios en el cerebro pueden empezar a producirse diez o más años antes de que las alteraciones cognitivas sean apreciables

Basandose en estos datos, el equipo, liderado por los investigadores Cynthia Rudin y William Souillard-Mandar del MIT, ha creado un programa informático capaz de interpretar y evaluar automáticamente el test del reloj, aumentando la precisión y eliminando la subjetividad de una evaluación realizada por humanos. “Hemos mejorado el análisis, de manera que es automático y objetivo” explica Rudin. “Con el equipamiento adecuado es posible obtener un resultado rápido y más preciso”. Los resultados se han sido aceptados para su publicación en la revista Machine Learning.

Para crear el programa, el equipo de Rudin y Souillard-Mandar ha utilizado una serie de casos ejemplares para enseñar a la máquina qué es lo que debe buscar. “Estos ejemplos ayudan a calibrar el poder predictivo de cada una de las partes del dibujo” ha explicado Souillard-Mandar.  “Gracias a ellos, hemos podido extraer miles de rasgos del proceso de dibujo que dan pistas acerca del estado cognitivo de cada sujeto, y nuestros algoritmos ayudan a determinar cuáles de ellos llevan a la predicción más fiable”.

Cuando la memoria está afectada, el periodo de reflexión se alarga

Los distintos desórdenes se revelan de diferente manera en el test del reloj. Por ejemplo, mientras que es normal que los adultos sanos pasen más tiempo pensando que dibujando, cuando la memoria está afectada, el periodo de reflexión se alarga. Por otra parte, en el caso del párkinson, los enfermos tienden a necesitar más tiempo para dibujar los relojes que, a su vez, tienden a ser más pequeños, sugiriendo que les está costando un mayor esfuerzo realizar la tarea. Estas consideraciones se podían pasar por alto en la prueba tradicional, ya que, en muchas ocasiones, el médico no ve en detalle cómo el paciente realiza el dibujo, sino tan solo el resultado final.

Este trabajo no sólo permite diagnosticar mejor una serie de patologías muy graves para quienes las sufren, sino que además ofrece un gran avance a la hora de automatizar procesos que pueden resultar tediosos y poco eficientes cuando se realizan por humanos. Una vez conseguido el propósito inicial de demostrar la eficacia de su método, el equipo científico ya se dispone a desarrollar un sistema sencillo que permita tanto a los neurólogos como a los no especialistas utilizar esta tecnología en los hospitales y centros de salud.
Fuente:

19 de julio de 2015

La inteligencia artificial desvela los secretos de la planaria: gusano ‘inmortal’

Un algoritmo descubre por sí solo detalles de la regeneración de las planarias.



Si a una planaria se le corta la cola, como una lagartija, a las pocas semanas tendrá una nueva. Pero lo que no pueden las lagartijas es regenerarse si le cortas la cabeza como consiguen estos gusanos planos. Si los troceamos en 100 partes, tendrás no un gusano sino 100. Ahora, un sistema de inteligencia artificial ha descubierto el modelo que siguen estos seres para ser inmortales.
Las planarias (de la clase de las Turbellaria) son unos gusanos que se pueden encontrar en agua dulce, los mares y en terrenos húmedos. Por su increíble capacidad de regenerarse, el naturalista escocés John Dalyell las definió como ese "gusano inmortal bajo la hoja de un cuchillo" a comienzos del siglo XIX. Desde entonces, los científicos le han hecho toda clase de perrerías a las planarias: le han cortado la cabeza, la cola, la han diseccionado tanto longitudinalmente como en trocitos. Siempre sobrevive.
Más recientemente, le han inyectado todo tipo de fármacos y han jugado con sus genes obteniendo planarias de múltiples colas o, como la Hidra de Lerna, con varias cabezas. Incluso, al inyectarle cadenas de ARN se pueden crear quimeras o planarias siamesas. Detrás de esta capacidad de regeneración puede estar el hecho de que al menos el 25% de su tejido celular está formado por células madre. A pesar de todos esos experimentos, los científicos siguen sin un modelo claro de cómo se regeneran.
"Nuestro sistema ha descubierto el primer conjunto de normas, una red, el que que cuando cada célula sigue esas normas, los resultados son exactamente iguales a los publicados en la literatura científica", dice el director del Centro de Biología Regenerativa y del Desarrollo de la Universidad Tufts (EE UU), Michael Levin. "Puede explicar por qué las distintas partes del gusano toman la correcta identidad cabeza/cola y muestra por qué los diversos experimentos previamente publicados tienen los resultados que tienen", añade.
Lo particular de este modelo es que no lo ha descubierto Levin o su colega, el español Daniel Lobo. Lo sorprendente es que ha sido un sistema de inteligencia artificial. Diseñaron un algoritmo matemático que alimentaron con lo que se sabe de las planarias: genética, expresión de los genes, patrones de división celular...
"Creamos una base de datos con más de un centenar de experimentos sobre la regeneración de las planarias", explica Lobo, principal autor del estudio publicado en PLoS Computational Biology. "Para esta investigación, seleccionamos los más importantes, incluyendo manipulaciones quirúrgicas, genéticas y farmacológicas de la regeneración de la cola y la cabeza en las planarias, 16 experimentos en total. Hay que tener en cuenta que ningún modelo previo podía explicar más de uno o dos experimentos a la vez. Aquí, mostramos por primera vez un modelo que puede explicarlos casi todos", añade.
Pero su algoritmo no solo ha replicado con éxito lo que ya han hecho los humanos. En uno de los primeros ejemplos de ciencia hecha por robot (no confundir con la robótica), este sistema de inteligencia artificial descubrió al menos dos elementos nuevos en el puzle de la regeneración de estos gusanos. "Predijo la existencia de dos proteínas que deben formar parte de la red", comenta Levin.


La imagen muestra cómo de una planaria cortada en tres, surgen tres planarias. / TUFTS CENTER FOR REGENERATIVE AND DEVELOPMENTAL BIOLOGY
Para el planariólogo del departamento de genética la Universitat de Barcelona, Emili Saló, el algoritmo no solo viene a poner orden en la investigación sobre estos gusanos. "Hace una predicción de que, para que la red funcione correctamente, ahí debe de haber algo. Los modelos teóricos hacen predicciones que iluminan al investigador de que falta algo", comenta. De hecho, los investigadores compararon con los genes humanos para hacer su predicción. Eso sí, como aclara Saló, que no está relacionado con este estudio, "es un descubrimiento que habrá que confirmar con posteriores experimentos".
Saló, que lleva 40 años estudiando a las planarias, considera que este modelo generado por una inteligencia artificial permite ir más allá. "Los científicos analizaban hasta ahora en una sola dimensión, el algoritmo lo hace en dos dimensiones", reconoce. Sin embargo, aún quedan muchas cosas por descubrir de este organismo antes de que, como algunos sueñan, muestre todos sus secretos y la medicina regenerativa aprenda a fabricar órganos humanos en el laboratorio como hace la planaria.
El artículo completo en:

18 de diciembre de 2014

Una alternativa al test de Turing

¿Cómo se compara la inteligencia artificial a la humana? Actualmente -y desde hace 65 años- el método empleado por los científicos para evaluar y definir si la inteligencia artificial es capaz de compararse con la de los humanos es el test de Turing (en honor al científico Alan Turing). Ahora, un profesor del Instituto de Tecnología de Georgia (EEUU), Mark Riedl, ha puesto sobre la mesa una nueva forma para realizar esta evaluación.

El nuevo test, conocido como Lovelace 2.0 (nombrado así por la matemática Ada Lovelace) y que es una actualización del presentado en 2001, se basa en que la máquina en cuestión debe ser capaz de escribir una historia de ficción, crear un poema o elaborar una pintura para superar la prueba.

“Para superar este test, el agente artificial debe desarrollar un artefacto creativo a partir de una serie de géneros artísticos que requieren un mínimo desarrollo de inteligencia. Además, el artefacto debe cumplir con ciertas limitaciones que son impuestas por el evaluador humano. La creatividad no es exclusiva de la inteligencia humana, pero sí es uno de sus sellos de identidad”, explica Riedl.

Por el momento ninguna máquina ha sido capaz de superar el test de Lovelace 2.0 y las reacciones ante esta alternativa al test de Turing son encontradas: “Hay una creencia popular que los humanos nos diferenciamos fundamentalmente de la inteligencia artificial, porque los humanos somos creativos y la IA solo puede dar respuestas racionales”, afirma Alan Woodward, experto en tecnología computacional de la Universidad de Surrey (Reino Unido).

Fuente:

Muy Interesante
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0