El tamaño de las partículas es ínfimo y de plásticos muy comunes, como polietileno y acrílico. Se detectaron trazas de micropartículas de plástico en 6 de cada 10 muestras de semen de
hombres sanos ...
Un informe cuantifica los límites climáticos, naturales
y de contaminantes que aseguran el mantenimiento seguro y justo de la
civilización.Un amplio grupo de científicos identificó en 2009 nueve lí...
Aquí van las razones
geográficas y socioeconómicas por las que el río más largo y caudaloso
del mundo nunca tendrá una estructura que sirva para cruzar de orilla a
orilla.Cuando vemos en algún doc...
El 43,7% de loretanos no tiene acceso al servicio de agua potable o
tratada. Es el mayor déficit en todo el país, según el INEI, y afecta
principalmente a la niñez de las zonas rurales de la región...
Perú se ubica en la
escala de desigualdad por encima de México. El informe señala que el 1%
de la población más rica del mundo concentra entre el 25% y 30% de los
ingresos totales de su país...
15 Oct 2022 undefined comments comments comments comments comments comments
Al principio de su historia, el planeta rojo habría
sido probablemente habitable para los metanógenos, microbios que viven
en hábitats extremos de la Tierra.El Marte noáquino habría sido un hábitat...
La astrofísica del Centro de Astrofísica Harvard &
Smithsonian en Cambridge, detalló que se trata de un fenómeno
completamente nuevo ya que “estamos observando la evolución estelar en
tiempo r...
El dispositivo podría suministrar energía
constante a una amplia variedad de aparatos electrónicos alimentándose
de la transpiración humana.Investigadores de la Universidad de Massachusetts Amherst...
¿Cómo innova una máquina? Desde una perspectiva teórica, la creatividad y la innovación son procesos de búsqueda y combinación. Empezamos con un trozo de conocimiento y lo conectamos con otro trozo para crear algo nuevo y útil. En principio, esto también es algo que puede ser hecho por máquinas.
De hecho, son excelentes almacenando, procesando y haciendo conexiones
entre datos. Las maquinas producen innovaciones usando métodos generativos. Pero ¿cómo ocurre eso exactamente? Hay diferentes estrategias, pero lo que es tecnología de punta se llama "red generativa antagónica".
Por
ejemplo, piensa en una máquina que debe crear un retrato nuevo de una
persona. Las redes generativas antagónicas abordan esa tarea creativa
con la combinación de dos tareas secundarias.
La primera parte es
el generador, que produce nuevas imágenes a partir de una distribución
aleatoria de píxeles. La segunda parte es el discriminador, que le dice
al generador qué tanto se aproximó a producir un retrato que parezca
auténtico. ¿Cómo hace el discriminador para saber cómo se ven los
humanos? Pues bien, se le alimenta con muchos ejemplos de retratos de
personas reales antes de empezar la tarea. En base a la información del discriminador, el generador mejora su algoritmo y sugiere un nuevo retrato. Este
proceso se repite una y otra vez hasta que el discriminador decide que
el retrato se aproxima a los ejemplos que tiene en su memoria. Este
proceso da como resultado un retrato que se parece muchísimo a un humano
real. La "chispa humana" Pero, aunque las máquinas puedan innovar en base adatos, eso no
quiere decir que vayan a hacer sombra a la creatividad humana en breve. La
innovación es un proceso de resolución de problemas. Esto es, para que
una innovación exista, hay que combinar los problemas con las
soluciones. Los humanos pueden ir en cualquiera de las
direcciones: pueden empezar con un problema y resolverlo, o pueden
partir de una solución y tratar de buscar nuevos problemas en torno a
esta.
Un ejemplo de este último tipo de innovación es el Post-it (el papelito rectangular para escribir notas con adhesivo en una de las esquinas). Un
ingeniero desarrolló un pegamento que no era muy fuerte y lo dejó en su
escritorio. Y un colega se dio cuenta de que esa era precisamente la
solución que evitaría que se cayeran las notas que añadía a su partitura
durante sus ensayos corales. Al utilizar datos y código para formular problemas explícitos, la inteligencia artificial también puede ofrecer soluciones. Sin embargo, identificar un problema es más difícil para las máquinas, ya que estos no suelen estar incluidos en los datos a partir de los cuales innovan las máquinas. Es más, la innovación suele estar basada en las necesidades que ni siquiera sabíamos que teníamos. Pensemos en el walkman. Aun cuando ningún consumidor manifestó el deseo de escuchar música mientras caminaba, esta innovación fue un gran éxito. Así
como es difícil formular ese tipo de necesidades latentes, también es
improbable que entren a formar parte de los archivos de datos que las
máquinas necesitan para inventar. Los humanos y las máquinas se nutren de distintas materias primas para innovar. Mientras
las personas se basan en toda una vida de experiencias para generar
ideas, las máquinas se limitan a hacerlo usando los datos con las que
las alimentamos. Estas últimas puede, pues, generar innumerables innovaciones, versiones nuevas en base a datos que van recibiendo. Pero es poco probable que los inventos revolucionarios vengan de las máquinas, pues estos suelen crearse generalmente al relacionar campos distintos y desconectados. Un ejemplo de ello es el snowboard, que combina el mundo del surf con el esquí. Lea el artículo completo en: BBC Mundo
Los estudiantes de la
facultad de Ingeniería de Sistemas e Informática fueron los
que obtuvieron el primer lugar en la competencia en México.
Un grupo de estudiantes de la Universidad Nacional Mayor de San Marcos(UNMSM)
destacaron en México obteniendo el primer lugar en un evento regional
de proyectos de inteligencia artificial organizado por Huawei.
Los
jóvenes Carlos Ramírez, Luigi Castillo, Robert Gutierrez, Jhonatan León
y Sergio Zevallos de la facultad de Ingeniería de Sistemas e
Informática son los que se impusieron en la competencia.
El
rector de la Decana de América, Orestes Cachay Boza, estuvo presente en
el evento ICT Competition e intervendrá en el panel “Nuevo talento para
un mundo más inteligente”.
La
autoridad sanmarquina se reunió con Zha Xinliang y Xia Pu, directivos
de Huawei, empresa china que busca desarrollar el talento entre los
profesionales más jóvenes y fomentar la creación de ecosistemas sólidos.
La
empresa multinacional de alta tecnología, Huawei, creó esta competencia
con el objetivo de impulsar la investigación y la certificación
tecnológica en el sector de la información y las comunicaciones.
La tecnología empleada es la misma que utilizan Echo de Amazon y Siri de Apple, afirma uno de los científicos que han logrado la hazaña.
Un equipo de científicos ha logrado crear por vez primera un sistema que transforma el pensamiento en un discurso inteligible, informa el portal MIT Technology Review. Los resultados del estudio fueron publicados el martes en Scientific Reports. De antemano se sabía ya que, cuando las personas hablamos, imaginamos
que hablamos o escuchamos a otras, generamos patrones en el cerebro.
Por ello, en un inicio Nima Mesgarani —de la Universidad de Columbia— y
el resto del equipo trataron de registrar las ondas cerebrales mediante
modelos computacionales simples que analizaban espectogramas. No
obstante, esa vía no generaba nada reconocible, por lo que terminaron
recurriendo a un codificador de voz o 'vocoder'.
"Esta es la misma tecnología empleada por Echo de Amazon y Siri de Apple para dar respuestas verbales a nuestras preguntas", declaró el martes Mesgarani al instituto Zuckerman de la Universidad de Columbia. Las
pruebas fueron realizadas con cinco pacientes con epilepsia focal
farmacorresistente, a los que se les implantó electrodos en el cerebro. A
continuación se les hizo enumerar dígitos entre el 0 y el 9 mientras se
registraban las ondas cerebrales que, luego, pasarían a través del
'vocoder' reproduciéndolos con una voz robótica. De esta manera, mediante electrodos y la inteligencia artificial lograron un 75 % de precisión, un 67 % más que con los análisis lineales de espectogramas.
Esta combinación supone un avance
que podría sentar las bases para que las computadoras se comunicaran
directamente con el cerebro humano, así como para personas con
dificultades del habla. Fuente: RT en español
Varios músicos cuestionan la iniciativa de Huawei por artificial y carente de alma.
Franz Schubert
es un perpetuo enigma. Murió joven, a los 31 años, pero más que
desgastarse en una vida intensa, como tantos otros músicos, se fue
consumiendo en cierta melancolía solitaria de cafés como desahogo a su
total entrega a la creación. “El Estado debería ocuparse de mí”, le
escribió a un amigo, para dar cuenta de su devoción al trabajo. Y si
corrieran estos tiempos, quizás lo hiciera la compañía tecnológica Huawei, que ha diseñado mediante algoritmo e inteligencia artificial el remate de su Sinfonía número ocho, conocida como la Inacabada.
Hacía la penúltima en su catálogo de obras orquestales. En la Viena
romántica de principios del XIX, Schubert llegó a crear nueve. Durante años ha habido todo tipo de teorías sobre si el autor llegó a
terminar esta obra concebida para la Sociedad Musical de Graz, pero
alguien, tal vez algún amigo, perdió la parte final. Sin embargo, para
cuando quedó claro que Schubert, simplemente, nunca llegó a completarla,
la Inacabada ya se había convertido en la obra para orquesta más misteriosa e interpretada de su autor. Así, bajo el cúmulo de polémicas que ha suscitado, su influjo
simbólico aparece de nuevo para ser presa ahora de la inteligencia
artificial. Huawei presenta este lunes —en una audición privada en el Cadogan Hall
de Londres, en interpretación de la English Session Orchestra bajo la
dirección de Julian Gallant— su versión de la pieza, que ya ha dado que
hablar antes de su estreno.
En una nota, la compañía asegura que la versión ha sido creada
mediante el uso de un modelo de inteligencia artificial que se beneficia
directamente de la tecnología de procesamiento neuronal que aplica en
sus móviles. A partir del timbre, el tono y el compás del primer y
segundo movimiento conservados, el modelo generó una melodía para los
inexistentes o extraviados tercero y cuarto previstos. Posteriormente,
Huawei trabajó con el compositor Lucas Cantor para fijar una partitura orquestal de la melodía en la línea que presumiblemente buscaba entonces Schubert. El compositor español José María Sánchez-Verdú
nos sitúa en contexto: “Desde los años sesenta se están haciendo este
tipo de trabajos. Ya en EE UU, con los primeros ordenadores, se ponen en
práctica. Sustituir la mente y la creatividad de un compositor mediante
procesos algorítmicos desarrollados por una máquina es enormemente
antiguo”, afirma. Tampoco valen maniobras de distracción: “Todo entra dentro del ámbito
publicitario, lanzar noticias tecnológicas y, además, a partir de
grandes nombres y obras de la cultura europea, como es ahora Schubert”.
Hay abundantes intentos previos al de la tecnológica china: “Existen
varias versiones desarrolladas por compositores en los últimos veinte
años sobre esta sinfonía. Yo personalmente no encuentro ningún estímulo e
interés por estas propuestas”, comenta Sánchez-Verdú.
DeepMind desarrolla una inteligencia artificial invencible en los tres juegos de tablero más complejos gracias a un algoritmo que compite sin instrucciones.
El objetivo está lejos: conseguir una sola máquina capaz de
enfrentarse a cualquier reto o tarea sin ayuda. Hasta ahora, los grandes
logros de la inteligencia artificial se generan con máquinas dedicadas
específicamente a una tarea, entrenadas para ello en una condiciones muy
concretas, incapaces de adaptarse a un cambio sustancial. Pero los
pasitos que se van dando hacia ese objetivo son firmes. El último
progreso lo firma DeepMind, que ha conseguido que un mismo programa se
convierta en invencible en ajedrez, shogi (una versión japonesa del
juego) y go, los tres juegos de tablero más exigentes para el intelecto.
Pero el mundo real es mucho más complejo e imprevisible. El logro de DeepMind, la división de inteligencia artificial de
Google, promete generar importantes avances. Este programa, llamado
AlphaZero, ha aprendido solo a jugar sobre estos difíciles tableros, como explican sus desarrolladores en la revista Science.
De cero (de ahí su nombre), sin ayuda ni ejemplos de jugadores reales.
En otras ocasiones, el ordenador aprendía porque lo alimentaban con todo
el conocimiento humano, millones de jugadas y ejemplos reales, y a
partir de ahí el cerebro de silicio elegía las mejores estrategias. Deep
Blue venció así a Kaspárov. Y AlphaGo venció así a Lee Sedol.
Pero AlphaZero aprende de sí mismo y en apenas un puñado de horas; tan
solo le explican las reglas del juego y a partir de ahí ha sido capaz de
convertirse en el mejor jugador de todos los tiempos en estas tres
disciplinas. Los programas que mejor juegan al ajedrez, al shogi y al go
—sin rival entre los humanos y diseñados durante años específicamente
para esta tarea— apenas son capaces de arañar una victoria entre miles
de derrotas. Es más, esta inteligencia artificial es capaz de vencer con una mano
atada a la espalda. Al enfrentarse ordenadores contra ordenadores, se
otorgaban unos tiempos a cada aparato para pensar su
movimiento. La inteligencia de AlphaZero era tan superior que ganaba
incluso cuando se le concedía tan solo una décima parte del tiempo que a
sus rivales para procesar la información y mover. Y no es una cuestión
de potencia computacional, es porque se le ha otorgado una forma de
razonar más profunda y selectiva. En ajedrez, valora únicamente
60.000 posibilidades por segundo frente a los 60 millones de opciones
que baraja su rival, Stockfish, el más potente jugador de ajedrez hasta
ahora. El algoritmo busca solo entre los movimientos más prometedores. Pero AlphaZero no solo vence, revoluciona el juego. Como la máquina
aprende sola, sin modelos ni ejemplos, empieza con decisiones aleatorias
y al cabo de un tiempo empieza a descubrir las jugadas y
planteamientos que llevan usando siglos los humanos. Pero enseguida
encuentra mejores enfoques, completamente nuevos, creando un estilo de
juego propio y poco ortodoxo. "Está libre de las limitaciones del modo
en que los humanos piensan sobre el juego", explica Demis Hassabis, jefe
de DeepMind, por lo que ha incorporado al tablero estrategias
desconocidas que ya están fascinando a los expertos. En ajedrez, se
habla de cómo sus piezas se arremolinan en torno al rey del oponente con
fuerza, dinamismo y determinación. Desprecia el valor material de las
piezas y prefiere hacer sacrificios impensables desde el principio de la
partida porque al final merecerá la pena. En el shogi, realiza
movimientos que van en contra de todos los manuales, como mover al rey
al centro del tablero, porque supone ponerlo en peligro, pero para
AlphaZero se convierte en una forma de mantener el control del campo de
batalla. Cuando se hizo lo mismo en el milenario go, la máquina llegó a la conclusión de que el conocimiento humano era un lastre. Lea el artículo completo en: El País (España)
Cualquier conductor que vea una señal de stop a la que algún
gracioso le ha puesto una pegatina que pone “odio” sabe que sigue siendo
una señal de stop y debe parar. En cambio un coche autónomo será
incapaz de reconocerla más del 60% de las veces y pasará de largo.
Los sistemas de visión artificial confunden una tortuga de juguete con un rifle y a personas negras con gorilas.
Estos dispositivos han sido entrenados para ver patrones y hacen falta
solo sutiles cambios de simetría para desbaratarlos, como demuestra el estudio de las señales de tráfico publicado el pasado abril por expertos de varias universidades de EE.UU.
Las personas también hemos evolucionado durante miles de años para
ver patrones. “Estamos hechos para identificar caras y las vemos en las
nubes, en las manchas de la pared, lo hacemos continuamente”, explica
José Manuel Molina, del grupo de inteligencia artificial aplicada de la
Universidad Carlos III de Madrid. Un humano conoce el contexto de esa
imagen, sabe que parece una cara, pero en realidad es una nube. En
cambio la experiencia de vida de un algoritmo de visión se limita a
bases de datos con miles de imágenes con las que se ha entrenado una y
otra vez. “Los algoritmos han sido diseñados para resolver problemas muy
concretos, pero no para comprender qué está sucediendo en su entorno,
solo ven señales y aplican la misma solución siempre. Las máquinas son
totalmente autistas y darles comprensión de su entorno es muy
complicado”, resume Molina.
Imagen: Ejemplos de señales modificadas para engañar a los sistemas de visión artificial.DAWN SONG / BERKELEY
Estos fallos están cambiándole la vida a la gente. El sistema de
inteligencia artificial Compas que usan los jueces en EE.UU. como asesor
tiene un sesgo y tiende a desaconsejar la libertad a los negros más a
menudo que a los blancos. El algoritmo analiza 173 variables —ninguna de
ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. “La
causa de estos problemas es que las bases de datos con las que
funcionan estos algoritmos son de la policía y en ellas hay importantes
sesgos racistas”, explica Ramón López de Mántaras, experto en
inteligencia artificial del CSIC. Un estudio publicado este mismo año
sostiene que el sistema tiene una tasa de error equiparable a la de personas sin conocimientos legales. El problema no es tanto la máquina, sino el riesgo de que el juez delegue en ella.
A un nivel mucho menos grave, la aparente estupidez artificial
acecha a cualquiera que use Internet con anuncios omnipresentes de cosas
que ya han comprado o que no interesan. Una vez más, la culpa no es de
la máquina, sino de la falta de contexto. “Si buscamos un producto en
Internet esa información es pública y queda grabada, pero cuando lo
compramos la transacción es privada, el algoritmo no sabe que lo has
comprado, se lo tienes que enseñar. No es un error, te sigue mostrando
lo que cree que te interesa y lo seguirá haciendo hasta que pase su
tiempo de olvido”, explica Molina.
Las estimaciones con respecto a la cantidad de trabajos que se destruirán con la llegada de las máquinas (robots, inteligencia artificial o cómo le quieran llamar) son variadas, pero la gran mayoría apuntan a una pérdida importante que afectará principalmente a aquellos puestos que requieren trabajo físico.
El Foro Económico Mundial (WEF) acaba de publicar su informe 'Future of Jobs 2018',
donde se lanzan con cifras que podrían sonar igual de alarmantes, pero
que en esta ocasión nos plantean un escenario un poco más alentador. Y
es que sí, el estudio pronostica que se perderán empleos, pero afirman
que se crearán nuevas funciones que requerían un mayor grado de especialización.
Las máquinas harán más trabajos que los humanos
Hace casi un año, un estudio de McKinsey Global Institute (MGI), con la participación de expertos del departamento de Economía de Oxford y el Banco Mundial, pronosticó que entre 400 y 800 millones de personas serán desplazadas de sus puestos de trabajo en 2030 debido a la automatización. Hoy el WEF plantea nuevos escenarios ante está potencial perdida de empleos. Según el informe, a día de hoy el 29% de las tareas laborales son realizadas por una máquina.
Debido a los avances tecnológicos, en 2025 está cifra significaría la
pérdida de 75 millones de empleos. Pero sugiere que esta misma
tecnología dará vida a más de 133 millones de nuevos roles de trabajo,
con lo que se generarán 58 millones de nuevos empleos. Es decir, seguimos bajo el panorama de pérdida de empleos tras el
avance de la automatización, pero se disminuye la cifra que pronostica
hasta 800 millones de personas desplazadas de sus puestos de trabajo.
Por otro lado, el informe apunta a que no sólo los trabajos bajo
esfuerzo físico serán afectados, sino también aquellas labores rutinarias de oficina, como los encargados de capturar datos, contabilidad o el manejo de nóminas. Se cree que en un periodo de cinco años se empezarán a demandar más analistas
de datos, encargados de diseño, pensamiento crítico, inteligencia
social, así como programadores y desarrolladores de software. Incluso se pronostica un cambio general en los planes de estudios para 2020, donde se romperían los viejos paradigmas y la clave de todo esto sería el entrenamiento.
Se calcula que el 54% de todos los empleados necesitarán formación en nuevas habilidades durante los próximos cinco años, se trataría de capacitación centrada en internet móvil de alta velocidad, inteligencia artificial, análisis de big data
y cómputo en la nube, con lo que se impulsaría la demanda de un nuevo
tipo de fuerza de trabajo que conviviría con la llegada de las máquinas.
De hecho, el informe menciona que los humanos deberán adaptarse a este
escenario al exigir mayor preparación, algo que sería un trabajo
conjunto entre empresas, gobierno y la misma fuerza de trabajo.
En resumen, el estudio predice que en los próximos siete años nos enfrentaremos a un cambio radical en cuanto a responsabilidades,
una importante transformación dentro de los mercados laborales
mundiales, lo cual se deberá manejar con prudencia, ya que esto nos
conduciría a una nueva era de buenos trabajos y una mejor calidad de
vida para todos. En caso de que esto se maneje mal, se correría el
riesgo de ampliar las brechas de habilidades, una mayor desigualdad y
una polarización más amplia. Fuentes: Web Economic Forum y Xakata Ciencia
Si estás buscando trabajo, parte de la evaluación de tu perfil podría
no estar a cargo de un ser humano. Entre los sectores en fase de
transformación por los efectos de la revolución tecnológica actual,
también está el de la selección de personal. Mientras aumentan las empresas que experimentan soluciones de inteligencia artificial
para mejorar su capacidad de encontrar talento, expertos y
profesionales de los recursos humanos debaten sobre hasta qué punto
pueden ser eficaces estos sistemas. Entre los especialistas entrevistados para este reportaje, nadie pone
en duda la necesidad de que la captación de talento sea liderada por
profesionales humanos a través de pasos como las entrevistas cara a cara
o por teléfono. Pero muchos destacan los beneficios potenciales de algoritmos y software en las fases más automatizadas del proceso. La inteligencia artificial ayuda a optimizar el rastreo de grandes
volúmenes de candidaturas, coinciden los operadores consultados por
Xataka. Y así permite agilizar el trabajo de los equipos de recursos humanos
a la hora de profundizar en el análisis de un perfil en concreto y
evaluar aspectos más sujetivos como la creatividad, la capacidad de
interacción social o de liderazgo, añaden. Además, en muchos casos con
estos sistemas se ahorran tiempo y dinero. ¿Pero qué pasa si el
algoritmo falla y descarta un perfil válido? ¿Qué hacen las empresas
para evitarlo? Lea el artículo completo en: Xakata Ciencia
"Si solo pudiera volver a hablar con
él"... Es lo que muchos piensan cuando pierden a un ser querido y es lo
que pensó Eugenia Kuyda cuando perdió a su mejor amigo, Roman
Mazurenko, de forma inesperada el 28 de noviembre de 2015.
Pero para lo que muchos es solo un pensamiento, para Kuyda fue una inspiración. Resulta que esta rusa de 31 años es una genia de la informática y se especializa en inteligencia artificial. Así que tres meses después de perder a Mazurenko, Kuyda lo "revivió" en formato tecnológico.
Creó
lo que se conoce como un chatbot, un programa de computación que puede
tener conversaciones simples con un humano. Su chatbot piensa y responde
como lo haría Roman Mazurenko. Kuyda le contó a la BBC que usó más de 10.000 textos escritos por su amigo para crear su bot.
Historia de una amistad
Ella y Mazurenko se habían conocido en Moscú cuando ambos eran jóvenes activistas. Él se dedicaba a la moda y a promocionar eventos culturales, y ella editaba una revista inspirada en The New Yorker. Ambos terminaron convirtiéndose en emprendedores, con start-ups digitales. El trágico final del ruso llegó en un viaje a Moscú, cuando durante una salida con amigos fue arrollado por un auto. Kuyda nunca llegó a despedirse y para ella fue una pérdida irreparable. "Siempre me sentí como alguien de fuera y tener a Roman a mi lado me hacía sentir entendida", contó en una entrevista con la BBC. Consumida por el dolor de la pérdida, se volcó a los miles de mensajes que habían intercambiado.
"Nos escribíamos mucho, vivíamos comunicándonos por texto, incluso si estábamos en dos lados de la misma casa", señaló. "Entonces
pensé, por qué no junto todos los mensajes que nos escribimos por años,
los meto en la red neuronal que creamos (para Luka) y vemos si habla como Roman", recuerda. No
solo se basó en sus propios intercambios con Mazurenko sino que le
pidió a sus amigos que le enviaran los textos que él les había escrito. Tener que repasar años de amistad fue catártico para ella. "Fue una forma de duelo muy interesante.
A veces era duro porque sentía que no lo estaba soltando y me estaba
volviendo loca, pero a la vez me permitió sentir cosas que estaba
intentando evitar". El artículo completo en: BBC Mundo
La semana pasada, la compañía Apple dio a conocer su nuevo modelo de
teléfono llamado iPhone X. En la presentación del producto se anunció
que, gracias al reconocimiento facial, el aparato empezará a funcionar
apenas reconozca el rostro de su dueño. Para eso, dijeron los
ingenieros, el chip electrónico del teléfono ha sido entrenado a
reconocer mas de mil millones de rostros humanos usando un sistema electrónico llamado circuito neuronal artificial. En
los últimos años se ha venido usando ese tipo de circuitos neuronales
en máquinas que ayuden en el diagnóstico en algunas especialidades de la
medicina, especialmente en patología y radiología. La idea es que del
mismo modo que ahora un teléfono celular es capaz de reconocer el rostro
de una persona con una seguridad de uno en un millón, ¿será posible que
una máquina pueda reconocer tan bien como un ser humano una neumonía en
una placa de rayos X o un diagnóstico de cáncer de la próstata en una
biopsia?. El conocimiento humano
Tratando de entender como es que los radiólogos aprenden a interpretar sus radiografías, investigadores de la Universidad de Sao Paulo
pusieron a 25 radiólogos en máquinas de MRI que estudiaban sus cerebros
mientras se les enseñaban imágenes de rayos X, siluetas de animales o
simplemente letras del alfabeto. Los resultados indicaron dos cosas, en
primer lugar, que el reconocimiento de las imágenes era casi instantáneo
(demora 1.33 segundos) y en segundo lugar, que a pesar de que el
reconocimiento de todas las imágenes usa la misma zona cerebral (lóbulo
parietal) el reconocimiento de diagnósticos médicos activa zonas
cerebrales mas complejas. Eso indica que hay dos niveles de
conocimiento, el de la imagen por si misma y el del significado de las
imágenes. Ese hallazgo refuerza la idea del filosofo británico Gilbert Ryle
quien dijera en 1945 que el conocimiento existe en dos esferas, el del
“saber eso” y el del “saber cómo”. Por ejemplo, el saber reconocer un
carro es algo simple, pues implica saber que tiene cuatro ruedas, tiene
una carrocería, tiene un parabrisas, tiene un timón, etc. Este nivel de
conocimiento es el “saber eso”. Pero ya el saber diferenciar la marca
del carro, el modelo o el año de fabricación exige ya un nivel mas
sofisticado de conocimiento, el que según Ryle representa el “saber
cómo”, en este caso, el saber como diferenciar los diferentes tipos y
modelos de carro. ¿Pueden las máquinas aprender? Desde
hace varios años, se han venido desarrollando máquinas que han
aprendido a reconocer imágenes, es decir el “saber eso” de Ryle. Así, se
tienen máquinas que leen citologías vaginales (Papanicolaou),
mamografías (sistema CAT por sus siglas en ingles), electrocardiogramas,
etc. El problema con estos sistemas es que solo han llegado al primer
nivel del conocimiento, es decir reconocer imágenes y patrones de un
solo elemento (células, imágenes de rayos X) pero no han aprendido a
diferenciar imágenes que sean diferentes de lo que se les ha enseñado.
En otras palabras, solo diferencian carros de bicicletas y motocicletas,
pero no han aprendido el “saber cómo” diferenciar las marcas o los
modelos de los carros ni su año de fabricación. Un interesante estudio
del Dr. Sebastián Thrun de la Universidad de Stanford y publicado en la
revista Nature en febrero de este año, revela que dependiendo del tipo
de datos con que se alimenten a las máquinas, estas son capaces de
aprender. En primer lugar, se le enseñó a la máquina a reconocer 130,000
imágenes de todo tipo de lesiones de la piel (incluyendo cáncer, acné,
lunares, eczemas, etc.). En un segundo paso, los científicos alimentaron
a la máquina con el nombre de las 2,000 enfermedades que esas imágenes
representaban y las biopsias de 2,000 de esas lesiones. El resultado fue
que la máquina no solo aprendió a reconocer las imágenes de las
lesiones, sino que aprendió a relacionarlas con el nombre de las
enfermedades y sus respectivas biopsias. En otras palabra, la máquina no
solo aprendió el “saber eso”, sino que aprendió también el “saber cómo”
de Ryle. En otras palabras, no solo aprendió a reconocer los carros,
sino que aprendió a diferenciar las marcas y los modelos. A este tipo de
conocimiento avanzado de las máquinas, se le ha bautizado como
“conocimiento profundo”. Validación del conocimiento profundo
Para
probar el nivel de conocimiento adquirido de sus máquinas, Thrun la
enfrentó primero a dos radiólogos entrenados en reconocer las mismas
lesiones. Luego de mostrarle a ambos 14,000 imágenes, la máquina predijo
con un 72% de certeza el diagnóstico de una imagen. Los radiólogos solo
lo hicieron en el 66%. En un segundo experimento, la máquina fue
enfrentada con un grupo de 25 radiólogos para examinar 2,000 imágenes de
cáncer de la piel de tipo melanoma y la máquina fue mucho mejor que los
humanos, tanto en su sensibilidad, es decir casi no se le pasaban por
alto las imágenes de verdaderos melanomas y en su especificidad, es
decir, no llamaba melanoma a lo que no era. Corolario
Si bien es cierto que al igual que los humanos, las máquinas (incluyendo la Watson de IBM o el DeepMind),
pueden aprender el “saber eso” y en base a esa experiencia pueden
desarrollar el “saber cómo” de Ryle, es importante entender que hasta
ahora, las máquinas no pueden desarrollar el tercer tipo de conocimiento que postuló Ryle.
Es el llamado “saber qué” o sea el saber para qué o porqué se hacen las
cosas, es decir el razonamiento que permite relacionar el “saber eso” y
el “saber cómo” con el medio ambiente y establecer el contexto de lo
que realmente sucede en la vida. Fuente: El Comercio (Perú)
La computación afectiva quiere dotar de inteligencia emocional a los dispositivos para lograr una comunicación más íntima y personalizada con el usuario.
Estás viendo la televisión. De repente, te das cuenta de que una
avispa sube por tu brazo. ¿Cómo reaccionas?”. Esta es una de las
preguntas del ficticio test Voight-Kampff, utilizado en Blade Runner
para detectar la falta de empatía en un sujeto. Si las respuestas del
interrogado desvelan esa incapacidad para identificarse emocionalmente
con otros seres, el diagnóstico queda claro: estamos delante de un
androide.
Dejando
a un lado la ciencia ficción, lo cierto es que en el mundo real esa
capa emocional viene a ser la guinda del pastel de la robótica, ahora
que la inteligencia artificial es cada vez más sofisticada, incluso
aquella que habita en nuestros dispositivos móviles. Y la cosa no hace
más que mejorar, como lo demuestra el reciente lanzamiento de la familia
Huawei Mate 10, una serie de smartphones que dan otra vuelta de tuerca a la inteligencia artificial gracias a su procesador Kirin 970. Este chipset
con unidad de procesamiento neuronal simula el pensamiento humano y es
capaz de analizar el entorno, lo cual hace que en cierto modo los
teléfonos sean más “conscientes” de las necesidades de los usuarios para
ofrecerles servicios mucho más personalizados y accesibles en todo
momento.
E¿Se conseguirá también pronto que un teléfono móvil o una tableta
imite emociones o que, al menos, consiga interpretarlas y responder de
manera consecuente? Eso es algo en lo que trabaja Javier Hernández, investigador del Grupo de Computación Afectiva del MIT,
área que explora cómo dotar a las tecnologías de inteligencia
emocional, una capacidad que muchos consideran crítica para lograr
relaciones mucho más naturales entre los humanos y la inteligencia
artificial. Entre otros objetivos, este grupo del MIT busca que en el
futuro cualquier dispositivo sea capaz de entendernos mucho mejor y
nuestra comunicación con estas máquinas sea más íntima y personalizada.
“Por ejemplo, si el móvil detecta que estamos pasando por un mal
momento, quizás filtre las noticias para discriminar las más negativas,
nos recomiende escuchar una canción que nos gusta o nos sugiera hablar
con alguien cercano para aliviarnos y mejorar nuestro estado de ánimo”,
según Hernández.
Esta personalización de contenidos es una de las principales áreas en
las que la computación afectiva aportará ventajas significativas. No en
vano, se trata de una selección realizada a partir del estudio de las
emociones del usuario, así que gracias a ella se proporcionará un
remedio para una necesidad concreta de una persona y podrá garantizarse,
casi con total seguridad, que causa el efecto deseado. Esto ya se está
aplicando para mejorar anuncios publicitarios, pero en el futuro también
se utilizará en videojuegos y películas cuyo argumento cambiará
dinámicamente en función de nuestro estado emocional. Lea el artículo completo en: El País (Retina)
Cuando la supercomputadora Deep Blue de IBM venció al campeón de
ajedrez Gary Kasparov en 1997, muchos se sorprendieron ante el poder de
estas máquinas.
Dos décadas después, la inteligencia artificial está presente en la
banca, la medicina y en programas populares como los predictores de
palabras de los celulares.
En 2016, AlphaGo, un programa informático de la filial de Google
Deep Mind, ganó un duelo con el campeón del mundo de un juego denominado
Go.
Y este año el Instituto Tecnológico de Massachussetts (MIT) anunció
que su algoritmo DeepMoji, que puede analizar emojis para detectar el
sarcasmo en Twitter.
Deep significa "profundo" en inglés. Y el "aprendizaje profundo" es
lo le que permite a las computadoras resolver este tipo de problemas.
Pero, ¿qué es? ¿Y cómo está afectando la vida de personas en todo el mundo?
BBC Mundo habló sobre el tema con dos expertos, Augusto Vega y José Dorronsoro.
Un nuevo sistema de recogida automatizada registra la cantidad de basura que desposita cada familia y adapta las tasas a pagar. En la mayor parte de las ciudades, los basureros recorren las calles,
vacían contenedores, soportan —como los vecinos— los malos olores y los
ruidos que genera el proceso de recogida de basura. Parece que los
camiones son una parte imprescindible dificil de automatizar, pero la
empresa Envac propuso hace unos años un sistema neumático propulsado por
ventiladores, que podría ayudar a mecanizar este proceso de recolección
transportando la basura por debajo del suelo. Ahora, este sistema se
sirve de la inteligencia artificial y el internet de las cosas para
autoregularse y ser más eficiente haciendo, por ejemplo, que pagues solo
por la basura que generas.
El
sistema neumático de recogida de basura consta de tres elementos: unos
buzones en la calle o en los edificios donde depositar las bolsas; una
red de tuberías conectadas a los buzones, distribuidas por debajo del
suelo por donde viaja la basura; y una central de recogida hasta donde
llegan las bolsas absorbidas por un ventilador. Este sistema permite también el reciclaje: las bolsas que contienen plástico, por ejemplo, viajan por las mismas tuberías pero en momentos de recogida diferentes.
¿Dónde entra la conectividad en este proceso? En un proyecto que ya
está funcionando en la ciudad de Bergen, la segunda más grande de
Noruega. Allí, el internet de las cosas ayuda a que pagues solo por la
basura que generas. Cuando el ciudadano accede al contenedor para tirar
sus bolsas de basura, tiene que identificarse en un sistema que registra
la cantidad y el tipo de basura que ha tirado. El Ayuntamiento —que es
quien contrata los servicios de la empresa— dispone de aplicaciones en
línea para recibir los datos, medir el volumen de residuos de cada hogar
y facturar al ciudadano la tasa de basura según cuánta haya generado.
Esta información puede ser útil para anticipar picos de vertidos y
adaptar las tasas. Actualmente, estos impuestos se pagan con el Impuesto
sobre Bienes Inmuebles (IBI) o con una tasa fija. "La Administración
tiene una información imprecisa porque en esa casa puede vivir una
persona o cuatro. Ahora todos pagan lo mismo, independientemente de que
generen muy poca basura o mucha", explica Carlos Bernad, presidente de
Envac Iberia.
Este es el primer paso de un proceso en el que también juega un papel
importante la inteligencia artificial. En la empresa están enseñando a
las máquinas a autogestionarse y detectar cuándo los buzones están
llenos y es necesario vaciarlos, les enseñan a hacer predicciones y
saber cuándo tienen que activarse.
Aunque están en fase de pruebas, pronto estos sistemas aprenderán a
reprogramarse para optimizar su funcionamiento. Usarán algoritmos
calculando las frecuencias de apertura de los buzones y podrán
prescindir de muchos operarios. "Esta forma de funcionar necesita más
inversión que lo que se ha venido haciendo hasta ahora, pero genera
también otros beneficios", explica Bernad. "Nuestra aspiración no es
reemplazar la recogida tradicional, pero es cierto que la industria
tiende hacia un modelo más inteligente". Fuente: El País (España)
La división de Facebook
de desarrollo de inteligencia artificial creó un sistema dedicado a las
negociaciones. Días más tarde se sus primeras pruebas el sistema
comenzó a conversar en un lenguaje extraño y aparentemente erróneo. Sin
embargo, no era un error, había creado su propio idioma y Facebook ha
decidido apagarlo.
La IA constaba de dos agentes que se dedicaban a negociar, llamados
Bob y Alice. Sus creadores querían probar cómo un sistema de este tipo
podía aprender a negociar, pero a los pocos días notaron que ya no
estaban hablando en inglés, sino en algo parecido. Sus conversaciones
parecían basarse en palabras aleatorias y sin nada de sentido.
Bob: “I can i i everything else” Alice: “balls have zero to me to me to me to me to me to me to me to”
Traducido al español:
Bob: “Yo puedo yo yo todo lo demás” Alice: “bolas tienen cero a mi a mi a mi a mi a mi a mi a”
Lo que detectaron
los desarrolladores es que en lo que parecían ser frases sin sentido,
había un patrón. Básicamente, la IA había creado su propio idioma, uno
que consideraba mucho más efectivo y al grano que el inglés. Lo que los
investigadores han podido determinar es que “yo” y “a mi” reflejan la
cantidad de objetos que obtendrán en el intercambio. Son frases más
lógicas que adornadas, como solemos hacer en tantos idiomas “humanos”.
El problema
que esto representa para los desarrolladores de IA es que si un sistema
de inteligencia artificial decidiera ignorar el idioma en el que fue
programada y crear el suyo propio por ser “más eficiente”, esto
supondría una enorme dificultad para el desarrollo y la adopción de
redes neuronales y, en general, para la creación de nuevas tecnologías
basadas en la IA. Básicamente, si la IA lo quisiera, sería imposible
comunicarnos con ella. Esto significa la pérdida de control del
programador u operador sobre la inteligencia artificial.
Facebook apagó este sistema antes de que perdieran el control por
completo, para trabajar en soluciones y seguir innovando en la materia.
No es la primera vez que esto sucede, dado que a Google también se le
salió de control el lenguaje de una IA que había desarrollado.
Han concluido que dos inteligencias artificiales compitiendo por el mismo objetivo son capaces de destruirse entre ellas. La otra conclusión es que inteligencias artificiales independientes son capaces de trabajar en equipo para conseguir un objetivo.
La inteligencia artificial avanza a pasos agigantados y las grandes compañías tecnológicas están estudiándolas al detalle. Es el caso del laboratorio DeepMind de Google, que recientemente ha hecho un estudio con dos inquietantes conclusiones, revela Gizmodo. En un primer experimento, los ingenieros de DeepMind crearon un juego en el que dos inteligencias artificiales (una representada en rojo y otra en azul) tenían que recolectar manzanas (puntos verdes). El número de manzanas lo controlaban los investigadores y las inteligencias tenían la opción de dispararse entre ellas. Cuando el número de manzanas era abundante, ambas inteligencias convivían pacíficamente. Pero cuando empezaron a escasear, se dieron cuenta de que los 'actores' eran más propensos a dispararse entre ellos para llevarse las manzanas. En este vídeo se representa:
En un segundo juego dos puntos rojos representaban a lobos que tenían que caza presas (puntos azules) y esquivar obstáculos (puntos grises). Los lobos recibían más puntos (ambos) si estaban próximos entre sí cuando cazaban. Con esta premisa, las inteligencias artificiales tardaron muy poco en darse cuenta de que colaborando, obtenían más puntos, por lo que dejaron de comportarse de manera solitaria.
Investigadores del MIT desarrollan un software capaz de detectar trastornos cognitivos a partir de dibujos.
En la imagen se
muestran las diferencias en los dibujos según la enfermedad. La primera
fila muestra dos relojes realizados por pacientes sanos. En la fila
central, el paciente sufre de la enfermedad de Alzheimer y en la fila
inferior, Parkinson.
Una de las pruebas más comunes para detectar trastornos cognitivos con diverso origen, como por el párkinson o el alzhéimer,
es un simple test conocido como el “test del reloj”, en el que el
paciente debe dibujar un reloj que debe marcar una determinada hora y,
además, debe copiar otro ya dibujado. La observación de alteraciones en
la manera de realizar estos dibujos permite a los médicos identificar
síntomas de deterioro en el cerebro del paciente.
Muchos desórdenes neurológicos pueden estar presentes mucho antes de
comenzar a tener un efecto apreciable en nuestras vidas. Por ejemplo, en
el alzhéimer, los cambios en el cerebro pueden empezar a producirse
diez o más años antes de que las alteraciones cognitivas sean
apreciables. Sin embargo, la evaluación de estas pruebas es subjetiva,
puesto que no es fácil llegar a conclusiones definitivas cuando los
síntomas son muy leves. Contar con un método de diagnóstico más preciso y
fiable podría permitir tratar a los enfermos mucho antes, retrasando el
desarrollo de la enfermedad.
Para ello se han valido de los datos recogidos en el Lahey Hospital,
un centro médico a las afueras de Boston (EE UU), que desde hace nueve
años realiza el test del reloj utilizando un bolígrafo digital que
captura en el ordenador los dibujos realizados por los pacientes, además
de registrar el proceso de creación de los mismos con gran precisión.
Este bolígrafo no fue creado expresamente para este fin, sino que se
trata de un dispositivo comercial que incluso se puede comprar por internet.
Sin embargo, ha venido como anillo al dedo para recoger la información
necesaria de manera precisa y con un registro temporal, es decir,
sabiendo en todo momento dónde está la punta del bolígrafo y, por tanto,
si el paciente hace una pausa o duda a la hora de escribir.
En el alzhéimer, los cambios en el cerebro
pueden empezar a producirse diez o más años antes de que las
alteraciones cognitivas sean apreciables
Basandose en estos datos, el equipo, liderado por los investigadores
Cynthia Rudin y William Souillard-Mandar del MIT, ha creado un programa
informático capaz de interpretar y evaluar automáticamente el test del
reloj, aumentando la precisión y eliminando la subjetividad de una
evaluación realizada por humanos. “Hemos mejorado el análisis, de manera
que es automático y objetivo” explica Rudin. “Con el equipamiento
adecuado es posible obtener un resultado rápido y más preciso”. Los resultados se han sido aceptados para su publicación en la revista Machine Learning.
Para crear el programa, el equipo de Rudin y Souillard-Mandar ha
utilizado una serie de casos ejemplares para enseñar a la máquina qué es
lo que debe buscar. “Estos ejemplos ayudan a calibrar el poder
predictivo de cada una de las partes del dibujo” ha explicado
Souillard-Mandar. “Gracias a ellos, hemos podido extraer miles de
rasgos del proceso de dibujo que dan pistas acerca del estado cognitivo
de cada sujeto, y nuestros algoritmos ayudan a determinar cuáles de
ellos llevan a la predicción más fiable”.
Cuando la memoria está afectada, el periodo de reflexión se alarga
Los distintos desórdenes se revelan de diferente manera en el test
del reloj. Por ejemplo, mientras que es normal que los adultos sanos
pasen más tiempo pensando que dibujando, cuando la memoria está
afectada, el periodo de reflexión se alarga. Por otra parte, en el caso
del párkinson, los enfermos tienden a necesitar más tiempo para dibujar
los relojes que, a su vez, tienden a ser más pequeños, sugiriendo que
les está costando un mayor esfuerzo realizar la tarea. Estas
consideraciones se podían pasar por alto en la prueba tradicional, ya
que, en muchas ocasiones, el médico no ve en detalle cómo el paciente
realiza el dibujo, sino tan solo el resultado final.
Este trabajo no sólo permite diagnosticar mejor una serie de
patologías muy graves para quienes las sufren, sino que además ofrece un
gran avance a la hora de automatizar procesos que pueden resultar
tediosos y poco eficientes cuando se realizan por humanos. Una vez
conseguido el propósito inicial de demostrar la eficacia de su método,
el equipo científico ya se dispone a desarrollar un sistema sencillo que
permita tanto a los neurólogos como a los no especialistas utilizar
esta tecnología en los hospitales y centros de salud.
Un algoritmo descubre por sí solo detalles de la regeneración de las planarias.
Si a una planaria se le corta la cola, como una lagartija, a las pocas semanas tendrá una nueva. Pero lo que no pueden las lagartijas es regenerarse si le cortas la cabeza como consiguen estos gusanos planos. Si los troceamos en 100 partes, tendrás no un gusano sino 100. Ahora, un sistema de inteligencia artificial ha descubierto el modelo que siguen estos seres para ser inmortales.
Las planarias (de la clase de las Turbellaria) son unos gusanos que se pueden encontrar en agua dulce, los mares y en terrenos húmedos. Por su increíble capacidad de regenerarse, el naturalista escocés John Dalyell las definió como ese "gusano inmortal bajo la hoja de un cuchillo" a comienzos del siglo XIX. Desde entonces, los científicos le han hecho toda clase de perrerías a las planarias: le han cortado la cabeza, la cola, la han diseccionado tanto longitudinalmente como en trocitos. Siempre sobrevive.
Más recientemente, le han inyectado todo tipo de fármacos y han jugado con sus genes obteniendo planarias de múltiples colas o, como la Hidra de Lerna, con varias cabezas. Incluso, al inyectarle cadenas de ARN se pueden crear quimeras o planarias siamesas. Detrás de esta capacidad de regeneración puede estar el hecho de que al menos el 25% de su tejido celular está formado por células madre. A pesar de todos esos experimentos, los científicos siguen sin un modelo claro de cómo se regeneran.
"Nuestro sistema ha descubierto el primer conjunto de normas, una red, el que que cuando cada célula sigue esas normas, los resultados son exactamente iguales a los publicados en la literatura científica", dice el director del Centro de Biología Regenerativa y del Desarrollo de la Universidad Tufts (EE UU), Michael Levin. "Puede explicar por qué las distintas partes del gusano toman la correcta identidad cabeza/cola y muestra por qué los diversos experimentos previamente publicados tienen los resultados que tienen", añade.
Lo particular de este modelo es que no lo ha descubierto Levin o su colega, el español Daniel Lobo. Lo sorprendente es que ha sido un sistema de inteligencia artificial. Diseñaron un algoritmo matemático que alimentaron con lo que se sabe de las planarias: genética, expresión de los genes, patrones de división celular...
"Creamos una base de datos con más de un centenar de experimentos sobre la regeneración de las planarias", explica Lobo, principal autor del estudio publicado en PLoS Computational Biology. "Para esta investigación, seleccionamos los más importantes, incluyendo manipulaciones quirúrgicas, genéticas y farmacológicas de la regeneración de la cola y la cabeza en las planarias, 16 experimentos en total. Hay que tener en cuenta que ningún modelo previo podía explicar más de uno o dos experimentos a la vez. Aquí, mostramos por primera vez un modelo que puede explicarlos casi todos", añade.
Pero su algoritmo no solo ha replicado con éxito lo que ya han hecho los humanos. En uno de los primeros ejemplos de ciencia hecha por robot (no confundir con la robótica), este sistema de inteligencia artificial descubrió al menos dos elementos nuevos en el puzle de la regeneración de estos gusanos. "Predijo la existencia de dos proteínas que deben formar parte de la red", comenta Levin.
La imagen muestra cómo de una planaria cortada en tres, surgen tres planarias. / TUFTS CENTER FOR REGENERATIVE AND DEVELOPMENTAL BIOLOGY
Para el planariólogo del departamento de genética la Universitat de Barcelona, Emili Saló, el algoritmo no solo viene a poner orden en la investigación sobre estos gusanos. "Hace una predicción de que, para que la red funcione correctamente, ahí debe de haber algo. Los modelos teóricos hacen predicciones que iluminan al investigador de que falta algo", comenta. De hecho, los investigadores compararon con los genes humanos para hacer su predicción. Eso sí, como aclara Saló, que no está relacionado con este estudio, "es un descubrimiento que habrá que confirmar con posteriores experimentos".
Saló, que lleva 40 años estudiando a las planarias, considera que este modelo generado por una inteligencia artificial permite ir más allá. "Los científicos analizaban hasta ahora en una sola dimensión, el algoritmo lo hace en dos dimensiones", reconoce. Sin embargo, aún quedan muchas cosas por descubrir de este organismo antes de que, como algunos sueñan, muestre todos sus secretos y la medicina regenerativa aprenda a fabricar órganos humanos en el laboratorio como hace la planaria.