Latest Posts:

27 de diciembre de 2018

Estupidez artificial: el problema que nadie vio venir

Cualquier conductor que vea una señal de stop a la que algún gracioso le ha puesto una pegatina que pone “odio” sabe que sigue siendo una señal de stop y debe parar. En cambio un coche autónomo será incapaz de reconocerla más del 60% de las veces y pasará de largo.
Los sistemas de visión artificial confunden una tortuga de juguete con un rifle y a personas negras con gorilas. Estos dispositivos han sido entrenados para ver patrones y hacen falta solo sutiles cambios de simetría para desbaratarlos, como demuestra el estudio de las señales de tráfico publicado el pasado abril por expertos de varias universidades de EE.UU.
Las personas también hemos evolucionado durante miles de años para ver patrones. “Estamos hechos para identificar caras y las vemos en las nubes, en las manchas de la pared, lo hacemos continuamente”, explica José Manuel Molina, del grupo de inteligencia artificial aplicada de la Universidad Carlos III de Madrid. Un humano conoce el contexto de esa imagen, sabe que parece una cara, pero en realidad es una nube. En cambio la experiencia de vida de un algoritmo de visión se limita a bases de datos con miles de imágenes con las que se ha entrenado una y otra vez. “Los algoritmos han sido diseñados para resolver problemas muy concretos, pero no para comprender qué está sucediendo en su entorno, solo ven señales y aplican la misma solución siempre. Las máquinas son totalmente autistas y darles comprensión de su entorno es muy complicado”, resume Molina.
Imagen: Ejemplos de señales modificadas para engañar a los sistemas de visión artificial.DAWN SONG / BERKELEY
Estos fallos están cambiándole la vida a la gente. El sistema de inteligencia artificial Compas que usan los jueces en EE.UU. como asesor tiene un sesgo y tiende a desaconsejar la libertad a los negros más a menudo que a los blancos. El algoritmo analiza 173 variables —ninguna de ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. “La causa de estos problemas es que las bases de datos con las que funcionan estos algoritmos son de la policía y en ellas hay importantes sesgos racistas”, explica Ramón López de Mántaras, experto en inteligencia artificial del CSIC. Un estudio publicado este mismo año sostiene que el sistema tiene una tasa de error equiparable a la de personas sin conocimientos legales. El problema no es tanto la máquina, sino el riesgo de que el juez delegue en ella.
A un nivel mucho menos grave, la aparente estupidez artificial acecha a cualquiera que use Internet con anuncios omnipresentes de cosas que ya han comprado o que no interesan. Una vez más, la culpa no es de la máquina, sino de la falta de contexto. “Si buscamos un producto en Internet esa información es pública y queda grabada, pero cuando lo compramos la transacción es privada, el algoritmo no sabe que lo has comprado, se lo tienes que enseñar. No es un error, te sigue mostrando lo que cree que te interesa y lo seguirá haciendo hasta que pase su tiempo de olvido”, explica Molina.
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0