Cualquier conductor que vea una señal de stop a la que algún
gracioso le ha puesto una pegatina que pone “odio” sabe que sigue siendo
una señal de stop y debe parar. En cambio un coche autónomo será
incapaz de reconocerla más del 60% de las veces y pasará de largo.
Los sistemas de visión artificial confunden una tortuga de juguete con un rifle y a personas negras con gorilas.
Estos dispositivos han sido entrenados para ver patrones y hacen falta
solo sutiles cambios de simetría para desbaratarlos, como demuestra el estudio de las señales de tráfico publicado el pasado abril por expertos de varias universidades de EE.UU.
Las personas también hemos evolucionado durante miles de años para
ver patrones. “Estamos hechos para identificar caras y las vemos en las
nubes, en las manchas de la pared, lo hacemos continuamente”, explica
José Manuel Molina, del grupo de inteligencia artificial aplicada de la
Universidad Carlos III de Madrid. Un humano conoce el contexto de esa
imagen, sabe que parece una cara, pero en realidad es una nube. En
cambio la experiencia de vida de un algoritmo de visión se limita a
bases de datos con miles de imágenes con las que se ha entrenado una y
otra vez. “Los algoritmos han sido diseñados para resolver problemas muy
concretos, pero no para comprender qué está sucediendo en su entorno,
solo ven señales y aplican la misma solución siempre. Las máquinas son
totalmente autistas y darles comprensión de su entorno es muy
complicado”, resume Molina.
Estos fallos están cambiándole la vida a la gente. El sistema de
inteligencia artificial Compas que usan los jueces en EE.UU. como asesor
tiene un sesgo y tiende a desaconsejar la libertad a los negros más a
menudo que a los blancos. El algoritmo analiza 173 variables —ninguna de
ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. “La
causa de estos problemas es que las bases de datos con las que
funcionan estos algoritmos son de la policía y en ellas hay importantes
sesgos racistas”, explica Ramón López de Mántaras, experto en
inteligencia artificial del CSIC. Un estudio publicado este mismo año
sostiene que el sistema tiene una tasa de error equiparable a la de personas sin conocimientos legales. El problema no es tanto la máquina, sino el riesgo de que el juez delegue en ella.
A un nivel mucho menos grave, la aparente estupidez artificial
acecha a cualquiera que use Internet con anuncios omnipresentes de cosas
que ya han comprado o que no interesan. Una vez más, la culpa no es de
la máquina, sino de la falta de contexto. “Si buscamos un producto en
Internet esa información es pública y queda grabada, pero cuando lo
compramos la transacción es privada, el algoritmo no sabe que lo has
comprado, se lo tienes que enseñar. No es un error, te sigue mostrando
lo que cree que te interesa y lo seguirá haciendo hasta que pase su
tiempo de olvido”, explica Molina.