Latest Posts:

Mostrando las entradas con la etiqueta algoritmo. Mostrar todas las entradas
Mostrando las entradas con la etiqueta algoritmo. Mostrar todas las entradas

3 de junio de 2019

Los algoritmos miden nuestra productividad en el trabajo (y hasta pueda despedirnos)

Es un titular que puede que hayas leído algunas veces: los robots te quitarán el trabajo en el futuro.

Ya está ocurriendo en el gigante de ventas por internet Amazon, aunque tal vez no de la forma que te imaginas.

El sitio de noticias tecnológicas The Verge descubrió que la automatización se está usando para monitorear y despedir a empleados de Amazon en sus centros de trabajo. Todo se basa en estándares de productividad, según documentos obtenidos por el medio estadounidense.

Así es como funciona. "El sistema de Amazon rastrea las tasas de productividad asociadas a cada individuo", se lee en el informe, "y genera automáticamente cualquier advertencia o suspensión, en base a la calidad o la productividad, sin la participación de los supervisores".

La empresa protagonizó noticias recientemente debido a quejas por bajos salarios y por condiciones de trabajo extenuantes.
 
Una empleada de un almacén de Amazon le contó a la BBC en condición de anonimato que no bebía suficiente agua porque los objetivos de trabajo hacían muy difícil tomar descansos para ir al baño. Otro explicó que los trabajadores son tratados "como robots" y despedidos rutinariamente por no cumplir "objetivos pocos realistas".

El reporte de The Verge sugiere que miles de trabajadores pierden sus trabajos con la compañía anualmente por no mover paquetes lo suficientemente rápido.

Eso plantea un escenario en el que la inteligencia artificial es el jefe. Un algoritmo capaz de monitorear y despedir a empleados sin mucha intervención humana.

Tratados como robots... ¡por robots!

"Los trabajadores de Amazon son tratados como robots por robots", le cuenta a la BBC Stacy Mitchel, del Institute for Local Self-Reliance(ISLR), una organización sin fines de lucro en defensa de negocios locales, con base en Estados Unidos.
"Parece que esperan que las personas sean, literalmente, ruedas de su maquinaria, fácilmente desechables".

No está muy claro cuáles son los objetivos establecidos para los empleados, los estándares de producción o el alcance de la automatización.

La única respuesta que Amazon le dio a la BBC -y a la mayoría de las organizaciones que informaron sobre esta cuestión- fue la siguiente: "No es verdad en absoluto que los empleados sean despedidos a través de un sistema automatizado. Al igual que muchas compañías, tenemos expectativas de rendimiento, independientemente de su los empleados sean altos ejecutivos o empleados de almacén".

"Nunca despediríamos a nadie sin antes asegurarnos de que recibieron todo nuestro apoyo, incluido entrenamiento específico para ayudarle a mejorar. Puesto que somos una compañía que sigue creciendo, es nuestro objetivo empresarial garantizar oportunidades de desarrollo laboral a largo plazo para nuestros empleados".

La firma no aportó detalles específicos sobre el alcance de la automatización, si es que lo hay, dentro de ese proceso.

Lea el artículo completo en: BBC Mundo


5 de febrero de 2019

Huawei completa la misteriosa ‘Sinfonía inacabada’ de Schubert

Varios músicos cuestionan la iniciativa de Huawei por artificial y carente de alma.

Franz Schubert es un perpetuo enigma. Murió joven, a los 31 años, pero más que desgastarse en una vida intensa, como tantos otros músicos, se fue consumiendo en cierta melancolía solitaria de cafés como desahogo a su total entrega a la creación. “El Estado debería ocuparse de mí”, le escribió a un amigo, para dar cuenta de su devoción al trabajo. Y si corrieran estos tiempos, quizás lo hiciera la compañía tecnológica Huawei, que ha diseñado mediante algoritmo e inteligencia artificial el remate de su Sinfonía número ocho, conocida como la Inacabada. Hacía la penúltima en su catálogo de obras orquestales. En la Viena romántica de principios del XIX, Schubert llegó a crear nueve.

Durante años ha habido todo tipo de teorías sobre si el autor llegó a terminar esta obra concebida para la Sociedad Musical de Graz, pero alguien, tal vez algún amigo, perdió la parte final. Sin embargo, para cuando quedó claro que Schubert, simplemente, nunca llegó a completarla, la Inacabada ya se había convertido en la obra para orquesta más misteriosa e interpretada de su autor.

Así, bajo el cúmulo de polémicas que ha suscitado, su influjo simbólico aparece de nuevo para ser presa ahora de la inteligencia artificial. Huawei presenta este lunes —en una audición privada en el Cadogan Hall de Londres, en interpretación de la English Session Orchestra bajo la dirección de Julian Gallant— su versión de la pieza, que ya ha dado que hablar antes de su estreno.


En una nota, la compañía asegura que la versión ha sido creada mediante el uso de un modelo de inteligencia artificial que se beneficia directamente de la tecnología de procesamiento neuronal que aplica en sus móviles. A partir del timbre, el tono y el compás del primer y segundo movimiento conservados, el modelo generó una melodía para los inexistentes o extraviados tercero y cuarto previstos. Posteriormente, Huawei trabajó con el compositor Lucas Cantor para fijar una partitura orquestal de la melodía en la línea que presumiblemente buscaba entonces Schubert.

El compositor español José María Sánchez-Verdú nos sitúa en contexto: “Desde los años sesenta se están haciendo este tipo de trabajos. Ya en EE UU, con los primeros ordenadores, se ponen en práctica. Sustituir la mente y la creatividad de un compositor mediante procesos algorítmicos desarrollados por una máquina es enormemente antiguo”, afirma.

Tampoco valen maniobras de distracción: “Todo entra dentro del ámbito publicitario, lanzar noticias tecnológicas y, además, a partir de grandes nombres y obras de la cultura europea, como es ahora Schubert”. Hay abundantes intentos previos al de la tecnológica china: “Existen varias versiones desarrolladas por compositores en los últimos veinte años sobre esta sinfonía. Yo personalmente no encuentro ningún estímulo e interés por estas propuestas”, comenta Sánchez-Verdú.


 

Lea el artículo completo en: El País (España)

27 de diciembre de 2018

Estupidez artificial: el problema que nadie vio venir

Cualquier conductor que vea una señal de stop a la que algún gracioso le ha puesto una pegatina que pone “odio” sabe que sigue siendo una señal de stop y debe parar. En cambio un coche autónomo será incapaz de reconocerla más del 60% de las veces y pasará de largo.
Los sistemas de visión artificial confunden una tortuga de juguete con un rifle y a personas negras con gorilas. Estos dispositivos han sido entrenados para ver patrones y hacen falta solo sutiles cambios de simetría para desbaratarlos, como demuestra el estudio de las señales de tráfico publicado el pasado abril por expertos de varias universidades de EE.UU.
Las personas también hemos evolucionado durante miles de años para ver patrones. “Estamos hechos para identificar caras y las vemos en las nubes, en las manchas de la pared, lo hacemos continuamente”, explica José Manuel Molina, del grupo de inteligencia artificial aplicada de la Universidad Carlos III de Madrid. Un humano conoce el contexto de esa imagen, sabe que parece una cara, pero en realidad es una nube. En cambio la experiencia de vida de un algoritmo de visión se limita a bases de datos con miles de imágenes con las que se ha entrenado una y otra vez. “Los algoritmos han sido diseñados para resolver problemas muy concretos, pero no para comprender qué está sucediendo en su entorno, solo ven señales y aplican la misma solución siempre. Las máquinas son totalmente autistas y darles comprensión de su entorno es muy complicado”, resume Molina.
Imagen: Ejemplos de señales modificadas para engañar a los sistemas de visión artificial.DAWN SONG / BERKELEY
Estos fallos están cambiándole la vida a la gente. El sistema de inteligencia artificial Compas que usan los jueces en EE.UU. como asesor tiene un sesgo y tiende a desaconsejar la libertad a los negros más a menudo que a los blancos. El algoritmo analiza 173 variables —ninguna de ellas es la raza— y da una probabilidad de reincidencia de 0 al 10. “La causa de estos problemas es que las bases de datos con las que funcionan estos algoritmos son de la policía y en ellas hay importantes sesgos racistas”, explica Ramón López de Mántaras, experto en inteligencia artificial del CSIC. Un estudio publicado este mismo año sostiene que el sistema tiene una tasa de error equiparable a la de personas sin conocimientos legales. El problema no es tanto la máquina, sino el riesgo de que el juez delegue en ella.
A un nivel mucho menos grave, la aparente estupidez artificial acecha a cualquiera que use Internet con anuncios omnipresentes de cosas que ya han comprado o que no interesan. Una vez más, la culpa no es de la máquina, sino de la falta de contexto. “Si buscamos un producto en Internet esa información es pública y queda grabada, pero cuando lo compramos la transacción es privada, el algoritmo no sabe que lo has comprado, se lo tienes que enseñar. No es un error, te sigue mostrando lo que cree que te interesa y lo seguirá haciendo hasta que pase su tiempo de olvido”, explica Molina.

5 de diciembre de 2018

Ya hay algoritmos ayudando a seleccionar personal: la búsqueda de trabajo en la era del algoritmo





Si estás buscando trabajo, parte de la evaluación de tu perfil podría no estar a cargo de un ser humano. Entre los sectores en fase de transformación por los efectos de la revolución tecnológica actual, también está el de la selección de personal.

Mientras aumentan las empresas que experimentan soluciones de inteligencia artificial para mejorar su capacidad de encontrar talento, expertos y profesionales de los recursos humanos debaten sobre hasta qué punto pueden ser eficaces estos sistemas.

Entre los especialistas entrevistados para este reportaje, nadie pone en duda la necesidad de que la captación de talento sea liderada por profesionales humanos a través de pasos como las entrevistas cara a cara o por teléfono. Pero muchos destacan los beneficios potenciales de algoritmos y software en las fases más automatizadas del proceso.

La inteligencia artificial ayuda a optimizar el rastreo de grandes volúmenes de candidaturas, coinciden los operadores consultados por Xataka. Y así permite agilizar el trabajo de los equipos de recursos humanos a la hora de profundizar en el análisis de un perfil en concreto y evaluar aspectos más sujetivos como la creatividad, la capacidad de interacción social o de liderazgo, añaden. Además, en muchos casos con estos sistemas se ahorran tiempo y dinero. ¿Pero qué pasa si el algoritmo falla y descarta un perfil válido? ¿Qué hacen las empresas para evitarlo?

Lea el artículo completo en: Xakata Ciencia 

Para conocer más sobre los algoritmos hacer click AQUÍ.
 

26 de abril de 2018

Fake News: El nuevo opio del pueblo

Con las 'fake' no se busca sustituir los hechos por mentiras, sino mermar el juicio con el que tomamos una posición respecto al mundo.

Falsear deliberadamente los hechos no es distintivo de nuestra época. Su uso es tan viejo como los arcana imperii, concebidos como medios legítimos de ocultación de la “verdad” con un fin político. Y es algo que no conviene banalizar, pues como sostuvo Rafael del Águila, “la excepción señala el límite; y el límite está ahí aunque la excepción no aparezca”. Sin embargo, esta conciencia de un límite ha desaparecido, y con ella la reflexión sobre los efectos de la mentira en nuestra percepción del mundo y la democracia.

Lo anticipó Orwell en su distopía 1984 cuando Winston y Julia, sus protagonistas, hablan sobre las falsificaciones del régimen y el primero descubre que ella no se escandaliza: “Era como si no reparase en el abismo que se abría a sus pies cuando las mentiras se convertían en verdades”. De la pura violación sistemática de los hechos, dice el autor, acabamos desdeñando la magnitud del problema y abandonamos el interés por los acontecimientos públicos.

Algo así sucede con las fake news. Con 2.000 millones de usuarios, Facebook es la red social más popular del mundo, y solo en EE UU un 66% lo utiliza para consumir noticias. Abrazamos un mecanismo de información rehén de la lógica del negocio digital, pensada para lucrarse con nuestros datos, pero también para embobarnos durante el mayor tiempo posible. Es normal: a pesar del enternecedor compromiso con la verdad de Zuckerberg, él sabe que a más clics más dinero. Por eso las redes son el coladero perfecto para la propaganda política, viralizada gracias a las cámaras de eco selladas por algoritmos.

No se busca sustituir los hechos por mentiras, sino mermar el juicio con el que tomamos una posición respecto al mundo y debilitar la convicción de que la palabra veraz sostiene la relación pública. Cuando la farsa sistemática ocupa el centro de nuestra convivencia, aumenta el poder de los embusteros y disminuye el de quienes saben que, para cambiar cosas, tienen que convencer a una ciudadanía crecientemente incrédula. El nuevo poder reside en esa opacidad que nos pretende digitalmente analfabetos, incapaces de identificar la procedencia de los bulos o a qué intereses obedecen: las fake son el nuevo opio del pueblo.

Fuente:

El País (España)

11 de junio de 2016

Matemáticas para predecir tsunamis

Un algoritmo recrea el origen de la ola para predecir su evolución



En caso de tsunami, la información es el mejor salvavidas. Los actuales sistemas de alerta permiten avisar con cierto grado de antelación a la población en riesgo una vez que los sensores instalados en el océano detectan movimientos anormales como consecuencia de un terremoto. En cambio, no se puede predecir con precisión qué cantidad de agua va a golpear la costa tiempo después ni con qué grado de violencia. La situación se complica cuando el comportamiento del tsunami en cuestión no encaja en ninguno de los patrones preestablecidos: entonces su desarrollo se vuelve imprevisible y se multiplican las posibilidades de perder vidas humanas; 8.000 al año, según la Oficina de Naciones Unidas para la Reducción del Riesgo de Desastres.

Para poner fin a esta situación, científicos de la Universidad Nacional de Australia están desarrollando un modelo matemático que se sirve de los datos ofrecidos por los sensores y boyas ubicados en los océanos para recrear cómo es la primera ola que se origina después de un terremoto bajo el agua. Con esa información y conocido el relieve del fondo del mar y sus movimientos, los investigadores podrán hacer mejores predicciones sobre lo que puede suceder cuando el agua alcance la costa. 

La base teórica del trabajo reside en el hecho de que los procesos físicos de los que depende la propagación de las ondas no cambian si al tiempo se le da la vuelta y se coloca primero la información recibida por los últimos sensores en detectar la gran ola, y así hacia atrás. "Hacemos esto en 20 puntos de observación repartidos por todo el océano. Este proceso da lugar a una imagen enfocada del tsunami en el punto de origen, en el espacio y el tiempo", explica a EL MUNDO Jan Dettmer, sismólogo de la Universidad Nacional de Australia. Gracias a eso, es posible asignar el punto de origen a una perturbación del agua. 

El artículo completo en:

El Mundo Ciencia

12 de julio de 2015

¿Los algoritmos lo saben todo o deben ayudarles los humanos?

La nueva ciencia de datos se cuestiona cuándo hace falta que una persona supervise una decisión automatizada como un diagnóstico médico o la concesión de un préstamo.



Hay ejércitos formados por las mentes más brillantes de la informática que se han dedicado a incrementar las probabilidades de conseguir una venta. La abundancia de datos y programas inteligentes de la era de Internet ha abierto la puerta al marketing a medida, los anuncios personalizados y las recomendaciones de productos.
Niéguenlo si quieren, pero no es un hecho sin importancia. No hay más que fijarse en la gran restructuración, propiciada por la tecnología, de los sectores de la publicidad, los medios de comunicación y la venta minorista.
Esta toma de decisiones automatizada está pensada para eliminar a los humanos de la ecuación, pero el impulso de querer que alguien supervise los resultados que vomita el ordenador es muy humano. Muchos expertos en datos matemáticos consideran que el marketinges una placa de Petri con pocos riesgos —y, sí, lucrativa— en la que poner a punto las herramientas de una nueva ciencia. “¿Qué pasa si mi algoritmo se equivoca? Que alguien ve el anuncio erróneo”, comenta Claudia Perlich, una especialista en datos que trabaja para una empresa de nueva creación que se dedica a la publicidad personalizada. “¿Qué daño puede hacer? No es un falso positivo de un cáncer de mama”.
Pero el riesgo aumenta a medida que la economía y la sociedad se empapan de los métodos y la mentalidad de la ciencia de los datos. Las grandes empresas y las de nueva creación empiezan a utilizar la tecnología para tomar decisiones relacionadas con el diagnóstico médico, la prevención de la delincuencia y la concesión de préstamos. En estos ámbitos, la aplicación de la ciencia de los datos plantea dudas sobre cuándo hace falta que una persona supervise atentamente los resultados de un algoritmo.

Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”
Estas dudas están dando pie a una rama de los estudios académicos conocida como responsabilidad algorítmica. Las organizaciones que velan por el interés público y los derechos civiles están examinando detenidamente las repercusiones que tiene la ciencia de los datos, tanto por sus errores como por sus posibilidades. En el prólogo de un informe del pasado mes de septiembre, Derechos civiles, macrodatos y nuestro futuro algorítmico, Wade Henderson, presidente de la Conferencia por el Liderazgo en Derechos Humanos y Civiles, escribía: “Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”.
Fíjense en los préstamos para el consumo, un mercado en el que hay varias empresas de nueva creación especializadas en macrodatos. Sus métodos representan la versión digital del principio más elemental de la banca: conozca a sus clientes. Estas nuevas entidades crediticias especializadas en datos aseguran que, al recopilar datos de fuentes como los contactos de las redes sociales, o incluso observar el modo en que un solicitante rellena un formulario de Internet, pueden conocer a los prestatarios mejor que nunca y predecir si devolverán el préstamo mejor que si se limitasen a estudiar el historial crediticio de alguien.
Lo que prometen es una financiación y una valoración más eficaces de los préstamos, lo que ahorrará a la gente miles de millones de dólares. Pero los préstamos basados en macrodatos dependen de unos algoritmos informáticos que analizan minuciosamente montones de datos y van aprendiendo durante el proceso. Es un sistema muy complejo y automatizado (y hasta sus defensores tienen dudas).

Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”
“Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”, explica Rajeev Date, que invierte en entidades crediticias que emplean la ciencia de los datos y ha sido director adjunto de la Oficina de Protección Financiera del Consumidor. “Eso es inquietante”.
La preocupación es similar también en otros ámbitos. Desde que su ordenador Watson venciese a los ganadores del concurso televisivoJeopardy! hace cuatro años, IBM ha llevado la tecnología de la inteligencia artificial basada en datos mucho más allá de los juegos de ingenio. La asistencia sanitaria ha sido uno de los grandes proyectos. La historia del uso de la tecnología “especializada” para contribuir a la toma de decisiones médicas ha sido decepcionante; los sistemas no han sido lo bastante inteligentes ni lo bastante rápidos para ayudar de verdad a los médicos en la práctica cotidiana.

Servicio médico

Pero los científicos de IBM, en colaboración con investigadores de algunos grupos médicos destacados —entre ellos la Clínica Cleveland, la Clínica Mayo y el Centro Oncológico Memorial Sloan Kettering—, están consiguiendo avances. Watson es capaz de leer documentos médicos a una velocidad a la que resultarían incomprensibles para los humanos: miles de ellos por segundo, en busca de indicios, correlaciones e ideas importantes.
Se ha usado el programa para formar a los estudiantes de Medicina y está empezando a emplearse en entornos clínicos oncológicos para proporcionar diagnósticos y recomendaciones de tratamiento, como si fuera un ayudante digital ingenioso.
IBM también ha creado un programa informático llamado Watson Paths, una herramienta visual que permite al médico ver las pruebas y las deducciones en las que Watson se ha basado para hacer una recomendación.
“No basta con dar una respuesta sin más”, afirma Eric Brown, responsable en IBM de la tecnología relacionada con Watson.
Watson Paths apunta a la necesidad de que haya alguna clase de traducción máquina-humano a medida que la ciencia de los datos progrese. Como dice Danny Hillis, experto en inteligencia artificial: “La clave que hará que funcione y resulte aceptable a ojos de la sociedad será la historia que cuente”. No una narración exactamente, sino más bien una información de seguimiento que explique el modo en que se ha tomado una decisión automatizada. “¿Cómo nos afecta?”, pregunta Hillis. “¿Hasta qué punto es una decisión de la máquina y hasta qué punto es humana?”, añade.
Uno de los planteamientos es que el humano siga formando parte del proceso. Los datos y los programas informáticos dan vida a las nuevas entidades crediticias que emplean la ciencia de los datos. Pero, en San Francisco, una de estas empresas de nueva creación, Earnest, hace que al menos uno de sus empleados revise las recomendaciones predictivas del programa, aunque es raro que rechace lo que dictan los algoritmos. “Pensamos que el factor humano siempre será una parte importante del proceso, ya que nos permite asegurarnos de que no nos equivocamos”, dice Louis Beryl, cofundador y consejero delegado de Earnest.
Pero esa postura, opinan otros, no es más que una ilusión reconfortante; puede que sea buen marketing, pero no necesariamente buena ciencia de los datos. Afirman que el hecho de concederle a un humano capacidad de veto dentro de un sistema algorítmico introduce un sesgo humano. Al fin y al cabo, lo que promete la toma de decisiones fundamentada en los macrodatos es que las decisiones basadas en los datos y el análisis —más ciencia, menos intuición y menos arbitrariedad— proporcionarán mejores resultados.
No obstante, aunque el optimismo esté justificado, hay un reto importante, dada la complejidad y la opacidad de la ciencia de los datos. ¿Podrá una tecnología que promete grandes beneficios medios proteger lo suficiente al individuo de una decisión misteriosa y caprichosa que podría tener un efecto duradero en la vida de una persona?
Una posible solución, según Gary King, director del Instituto de Ciencias Sociales Cuantitativas de Harvard, sería que los creadores de los algoritmos que otorgan puntuaciones los retoquen no para obtener el máximo beneficio o rentabilidad, sino para que el valor que conceden a la persona sea algo mayor, lo que reduciría el riesgo de equivocarse.
En el sector bancario, por ejemplo, se podría ajustar un algoritmo para que redujese la probabilidad de catalogar erróneamente de aprovechado al solicitante de un préstamo, aunque ello conlleve que la entidad crediticia acabe concediendo más préstamos incobrables.
“El objetivo”, dice King, “no es necesariamente que un humano supervise el resultado a posteriori, sino mejorar la calidad de la clasificación de los individuos”.
En cierto sentido, un modelo matemático equivale a una metáfora, una simplificación descriptiva. Filtra, pero también distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al autómata algorítmico. “A menudo, los dos juntos pueden funcionar mucho mejor que el algoritmo por sí solo”, afirma King.
Steve Lohr, columnista de New York Times especializado en tecnología, es el autor deData-ism.
Fuente:

23 de abril de 2014

Las señales químicas que nos hacen humanos (el epigenoma de un neandertal)


Las nuevas técnicas de secuenciación de ADN antiguo están aportando algunos datos clave para comenzar a entender cómo evolucionaron las especies humanas hasta llegar a dar forma a la única especie viva en la actualidad: el ser humano moderno, 'Homo sapiens'. En los últimos años hallazgos como el genoma completo y con gran detalle del neandertal o la secuencia de otra de las especies hermanas, el denisovano, han dado luz a una época crucial para la evolución humana.

Pero los genes, el ADN, no lo es todo. La información contenida en nuestras células, en las de cualquier especie, requiere de una compleja maquinaria química que controla el funcionamiento de los genes y asd qué gen funciona y cuál no en cada momento. Es lo que se conoce como epigenética. De alguna forma se podría hacer la analogía con una obra literaria: las letras serían el código genético y los signos de puntuación serían la epligenética que permite que el texto sea legible y tenga sentido. Entre las señales que permiten a la epigenética desempeñar esta función se encuentran algunas modificaciones químicas, como la metilación del ADN, que controla cuándo y cómo son activados y desactivados los genes que controlan el desarrollo de nuestro organismo. Y esas son precisamente las alteraciones que han estudiado en el trabajo.

Un algoritmo matemático

Los investigadores llevan tiempo preguntándose si ahora que tenemos la genética, ¿podemos tener también la epigenética? "La respuesta hasta ahora era no", responde Mario Fernández Fraga, director del Laboratorio de Epigenética del Cáncer de la Universidad de Oviedo e investigador del CSIC. Pero eso ha cambiado. Una investigación liderada por investigadores de la Universidad Hebrea de Jerusalem y del Instituto Max Planck y en la que ha participado el equipo de Fernández Fraga acaba de reconstruir el epigenoma tanto del neandertal como del denisovano. 

Los autores del trabajo, recién publicado en la revista 'Science', han diseñado un algoritmo matemático que permite reconstruir cómo se ha deteriorado el epigenoma de ambas especies con el tiempo, lo que ha permitido a los científicos 'dar marcha atrás' con las muestras de las que disponen en la actualidad hasta saber cómo sería ese epigenoma hace 70.000 años.

"La mejor prueba de que el nuevo método funciona es que las conclusiones son muy coherentes con lo que vemos cuando comparamos las especies antiguas con los humanos modernos", explica Fernández Fraga. "A pesar de que hay parte que es muy similar, es cierto que hay diferencias y están en los genes que regulan la formació de los huesos", asegura.

Según la discusión del trabajo científico, esto es consistente con una evolución diferenciada de las estructuras óseas de especies como el neadertal y el humano moderno. Otras afectan a genes relacionados con el sistema cardiovascular o el sistema nervioso, los cuales se han asociado con enfermedades como el Alzheimer o la esquizofrenia. Aunque se desconocen los factores que han dado lugar a esas diferencias, dado que los patrones epigenéticos están influidos tanto por las propias características genéticas como por las condiciones ambientales. "Pero no podemos saber si se deben a una condición inherente del ser humano moderno o se han desencadenado debido al modo de vida que llevamos", asegura Fernández Fraga. "Además, hay que tener en cuenta que ellos vivían muchos menos años que nosotros".
Fuente:

12 de marzo de 2014

Diseñan un modelo matemático para conocer la propagación de pandemias

Investigadores de la Universidad de Zaragoza han diseñado un modelo matemático para conocer la propagación de pandemias o de virus informáticos, a partir del análisis de los flujos en redes de comunicación, como el tráfico aéreo o internet. El algoritmo ayudará a predecir la trayectoria de una pandemia de gripe A o de SRAS,

La novedad de este sistema, en el que han trabajado investigadores del Instituto de Biocomputación y Física de Sistemas Complejos (BIFI) de la Universidad de Zaragoza y de la Universidad Rovira y Virgili, radica en que no precisa de cuantiosos y costosos datos para poder predecir los lugares, por ejemplo, en los que podría aparecer una pandemia de H1N1 de la gripe A o el Síndrome Respiratorio Agudo Severo (SRAS).

Este algoritmo, que se ha publicado en la edición digital de la revista Proceedings of the National Academy of Sciences (PNAS), es el primer modelo matemático que tiene en cuenta la influencia del flujo o de las condiciones de tráfico en epidemias.

"Se trata de un modelo matemático para el estudio de la incidencia de virus o enfermedades infecciosas cuando la transmisión ocurre a través de una red de transporte o comunicación", dicen los científicos.
El investigador del BIFI Yamir Moreno reconoce que este algoritmo permite realizar previsiones lo más reales posibles pero sin necesidad de contar con datos de la cadena de contacto, como ocurre con los modelos computaciones habituales.

Moreno, investigador Ramón y Cajal de la Universidad de Zaragoza, explica que, por ejemplo, ante la epidemia de gripe A que se originó en México, los modelos tradicionales necesitan conocer numerosos datos sobre el flujo del tráfico aéreo procedente de este país, siguiendo la trayectoria de miles de individuos, lo que es un proceso costoso y lento. Es decir, sería preciso conocer el número de viajeros, el número de personas infectadas, el destino, su movilidad, los contactos consecutivos en su lugar de destino…

Por el contrario, el físico aragonés señala que su modelo podría acotar la incidencia de la epidemia de un modo más simplificado, de tal manera, que sería suficiente conocer qué ciudades quedan conectadas con el vuelo analizado, y la capacidad teórica del avión (independientemente del número exacto de pasajeros.
En opinión de Moreno, "con este modelo, el tráfico aéreo desde México hacia otros países se podría predecir los lugares en los que la epidemia antes se convertiría en pandemia".

En esta investigación, que se inició hace seis meses, también ha colaborado Sandro Meloni, doctorando de la Universidad Roma III (Italia), que desarrolla parte de su tesis doctoral en el BIFI bajo la supervisión del Moreno.
Zona geográfica: Aragón
Fuente: Universidad de Zaragoza
Fuente:

14 de agosto de 2013

15 algoritmos de ordenación animados y con sonido



A todos nos ha tocado ordenar una colección de revistas, libros, discos, un mazo de cartas, etc.

Cuando son pocos da más o menos igual el método que sigas para ordenarlos, aunque cuando el número de cosas a ordenar crece sí va cobrando importancia el método que escojas.

De hecho existen numerosos métodos para ordenar, de los que este vídeo recoge 15 que ordenan números enteros generados al azar. Los muestra en una animación acompañada por sonido –que a menudo recuerda el de los ordenadores en las películas de los 60– que da una idea de cómo van quedando de ordenados estos números según se va ejecutando el algoritmo en cuestión.

Los 15 algoritmos son: ordenamiento por selección, ordenamiento por inserción, ordenamiento rápido, ordenamiento por mezcla, ordenamiento por montículos (heapsort), ordenamiento Radix por dígito menos significativo, ordenamiento Radix por dígito menos significativo, std::sort (la función de ordenación que usa C++) usando intro sort, std::stable_sort (con un ordenamiento por mezcla adaptativo), ordenamiento Shell, ordenamiento de burbuja, ordenamiento de burbuja bidireccional, gnome, bitonic, y 30 degundos de BogoSort.

En The Sound of Sorting - Visualization and "Audibilization" of Sorting Algorithms hay información acerca de como se generaron las animaciones y los sonidos; en este otro conjunto de vídeos se pueden ver estos algoritmos en acción uno a uno y a un ritmo más lento:



Tomado de:

Microsiervos

28 de marzo de 2013

La computación evolutiva

En 1859, Charles Darwin publicó un polémico libro, “El origen de las especies”, que sentó las bases de la teoría de la evolución. Según Darwin, los individuos de una especie cambian lentamente de una generación a otra. Estos cambios se producen como resultado del cruce de los mismos y la aparición de mutaciones aleatorias. Los nuevos individuos pueden desenvolverse peor que el resto de los de su especie, pereciendo con una alta probabilidad. Pero también pueden resultar ser mejores, más aptos para sobrevivir en su hábitat, en cuyo caso prosperarán, tendrán descendencia que posiblemente tenga las mismas características diferenciadoras que ellos, y acabarán por reemplazar a los antiguos individuos, menos aptos. Estas son, en esencia, las ideas de Darwin sobre la evolución de las especies, hoy mayoritariamente aceptadas en el ámbito científico. Más de 150 años después de la publicación de Darwin estas mismas ideas se usan como inspiración para crear algoritmos dentro de un computador: los algoritmos evolutivos.


Portada original de la primera edición de “El origen de las especies”. Fuente: Wikimedia commons.

Hoy sabemos que el código genético de un individuo, el genotipo, formado por largas moléculas de ADN, contiene toda la información acerca de las características del individuo: función de las células, morfología, metabolismo, etc. Cuando dos individuos se cruzan, la descendencia de ambos tendrá como ADN una mezcla del ADN de ambos padres. Las mutaciones son el resultado de una copia imperfecta en una de las cadenas de ADN del hijo. De forma análoga, los algoritmos genéticos, que son un tipo de algoritmo evolutivo, usan cadenas de 0s y 1s, habitualmente llamadas cromosomas por analogía con el caso natural, que representan algún tipo de objeto dentro de un ordenador: la solución a un problema, un conjunto de valores numéricos, una imagen, un sonido o incluso una partitura, por poner algunos ejemplos.

Un algoritmo genético está formado por un conjunto de cadenas binarias (individuos) al cual se le llama población. Inicialmente la población está formada por cadenas binarias aleatorias. Seguidamente, algunas de estas cadenas son seleccionadas para realizar la operación de cruce, en la que dos cadenas intercambian parte de sus valores (también llamados genes). Después, un cambio aleatorio en algunos genes simula una mutación y, tras esto, el individuo es evaluado para comprobar si es apto en su hábitat. ¿Qué significa ser apto en este caso? Normalmente se asigna un valor numérico al individuo usando alguna función matemática y este valor representa la aptitud del individuo. Cuanto mayor es el valor mayores son las probabilidades de sobrevivir e incorporarse en la siguiente generación de la población. Este proceso se repite continuamente hasta el momento en que el usuario del algoritmo decida parar.



Ejemplos de operadores de cruce y mutación para el caso de individuos binarios. Fuente: el autor.

¿Por qué podríamos estar interesados en simular dentro de un ordenador la evolución de especies? Una interesante característica de los algoritmos evolutivos es que, debido a su naturaleza aleatoria, el resultado que se obtiene tras cada ejecución del mismo puede ser diferente. El algoritmo puede sorprender al usuario con distintas poblaciones de individuos al final. Imaginemos que los individuos representan una imagen. En ese caso, obtendremos distintas imágenes cada vez que ejecutemos el algoritmo y si la función que calcula la aptitud del individuo está especialmente diseñada para puntuar más alto imágenes con gran valor estético para un humano podríamos conseguir que el algoritmo ofrezca bellas imágenes tras su ejecución.


 

Imagen generada con un algoritmo evolutivo. Fuente: Wikipedia.

El uso de los algoritmos evolutivos para crear obras de arte se conoce con el nombre de arte evolutivo y existen congresos internacionales especializados en esta forma de arte [1]. Un caso particular, es el de la música compuesta por ordenador usando algoritmos evolutivos. Aunque este tópico no es nuevo, recientemente ha llamado especialmente la atención de los músicos el sistema Iamus [2], desarrollado en el departamento de Lenguajes y Ciencias de la Computación de la Universidad de Málaga con Francisco J. Vico a la cabeza. La función de aptitud de Iamus tiene en cuenta aspectos formales de la partitura y es capaz de generar una composición completa en cuestión de minutos. Para conseguir una partitura en tan poco tiempo es necesario diseñar muy bien los operadores de cruce y mutación, uno de los secretos mejor guardados de Iamus. El sistema ha merecido un artículo en la prestigiosa revista Nature [3] y la revista norteamericana Discover lo ha incluido en el TOP 100 de novedades científicas del año 2012. Se ha comercializado un CD con 10 composiciones de Iamus, donde participa la Orquesta Sinfónica de Londres, y, recientemente, una de sus obras fue estrenada por la Orquesta Filarmónica de Málaga en el XIX Ciclo de Música Contemporánea de la ciudad.

La creación artística no es la única aplicación de los algoritmos evolutivos. Éstos pueden utilizarse para resolver problemas de optimización, es decir, encontrar soluciones de muy buena calidad para problemas difíciles de resolver. Un ejemplo de problema de optimización es el de colocar paquetes en un camión de forma que quepa el mayor número posible. No se conoce ningún algoritmo que sea capaz de dar la mejor solución en un tiempo razonable. Los algoritmos conocidos que dan la mejor solución requieren, en el peor de los casos, un tiempo que crece exponencialmente con el tamaño del problema (número de paquetes a colocar). Para resolver un problema como este usando algoritmo evolutivos, tan solo es necesario codificar las soluciones de manera que el ordenador las entienda y programar la función de aptitud, que en este caso podría ser el número de paquetes que caben en la forma indicada por la solución. La principal ventaja del uso de estos algoritmos en optimización es la facilidad con la que pueden aplicarse a la resolución del problema. No es necesario tener un conocimiento profundo del problema para resolverlo, basta con saber evaluar la calidad de las soluciones. Por otro lado, los resultados experimentales con algoritmos evolutivos ponen de manifiesto que las soluciones obtenidas por éstos son, en muchos casos de relevancia práctica, óptimas o se encuentran cercanas al óptimo, mientras que el tiempo requerido para obtener dichas soluciones es reducido (del orden de minutos o segundos).

El uso de algoritmos evolutivos para resolver problemas de optimización ha recibido una importante atención en las últimas décadas y actualmente se pueden contar por decenas los congresos especializados en este tema y las revistas que publican artículos relacionados. En el mencionado departamento de la UMA, profesores como Enrique Alba y Carlos Cotta llevan investigando desde hace casi 20 años el potencial de los algoritmos evolutivos para resolver problemas de optimización. Entre los problemas resueltos por estos investigadores encontramos la optimización de los semáforos para reducir el tiempo de espera de los conductores en una ciudad, la asignación de frecuencias de radio a antenas en una red de telefonía celular, la generación automática de casos de prueba para programas de ordenador, etc [4]. Todos ellos problemas complejos en los que, generalmente, es difícil predecir la influencia de un cambio de la solución en su calidad.

 

Haciendo uso de algoritmos evolutivos es posible reducir el tráfico de una ciudad. Fuente: wikimedia commons.

La computación evolutiva no es el único dominio de la Informática que se ha nutrido de ideas de la naturaleza. En 1983, Kirkpatrick, Gelatt y Vecchi propusieron un algoritmo para resolver problemas de optimización que se basa en el enfriamiento de un metal [5]. Más tarde, en 1992, Dorigo describía en su tesis doctoral una familia de algoritmos que se inspiraba en la forma en que las hormigas buscan comida [6]. Kennedy y Eberhart desarrollaron en 1995 un algoritmo que basaba su funcionamiento en el comportamiento de los pájaros y los peces [7]. Estos dos últimos algoritmos se integran en la actualidad dentro de la línea de investigación conocida como Inteligencia de Enjambre (Swarm Intelligence) que ha servido de inspiración para crear novelas como “Presa”, de Michael Crichton.



El proyecto swarmanoid, coordinado por Marco Dorigo, explora el uso de la inteligencia de enjambre para coordinar un conjunto de robots heterogéneos. Fuente: www.swarmanoid.com

Difícilmente podía Darwin imaginar que sus ideas, con las que pretendía explicar la evolución de las especies, servirían, siglo y medio más tarde, para deleitar al público que acude a un concierto o agilizar el tráfico de una ciudad.

Referencias:
[1] Página Web de la edición de 2013 de EvoMUSART, congreso centrado en la música y el arte evolutivo. http://www.kevinsim.co.uk/evostar2013/cfpEvoMUSART.html
[2] Página Web de Iamus. http://melomics.com/iamus
[3] Artículo de Philipp Ball en Nature sobre Iamus. http://www.nature.com/nature/journal/v488/n7412/full/488458a.html?WT.ec_id=NATURE-20120823
[4] Páginas Web del grupo NEO. http://neo.lcc.uma.es
[5] S. Kirkpatrick, C. D. Gelatt y M. P. Vecchi. 1983. Optimization by simulated annealing. Science, 13 May 1983 220, 4598, 671–680.
[6] M. Dorigo. 1992. Optimization, learning and natural algorithms. Ph.D. thesis, DEI, Politecnico di Milano, Italy.
[7] J. Kennedy y R. Eberhart. 1995. Particle swarm optimization, Proceedings of the IEEE International Conference on Neural Networks, vol.4, pp. 1942-1948.

Tomado de:

Año Turing

18 de marzo de 2013

El algoritmo de Chudnovsky (o cómo se calculan los decimales de Pi en el siglo XXI)

Hoy, día 14 de marzo, es el día de Pi (por la forma de expresar las fechas en Estados Unidos: 3-14), y vamos a celebrarlo presentando uno de los algoritmos más útiles de la actualidad para calcular decimales de Pi: el algoritmo de Chudnovsky.

A lo largo de la historia han sido muchas las formas utilizadas por el ser humano para calcular aproximaciones cada vez más exactas de este número Pi, cociente entre la longitud de una circunferencia cualquiera y el diámetro de la misma: se han usado las áreas de polígonos inscritos y circunscritos a una circunferencia, se han encontrado interesantes aproximaciones numéricas con algunas fracciones sencillas, se han desarrollado series infinitas y productos infinitos de todas las formas que uno pueda imaginar…Vamos, de todo. Pero de entre todos estos métodos hay varios que destacan sobre el resto, y uno de los que más lo hacen es el denominado algoritmo de Chudnovsky.

El algoritmo de Chudnovsky es un algoritmo creado por David Volfovich Chudnovsky y Gregory Volfovich Chudnovsky, hermanos y matemáticos ucranianos nacionalizados estadounidenses, mediante el cual podemos obtener muy buenas aproximaciones del número Pi. Se basa en la siguiente expresión relacionada con el número Pi que encontró Ramanujan:

\cfrac{1}{\pi} = \cfrac{2\sqrt{2}}{9801} \; \displaystyle{\sum^\infty_{k=0} \cfrac{(4k)!(1103+26390k)}{(k!)^4 396^{4k}}}

La expresión del algoritmo de Chudnovsky es la siguiente:

 \cfrac{1}{\pi} = 12 \; \displaystyle{\sum^\infty_{k=0} \cfrac{(-1)^k (6k)! (13591409 + 545140134k)}{(3k)!(k!)^3 640320^{3k + 3/2}}}

y con ella obtenemos 14 decimales exactos más de Pi con cada término de la misma. ¿Qué significa esto? Muy sencillo. Vamos a partir del valor de Pi hasta su decimal número 50:

3.14159265358979323846264338327950288419716939937511

Si calculamos el primer término de esa suma, el correspondiente a k=0, la aproximación de Pi obtenida será 1 dividido entre ese resultado, que nos da lo siguiente:

\mathbf{3.1415926535897} 3420766845359157829834076223326091571

En negrita resalto la parte de ese resultado que coincide con el valor de Pi. Calculemos ahora los dos primeros términos. La aproximación de Pi ahora será 1 dividido entre la suma de los mismos. Obtenemos esto:

3.1415926535897 \mathbf{93238462643383} 58735068847586634599637

Como veis, los decimales que ya eran exactos con el primer término se mantienen con este segundo término, y añadimos 14 más (son los resaltados en negrita). Por hacer otro más, veamos que la tendencia continúa con el término siguiente. Al calcular 1 dividido entre la suma de los tres primeros términos obtenemos la siguiente aproximación de Pi:

3.141592653589793238462643383 \mathbf{27950288419716} 767885485

Los anteriores se mantienen y se añaden 14 nuevos decimales exactos. Y así sucesivamente.

Es una barbaridad obtener 14 decimales exactos más con cada término, ya que con muy poquitos términos obtenemos una aproximación escandalosamente cercana al valor real. Por eso este algoritmo es tan bueno, y por eso ha servido para obtener varios récords mundiales de cálculo de decimales del número Pi (por ejemplo, para éste de 5 billones de agosto de 2010 y para éste de 10 billones de octubre de 2011). 

Por eso es uno de los más utilizados en la actualidad para el cálculo de buenas (más bien buenísimas) aproximaciones de esta constante que tanto nos gusta.

Por cierto, para obtener los resultados que aparecen en esta entrada he utilizado Mathematica de la siguiente forma:
  • Definimos mediante una función el término general de la serie: a[k_]:=(12 (-1)^k (6 k)! (13591409+545140134 k))/((3 k)! (k!)^3 640320^(3 k+3/2))
  • Ahora, para calcular cada término utilizo el comando Sum. Por ejemplo, para calcular el primero uso Sum[a[k],{k,0,0}]
    pero como lo que quiero es calcular la aproximación de Pi que corresponde con este término hago lo siguiente (como quería 50 decimales le pongo un 51, 51 cifras significativas):
    N[1/Sum[a[k],{k,0,0}],51]
  • Para ampliar el número de términos simplemente cambiamos el segundo cero de {k,0,0}. Por ejemplo, para calcular la aproximación con los dos primeros términos N[1/Sum[a[k],{k,0,1}],51]
    y para los tres primeros
    N[1/Sum[a[k],{k,0,2}],51]
Si se os ocurre alguna otra manera de realizar estos cálculos con Mathematica os agradecería que nos lo comentarais.

Por cierto, una última curiosidad. Con
N[Pi,51]

Mathematica nos muestra una aproximación del número Pi con 50 decimales. Evidentemente, podemos aumentar el número de decimales para conseguir aproximaciones cada vez más exactas. ¿A que no sabéis que algoritmo utiliza el propio Mathematica para obtener dichas aproximaciones? Efectivamente, el algoritmo de Chudnovsky.

Imagen tomada de aquí, donde podéis encontrar mucha información sobre el cálculo del número Pi.

Fuente:

Gaussianos

7 de marzo de 2013

Diseñan un algoritmo para ahorrar combustible en los trayectos

Investigadores del INSIA-UPM calculan la velocidad óptima en un recorrido, que permitiría ahorrar hasta un 5,2% de combustible.

¿A qué velocidad tenemos que circular en un determinado tramo de carretera para que el consumo de energía del vehículo sea óptimo? Es una pregunta que todo conductor se hace y a la que trata de responder una investigación del Instituto de Investigación del Automóvil (INSIA) de la Universidad Politécnica de Madrid (UPM).

Los expertos de la UPM han diseñado un algoritmo de optimización que obtiene el perfil óptimo de velocidad que debe seguir un vehículo para minimizar el consumo de combustible durante un recorrido conocido.

La estrategia es utilizar las variaciones de pendiente de la carretera para encontrar los valores óptimos de velocidad y marcha que permitan disminuir la energía utilizada por un vehículo. El sistema tiene en cuenta los mapas de eficiencia de las partes que integran el sistema de tracción del vehículo, la posición GPS, el mapa electrónico de la carretera y el tiempo de recorrido fijado por el conductor.

El método utilizado para encontrar la secuencia de marchas y la velocidad óptima es el de Programación Dinámica. Esta técnica considera las posibles transiciones entre estados inmediatos de un sistema y encuentra la secuencia óptima cuando se requiere que el sistema cambie entre dos estados no consecutivos. Con este método el consumo de combustible puede llegar a reducirse hasta en un 5,2%.

Buscan su aplicación en híbridos

Felipe Jiménez, investigador del INSIA y autor principal del trabajo, explica así el funcionamiento del sistema: “Si deseamos que un vehículo convencional cubra un recorrido utilizando el menor consumo de combustible posible para un tiempo determinado, el algoritmo de Programación Dinámica prueba distintas etapas de transición de velocidad y cambios de marcha hasta que encuentra la secuencia óptima que consume la menor cantidad de combustible y cumple con el tiempo establecido. Para ello, se basa en las características del vehículo, por lo que la solución encontrada puede cambiar de un vehículo a otro”.

El trabajo, publicado por la revista Dyna Ingeniería e Industria, es uno de los primeros de este tipo que tiene en cuenta la orografía de la carretera, las limitaciones de velocidad de la misma y el tiempo establecido de viaje. Este aspecto es especialmente útil para las empresas de transporte de pasajeros y de mensajería. Además, al reducirse el consumo se minimizan las emisiones de gases contaminantes haciendo que los vehículos sean más respetuosos con el medio ambiente.

El objetivo de los investigadores es que este proyecto, desarrollado por el Instituto Universitario de Investigación del Automóvil (INSIA) de la Universidad Politécnica de Madrid y cofinanciado por el antiguo Ministerio de Educación y Ciencia, siga dando frutos en el futuro.  “En este momento, estamos trabajando en la versión del algoritmo para vehículos híbridos y en la introducción de la información de tráfico como una nueva variable a considerar dentro del algoritmo de optimización”, explica.

Fuente:

Universidad Politécnica de Madrid

3 de febrero de 2013

Desarrollan fórmula matemática que predice cuándo podrías ser despedido

Aproximadamente cuatro de cada 10 españoles cree que puede perder su puesto de trabajo en los próximos meses, según los últimos datos del Randstad Workmonitor. Sin embargo, algunos se quitarían un peso de encima si pudieran acceder a la fórmula matemática creada por la compañía de suministro y gestión de datos estadounidense Evolv, que predice cuánto tiempo le queda a un trabajador en su empresa.

Este sorprendente algoritmo se basa en el historial de empleo, en datos de rendimiento y en la utilización de medios de comunicación social, combinados con ciertos datos econométricos como precios de la gasolina y tasas de desempleo de un determinado sector.



"Estos modelos predicen la probabilidad de que un trabajador salga de una empresa en base a todo lo que sabemos de él y su posición”, ha explicado Michael Housman, director gerente de Evolv.

La compañía ha identificado dos razones fundamentales por las que los trabajadores dejan sus puestos o son despedidos: no se ajusta a su conjunto de habilidades o no tiene el correcto ajuste cultural.

Además, Evolv ha detectado que el éxito de un empleado en particular está directamente afectado por el rendimiento de su gestión, y que los empleados más leales son aquellos que en su personalidad tienen los rasgos de fiabilidad y curiosidad.

Algoritmos para contratar

Hasta ahora las vacantes en una empresa solían cubrirse en función del currículum del candidato y su desempeño en la entrevista de trabajo. Eso es cosa del pasado. Al menos según los nuevos procesos de selección que están implantando compañías como Evolv.

Ahora la decisión final sobre si un aspirante es válido o no la tiene un algoritmo que analiza sus respuestas a varias pruebas de personalidad y desempeño profesional. Entre las variables que se analizan están la distancia de casa al trabajo, si el candidato cuenta con un medio de transporte fiable o si utiliza una o más redes sociales.

Tras una prueba de 30 minutos, el programa ofrece un veredicto: rojo para potencial bajo, amarillo para medio y verde para el alto. Entre las empresas que emplean software para determinar si una persona es apta para el puesto al que se postula, se encuentran: Xerox, IBM, Oracle y SAP AG. Cada una de ellas gastó decenas de millones de dólares en software para evaluar con este sistema el potencial de los candidatos.

Más sobre economía:



Fuente:

Yahoo Finanzas

Esta es la fórmula matemática de la guerra

Un investigador del CSIC construye desde hace años modelos matemáticos que sirven para explicar, y predecir, por qué en un país estalla una guerra civil.




¿Se puede condensar el porqué de una guerra en una simple ecuación? ¿Es posible emplear las matemáticas para anticiparse a un conflicto social? ¿Hay alguna fórmula que vaticine una matanza étnica? El economista Joan Esteban cree que sí, y a tal empeño lleva dedicándose en las últimas décadas. Profesor de la Autónoma de Barcelona y del Instituto de Análisis Económico (perteneciente al CSIC), Esteban tiene la pasión y las maneras de un sabio, alguien que sabe que trabaja en un área de conocimiento a veces difícil de comprender, la que trata de vincular algo a veces tan irracional como el comportamiento humano con un modelo matemático, una aproximación científica al origen de las guerras.

¿Cómo se hace? La base del trabajo de Esteban —en equipo junto a los profesores Debraj Ray, de la New York University, y Laura Mayor, del CSIC— parte del tratamiento de datos estadísticos de 138 países en el periodo 1960-2008: estructura social, étnica y económica, grado de cohesión y de libertad individual, apertura religiosa, «ganancias» y «pérdidas» tras un conflicto... todo tabulado a través de un complejo modelo matemático que, en última instancia, permite establecer un índice de riesgo, algo así como un predictor de conflictos país a país.

240 conflictos

Su trabajo ha merecido la atención de la revista «Science», que ha publicado la investigación. «Los economistas rara vez tenemos cabida en “Science”. Es importante porque supone un reconocimiento a nuestro trabajo», explica a ABC Joan Esteban, premio Rey Jaime I de Economía en 2007. Las conclusiones de su investigación, y el análisis prospectivo que de ello puede hacerse, resultan apasionantes. «Desde el final de la Segunda Guerra Mundial, el número de conflictos en el mundo asciende a unos 240, y más de un tercio de los países se han visto implicados», explica Esteban. 

De los 240 casos registrados, sólo 22 tienen carácter internacional, es decir, las guerras son mayormente conflictos civiles internos. Las razones que las explican responden a un patrón. «La visión marxista de que el choque de clases, la desigualdad económica, explican la conflictividad ha fracasado por completo. Nunca se ha podido demostrar científicamente», precisa Esteban, cuya investigación ha determinado, en cambio, que es el «choque étnico y religioso» y, sobre todo, el grado de «polarización» entre los distintos grupos, lo que explica el origen de las guerras. 

No todo es tan simple, claro: «Las variables étnicas son determinantes, pero por sí solas no explican un conflicto, históricamente esas diferencias han sido instrumentalizadas. Los resultados empíricos demuestran que los conflictos étnicos no tienen su origen en diferencias culturales profundas u odios irracionales, sino cuando se conjugan con la abundancia de recursos apropiables». De alguna forma, una reformulación de la superada visión marxista. «En el fondo detrás de todo hay una racionalidad implacable, beneficio económico y político, que acaba siendo lo mismo», asume el profesor Esteban.

Guerra por venir

El mapa que dibuja el índice de conflictividad de Esteban y su equipo marca en rojo las zonas más calientes del planeta. El prototipo de país en peligro de conflicto responde a un patrón claro: «Étnicamente diverso, con abundancia de recursos naturales y regímen autocrático», un cóctel explosivo, vaya. La Europa occidental, y España en concreto, están, por fortuna, en las antípodas. 

Sin embargo, la crisis y la conflictividad que genera, nos conducen a un panorama cambiante. «Hay que seguir estudiando», reconoce Esteban, presto ya a recopilar cifras y tabular estadísticas para intentar explicar por qué los humanos nos seguimos matando unos a otros.
Fuente:
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0