Latest Posts:

Mostrando las entradas con la etiqueta modelo matematico. Mostrar todas las entradas
Mostrando las entradas con la etiqueta modelo matematico. Mostrar todas las entradas

31 de diciembre de 2013

BBC: Los números inesperados que destacaron en 2013

Números

Si tuviera que definir el año que acaba con un número, ¿cuál elegiría? A esta pregunta responden cuatro expertos con afinidad por las matemáticas y explican por qué.

22

Por Simon Singh, físico y escritor británico:

Panqueques

¿Ya sabe cómo calcular un "número panqueque"?
Mi número del año es el 22 y está relacionado con un problema conocido como el orden de los panqueques, creado por Jacob Goodman, quien cumplió 80 este año.

Imagina que tienes una pila de tortitas de diferentes tamaños desordenadas y que quieres ponerlas en orden: la más pequeña arriba y la más grande debajo de todo.

Puedes meter una espátula en cualquier punto de la pila y dar vuelta todos los panqueques que estén por encima.

Si sólo tienes dos panqueques que no están en orden entonces el "número panqueque" es uno, porque sólo necesitas dar una vuelta con la espátula. Para tres panqueques, el máximo número de vueltas necesarias es tres.

De esta forma puedes calcular el "número panqueque" para pilas de distintas cantidades, y el número para 19 panqueques es 22.

Ese es mi número elegido porque los matemáticos aún no han sido capaces de calcular la cifra para 20 panqueques.

Por cierto, el único trabajo de investigación que Bill Gates escribió en su vida fue sobre los números panqueques.

95

Por Linda Yueh, especialista en economía de la BBC:

Mi número del año es el 95 porque es la notable cifra de la recuperación económica, a cinco años de la peor crisis en un siglo.
"Los ingresos del 1% que más gana crecieron un 31,4% mientras que los del 99% restante sólo aumentaron un 0,4%."
Linda Yueh, especialista en economía de la BBC

La desigualdad del ingreso ha aumentado considerablemente durante la recuperación. En Estados Unidos, los que más ganan –el 1% de la gente que tiene ingresos– se quedaron con el 95% de las ganancias desde 2009.

Un estudio de la Universidad de California en Berkeley observó que los ingresos del 1% que más gana crecieron un 31,4% mientras que los del 99% restante sólo aumentaron un 0,4%.

Por lo tanto, sólo se incrementaron los ingresos de muy poca gente y es difícil ver una base amplia para la recuperación.

Este fue el punto esencial del desacuerdo entre dos economistas premiados con el Nobel.

Joseph Stiglitz ve en esta desigualdad la razón por la cual la recuperación es tan lenta. Paul Krugman, por otro lado, opina que es una explicación demasiado simple.

Esta recuperación se basa en montones de dinero fácil en lugar de más gasto público, y ese dinero ha ayudado a que los mercados de valores alcanzaran cifras récord.

Si esa es la mayor fuente de crecimiento –como la subida de los precios de las acciones– entonces no es tan sorprendente que aumenten los ingresos de los más ricos, que tienen más acciones que los menos pudientes.

Y eso no es suficiente para apoyar al resto de la economía. Es una de las razones por las que muchos países no se han recuperado a los niveles anteriores a la crisis.

33,86

Por Paul Lewis, experto en finanzas de la BBC:

Super computadora

La Tianhe-2 fue desarrollada por la Universidad de Tecnología de Defensa china.

Mi número es 33,86: esa es la cantidad de petaflops conseguidos en 2013 por la nueva merecedora del título "computadora más veloz del mundo". 

Peta son mil billones, es decir 10 a la 15ª potencia. Un flop es una operación de coma flotante por segundo, una medida del rendimiento de una computadora. 

Para entenderlo, pensemos en la multiplicación de dos números realmente grandes en un segundo: eso es un flop

Por lo tanto, una computadora de petaflops puede hacer multiplicaciones de miles de billones por segundo, y hacerlas bien. 

Cuando se publicó la lista de los ordenadores más veloces en junio pasado, la nueva computadora china Tihane-2 fue directamente al número uno. Alcanzó los 33,86 petaflops, que es casi dos veces más rápido que Titán, la otra finalista, del Departamento de Energía de EE.UU. 

Aún era la más rápida en noviembre, cuando se publicó la última lista.

Tihane-2 está haciendo 33.860 billones de cálculos cada segundo. Los récords informáticos no suelen durar mucho tiempo: dos meses antes del gran avance de China, la primera computadora de un petaflop, que reinó en 2008, fue descartada por lenta. 

Cuando se difunda la siguiente lista, Tianhe-2 puede llegar a ganarse a sí misma. Su máxima velocidad teórica es de más de 50 petaflops, pero incluso ese récord puede quedar obsoleto pronto ya que los genios informáticos apuestan por la llegada de una máquina de un exaflop (trillón de flops) para 2017. 

Eso significa mil millones de cálculos cada milmillonésima de segundo.

73

Por Pippa Malmgren, de Principalis Asset Management

Tantalio

El mayor productor de tantalio del mundo es la República Democrática del Congo.

El 73 es el número de la tabla periódica de un elemento del que poca gente ha oído hablar: el tantalio.

Somos increíblemente dependientes de este metal raro. Es esencial para todas las telecomunicaciones y para mucho del equipamiento de defensa.

Además, los teléfonos móviles no funcionarían sin él.

El tantalio sirve como recordatorio de que en la economía mundial muchas de las cosas más importantes que necesitamos son muy limitadas. Uno asume que si necesitas algo como el tantalio es fácil tenerlo.

Pues no es así. No tenemos suficientes ingenieros, incluyendo expertos en minería, y no los tendremos probablemente por algunos años hasta que rectifiquemos este desequilibrio.

En los últimos 25 años, quienes poseen algún talento matemático se dedicaron a las finanzas porque en esa carrera se ganaba más. Eso significa que ahora estamos frente a una escasez global de ingenieros.

El nuevo año será interesante porque será la primera vez que los graduados de Escuela de Minas de Colorado, la mejor universidad de ingeniería de Estados Unidos, tendrán mejores salarios que los egresados de la Escuela de Negocios de Harvard y esto estimulará a la gente joven con inquietudes matemáticas a dedicarse a la economía real, que es una gran cosa

Fuente:

BBC Ciencia

16 de diciembre de 2013

Ojo: Correlación no implica causalidad

Correlación no implica causalidad, hay que decirlo más (si queréis, con la entonación que Ernesto Sevilla le daba a cierto insulto muy español en cierto vídeo que fue un fenómeno de internet hace un tiempo…). Y hay que decirlo más porque en general no llegamos a comprender qué significa esta frase. Bueno, o eso o que aun comprendiéndola intentamos confundir a quien no la entiende haciéndole creer que una cosa sí que implica a la otra.

Prácticamente a diario nos encontramos en (principalmente) medios de comunicación noticias cuyo titular tiene una estructura parecida a algunos de los siguientes:
Un estudio afirma que cuanto más A más B.
Un estudio afirma que quienes son A tienen menos B.
Un estudio afirma que dado que A es así entonces B es de esta otra forma.
En principio, todos esos titulares indican básicamente que lo que dice A es lo que provoca que ocurra B, o, lo que es lo mismo, que B es consecuencia de A. Normalmente, cuando uno se lee esas noticias, acaba dándose cuenta de que lo que hay es una correlación entre A y B (vamos, una relación entre esos dos sucesos), pero, en principio, sin ningún indicio de que sea uno de ellos, A en este caso, el que provoca el otro, B.

El estudio de la correlación entre dos variables es uno de los temas que se trata en Estadística. Resumiendo un poco, la cuestión sería algo como lo siguiente:
- A partir de ciertos datos obtenidos de cada una de esas variables uno estima si hay alguna relación entre ellas. La que se estudia con mayor frecuencia es la llamada regresión lineal (mediante la que buscamos si hay relación lineal hay entre las variables), pero hay muchos más tipos posibles: cuadrática, exponencial, logarítmica…
- Con esos datos se calcula una función (que, por ejemplo, en regresión lineal es una recta) que nos determina exactamente qué relación hay entre esas variables.
- Se estudia la correlación real entre ellas (es decir, cómo de fuerte es la relación que habíamos estimado a partir de los datos iniciales) mediante un coeficiente de correlación.
Este coeficiente suele tomar valores entre -1 y 1, y se interpreta de la siguiente forma:
  • Cuanto más cerca de 1 esté, mayor correlación positiva (es decir, que cuando aumenta una también lo hace la otra) hay entre las variables.

  • Cuanto más cerca de -1 esté, mayor correlación negativa (es decir, que cuando aumenta una disminuye la otra) hay entre las variables.

  • Cuanto más cerca de 0 esté, menor correlación hay entre las variables.
Ahora, que la relación entre las variables sea muy fuerte (esto es, que sea casi 1 o casi -1) no significa que una de ellas sea la causa de la otra. En ningún sitio esta teoría nos deja asegurar con tanta ligereza que el hecho de que haya una correlación muy fuerte entre A y B significa que la variable A es la que está provocado que se presente la variable B. La teoría habla de relación entre las variables, no de que una sea la causa de la otra. Por cierto, buenísima esta tira de XKCD sobre el tema:


Hasta aquí bien, ¿no? Vale, sigamos.

Todo esto de la mala interpretación de la correlación también se encuentra, y en demasiadas ocasiones, en estudios científicos supuestamente serios. No son pocos los estudios que al encontrar una cierta relación entre dos variables presentes en los sujetos estudiados se tiran a la piscina afirmando que por tanto una de ellas es la causa de la otra, cuando en realidad en dichos estudios no hay ninguna evidencia de que esto sea verdad (simplemente hay correlación).

Supongo que más de uno se estará preguntando lo siguiente: ¿entonces es mentira que correlación implique causalidad? Pues no, no es mentira, y verdad tampoco. Me explico:
Cuando se dice que la frase correlación no implica causalidad (en latín, Cum hoc ergo procter hoc) es cierta lo que se quiere decir es que el hecho de que haya correlación entre dos variables no significa que una provoque a la otra, pero eso no significa que si encontramos correlación entre dos variables automáticamente podamos descartar que una sea causa de la otra. Hay casos en los que A es la causa de que ocurra B, en otros es al revés, en otros hay alguna variable adicional la que hace que se produzca esa correlación…y a veces todo es fruto de la casualidad (sí, casualidad, no “causalidad”).
El problema de creerse que una fuerte correlación implica una cierta relación causal entre las variables es que esa creencia se puede usar (malintencionadamente o no) para engañarnos, ya que no es demasiado difícil encontrar correlación entre dos variables que en principio ni están relacionadas a poco que queramos “forzarla”.

Por ejemplo, si os digo que el descenso de piratas en el mundo está provocando una subida de la temperatura media global de nuestro planeta, ¿qué pensaríais? Posiblemente que estoy muy mal de la cabeza, ¿no? Bien, echadle un ojo a esta gráfica:

 
Fuente: Wikimedia Commons.

En ella se ve claramente que desde 1860 se ha producido un descenso del número de piratas y a la vez un aumento de la temperatura media de la Tierra, y que hay correlación lineal (la gráfica se acerca bastante a una recta) entre las dos variables. ¿Es el descenso de piratas la causa de la subida de temperatura? Pues no parece que sea así. ¿Y al revés? ¿Es la subida de la temperatura media global la causa del descenso de piratas? Pues tampoco parece que sea así. Es muy posible que esta relación sea pura casualidad.

En la siguiente imagen (que vi en este post del blog de Francis) podéis ver algunos otros ejemplos como el anterior:


Tremendo que la mayor actividad en Facebook sea la causa de la crisis de deuda griega, ¿verdad?

Y para terminar os recomiendo ver esta charla de Tim Minchin (comediante, actor y músico australiano), que me pasó @antlarr en este tuit (después de subtitular él mismo el vídeo), que trata sobre el tema. Muy graciosa a la vez que reveladora para quienes todavía no están convencidos:



Fuente:

Gaussianos

5 de septiembre de 2013

El altruismo de los organismos eusociales es en realidad producto de una manipulación

Un modelo matemático destapa supuestos comportamientos de hormigas, avispas y abejas

Las hormigas, avispas y abejas manipulan a la primera camada para que ayude a la segunda, según un modelo matemático aplicado al comportamiento materno en estos organismos eusociales. Según este modelo, el supuesto comportamiento altruista de la primera camada en realidad está forzado a través de la manipulación. Las madres consiguen este resultado mediante la interrupción del desarrollo de la descendencia, por ejemplo, a través de una mala alimentación o una conducta agresiva.


La biomasa de las hormigas compone más de la mitad de todos los insectos. Foto: Gustavo Durán. SINC
La biomasa de las hormigas compone más de la mitad de todos los insectos. Foto: Gustavo Durán. SINC

La manipulación se considera a menudo como un comportamiento moralmente repudiable, sin embargo podría ser responsable de los orígenes evolutivos de la conducta altruista, según un estudio que publica la revista The American Naturalist.

En biología evolutiva, la manipulación se produce cuando un individuo, el manipulador, altera el comportamiento de otro individuo de manera que es beneficioso para él, pero que puede ser perjudicial para el individuo manipulado.
 
Esta manipulación no solo se produce en seres humanos y animales, sino también a nivel celular. Las células de un organismo multicelular, o los parásitos, pueden alterar el comportamiento de sus huéspedes. 
 
Es el caso de la lombriz parasitaria Myrmeconema neotropicum, a la que, cuando es ingerida por la hormiga tropical Cephalotes atratus, le crece un abdomen de color rojo brillante con aspecto de baya. Este abdomen luminoso constituye un fenotipo manipulado por el gusano.
 
Las aves se comen lo que creen que son bayas, es decir, a las hormigas infectadas por la lombriz, y luego propagan el parásito en sus heces, que son recogidos posteriormente por las hormigas para alimentar a sus larvas. El ciclo de la conducta manipulada comienza de nuevo.

Lea el artículo completo en:

Tendencias 21

4 de septiembre de 2013

Sabe usted... ¿por qué los relámpagos son fractales?





«Las nubes no son esferas, las montañas no son conos, las costas no son círculos y la corteza del árbol no es suave, y tampoco viaja el rayo en línea recta». Así abre Benoît Mandelbrot, uno de los genios de la segunda mitad del s.XX, su libro-manifiesto «La geometría fractal de la naturaleza». Mandelbrot formuló el concepto de fractal a partir de anteriores intuiciones de otros científicos. Vemos que si cortamos una coliflor en trozos cada uno de ellos parece una coliflor más pequeña, que cada trozo de nube parece una nube en pequeño, o que un pico de una montaña parece una montaña en miniatura. Este fenómeno se conoce como autosimilaridad, la parte es similar al todo. 

 
Al igual que podemos representar un pino con una de sus ramas (pongamos, en la decoración navideña), si nos fijamos en una parte del rayo, ésta es igual en su aspecto al rayo en su conjunto. Bajo este punto de vista, el rayo es fractal. Un rayo o un relámpago se producen cuando existe un voltaje tal en la atmósfera que es capaz de romper la capacidad aislante del aire. Esta ruptura es una especie de «grieta» instantánea que surge en el aire, a través de la cual se abren camino las cargas eléctricas. Esta fractura del aire es similar al agua que se abre camino montaña abajo o a las raíces o las ramas de un árbol. En este proceso se van formando pequeñas «grietas» o «arroyos» eléctricos en el aire, caminos que tienen un comportamiento fractal. 

Más aún, cuando se habla de fractales se puede hablar de dimensiones «intermedias»: si una recta tiene dimensión 1, un plano tiene dimensión 2, y un cubo tiene dimensión 3, un objeto fractal «rellena» el espacio de manera que se «queda» en una dimensión no entera, con decimales. Así, igual que se podría decir que un brécol tiene dimensión fractal 2,66 o que la superficie del cerebro humano tiene dimensión 2,79 y los pulmones 2,97, un rayo tiene una dimensión aproximada de 1,5. Y este número, mayor que 1, nos muestra que la trayectoria de un rayo rellena más el espacio que la de una curva ordinaria.

Fuente:

14 de julio de 2013

Como desarrollar el Pensamiento Algebraico en niños de Educación Primaria

El año 2010 llegó con sorpresas, la escuela tenía un nuevo direcotr, y el nuevo director lanzó un reto: enseñar álgebra desde el primer hasta el sexto grado de primaria. ¿Cómo? Ni el mismo lo sabía. Pero el reto estaba lanzado, tendriamos que empezar desde cero, repasar viejos libros empolvados (bueno, yo revise mis PDFs, incluido el Álgebra de Aurelio Baldor), crear secuencias didácticas para generar ideas algebraicas partiendo de la vida diaria de los cachorros, diseñar medios y materiales para cristalizar dichas secuencias y, finalmente, generar una propuesta curricular del álgebra en las escuelas primarias. ¡Todo un reto!

Y, ojo, no se trata de enseñar el álgebra a los niños tal como se enseña en la secundaria y en la mayor parte de los libros de texto. Cuando ser lanzó el reto se habló de generar pensamiento algebraico en los cachorros.

Y ¿Qué es el pensamiento algebraico? Lea:



El reto del Director de la escuela

Durante las dos últimas décadas del pasado siglo (años ochenta y noventa, cuando YO recién empezaba a luchar por ser el jefe de la manada) se estudiaba en las principales universidades del planeta la manera de facilitar el aprendizaje del álgebra a los cachorros de las escuelas (educación primaria). Inmediatamente se abrieron dos frentes: a) los que abogaban por introducir el álgebra desde los primeros grados de primaria con el fin de facilitar su aprendizaje en la secundaria y b) los que abogaban por generar un pensamiento algebraico en los cachorros, no necesariamente resilviendo ejercicios del tipo que nos encontramos en los libros de texto.

Es en este siglo XXI, globalizado y decadente, que las investigaciones sobre álgebra en la escuela primaria se han multiplicado, la gran mayoría de estos trabajos en inglés (Grrrrrrrrrr, qué coraje), y estas dos tendencias siguen en pugna.

Aquí en nuestra provincia (provincia de Barranca, región Lima Provincias) muchos colegios privados sigue el primer enfoque, es decir se introduce el álgebra desde los primeros grados pero, muchísimo ojo, se enseña el álgebra de la misma manera como se enseña en la escuela secundaria. Y, lo que es peor, se enseña el álgebra con el exclusivo fin de desarrollar problemas tipo y lograr que, en el futuro, los cachorros, ya jóvenes, puedan ingresar a un universidad.

Este enfoque, desgraciadamente, es el imperante en el Perú (mi gran país). ¿Por que digo desgraciadamente? Por dos razones:

a) En primer lugar por la gran distorsión (o aberración) que es señalar el fin de la educación básica (primaria y secundaria) como el ingreso a la Universidad.

¿Y dónde queda la felicidad? Grrrrrrrrrrrrrrrrrr!!!!! ¡Se supone que estudiamos para ser felices en el futuro! ¿Y dónde queda la libertad? Sólo se alcanza la felicidad cuando se es libre, libre como individuo y libre como colectivo (como sociedad). Y sólo se es libre cuando se es consciente, consciente del mundo social y natural en que estamos inmersos, consciente de nuestra historia, de nuestro potencial como sociedad y, sobre todo, consciente de las trabas que nos impiden ser felices y ser libres.

Pero la sociedad de consumo, tecnocrática, burocrática, injusta y deshumanizante en que vivimos nos responde: ¿Felicidad? ¿Libertad? Esas son estupideces (y no se por que se me viene a la mente la imagen de la hiena Cipriani). Y los líderes consumistas, tecnocráticos, burocráticos injustos y deshumanizados nos advierten: Y, menos, se dediquen a hablar sobre la educación como instrumento para la transformación y perfeccionamiento de la sociedad, por que sino te cierro el blog, la radio, el periódico o la editorial y encima te meto en una carceleta (y se me viene a la mente el jabalí García P.).

Pero gran número de padres de familia, sobre todo aquellos que aún no sabían leer cuando el jabalí García lo embarraba todo por vez primera, envían a sus hijos a los colegios privados (de 80 lucas al mes) para que sus hijos tengan ingreso directo a la universidad.

b) Y lo peor de todo, casi todos estos centros privados de deformación enseñan matemáticas y álgebra de manera libresca, teórica, memorística y, por ende, aburrida. Parten de conceptos, leyes, fórmulas. No enseñan a los niños la esencia de la matemática que es buscar y encontrar relaciones entre los objetos del mundo que nos rodea, ya sea en cantidades o en magnitudes. Y mucho menos buscan que los alumnos encuentren maneras de aplicar los conocimientos matemáticos en nuestra vida real y cotidiana: desde la resolución de problemas hasta la creación de modelos matemáticos.

Pero que se puede esperar de los promotores de estos centros de deformación que contratan a jóvenes universitarios en vez de docentes titulados y calificados, amén de otorgarles un mísero salario (y encima a destiempo y sin colocarlos en planillas). Y ni hablemos de los libros de texto Corefo, Coveñas, etc. (bueno, si hablaremos de ellos, pero será en otro post).

Las escuelas públicas contamos con un diseño curricular desfasado y chapucero, antihistórico e idealista; donde no se contemplan temas como el descubrimiennto de la ciudad de Caral, los ocho planetas del sistema solar, la vida y obra de Simón Bolívar o de Túpac Amaru II, la clonación de la oveja Dolly o cómo funcionan los celulares e Internet. Y, como ya podrán imaginarse, menos hablarán de pensamiento algebraico.

Por lo tanto el reto del director es tomado como:

a) un programa para revivir la investigación educativa y promover la innovación permanente en la forma de enseñar y

b) un medio para generar el pensamiento algebraico en los cachorros, enfoque que debe nacer de la vida diaria y debe culminar en la vida diaria también.




El proyecto Álgebra Fácil (del profesor Leoardo Sánchez Coello)

Con un rugido largo y potente asumí el reto y me puse manos a la obra sin pérdida de tiempo, busqué todos los libros que tenía sobre álgebra y, como podrán adivinar, no encntré nada sobre álgebra para niños. Entonces ingresé a la red y,¿qué creen?, tampoco encontré gran cosa, salvo investigaciones parciales,y casi todas ellas, en inglés (Grrrrrrrrr!!!!)

Entonces se abrío el cielo y cayó una luz sobre mi cabeza. Me iluminé y descubrí la VERDAD: Tengo que hacer todo este trabajo por mi mismo.

Les dejo a continuación la primera parte de mi quehacer que, en parte de fichas de trabajo, estoy realizando.

Primera Parte: 



Y esta es la Segunda Parte: 

 

Reitero que no se trata de enseñar álgebra, sino de enseñar pensamiento algebraico. Dedebemos de considerar que: 

a) El ágebra es considerada una rama dura de la matemática y buscamos acercar a los cachorros al estudio de las cantidades y magnitudes de la manera menos traumática posible. 

b) El pensamiento algebraico es poder expresar, en lenguaje matemático, los diversos objetos, situaciones o relaciones del mundo en que vivimos; pasando de situaciones concretas a situaciones abastractas y de situaciones con relaciones sencillas a situaciones con relaciones complejas (Grrrrrrrr!!!! ¿qué tal me quedó la definición? ¿eh?).

Bien, ahora surge la pregunta ¿cómo representar los objetos algebraicamente? Pongamos un ejemplo para comprender mejor.

En primer lugar necesitamos materiales que los niños pueden encontrar fácilemnte en su entorno: fósforos, chapitas, clips, alfileres, botones, cajitas, mondadientes, frejoles, pallares, maicitos, etc...


Los cachorros, por lo general espontáneamente, empiezan a a grupar estos elemntos de diversas maneras, buscando siempre un patrón u orden.



Luego se dirá a los alumnos que representen un objeto cualquiera con una letra. De esta manera si tenemos dos objetos diferentes (como clips y palitos) denominaremos a unos objeto con la letra a y a otros objetos con la letra b (así tendriamos que los clips = a, y los palitos = b).

Simbolizamos, y si es necesario graficamos, en el pizarrón.



Entonces se les dirá a los cachorros:
¿Cuánto será a + b?

Los niños responderán que la respuesta es un clip y luego un palito.

Luego preguntamos:
¿Y cuánto será 2a + 2b?

Los niños respoderán que dos clips y dos palitos.

Luego vendría la exploración con material concreto.



También puede explorar realizando el proceso inverso, es decir los niños realizarán patrones de manera espontánea y luego crearán una expresión algebraica para cada patrón realizado.

Estos son los trabajos de los cachorros del 3º "H" de la escuela Los Pelones de Barranca. La ecuación que se les presenta es, por decirlo de alguna manera, la instrucción o la orden a seguir. Los cachorros, partiendo de dichas instrucciones, construyen sus seriaciones con materiales concretos. Vean:








Los patrones con objetos concretos desarrolan el sentido de orden y espacio en los alumnos así como su sentido estético. Y, no olvidemos nuestro objetivo, los cachorros han traducido al lenguaje algebraico el orden de detrminados objetos de su entorno inmediato: han representado objetos algebraicamente.

Ahora intentemos realizar experiencias similares con fotografías de animales, personas que se encuentran en determinado orden; también podemos salir al patio y construir con nuestros cuerpos diversos patrones; las direcciones (simbolizadas con flechas) también son representaciones algebraicas; los bloque lógicos y las diversas ordenaciones que se pueden hacer con ello también se pueden representar algebraicamente.

Por ejemplo tenemos esta seriación de bloque lógicos:



Estos bloque se pueden agrupar de acuerdo a la forma o al color. Veamos:

a) Por la forma. Si consideramos que:

a = círculo

b = cuadrado

Entonces las seriación se podría representar algebraicamente como:

3a + 3b

b) Por el color. Hay tres colores diferentes. Entonces:

a = rojo

b = amarillo

c = azul

Entonces las seriación se podría representar algebraicamente como:

a + b + c

Esto es sólo un inicio. Sé que se debe enseñar el algebra desde un perspectiva un tanto informal, buscando formas lúdica, relacionada con el mundo que nos rodea y, sobre todo, tomando el algebra como un medio para desarrollar y estructurar el pensameinto de los cachorros, el algebra siempre como un medio y no como un fin. Pero eso es todo lo que sé.

Y aunque no tengo aún bien claro el norte es maravilloso experimentar, convertir las aulas en laboratorios donde los cachorros y YO (el jefe de la manada) construimos, aprendemos y nos divertimos. Porqué ¿de que nos serviría el álgebra si no somos libres y felices? ¿De qué nos serviría el álgebra si no tenemos conciencia clara de la sociedad en la que vivimos y de la necesidad urgente de su transformación.

En la nueva sociedad que nos espera emplearemos el álgebra para construir caminos y puentes, hospitales y colegios, casas para ancianos y para huérfanos, pero también emplearemos el álgebra para descubrir nuevas medicinas, salvar vidas luego de terremotos, controlar epidemias y comprender mejor los ecosistemas... Y el álgebra también nos servirá para que no nos engañen con el vuelto y para pasar el rato, resolviendo ejercicios, cuando estemos aburridos.

Hasta la próxima:

Leonardo Sánchez Coello
leonardo.sanchez.coello@gmail.com

3 de abril de 2013

Parte del Ártico se cubrirá de bosques en unas décadas

A la derecha, predicción de la distribución de la vegetación en 2050.| R. Pearson

A la derecha, predicción de la distribución de la vegetación en 2050.| R. Pearson

Una nueva investigación predice que el aumento de temperaturas conducirá a un masivo aumento de la cobertura vegetal en el Ártico. En un artículo publicado en 'Nature Climate Change', los científicos revelan nuevos modelos que proyectan que las áreas boscosas en el Ártico podrían aumentar hasta en un 50 por ciento durante los próximos decenios. Los investigadores también muestran que este reverdecimiento acelerará el calentamiento global a un ritmo mayor de lo esperado.

"Esta redistribución generalizada de la vegetación del Ártico tendría impactos que repercutirán a través del ecosistema global", dijo Richard Pearson, autor principal del estudio y científico investigador en el Museo Americano de Historia Natural para la Biodiversidad y la Conservación.

El crecimiento de las plantas en los ecosistemas del Ártico ha aumentado en las últimas décadas, una tendencia que coincide con el aumento de las temperaturas, que llega a casi el doble de la tasa global.

Especies afectadas

Los científicos desarrollaron modelos que predicen estadísticamente los tipos de plantas que pueden crecer bajo ciertas temperaturas y precipitaciones. A pesar de que incluye incertidumbre, este tipo de modelos son una forma eficaz de estudiar el Ártico debido a que la dureza del clima limita la variedad de plantas que pueden crecer. Por ello, este sistema es más simple para establecer modelos en comparación con otras regiones, como los trópicos.

Los modelos revelan el potencial de redistribución masiva de la vegetación en el Ártico bajo el clima futuro, con un cambio previsto en la mitad de la vegetación y un aumento masivo de la cubierta arbórea. ¿Qué podría pasar? En Siberia, por ejemplo, los árboles podrían crecer a cientos de kilómetros al norte de la línea en que están presentes en la actualidad.

"Estos impactos se extienden mucho más allá de la región del Ártico", dijo Pearson. "Por ejemplo, algunas especies de aves migran estacionalmente desde latitudes más bajas y se basan en la búsqueda de determinados hábitats polares como espacio abierto para anidar en el suelo."

Además, los investigadores analizaron las respuestas climáticas a múltiples cambios ecológicos. Encontraron que un fenómeno llamado el efecto albedo, basado en la reflectividad de la superficie de la Tierra, tendría el mayor impacto sobre el clima del Ártico. Cuando el sol llega a la nieve, la mayor parte de la radiación es reflejada de vuelta al espacio. Pero cuando se llega a una zona que es "oscura", o cubierta de árboles o arbustos, más luz solar es absorbida en la zona y la temperatura aumenta. Esto tiene una en cuanto al calentamiento climático: cuanto más vegetación haya, más calentamiento se producirá.

"Estudiando la relación observada entre las plantas y el albedo, se nos muestra que los cambios de distribución de la vegetación darán lugar a una retroalimentación positiva global del clima que es probable que cause un calentamiento mayor del que ya ha sido predicho", dijo el co-autor Scott Goetz, de la Woods Hole Research Center.
Fuente:

27 de marzo de 2013

Hacer una o muchas colas en el supermercado: ¿qué nos dice la estadística?

Acostumbrado a las colas "tradicionales" en los supermercados, donde cada caja tiene su propia cola, hace años me sorprendió ver que algunas cadenas usaban un método novedoso: la cola única para todas las cajas. Fue en UK, y hasta hace poco no han empezado a adoptar ese modelo algunas grandes superficies españolas.
A primera vista no es trivial decir qué sistema es mejor. En el post de hoy haremos un análisis estadístico (incluyendo simulaciones) con el que dejaremos bien claro que el sistema de única cola es mucho mejor desde el punto de vista del cliente.




Los dos competidores: (izquierda) las colas tradicionales, (derecha) la cola única (Créditos imagen)

Los que hayan estudiado teleco ya sabrán que el modelado de este tipo de problemas forma un campo de las matemáticas en sí mismo: la Teoría de Colas. Piensa que además de en la cola del super, nos encontramos problemas muy parecidos en redes de telecomunicaciones (e.g. paquetes de datos esperando entrar o salir por un router), en programas informáticos (e.g. peticiones a un servidor), etc. por lo que hay mucha gente que lleva décadas estudiando todo esto a fondo. De hecho podemos remontarnos a hace un siglo, cuando Erlang calculó cuándo se saturarían las líneas telefónicas de una ciudad. En su honor se definió la unidad de carga en redes de telefonía.

Básicamente lo que nos interesa en el caso del supermercado es un único estadístico que mide directamente el nivel de cabreo del cliente: cuánto tiempo tiene que esperar antes de que le atiendan. Las dos alternativas de sistema son:


  1. Una única cola y un número M de cajas para atender a clientes (1 cola / M cajas).
  2. M cajas, cada una con su cola (M colas / M cajas).

En este tipo de estudios estadísticos no tenemos ni idea de cuándo llegarán los clientes, pero la sincronización es importante porque si llegan muchos a la vez se formarán colas más largas. Para modelar esto matemáticamente se asume que existe una distribución de probabilidad uniforme y constante de que aparezca un cliente, lo que lleva a una distribución exponencial de los períodos desde que llega un cliente hasta el siguiente.

Aunque parezca un modelo un poco rebuscado y artificial, es el mejor posible cuando se asume que cada persona va a su bola y llega a una hora que es independiente (estadísticamente) de lo que hacen los demás.



Distribución exponencial para distintos valores del parámetro (lambda), relacionado con el número medio de llegadas por unidad de tiempo.
Asumiremos que los clientes llegan a un ritmo de [Math Processing Error] por minuto, y que las cajas son capaces de atenderlos a un ritmo de [Math Processing Error] cada una. Así, el modelo de M cajas queda:




Para hacer una comparación justa, en el modelo de cola única asumiremos que llegan el mismo número de clientes por minuto, y por tanto entrarán en la cola con frecuencia de  [Math Processing Error] por minuto:




Desde el punto de vista del número de clientes atendidos por minuto, los dos sistemas son equivalentes. Es más, el tiempo medio que transcurre desde que un cliente llega hasta que se le atiende también son iguales, dividiendo el tiempo total de funcionamiento entre el número total de clientes que pasan por el sistema.

Pero desde el punto de vista del cliente, es mejor el sistema de cola única debido al sesgo de muestreo: si por lo que sea se forma un pequeño retraso en una de las M colas, ese retraso será "notado" por muchos clientes al haberse formado más cola. Que en ese mismo momento haya otros pocos clientes que encuentren cajas libres no es suficiente para bajar la media del tiempo de espera subjetivo.

Se pueden sacar fórmulas teóricas que dan la distribución de tiempos de espera para cada caso, pero hoy me apetecía más hacerlo experimentalmente, así que he programado un simulador de eventos discretos para estimar cuánto afecta la elección del sistema de cajas (si alguien deriva las fórmulas, ¡le agradecería que las dejase en los comentarios!).

La siguiente gráfica resume muy bien el resultado: son los tiempos medios que los clientes esperan hasta ser atendidos en cada uno de los sistemas (negro: cola única), para distintos valores de número de cajas abiertas (M=2, 5, 10 y 20).



(clic para ampliar)
Se ve claramente que ya desde sólo dos cajas se nota una disminución de hasta el 33% en el tiempo de espera. ¡Con los mismos recursos materiales y de personal, sólo cambiando la organización de la cola!

Aunque en el mundo real existan complicaciones que no se tienen en cuenta en este modelado matemático, como horas punta, creo que merecería la pena que todas las grandes superficies que físicamente puedan implementar este sistema se lo plantearan seriamente.


NOTA (25/MAR, 9:50am): El modelo de cola empleado cada vez que llega un cliente es el siguiente:


  • Si hay una caja libre y sin cola delante, va a esa caja.
  • En caso contrario, se va a la caja que no tenga cola. 
  • Y en caso de no existir ninguna cola vacía, se elije una cola al azar con distribución uniforme.


Para los de gustos matemáticos: Os dejo algunos histogramas (en escala logarítmica) para M=2, M=10 y M=20, donde se ve que la diferencia se va haciendo cada vez más grande al aumentar el número de cajas (M):








Nota: En las simulaciones se ha usado Período_llegada_clientes=1, Período atención en cada=M * Período_llegada_clientes * 0.9, para modelar el hecho de que si hay más cajas abiertas en un estado de equilibrio es porque se tarda más con cada cliente.

Fuente:

Ciencia Explicada

21 de febrero de 2013

¿ El universo podría existir sin necesidad de Big Bang? Claro que sí...

universo-3d
GaleríaFotogalería: La imagen del día del espacio
Haz click aquí

Investigadores de la Universitat Politècnica de Catalunya · BarcelonaTech (UPC) han demostrado con modelos matemáticos que el universo se expande de forma acelerada debido a una pequeña constante cosmológica que actúa contra la gravedad, tal como evidencian experimentalmente las teorías cosmológicas de los últimos unos años.

En un artículo que publica la prestigiosa revista Physical Review Letters, los investigadores Jaime Haro y Jaume Amorós, del Departamento de Matemática Aplicada I de la UPC, retoman el modelo del universo introducido originalmente por Albert Einstein a finales de los años veinte en un intento de unificar la gravitación y el electromagnetismo, y aplicar esta teoría en cosmología. Los autores llegan a la explicación de dos de los principales dilemas de la cosmología actual: por qué el universo no presenta singularidades, a pesar de que la mayoría de modelos estándar predicen su existencia, y por qué la expansión del universo es acelerada, en lugar de ser decelerada como predice la cosmología basada en la teoría de la relatividad general de Einstein.

Para resolver el problema de la constante cosmológica de Einstein, los matemáticos españoles se han basado en la técnica matemática del teleparalelismo, que fue introducida en física por Einstein en los años 20. Los resultados de la investigación muestran un universo primitivo en el cual el Big Bang no existe y que evoluciona hasta nuestro universo actual, en el que una pequeña constante cosmológica actúa contra la gravedad para acelerar su expansión.

La teoría del Big Bang producido de acuerdo a la relatividad general, precedía que el universo tiene que ser de tamaño estático o expandirse con velocidad decreciente. Las observaciones astronómicas de los últimos años, cada vez más precisas, contradicen esta teoría clásica. Los astrónomos Perlmutter, Schmidt y Riess, que obtuvieron el premio Nobel de Física en 2011, ya descubrieron dicha contradicción en 1998. Las observaciones de estos científicos mostraban que el universo se expande con velocidad creciente. Ahora, los investigadores de la UPC han evidenciado esta última teoría con modelos matemáticos.


Fuente:

Muy Interesante 

19 de febrero de 2013

El 'efecto dominó' de los vuelos con retraso

Un panel muestra un vuelo retrasado en el aeropuerto de Barajas | E.M.

Un panel muestra un vuelo retrasado en el aeropuerto de Barajas | E.M.
Imagine coger un vuelo de Madrid a Río de Janeiro. Sale con retraso y despega dos horas más tarde de lo previsto. Ahora imagine que al llegar a Río de Janeiro otra persona tiene que coger ese mismo avión hacia Madrid. Al haber llegado con retraso, también despegará con retraso. Cuando se traslade a Madrid, y de ahí a cualquier otro destino, seguirá arrastrando ese retraso 'ad infinitum'.

Esa suerte de 'efecto dominó' del retraso de aviones, que estresa a pasajeros de todo el mundo, forma largas colas en los aeropuertos y tiene costes tanto económicos como medioambientales, no siempre es consecuencia de fenómenos exógenos, de acontecimientos fuera del alcance de controladores y pilotos. La rotación de la tripulación y las conexiones y escalas de los pasajeros de un avión a otro propagan sistémicamente los retrasos en la red áerea, lo que desencadena un efecto con consecuencias a escala global, según un estudio del CSIC publicado en la revista Scientific Reports.

Tras analizar datos de la Administración Federal de Aviación de Estados Unidos (FAA), las horas de salida y llegada de diversos aviones, y sus datos de puntualidad, los investigadores han confirmado que la congestión del espacio aéreo es un fenómeno colectivo. Esto es, que el retraso de un vuelo en su salida no únicamente afecta al siguiente que va a despegar, sino también influye sustancialmente en el aeropuerto de llegada. Esto crea un efecto dominó y "arrastra" la impuntualidad a los demás vuelos y demás aeropuertos, lo que eleva sustancialmente el retraso agregado o total del día a escala global.

"En base a los datos que obtuvimos de la FAA, que son públicos, hemos analizado qué es lo que ocurre, cómo se forman las congestiones", afirma Víctor M. Eguíluz, investigador del CSIC en el Instituto de Física Interdisciplinar y Sistemas Complejos de la Universidad de las Islas Baleares y responsable del estudio. "Lo siguiente ha sido, con esos datos, construir un modelo que reproduzca lo que vemos", añade el investigador. Este modelo, basado en la medida TAT (Turn Around Time), un modelo computacional que cuantifica el tiempo que tarda en estar operativo un programa informático una vez encendido, mide las variaciones temporales de un avión en tierra, el tiempo que está en tierra entre que aterriza y despega.

Los responsables del estudio descubrieron que, a pesar de que la falta de capacidad aeroportuaria y las condiciones meteorológicas influyen en el retraso, son los cambios de tripulación y las conexiones (escalas) de pasajeros los que lo aumentan en una escala global.

Lea el artículo completo en:

El Mundo Ciencia 

3 de febrero de 2013

Con modelos matemáticos, experimentan sobre el calentamiento global

Aunque los modelos matemáticos hoy se utilizan para predecir el calentamiento global, resultan insuficientes; constituyen la única herramienta para experimentar en torno al incremento de la temperatura atmosférica terrestre, coincidieron especialistas.

Carlos Gay García, Benjamín Martínez López, Arturo Quintanar Isaías y Jorge Zavala Hidalgo, investigadores del Centro de Ciencias de la Atmósfera (CCA) de la UNAM, resaltaron la importancia de reconocer las limitantes de esos esquemas numéricos, así como considerar la realización de pronósticos estacionales o anuales, más que por décadas o siglos.

Gay García, coordinador del Programa de Investigación en Cambio Climático (PINCC) de esta casa de estudios, refirió que el estudio en este ámbito es difuso, por lo que planteó el empleo de estrategias de modelación diferentes.

Al respecto, refirió la lógica difusa, que se adapta mejor al mundo real, y podría ofrecer alternativas a las fórmulas tradicionales, como información útil y entendible para los tomadores de decisiones, “que no necesariamente deben saber física para comprender lo básico”.

En tanto, Martínez López opinó que los modelos numéricos son necesarios para evaluar mejor los impactos de los cambios climáticos en el planeta, aunque éstos “para nada son una verdad, simplemente son una aproximación al mundo real y, como tal, con desventajas”.

La ciencia se basa en la experimentación, aunque no existe forma de ensayar con la Tierra; “habría que hacer experimentos en tiempo real y, desafortunadamente, todo lo que hiciéramos tendría efectos indeseables”.

Con los esquemas matemáticos se simula bien el calentamiento global, no así la precipitación, por lo que sugirió el uso de modelos regionales “para cuantificar un área determinada”.

Al exponer la importancia de los procesos oceánicos en el clima, Zavala Hidalgo indicó que son muchos los problemas ligados a la modelación matemática, desde el pronóstico de muy corto plazo, que no se hace en México, hasta el vaticinio adecuado de las condiciones de humedad de algunas regiones como la Cuenca del Papaloapan o de La Malinche, por ejemplo.

En su intervención, Quintanar Isaías hizo referencia a la importancia de aprender a reconocer las limitaciones que se tienen para predecir el clima y pensar un poco más en términos estacionales o anuales, más que por décadas o siglos.

En ese sentido, Carlos Gay consideró que si se habla de pronósticos a 30, 50 ó 100 años, “hacemos simulaciones o creamos escenarios, y no predicciones”.

Al hablar de la importancia del estado del suelo para simular el clima, Quintanar señaló que los cambios en la humedad de aquél dan lugar a variabilidades en la atmósfera, y pueden conducir a modificaciones importantes en el viento y en el régimen termodinámico de la capa límite planetaria. Por ello, concluyó, es necesario incluir en los pronósticos de ensamble regional la incertidumbre en las condiciones del mismo.

Tomado de:

Ciudadanía Express

Esta es la fórmula matemática de la guerra

Un investigador del CSIC construye desde hace años modelos matemáticos que sirven para explicar, y predecir, por qué en un país estalla una guerra civil.




¿Se puede condensar el porqué de una guerra en una simple ecuación? ¿Es posible emplear las matemáticas para anticiparse a un conflicto social? ¿Hay alguna fórmula que vaticine una matanza étnica? El economista Joan Esteban cree que sí, y a tal empeño lleva dedicándose en las últimas décadas. Profesor de la Autónoma de Barcelona y del Instituto de Análisis Económico (perteneciente al CSIC), Esteban tiene la pasión y las maneras de un sabio, alguien que sabe que trabaja en un área de conocimiento a veces difícil de comprender, la que trata de vincular algo a veces tan irracional como el comportamiento humano con un modelo matemático, una aproximación científica al origen de las guerras.

¿Cómo se hace? La base del trabajo de Esteban —en equipo junto a los profesores Debraj Ray, de la New York University, y Laura Mayor, del CSIC— parte del tratamiento de datos estadísticos de 138 países en el periodo 1960-2008: estructura social, étnica y económica, grado de cohesión y de libertad individual, apertura religiosa, «ganancias» y «pérdidas» tras un conflicto... todo tabulado a través de un complejo modelo matemático que, en última instancia, permite establecer un índice de riesgo, algo así como un predictor de conflictos país a país.

240 conflictos

Su trabajo ha merecido la atención de la revista «Science», que ha publicado la investigación. «Los economistas rara vez tenemos cabida en “Science”. Es importante porque supone un reconocimiento a nuestro trabajo», explica a ABC Joan Esteban, premio Rey Jaime I de Economía en 2007. Las conclusiones de su investigación, y el análisis prospectivo que de ello puede hacerse, resultan apasionantes. «Desde el final de la Segunda Guerra Mundial, el número de conflictos en el mundo asciende a unos 240, y más de un tercio de los países se han visto implicados», explica Esteban. 

De los 240 casos registrados, sólo 22 tienen carácter internacional, es decir, las guerras son mayormente conflictos civiles internos. Las razones que las explican responden a un patrón. «La visión marxista de que el choque de clases, la desigualdad económica, explican la conflictividad ha fracasado por completo. Nunca se ha podido demostrar científicamente», precisa Esteban, cuya investigación ha determinado, en cambio, que es el «choque étnico y religioso» y, sobre todo, el grado de «polarización» entre los distintos grupos, lo que explica el origen de las guerras. 

No todo es tan simple, claro: «Las variables étnicas son determinantes, pero por sí solas no explican un conflicto, históricamente esas diferencias han sido instrumentalizadas. Los resultados empíricos demuestran que los conflictos étnicos no tienen su origen en diferencias culturales profundas u odios irracionales, sino cuando se conjugan con la abundancia de recursos apropiables». De alguna forma, una reformulación de la superada visión marxista. «En el fondo detrás de todo hay una racionalidad implacable, beneficio económico y político, que acaba siendo lo mismo», asume el profesor Esteban.

Guerra por venir

El mapa que dibuja el índice de conflictividad de Esteban y su equipo marca en rojo las zonas más calientes del planeta. El prototipo de país en peligro de conflicto responde a un patrón claro: «Étnicamente diverso, con abundancia de recursos naturales y regímen autocrático», un cóctel explosivo, vaya. La Europa occidental, y España en concreto, están, por fortuna, en las antípodas. 

Sin embargo, la crisis y la conflictividad que genera, nos conducen a un panorama cambiante. «Hay que seguir estudiando», reconoce Esteban, presto ya a recopilar cifras y tabular estadísticas para intentar explicar por qué los humanos nos seguimos matando unos a otros.
Fuente:

9 de noviembre de 2012

Matemáticas: Predijo la victoria de Obama y ahora es una celebridad

Nate Silver

Nate Silver es economista especializado en estadística. 

No es periodista. No es político. Es Nate Silver, el estadístico que predijo -número por número, estado por estado, con una exactitud sin precedentes- la victoria de Barack Obama en las elecciones presidenciales de EE.UU. este martes.

Le llovieron críticas antes de las elecciones. Desde la izquierda y la derecha varios political pundits ­­-como les llaman a los expertos en política que suelen hacer este trabajo- reprocharon sus predicciones basadas en análisis de encuestas. 

Dylan Byers, en el popular blog Politico, catalogó a Silver como "una celebridad de un periodo". Joe Scarborough, un presentador de televisión, dijo: "Cualquiera que piense que esta elección no es un tiro de moneda es un ideólogo y debería estar lejos de un tecleado por los próximos 10 días". El presentador de Morning Joe le apostó a Silver US$2 mil a que se iba a equivocar. Y Michael Gerson, columnista del Washington Post, dijo que "su sistema es trivial" y "no debería considerarse una innovación".

El martes, sin embargo, la prensa puso a Silver como otro ganador de las elecciones. "Ganaron los nerds", dijo el blog de tecnología Mashable. "Silver la clava", dijo Salon. Personalidades como el Nobel Paul Krugman, la periodista Arianna Hufftingon y el analista de medios Michael Wolff celebraron la victoria de Silver.

A diferencia de los expertos que predijeron una elección muy reñida y sin un ganador claro, Silver dijo que Obama tenía 90% de chance de vencer y acertó el ganador en cada uno de los 50 estados. Incluso en los momentos en que Romney parecía el ganador, Silver se mantuvo firme en sus predicciones y se enfrentó a todos los pundits que hoy, según la revista Slate, "le deberían pedir perdón". 

Pero, ¿qué es exactamente lo que hace el estadístico Nate Silver? ¿Por qué su trabajo es importante? Y ¿se puede considerar una innovación?

Modelo estadístico

Un politólogo y profesor de estadística del London School of Economics, Kenneth Bunker, le explicó a BBC Mundo el trabajo de predicción electoral que hace el estadounidense Nate Silver.

Primero, suma una inmensa cantidad de encuestas sobre los candidatos y saca un promedio. Pero no es un promedio simple. En el momento de sumar, tiene en cuenta tres variables distintas: el momento en que se publica determinada encuesta, dándole más relevancia a las que están más cerca del presente; el margen de error, priorizando las pesquisas que más gente encuestan; y la calidad, dándole más peso a las encuestas que históricamente suelen ser más precisas.

Predicción de Nate Silver

Tal vez la estimación más controverisial de Silver fue esta: que Obama tenía 90% de chance de ganar.

En segundo lugar, Silver hace un estudio de cada uno de los estados donde se define la elección estadounidense, la cual se determina no según el número de votos sino de acuerdo el número de delegados que representa cada estado. En ese análisis local, Silver tiene en cuenta la elección de senadores, la participación histórica, la ventaja del candidato que está en el poder y los factores demográficos, que estudia por medio de una regresión lineal: por ejemplo, si el porcentaje de latinos sube en un estado, esto es relevante.

Silver le asigna importancia a cada una de las variables y lo vuelve todo un modelo estadístico que, como un algoritmo, solo requiere introducir la información en un software y después analizar los resultados.

"No es que Silver conozca cada estado a la perfección", le dijo Bunker a BBC Mundo. "Pero tiene los datos necesarios de cada uno y los estados péndulos, que sí son muy variables, los analiza en detalle".

clic Lea también: Los campos de batalla de las elecciones en Estados Unidos

¿Nuevo?

La mayoría de los reproches al fenómeno Nate Silver se basaron en que su análisis estadístico no es una novedad.

Rob Waller, fundador de la aplicación de análisis de Twitter, Status People, le dijo a BBC Mundo: "Aunque el trabajo de Silver es asombroso, la agregación de grandes porciones de datos se viene haciendo hace años".

De hecho, estadísticos como Josh Putnam, de la universidad de ciencias sociales Davidson College, y Sam Wang, de la Universidad de Princeton, trabajan de una manera similar y lograron predicciones tan acertadas como la de Silver.

Hijo de un político, el primer contacto que tuvo Silver, de 34 años de edad, con las estadística fue en el béisbol. Se inventó un modelo para comprar jugares -parecido al que se ve en la historia de la película Moneyball- para predecir el rendimiento y determinar el precio de un jugador.

Libro de Nate Silver

Nate Silver publicó un libro este año. Se titula "La señal del sonido: por qué la mayoría de predicciones falla, pero algunas no"

Silver empezó a usar su modelo de predicción de elecciones en el blog político Daily Kos y predijo las elecciones presidenciales de 2004 con una enorme exactitud: acertó 49 de los 50 estados.

En 2010 entró a The New York Times, donde hoy escribe el blog -FiveThirtyEight, o 538- que según se ha reportado es responsable del 20% del tráfico de la página web del popular periódico.

Es matemáticas, no opiniones

"Lo que lo hace distinto a Silver es que está en el New York Times, que es un medio masivo, y se ha convertido en la celebridad del momento", dijo Bunker. "Gracias a eso ha podido masificar un conocimiento que no salía de los libros de teoría estadística y ensayos académicos".

Por otro lado, Waller dijo: "Las predicciones de Nate no son tan controversiales como todos piensan. Muchos predijeron la victoria de Obama hace semanas".

Pero tal vez no con tanta exactitud.

"Las encuestas por sí solas no son muy confiables", dice Bunker, "pero el aporte de Silver es que las vuelve relevantes y objetivas; les da un valor estadístico.

"En ciencia política no se suelen hacer presunciones, que es una necesidad de la estadística, que hace presunciones a partir de complejos modelos matemáticos.

"A diferencia de los political pundits, Silver no da opiniones", a pesar de ser un demócrata declarado. "Lo que hace es matemática simple, habla de evidencia", concluyó Bunker. 

Y Waller dijo: "Su trabajo es una prueba de que el análisis de grandes porciones de datos llegó para quedarse".

Fuente:

BBC Ciencia

Contenido relacionado
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0