Latest Posts:

19 de diciembre de 2013

Alumnos asiáticos: Máquinas de estudiar...

ABC (diario de España) visitó uno de los institutos de Shanghái que lideran el informe Pisa. Sus alumnos estudian desde las 8:00 de la mañana hasta las 9:30 de la noche.

 

Alumnos chinos del instituto Jincai de Shanghái 
Hijo único de dos funcionarios del Gobierno, el adolescente Cai Zhendong estudia en el instituto público Jincai de Shanghái, uno de los que han participado en las pruebas del informe PISA de educación que ha evaluado a medio millón de estudiantes de 65 países. Como en 2009, los alumnos de esta ciudad china han vuelto a obtener los mejores resultados del mundo en sus tres categorías: matemáticas, lectura y ciencias.
Tan sobresaliente logro se explica perfectamente a la vista de la vida que llevan los escolares chinos como Cai Zhendong, que parece más propia de una cárcel o un cuartel que de un colegio. Interno a sus 16 años en el instituto Jincai, se levanta de lunes a viernes cuando suena la campaña del centro a las seis y media de la mañana. Tras hacer la cama de la litera con pupitre que ocupa en un cuarto compartido con otros cinco estudiantes, asiste a las siete a una clase de 20 minutos para repasar y preparar el día antes de desayunar. Con edades comprendidas entre 16 y 18 años, los alumnos de los institutos chinos estudian nueve asignaturas: matemáticas, física y química, literatura, inglés, geografía, historia, biología, política y tecnología, más otras materias optativas como dibujo, música o ajedrez.

Masajes y ejercicio diario

A las ocho empiezan las cinco clases de la mañana, que duran 40 minutos y se compaginan con media de hora de ejercicios físicos en los que participan los 1.500 alumnos del instituto, que inundan el campo de césped del instituto. Pero, cuando la contaminación está tan alta como estos días, en los que una espesa niebla cubre la ciudad y oculta el «skyline» con los futuristas rascacielos de Pudong, hacen deporte en el gimnasio.
A partir de las doce y cuarto, tienen 45 minutos para almorzar en el comedor y luego media hora de descanso antes de retomar las tres clases de la tarde hasta las cuatro, que vuelven a intercalar con otra sesión de deporte de 25 minutos y unos ejercicios de relajación en los que se masajean las sienes para evitar la fatiga en los ojos.
A las cuatro y diez acaban las clases, pero eso no significa que los alumnos terminen el estudio ni abandonen el aula, ya que hasta las cinco se imparte alguna asignatura optativa. En el caso de Cai Zhendong, ha elegido experimentos químicos.
La cena se sirve a las cinco de la tarde y, una vez terminada, los escolares vuelven al aula a las seis para ver el telediario vespertino de la televisión estatal CCTV, auténtico lavado de cerebro de la propaganda del régimen. Tras recibir durante una hora su dosis diaria de ideología comunista «con características chinas», permanecen en el aula estudiando hasta las nueve y media de la noche. En ese momento regresan a los dormitorios y tienen media hora para ducharse antes de que se apaguen las luces a las diez.

Sábados, clases de refuerzo

Para impedir que los chavales charlen o jueguen hasta altas horas de la madrugada, un vigilante recorre las habitaciones, pero Cai Zhendong asegura que, al final del día, «estamos tan cansados que caemos dormidos enseguida y ni siquiera hablamos entre nosotros». Los fines de semana regresa a casa con sus padres y aprovecha para «dormir más y acumular horas de sueño para la semana», pero también debe hacer tareas. Además, la mayoría de los estudiantes chinos, internos o no, tienen los sábados y domingos repletos de clases privadas de refuerzo.
«La educación se toma aquí más en serio que en Occidente porque hay tanta gente en China que la competencia para conseguir un trabajo es muy dura», compara Tian Hong, la profesora de matemáticas de Cai Zhendong. Con 31 años de experiencia, asegura que «la enseñanza china ha pasado de basarse sobre todo en la memorización a buscar más la motivación y participación del alumno», al menos en Shanghái, que desde hace dos décadas controla su propio sistema educativo y tiene unos libros de texto distintos a los del resto del país. Pero, aun así, reconoce que «las clases en China no pueden ser muy participativas porque tenemos una media de 45 estudiantes por aula y muchas materias que enseñar». A tenor de la maestra Tian, «los alumnos no vieron muy difíciles los exámenes de PISA porque se parecían a los que vienen haciendo en nuestros colegios, donde intentamos explicar las matemáticas con aplicaciones a la vida cotidiana para hacerlas más digeribles».

Lea el artículo completo en:

Un premio nobel llama al boicot contra las grandes revistas científicas

Randy Schekman, un biólogo de EE.UU. galardonado este martes con el Premio Nobel de Medicina, aseguró que su laboratorio ya no enviará más trabajos de investigación a "las revistas de primer nivel", como 'Nature', 'Cell' o 'Science'.


"He publicado en las grandes revistas, incluso documentos que me han llevado a ganar un Premio Nobel. Pero eso se acabó", declaró Schekman al diario 'The Guardian'.

"Al igual que Wall Street tiene que romper el dominio de la cultura de los bonos, la ciencia debe romper la tiranía de las revistas de lujo", agregó. Schekman, quien recibió el premio conjuntamente con los científicos James E. Rothman y Thomas C. Südhof, señaló asimismo que la presión existente por publicar en revistas 'de lujo' anima a los investigadores a buscar campos de moda en la ciencia en vez de realizar trabajos de investigación sobre temas realmente importantes.

En opinión del investigador, el problema se ve agravado por los editores, que no son científicos, y que favorecen la realización de estudios que puedan tener un gran impacto en términos de lectores.

Schekman critica a 'Nature', 'Cell' y 'Science' por restringir artificialmente el número de trabajos que aceptan, una política que, dice, alimenta la demanda "de la misma manera que los diseñadores de moda que crean bolsos de edición limitada".

Asimismo, el biólogo arremetió contra una práctica generalizada llamada 'factor de impacto', utilizada por muchas revistas de 'primer nivel' para aumentar las ventas. El factor de impacto de una revista mide la frecuencia con la que se citan sus trabajos, y se utiliza como indicador de calidad.

Sin embargo, para Schekman esta práctica supone para la ciencia una "influencia tóxica" que "introduce una distorsión", ya que: "Un estudio puede ser muy citado porque es riguroso o simplemente porque es llamativo o provocativo, aunque sea incorrecto".

Fuente:

Actualidad RT

18 de diciembre de 2013

George Soros, el magnate detrás de la legalización de la marihuana en Uruguay

George Soros

Soros: "Tenemos que experimentar y Uruguay es uno de los países experimentando".

Hay varios puntos que separan a quienes están a favor y en contra de legalizar la marihuana en las Américas, pero existe uno en el que todos parecen coincidir: el magnate George Soros y su Open Society Foundations se han vuelto actores claves en el tema.

El nombre del húngaro-estadounidense de 83 años resonó en el debate sobre el cannabis en Uruguay, tras conocerse que Open Society financió una campaña a favor de la ley que la semana pasada convirtió a ese país en el primero en legalizar el comercio de la droga.
Soros, un controvertido inversionista, especulador y filántropo que en 1992 contribuyó a provocar una devaluación de la libra esterlina, también se reunió en septiembre con el presidente uruguayo, José Mujica, para discutir su iniciativa respecto a la marihuana.

"Como él tiene influencia en algunas ONG importantes, estuvo colaborando y va a seguir colaborando en eso", declaró Mujica al finalizar ese encuentro en Nueva York.

clic Lea: Uruguay legaliza producción y venta de marihuana

Fundada y presidida por Soros, Open Society financia también grupos que impulsan cambios en la estrategia sobre cannabis en la región y Estados Unidos, incluida la Comisión Global sobre Política de Drogas que integran los expresidentes Fernando Henrique Cardoso (Brasil), Ernesto Zedillo (México) y César Gaviria (Colombia), entre otras personalidades.

"Open Society ha sido un actor muy clave dando apoyo a grupos de la sociedad civil que buscan promover una apertura" en la política de drogas, le dijo a BBC Mundo John Walsh, un experto de la Oficina en Washington para Asuntos Latinoamericanos (WOLA), que también recibe donaciones de la fundación de Soros.

Pero, ¿por qué un octogenario considerado entre los hombres más ricos del mundo tiene tanto interés en la política regional de drogas?

Lea el artículo completo en:

BBC América Latina

¿Son los humanos los únicos animales que dan regalos?

Regalos

No estamos solos en ese comportamiento: hay muchas otras especies que intercambian presentes, muchas veces con los mismos motivos que nosotros.

Según los investigadores, hay varios tipos de aves en las que el macho intenta conquistar una pareja potencial presentándole una variedad de regalos comestibles durante el cortejo.

Pero parece que no siempre hay intereses creados. En un experimento realizado en la Universidad de Duke, Carolina del Norte, en EE.UU., los científicos llevaron a un chimpancé bonobo a un cuarto con una variedad de comida. En lugar de acaparar todo el alimento, el mono repetidamente abrió una puerta para compartir la comida con otro bonobo desconocido.

Es más raro encontrar animales que comparten regalos con otras especies pero podríamos tener un ejemplo de eso a nuestros pies.

Si usted tiene un gato que constantemente trae las presas que caza dentro de la casa, realmente está siendo muy cariñoso.

El felino se habrá percatado que usted tiene una capacidad limitada como cazador nato y habrá tomado la iniciativa de hacer el trabajo por los dos.

Fuente:

BBC Ciencia

2013: Google publica los términos más buscados en el Perú





Para los peruanos fue importante saber cómohacer cupcakes, empanadas, fondant, emoticones, muffins, mayonesa, gelatinas, carátulas y Twitcam, según la sección "Cómo" de Google Zeitgeist.



Las tendencias más marcadas en Google durante 2013 fueron el ONPE (Oficina Nacional de Procesos Electorales), Agüita de coco, Corea del Norte, Dakar 2013, Harlem Shake, Esto es Guerra, Hugo Chávez, la Voz Perú, Asu mare y Nene Malo.


Lo más buscado en Google Perú fue la entidad recaudadora de impuestos Sunat, el portal  Comercio, BCP (Banco de Crédito del Perú), Computrabajo, el sitio RPP y la web deportiva Depor.


Busca más de Google Perú aquí.

Fuentes:




BBC: ¿Nos ganó ya la Inteligencia Artificial?

Arimaa

Arimaa
  • Se juega en un tablero con cuatro cuadrados que se distinguen conocidos como "casillas de trampa"
  • Dos jugadores, el dorado y el planeado, controlan 16 fichas: un elefante, un camello, dos caballos, dos perros, dos gatos y seis conejos
  • El juego puede ganarse de tres maneras: moviendo un conejo a la octava fila en el tablero; capturando todos los conejos del enemigo; dejando todas las fichas del opositor congeladas o bloqueadas
Robot jugando ajedrez, cerebro al lado

En 1968, el maestro en ajedrez David Levy apostó que para 1978 ninguna computadora sería capaz de vencerlo en una serie de juegos. Y ganó la apuesta.
De hecho, se mantuvo invicto durante casi toda la década de los 80. "Después de que gané el primer combate, hice otra apuesta que cubría un período de cinco años. Luego dejé de apostar: para entonces, ya podía anticipar lo que se venía".
Hoy en día, sería absurdo que el mejor jugador del mundo, Magnus Carlsen, hiciera una apuesta similar a la de Levy.

El progreso de las computadoras en el campo del ajedrez ofrece una lección sobre la manera en la que la gente piensa respecto al futuro de la inteligencia artificial.

Dominio total de las fichas

El hombre que acuñó la expresión "inteligencia artificial" (IA) -el científico estadounidense John McCarthy- se dio cuenta desde el principio que los juegos como el ajedrez y otros así de complejos eran una buena manera de medir el progreso de las máquinas.

"Hay una medida absoluta y una meta para superar", le dice Levy a la BBC. "En muchos juegos hay sistemas de clasificación, por eso los juegos son un buen vehículo para la IA. Jugar requiere una combinación de habilidades que incluyen la inteligencia".

McCarthy supervisó la creación del primer programa de ajedrez que jugaba de manera convincente. Para 1962, el programa -Kotok-McCarthy- era tan bueno como un jugador humano mediocre. Pero luego perdió su primer juego entre computadoras contra su rival ruso.

El partido engendró una tradición de batallas entre máquinas que eventualmente llevó al Campeonato Mundial de Ajedrez por Computador. Durante 40 años, los programadores han estado batallando entre sí.

Pero no sólo es ajedrez. En 2007, un equipo encabezado por Jonathan Schaeffer de la Universidad de Alberta, Canadá, "resolvió" el juego de damas. Es decir, encontró que si ambas partes juegan perfectamente, el resultado es un empate. Tomó 18 años de cálculos computarizados hacer este hallazgo.

La bella imperfección

Garry Kasparov

En 1997, la computadora Deep Blue de IBM venció a Garry Kasparov.

Los entusiastas de juegos que han sido dominados por los computadores ocasionalmente sienten nostalgia por la era anterior a las máquinas.

Durante el reciente Campeonato Mundial de Ajedrez, en el que el prodigio noruego Carslen se coronó como el mejor del mundo, un comentador usó la frase: "Un movimiento muy humano".

La cuestión es que los humanos cometemos errores. Y las fallas más sutiles, los movimientos "subóptimos", pueden originar bellas situaciones.

Por otro lado, los errores terribles que comenten los mejores humanos -como los goles perdidos en fútbol- alivian un poco el complejo de inferioridad del resto de los mortales.

El ex campeon mundial Vladimir Kramnik fue el autor de una de las meteduras de pata más famosas en ajedrez, cuando en una partida contra una computadora en 2006 no se percató de un jaque mate obvio. Fue uno de esos errores que ni un novato de ocho años de edad comete.

Las computadoras nunca son tan divertidas.

Lea el texto completo en:

BBC Ciencia

BBC: ¿Por qué odiamos los químicos?

Sodio reacciona con agua

Cuando el sodio entra en contacto con el agua estalla... ¡un gran truco!

La química está en todas partes... ¿por qué nos asusta tanto entonces?

Realmente disfruto de mi trabajo: soy un químico en el círculo académico. Puedo revolcarme en el fascinante mundo de la investigación científica y luego transmitirle mi pasión a mentes jóvenes.

Y es incluso mejor que eso: soy un académico al que dejan salir de la torre de marfil e ir a colegios, centros comerciales y festivales a presentar la química más entretenida.

Echo nitrógeno líquido por todas partes, enciendo bombas de hidrógeno como si fueran mini Hindenburgs y lanzo cohetes impulsados por etanol.

La química es entretenida.

Siendo así, ¿por qué le tememos a los químicos?

Para construir el mundo

Jugo de naranja y cristales de E300

La vitamina C, buena; E300, malo; la razón, confusa.

La mera palabra "químico" a menudo es sinónimo de toxinas o veneno. Usamos frases como "está lleno de químicos" para decir que algo es artificial y, por ende, malo.

Etiquetas sin sentido, como "sin químicos", se ven en productos que venden en las tiendas de alimentos sanos. A nadie parece importarle: cuando puse una queja ante la autoridad de estándares de publicidad británica me respondieron que los consumidores entienden que eso significa "libre de químicos sintéticos".

Yo, por mi parte, no entiendo la distinción. ¿Por qué son peores los químicos sintéticos que los naturales? ¿Por qué el aditivo sintético E300 es considerado malo mientras que la vitamina C que le añaden a su jugo de naranja, buena? (A pesar de que son la misma cosa).

La química es fascinante precisamente porque se puede usar para sintetizar nuevas cosas. Es como un Lego molecular. El que todo esté hecho de poco más de 100 componentes básicos es extraordinario.

Sólo con echar químicos en una olla de la manera indicada se puede construir el mundo que nos rodea.

Reputación terrible

Entonces, ¿por qué la química es la chica mala de las ciencias? ¿De dónde viene esa 'quimifobia'?

Brian Cox

La física tiene a Brian Cox de su lado, así como las estrellas y el Colisionador de Hadrones.

La biología no tiene una mala reputación, todo lo contrario. La biología tiene animales y plantas asombrosas, el proyecto del genoma humano y a David Attenborough. Es natural y buena.

¿Y la física? Todas las estrellas, rayos láser y la máquina más impresionante que se haya construido jamás: el Gran Colisionador de Hadrones. Y esas maravillas del Universo son presentadas por Brian Cox (que además de físico, solía ser rockero)... ¡difícil ser más atractivo que eso!

Y luego está la química que, por reputación, tiene polución, veneno y armas tan terribles que justifican la existencia de una organización galardonada con el Premio Nobel para controlarlas. Lo más cercano a una celebridad con lo que cuenta viene de la serie "Breaking Bad", en la que Walter White -un profesor de química que se convierte en un capo del mundo de las drogas- usa sus conocimientos enciclopédicos de química para sintetizar drogas, envenenar a sus enemigos y disolver los cuerpos de sus víctimas.

Realmente no hace mucho para combatir la quimifobia.

En defensa de la química

Para mí, la mala reputación de la química es algo muy raro.

Considere las estimadas 1.300 muertes en Siria víctimas de un ataque con gas sarín. Fueron, por supuesto, absolutamente terribles. Sin embargo, ¿por qué son peores que las estimadas 100.000 muertes causadas por armas físicas convencionales?

Y más cerca de casa, ¿cuál es la causa más probable de lesiones o enfermedades? Estoy dispuesto a apostar que si tuvo que quedarse en cama recientemente fue debido a algún bicho biológico o herida física, no a algún envenenamiento relacionado con químicos.

¿Y qué se toma para aliviar los síntomas de ese resfrío "natural", torcedura de tobillo o dolor de cabeza? Algún analgésico químico, por supuesto.

Considere

Mark Lorch haciendo un experimento

Otro experimento explosivo: meter una galleta en oxígeno líquido.

Es cierto que los químicos pueden ser peligrosos. Mi abuelo, que era horticulturista me lo enseñó. Tenía un laboratorio en el que con los años acumuló lo necesario para experimentar con sus plantas. Para un niño de 10 años, loco por la química, era como la cueva de Aladino.

Algunos abuelos le dan a los nietos dulces. El mío no. Cuando nos portábamos bien, sacaba su sodio metálico y con sus largas pinzas lo metía en un balde de agua: ¡FIZZZZ, BANG!

Usted quizás tuvo un profesor de química al que también le gustaba ese truco. Créame, mi abuelo lo hacía más grande y mejor.

Lea el artículo completo en:

BBC Ciencia

17 de diciembre de 2013

Descubren tumba con los misterios del Chimú tardío

Entierro en Nepeña, Áncash, evidenciaría presencia inca en la zona hacia el año 1450.





El descubrimiento sucedió cuando los arqueólogos Matthew Helmer y Jeisen Navarro investigaban sobre cómo los antiguos chimúes construían sus ciudades en Samanco, distrito de Áncash. En una zona arqueológica con edificaciones de piedra, un hueco con adobes los intrigó. Fue en agosto pasado que decidieron limpiar esta área que ya había sido huaqueada. 

Mira el informe de National Geographic aquí

Empezaron a aparecer textiles, piezas completas de cerámica, cuentas de piedras preciosas y conchas.

Cinco metros más abajo, apareció una tumba. Era un mausoleo con tres cámaras. Pese al saqueo aún estaba el personaje principal con dos cráneos más. En la tumba derecha, los restos de otras dos personas. En la izquierda, huesos de llamas y alimentos. Helmer y Navarro sabían que estaban frente a un miembro de jerarquía.

No sería cualquier personaje: por las 20 quenas halladas, así como por los silbadores y piezas de madera pacay con forma de personas tocando quena, se trataría de un músico de élite. Los otros personajes serían mujeres hilanderas.

Navarro, director del proyecto, calcula que la tumba sería de 1450 d.C, por la influencia inca reflejada en el entierro, con nichos trapezoidales, y por ciertas cerámicas en forma de aríbalo. Según dice, es una de las pocas tumbas excavadas de la época Chimú-Inca.

“Este descubrimiento es una mezcla del mundo chimú e inca. Es muy probable que los incas utilizaran caciques locales para administrar provincias como esta en el valle de Nepeña”, dice Helmer, quien hizo esta investigación gracias a la beca de National Geographic/Waitt.

El reconocido arqueólogo Walter Alva ratifica la importancia del descubrimiento. “No hay mucha información sobre los patrones de enterramiento chimú y este es uno de élite”, dijo.

Fuente:

El Comercio (Perú)

El logaritmo neperiano no usaba la base e

Si no recuerdas lo que es un logaritmo, aquí podrás recordarlo, saber para qué se inventaron y conocer su historia. Si ya sabes lo que es, podrás descubrir que la definición original de logaritmo neperiano no usaba la base e. Y que después la definición se simplificó y pasó a usar la base 10. Y que en realidad la base e sólo estaba escondida en una de las tablas de un apéndice a una traducción del original... y que no parece que esa tabla la escribiera Neper. Después de todo, a lo mejor empiezas a llamarlo logaritmo natural.


Puede que no haga falta recordarte lo que es un logaritmo, pero quizá no te acuerdes y te apetezca recordarlo. Veamos un ejemplo: ¿Qué exponente tienes que ponerle a la base 10 para obtener como resultado 1000? La respuesta es 3, porque 103=1000.

Por eso se dice que el logaritmo en base 10 de 1000 es 3, y se escribe


log101000=3.

Cuando usas la base 10, como en este ejemplo, estás trabajando con el logaritmo decimal. Pero tu base puede ser cualquier otro número.

Por ejemplo, también es muy habitual usar como base el número e, porque los logaritmos con esta base tienen propiedades útiles cuando se trabaja con límites, derivadas, integrales y series. Al logaritmo en base e se le suele llamar logaritmo natural o logaritmo neperiano... aunque quizá este último nombre no sea tan apropiado.

Lo de "neperiano" viene de John Napier (o Neper), un matemático escocés que vivió entre 1550 y 1617 y está considerado el inventor de los logaritmos (puede que el relojero suizo Joost Bürgi lo hiciera antes, pero no lo publicó).

Retrato de John Napier

Retrato de John Napier

Por aquel entonces (sin calculadoras ni ordenadores) multiplicar números grandes requería bastante esfuerzo, así que los científicos (sobre todo los astrónomos) suspiraban por una herramienta que permitiera hacer esas operaciones más rápidamente... Y eso es precisamente lo que hacen los logaritmos, que tienen el "superpoder" de convertir un producto en una suma

log(xy)=log(x)+log(y)

y esto facilita mucho las cosas; si te dan a elegir entre hacer una suma o una multiplicación, seguro que eliges la suma.

En realidad el bueno de Napier no definió su logaritmo usando bases y exponentes, como en nuestros ejemplos (esa notación se hizo estándar años más tarde). Su definición usaba dos partículas moviéndose por líneas paralelas para relacionar una progresión aritmética con una progresión geométrica. De ahí viene el nombre de logaritmo, por logos (proporción) y arithmos (números), que acuñó al publicar sus trabajos en 1614.

Portada del trabajo original de John Napier de 1614

Mirifici Logarithmorum Canonis Descriptio

En notación moderna, usando bases y exponentes como en nuestros ejemplos, el logaritmo definido por Napier sería

log11107(x107)

Por un lado, al tener x dividido entre 107 no tenía el "superpoder" de convertir productos en sumas (aunque para conseguirlo sólo le hacía falta un poco de ayuda).

Por otro lado, la base de este logaritmo original de Napier era 11107=0.9999999 ¡¡y no el número e2.718281828!!

El primer problema se resolvió un año más tarde, cuando el matemático británico Henry Briggs convenció a Napier para modificar sus logaritmos y usar lo que ahora sería log10(x). Pero este nuevo logaritmo tampoco usaba la base e...

La historia sigue; como la mayoría de los trabajos científicos de la época, Napier había publicado sus resultados en latín. Fue otro británico, el matemático y cartógrafo Edward Wright, quien se encargó después de traducirlo al inglés. De esta traducción se publicaron dos ediciones, una en 1616 y otra en 1618.

Portada de A Description of the Admirable Table of Logarithmes

A Description of the Admirable Table of Logarithmes (edición de 1618

Si algunas palabras o números no se distinguen con claridad puedes acceder a loa versión original AQUÍ.

Hasta la introducción de los logaritmos, para multiplicar números rápidamente se usaba un método llamado prostaféresis, que se basaba en el uso de funciones trigonométricas.

Si quieres saber más sobre la historia de los logaritmos, puedes leer Logarithms: The Early History of a Familiar Function, también en la página de la Mathematical Association of America.

Si prefieres algo en español, puedes consultar Historia de los logaritmos, de Xavier Lefort.

Si lo que quieres es bucear en los trabajos de Napier, puedes encontrarlos en la página johnnapier.com o leer el artículo Remembering John Napier and His Logarithms, de Michael A. Lexa.

Si te interesa la historia de los logaritmos, pero también la del resto de las matemáticas, puedes consultar el libro A History of Mathematics, de Uta C. Merzbach y Carl B. Boyer.

También puedes aprender con la reseña del film Logaritmo neperiano: una probabilidad entre un millón en la sección "Cine y matemáticas" que Alfonso Población escribe en Divulgamat.
Fuente:

Cifras y Teclas

16 de diciembre de 2013

Ojo: Correlación no implica causalidad

Correlación no implica causalidad, hay que decirlo más (si queréis, con la entonación que Ernesto Sevilla le daba a cierto insulto muy español en cierto vídeo que fue un fenómeno de internet hace un tiempo…). Y hay que decirlo más porque en general no llegamos a comprender qué significa esta frase. Bueno, o eso o que aun comprendiéndola intentamos confundir a quien no la entiende haciéndole creer que una cosa sí que implica a la otra.

Prácticamente a diario nos encontramos en (principalmente) medios de comunicación noticias cuyo titular tiene una estructura parecida a algunos de los siguientes:
Un estudio afirma que cuanto más A más B.
Un estudio afirma que quienes son A tienen menos B.
Un estudio afirma que dado que A es así entonces B es de esta otra forma.
En principio, todos esos titulares indican básicamente que lo que dice A es lo que provoca que ocurra B, o, lo que es lo mismo, que B es consecuencia de A. Normalmente, cuando uno se lee esas noticias, acaba dándose cuenta de que lo que hay es una correlación entre A y B (vamos, una relación entre esos dos sucesos), pero, en principio, sin ningún indicio de que sea uno de ellos, A en este caso, el que provoca el otro, B.

El estudio de la correlación entre dos variables es uno de los temas que se trata en Estadística. Resumiendo un poco, la cuestión sería algo como lo siguiente:
- A partir de ciertos datos obtenidos de cada una de esas variables uno estima si hay alguna relación entre ellas. La que se estudia con mayor frecuencia es la llamada regresión lineal (mediante la que buscamos si hay relación lineal hay entre las variables), pero hay muchos más tipos posibles: cuadrática, exponencial, logarítmica…
- Con esos datos se calcula una función (que, por ejemplo, en regresión lineal es una recta) que nos determina exactamente qué relación hay entre esas variables.
- Se estudia la correlación real entre ellas (es decir, cómo de fuerte es la relación que habíamos estimado a partir de los datos iniciales) mediante un coeficiente de correlación.
Este coeficiente suele tomar valores entre -1 y 1, y se interpreta de la siguiente forma:
  • Cuanto más cerca de 1 esté, mayor correlación positiva (es decir, que cuando aumenta una también lo hace la otra) hay entre las variables.

  • Cuanto más cerca de -1 esté, mayor correlación negativa (es decir, que cuando aumenta una disminuye la otra) hay entre las variables.

  • Cuanto más cerca de 0 esté, menor correlación hay entre las variables.
Ahora, que la relación entre las variables sea muy fuerte (esto es, que sea casi 1 o casi -1) no significa que una de ellas sea la causa de la otra. En ningún sitio esta teoría nos deja asegurar con tanta ligereza que el hecho de que haya una correlación muy fuerte entre A y B significa que la variable A es la que está provocado que se presente la variable B. La teoría habla de relación entre las variables, no de que una sea la causa de la otra. Por cierto, buenísima esta tira de XKCD sobre el tema:


Hasta aquí bien, ¿no? Vale, sigamos.

Todo esto de la mala interpretación de la correlación también se encuentra, y en demasiadas ocasiones, en estudios científicos supuestamente serios. No son pocos los estudios que al encontrar una cierta relación entre dos variables presentes en los sujetos estudiados se tiran a la piscina afirmando que por tanto una de ellas es la causa de la otra, cuando en realidad en dichos estudios no hay ninguna evidencia de que esto sea verdad (simplemente hay correlación).

Supongo que más de uno se estará preguntando lo siguiente: ¿entonces es mentira que correlación implique causalidad? Pues no, no es mentira, y verdad tampoco. Me explico:
Cuando se dice que la frase correlación no implica causalidad (en latín, Cum hoc ergo procter hoc) es cierta lo que se quiere decir es que el hecho de que haya correlación entre dos variables no significa que una provoque a la otra, pero eso no significa que si encontramos correlación entre dos variables automáticamente podamos descartar que una sea causa de la otra. Hay casos en los que A es la causa de que ocurra B, en otros es al revés, en otros hay alguna variable adicional la que hace que se produzca esa correlación…y a veces todo es fruto de la casualidad (sí, casualidad, no “causalidad”).
El problema de creerse que una fuerte correlación implica una cierta relación causal entre las variables es que esa creencia se puede usar (malintencionadamente o no) para engañarnos, ya que no es demasiado difícil encontrar correlación entre dos variables que en principio ni están relacionadas a poco que queramos “forzarla”.

Por ejemplo, si os digo que el descenso de piratas en el mundo está provocando una subida de la temperatura media global de nuestro planeta, ¿qué pensaríais? Posiblemente que estoy muy mal de la cabeza, ¿no? Bien, echadle un ojo a esta gráfica:

 
Fuente: Wikimedia Commons.

En ella se ve claramente que desde 1860 se ha producido un descenso del número de piratas y a la vez un aumento de la temperatura media de la Tierra, y que hay correlación lineal (la gráfica se acerca bastante a una recta) entre las dos variables. ¿Es el descenso de piratas la causa de la subida de temperatura? Pues no parece que sea así. ¿Y al revés? ¿Es la subida de la temperatura media global la causa del descenso de piratas? Pues tampoco parece que sea así. Es muy posible que esta relación sea pura casualidad.

En la siguiente imagen (que vi en este post del blog de Francis) podéis ver algunos otros ejemplos como el anterior:


Tremendo que la mayor actividad en Facebook sea la causa de la crisis de deuda griega, ¿verdad?

Y para terminar os recomiendo ver esta charla de Tim Minchin (comediante, actor y músico australiano), que me pasó @antlarr en este tuit (después de subtitular él mismo el vídeo), que trata sobre el tema. Muy graciosa a la vez que reveladora para quienes todavía no están convencidos:



Fuente:

Gaussianos

Las apuestas de Stephen Hawking

Stephen Hawking, en Los Simpsons (fuente)

El físico inglés Stephen Hawking es uno de los científicos más importantes y famosos de la actualidad. No sólo por su trabajo en cosmología, estudiando el Big Bang y los agujeros negros, sino también por su labor divulgativa; sus libros han vendido millones de ejemplares en todo el mundo. La imagen de Hawking, que está postrado en una silla de ruedas y habla a través de un ordenador desde hace décadas, es ya un icono popular que ha trascendido de los círculos científicos.

Lo que no es tan conocido es que a Hawking le encanta hacer apuestas con sus colegas sobre asuntos científicos, aunque a la vista de los resultados hay que reconocer que no se le da tan bien como la física teórica. Ya en 1975, Hawking apostó contra Kip Thorne que la fuente de rayos X Cygnus X-1 no contenía un agujero negro. En caso de ganar, Thorne conseguiría una suscripción anual a la revista Penthouse, mientras que si Hawking tenía razón obtendría una suscripción a la revista satírica Private Eye durante cuatro años. En esta ocasión podríamos decir que Hawking se cubrió las espaldas. Como él mismo explica en su famoso libro Historia del Tiempo, sería una desgracia para él si los agujeros negros no existiesen, después de todo el tiempo que les ha dedicado. En tal caso, al menos tendría el consuelo de ganar la apuesta y disfrutar de Private Eye. La apuesta todavía tiene que resolverse, aunque los científicos están seguros al 99 por ciento de que Cygnus X-1 contiene un agujero negro.

El original de la apuesta sobre Cygnus X-1 (fuente)

De nuevo Thorne, junto con John Preskill, fue el protagonista de la siguiente apuesta de Hawking en 1991. Hawking aseguraba que nunca podríamos observar directamente un agujero negro, porque nada puede escapar de él, ni siquiera la luz. Sin embargo, en 1997 se demostró matemáticamente que, bajo determinadas circunstancias concretas y muy improbables, seríamos capaces de ver el corazón de un agujero negro, un punto infinitamente pequeño con una densidad infinitamente grande. Esto es lo que se conoce en el argot como una singularidad desnuda. Hawking aceptó a regañadientes que había perdido y pagó los 100 dólares a sus colegas. También tuvo que imprimir camisetas con un eslogan admitiendo la derrota. Hawking escogió “La Naturaleza aborrece las singularidades desnudas”, lo que en parte también era una reivindicación de su punto de vista.

Representación artística de un agujero negro (fuente)

Ese mismo año, Thorne cambió de bando y se alió con Hawking, apostando ambos contra Preskill que un agujero negro destruye para siempre toda la información que cae en él. Preskill, en cambio, creía que existe un mecanismo por el que esa información sí se podría recuperar. Por increíble que resulte, se ha demostrado que Preskill tenía razón: existe un proceso, que irónicamente el propio Hawking demostró, por el cual un agujero negro se evapora muy lentamente, y al hacerlo emite parte de esa información que se daba por perdida. En 2004 Hawking hizo entrega de su regalo a Preskill, una enciclopedia de béisbol. Según el contenido de la apuesta, “el perdedor debía pagar su deuda con la enciclopedia que eligiera el ganador, de la que la información se puede recuperar cuando se desee”.

Preskill, recogiendo su enciclopedia de béisbol (fuente)

Hace algo más de una década, en 2000, Hawking se jugó cien dólares con el físico estadounidense Gordon Kane a que nunca se encontraría el bosón de Higgs, la elusiva partícula del modelo estándar que daría masa al resto de partículas elementales. Después de años de búsqueda, el LHC del CERN confirmó oficialmente su descubrimiento el verano de 2012. Poco después, Hawking admitía su derrota con un lacónico “parece ser que he perdido 100 dólares”, a la vez que felicitaba a los científicos del CERN

Fuente:

La Aventura de la Ciencia
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0