Latest Posts:

Mostrando las entradas con la etiqueta tiempo. Mostrar todas las entradas
Mostrando las entradas con la etiqueta tiempo. Mostrar todas las entradas

21 de septiembre de 2014

Calentamiento del mar ajeno a El Niño sí genera impactos negativos

Fenómeno se registró entre mayo y junio de este año, afirma Senamhi





Especialistas en el estudio del clima afirmaron que si bien se ha descartado la presencia de un Fenómeno de El Niño extraordinario, sucesos como el calentamiento del mar, como el que se registró entre mayo y junio pasado sí genera un impacto negativo en la población.


Al respecto, en declaraciones a la Agencia Andina la directora de Climatología del Senamhi, Grinia Ávalos Roldán, citó como ejemplo que de cierta manera dicho calentamiento, que duro entre 8 y 9 semanas, limitó la afloración del mango en el norte del país.

Además, afirmó, el recurso hidrobiológico se profundizó y se trasladó a otros lugares afectando a los pescadores. "Han sido muy elocuentes las imágenes difundidas por varios medios de comunicación sobre el hallazgo de aves muertas a lo largo del litoral porque no encontraban alimento", puntualizó.

La especialista remarcó la importancia del tema de la gestión de  riegos no tiene que centrarse solamente en  eventos ya conocidos como el Fenómeno El Niño, pues el  clima en su mayor variabilidad puede generar escenarios cálidos que produzcan impactos desfavorables en la gente.

"Ante esta situación nuestra necesidad de informar y monitorear se acrecienta y, sin ser alarmistas, debemos decir lo que está pasando", enfatizó.

Por este motivo, la funcionaria anunció que el 30 de octubre próximo en el Cusco, el Senamhi desarrollará el Primer Foro Climático Regional. Agregó que con las autoridades cusqueñas han coordinado mucho y  los pobladores están bien sensibilizados al respecto. "Tenemos muchos proyectos ejecutados en esta parte del territorio nacional", comentó.

El artículo completo en:

15 de septiembre de 2014

¿Por qué el tiempo no pasa siempre a la misma velocidad?

Según la actividad que desarrollemos en un momento dado, las personas de las que nos rodeemos o incluso nuestra edad, nos parecerá que el tiempo transcurre muy lentamente o que pasa volando. Entre las experiencias que modifican la percepción de la llamada cuarta dimensión se encuentra la motivación.

Cuando nos sentimos estimulados y pretendemos alcanzar un objetivo concreto y deseado, sobre todo si tenemos la firme esperanza de conseguirlo y si responde a una necesidad básica, como comer o beber, el tiempo se desliza a toda velocidad. De acuerdo con un estudio de la Universidad de Alabama publicado en Psychological Science, este fenómeno se debe a que en estas circunstancias se minimizan los procesos de la memoria y la atención, para apartar pensamientos y emociones irrelevantes.

Por su parte, el psicólogo Steve Taylor, investigador de la Universidad John Moores de Liverpool, en el Reino Unido, sostiene que la percepción del paso del tiempo viene condicionada en gran medida por la cantidad de información que procesamos. Así, transcurre más despacio para los niños porque están muy atentos a lo que acontece a su alrededor. Estos experimentan muchas cosas por primera vez, lo que les obliga a asimilar constantemente abundante información.


Sin embargo, para las personas adultas apenas existe novedad en las experiencias cotidianas, se han acostumbrado al mundo y todo les resulta familiar, según explica Taylor. De ahí que un año vivido a partir de los cincuenta nos parezca mucho más breve que doce meses de la niñez o la adolescencia.

Este efecto es aún más perceptible en las víctimas de accidentes, que suelen describir esas situaciones traumáticas como si hubiesen sucedido a cámara lenta. Pero no es porque el tiempo transcurriera más despacio en sus sesos, como ha demostrado el neurocientífico David Eagleman, del Baylor College de Medicina, en Texas (EE. UU.), sino por una triquiñuela de la memoria.


Cuando una experiencia nos asusta, entra en juego un área del cerebro llamada amígdala que hace que se almacenen más recuerdos que en otro tipo de acontecimientos. Dicho de otro modo, en situaciones críticas acumulamos una gran cantidad de información en la memoria en un lapso mínimo de tiempo. Por eso, las experiencias aterradoras generan memorias más ricas y densas, que nos hacen creer que el tiempo transcurrido fue mayor.

Fuente:

Muy Interesante

13 de julio de 2014

¿Por qué siempre se enredan los cables de nuestros auriculares en el bolsillo?

Cada vez que guardamos los auriculares de nuestro smarphone en el bolsillo y vamos a echar mano de ellos siempre es lo mismo, encontramos un revoltijo de cables que tenemos que desenredar. La pregunta es ¿Por qué siempre se enredan?
 
Investigadores del Departamento de Física de la Universidad de California en San Diego han intentado resolver matemáticamente el suceso. Hay varios factores que entran en juego para que se produzcan los nudos en los cables.

Se realizó un estudio en el que se colocaron en una caja cables de diferente longitud y se sometieron a diversos niveles de agitación. Se realizaron 3.415 pruebas estudiando y clasificando el tipo de nudo generado.

El resultado obtenido es, que los factores principales que inciden a la hora de producirse los nudos son la longitud y el tiempo de agitación. Con lo que si sacudimos los cables más largos durante más tiempo tendremos más nudos, aunque habrá que tener en cuenta la rigidez y el diámetro del cable. La posibilidad de que un cable largo y flexible se enrede es cercana al 100%.

Así que visto este estudio la única forma de conseguir que nuestros cables no se enreden es pasarnos a la tecnología inalámbrica.

Vía | Discover

14 de enero de 2014

'Pandora' desvela las galaxias más lejanas y primitivas del Universo

El telescopio Hubble capta la imagen más nítida de algunas de las galaxias más distantes y antiguas, cuya luz es amplificada al atravesar el cúmulo de Pandora.


El telescopio espacial Hubble ha conquistado un nuevo hito astronómico al fotografiar un conjunto de galaxias sumamente interesante con la mayor resolución conseguida hasta el momento. Esta agrupación de galaxias, que ya había sido estudiada por el Hubble y otros telescopios en el año 2011, es conocida como Abell 2744. Su formación se produjo a partir de un choque de cuatro grupos de galaxias, generando así un conjunto gigante con una estructura aparentemente caótica. Abell 2744 también se es conocido como 'cúmulo de Pandora' pues, según los astrónomos, esta colisión múltiple entre cúmulos abrió una caja de Pandora de notables fenómenos astrofísicos.

La mezcla de fenómenos cósmicos que se dan en Pandora, "algunos de los cuales nunca se habían visto antes", según señalan desde el Instituto de Ciencia del Telescopio Espacial, hacen que los cúmulos de galaxias actúen como lentes gravitacionales, de manera que las imágenes recogidas por el telescopio Hubble permiten ver lo que se encuentra a 12.000 millones de años luz, recreando cómo era el Universo poco después del Big Bang.

Un telescopio natural

La lente gravitacional es un fenómeno que se produce en astrofísica cuando la luz procedente de un objeto lejano pasa por las proximidades de una gran masa que se encuentra en la misma línea de mirada. Esta masa amplifica la imagen del objeto lejano actuando como un gran telescopio natural.

Estas nuevas imágenes captadas telescopio Hubble, en las que el cúmulo de Pandora actúa como una lente gravitacional, muestra galaxias situadas a distancias muy lejanas y a la vez muy jóvenes. Algunas de ellas son excepcionalmente brillantes. "Hemos observado cómo de repente las galaxias se han empezado a acumular y a hacerse cada vez más luminosas en muy poco tiempo", dice el doctor Garth Illingworth de la Universidad de California en Santa Cruz. Casi 3.000 galaxias de fondo y cientos de ellas en el primer plano aparecen en las fotografías.

Las galaxias que aparecen distorsionadas en forma de arco azul son porciones de los llamados anillos de Einstein. "Los anillos sólo se ven completos cuando la galaxia distante está perfectamente alineada con la que actúa como lente", apunta Rafael Bachiller, director del Observatorio Astronómico Nacional en España. Los anillos de Einstein permiten estudiar cómo eran las galaxias cuando el Universo tenía apenas 3.000 millones de años de edad.

El 75% de la masa de Pandora está compuesta por la enigmática materia oscura, uno de los mayores misterios de la astrofísica contemporánea, que también tiene una gran importancia en estas agrupaciones de galaxias.

Lee el artículo completo en:

El Mundo Ciencia

10 de enero de 2014

Ola de frío en EE.UU.



El empleado postal Chris Newbergen reparte el correo frentándose a una temperatura de -25º en Minneapolis. Efe

La ola de frío polar sigue causando estragos en Estados Unidos. Es como si el país hubiera entrado en estado de hibernación. Con temperaturas tan bajas como -51° en Montana, -42 en Minnesota o -22° en Iowa, los aviones no pudieron despegar en muchos estados porque el combustible se congeló, los trenes se quedaron atascados por la nieve que invadió los carriles y unos 180 millones de estadounidenses han visto sus vidas totalmente alteradas.

Aunque la precipitación de nieve disminuyó en la madrugada del martes, el frío se volvió más riguroso y congeló la nieve que tarda mucho en derretirse. En Montana, Iowa, Dakota del Norte, Illinois, Pensilvania y Wisconsin hay lugares donde la nieve alcanza los cuatro y cinco metros. Tras los más de 4.400 vuelos cancelados el lunes en el medio oeste y el noroeste del país, ayer por la tarde ocurrió lo mismo con otros 1.600. Al cierre de esta edición, en los principales aeropuertos del centro y este de Estados Unidos permanecían más de 22.000 pasajeros varados. La compañía JetBlue, por ejemplo, canceló todos sus vuelos de los aeropuertos de Nueva York y Boston. "Las temperaturas extremas están teniendo un impacto muy severo en las operaciones aéreas", declaró Andrea Huguely, portavoz del American Airlines Group.

Son muchos los incidentes que está provocando el temporal, como el de los 500 pasajeros de un tren que se dirigía de Nueva York a Chicago que pasaron la madrugada del martes varados en una campiña de Illinois porque una montaña de tres metros de nieve no les dejó avanzar. Fueron rescatados al amanecer por la Guardia Nacional. "Las montañas de nieve eran enormes. La nevada no dejaba a los conductores trabajar con los niveles de seguridad necesarios. Sencillamente, no podían avanzar", dijo el portavoz de la empresa Amtrak, Marc Magliari. Lo mismo sucedió con otros dos trenes que venían de lugares tan distantes como San Francisco y Los Ángeles, que quedaron detenidos a unos 24 kilómetros de Chicago.

Según el canal de televisión, Weather Channel, la tempestad de nieve inicial y la posterior congelación han sido provocadas por un vórtice polar, una especie de huracán ártico que normalmente se mantiene circulando alrededor del Polo Norte, pero que este año se desplazó sobre Canadá hasta cubrir casi todo Estados Unidos. Sus efectos se hacen sentir en todos los estados, incluyendo Florida, donde se han registrado temperaturas alrededor de los -4°, muy inusual para la temporada. "El vórtice ha logrado batir casi todos los récords históricos", subrayó el principal meteorólogo del canal, Jen Carfagna.

Lea el artículo completo en:

El Mundo (España)

16 de noviembre de 2013

Un universo “de juguete” revela que el tiempo es una ilusión

Investigadores italianos demuestran empíricamente una teoría de los años 80 a partir del entrelazamiento cuántico de dos fotones.

Un experimento realizado con un modelo de universo “de juguete”, formado sólo por dos fotones cuánticamente entrelazados, sugiere que el tiempo “es una ilusión” o que la existencia del tiempo depende de la existencia de los relojes, como propuso una teoría matemática de la década de 1980. Además, vincula la emergencia del tiempo al entrelazamiento cuántico. Interesantes resultados que avivan una cuestión fundamental, tanto para la ciencia como para la filosofía. Por Yaiza Martínez.


Imagen: JoLin. Fuente: PhotoXpress.
Imagen: JoLin. Fuente: PhotoXpress.

Un experimento realizado con un modelo de universo “de juguete” sugiere que el tiempo “es una ilusión” o que la existencia del tiempo depende sólo de la existencia de los relojes.

La física moderna intenta fusionar las leyes de dos “universos”: el macrocoscópico, y el de las partículas atómicas y subatómicas. Actualmente, describe así la realidad a través de dos vías: la mecánica cuántica‎, que explica lo que sucede a escala microscópica; y la relatividad general‎, que da cuenta de lo que sucede en el resto del cosmos: a los planetas, a los agujeros negros, etc.

Pero ambas descripciones no terminan de combinar bien. Desde que las ideas de la mecánica cuántica se expandieron, a partir de la primera mitad del siglo XX, parece que son incompatibles.

La cuestión del tiempo

A mediados de la década de los años 60 del siglo pasado, los físicos John Wheeler y Bryce DeWitt parecieron encontrar una solución a este dilema: la llamada ecuación de Wheeler-DeWitt.

Con ella se eludían los problemáticos infinitos que surgían de otras combinaciones de ambas teorías. Pero, aunque la ecuación de Wheeler DeWitt resolvió uno de los problemas fundamentales de la combinatoria entre las dos interpretaciones de la realidad antes mencionadas, hizo emerger un segundo y muy serio problema: expresaba un universo estático, “sin tiempo”, algo que a todas luces no existe.

En 1983, los teóricos Don Page y William Wootters propusieron una solución a este segundo problema basada en el llamado “entrelazamiento cuántico”, esa propiedad subatómica que tan bien describieron en su libro “El cántico de la cuántica” Ortoli y Pharabod: si tienes dos peces (o partículas) en un mismo charco y éstos se unen tan íntimamente que alcanzan un estado “entrelazado”, cuando pases uno de ellos a otra charca, ambos seguirán reaccionando de la misma manera, aunque ya no estén juntos. Así, si el primero es pescado, el segundo saltará igualmente fuera de su charca.

Este extraño comportamiento de las partículas subatómicas entrelazadas –al que Einstein denominó “acción fantasmal a distancia”- provoca que éstas no puedan definirse a partir del entrelazamiento como partículas individuales con estados definidos, sino como un sistema. El entrelazamiento cuántico hace que las partículas pasen a tener una “misma existencia”, a pesar de encontrarse espacialmente separadas.

El artículo completo en:

Tendencias21

4 de noviembre de 2013

La galaxia más lejana revela cómo era el Universo primitivo

Detalle de la región del cielo donde está z8_GND_5296 en una imagen...
Detalle de la región del cielo donde está z8_GND_5296 en una imagen del telescopio 'Hubble'. 

Se formó cuando el Universo sólo tenía 700 millones de años, es decir cuando apenas era un niño. Ha sido denominada z8_GND_5296 y se trata de la galaxia más lejana confirmada hasta ahora. Un equipo internacional de investigadores ha logrado precisar su edad gracias al telescopio Keck I de 10 metros situado en Hawaii, en concreto, utilizando su espectrógrafo MOSFIRE.

Considerando que el Big Bang se produjo hace 13.800 millones de años, esta galaxia se formó cuando el Universo sólo tenía el 5% de la edad actual., según explicanesta semana en la revista Nature.

El hallazgo supone un nuevo paso para lograr averiguar cómo era el Universo durante sus etapas iniciales de formación: "La luz que [las primeras galaxias] emitieron poco después de la Gran Explosión ha estado viajando durante la mayor parte de la vida del Universo hasta alcanzar hoy a nuestros telescopios", explica a ELMUNDO.es Rafael Bachiller, director del Observatorio Astronómico Nacional.

El estudio está liderado por investigadores de las Universidades Texas A&M y Texas Austin, aunque también han participado científicos de otros centros de EEUU, Italia e Israel.

Distancias espaciales

El Universo está en continua expansión. Para calcular distancias espaciales, además del año luz los (la distancia que la luz recorre en un año) los astrónomos utilizan el denominado desplazamiento hacia el rojo (redshift en inglés), que es una medida de la velocidad y de la distancia. La galaxia descrita en Nature tiene un desplazamiento al rojo de 7,51.

En el listado que manejan los astrónomos están incluidas más de 100 galaxias que son candidatas a tener desplazamientos hacia el rojo mayor que 7. Aunque en el pasado se han localizado galaxias más lejanas de la Vía Láctea que la que se describe en este estudio, no han sido confirmadas mediante espectrógrafo.

"Ahora, la denominada galaxia z8_GND_5296 ha resultado tener el brillo suficiente para permitir tanto la medida precisa de su distancia (desplazamiento hacia el rojo o 'redshift' ) como el análisis de su débil luz por medio de un espectrógrafo. 

Naturalmente para este tipo de observaciones se necesitan los mayores telescopios del mundo", afirma Bachiller, que señala el telescopio usado (el Keck equipado con un espejo segmentado de 10 metros de diámetro efectivo), es similar en muchos aspectos al Gran Telescopio de Canarias.

La galaxia z8_GND_5296 se formó hace unos 13.000 millones de años, que es el tiempo que ha tardado la luz de la galaxia en llegar a la Tierra. Así, los astrónomos calculan que esa galaxia está a unos 30.000 millones de años luz de nuestro planeta.

"La búsqueda de objetos que se encuentran más alejados de la Tierra de aquellos que ya se conocen es importante para mejorar nuestra comprensión de la historia del Universo y necesario para llegar a encontrar la primera generación de galaxias que se formaron después del Big Bang", explica Dominik A. Riechers, astrónomo de la Universidad de Cornell (EEUU), en un artículo complementario de la revista Nature.

Lea el artículo completo en:

El Mundo Ciencia

4 de octubre de 2013

No somos nada: El tiempo en perspectiva



Como bien dicen en Wait but why los seres humanos «somos buenos en muchos aspectos, pero no en poner las cosas en perspectiva». Y es que en las grandes escalas, números y comparaciones acabamos perdiéndonos. Por eso han creado estas cronologías en forma de gráficos históricos que sitúan fechas en puntos concretos y comparan la duración de unos hechos con otros.

De este modo se puede entender de un vistazo qué ha vivido una persona de 90 años, y cuánto duró cada evento respecto al total de su vida, o cuán insignificante es la historia moderna registrada (unos 5.500 años).

Como extra espectacularmente interesante, si se ven todos los gráficos juntos cada uno de ellos se corresponde con el último segmento del anterior. De este modo la cronología abarca desde las últimas 24 horas a los 13.800 milones de años que tiene el universo observable. Y como bonus han añadido el qué pasará dentro de unos 8.000 millones de años y más allá.

Ya lo sabíamos pero no está de más recordarlo: ¡no somos nada!

(Vía Boing Boing.)

Fuente:

Microsiervos

30 de septiembre de 2013

¿Qué fue primero, el tiempo o el espacio?

reloj

Según Albert Einstein, el tiempo y el espacio eran sencillamente diferentes aspectos de la misma entidad que ahora se conoce como "espacio-tiempo".

Por ende, parece plausible que ambas empezaron a existir simultáneamente.

Habiendo dicho lo cual, investigaciones recientes que combinan el trabajo de Einstein y la teoría cuántica ha llevado a algunos teóricos a concluir que el espacio podría haber generado el fenómeno que experimentamos como tiempo.

Fuente:

BBC Ciencia

21 de septiembre de 2013

Diferentes teorías sobre qué son el espacio y el tiempo

Dibujo20130828 Quantum_gravity_head_FLAT - nature com

Zeeya Merali ha entrevistado al físico Mark Van Raamsdonk (Univ. Columbia Británica en Vancouver, Canadá), uno de los padres de la idea ER=EPR, sobre qué es el espaciotiempo. Su respuesta es sencilla: “pura información codificada en un holograma” cual una película de ciencia ficción como Matrix. El “principio holográfico” puede parecer extraño, pero según Van Raamsdonk es fundamental para entender la relación entre la relatividad general, que explica cómo la gravedad es resultado de la curvatura del espaciotiempo, y la mecánica cuántica, que gobierna el mundo subatómico. Recomiendo la lectura de Zeeya Merali, “Theoretical physics: The origins of space and time,” Nature 500: 516–519, 29 Aug 2013. Me permito un traducción libre en forma de resumen para quienes no tengan acceso a este interesante artículo.


Dibujo20130828 black holes and holography - nature com

Merali ha aprovechado que Van Raamsdonk y muchos colegas están reunidos en el “KITP Rapid Response Workshop: Black Holes: Complementarity, Fuzz, or Fire?,” organizado entre el 19 y el 30 de agosto por Raphael Bousso (UCB), Samir Mathur (OSU), Rob Myers (PI), Joe Polchinski (KITP), Lenny Susskind (Stanford) y Don Marolf (UCSB) [listado de las charlas con enlaces a los vídeos]. Confieso que yo he visto todas las charlas de la semana pasada. Para entender muchas de ellas hay que leer los artículos técnicos más recientes de los conferenciantes, pero lo más interesante no es el contenido, sino el diálogo entre expertos y las discusiones al margen sobre las ideas presentadas. Obviamente, sólo recomendable para frikis de estos asuntos.

El principio holográfico se inspiró en la entropía de Hawking-Bekenstein asociada a los agujeros negros (que es proporcional al área del horizonte de sucesos, en lugar de al volumen como en cualquier objeto material). Esta entropía corresponde a un conjunto de microestados del agujero negro que están de alguna forma codificados en el horizonte de sucesos, que actúa como un holograma plano que almacena la información del espacio tridimensional que acota. El físico argentino Juan Maldacena (Instituto de Estudio Avanzado de Princeton, Nueva Jersey) publicó en 1998 un modelo holográfico del universo que aplicó la misma idea al espaciotiempo, que sería un concepto emergente a partir de la información holográfica. Esta información equivaldría a partículas cuánticas en una teoría cuántica de campos asociada al holograma.

En 2010, Van Raamsdonk estudió que pasaría si las partículas del holograma estuvieran entrelazadas (el entrelazamiento cuántico corresponde a correlaciones entre partículas que garantizan que al medir el estado de una partícula también se altera el estado de la otra partícula). Descubrió que si todas estas partículas están entrelazadas a pares (monogamia del entrelazamiento), cuando se rompe este entrelazamiento entre dos partículas es como si se divide el espaciotiempo tridimensional interior al horizonte en dos partes. Repitiendo el procedimiento el volumen del espaciotiempo se va reduciendo en potencias de dos. Para Van Raamsdonk es como si el entrelazamiento cuántico en el holograma fuera lo mismo que el espaciotiempo emergente. Según Maldacena, “la información cuántica en el holograma es fundamental y el espaciotiempo es emergente.”

Dibujo20130828 gravity - thermodynamics - loop quantum gravity - nature com  

La gravedad emergente a partir de la termodinámica también nació al tratar de generalizar a todo el espaciotiempo la entropía de Hawking-Bekenstein. En 1995, Ted Jacobson (Univ. Maryland en College Park) postuló que todo punto en el espacio pertenece al horizonte de sucesos de un microagujero negro y a partir de esta idea derivó las ecuaciones de Einstein de la relatividad general (usando sólo conceptos termodinámicos sin introducir de forma explícita el concepto de espaciotiempo, que emerge a partir de los primeros). La idea alcanzó la fama en 2010, cuando Erik Verlinde (Univ. de Amsterdam) dio un paso más allá derivando las leyes de Newton a partir de la termodinámica estadística de los constituyentes del espaciotiempo (sean estos lo que sean). Thanu Padmanabhan (Centro Interuniversitario de Astronomía y Astrofísica de Pune, India) mostró que las ecuaciones de Einstein se pueden reescribir en una forma equivalente a las leyes de la termodinámica.

Verificar estas ideas mediante experimentos es muy difícil, porque los constituyentes discretos del espaciotiempo se estima que tienen una tamaño en la escala de Planck. Sin embargo, se puede medir su efecto sobre la propagación de los fotones de muy alta energía en los rayos gamma producidos en fenómenos violentos del universo. Giovanni Amelino-Camelia (Univ. de Roma) y varios colegas publicaron en abril de 2013 los primeros indicios de este fenómeno, que tendrán que ser confimados en los próximos años. También están en curso varios experimentos en laboratorio. Por ejemplo, en 2012, físicos de la Univ. de Viena y del Imperial College de Londres propusieron un experimento de interferometría para estudiar la estructura discreta del espaciotiempo. 

La gravedad cuántica de bucles nació a mitad de los 1980 gracias al trabajo de Abhay Ashtekar (Instituto de Física Gravitacional y Geometría, Univ. Estatal de Pensilvania) y otros que describieron el tejido del espaciotiempo como una red de enlaces que portan información cuántica sobre las áreas y los volúmenes. Estos enlaces pueden cerrarse sobre sí mismos formando bucles (que no tienen nada que ver con las “cuerdas” de la teoría de cuerdas). Los bucles son cuánticos y definen una unidad mínima de área (la unidad de área en la escala de Planck) de forma similar a como la mecánica cuántica aplicada a un átomo de hidrógeno define un estado de energía mínima para su electrón. Esta unidad de área no se puede curvar demasiado con lo que no se pueden producir singularidades en curvatura como las que predice la gravedad de Einstein en el interior de los agujeros negros o en el Big Bang.

En 2006, simulaciones por ordenador realizadas por Ashtekar para la singularidad del Big Bang, y por Rodolfo Gambini (Univ. de la República, Montevideo, Uruguay) y Jorge Pullin (Univ. Estatal de Luisiana, Baton Rouge) para un agujero negro demostraron cómo evita las singulariades la gravedad cuántica de bucles. Sin embargo, esta teoría aún tiene muchos problemas básicos que resolver, por ejemplo, cómo unificar la gravedad con otras fuerzas o cómo emerge el espaciotiempo a partir de la red de información cuántica de los bucles.

Dibujo20130828 causal sets - causal dynamics triangulations - nature com

La teoría de redes causales nació con el trabajo pionero Rafael Sorkin (Perimeter Institute, Waterloo, Canada). Esta teoría postula que los bloques que forman el espaciotiempo son puntos matemáticos conectados por enlaces causales, que conectan pasado con futuro. En una simulación por ordenador la red resultante construye el espaciotiempo de forma gradual, lo que según Sorkin “permite ver cómo emerge el espaciotiempo a partir de los puntos originales igual que la temperatura emerge a partir de los átomos de un gas. ¿Qué es la temperatura de un sólo átomo? De igual forma no tiene sentido preguntar dónde está el espaciotiempo en la red causal.”

A finales de los 1980, Sorkin calculó el número de puntos en el universo observable y su razonamiento le llevó a inferior que existía una pequeña energía intrínseca que causa que el universo acelere su aceleración. Esta predicción se confirmó en 1998 con el descubrimiento de la energía oscura. Según Sorkin, “su predicción fue la primera predicción de la teoría cuántica de la gravedad.” Obviamente, no todo el mundo opina lo mismo. 

Las triangulaciones dinámicas causales son una variante de las redes causales que nació a principios de los 1990 y cuya simulación por ordenador tiene ciertas ventajas técnicas. Los bloques de espaciotiempo son símplices tetradimensionales (la generalización de un triángulo o un tetraedro a cuatro dimensiones) que de forma espontánea se agregan unos a otros mientras sufren fluctuaciones cuánticas aleatorias. Las simulaciones de Renate Loll (Univ. Radboud, Nijmegen, Holanda) resultan en “universos” exóticos con una geometría muy complicada y un número erróneo de dimensiones (o muchas o muy pocas). Sin embargo, cuando se fuerza que el pegado de símplices preserve la causalidad se obtienen universos en cuatro dimensiones que son diferenciables (muy similares a nuestro universo).

La idea de que en el Big Bang el universo nació con sólo dos dimensiones (una de espacio y una de tiempo) y que fue ganando dimensiones conforme fue evolucionando es muy sugerente. Aún así, todavía nadie ha derivado las ecuaciones de la gravedad a partir de esta idea, aunque algunos expertos creen que la aparición de la energía oscura en los universos que crecen hasta alcanzar cuatro dimensiones es un signo de que la idea no es del todo incorrecta.

El artículo de Merali concluye así, sin ofrecer una respuesta, pero se decanta claramente por el principio holográfico. Hay muchas otras ideas sobre la emergencia del espaciotiempo que han sido publicadas y que quizás merecerían estar en la lista, pero las que están son sugerentes.

FUENTE:

Francis Emule Science News

6 de septiembre de 2013

El hombre que estuvo atrapado en un presente "eterno"

Atrapado en un eterno presente - Cierta Ciencia podcast - Cienciaes.com

Cuatro centímetros y treinta segundos

La memoria a corto plazo

La memoria crea y define nuestra identidad, el sentido de quiénes somos y de cómo somos. Toda la información a la que estamos expuestos en nuestro día a día y que recibimos por los sentidos, entra al cerebro y se va procesando y almacenando para luego nutrir y forjar lo que somos. 

Hay quienes comparan este proceso con el funcionamiento de un computador: codificación de los datos que entran, clasificación y almacenamiento y luego la recuperación de esa información. Pero la neurobiología se ha encargado de demostrar que el cerebro funciona de una manera muchísimo más compleja. Cuando se envejece, por ejemplo, las funciones cerebrales cambian: algunas se vuelven más lentas y otras a cambio, más agudas – se dificulta memorizar un número de teléfono pero la comprensión de fenómenos generales se vuelve más precisa. Un computador funcionando así irá a parar a la basura.

Casi todos pensamos que la memoria de corto plazo es la que nos permite recordar eventos que han sucedido hace horas, días. Y que la de largo plazo nos trae recuerdos más lejanos, que nos pueden llevar hasta a la infancia. Pero no es así. La neurobiología nos cuenta que la memoria de corto plazo es un proceso que dura como máximo treinta segundos.

Así cuando estamos en un aeropuerto y nos dicen que nuestro avión sale por la puerta 6A, si no repetimos al menos un par de veces la información, o miramos en el tiquete el número, ya no sabremos por donde sale el avión. Si por el contrario hemos asociado el 6A con algo, si lo hemos “fijado” con cualquier recurso, ya esa información entra a formar parte de la memoria funcional, y se quedará guardada sin peligro de perderse, así el avión se atrase y nos dé por irnos a tomar un café o a visitar una librería.

El trabajo de la memoria funcional, consolidar, lo hace una estructura del cerebro con forma de caballito de mar, el hipocampo, sumergido en las profundidades de nuestros lóbulos temporales. Sin el hipocampo, no es posible fijar, más allá de los treinta segundos, toda la información que recibimos por el olfato, el oído, el tacto, el gusto, es decir todo lo que nos permite pensar, elaborar, crear, imaginar, querer, sentir, sufrir.

La terrible tragedia de Henry Gustave Molaison

Eso fue lo que le sucedió a un hombre conocido hasta el año 2008 como H.M., cuando murió y se le dio su nombre completo, Henry Gustave Molaison.

Henry vivió una infancia feliz con sus padres hasta que a los diez años empezó a sufrir lo que se llamaba hasta casi mediados del siglo pasado, un mal menor (petit mal), una especie de estupor que duraba poco y que lo alejaba del entorno. Cerraba los ojos y sudaba. Contaba a sus padres que se había ido y que no recordaba nada. Los empezó a sufrir a diario y a medida que crecía, su número aumentaba. Ya en la adolescencia pasó a ser un mal mayor, ataques epilépticos que lo alejaban de la escuela y que día a día lo incapacitaban más. Empezó a recibir dosis masivas de anticonvulsionantes, sin mejoría alguna.

Henry había sufrido un accidente con su bicicleta alrededor de los siete años, aunque no son muy claras las circunstancias. El resultado sí. Empezó a visitar médicos y especialistas aunque después de varios EEG no se encontró ninguna lesión en su cerebro. Las convulsiones se volvían cada vez más fuertes y a la edad de 27, sin mayores esperanzas, con el consentimiento de sus padres y el suyo propio se decidió recurrir a “un procedimiento bastante experimental”, como lo definiría el mismo neurocirujano, William Scoville.

Cuatro centímetros y treinta segundos

En la cirugía, a Henry le fueron removidos cuatro centímetros de tejido en ambos lóbulos temporales. En ese tejido se fue gran parte del hipocampo y toda la amígdala, el lugar donde residen las emociones.

La neurocirugía era práctica común alrededor de 1953 –año de la de Henry¬– para remediar la epilepsia. Salvo otros dos casos, estos con malformaciones congénitas en sus cerebros, el caso de Henry fue único: sus ataques de epilepsia cesaron pero pronto fue evidente que algo terrible, devastador, irreversible había pasado. Henry no podía recordar nada posterior al día de la cirugía. Su hipocampo perdido no le permitía consolidar la memoria de corto plazo –que permaneció intacta pues reside en otra región del cerebro que no fue tocada– y salir más allá de los tre inta segundos que eran lo único que le quedaba, imposibilitando para siempre la formación de una memoria de largo plazo en lo que le quedaba de vida después de la cirugía.
La razón para que Scoville extrajera más tejido del usual se debió a que durante toda la preparación para el procedimiento fue imposible localizar, como se hacía con otros pacientes, el lugar de la lesión que causaba las convulsiones. Por el daño ocasionado, Scoville siempre habló de la cirugía como de “trágico error” y nunca más volvió a realizar ninguna.

Las enseñanzas de un trágico error.
 
Lo que fue un terrible desastre para Henry Molaison, permanecer atrapado todo el resto de su vida en un permanente tiempo presente, para la neurobiología fue un más que precioso tesoro. Gracias a él, el hipocampo pasó a identificarse como el centro de la memoria.

Quien se encargó de preservar ese legado fue la neurocientífica del MIT, Suzanne Corkin, quien dedicó su vida a estudiar a Henry. No sólo cuidó de que se lo respetara en su total integridad de ser humano sino que fue más que cuidadosa en escrutar hasta el agotamiento a todos los científicos que se acercaban a él. Por ello Henry, descrito por todos como un hombre tranquilo y apacible, recibió la mejor atención posible.

Henry fue objeto de miles de estudios y pruebas de los que él, por supuesto no guardaba ningún recuerdo. Corkin entraba cada mañana y a su saludo él respondía como si fuera la primera vez que la viera. “Permanent Present Tense” es el precioso libro que narra las experiencias neurobiológicas, los estudios sicológicos, los estudios de aprendizaje, entre muchos otros, realizados por Corkin y su equipo durante más de cuarenta años con Henry.

Preguntada si se había logrado establecer algún vínculo entre ella y su paciente, Corkin es clara al decir que del lado de ella sí, que si no de qué otra manera se explica que estuviera subida en una silla durante horas, mirando por una ventana de la morgue cómo el cerebro de Henry era tomado de su cráneo.

Ahora, el cerebro de Henry, cuidadosamente preservado en parafina, ha sido cortado en 2401 finísimas tajadas, que con las técnicas actuales, y a disposición de quien lo solicite, permitirá realizar estudios inimaginables. El dolor de una memoria perdida, ayudará a remediar males cerebrales de miles de millones de personas. Por algo el de Henry es el cerebro que lo cambió todo

Ciencia para Escuchar

10 de agosto de 2013

¿Qué pasa al entrar en un agujero negro?

El principio de equivalencia de la teoría general de la relatividad de Einstein implica que no pasa nada al cruzar el horizonte de sucesos de un agujero negro, un observador no debe notar nada especial; de hecho, en un agujero negro supermasivo, la curvatura del espaciotiempo en el horizonte de sucesos es muchos órdenes de magnitud más pequeña que en la superficie de la Tierra.

Pero este resultado es clásico y la aplicación de la física cuántica a los agujeros negros indica que su horizonte de sucesos debe emitir radiación de Hawking. ¿Notaría de alguna forma el observador que cae la existencia de esta radiación si tuviera un instrumento adecuado? La pregunta puede parecer una tontería, pero su respuesta es más complicada de lo que parece a primera vista, pues en rigor requiere una teoría cuántica de la gravedad y todavía no tenemos ninguna. Por supuesto, podemos aplicar las reglas de la mecánica cuántica a la teoría de la gravedad de Einstein y obtener resultados correctos en el límite de campos débiles, es decir, de agujeros negros con gran masa (como ya hizo Hawking); en dicho caso, el observador no notaría nada (la radiación de Hawking no puede ser detectada en agujeros negros de masa estelar y menos aún en agujeros negros supermasivos).

Sin embargo, el problema sigue estando ahí en el caso de campos fuertes (agujeros negros de masa muy pequeña, llamados microagujeros negros); en dicho caso tenemos que usar una teoría cuántica de la gravedad y la respuesta nos lleva a la frontera entre lo que sabemos y lo que nos gustaría saber. Nos lo contó en Madrid Kyriakos Papadodimas (University of Groningen), “Falling into a Black Hole and the Information Paradox in AdS/CFT,” IFT Xmas Workshop 2012, December 20 [slides]; la charla está basada en su artículo Kyriakos Papadodimas, Suvrat Raju, “An Infalling Observer in AdS/CFT,” arXiv:1211.6767, 28 Nov 2012.


Dibujo20130730 hawking radiation - pure state becomes thermal radiation

Papadodimas estudia el problema de la observación de la radiación de Hawking en un agujero negro en un espaciotimpo AdS (anti-de Sitter), que en relatividad general corresponde a una solución de vacío de las ecuaciones de Einstein con una constante cosmológica negativa (atractiva). Gracias a la correspondencia AdS/CFT, este agujero negro equivale a un plasma de quarks y gluones en una teoría gauge conforme (CFT) similar a la cromodinámica cuántica con un número infinito de cargas de color. Gracias a esta analogía, tras un buen número de cálculos, Papadodimas concluye que en un agujero negro macroscópico un observador semiclásico que penetra en el horizonte de sucesos no nota nada especial.

Lea el artículo completo en:

Francis Science News

6 de agosto de 2013

Lima: Este es el invierno más frío desde hace 30 años

El frío y la humedad alcanzaron niveles históricos en la capital. Desde 1983 no se vivía un invierno tan frío en la ciudad. Las temperaturas bordean los 12 grados C y la humedad está en 97%.

El mal tiempo se extenderá hasta el mes de setiembre, según Senamhi. Advierten que casos de gripe AH1N1 podrían aumentar.

Por más que se abrigan, los limeños ya tiritan, y eso que la temperatura seguirá bajando. Según el Servicio Nacional de Meteorología e Hidrología (Senamhi), el clima en la capital empeorará; así lo detalla un informe publicado en el diario Perú 21.


Según el meteorólogo Félix Cuba, experto de esa entidad, las bajas temperaturas se deben a que el mar está registrando temperaturas anómalas, más frías de lo normal.


“Los vientos están trasladando la humedad, y esto, a su vez, produce las intensas lloviznas. Estas condiciones han acompañado todo el invierno en la capital, a diferencia de otras ciudades del litoral, ya sea al norte o al sur del país”, explicó al diario local.


Las tempraturas más frías se sintieron en los distritos al sur de la ciudad, como Villa María del Triunfo (VMT), donde la temperatura fluctúa entre los 12 y los 14 grados centígrados. Aquí la presencia de neblina reduce la visibilidad a unos 10 metros.


Sin embargo los puntos donde el invierno es más crudo en la capital son los sectores conocidos como  “Ticlio Chico”,  “Lomo de Corvina” y Tablada de Lurín, en VMT. Allí la lluvia es mucho más copiosa que en otros lugares de la ciudad y la temperatura puede caer por debajo de los 10 grados.  

 Foto: Terra Perú Foto: Terra Perú

En los distritos de la zona este, como Ate y La Molina, el termómetro descendió hasta los 12,9 grados; mientras que los distritos de Barranco y Chorrillos marcaron 14 grados. La sensación de frío se agudiza por los altos índices de humedad, que en El Callao llegó al 100% y en varios distritos registró un 97%, sin contar con una persistente garúa que cae intermitentemente sobre la ciudad desde la tarde del domingo.


Se prevé que estas condiciones persistan hasta setiembre. “Si bien es cierto que agosto es el mes en el cual el invierno es más crudo, esta misma intensidad se presentaría en setiembre. Eso significa que el mal clima afectará el inicio de la estación de la primavera”, puntualizó el experto.


El especialista Abraham Levi comentó en su cuenta de twitter @hombredeltiempo que mañana Lima llega al punto medio del invierno, acumulando 17 días sin brillo solar (excluyendo a zonas altas de la ciudad).  Levy explicó que la topografía del litoral, así como su perfil costero, convierten a la capital del Perú en un vertedero de aire húmedo.

 “Si utilizamos como oficial la data del aeropuerto Jorge Chávez, la temperatura mínima, la temperatura máxima y la continuidad de días con cobertura nubosa, podemos decir que este invierno es uno de los más severos de los últimos años”, indicó Levy. Refirió además que el océano tiene un ciclo anual de valores climáticos. “Este ciclo está sobreenfriado desde el final del verano, y se espera continúe hasta la primavera”, declaró.


El servicio meteorológico exhortó a la población a tomar medidas para protegerse del frío, usar varias capas de ropa abrigadora y prestar especial atención a los niños, que son quienes más sufren de males respiratorios ocasionados por el invierno.


ZONAS AZOTADAS

El Senamhi advirtió que la zona sur de Lima es la más golpeada por el frío. Así, uno de los distritos afectados es Villa María del Triunfo, donde las temperaturas fluctúan entre los 12 y los 14 grados.


Las personas que residen en esta jurisdicción soportan, además, una densa neblina que reduce la visibilidad a menos de 10 metros.


En el asentamiento humano conocido como Ticlio Chico, los termómetros descienden a menos de 10 grados. Pese a ello, la única posta de salud del lugar no cuenta con vacunas contra la influenza (estacional o AH1N1).


Villa El Salvador también es otro distrito que sufre los embates del clima. De esa manera, los habitantes del pueblo joven Lomo de Corvina deben soportar una temperatura de entre 10 y 11 grados.


Un factor que agrava la situación de los moradores es que viven en situación de extrema pobreza.

El Senamhi recomendó a los ciudadanos que se mantengan abrigados y que manejen con prudencia.

Fuentes:

Terra Noiticias

Peru21

Lea también:

¿Por qué en Lima hace tanto frío?

¿Por qué la humedad incrementa la sensación de frío?


 

15 de julio de 2013

¿Por qué en Lima hace tanto frío?

Se dice que este invierno será uno de los más crudos en décadas. Y la verdad es que este frío nuestro de todos se nos cala hasta los huesos, todos lo sentimos, pero...¿a qué se debe el frío del invierno limeño el cual este año podría llegar a temperaturas de 11 grados?
 


La causa del invierno limeño se debe a que es una ciudad cercana al mar. Y nuestro mar es frío pero en los meses de invierno se torna aún más frío. Este video, del programa "Cuarto Poder", lo explica mejor, aunque la calidad de imagen sea bastante baja:


Las temperaturas mínimas se registran de noche en la costa peruana siempre.

Si usted vive en la capital y siente que el frío es especialmente inclemente este año, su percepción es correcta. 

El mar frío nos está pasando una dura factura climática. 

En tanto dure el enfriamiento del mar frente a la costa, seguiremos en este periódico dando cuenta de un invierno especialmente frío y, consiguientemente, húmedo.

Ahora, otra cosa es la sensación térmica. Expliquemos, si los termómetros registran 16°C de temperatura es porque hace frío pero usted puede sentir frío como si estuviera a 14°C, ¿a qué se debe esto? En el próximo post lo explicaremos.

1 de abril de 2013

"Energía y Potencia" para dummies

Energía y potencia son dos conceptos que hemos utilizado infinidad de veces en Nergiza, aunque parecen dos definiciones sencillas, nos hemos dado cuenta que incluso los medios de comunicación las confunden, así que vamos a tratar de explicarlos de forma que todo el mundo los pueda entender.


energiaypotencia


Lea el artículo completo en:



27 de marzo de 2013

Hacer una o muchas colas en el supermercado: ¿qué nos dice la estadística?

Acostumbrado a las colas "tradicionales" en los supermercados, donde cada caja tiene su propia cola, hace años me sorprendió ver que algunas cadenas usaban un método novedoso: la cola única para todas las cajas. Fue en UK, y hasta hace poco no han empezado a adoptar ese modelo algunas grandes superficies españolas.
A primera vista no es trivial decir qué sistema es mejor. En el post de hoy haremos un análisis estadístico (incluyendo simulaciones) con el que dejaremos bien claro que el sistema de única cola es mucho mejor desde el punto de vista del cliente.




Los dos competidores: (izquierda) las colas tradicionales, (derecha) la cola única (Créditos imagen)

Los que hayan estudiado teleco ya sabrán que el modelado de este tipo de problemas forma un campo de las matemáticas en sí mismo: la Teoría de Colas. Piensa que además de en la cola del super, nos encontramos problemas muy parecidos en redes de telecomunicaciones (e.g. paquetes de datos esperando entrar o salir por un router), en programas informáticos (e.g. peticiones a un servidor), etc. por lo que hay mucha gente que lleva décadas estudiando todo esto a fondo. De hecho podemos remontarnos a hace un siglo, cuando Erlang calculó cuándo se saturarían las líneas telefónicas de una ciudad. En su honor se definió la unidad de carga en redes de telefonía.

Básicamente lo que nos interesa en el caso del supermercado es un único estadístico que mide directamente el nivel de cabreo del cliente: cuánto tiempo tiene que esperar antes de que le atiendan. Las dos alternativas de sistema son:


  1. Una única cola y un número M de cajas para atender a clientes (1 cola / M cajas).
  2. M cajas, cada una con su cola (M colas / M cajas).

En este tipo de estudios estadísticos no tenemos ni idea de cuándo llegarán los clientes, pero la sincronización es importante porque si llegan muchos a la vez se formarán colas más largas. Para modelar esto matemáticamente se asume que existe una distribución de probabilidad uniforme y constante de que aparezca un cliente, lo que lleva a una distribución exponencial de los períodos desde que llega un cliente hasta el siguiente.

Aunque parezca un modelo un poco rebuscado y artificial, es el mejor posible cuando se asume que cada persona va a su bola y llega a una hora que es independiente (estadísticamente) de lo que hacen los demás.



Distribución exponencial para distintos valores del parámetro (lambda), relacionado con el número medio de llegadas por unidad de tiempo.
Asumiremos que los clientes llegan a un ritmo de [Math Processing Error] por minuto, y que las cajas son capaces de atenderlos a un ritmo de [Math Processing Error] cada una. Así, el modelo de M cajas queda:




Para hacer una comparación justa, en el modelo de cola única asumiremos que llegan el mismo número de clientes por minuto, y por tanto entrarán en la cola con frecuencia de  [Math Processing Error] por minuto:




Desde el punto de vista del número de clientes atendidos por minuto, los dos sistemas son equivalentes. Es más, el tiempo medio que transcurre desde que un cliente llega hasta que se le atiende también son iguales, dividiendo el tiempo total de funcionamiento entre el número total de clientes que pasan por el sistema.

Pero desde el punto de vista del cliente, es mejor el sistema de cola única debido al sesgo de muestreo: si por lo que sea se forma un pequeño retraso en una de las M colas, ese retraso será "notado" por muchos clientes al haberse formado más cola. Que en ese mismo momento haya otros pocos clientes que encuentren cajas libres no es suficiente para bajar la media del tiempo de espera subjetivo.

Se pueden sacar fórmulas teóricas que dan la distribución de tiempos de espera para cada caso, pero hoy me apetecía más hacerlo experimentalmente, así que he programado un simulador de eventos discretos para estimar cuánto afecta la elección del sistema de cajas (si alguien deriva las fórmulas, ¡le agradecería que las dejase en los comentarios!).

La siguiente gráfica resume muy bien el resultado: son los tiempos medios que los clientes esperan hasta ser atendidos en cada uno de los sistemas (negro: cola única), para distintos valores de número de cajas abiertas (M=2, 5, 10 y 20).



(clic para ampliar)
Se ve claramente que ya desde sólo dos cajas se nota una disminución de hasta el 33% en el tiempo de espera. ¡Con los mismos recursos materiales y de personal, sólo cambiando la organización de la cola!

Aunque en el mundo real existan complicaciones que no se tienen en cuenta en este modelado matemático, como horas punta, creo que merecería la pena que todas las grandes superficies que físicamente puedan implementar este sistema se lo plantearan seriamente.


NOTA (25/MAR, 9:50am): El modelo de cola empleado cada vez que llega un cliente es el siguiente:


  • Si hay una caja libre y sin cola delante, va a esa caja.
  • En caso contrario, se va a la caja que no tenga cola. 
  • Y en caso de no existir ninguna cola vacía, se elije una cola al azar con distribución uniforme.


Para los de gustos matemáticos: Os dejo algunos histogramas (en escala logarítmica) para M=2, M=10 y M=20, donde se ve que la diferencia se va haciendo cada vez más grande al aumentar el número de cajas (M):








Nota: En las simulaciones se ha usado Período_llegada_clientes=1, Período atención en cada=M * Período_llegada_clientes * 0.9, para modelar el hecho de que si hay más cajas abiertas en un estado de equilibrio es porque se tarda más con cada cliente.

Fuente:

Ciencia Explicada

21 de marzo de 2013

Cómo calcular la fecha del Domingo de Resurrección

Introducción

Se inicia la Semana Santa planteo la siguiente pregunta: ¿sabéis qué criterio se sigue para asignar la fecha del Domingo de Resurrección cada año?

Yo me he hecho esa pregunta en más de una ocasión viendo que la variedad de fechas para ese día es relativamente grande. ¿Hay algún criterio para asignar fecha a ese día? En el caso de que lo haya (que por otra parte era lo más lógico), ¿en qué se basa ese criterio? ¿Su base es meramente religiosa o hay algo más?

Pues parece que hay algo más. Y, cómo no, lo que hay son matemáticas. Sí, matemáticas, aquí también están. Veámoslo.

Historia

A principios del siglo IV habían surgido varios grupos que calculaban a su manera la fecha del día de la Pascua de Resurrección. No había consenso, cada uno de ellos daba una fecha distinta, por lo que la confusión que rodeaba este asunto era grande. 
En el Concilio de Arlés (año 314) se obligó a todos los cristianos a celebrar la Pascua el mismo día (que sería fijado por el Papa), aunque no todos los grupos estuvieron de acuerdo en ello. Fue en el año 325, en el Concilio de Nicea, donde se alcanzó un principio de acuerdo.

Las normas que debía cumplir el día de Pascua de Resurrección eran las siguientes:
  • La Pascua debía celebrarse en domingo.
  • No podía coincidir con la Pascua judía (que conmemora la salida del pueblo judío de Egipto) para evitar confusiones entre ambas religiones.
  • Que los cristianos no celebrasen la Pascua dos veces el mismo año.
Pero con todo esto seguía habiendo diferencias entre la iglesia de Roma y la iglesia de Alejandría (principalmente relacionadas con el equinoccio de primavera y el cálculo de la edad de la Luna).

La solución final no llegó hasta el año 525, en el que Dionisio el Exiguo (cuyo nombre proviene de su pequeña estatura) sentó las bases del cálculo de la fecha de Pascua (que eran las del método alejandrino). Las premisas iniciales del método son las siguientes:
  • La Pascua ha de caer en domingo.
  • Este domingo ha de ser el siguiente a la primera luna llena de la primavera boreal (si esta fecha cayese en domingo, la Pascua se trasladará al domingo siguiente para evitar la coincidencia con la Pascua judía).
  • La luna pascual es aquella cuyo plenilunio tiene lugar en el equinoccio de primavera (vernal) del hemisferio norte (de otoño en el sur) o inmediatamente después.
  • Este equinoccio tiene lugar el 21 de marzo.
  • Llamamos epacta a la edad lunar. En concreto nos interesa para este cálculo la epacta del año, la diferencia en días que el año solar excede al año lunar. O, dicho más fácilmente, el día del ciclo lunar en que está la Luna el 1 de enero del año cuya Pascua estamos calculando. Este número (como es lógico) varía entre 0 y 29.
Con estas condiciones la Pascua quedaba encuadrada entre el 22 de marzo y el 25 de abril.

Durante el Renacimiento se construyeron tablas de cálculo para esta fecha, algunas de ellas relacionadas con el número aúreo. En la actualidad el método más sencillo para realizar este cálculo se debe a nuestro admirado Gauss.

Cálculo del Domingo de Resurrección

Como hemos dicho antes, el método más sencillo para el cálculo de esta fecha se lo debemos a quien da nombre a este blog, Carl Friedrich Gauss (como podéis consultar en el extra que encontraréis más adelante, éste no es el método oficial, pero siempre da el mismo resultado). La base del mismo es la aritmética modular. Vamos a explicar en qué consiste:

Definimos diez variables que denotamos así: a,b,c,k,p,q,M,N,d,e. Siendo A el año del que queremos calcular la fecha del Domingo de Resurrección, veamos cómo se define cada una de ellas:
  • a es el resto de la división de A entre 19, es decir, a \equiv A \pmod{19}.
  • b es el resto de dividir A entre 4, es decir, b \equiv A \pmod{4}.
  • c es el resto de la división de A entre 7, esto es, c \equiv A \pmod{7}.
  • k es el resultado de redondear por defecto el resultado de la división de A entre 100, es decir, k= \lfloor \textstyle{\frac{A}{100}} \rfloor.
  • p es el resultado de redondear por defecto el resultado de la división de 13+8k entre $25$, esto es, p=\lfloor \textstyle{\frac{13+8k}{25}} \rfloor.
  • q es el resultado de redondear por defecto el resultado de la división de k entre 4, es decir, q=\lfloor \textstyle{\frac{k}{4}} \rfloor.
  • M es el resto de la división de 15-p+k-q entre 30, esto es, M \equiv 15-p+k-q \pmod{30}.
  • N es el resto de la división de 4+k-q entre 7, es decir, N \equiv 4+k-q \pmod{7}.
  • d es el resto de dividir 19a+M entre 30, o lo que es lo mismo, d \equiv 19a+M \pmod{30}.
  • e es el resto de la división de 2b+4c+6d+N entre 7, es decir, e \equiv 2b+4c+6d+N \pmod{7}.
Calculando el valor de cada una de las variables para el año en cuestión, la fecha del Domingo de Resurrección será la siguiente:
  • Si d+e < 10, la fecha de Pascua de Resurrección será el día d+e+22 de marzo.
  • Si d+e > 9, la fecha de Pascua de Resurrección será el día d+e-9 de abril.
Para esta regla existen dos excepciones:
  • Si obtenemos el 26 de abril (nos salimos del rango establecido), la Pascua será el 19 de abril.
  • Si obtenemos el 25 de abril con d=28, e=6, a > 10, entonces la Pascua será el 18 de abril.
Para ejemplificar el método vamos a calcular la fecha del Domingo de Resurrección de este año 2009 (que como sabemos es el día 12 de abril).
Para el año A=2009 los valores de las variables son los siguientes (como los cálculos son sencillísimos os dejo a vosotros la comprobación):
a=14,b=1,c=0,k=20,p=6,q=5,M=24,N=5,d=20,e=1 Como d+e =21 > 9, entonces la fecha es el d+e-9=21-9=12 de abril, como en realidad es.
Lea el artículo completo en:

Gaussianos
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0