Fenómeno se registró entre mayo y junio de este año, afirma Senamhi
Especialistas en el estudio del clima afirmaron que si bien se ha
descartado la presencia de un Fenómeno de El Niño extraordinario,
sucesos como el calentamiento del mar, como el que se registró entre
mayo y junio pasado sí genera un impacto negativo en la población.
Al respecto, en declaraciones a la Agencia Andinala directora de Climatología del Senamhi, Grinia Ávalos Roldán, citó como ejemplo que de cierta manera dicho calentamiento, que duro entre 8 y 9 semanas, limitó la afloración del mango en el norte del país.
Además, afirmó, el recurso hidrobiológico se profundizó y se trasladó a otros lugares afectando a los pescadores."Han
sido muy elocuentes las imágenes difundidas por varios medios de
comunicación sobre el hallazgo de aves muertas a lo largo del litoral
porque no encontraban alimento", puntualizó.
La especialista remarcó la importancia del
tema de la gestión de riegos no tiene que centrarse solamente en
eventos ya conocidos como el Fenómeno El Niño, pues el clima en su
mayor variabilidad puede generar escenarios cálidos que produzcan
impactos desfavorables en la gente.
"Ante
esta situación nuestra necesidad de informar y monitorear se acrecienta
y, sin ser alarmistas, debemos decir lo que está pasando", enfatizó.
Por este motivo, la funcionaria anunció que el 30 de octubre próximo en el Cusco, el Senamhi
desarrollará el Primer Foro Climático Regional. Agregó que con las
autoridades cusqueñas han coordinado mucho y los pobladores están bien
sensibilizados al respecto. "Tenemos muchos proyectos ejecutados en esta
parte del territorio nacional", comentó.
Según la actividad que desarrollemos en un momento dado, las personas de las que nos rodeemos o incluso nuestra edad, nos parecerá que el tiempo transcurre muy lentamente o que pasa volando. Entre las experiencias que modifican la percepción de la llamada cuarta dimensión se encuentra la motivación.
Cuando nos sentimos estimulados y pretendemos
alcanzar un objetivo concreto y deseado, sobre todo si tenemos la firme
esperanza de conseguirlo y si responde a una necesidad básica, como
comer o beber, el tiempo se desliza a toda velocidad. De acuerdo con un estudio de la Universidad de Alabama publicado en Psychological Science, este fenómeno se debe a que en estas circunstancias se minimizan los procesos de la memoria y la atención, para apartar pensamientos y emociones irrelevantes. Por su parte, el psicólogo Steve Taylor, investigador de la Universidad John Moores de Liverpool, en el Reino Unido, sostiene que la percepción del paso del tiempo viene condicionada en gran medida por la cantidad de información que procesamos. Así, transcurre más despacio para los niños porque están muy atentos a lo que acontece
a su alrededor. Estos experimentan muchas cosas por primera vez, lo que
les obliga a asimilar constantemente abundante información.
Sin embargo, para las personas adultas apenas existe novedad en las experiencias cotidianas,
se han acostumbrado al mundo y todo les resulta familiar, según explica
Taylor. De ahí que un año vivido a partir de los cincuenta nos parezca
mucho más breve que doce meses de la niñez o la adolescencia. Este efecto es aún más perceptible en las víctimas de accidentes, que suelen describir esas situaciones traumáticas como si hubiesen sucedido a cámara lenta.
Pero no es porque el tiempo transcurriera más despacio en sus sesos,
como ha demostrado el neurocientífico David Eagleman, del Baylor College
de Medicina, en Texas (EE. UU.), sino por una triquiñuela de la
memoria.
Cuando una experiencia nos asusta, entra en juego un área del
cerebro llamada amígdala que hace que se almacenen más recuerdos que en
otro tipo de acontecimientos. Dicho de otro modo, en
situaciones críticas acumulamos una gran cantidad de información en la
memoria en un lapso mínimo de tiempo. Por eso, las experiencias
aterradoras generan memorias más ricas y densas, que nos hacen creer que el tiempo transcurrido fue mayor.
Cada vez que guardamos los auriculares de nuestro smarphone en el
bolsillo y vamos a echar mano de ellos siempre es lo mismo, encontramos
un revoltijo de cables que tenemos que desenredar. La pregunta es ¿Por qué siempre se enredan? Investigadores del Departamento de Física de la Universidad de California en San Diego han intentado resolver matemáticamente el suceso. Hay varios factores que entran en juego para que se produzcan los nudos en los cables. Se realizó un estudio en el que se colocaron en una
caja cables de diferente longitud y se sometieron a diversos niveles de
agitación. Se realizaron 3.415 pruebas estudiando y clasificando el tipo
de nudo generado. El resultado obtenido es, que los factores principales que inciden a
la hora de producirse los nudos son la longitud y el tiempo de
agitación. Con lo que si sacudimos los cables más largos durante más tiempo tendremos más nudos,
aunque habrá que tener en cuenta la rigidez y el diámetro del cable. La
posibilidad de que un cable largo y flexible se enrede es cercana al
100%. Así que visto este estudio la única forma de conseguir que nuestros cables no se enreden es pasarnos a la tecnología inalámbrica. Vía | Discover
El telescopio Hubble capta la imagen más nítida de algunas de las galaxias más distantes y antiguas, cuya luz es amplificada al atravesar el cúmulo de Pandora.
El telescopio espacial Hubble ha conquistado un nuevo hito astronómico al fotografiar un conjunto de galaxias sumamente interesante con la mayor resolución conseguida hasta el momento.
Esta agrupación de galaxias, que ya había sido estudiada por el Hubble y
otros telescopios en el año 2011, es conocida como Abell 2744. Su
formación se produjo a partir de un choque de cuatro grupos de galaxias,
generando así un conjunto gigante con una estructura aparentemente
caótica. Abell 2744 también se es conocido como 'cúmulo de Pandora'
pues, según los astrónomos, esta colisión múltiple entre cúmulos abrió una caja de Pandora de notables fenómenos astrofísicos. La mezcla de fenómenos cósmicos que se dan en Pandora, "algunos de
los cuales nunca se habían visto antes", según señalan desde el
Instituto de Ciencia del Telescopio Espacial, hacen que los cúmulos de
galaxias actúen como lentes gravitacionales, de manera que las imágenes
recogidas por el telescopio Hubble permiten ver lo que se encuentra a
12.000 millones de años luz, recreando cómo era el Universo poco después del Big Bang.
Un telescopio natural
La lente gravitacional es un fenómeno que se produce en astrofísica
cuando la luz procedente de un objeto lejano pasa por las proximidades
de una gran masa que se encuentra en la misma línea de mirada. Esta masa
amplifica la imagen del objeto lejano actuando como un gran telescopio natural. Estas nuevas imágenes captadas telescopio Hubble, en las que el cúmulo de Pandora actúa como una lente gravitacional, muestra galaxias situadas a distancias muy lejanas y a la vez muy jóvenes.
Algunas de ellas son excepcionalmente brillantes. "Hemos observado cómo
de repente las galaxias se han empezado a acumular y a hacerse cada vez
más luminosas en muy poco tiempo", dice el doctor Garth Illingworth de
la Universidad de California en Santa Cruz. Casi 3.000 galaxias de fondo
y cientos de ellas en el primer plano aparecen en las fotografías. Las galaxias que aparecen distorsionadas en forma de arco azul son
porciones de los llamados anillos de Einstein. "Los anillos sólo se ven
completos cuando la galaxia distante está perfectamente alineada con la que actúa como lente",
apunta Rafael Bachiller, director del Observatorio Astronómico Nacional
en España. Los anillos de Einstein permiten estudiar cómo eran las
galaxias cuando el Universo tenía apenas 3.000 millones de años de edad. El 75% de la masa de Pandora está compuesta por la enigmática materia oscura,
uno de los mayores misterios de la astrofísica contemporánea, que
también tiene una gran importancia en estas agrupaciones de galaxias. Lee el artículo completo en: El Mundo Ciencia
El empleado postal Chris Newbergen reparte el correo frentándose a una temperatura de -25º en Minneapolis.
Efe
La ola de frío polar sigue causando estragos en Estados Unidos. Es como si el país hubiera entrado en estado de hibernación. Con temperaturas tan bajas como -51° en Montana, -42 en Minnesota o -22° en Iowa, los aviones no pudieron despegar en muchos estados porque el combustible se congeló, los trenes se quedaron atascados por la nieve que invadió los carriles y unos 180 millones de estadounidenses han visto sus vidas totalmente alteradas. Aunque la precipitación de nieve disminuyó en la madrugada del martes, el frío se volvió más riguroso y congeló la nieve
que tarda mucho en derretirse. En Montana, Iowa, Dakota del Norte,
Illinois, Pensilvania y Wisconsin hay lugares donde la nieve alcanza los cuatro y cinco metros. Tras
los más de 4.400 vuelos cancelados el lunes en el medio oeste y el
noroeste del país, ayer por la tarde ocurrió lo mismo con otros 1.600.
Al cierre de esta edición, en los principales aeropuertos del centro y
este de Estados Unidos permanecían más de 22.000 pasajeros varados. La
compañía JetBlue, por ejemplo, canceló todos sus vuelos de los
aeropuertos de Nueva York y Boston. "Las temperaturas extremas están teniendo un impacto muy severo en las operaciones aéreas", declaró Andrea Huguely, portavoz del American Airlines Group. Son muchos los incidentes que está provocando el temporal, como el de los 500 pasajeros de un tren que se dirigía de Nueva York a Chicago que
pasaron la madrugada del martes varados en una campiña de Illinois
porque una montaña de tres metros de nieve no les dejó avanzar. Fueron
rescatados al amanecer por la Guardia Nacional. "Las montañas de nieve
eran enormes. La nevada no dejaba a los conductores trabajar con los
niveles de seguridad necesarios. Sencillamente, no podían avanzar", dijo
el portavoz de la empresa Amtrak, Marc Magliari. Lo mismo sucedió con otros dos trenes que venían de lugares tan distantes como San Francisco y Los Ángeles, que quedaron detenidos a unos 24 kilómetros de Chicago. Según el canal de televisión, Weather Channel, la tempestad de nieve inicial y la posterior congelación han sido provocadas por un vórtice polar, una especie de huracán ártico que normalmente se mantiene circulando alrededor del Polo Norte, pero que este año se desplazó sobre Canadá hasta cubrir casi todo Estados Unidos. Sus
efectos se hacen sentir en todos los estados, incluyendo Florida, donde
se han registrado temperaturas alrededor de los -4°, muy inusual para
la temporada. "El vórtice ha logrado batir casi todos los récords históricos", subrayó el principal meteorólogo del canal, Jen Carfagna. Lea el artículo completo en: El Mundo (España)
Investigadores italianos demuestran empíricamente una teoría de los años 80 a partir del entrelazamiento cuántico de dos fotones. Un experimento realizado con un modelo de universo “de juguete”, formado sólo por dos fotones cuánticamente entrelazados, sugiere que el tiempo “es una ilusión” o que la existencia del tiempo depende de la existencia de los relojes, como propuso una teoría matemática de la década de 1980. Además, vincula la emergencia del tiempo al entrelazamiento cuántico. Interesantes resultados que avivan una cuestión fundamental, tanto para la ciencia como para la filosofía. Por Yaiza Martínez.
Imagen: JoLin. Fuente: PhotoXpress.
Un experimento realizado con un modelo de universo “de juguete”
sugiere que el tiempo “es una ilusión” o que la existencia del tiempo
depende sólo de la existencia de los relojes.
La física moderna intenta fusionar las leyes de dos “universos”:
el macrocoscópico, y el de las partículas atómicas y subatómicas.
Actualmente, describe así la realidad a través de dos vías: la mecánica cuántica, que explica lo que sucede a escala microscópica; y la relatividad general, que da cuenta de lo que sucede en el resto del cosmos: a los planetas, a los agujeros negros, etc.
Pero ambas descripciones no terminan de combinar bien. Desde que
las ideas de la mecánica cuántica se expandieron, a partir de la primera
mitad del siglo XX, parece que son incompatibles.
La cuestión del tiempo A mediados de la década de los años 60 del siglo pasado, los
físicos John Wheeler y Bryce DeWitt parecieron encontrar una solución a
este dilema: la llamada ecuación de Wheeler-DeWitt.
Con ella se eludían los problemáticos infinitos que surgían de
otras combinaciones de ambas teorías. Pero, aunque la ecuación de
Wheeler DeWitt resolvió uno de los problemas fundamentales de la
combinatoria entre las dos interpretaciones de la realidad antes
mencionadas, hizo emerger un segundo y muy serio problema: expresaba un
universo estático, “sin tiempo”, algo que a todas luces no existe.
En 1983, los teóricos Don Page y William Wootters propusieron una solución a este segundo problema basada en el llamado “entrelazamiento cuántico”, esa propiedad subatómica que tan bien describieron en su libro “El cántico de la cuántica”
Ortoli y Pharabod: si tienes dos peces (o partículas) en un mismo
charco y éstos se unen tan íntimamente que alcanzan un estado
“entrelazado”, cuando pases uno de ellos a otra charca, ambos seguirán
reaccionando de la misma manera, aunque ya no estén juntos. Así, si el
primero es pescado, el segundo saltará igualmente fuera de su charca.
Este extraño comportamiento de las partículas subatómicas
entrelazadas –al que Einstein denominó “acción fantasmal a distancia”-
provoca que éstas no puedan definirse a partir del entrelazamiento como
partículas individuales con estados definidos, sino como un sistema. El
entrelazamiento cuántico hace que las partículas pasen a tener una
“misma existencia”, a pesar de encontrarse espacialmente separadas. El artículo completo en: Tendencias21
Detalle de la región del cielo donde está z8_GND_5296 en una imagen del telescopio 'Hubble'.
Se formó cuando el Universo sólo tenía 700 millones de años, es decir
cuando apenas era un niño. Ha sido denominada z8_GND_5296 y se trata de la galaxia más lejana confirmada hasta ahora.
Un equipo internacional de investigadores ha logrado precisar su edad
gracias al telescopio Keck I de 10 metros situado en Hawaii, en
concreto, utilizando su espectrógrafo MOSFIRE. Considerando que el Big Bang se produjo hace 13.800 millones de años, esta galaxia se formó cuando el Universo sólo tenía el 5% de la edad actual., según explicanesta semana en la revista Nature.
El hallazgo supone un nuevo paso para lograr averiguar cómo era el
Universo durante sus etapas iniciales de formación: "La luz que [las
primeras galaxias] emitieron poco después de la Gran Explosión ha estado
viajando durante la mayor parte de la vida del Universo hasta alcanzar
hoy a nuestros telescopios", explica a ELMUNDO.es Rafael Bachiller,
director del Observatorio Astronómico Nacional. El estudio está liderado por investigadores de las Universidades
Texas A&M y Texas Austin, aunque también han participado científicos
de otros centros de EEUU, Italia e Israel.
Distancias espaciales
El Universo está en continua expansión. Para calcular distancias
espaciales, además del año luz los (la distancia que la luz recorre en
un año) los astrónomos utilizan el denominado desplazamiento hacia el
rojo (redshift en inglés), que es una medida de la velocidad y de la distancia. La galaxia descrita en Nature tiene un desplazamiento al rojo de 7,51. En el listado que manejan los astrónomos están incluidas más de 100
galaxias que son candidatas a tener desplazamientos hacia el rojo mayor
que 7. Aunque en el pasado se han localizado galaxias más lejanas de la Vía Láctea que la que se describe en este estudio, no han sido confirmadas mediante espectrógrafo.
"Ahora, la denominada galaxia z8_GND_5296 ha resultado tener el
brillo suficiente para permitir tanto la medida precisa de su distancia
(desplazamiento hacia el rojo o 'redshift' ) como el análisis de su
débil luz por medio de un espectrógrafo.
Naturalmente para este tipo de
observaciones se necesitan los mayores telescopios del mundo", afirma
Bachiller, que señala el telescopio usado (el Keck equipado con un
espejo segmentado de 10 metros de diámetro efectivo), es similar en
muchos aspectos al Gran Telescopio de Canarias. La galaxia z8_GND_5296 se formó hace unos 13.000 millones de años,
que es el tiempo que ha tardado la luz de la galaxia en llegar a la
Tierra. Así, los astrónomos calculan que esa galaxia está a unos 30.000
millones de años luz de nuestro planeta. "La búsqueda de objetos que se encuentran más alejados de la Tierra
de aquellos que ya se conocen es importante para mejorar nuestra
comprensión de la historia del Universo y necesario para llegar a
encontrar la primera generación de galaxias que se formaron después del Big Bang", explica Dominik A. Riechers, astrónomo de la Universidad de Cornell (EEUU), en un artículo complementario de la revista Nature. Lea el artículo completo en: El Mundo Ciencia
Como bien dicen en Wait but why los seres humanos «somos buenos en muchos aspectos, pero no en poner las cosas en perspectiva». Y es que en las grandes escalas, números y comparaciones acabamos perdiéndonos. Por eso han creado estas cronologías en forma de gráficos históricos que sitúan fechas en puntos concretos y comparan la duración de unos hechos con otros. De este modo se puede entender de un vistazo qué ha vivido una
persona de 90 años, y cuánto duró cada evento respecto al total de su
vida, o cuán insignificante es la historia moderna registrada (unos
5.500 años). Como extra espectacularmente interesante, si se ven todos los
gráficos juntos cada uno de ellos se corresponde con el último segmento
del anterior. De este modo la cronología abarca desde las últimas 24
horas a los 13.800 milones de años que tiene el universo observable. Y
como bonus han añadido el qué pasará dentro de unos 8.000 millones de años y más allá. Ya lo sabíamos pero no está de más recordarlo: ¡no somos nada! (Vía Boing Boing.) Fuente: Microsiervos
Según Albert Einstein, el tiempo y el espacio
eran sencillamente diferentes aspectos de la misma entidad que ahora se
conoce como "espacio-tiempo". Por ende, parece plausible que ambas empezaron a existir simultáneamente. Habiendo dicho lo cual, investigaciones
recientes que combinan el trabajo de Einstein y la teoría cuántica ha
llevado a algunos teóricos a concluir que el espacio podría haber
generado el fenómeno que experimentamos como tiempo. Fuente: BBC Ciencia
Zeeya Merali ha entrevistado al físico Mark Van Raamsdonk (Univ.
Columbia Británica en Vancouver, Canadá), uno de los padres de la idea
ER=EPR, sobre qué es el espaciotiempo. Su respuesta es sencilla: “pura
información codificada en un holograma” cual una película de ciencia
ficción como Matrix. El “principio holográfico” puede parecer extraño,
pero según Van Raamsdonk es fundamental para entender la relación entre
la relatividad general, que explica cómo la gravedad es resultado de la
curvatura del espaciotiempo, y la mecánica cuántica, que gobierna el
mundo subatómico. Recomiendo la lectura de Zeeya Merali, “Theoretical
physics: The origins of space and time,” Nature 500: 516–519, 29 Aug 2013. Me permito un traducción libre en forma de resumen para quienes no tengan acceso a este interesante artículo. Merali
ha aprovechado que Van Raamsdonk y muchos colegas están reunidos en el
“KITP Rapid Response Workshop: Black Holes: Complementarity, Fuzz, or
Fire?,” organizado entre el 19 y el 30 de agosto por Raphael Bousso
(UCB), Samir Mathur (OSU), Rob Myers (PI), Joe Polchinski (KITP), Lenny
Susskind (Stanford) y Don Marolf (UCSB) [listado de las charlas con enlaces a los vídeos].
Confieso que yo he visto todas las charlas de la semana pasada. Para
entender muchas de ellas hay que leer los artículos técnicos más
recientes de los conferenciantes, pero lo más interesante no es el
contenido, sino el diálogo entre expertos y las discusiones al margen
sobre las ideas presentadas. Obviamente, sólo recomendable para frikis
de estos asuntos. El principio holográfico se inspiró en la entropía
de Hawking-Bekenstein asociada a los agujeros negros (que es
proporcional al área del horizonte de sucesos, en lugar de al volumen
como en cualquier objeto material). Esta entropía corresponde a un
conjunto de microestados del agujero negro que están de alguna forma
codificados en el horizonte de sucesos, que actúa como un holograma
plano que almacena la información del espacio tridimensional que acota.
El físico argentino Juan Maldacena (Instituto de Estudio Avanzado de
Princeton, Nueva Jersey) publicó en 1998 un modelo holográfico del
universo que aplicó la misma idea al espaciotiempo, que sería un
concepto emergente a partir de la información holográfica. Esta
información equivaldría a partículas cuánticas en una teoría cuántica de
campos asociada al holograma. En
2010, Van Raamsdonk estudió que pasaría si las partículas del holograma
estuvieran entrelazadas (el entrelazamiento cuántico corresponde a
correlaciones entre partículas que garantizan que al medir el estado de
una partícula también se altera el estado de la otra partícula).
Descubrió que si todas estas partículas están entrelazadas a pares
(monogamia del entrelazamiento), cuando se rompe este entrelazamiento
entre dos partículas es como si se divide el espaciotiempo
tridimensional interior al horizonte en dos partes. Repitiendo el
procedimiento el volumen del espaciotiempo se va reduciendo en potencias
de dos. Para Van Raamsdonk es como si el entrelazamiento cuántico en el
holograma fuera lo mismo que el espaciotiempo emergente. Según
Maldacena, “la información cuántica en el holograma es fundamental y el
espaciotiempo es emergente.” La gravedad emergente a partir de la termodinámica también nació al tratar de generalizar a todo el espaciotiempo la entropía de Hawking-Bekenstein. En
1995, Ted Jacobson (Univ. Maryland en College Park) postuló que todo
punto en el espacio pertenece al horizonte de sucesos de un microagujero
negro y a partir de esta idea derivó las ecuaciones de Einstein de la
relatividad general (usando sólo conceptos termodinámicos sin introducir
de forma explícita el concepto de espaciotiempo, que emerge a partir de
los primeros). La idea alcanzó la fama en 2010, cuando Erik
Verlinde (Univ. de Amsterdam) dio un paso más allá derivando las leyes
de Newton a partir de la termodinámica estadística de los constituyentes
del espaciotiempo (sean estos lo que sean). Thanu Padmanabhan (Centro
Interuniversitario de Astronomía y Astrofísica de Pune, India) mostró
que las ecuaciones de Einstein se pueden reescribir en una forma
equivalente a las leyes de la termodinámica. Verificar estas ideas mediante experimentos es muy difícil, porque
los constituyentes discretos del espaciotiempo se estima que tienen una
tamaño en la escala de Planck. Sin embargo, se puede medir su efecto
sobre la propagación de los fotones de muy alta energía en los rayos
gamma producidos en fenómenos violentos del universo. Giovanni
Amelino-Camelia (Univ. de Roma) y varios colegas publicaron en abril de
2013 los primeros indicios de este fenómeno, que tendrán que ser
confimados en los próximos años. También están en curso varios
experimentos en laboratorio. Por ejemplo, en
2012, físicos de la Univ. de Viena y del Imperial College de Londres
propusieron un experimento de interferometría para estudiar la
estructura discreta del espaciotiempo. La gravedad cuántica de bucles nació a mitad de los
1980 gracias al trabajo de Abhay Ashtekar (Instituto de Física
Gravitacional y Geometría, Univ. Estatal de Pensilvania) y otros que
describieron el tejido del espaciotiempo como una red de enlaces que
portan información cuántica sobre las áreas y los volúmenes. Estos
enlaces pueden cerrarse sobre sí mismos formando bucles (que no tienen
nada que ver con las “cuerdas” de la teoría de cuerdas). Los bucles son
cuánticos y definen una unidad mínima de área (la unidad de área en la
escala de Planck) de forma similar a como la mecánica cuántica aplicada a
un átomo de hidrógeno define un estado de energía mínima para su
electrón. Esta unidad de área no se puede curvar demasiado con lo que no
se pueden producir singularidades en curvatura como las que predice la
gravedad de Einstein en el interior de los agujeros negros o en el Big
Bang. En 2006, simulaciones por ordenador realizadas por Ashtekar para la
singularidad del Big Bang, y por Rodolfo Gambini (Univ. de la República,
Montevideo, Uruguay) y Jorge Pullin (Univ. Estatal de Luisiana, Baton
Rouge) para un agujero negro demostraron cómo evita las singulariades la
gravedad cuántica de bucles. Sin embargo, esta teoría aún tiene muchos
problemas básicos que resolver, por ejemplo, cómo unificar la gravedad
con otras fuerzas o cómo emerge el espaciotiempo a partir de la red de
información cuántica de los bucles. La teoría de redes causales nació con el trabajo
pionero Rafael Sorkin (Perimeter Institute, Waterloo, Canada). Esta
teoría postula que los bloques que forman el espaciotiempo son puntos
matemáticos conectados por enlaces causales, que conectan pasado con
futuro. En una simulación por ordenador la red resultante construye el
espaciotiempo de forma gradual, lo que según Sorkin “permite ver cómo
emerge el espaciotiempo a partir de los puntos originales igual que la
temperatura emerge a partir de los átomos de un gas. ¿Qué es la
temperatura de un sólo átomo? De igual forma no tiene sentido preguntar
dónde está el espaciotiempo en la red causal.” A finales de los 1980, Sorkin calculó el número de puntos en el
universo observable y su razonamiento le llevó a inferior que existía
una pequeña energía intrínseca que causa que el universo acelere su
aceleración. Esta predicción se confirmó en 1998 con el descubrimiento
de la energía oscura. Según
Sorkin, “su predicción fue la primera predicción de la teoría cuántica
de la gravedad.” Obviamente, no todo el mundo opina lo mismo. Las triangulaciones dinámicas causales son una
variante de las redes causales que nació a principios de los 1990 y cuya
simulación por ordenador tiene ciertas ventajas técnicas. Los bloques
de espaciotiempo son símplices tetradimensionales (la generalización de
un triángulo o un tetraedro a cuatro dimensiones) que de forma
espontánea se agregan unos a otros mientras sufren fluctuaciones
cuánticas aleatorias. Las simulaciones de Renate Loll (Univ. Radboud,
Nijmegen, Holanda) resultan en “universos” exóticos con una geometría
muy complicada y un número erróneo de dimensiones (o muchas o muy
pocas). Sin embargo, cuando se fuerza que el pegado de símplices
preserve la causalidad se obtienen universos en cuatro dimensiones que son diferenciables (muy similares a nuestro universo). La
idea de que en el Big Bang el universo nació con sólo dos dimensiones
(una de espacio y una de tiempo) y que fue ganando dimensiones conforme
fue evolucionando es muy sugerente. Aún así, todavía nadie ha derivado
las ecuaciones de la gravedad a partir de esta idea, aunque algunos
expertos creen que la aparición de la energía oscura en los universos
que crecen hasta alcanzar cuatro dimensiones es un signo de que la idea
no es del todo incorrecta. El artículo de Merali concluye así, sin ofrecer una respuesta, pero
se decanta claramente por el principio holográfico. Hay muchas otras
ideas sobre la emergencia del espaciotiempo que han sido publicadas y
que quizás merecerían estar en la lista, pero las que están son
sugerentes. FUENTE: Francis Emule Science News
Cuatro centímetros y treinta segundos La memoria a corto plazo La memoria crea y define nuestra identidad, el sentido de quiénes
somos y de cómo somos. Toda la información a la que estamos expuestos en
nuestro día a día y que recibimos por los sentidos, entra al cerebro y
se va procesando y almacenando para luego nutrir y forjar lo que somos.
Hay quienes comparan este proceso con el funcionamiento de un
computador: codificación de los datos que entran, clasificación y
almacenamiento y luego la recuperación de esa información. Pero la
neurobiología se ha encargado de demostrar que el cerebro funciona de
una manera muchísimo más compleja. Cuando se envejece, por ejemplo, las
funciones cerebrales cambian: algunas se vuelven más lentas y otras a
cambio, más agudas – se dificulta memorizar un número de teléfono pero
la comprensión de fenómenos generales se vuelve más precisa. Un
computador funcionando así irá a parar a la basura. Casi todos pensamos que la memoria de corto plazo es la que nos
permite recordar eventos que han sucedido hace horas, días. Y que la de
largo plazo nos trae recuerdos más lejanos, que nos pueden llevar hasta a
la infancia. Pero no es así. La neurobiología nos cuenta que la memoria
de corto plazo es un proceso que dura como máximo treinta segundos. Así cuando estamos en un aeropuerto y nos dicen que nuestro avión
sale por la puerta 6A, si no repetimos al menos un par de veces la
información, o miramos en el tiquete el número, ya no sabremos por donde
sale el avión. Si por el contrario hemos asociado el 6A con algo, si lo
hemos “fijado” con cualquier recurso, ya esa información entra a formar
parte de la memoria funcional, y se quedará guardada sin peligro de
perderse, así el avión se atrase y nos dé por irnos a tomar un café o a
visitar una librería. El trabajo de la memoria funcional, consolidar, lo hace una
estructura del cerebro con forma de caballito de mar, el hipocampo,
sumergido en las profundidades de nuestros lóbulos temporales. Sin el
hipocampo, no es posible fijar, más allá de los treinta segundos, toda
la información que recibimos por el olfato, el oído, el tacto, el gusto,
es decir todo lo que nos permite pensar, elaborar, crear, imaginar,
querer, sentir, sufrir. La terrible tragedia de Henry Gustave Molaison Eso fue lo que le sucedió a un hombre conocido hasta el año 2008
como H.M., cuando murió y se le dio su nombre completo, Henry Gustave
Molaison. Henry vivió una infancia feliz con sus padres hasta que a los diez
años empezó a sufrir lo que se llamaba hasta casi mediados del siglo
pasado, un mal menor (petit mal), una especie de estupor que duraba poco
y que lo alejaba del entorno. Cerraba los ojos y sudaba. Contaba a sus
padres que se había ido y que no recordaba nada. Los empezó a sufrir a
diario y a medida que crecía, su número aumentaba. Ya en la adolescencia
pasó a ser un mal mayor, ataques epilépticos que lo alejaban de la
escuela y que día a día lo incapacitaban más. Empezó a recibir dosis
masivas de anticonvulsionantes, sin mejoría alguna. Henry había sufrido un accidente con su bicicleta alrededor de los
siete años, aunque no son muy claras las circunstancias. El resultado
sí. Empezó a visitar médicos y especialistas aunque después de varios EEG
no se encontró ninguna lesión en su cerebro. Las convulsiones se
volvían cada vez más fuertes y a la edad de 27, sin mayores esperanzas,
con el consentimiento de sus padres y el suyo propio se decidió recurrir
a “un procedimiento bastante experimental”, como lo definiría el mismo
neurocirujano, William Scoville. Cuatro centímetros y treinta segundos En la cirugía, a Henry le fueron removidos cuatro centímetros de
tejido en ambos lóbulos temporales. En ese tejido se fue gran parte del
hipocampo y toda la amígdala, el lugar donde residen las emociones. La neurocirugía era práctica común alrededor de 1953 –año de la de
Henry¬– para remediar la epilepsia. Salvo otros dos casos, estos con
malformaciones congénitas en sus cerebros, el caso de Henry fue único:
sus ataques de epilepsia cesaron pero pronto fue evidente que algo
terrible, devastador, irreversible había pasado. Henry no podía recordar
nada posterior al día de la cirugía. Su hipocampo perdido no le
permitía consolidar la memoria de corto plazo –que permaneció intacta
pues reside en otra región del cerebro que no fue tocada– y salir más
allá de los tre inta segundos que eran lo único que le quedaba,
imposibilitando para siempre la formación de una memoria de largo plazo
en lo que le quedaba de vida después de la cirugía. La razón para que Scoville extrajera más tejido del usual se debió a
que durante toda la preparación para el procedimiento fue imposible
localizar, como se hacía con otros pacientes, el lugar de la lesión que
causaba las convulsiones. Por el daño ocasionado, Scoville siempre habló
de la cirugía como de “trágico error” y nunca más volvió a realizar
ninguna. Las enseñanzas de un trágico error. Lo que fue un terrible desastre para Henry Molaison, permanecer
atrapado todo el resto de su vida en un permanente tiempo presente, para
la neurobiología fue un más que precioso tesoro. Gracias a él, el
hipocampo pasó a identificarse como el centro de la memoria. Quien se encargó de preservar ese legado fue la neurocientífica del MIT,
Suzanne Corkin, quien dedicó su vida a estudiar a Henry. No sólo cuidó
de que se lo respetara en su total integridad de ser humano sino que fue
más que cuidadosa en escrutar hasta el agotamiento a todos los
científicos que se acercaban a él. Por ello Henry, descrito por todos
como un hombre tranquilo y apacible, recibió la mejor atención posible.
Henry fue objeto de miles de estudios y pruebas de los que él, por
supuesto no guardaba ningún recuerdo. Corkin entraba cada mañana y a su
saludo él respondía como si fuera la primera vez que la viera. “Permanent Present Tense” es el precioso libro que narra las
experiencias neurobiológicas, los estudios sicológicos, los estudios de
aprendizaje, entre muchos otros, realizados por Corkin y su equipo
durante más de cuarenta años con Henry. Preguntada si se había logrado establecer algún vínculo entre ella y
su paciente, Corkin es clara al decir que del lado de ella sí, que si
no de qué otra manera se explica que estuviera subida en una silla
durante horas, mirando por una ventana de la morgue cómo el cerebro de
Henry era tomado de su cráneo. Ahora, el cerebro de Henry, cuidadosamente preservado en parafina,
ha sido cortado en 2401 finísimas tajadas, que con las técnicas
actuales, y a disposición de quien lo solicite, permitirá realizar
estudios inimaginables. El dolor de una memoria perdida, ayudará a
remediar males cerebrales de miles de millones de personas. Por algo el
de Henry es el cerebro que lo cambió todo Ciencia para Escuchar
El principio de equivalencia de la teoría general de la relatividad
de Einstein implica que no pasa nada al cruzar el horizonte de sucesos
de un agujero negro, un observador no debe notar nada especial; de
hecho, en un agujero negro supermasivo, la curvatura del espaciotiempo
en el horizonte de sucesos es muchos órdenes de magnitud más pequeña que
en la superficie de la Tierra. Pero este resultado es clásico y la
aplicación de la física cuántica a los agujeros negros indica que su
horizonte de sucesos debe emitir radiación de Hawking. ¿Notaría de
alguna forma el observador que cae la existencia de esta radiación si
tuviera un instrumento adecuado? La pregunta puede parecer una tontería,
pero su respuesta es más complicada de lo que parece a primera vista,
pues en rigor requiere una teoría cuántica de la gravedad y todavía no
tenemos ninguna. Por supuesto, podemos aplicar las reglas de la mecánica
cuántica a la teoría de la gravedad de Einstein y obtener resultados
correctos en el límite de campos débiles, es decir, de agujeros negros
con gran masa (como ya hizo Hawking); en dicho caso, el observador no
notaría nada (la radiación de Hawking no puede ser detectada en agujeros
negros de masa estelar y menos aún en agujeros negros supermasivos). Sin embargo, el problema sigue estando ahí en el caso de campos
fuertes (agujeros negros de masa muy pequeña, llamados microagujeros
negros); en dicho caso tenemos que usar una teoría cuántica de la
gravedad y la respuesta nos lleva a la frontera entre lo que sabemos y
lo que nos gustaría saber. Nos lo contó en Madrid Kyriakos Papadodimas
(University of Groningen), “Falling into a Black Hole and the
Information Paradox in AdS/CFT,” IFT Xmas Workshop 2012, December 20 [slides]; la charla está basada en su artículo Kyriakos Papadodimas, Suvrat Raju, “An Infalling Observer in AdS/CFT,” arXiv:1211.6767, 28 Nov 2012.
Papadodimas estudia el problema de la observación de la radiación de
Hawking en un agujero negro en un espaciotimpo AdS (anti-de Sitter), que
en relatividad general corresponde a una solución de vacío de las
ecuaciones de Einstein con una constante cosmológica negativa
(atractiva). Gracias a la correspondencia AdS/CFT, este agujero negro
equivale a un plasma de quarks y gluones en una teoría gauge conforme
(CFT) similar a la cromodinámica cuántica con un número infinito de
cargas de color. Gracias a esta analogía, tras un buen número de
cálculos, Papadodimas concluye que en un agujero negro macroscópico un
observador semiclásico que penetra en el horizonte de sucesos no nota
nada especial. Lea el artículo completo en: Francis Science News
El frío y la humedad
alcanzaron niveles históricos en la capital. Desde 1983 no se vivía un
invierno tan frío en la ciudad. Las temperaturas bordean los 12 grados C
y la humedad está en 97%.
El mal tiempo se extenderá hasta el mes de setiembre, según Senamhi. Advierten que casos de gripe AH1N1 podrían aumentar.
Según el meteorólogo Félix Cuba,
experto de esa entidad, las bajas temperaturas se deben a que el mar
está registrando temperaturas anómalas, más frías de lo normal.
“Los vientos están trasladando la humedad, y esto, a su
vez, produce las intensas lloviznas. Estas condiciones han acompañado
todo el invierno en la capital, a diferencia de otras ciudades del
litoral, ya sea al norte o al sur del país”, explicó al diario local.
Las tempraturas más frías se sintieron en los distritos
al sur de la ciudad, como Villa María del Triunfo (VMT), donde la
temperatura fluctúa entre los 12 y los 14 grados centígrados. Aquí la presencia de neblina reduce la visibilidad a unos 10 metros.
Sin embargo los puntos donde el invierno es más crudo en
la capital son los sectores conocidos como “Ticlio Chico”, “Lomo de
Corvina” y Tablada de Lurín, en VMT. Allí la lluvia es mucho más copiosa
que en otros lugares de la ciudad y la temperatura puede caer por debajo de los 10 grados.
En los distritos de la zona este, como Ate y La Molina,
el termómetro descendió hasta los 12,9 grados; mientras que los
distritos de Barranco y Chorrillos marcaron 14 grados. La sensación de
frío se agudiza por los altos índices de humedad, que en El Callao llegó al 100%
y en varios distritos registró un 97%, sin contar con una persistente
garúa que cae intermitentemente sobre la ciudad desde la tarde del
domingo.
Se prevé que estas condiciones persistan hasta
setiembre. “Si bien es cierto que agosto es el mes en el cual el
invierno es más crudo, esta misma intensidad se presentaría en
setiembre. Eso significa que el mal clima afectará el inicio de la
estación de la primavera”, puntualizó el experto.
El especialista Abraham Levi comentó en su cuenta de twitter @hombredeltiempo que mañana Lima llega al punto medio del invierno, acumulando 17 días sin brillo solar
(excluyendo a zonas altas de la ciudad). Levy explicó que la
topografía del litoral, así como su perfil costero, convierten a la
capital del Perú en un vertedero de aire húmedo.
“Si utilizamos como oficial la data del aeropuerto
Jorge Chávez, la temperatura mínima, la temperatura máxima y la
continuidad de días con cobertura nubosa, podemos decir que este
invierno es uno de los más severos de los últimos años”, indicó Levy.
Refirió además que el océano tiene un ciclo anual de valores climáticos.
“Este ciclo está sobreenfriado desde el final del verano, y se espera
continúe hasta la primavera”, declaró.
El servicio meteorológico exhortó a la población a tomar
medidas para protegerse del frío, usar varias capas de ropa abrigadora y
prestar especial atención a los niños, que son quienes más sufren de
males respiratorios ocasionados por el invierno.
ZONASAZOTADAS
El Senamhi advirtió que la zona sur de Lima es la más golpeada por el frío. Así, uno de los distritos afectados es Villa María del Triunfo, donde las temperaturas fluctúan entre los 12 y los 14 grados.
Las personas que residen en esta jurisdicción soportan, además, una densa neblina que reduce la visibilidad a menos de 10 metros.
En el asentamiento humano conocido como Ticlio Chico, los termómetros descienden a menos de 10 grados. Pese a ello, la única posta de salud del lugar no cuenta con vacunas contra la influenza (estacional o AH1N1).
Villa El Salvador también es otro distrito que sufre los embates del clima. De esa manera, los habitantes del pueblo joven Lomo de Corvina deben soportar una temperatura de entre 10 y 11 grados.
Un factor que agrava la situación de los moradores es que viven en situación de extrema pobreza.
El Senamhi recomendó a los ciudadanos que se mantengan abrigados y que manejen con prudencia.
Se dice que este invierno será uno de los más crudos en décadas. Y la verdad es que este frío nuestro de todos se nos cala hasta los huesos, todos lo sentimos, pero...¿a qué se debe el frío del invierno limeño el cual este año podría llegar a temperaturas de 11 grados?
La causa del invierno limeño se debe a que es una ciudad cercana al mar. Y nuestro mar es frío pero en los meses de invierno se torna aún más frío.
Este video, del programa "Cuarto Poder", lo explica mejor, aunque la calidad de imagen sea bastante baja:
Las temperaturas mínimas se registran de noche en la costa peruana siempre.
Si usted vive en la capital y siente que el frío es especialmente inclemente este año, su percepción es correcta.
El mar frío nos está pasando una dura factura climática.
Ahora, otra cosa es la sensación térmica. Expliquemos, si los termómetros registran 16°C de temperatura es porque hace frío pero usted puede sentir frío como si estuviera a 14°C, ¿a qué se debe esto? En el próximo post lo explicaremos.
Energía y potencia son
dos conceptos que hemos utilizado infinidad de veces en Nergiza, aunque
parecen dos definiciones sencillas, nos hemos dado cuenta que incluso los medios de comunicación las confunden, así que vamos a tratar de explicarlos de forma que todo el mundo los pueda entender.
Acostumbrado a las colas "tradicionales" en los supermercados, donde
cada caja tiene su propia cola, hace años me sorprendió ver que algunas
cadenas usaban un método novedoso: la cola única para todas las cajas. Fue en UK, y hasta hace poco no han empezado a adoptar ese modelo algunas grandes superficies españolas.
A primera vista no es trivial decir qué sistema es mejor. En el
post de hoy haremos un análisis estadístico (incluyendo simulaciones)
con el que dejaremos bien claro que el sistema de única cola es mucho mejor desde el punto de vista del cliente.
Los dos competidores: (izquierda) las colas tradicionales, (derecha) la cola única (Créditos imagen)
Los que hayan estudiado teleco ya sabrán que el modelado de este tipo de problemas forma un campo de las matemáticas en sí mismo: la Teoría de Colas.
Piensa que además de en la cola del super, nos encontramos problemas
muy parecidos en redes de telecomunicaciones (e.g. paquetes de datos
esperando entrar o salir por un router), en programas informáticos (e.g.
peticiones a un servidor), etc. por lo que hay mucha gente que lleva
décadas estudiando todo esto a fondo. De hecho podemos remontarnos a
hace un siglo, cuando Erlang calculó cuándo se saturarían las líneas telefónicas de una ciudad. En su honor se definió la unidad de carga en redes de telefonía.
Básicamente lo que nos interesa en el caso del supermercado es un único
estadístico que mide directamente el nivel de cabreo del cliente: cuánto tiempo tiene que esperar antes de que le atiendan. Las dos alternativas de sistema son:
Una única cola y un número M de cajas para atender a clientes (1 cola / M cajas).
M cajas, cada una con su cola (M colas / M cajas).
En este tipo de estudios estadísticos no tenemos ni idea de cuándo
llegarán los clientes, pero la sincronización es importante porque si
llegan muchos a la vez se formarán colas más largas. Para modelar esto
matemáticamente se asume que existe una distribución de probabilidad
uniforme y constante de que aparezca un cliente, lo que lleva a una distribución exponencial de los períodos desde que llega un cliente hasta el siguiente.
Aunque parezca un modelo un poco rebuscado y artificial, es el mejor
posible cuando se asume que cada persona va a su bola y llega a una hora
que es independiente (estadísticamente) de lo que hacen los demás.
Distribución
exponencial para distintos valores del parámetro (lambda), relacionado
con el número medio de llegadas por unidad de tiempo.
Asumiremos que los clientes llegan a un ritmo de [Math Processing Error] por minuto, y que las cajas son capaces de atenderlos a un ritmo de [Math Processing Error] cada una. Así, el modelo de M cajas queda:
Para hacer una comparación justa, en el modelo de cola única asumiremos
que llegan el mismo número de clientes por minuto, y por tanto entrarán
en la cola con frecuencia de [Math Processing Error] por minuto:
Desde el punto de vista del número de clientes atendidos por minuto, los dos sistemas son equivalentes.
Es más, el tiempo medio que transcurre desde que un cliente llega hasta
que se le atiende también son iguales, dividiendo el tiempo total de
funcionamiento entre el número total de clientes que pasan por el
sistema.
Pero desde el punto de vista del cliente, es mejor el sistema de cola única debido al sesgo de muestreo: si por lo que sea se forma un pequeño retraso en una de las M colas, ese retraso será "notado" por muchos clientes al haberse formado más cola. Que en ese mismo momento haya otros pocos clientes que encuentren cajas libres no es suficiente para bajar la media del tiempo de espera subjetivo.
Se pueden sacar fórmulas teóricas que dan la distribución de tiempos de
espera para cada caso, pero hoy me apetecía más hacerlo
experimentalmente, así que he programado un simulador de eventos discretos para
estimar cuánto afecta la elección del sistema de cajas (si alguien
deriva las fórmulas, ¡le agradecería que las dejase en los
comentarios!).
La siguiente gráfica resume muy bien el resultado: son los
tiempos medios que los clientes esperan hasta ser atendidos en cada uno
de los sistemas (negro: cola única), para distintos valores de número de
cajas abiertas (M=2, 5, 10 y 20).
(clic para ampliar)
Se ve claramente que ya desde sólo dos cajas se nota una disminución de hasta el 33% en el tiempo de espera. ¡Con los mismos recursos materiales y de personal, sólo cambiando la organización de la cola!
Aunque en el mundo real existan complicaciones que no se tienen en cuenta en este modelado matemático, como horas punta,
creo que merecería la pena que todas las grandes superficies que
físicamente puedan implementar este sistema se lo plantearan seriamente.
NOTA (25/MAR, 9:50am): El modelo de cola empleado cada vez que llega un cliente es el siguiente:
Si hay una caja libre y sin cola delante, va a esa caja.
En caso contrario, se va a la caja que no tenga cola.
Y en caso de no existir ninguna cola vacía, se elije una cola al azar con distribución uniforme.
Para los de gustos matemáticos: Os dejo algunos histogramas (en
escala logarítmica) para M=2, M=10 y M=20, donde se ve que la diferencia
se va haciendo cada vez más grande al aumentar el número de cajas (M):
Nota: En las simulaciones se ha usado
Período_llegada_clientes=1, Período atención en cada=M
* Período_llegada_clientes * 0.9, para modelar el hecho de que si hay
más cajas abiertas en un estado de equilibrio es porque se tarda más con
cada cliente. Fuente: Ciencia Explicada
Se inicia la Semana Santa planteo la siguiente pregunta:
¿sabéis qué criterio se sigue para asignar la fecha del Domingo de
Resurrección cada año?
Yo me he hecho esa pregunta en más de una ocasión viendo que la
variedad de fechas para ese día es relativamente grande. ¿Hay algún
criterio para asignar fecha a ese día? En el caso de que lo haya (que
por otra parte era lo más lógico), ¿en qué se basa ese criterio? ¿Su
base es meramente religiosa o hay algo más? Pues parece que hay algo más. Y, cómo no, lo que hay son matemáticas. Sí, matemáticas, aquí también están. Veámoslo.
Historia
A principios del siglo IV habían surgido varios grupos que calculaban
a su manera la fecha del día de la Pascua de Resurrección. No había
consenso, cada uno de ellos daba una fecha distinta, por lo que la
confusión que rodeaba este asunto era grande. En el Concilio de Arlés
(año 314) se obligó a todos los cristianos a celebrar la Pascua el mismo
día (que sería fijado por el Papa), aunque no todos los grupos
estuvieron de acuerdo en ello. Fue en el año 325, en el Concilio de
Nicea, donde se alcanzó un principio de acuerdo.
Las normas que debía cumplir el día de Pascua de Resurrección eran las siguientes:
La Pascua debía celebrarse en domingo.
No podía coincidir con la Pascua judía (que conmemora la salida del
pueblo judío de Egipto) para evitar confusiones entre ambas religiones.
Que los cristianos no celebrasen la Pascua dos veces el mismo año.
Pero con todo esto seguía habiendo diferencias entre la iglesia de
Roma y la iglesia de Alejandría (principalmente relacionadas con el
equinoccio de primavera y el cálculo de la edad de la Luna).
La solución final no llegó hasta el año 525, en el que Dionisio el
Exiguo (cuyo nombre proviene de su pequeña estatura) sentó las bases del
cálculo de la fecha de Pascua (que eran las del método alejandrino).
Las premisas iniciales del método son las siguientes:
La Pascua ha de caer en domingo.
Este domingo ha de ser el siguiente a la primera luna llena de la
primavera boreal (si esta fecha cayese en domingo, la Pascua se
trasladará al domingo siguiente para evitar la coincidencia con la
Pascua judía).
La luna pascual es aquella cuyo plenilunio tiene lugar en el
equinoccio de primavera (vernal) del hemisferio norte (de otoño en el
sur) o inmediatamente después.
Este equinoccio tiene lugar el 21 de marzo.
Llamamos epacta a la edad lunar. En concreto nos interesa para este
cálculo la epacta del año, la diferencia en días que el año solar excede
al año lunar. O, dicho más fácilmente, el día del ciclo lunar en que
está la Luna el 1 de enero del año cuya Pascua estamos calculando. Este
número (como es lógico) varía entre 0 y 29.
Con estas condiciones la Pascua quedaba encuadrada entre el 22 de marzo y el 25 de abril.
Durante el Renacimiento se construyeron tablas de cálculo para esta
fecha, algunas de ellas relacionadas con el número aúreo. En la
actualidad el método más sencillo para realizar este cálculo se debe a
nuestro admirado Gauss.
Cálculo del Domingo de Resurrección
Como hemos dicho antes, el método más sencillo para el cálculo de esta fecha se lo debemos a quien da nombre a este blog, Carl Friedrich Gauss (como podéis consultar en el extra que encontraréis más adelante, éste no es el método oficial, pero siempre da el mismo resultado). La base del mismo es la aritmética modular. Vamos a explicar en qué consiste:
Definimos diez variables que denotamos así: . Siendo el año del que queremos calcular la fecha del Domingo de Resurrección, veamos cómo se define cada una de ellas:
es el resto de la división de entre , es decir, .
es el resto de dividir entre , es decir, .
es el resto de la división de entre , esto es, .
es el resultado de redondear por defecto el resultado de la división de entre , es decir, .
es el resultado de redondear por defecto el resultado de la división de entre $25$, esto es, .
es el resultado de redondear por defecto el resultado de la división de entre , es decir, .
es el resto de la división de entre , esto es, .
es el resto de la división de entre , es decir, .
es el resto de dividir entre , o lo que es lo mismo, .
es el resto de la división de entre , es decir, .
Calculando el valor de cada una de las variables para el año en
cuestión, la fecha del Domingo de Resurrección será la siguiente:
Si , la fecha de Pascua de Resurrección será el día de marzo.
Si , la fecha de Pascua de Resurrección será el día de abril.
Para esta regla existen dos excepciones:
Si obtenemos el 26 de abril (nos salimos del rango establecido), la Pascua será el 19 de abril.
Si obtenemos el 25 de abril con , entonces la Pascua será el 18 de abril.
Para ejemplificar el método vamos a calcular la fecha del Domingo de
Resurrección de este año 2009 (que como sabemos es el día 12 de abril).
Para el año los valores de las variables son los siguientes (como los cálculos son sencillísimos os dejo a vosotros la comprobación): Como , entonces la fecha es el de abril, como en realidad es.