Latest Posts:

Mostrando las entradas con la etiqueta tiempo. Mostrar todas las entradas
Mostrando las entradas con la etiqueta tiempo. Mostrar todas las entradas

4 de noviembre de 2012

Curiosidades de la ciencia: ¿Qué hay dentro de un segundo?

Nueve mil ciento noventa y dos millones, seiscientos treinta y un mil setecientos setenta periodos de oscilación de la radiación correspondiente a la transición entre dos niveles hiperfinos del estado fundamental del cesio 133.

Ahora dejadme respirar y os explico a qué viene esta parrafada.


Antes de 1967, un segundo era 1/86.400 parte de la duración media de un día. Pero, debido a que la rotación de la Tierra es irregular, se decidió que había que definir el segundo de una forma más precisa. El uso del isótopo cesio 133 para su nueva definición se debe a que ese es el material empleado mayoritariamente para la creación de relojes atómicos. Así que en 1967, el tiempo pasó de ser astronómico, a ser atómico.

En 1977, se añadió una coletilla a la definición: el cesio 133 debía estar a una temperatura de 0K (cero kelvin o cero absoluto) para evitar la radiación de cuerpo negro.

El segundo no es la única unidad que ha sido redefinida en los últimos tiempos; así el metro ha pasado a ser la distancia que cubre la luz en el vacío cuando viaja durante 1/299.792.458 segundos, lo cual parece lógico considerando que la velocidad de la luz en el vacío es c = 299.792.458 m/s.

Sin embargo, siempre queda un lugar para los nostálgicos, ya que el kilogramo sigue siendo definido a partir del prototipo original. Pero ya hablaremos en otra ocasión de lo que significa masa y peso.

Personalmente, prefiero la definición coloquial de segundo que muchos sufrimos en la carretera: “La milésima parte de un segundo es el tiempo que transcurre entre el cambio a luz verde de un semáforo y el sonido del claxon del coche que tienes detrás”.

Enlaces de interés:

Fuente:

La prueba que necesitaba Einstein está en tu bolsillo

¿Tienes un teléfono con GPS en tu bolsillo? Entonces tienes la prueba de que Einstein tenía razón cuando enunció su teoría de la relatividad especial y general.


Moneda alemana conmemorativa sobre la obra de Albert Einstein.

Pero, ¿qué me estás contando? Sí, ya sé que suena un poco loco, pero vamos a ir por partes y explicar primero grosso modo cómo funciona un GPS.

Cómo funciona un GPS (in a nutshell)

El sistema de posicionamiento global funciona gracias a un conjunto de satélites, en concreto 24, formando una  constelación que nos permite tener en todo momento 4 “a la vista”. Además hay 7 satélites de reemplazo. Los satélites orbitan alrededor de la tierra emitiendo continuamente datos sobre su posición y tiempo. Y es que un satélite del sistema GPS es básicamente un reloj atómico que da vueltas alrededor de nuestro planeta. Los satélites contienen además unos propulsores para realizar correcciones en su órbita.


Constelación de satélites GPS

Por otro lado, existe una serie de estaciones de seguimiento en tierra, además de una estación base, desde las que se controla el funcionamiento de los satélites y se les envía instrucciones cuando hay que hacer correcciones.

Finalmente tenemos el terminal de usuario. En este caso, se trata de un receptor que “escucha” en el ancho de banda correspondiente a las señales GPS (1575.42 MHz para la señal civil) y realiza los cálculos necesarios para obtener su posición.

Todo el sistema de satélites y estaciones base ha sido creado y mantenido por el departamento de defensa de EEUU; esta es una de las razones por las que la UE está preparando ahora su sistema Galileo, que será compatible con GPS y, aparte de evitar la dependencia de este sistema, permitirá una mejor localización en zonas cercanas a los polos. Actualmente, el servicio GPS es muy poco fiable cuando se usa en latitudes cercanas a los polos.

Qué información envía un satélite y cómo se usa

Los satélites GPS emiten a varias frecuencias, pero vamos a centrarnos en la que nos importa a los civiles, ya que el resto están codificadas y son de uso gubernamental y militar.

La señal civil de GPS consta de paquetes (frames) de 1500 bits (±188 bytes) que a su vez se dividen en 5 subpaquetes (subframes) de 300 bits cada uno.


Formato de un paquete de datos usado por GPS

En cada subframe se envía la siguiente información:
  • Subframe 1: información de salud del satélite y valores de corrección para el cálculo de posición.
  • Subframe 2 y 3: “efemérides” del satélite. Aquí van entre otras cosas los datos de órbita del satélite, el tiempo de su reloj atómico cuando emitió la señal, datos de configuración… Todo lo necesario para realizar los cálculos de posición.
  • Subframe 4: (almanac) información de los satélites auxiliares y otros datos.
  • Subframe 5: (almanac) información resumida de efemérides y salud del resto de 24 satélites del sistema principal.
De esta forma, en cada envío del satélite recibimos los subframes del 1 al 3 completo y una de las 25 partes de las que consta la información completa de los subrames 4 y 5. Para el cálculo de posición realmente lo que vamos a necesitar son los 3 primeros subframes. La información recibida en los campos almanac es necesaria, pero tiene un vigencia muy larga y casi siempre es válida la que ya tiene almacenada nuestro dispositivo.

El ancho de banda con el que se envía esta señal es de 50bps, es decir, se necesitan 30 segundos para recibir un frame completo. El satélite emite continuamente estos paquetes, por lo que un mensaje completo de 25 frames se completaría en unos 13 minutos.

Los primeros satélites se pusieron en órbita entre 1978 y 1985. El acceso civil al servicio se permitió a partir de 1983, aunque ha habido periodos de indisponibilidad, como durante la guerra del golfo (1990-1991). En 1993 se autorizó el uso civil libre de cargo, es decir, gratis.

Y cómo se calcula la posición

Las órbitas de los satélites están calculadas para que en todo momento podamos tener disponible la señal de cuatro satélites en cualquier punto de la Tierra. El método usado para realizar el cálculo de la posición se llama trilateración.

Cada satélite, como hemos dicho anteriormente, emite sus datos de posición en el espacio, y el valor de tiempo de su reloj atómico cuando se emitió la señal. Si nuestro aparato estuviera sincronizado con esa hora atómica, podría calcular el tiempo que ha tardado en llegar la señal a su posición.

Mediante un cálculo que tiene en cuenta el retraso que sufrirá la luz por el efecto de la atmósfera, se puede calcular la distancia que ha recorrido la señal en ese tiempo: r(t). Con ese dato tendremos una primera esfera (en este caso de ejemplo una circunferencia) con centro en la posición del satélite y radio igual a la distancia recorrida por la señal.

 

Con la señal de un segundo satélite se puede realizar el mismo cálculo, con lo que obtendremos dos puntos en los que se cruzan las circunferencias (si tuviéramos esferas obtendríamos una elipse en su intersección).

Con la señal de un tercer satélite, conseguimos un solo punto en el que coinciden las tres circunferencias, que será nuestra posición si estuviéramos haciendo el cálculo en 2 dimensiones. Cuando hacemos en cálculo en 3 dimensiones en este punto tendríamos 3 esferas y dos puntos de intersección, por lo que necesitaríamos una cuarta esfera para obtener un solo punto.

¿Nuestro GPS tiene la hora atómica para poder realizar este cálculo? En principio no, la hora atómica, o mejor dicho la diferencia de tiempo entre la hora interna de nuestro GPS y la hora atómica de los satélites es un parámetro más a calcular.

Así tenemos los valores para cada uno de los satélites y nuestro GPS deberá calcular sus propios valores para .

Cuatro incógnitas, cuatro ecuaciones y cuatro satélites, parece que la cosa cuadra. No obstante hemos dicho que se puede llegar a hacer el cálculo con tres satélites.

Cuando tenemos 3 satélites y por tanto tres esferas para realizar el cálculo, tenemos dos puntos candidatos a ser la posición de nuestro GPS, pues bien, uno estará en el espacio y otro en la superficie de la tierra, así que es fácil descartar uno de los dos.

El cálculo no es tan sencillo como puede parecer, ya que hay que tener en cuenta la desviación de la onda electromagnética que emite el satélite por la atmósfera y el retraso que se produce al viajar en un medio distinto del vacío; además, la señal puede rebotar en objetos cercanos al receptor y puede recibirse más de una vez. El aparato que realiza el cálculo de posicionamiento tiene que tener en cuenta todas estas fuentes de error y finalmente el cálculo de la posición no se hace con una simple resolución de 4 ecuaciones de 4 incógnitas, sino que se utilizan técnicas de análisis numérico.

Tu propio reloj atómico

Hemos dicho que además de las tres coordenadas de posición, se calcula también una cuarta que es el tiempo. Esta cuarta coordenada es el tiempo atómico mantenido por el sistema GPS. Todos los satélites están sincronizados y cuando se realiza un posicionamiento el dispositivo GPS en cuestión pasa a estar sincronizado con estos. Pues bien, esta es una utilidad muy importante para muchos laboratorios que realizan investigaciones en las que la precisión en el tiempo es muy importante. En lugar de instalar un reloj atómico, es suficiente con instalar un receptor GPS en el laboratorio y de esa forma mantener sincronizados sus relojes continuamente con la hora atómica del sistema GPS.

¿Por qué no funciona el GPS dentro de edificios y túneles?

La transmisión se realiza a 1575.42 MHz, una frecuencia que no permite que la señal atraviese obstáculos como edificios o montañas, aunque algunos GPS en dispositivos móviles pueden resolver este problema obteniendo su posición mediante triangulación de antenas móviles.

¿Por qué el GPS en mi móvil es tan rápido y el de mi coche tan lento cuando lo enciendo?

Los móviles con GPS normalmente llevan una modalidad denominada A-GPS o GPS asistido. Lo que hacen es aprovechar su conexión a internet para obtener datos de configuración de los satélites de una forma más rápida que si tuvieran que obtenerlos a través de los propios satélites. Además, pueden utilizar funciones de la red para mejorar el cálculo de la posición o incluso realizarlo.

En cambio, un GPS sin conexión a internet depende únicamente de la señal de los satélites para obtener la información de efemérides almanac, necesarios para los cálculos. La información de efemérides tiene una validez de 2-6 horas y si no está disponible necesitamos esperar unos 45 segundos para que se descargue por completo en nuestro dispositivo. La información de almanac tiene una vigencia mayor, pero de perderla necesitaremos más de 12 minutos para recibirla al completo.

Todo esto está muy bien, pero ¿qué pasa con Einstein?

Al principio hablábamos de Einstein, y es que Albert tiene mucho que decir en el funcionamiento del GPS.
Como hemos dicho, cada satélite del sistema esta continuamente emitiendo su órbita, coordenadas y el tiempo que marca su reloj atómico. Pues bien, la clave está en el reloj y en la velocidad del satélite y su altura.

La teoría de la relatividad especial tiene como consecuencia que un reloj que viaja a una velocidad mayor que otro reloj, atrase respecto a este último.

La teoría de la relatividad general tiene como consecuencia que los relojes que se encuentran en un campo gravitatorio mayor (más afectados por la fuerza de la gravedad) atrasan respecto a los que se encuentran en uno menor.

Un satélite del sistema GPS da varias vueltas al día a la Tierra a una gran velocidad (unos 12.000 km/h), por lo que su reloj atrasa respecto a uno situado en la Tierra al ir a mayor velocidad que este último. Por otro lado, el satélite se encuentra menos afectado por la gravedad terrestre que uno situado en la superficie, así que irá más rápido el reloj del satélite que uno situado en la Tierra. En concreto, los satélites GPS orbitan a una altura de unos 20.000 km.

Sumando los dos efectos, el resultado final es que un reloj en una de las órbitas del sistema GPS es más rápido que un reloj en la superficie terrestre (el efecto gravitatorio es mayor que el producido por la velocidad). En concreto, el adelanto es de unos 38 milisegundos al día. Parece un adelanto bastante ridículo, pero lo parece menos si sabemos que un error de esta magnitud en el tiempo lleva al sistema de GPS a un error de 10 km en la posición a lo largo de un día.

El ajuste sobre los satélites se lleva a cabo reduciendo la frecuencia a la que funcionan los relojes atómicos para ajustar esos 38 milisegundos de adelanto.

Antes de los satélites GPS, la NASA ya había hecho una prueba para demostrar el adelanto de un reloj atómico en un campo gravitatorio menor:

Y no hace mucho se lanzó Gravity Probe B, que demostró otras consecuencias de la teoría de la relatividad general.

Gran parte de la historia de la física en el sistema de posicionamiento

Hemos visto, que para calcular nuestra posición con el sistema GPS se usan las teorías de la relatividad general y especial de Einstein, las leyes de Kepler (para el cálculo de órbitas), los conocimientos sobre la desviación de las ondas electromagnéticas en distintos medios (para calcular la desviación de las señales por la acción de la atmósfera) e incluso se tiene en cuenta el efecto doppler en los terminales, ya que se están moviendo y por tanto ese movimiento afecta a la forma en la que se recibe la señal.

En definitiva, cuando encendemos un GPS estamos ante una maravilla de la tecnología y una demostración del conocimiento físico que tenemos desde Kepler hasta Einstein. Como dijo Newton en una ocasión: “Si he visto más lejos es porque estoy sentado sobre los hombros de gigantes”.

Fuente:

31 de octubre de 2012

Una de dos: O la información es mas rápida que la luz, o todo el Universo está relacionado entre sí

20120801012312I[1]

El entrelazamiento cuántico debe ser una de los fenómenos más sorprendentes de la física: Al enlazar dos o más partículas en un solo estado cuántico, cuando posteriormente se observa el estado de una de las partículas, uno puede prever el estado de la otra partícula sin importar la distancia que las separe. Es como si una supiera lo que hace la otra instantáneamente y se comunicaran entre sí.

Lo interesante es que numerosos experimentos han demostrado que las dos partículas ‘comunican’ su estado entre dos lugares de medición distintos a una velocidad que superaría a la de la luz. La explicación estándar a este fenómeno –la no-localidad– es considerar que las partículas entrelazadas son realmente un sólo sistema cuántico, aunque estén muy separadas. Es una idea que incomoda a muchos (incluso a Albert Einstein) pero que preserva el principio de la relatividad.

Para encontrar otra explicación, muchas ideas se han propuesto en las ultimas décadas, las que en su mayoría caían en la categoría de variables escondidas que no podemos observar directamente mediante experimentos, por lo que no habríamos podido ocupar este fenómeno para la comunicación.

Sin embargo, un nuevo análisis de un equipo de académicos que publicó la revista Nature Physics nos indicaría que cualquier explicación a este fenómeno inevitablemente nos abriría a la posibilidad de comunicaciones mas rápidas que la luz, pues el entrelazamiento cuántico no puede traspasar información, a cualquier velocidad –incluso si es inaccesible por medio de la experimentación porque es interna–, sin involucrar también otros tipos de interacciones que sí violarían la teoría de la relatividad.

Esto es debido a que hay dos opciones: O existen estas variables escondidas y el entrelazamiento cuántico implica intercambiar información a una velocidad mayor a la de la luz, desafiando a la relatividad; o no hay influencias invisibles por lo que las existentes pueden ser infinitamente rápidas, lo que implicaría que el Universo completo es no-local, o sea que todos sus puntos se pueden conectar entre sí instantáneamente.

Uno de los miembros del equipo de académicos, el profesor de la Universidad de Ginebra, Nicolas Gisin, asegura que “nuestros resultados nos dan la idea de que, de alguna forma, las correlaciones cuánticas surgen desde afuera del espacio-tiempo“. Algo nada menor.


Fuente:

FayerWayer

24 de septiembre de 2012

Mediciones del espacio y del tiempo, por el genial Walter Lewin



A todos nos gustaría tener a un profesor como Walter Lewin, y no necesariamente en la asignatura de Física sino en cualquier otra.

Y es que Walter Lewin lleva más de cuarenta años impartiendo clases que parecen historias, donde incluso él mismo se propone como protagonista (ha puesto su cabeza delante de una bola de demolición, se ha aplicado una sobrecarga de 300.000 voltios y otras lindezas ante un auditorio enmudecido). Y Lewin ha conseguido perfeccionar tanto su actividad docente que sus clases de física en el Instituto Tecnológico de Massachusetts son recordadas con cariño por miles de estudiantes. También sus videolecciones colgadas en Youtube y iTunes University le han convertido en una estrella con más de un millón de visualizaciones al año.

Para demostrarlo, podéis ver el vídeo que encabeza el post, donde Lewin, imparte “Física I – Mecánica clásica”.

Tomado de:

25 de agosto de 2012

El Big Bang fue en realidad un cambio de fase

Artículo publicado por Natalie Wolchover el 21 de agosto de 2012 en SPACE.com

¿Cómo se inició el universo? Tradicionalmente se ve al Big Bang como el momento en el que un paquete de energía infinitamente denso estalla súbitamente, expandiendo las tres direcciones espaciales y enfriándose gradualmente conforme lo hace.

Ahora, un equipo de físicos dice que el Big Bang debería modelarse como un cambio de fase: el momento en que un universo amorfo análogo al agua líquida enfriada, cristaliza repentinamente para formar un espacio-tiempo de cuatro dimensiones, que sería análogo al hielo.



Big Bang © by { pranav }

En el nuevo estudio, el autor principal James Quach y sus colegas de la Universidad de Melbourne en Australia dicen que la hipótesis puede ponerse a prueba buscando defectos en la estructura del espacio-tiempo cuando se cristalizó el universo. Actualmente, el universo tiene unos 13 700 millones de años.

“Piensa en los inicios del universo como en un líquido”, dice Quach en un comunicado. “Luego, cuando se enfría el universo, ‘cristaliza’ en las tres dimensiones espaciales y una temporal que vemos hoy. Imaginado de esta forma, cuando se enfría el universo, esperaríamos que se formasen grietas, similares a las que se forman en el hielo cuando se congela el agua”.

De existir, estas grietas serían detectables, dicen los investigadores, debido a que la luz y otras partículas se curvarían o reflejarían cuando cubren su camino a través del cosmos.

La idea de que el espacio y el tiempo son propiedades emergentes que se materializan repentinamente a partir de un estado amorfo, se propuso inicialmente por físicos del Instituto Perimeter de Canadá en 2006. Conocida como “quantum graphity”, la teoría mantiene que la geometría de cuatro dimensiones del espacio-tiempo descubierta por Albert Einstein no es fundamental; en su lugar, el espacio-tiempo es más similar a una retícula construida a partir de bloques básicos discretos de espacio-tiempo, de la misma forma que la materia tiene aspecto continuo, pero en realidad está hecha de bloques básicos llamados átomos.

Originalmente, a temperaturas extremadamente altas, los bloques básicos eran como el agua líquida: no tenían estructura, “representando un estado sin espacio”, escriben los investigadores en su artículo. En el momento del Big Bang, cuando la temperatura del universo empezó a bajar hasta el “punto de congelación” de los bloques básicos de espacio-tiempo, cristalizaron en la forma de retícula tetradimensional que vemos hoy.

Las matemáticas que describen la teoría cuadran bien, pero “el desafío ha sido que estos bloques básicos de espacio son muy pequeños, por lo que es imposibles verlos directamente”, explica Quach. Desde el punto de vista humano, el espacio-tiempo parece suave y continuo.

No obstante, aunque los propios bloques básicos podrían ser demasiado pequeños para detectarlos, los físicos esperan observar los límites que se habrían formado cuando las regiones de cristalización de los bloques básicos chocaron entre sí en el momento del Big Bang, creando “grietas” en el universo. Se requiere más trabajo para predecir la distancia media entre grietas – no se sabe si es microscópica o de años luz – para caracterizar sus efectos sobre las partículas.

La investigación de Quach y su equipo se detalla en el ejemplar de este mes de la revista Physical Review D.

Fuente:

El universo no es un fractal, según un nuevo estudio

Artículo publicado por Natalie Wolchover el 22 de agosto de 2012 en SPACE.com

Las estrellas se apiñan en galaxias, las galaxias se unen para formar cúmulos, y los cúmulos se agolpan en supercúmulos. Los astrónomos que estudian los volúmenes cada vez mayores del cosmos han quedado sorprendidos una y otra vez al descubrir la acumulación de materia a escalas cada vez mayores.

Esta distribución de materia, como si fuesen matrioskas, les ha llevado a preguntarse si el universo es un fractal: un objeto matemático que tiene el mismo aspecto en cualquier escala, ya te acerques o te alejes. Si el patrón fractal continúa sin importar lo lejos que vayas, esto tendría profundas implicaciones para la comprensión del universo por parte de los científicos. Pero ahora, un nuevo estudio astronómico refuta esta idea.



Fractal © by paul mccoubrie

El universo tiene apariencia fractal a muchas escalas de distancia, pero en cierto punto, la forma matemática colapsa. Ya no hay más matrioskas – es decir, cúmulos de materia que contengan menores cúmulos de materia – mayores de 350 millones de años luz.

El hallazgo procede de Morag Scrimgeour del International Centre for Radio Astronomy Research (ICRAR) en la Universidad de Australia Occidental en Perth, y sus colegas. Usando el Telescopio Anglo-Australiano, los investigadores fijaron la posición de 200 000 galaxias que llenan un volumen de 3000 millones de años luz de lado. El estudio, conocido como WiggleZ Dark Energy Survey, estudió la estructura del universo a unas escalas mayores que ningún otro estudio anterior.

Los investigadores encontraron que la materia se distribuye de forma extremadamente equitativa por el universo en escalas de distancia extremadamente grandes, con pocas señales de patrones fractales.

Scrimgeour explica el proceso que llevó a esta conclusión. “Colocamos esferas imaginarias alrededor de galaxias en el [estudio WiggleZ] y contamos el número de galaxias en cada esfera”, explica. “Queríamos comparar esto con una distribución homogénea aleatoria” — una en la que las galaxias están dispersas equitativamente por el espacio —”por lo que generamos una distribución aleatoria de puntos y contamos el número de galaxias aleatorias dentro de las esferas con el mismo tamaño”.

Los investigadores compararon entonces el número de galaxias de WiggleZ dentro de las esferas con el número de galaxias aleatorias dentro de esferas similares. Cuando las esferas contenían pequeños volúmenes de espacio, las galaxias de WiggleZ estaban mucho más agrupadas dentro de ellas respecto a las galaxias aleatorias. “Pero conforme se agrandaban las esferas, esta proporción tendía a 1, lo que significa que contamos el mismo número de galaxias en Wigglez que en galaxias aleatorias”, comenta Scrimgeour.

Y esto significa que la materia se distribuye de forma homogénea por el universo en grandes escalas de distancia y, por tanto, que el universo no es un fractal.

Si tuviese forma fractal, “implicaría que toda nuestra descripción del universo podría ser incorrecta”, apunta Scrimgeour. De acuerdo con la historia aceptada del universo, no hay suficiente tiempo desde el Big Bang, hace 13 700 millones de años, para que la gravedad genere unas estructuras tan grandes.

Además, la suposición de que la materia está distribuida homogéneamente a lo largo del universo ha permitido a los cosmólogos modelar el universo usando la teoría general de la relatividad de Einstein, que relaciona la geometría del espacio-tiempo con la dispersión uniforme de materia en su interior.
Así pues, ambas suposiciones están a salvo.

El artículo que detalla los hallazgos aparecerá en un futuro ejemplar de la revista Monthly Notices of the Royal Astronomical Society Journal.

Fuente:

11 de julio de 2012

Un largo segundo dentro de nuestro cerebro

Millones de acontecimientos ocurren en el cerebro durante un solo segundo. ¿Cómo se las arregla este complejo órgano para ordenarlos y saber lo que sucede antes, después y simultáneamente?
Millones de impulsos llegan al cerebro desde distintos sentidos. Millones llegan incluso desde un sentido como la vista. El cerebro tiene múltiples áreas de procesamiento. En la vista por ejemplo se procesa en centros distintos el color, la forma o el movimiento. Cada impulso recorre un camino diferente al resto. Algunos son más largos y otros son más cortos. Por lo tanto, tardan distinto tiempo en llegar al cerebro

¿Cómo sabe el cerebro que dos impulsos que sucedieron a la vez pero llegan en distinto momento son en realidad simultáneos?

El cerebro no es una cámara fotográfica. El cerebro construye el mundo, no toma una imagen fija. El ejemplo de la vista es claro. Vemos un auto rojo moverse. No vemos una sucesión de manchas rojas y una sucesión de formas de auto en distintas posiciones. Es lo que se llama la unión de características. El cerebro lo integra todo y vemos un auto rojo moverse.

Engañar al cerebro y crear ilusiones es muy sencillo. Hay muchos ejemplos de ilusiones visuales. También es sencillo crear ilusiones temporales. Ponte delante de un espejo. Mira a tu ojo izquierdo. Luego al derecho. Hazlo tantas veces como quieras y no verás que tus ojos se mueven. ¿Otra ilusión? Se pide a los sujetos que digan cuánto tiempo está presente un círculo en la pantalla. En general la estimación es correcta. 

A otros se le pide lo mismo con un círculo que se aleja. También estiman correctamente la duración. Ahora el círculo se acerca. Los sujetos interpretan que la duración es mayor. Algo que se acerca es un peligro potencial. En una situación de estrés el tiempo se detiene. Es una ilusión.

El tiempo subjetivo se debe que existen más acontecimientos en el mismo tiempo y eso hace que la duración subjetiva aumente. Es la expansión del tiempo. Con la edad tendemos a comprimir la información. Los hechos no son tan relevantes, ya los hemos vivido antes. Esto produce el hecho de que los niños alargan el tiempo subjetivo y los ancianos lo acortan. Cuando eres niño, echar la vista atrás en un verano divertido hace que parezca eterno.

El cerebro percibe estímulos súmamante breves. Una presentación visual de 5 milisegundos es suficiente para que el sujeto haya visto algo. Con 30ms reconoce sin problemas la palabra presentada. Dos estímulos presentados con una demora de 5ms parecen simultáneos, pero con 20ms de demora se puede establecer el orden de llegada.

Sin embargo, en el cine, la secuencia es de 24 fotogramas por segundo, unos 40ms por fotograma. El cerebro organiza los acontecimientos de forma que parece una secuencia continua. Cuando se introdujo el sonido se presentó el problema de la sincronía. Pronto averiguaron que una demora de 100ms, una décima de segundo, es tolerable. Más allá de ello el cerebro se niega a considerar simultáneo el vídeo y audio.

¿Cómo sabe el cerebro sincronizar los estímulos? Esperando a que llegue el último de ellos y construyendo una representación única del acontecimiento. Esto significa que vivimos en el pasado. Una décima de segundo. Aún estamos muy cerca del presente, pero el cerebro necesita esa demora para asegurarse de construir una imagen realista del mundo. El cerebro establece un compromiso entre dos situaciones malas. Vivir muy en el pasado es peligroso. No reconocer correctamente la realidad también. Un auto se aproxima hacia mí, ¿de cuánto tiempo dispongo?

El problema se da entre distintas modalidades sensoriales. Procesamos más rápido los sonidos que las imágenes. Pero también se da dentro de la misma modalidad sensorial. Si toco a la vez el dedo del pie y la nariz, ambos sucesos se perciben simultáneos. Pero el impulso del pie tarda bastante más en llegar al cerebro. Puede incluso decirse que las personas altas viven un poco más en el pasado que las bajas.

El reloj cerebral parece encontrarse en los propios actos motores. Si chasco los dedos delante de los ojos, los estímulos llegan al cerebro en distinto momento. Pero este sabe que son simultáneos y los sincroniza. Esto lo hace constantemente y nuestros propios actos ordenan el tiempo de los estímulos exteriores.

También aquí es fácil crear una ilusión. El sujeto pulsa un botón y se enciende una luz. Poco a poco, sin que el sujeto lo sepa, añadimos una demora de hasta 2 décimas de segundo en la aparición de la luz. El sujeto no lo percibe. De pronto eliminamos la demora. El sujeto tiene la ilusión de que la luz se ha encendido antes de pulsar el botón.

La sincronización temporal no es anecdótica. Parece que puede estar en fenómenos como la dislexia o la esquizofrenia. Más aún. Es la clave de la causalidad. Aprendemos que unos sucesos son la causa de otros a los que llamamos efecto porque las causas preceden a los efectos. La relación causa efecto es esencial en la vida y guía nuestra conducta y nuestro aprendizaje. Si la relación temporal se altera, no podremos establecer la relación causa efecto y estaremos perdidos en el mundo.

Nuestra percepción del tiempo es esencial. Coordinar temporalmente el flujo de millones de neuronas es una tarea colosal. En alguna medida vivimos en el pasado.

Fuente:

ALT 1040

30 de junio de 2012

¡Hoy día! ¡24 horas... y un segundo de yapa!

Un instante extra, una mínima fracción de tiempo que hace de hoy un día especial en este 2012 bisiesto. Con la finalidad de mantener la hora sincronizada con la rotación de la Tierra, el 30 de junio tendrá una duración insólita: 24 horas y un segundo, el denominado segundo intercalar o adicional.

Esta medida de acompasamiento, que fue adoptada por el Servicio Internacional de Rotación de la Tierra y Sistemas de Referencia (IERS) a principios de año, se introdujo por primera vez en 1972 para que los modernos relojes no se quedaran atrasados. Especialmente los relojes atómicos, que se basan en las vibraciones de los átomos para ofrecer una medida exacta del tiempo.

Durante los últimos 40 años, 34 segundos se han añadido al Tiempo Universal Coordinado (UTC).

Objeto recurrente de debate, el pasado mes de enero la Unión Internacional de Telecomunicaciones (UIT) decidía aplazar hasta 2015 la decisión de abolir o mantener el segundo intercalar.

Algunos países, como Estados Unidos y Francia, se plantean acabar con este segundo adicional porque, aseguran, afecta a los sistemas de navegación. Por contra, Reino Unido argumenta que las consecuencias de no aplicarlo pueden ser graves a largo plazo, dado que el tiempo dejaría de estar ligado a la rotación del planeta.

Fuente:

El Mundo Ciencia

3 de mayo de 2012

Niño, cuantas veces te tengo que decir que no cambies el pasado…

El día de ayer publiqué un artículo que originalmente había aparecido en ABC de España, donde se anunciaba que se podía cambiar un episodio del pasado desde el presente. Esta noticia merece una aclaración.

Pero antes conozcamos un poco a Asher Peres

Asher Peres

(1934-2005) Científico hebreo. Es considerado un pionero en la Teoría de la Información Cuántica. Obtuvo su doctorado en física en 1955 y se dedicó, en adelante, a realizar estudios sobre elmundo cuántico. En el 2004 ganó el Premio Rothschild de Física. Sus numerosos trabajos versan sobre el entrelazamioento cuántico y la teletransportación cuántica. Sus escritos son una combinación de física y filosofía.

De todas sus publicaciones, Asher estaba más orgulloso de su libro Teoría Cuántica: Conceptos y Métodos . El libro es un ejemplo de estilo científico Asher: una comprensión profunda y sin concesiones de las cuestiones fundamentales se expresan en una forma que sea lo más simple y accesible como sea posible. Le tomó seis años para Asher cuidado tejer los hilos de su libro. La gran calidad del trabajo es reconocido por cualquiera que conozca el resultado final.

Ahora sí. Los dejo con el artículo que apareció en Cuentos Cuánticos...

Ha salido esta noticia en el ABC :Logran cambiar, desde el presente, un evento del pasado Vamos a explicar lo que significa todo esto, o lo vamos a intentar al menos. De hecho no estamos seguros de si ya lo hemos intentado en el pasado, ¡¡qué mas da!!.

La motivación

La noticia hace referencia a un experimento basado en este trabajo:
Delayed choice for entanglement swapping  de Asher Peres (este es uno de los grandes en el tema de la cuántica, sus fundamentos y los temas de entrelazamiento)

Que más o menos viene a decir:  Elección retardada por entrelazamiento de intercambio.

Vamos a ver si podemos entender lo que propuso el profesor Peres. La situación es la siguiente:

-  Tenemos tres observadores, con los nombres típicos:
  • Alice
  • Bob
  • Eve
-  Alice prepara un sistema de dos partículas entrelazadas entre sí. (Para saber lo que significa esto os recomendamos: No me creo la mecánica cuántica… así que demostraré que es cierta y Duendes entrelazados)

- Bob hace lo mismo, prepara dos partículas entrelazadas.

-  Alice y Bob están separados por una gran distancia, así que sus pares de partículas entrelazadas nunca se han “visto” ni han interactuado entre si.

-  Alice y Bob miden el espín de una de las partículas de su correspondiente par entrelazado. Con la otra tienen a bien mandárselas a Eve.

- Con los datos previos, ni Alice ni Bob saben si sus correspondientes pares estaban entrelazados.

-  El punto clave es que Eve ahora decide qué tipo de experimento hacer con las partículas recibidas de Alice y Bob. El caso es que puede elegir medir el espín en  alguna dirección o cualquier otro tipo de experimento.  Entonces Eve recolecta los datos de su experimento y se los manda a Alice y Bob.

-  Con estos datos Alice y Bob pueden determinar cuales de sus partículas estaban entrelazadas en sus correspondientes pares.  Y esto lo pueden hacer mucho después de que estas partículas ya hayan sido absorbidas o hayan desaparecido.

Hasta aquí nada sorprende, pero…

El punto clave es el siguiente:

¿Qué pasa si Eve decide entrelazar las dos partículas que tiene entre manos (una de Alice y otra de Bob)?

Según Peres lo que pasaría es que entonces las partículas que tenían Alice y Bob estarían entrelazadas y si compararan a posteriori sus medidas del espín en distintas direcciones pues encontrarían que satisfacen las desigualdades de Bell.

Esto es fabuloso, porque lo que nos están diciendo es que el entrelazamiento se realiza a posteriori porque en ningún momento inicialmente las partículas de Alice y Bob han podido interactuar entre si para provocar el entrelazamiento.  Es cuando Eve decide entrelazar las partículas que ha recibido en un instante posterior a las medidas de Alice y Bob cuando se realiza este entrelazamiento.

El experimento

El trabajo al que hace referencia ABC (no he encontrado la cita en su entrada) es este:

Donde se dice que por primera vez se ha logrado llevar a cabo experimentalmente este fenómeno tan sorprendente que si no me equivoco fue propuesto por Peres en el 1999.  Lo han hecho creando dos pares de fotones en dos puntos distintos y enviando un componente del par a otro observador distinto, siguiendo la descripción anterior.

Tendremos que estar atentos a estos trabajos, la cuántica nunca dejará de sorprendernos.  Lo único que esperamos es que no proliferen las noticias de que hemos abierto la puerta a cambiar el pasado, porque simplemente esto no es cierto.  No se puede mandar información a través de entrelazamiento cuántico, así que tranquilos la historia seguirá siendo la que es.

Nos seguimos leyendo...

Tomado de:

2 de mayo de 2012

Logran cambiar, desde el presente, un evento del pasado



Un grupo de físicos acaba de lograr lo que parecía imposible: modificar desde el presente un evento que ya había sucedido con anterioridad. La hazaña se ha conseguido aprovechando una extraña capacidad de las partículas subatómicas que ya había sido predicha, pero que jamás hasta ahora había podido ser demostrada. El espectacular hallazgo se publica en Nature Physics.

A la larga lista de propiedades extraordinarias de las partículas subatómicas habrá que añadir, a partir de ahora, su capacidad para influir en el pasado. O, dicho de otra forma, para modificar acontecimientos ya sucedidos. El concepto clave que permite este nuevo y sorprendente comportamiento es un viejo conocido de los físicos: el entrelazamiento cuántico, un fenómeno aún no del todo comprendido y que consiste en una suerte de "unión íntima" entre dos partículas subatómicas sin importar a qué distancia se encuentren la una de la otra. Cuando dos partículas están "entrelazadas", cualquier modificación que llevemos a cabo sobre una se reflejará de inmediato en la otra, aunque ésta se encuentre en el otro extremo de la galaxia.

Ahora, y por primera vez, un grupo de investigadores ha conseguido entrelazar partículas después de haberlas medido, es decir, a posteriori y en un momento en que alguna de ellas podría haber dejado ya de existir.

Suena desconcertante, es cierto. Incluso los propios autores del experimento se refieren a él como "radical" en el artículo que aparece esta semana en Nature Physics. "Que estas partículas estén o no entrelazadas -reza el artículo, cuyo primer firmante es Xiao-song Ma, del Instituto de Óptica Cuántica de la Universidad de Viena- es algo que se decidió después de haberlas medido".

En esencia, los investigadores han conseguido demostrar que acciones llevadas a cabo en el futuro pueden ejercer influencia en eventos del pasado. Siempre y cuando, claro, limitemos la experiencia al ámbito de la Física Cuántica.

Allí, en el extraño mundo de las partículas subatómicas, las cosas suceden de forma muy diferente a como lo hacen en el mundo "real" y macroscópico que podemos ver y tocar cada día a nuestro alrededor. De hecho, cuando el entrelazamiento cuántico fue predicho por primera vez, el mismísimo Albert Einstein expesó su disgusto por la idea calificándola de "acción fantasmal a distancia".

Después, durante las últimas décadas, el entrelazamiento fue probado cientos de veces en laboratorio, sin que hasta el día de hoy los físicos hayan podido averiguar cómo puede producirse esa especie de "comunicación instantánea" entre dos partículas que no están en contacto físico. Ahora, el equipo de la Universidad de Viena ha llevado el entrelazamiento un paso más allá, y ha conseguido lo que nadie había podido hacer hasta ahora.

Para realizar su experimento, los físicos partieron de dos parejas de partículas de luz, esto es, de dos "paquetes" de dos fotones cada uno. Cada una de las dos partículas de cada  pareja de fotones estaban entrelazadas entre sí. Más tarde, un fotón de cada pareja fue enviado a una persona hipotética llamada Victor. Y de las dos partículas (una por pareja) que quedaron detrás, una fue entregada a Bob y la otra a Alice. (Bob y Alice son los nombres que se utilizan habitualmente para ilustrar los experimentos de Física Cuántica).

Víctor, al tener un fotón de cada pareja entrelazada, tiene pleno control sobre las partículas de Bob y Alice. Pero qué sucedería si Victor decidiese entrelazar a su vez sus dos partículas? Al hacerlo, también los fotones de Bob y Alice (ya entrelazados con cada uno de los dos fotones en poder de Víctor), se entrelazarían el uno con el otro. Lo bueno es que Víctor puede decidir llevar a cabo esta accíon en cualquier momento que quiera, incluso después de que Bob y Alice hubieran medido, modificado o incluso destruído sus propios fotones.

"Lo realmente fantástico -afirma Anton Zellinger, también de la Universidad de Viena y coautor del experimento- es que esa decisión de entrelazar los dos fotones puede ser tomada en un momento muy posterior. Incluso en uno en que los otros fotones podrían haber dejado de existir".

La posibilidad de llevar a cabo este experimento había sido predicha en el año 2000, pero hasta ahora nadie había conseguido realizarlo. "La forma en que entrelazamos las partículas -explica Zeilinger- es enviándolas hacia un cristal cuya mitad es un espejo. El cristal, por lo tanto, refleja la mitad de los fotones y deja pasar a la otra mitad. Si tu envías dos fotones, uno a la izquierda y otro a la derecha, cada uno de ellos olvidará de dónde procede. Es decir, perderán sus identidades y ambos quedarán entrelazados".

Zeilinger asegura que la técnica podrá ser usada algún día para la comunicación ultrarápida entre dos computadoras cuánticas, capaces de usar el entrelazamiento para almacenar información. Por supuesto, una máquina así no existe todavía, aunque experimentos como el descrito suponen un paso muy firme hacia ese objetivo.

"La idea -asegura Zeilinger- es crear dos pares de partículas, y enviar una a un ordenador y la otra al otro. Entonces, si entrelazamos esas partículas (como en el experimento), los dos ordenadores podrán utilizarlas para intercambiar información"


Fuente:

El Blog de Ciencia y Tecnología (ABC)

30 de abril de 2012

Cómo reconstruir el clima del pasado a través de las crónicas árabes del siglo X

Mapa histórico de Medio Oriente que señala la ciudad de Bagdad (Iraq). | Domínguez-Castro

Mapa histórico de Medio Oriente que señala la ciudad de Bagdad (Iraq).
Las crónicas de los historiadores árabes narran cronológicamente cuestiones sociales, políticas y religiosas; y algunas hacen referencias al clima. Un estudio, liderado por investigadores de la Universidad de Extremadura (UNEX), se ha centrado en antiguos apuntes meteorológicos de la ciudad iraquí de Bagdad.

"Hemos recuperado una interesante cronología de eventos climáticos como sequías, inundaciones, lluvias, heladas, olas de frío o calor, y fuertes vientos para el periodo 816-1009 en los actuales Irak y Siria", dice Fernando Domínguez-Castro, autor principal e investigador en el departamento de Física de la UNEX.

El estudio, que se ha publicado en la revista 'Weather', destaca un alto número de olas de frío. "El periodo de 902 a 944 concentra una frecuencia muy alta, si la comparamos con los datos meteorológicos actuales. Ejemplo de ellos son las seis nevadas que se vivieron en esa época, mientras que en la actualidad solo se tiene conocimiento de una nevada en Bagdad el 11 de enero de 2008", señala Domínguez-Castro.

Más días fríos por erupciones volcánicas

El equipo de investigación se sorprendió en especial con el "inesperado" descenso de las temperaturas de julio de 920. Según los documentos analizados, los habitantes de Bagdad tuvieron que bajar de sus tejados (donde solían dormir en verano), meterse en casa e incluso abrigarse con mantas. Las temperaturas pudieron entonces descender 9ºC respecto a la media actual en un mes de julio.

"Es difícil saber a qué se debe este descenso de la temperatura, pero una posibilidad es la de una erupción volcánica el año anterior, ya que es frecuente que las temperaturas desciendan en verano en estos casos", destaca el experto quien señala que durante alguna de estas noches de julio de 920, las temperaturas no superaron los 18ºC.

Existen dos erupciones volcánicas importantes durante esta época que podrían ser la causa de las olas de frío, "aunque están datadas con una importante incertidumbre", afirma el investigador. Una de ellas es la del volcán Ceboruco (México), hacia 930, y la otra la del Guagua Pichincha (Ecuador), hacia 910. Sin embargo, "son necesarias más evidencias para confirmar esta hipótesis", advierte el experto.

La investigación demuestra que durante la primera mitad del siglo X, los eventos climáticos fríos en Bagdad tuvieron mayor frecuencia e intensidad que en la actualidad. Mientras que la ciudad iraquí registró solo dos días con temperaturas por debajo de 0ºC entre 1954 y 2008, al menos hubo seis días muy fríos en un periodo de 42 años en el siglo X.

Según los investigadores, "las crónicas árabes son muy útiles para la reconstrucción del clima en épocas y lugares de los que sabemos muy poco". Gracias a la sinergia de humanidades y ciencia se puede extraer "información climática robusta", concluyen.
 
Bagdad, el centro del imperio
En 762, Abu Ja`far al-Mansur, el segundo califa de Abbasid (la segunda dinastía del Islam) fundó la ciudad de Bagdad y la estableció como la capital del imperio. Pronto la urbe se convirtió en la más próspera de su tiempo y en el centro del comercio internacional y el desarrollo agrícola, lo que atrajo a una población creciente.

Los historiadores de la época discutieron las razones por las que el califa le dio tal importancia a Bagdad. Además de su estratégica situación, entre los ríos Tigris y Éufrates, la ciudad contaba con buenas condiciones climáticas. "El agua era abundante, el clima era muy cálido en verano, muy frío en invierno y moderado en primavera y otoño", detalló Al-Ya`qubi, autor de un tratado geográfico de 891.

Fuente:

El Mundo Ciencia

20 de abril de 2012

¿Cuánto falta para que un día dure 25 horas?

Hay gente tan atareada (yo me incluyo) que, en ocasiones, desearía que el día no tuviera 24 horas, sino algunas más. Pues en un tiempo, gracias a la rotación de la Tierra, que se está ralentizando, el deseo será condecido: el día durará 25 horas.



El problema es que el proceso es tan lento que probablemente nos cogerá a todos calvos: el tiempo que necesita el planeta para hacer una rotación completa sobre su eje varía una milmillonésima de segundo cada día, tal y como señala el físico Tom O´Brian, del Instituto Nacional de Estándares y Tecnología.


Así pues, a pesar de que hay fluctuaciones, en el caso más optimista deberemos esperar unos 140 millones de años. Entonces ya podremos recalibrar todos nuestros relojes, y es que siguen existiendo. De hecho, ni siquiera será necesario que añadamos un día más al calendario: aunque la rotación de la Tierra sobre su eje cada vez es más lenta, orbitamos alrededor del Sol tan rápido como siempre.

Los datos de que disponemos sobre la velocidad de rotación de la Tierra están basados en observaciones de la posición del Sol en el cielo durante los eclipses solares, lo que nos permite tener datos de hasta hace 2.500 años.

El calentamiento global es otro de los factores que está ralentizando la rotación de la Tierra, aunque muy ligeramente, debido al aumento del nivel de los océanos por el deshielo de los polos, lo que está afectando a las mareas y a las fuerzas de atracción gravitatoria con la Luna.

Fuente:

Lo que saben los cerezos de Washington sobre el cambio climático



Florecimiento de los cerezos japoneses en Washington D.C.

El florecimiento de los cerezos japoneses en Washington D.C. atrae a un millón de visitantes.

El florecimiento de los cerezos en Washington D.C. es un evento que no sólo atrae a miles de turistas a la capital estadounidense sino que anuncia la llegada de la primavera con una explosión de rosa pálido de unas dos semanas de duración.
En torno a este espectáculo de la naturaleza gira un festival primaveral de arte y cultura que vincula a incontables negocios y comunidades locales y genera millones de dólares para la ciudad.
El festival se coordina con el período en que los cerezos florecen -tradicionalmente a comienzos de abril- pero, este año, las flores brotaron el 20 de marzo y, en dos semanas, ya no quedaba una sola.
Entre los organizadores del festival no hay mucha alarma al respecto pues, dicen, las fechas han variado en el pasado aunque, en los últimos diez años, se ha registrado un notable cambio en el patrón del tiempo que ha alterado la fecha promedio del florecimiento.

El Cambio Climático es un tema controvertido en Washington D.C., con opiniones divididas a lo largo de líneas partidistas pero hay dos cosas que sí son ciertas: una, los cerezos son muy sensibles a la temperatura -cualquier alteración puede anticipar o retrasar su florecer- y, dos, la naturaleza es imparcial.

Frío importante

Los árboles fueron un obsequio de Japón hecho en 1912. Este año se celebra el centenario de ese gesto de amistad, así que el festival del Florecimiento de los Cerezos se extendió a cinco semanas.

Hay casi cuatro mil árboles de diferentes variedades - aunque la más común es el cerezo Yoshino (Prunus x vedoensis)- plantados en la dársena frente al río Potomac donde los monumentos a Thomas Jefferson y Martin Luther King Jr sirven de trasfondo.

Los árboles requieren la atención constante del Servicio Nacional de Parques (NPS, por sus siglas en inglés) donde Robert DeFeo es el horticultor en jefe.
 Robert DeFeo, horticultor del Servicio Nacional de Parques
"No son especies nativas de la región, pero se han adaptado a las condiciones climáticas de esta área", explicó a BBC Mundo. "El frío de aquí es como el de Japón".

Ese frío es un factor muy importante. Según DeFeo, los árboles necesitan pasar un determinado número de horas a bajas temperaturas, "horas de congelamiento" las llama, para que el árbol entre en un período de inactividad, desarrolle los botones y, después del frío y el calor relativo de la primavera, broten las flores.
"Por eso es que estos árboles no crecen en Miami", señaló aludiendo al clima tropical de esa ciudad.

Cambio de patrones

Flor del cerezo japonés

El cerezo es muy sensible a la temperatura y florece de acuerdo a ésta.

El cerezo Yoshino se puede cultivar en lo que se denomina zona 7, que se aplica a Washington D.C. y, siguiendo los patrones climáticos de esta zona, Robert DeFeo vaticina el día en que florecerán pero este año no pudo hacerlo.
2012 tuvo el invierno más templado seguido por el marzo más cálido desde que se llevan los registros y el resultado fue un florecimiento de los cerezos el 20 ese mes, dos semanas antes de lo esperado.

"Eso es lo que pasa cuando pasamos del invierno directamente al verano", expresó el horticultor.

Abril 5 solía ser el día promedio para el florecimiento pero el récord de años recientes ha cambiado esa fecha promedio al 4 de abril. DeFeo indica que si se hace el cálculo tomando en cuenta únicamente la última década, el día promedio del florecimiento se adelanta al 2 de abril.
El funcionario del Servicio Nacional de Parques recalca que no es un experto en estadísticas y no se siente cómodo tocando el tema del Cambio Climático aunque reconoce el comportamiento de los cerezos en estos diez años pueden indicar cambios.

"Hay un científico en Japón que dice que si este patrón continúa, en 2050, los veremos florecer en febrero", informó DeFeo, "pero esa es su teoría y no lo podremos comprobar hasta entonces".

Si, en efecto, estamos experimentando un cambio climático, lo que más le preocupa al horticultor en jefe del NPS no es la anticipación del florecimiento de los cerezos sino la inundación de la dársena donde están plantados. "Estos árboles no se nutren si sus raíces están bajo el agua".

Festival

Festival Nacional de los Cerezos

El festival es la celebración primaveral más importante del país.

La anticipación o el retraso de las flores tampoco tiene muy preocupados a los organizadores del Festival Nacional de los Cerezos que se realiza anualmente en la ciudad y este año conmemora su centenario con cinco semanas de actividades.
"Es la celebración primaveral más importante del país", dijo a la BBC Diana Mayhew, presidente del festival. "Atrae a más de un millón de visitantes y genera más de US$126 millones para el comercio local".

Mayhew afirma que más de 100 restaurantes, 50 organizaciones culturales, varios museos, hoteles y negocios participan en el festival de una manera u otra en torno al tema de los cerezos.

El impacto económico es muy importante pero Mayhew no cree que esté en peligro porque varíe la fecha del florecimiento de los cerezos.

"Por lo general, el festival va desde la última semana de marzo a la primera de abril y cada año han florecido dentro de este período", comentó. Sin embargo, reconoció que "este año las flores llegaron un poco más temprano".

Aunque los visitantes tratan de coordinar sus vacaciones de primavera para gozar del espectáculo natural, Mayhew reconoce que es una lotería pero asegura que hay muchas otras actividades de las que pueden gozar en el festival.

Por ahora no hay planes para cambiar las fechas de este ritual primaveral.
No obstante, Robert DeFeo advierte: "No importa lo que digan los calendarios. En Washington, cuando los cerezos florecen, ese es el primer día de primavera".

Fuente:

BBC Ciencia

29 de febrero de 2012

A prop{osito del 29 de febrero... ¿Desde cuándo existen los años bisiestos?


calendario_2012El año bisiesto se introdujo para sincronizar nuestro calendario y el movimiento orbital en Roma, bajo el mando de Julio César, asesorado por el matemático y astrónomo Sosígenes de Alejandría. César decidió que, en el calendario juliano (llamado así en su honor), uno de cada cuatro años tendría 366 días, uno más que los años comunes. De esta manera se aseguraba de que los meses del año seguían el ritmo de las estaciones. En principio, el día "extra" del año bisiesto se intercaló entre los días que hoy corresponden al 23 y el 24 de febrero.

La desincronización se resolvió solo aproximadamente:, ya que la Tierra no llega al mismo punto de su órbita en exactamente un número entero de días (365) más un cuarto de día. Concretamente, se añaden 44 minutos y 56 segundos de más cada cuatro años, es decir, casi ocho días por milenio. La diferencia se acumula en cada revolución de la Tierra alrededor del Sol, y llegó a ser importante varios siglos después de que Julio César ideara su calendario. De ahí que en el año 1582 d.C., el Papa Gregorio XIII, aconsejado por los astrónomos Christopher Clavius y Luigi Lilio, optara por introducir una reforma que consistía en ajustar los años bisiestos de manera que los años divisibles por cien pero no por cuatrocientos dejasen de tener 366 días. De esta manera se evitaba el desfase que se estaba produciendo al intercalar excesivos años bisiestos, ya que se suprimían tres días cada cuatro siglos.

Así, el año 1600 fue bisiesto y lo fue también el 2000 (todos dos son divisibles por cuatrocientos), pero fueron años naturales 1700, 1800 y 1900, y lo será el 2100.

Fuente:

Muy Interesante

3 de febrero de 2012

De ratón a elefante ¡en 28 millones de generaciones!

Biólogos han examinado restos de mamíferos de los últimos 70 millones de años para determinar los ritmos de aumento y disminución de tamaño.


De ratón a elefante, en 24 millones de generaciones Enlace

Esquema de los ritmos de aumento y disminución de tamaño de los mamíferos. / Alistair Evans, David Jones y coautores del estudio.

Si se espera lo suficiente y las condiciones son las idóneas, un mamífero del tamaño de un ratón puede crecer hasta alcanzar las dimensiones de un elefante. Hacen falta unos 24 millones de generaciones, sostiene hoy un equipo internacional de biólogos y paleontólogos en la revista 'Proceedings of the National Academy of Sciences'.

Alistair Evans, de la Universidad de Monash (Australia), y sus colaboradores han estudiado cuáles han sido los ritmos de aumento y disminución de tamaño de los mamíferos desde que los dinosaurios se extinguieron, hace unos 65 millones de años. Para ello, han examinado restos de 28 grupos de mamíferos -elefantes, ballenas y primates incluidos- de África, Eurasia y América correspondientes a los últimos 70 millones de años.

Las mediciones revelan que a un animal del tamaño de un conejo le lleva 5 millones de generaciones alcanzar las dimensiones de un elefante, para lo que tiene que multiplicar su masa por 1.000, mientras que a uno como ratón le exige 25 millones de generaciones multiplicar su masa por 100.000.

Sorpresas

Una de las sorpresas ha sido que los mamíferos marinos crecen dos veces más rápido que los terrestres. "Esto probablemente se debe a que es más fácil ser grande en el agua porque te ayuda a soportar el peso", indica Erich Fitzgerald, paleontólogo del Museo Victoria. Multiplicar por mil su masa hasta las dimensiones de una ballena le lleva a un mamífero marino 3 millones de generaciones, poco más del doble que centuplicarla a uno terrestre hasta el tamaño de un elefante.

Pero la mayor sorpresa es que se decrece con mucha más rapidez que se crece: diez veces más rápido. "La gran diferencia de ritmos entre decrecimiento y crecimiento es realmente asombrosa: ¡nunca hubiéramos esperado que ocurriera tan rápido!". Un elefante enano necesita 1,6 millones de generaciones para convertirse en un elefante, mientras que a la inversa solo hacen falta 120.000.

Muchas especies en miniatura de elefantes, hipopótamos y hasta homínidos estaban confinadas en entornos insulares. "¿Qué causó su enanismo? Pudo ser que necesitaran ser más pequeños para sobrevivir en su entorno o quizá escaseaba la comida y, con un menor tamaño, necesitas menos alimento", explica Jessica Theodor, bióloga de la Universidad de Calgary.

Los investigadores han usado como medida las generaciones porque las especies estudiadas tienen muy diferentes esperanzas de vida: mientras que un ratón vive unos 2 años, un elefante puede alcanzar los 80.

Fuente:

El Correo (Ciencia)



google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0