Latest Posts:

Mostrando las entradas con la etiqueta teorias. Mostrar todas las entradas
Mostrando las entradas con la etiqueta teorias. Mostrar todas las entradas

27 de septiembre de 2012

¿Cómo llegó el hombre a América?

En la madrugada del 12 de octubre de 1492, Rodrigo de Triana, un marinero andaluz a bordo de la Pinta, avistó tierra firme por primera vez después de que cinco semanas atrás hubieran dejado el puerto San Sebastián de La Gomera. Aquella tierra no se trataba de las Indias que la expedición de Cristóbal Colón, si no un nuevo continente descubierto.

¿Pero un nuevo continente para quién? La Europa de la época desconocía por completo la existencia de América cuando Colón llegó allí, pero con los datos actuales ya sabemos que Colón no fue el primer europeo en llegar a América. Casi 500 años antes, Leif Ericsson, el hijo de Eric el Rojo, puso el punto álgido al gran viaje vikingo  creando un pequeño asentamiento en la Isla de Terranova.

Tanto el viaje de Cristóbal Colón como el de Leif Ericsson, supusieron un gran descubrimiento para su respectivo tiempo y cultura, pero ambos se encontraron con humanos que habían llegado mucho antes. Pero… ¿cuándo?
 
El mundo durante la última era glacial | Fuente: The Last Ice Age
Para poder barajar esta posibilidad, tenemos que entender cómo era el mundo durante la última glaciación . Este periodo, que abarca aproximadamente desde 100.000 adP hasta 10.000 adP, supuso una gran bajada de las temperaturas que provocaron la creación de grandes bloques de hielo mucho más allá de los límites marcados por los círculos polares. Durante su periodo de máximo apogeo, hace unos 20.000 años, la cantidad de hielo en los casquetes repartidos por todo el mundo era tal, que el nivel del mar llegó a bajar 120 metros de media.

Este gran descenso en el nivel del mar ocasionó que multitud de tierras a día de hoy sumergidas estuvieran por encima de la superficie del mar, creando puentes naturales que permitieron el paso de distintas especies terrestres entre zonas hoy separadas por grandes cantidades de mar y océano.

Sobre el estrecho de Bering, el que actualmente separa Chukotka (en Rusia, Asia) y Alaska (en Estados Unidos, América), emergió uno de esos puentes, formando la región de Beringia, también conocida como el Puente de Bering.
 
Mapa de Beringia. | Fuente
La profundidad actual de Beringia es de entre 30 y 50 metros bajo el nivel del mar, lo que permitió que este territorio se mantuviera emergido durante un largo periodo de la glaciación. Pese a la cercanía del Polo Norte, la temperatura de la región era inusualmente cálida, alcanzando máximas de 10º durante el verano. Esto, unido a la gran sequedad del terreno, impidió la formación de glaciares como en otras zonas de latitudes similares –Siberia, Canadá–, siendo un puente apto para el tránsito de especies durante dos largas épocas de 4.000 años (entre 40.000 adP y 36.000 adP) y de 15.000 años (entre 25.000 adP y 10.000 adP).

Según la teoría del poblamiento tardío esta fue la forma como el hombre llegó por primera vez a América. Los primeros hombres habrían cruzado por el Puente de Bering aprovechando las temperaturas, pasando de Chukotka a Alaska. Desde allí, habrían atravesado la placa de hielo Laurentina (la que cubría toda la zona norte de Norteamérica) a través del corredor Mackenzie  o bien a siguiendo la costa pacífica, ambas rutas abiertas durante casi todo el periodo de glaciación.

La prueba que mantuvo esto en pie fue el descubrimiento en 1929 de un yacimiento en sur de Estados Unidos, un lugar poblado por la Cultura Clovis  en torno a 13.000 adP. La cultura Clovis fue considerada hasta hace pocas décadas como la cultura más antigua de todo el continente americano. Pero a lo largo de la década de los 70 se empezaron a descubrir nuevos yacimientos a lo largo de todo el continente que mostraron que los Clovis pudieron no ser los primeros.

El primero de estos yacimientos fue Meadowcroft Rockshelter, descubierto en la actual Pennsylvania en 1973. Con unos restos humanos datados entre 16.000 adP y 19.000 adP, este yacimiento bate de largo el récord de los Clovis, aunque mantiene intacta la Teoría del poblamiento temprano.

El mayor problema llegó con el yacimiento Monte Verde , descubierto en 1976 en la Región de los Lagos, al sur de Chile. Con unos restos humanos datados en torno a 15.000 adP puso en jaque que la primera llegada a América del hombre fuera a través de Beringia.

En 1978, Alan Lyle Bryan puso sobre la mesa una nueva posibilidad. Si bien es factible que la gran parte de los indígenas americanos llegasen a través de Beringia, es posible que los primeros llegaran a América siguiendo una ruta cirumpacífica, aprovechando los distintos accidentes geográficos para expandirse por el resto del continente americano. Esta propuesta de Bryan explicaría el yacimiento de Monte Verde, otros encontrados en Sudamérica (Lagoa Santa, Cuenca de México) e incluso los desconcertantes yacimientos paleoamericanos de la Baja California.

 
Hipótesis actuales sobre el poblamiento de América | Fuente
A finales de la década de los 90, gracias a los análisis genéticos llevados a cabo en las distintas poblaciones indígenas del continente americano, todas estas hipótesis sobre el poblamiento del continente americano, comenzaron a tener un apoyo científico más allá de los yacimientos. Está probado que no hubo un único movimiento migratorio que poblara toda América y la explicación de que varias rutas fueran utilizadas es plausible.

Algunos científicos defienden también la llegada del hombre atravesando el Océano Pacífico o desde Europa, pero a día de hoy parecen menos plausibles que las otras propuestas.

Fuente:

Nautas

24 de septiembre de 2012

Experimento: Verifica la teoría atómica y la mecánica cuántica ¡con un CD usado!

Si tienes una caja de cartón, un disco CD viejo que no te importe romper y un cutter, prepárate para hacer un experimento en el que vas a aprender un montón de física cuántica. Prometo no usar ni una fórmula, así que espero que disfrutes el artículo aunque odies las mates.

Hace poco más de un siglo que sabemos
con absoluta certeza que las distintas sustancias que se encuentran en la Naturaleza se pueden partir una y otra vez manteniendo sus propiedades, pero no hasta el infinito: el límite es lo que llamamos átomos, del griego ἄ-τομος ("in-divisible").

Seguramente en la escuela te explicaron que los átomos consisten en un núcleo, compuesto de partículas llamadas protones y neutrones (de cargas positiva y neutra) y una nube de electrones de carga negativa orbitando a su alrededor, tal que así:


 

Pues bien, si esta imagen de un mini sistema solar es la que tenías en mente cuando piensas en un átomo, siento decirte que... ¡¡en el colegio te engañaron!!. Por suerte, un átomo es algo muchísimo más complejo y entretenido, y una de las razones es el tamaño de las partículas que lo componen. Los electrones son tan "pequeños" y ligeros (pesan unas 1800 veces menos que las partículas del núcleo atómico) que viven en el mundo microscópico donde las leyes de la Naturaleza son muy diferente a las que vemos en nuestro día a día: las de la mecánica cuántica.

Para empezar,
un electrón no es una "bolita", como se lo suele representar. Se descartó hace mucho tiempo que pudieran ser esferas tras analizar un efecto llamado spin. De hecho, a día de hoy no se sabe qué son por dentro (si es que son algo).

Pero tampoco es correcto imaginárselos como
"puntos" infinitamente pequeños y sin dimensión. En el mundo de la mecánica cuántica la pregunta de qué es un electrón quieto, sobre la mesa, no tiene sentido, ya que un electrón quieto no existe: debido al principio de indeterminación (que no de incertidumbre) ningún objeto puede estar quieto, aunque el efecto se atenúa para objetos más grandes que moléculas y por eso nuestra experiencia cotidiana no lo nota. Cuanto más intentes dejar un electrón quieto, más se moverá. De hecho, gracias a dicho efecto existe la materia tal y como la conocemos ya que así se evita que los electrones caigan hacia el núcleo atómico, al que se sienten atraídos por la diferencia de carga eléctrica (ya lo demostré matemáticamente aquí).

El hecho es que
un electrón es en realidad un ente difuso, extremadamente pequeño pero que no está en ningún sitio concreto sino en una zona del espacio determinada siguiendo lo que llamamos funciones de densidad de probabilidad (fdp) que nos dicen donde es más o menos probable encontrar al  electrón. Por ejemplo, en un átomo de Helio, sus dos electrones orbitarán normalmente siguiendo idénticas distribuciones de probabilidad esféricas, siendo más probable encontrarlos cerca del núcleo que lejos:
 
Átomo de Helio (fuente)

 

Pero ojo: a diferencia de las estadísticas que se usan en aspectos más mundanos como cuando se acota la incertidumbre o error en encuestas y sondeos antes de unas elecciones, en el caso de los electrones la nube que estás contemplando arriba es realmente el electrón en sí.

Está en todos esos lugares...
a la vez.

Han corrido ríos de tinta en debates filosóficos sobre las implicaciones de que la materia no esté bien definida (el
problema del colapso de la función de onda), así que no voy ni a intentar ahondar en el debate aquí. La Naturaleza es así de extraña, no hay que intentar buscarle más explicaciones porque es posible que nunca encontremos una explicación más fundamental. En este aspecto la mecánica cuántica está muy cerca del "razonamiento de madre" frente a un crío pesado: "¿Pero por qué, pero por qué? ¡Porque sí, y punto!".

Hasta ahora, ya hemos visto que el modelo de mini sistema solar del átomo es incorrecto en el aspecto de que los electrones siguen distribuciones de probabilidad en lugar de órbitas perfectas cual pequeños planetitas. Pero hay algo más fundamental. En un sistema solar, las posiciones de los planetas son arbitrarias, dependientes de accidentes de la historia.


En el átomo no es así: en todos los átomos de hidrógeno el electrón orbita en una distribución de probabilidad idéntica. En todos los átomos de hidrógeno del universo. Si fuera coincidencia, ¡sería la madre de todas las casualidades!. Pero obviamente no es casualidad, sino otra ley de la naturaleza, y la que da nombre a la física cuántica: la
energía de un electrón no puede tener cualquier valor, sino que sólo puede dar "saltitos" de unos valores determinados.

A estos "saltitos" se les llamó "
cuantos" de energía porque quedaba más serio, y así nació la mecánica cuántica a principios del siglo XX. Lo curioso es que el "tamaño" de la órbita que sigue un electrón cuando está atado a un átomo depende exclusivamente de su nivel de energía (lo que se llama el "número cuántico n"), y dentro de cada nivel energético concreto puede describir órbitas de distintas formas geométricas dependiendo de otros dos números discretos (los "números cuánticos m y "). Para hacerse una idea de qué pinta tienen estas distribuciones de probabilidad, llamadas orbitales atómicos, échale un ojo a la siguiente tabla para el caso del electrón del átomo de hidrógeno:
 

Orbitales del átomo de hidrógeno. Falta el caso básico (1,0,0) que sería una esfera perfecta (fuente)

Inmediatamente llegamos por fin al meollo de la cuestión del experimento de hoy:
¿para qué sirven los niveles de energía? Es un hecho que cuando un átomo tiene más de dos electrones, estos parecen "chocar" y egoístamente compiten por los niveles más bajos negándose a compartirlo los unos con los otros, con lo que si un electrón llega tarde tendrá que ocupar el siguiente hueco de energía que quede libre siguiendo una serie de complejas reglas. El mecanismo, que es la base misma de que exista la química, se llama principio de exclusión de Pauli. Aunque ponerle un nombre es algo muy distinto a conocer el por qué ocurre.

Por tanto, tenemos ya una imagen del átomo lo suficientemente verídica para el experimento que nos proponemos hacer, que no es otro que
analizar la emisión de luz por parte de átomos. En concreto, de la luz que emiten las bombillas de una casa.

Y aquí tenemos que distinguir entre
dos tipos radicalmente distintos de bombillas: las "antiguas" o clásicas lámparas de hilo incandescente se basan como su nombre indican en calentar mucho un hilo hasta que llega a tal temperatura que empieza a brillar. Este mecanismo se llama radiación térmica, y se caracteriza porque la "combinación de colores" que un objeto emite depende casi únicamente de su temperatura, no del material ni de la manera en que se ha calentado. Matemáticamente, la "combinación de colores" se representa mediante un espectro de emisión, una gráfica que nos dice cuanta luz se emite en cada color (o longitud de onda λ, o frecuencia: los tres conceptos son sinónimos):
 

Espectro de emisión según la temperatura (en grados Kelvin K). Las longitudes de onda λ de la luz visible están entre 380 y 750nm (fuente).

Es decir: en lámparas incandescentes se emite luz en un rango continuo de longitudes de onda.

Por otro lado tenemos
las lámparas de tipo fluorescentes (tubos o las más pequeñas y modernas CFL). ¡Estas son mucho más interesantes! Todas estas lámparas funcionan por el mismo principio: se hace pasar una corriente de electrones libres desde un extremo del tubo al otro, y estos electrones en su camino chocan contra átomos del vapor de mercurio que las rellena:
 

Lámpara fluorescente (créditos)


 

En cada uno de estos choques ocurre algo muy interesante: el electrón libre que venía a toda velocidad pierde la energía cinética (su "velocidad") y se la transfiere a uno de los 80 electrones que hay en cada átomo de mercurio. Según las reglas de la mecánica cuántica, un electrón solo puede aceptar ciertas cantidades (cuantos) de energía, que coinciden precisamente con los "escalones" que tiene que escalar hacia niveles de orbitales más altos.

Se dice entonces que el electrón está
"excitado", y realmente no aguanta mucho tiempo en ese estado hasta que vuelve a caer a su hueco natural. Como la energía ni se crea ni se destruye, la energía que le sobra al caer la emite en forma de un fotón, un "paquetito de luz", cuya longitud de onda o color depende exclusivamente del tamaño del escalón en la caída. 


La siguiente figura te ayudará a entender todo esto para el ejemplo sencillo de un átomo de hidrógeno con un sólo electrón:

 


Emisión del hidrógeno teórica (fuente)
 
Se puede predecir por tanto que un átomo que emita radiación por medio de electrones excitados sólo podrá hacerlo a unas determinadas longitudes de onda muy precisas (obviando el efecto Zeeman y otros detalles). De hecho, estas longitudes se pueden visualizar como distintos colores en el espectro visible en forma de "rayas" y caracterizan a cada elemento químico ya que dependen de la configuración de sus electrones. La siguiente foto es el espectro emitido por un gas de hidrógeno al hacerle pasar una descarga eléctrica, y se ven claramente las líneas correspondientes a los saltos 5->2, 4->2 y 3->2 (repasa el dibujo de arriba):
 


Emisión experimental de hidrógeno excitado (fuente)

Volviendo a nuestro caso de la lámpara fluorescente, el vapor de mercurio realmente emite principalmente en dos líneas espectrales (60% a 253.7nm y 10-20% en 185nm) que caen en el
ultravioleta, y por lo tanto son invisibles a nuestros ojos. Por eso el interior de dichas lámparas va recubierto de sustancias químicas especialmente pensadas para absorber dicha radiación, que sus electrones salten varios niveles de golpe, y luego caigan poco a poco, emitiendo paquetes de radiación de menor energía (y por tanto, mayor longitud de onda) en cada saltito. Este fenómeno se llama fluorescencia y es la razón del nombre de dichas lámparas.

Dependiendo del fabricante de la lámpara fluorescente y del material de recubrimiento, el número de saltos será mayor o menor y estarán en distintas longitudes de onda, aunque para la mayoría de modelos "económicos" tienen prácticamente el mismo espectro de emisión:


Distintos tipos de bombillas y sus espectros (fuente)

Las líneas discretas que se ven en las tres lámparas fluorescentes centrales representan los distintos saltos de electrones de los que hemos hablado arriba.

El objetivo del experimento de hoy es
ser capaces de ver dicho espectro para detectar las líneas espectrales de las lámparas que tengáis en casa. En un laboratorio profesional se usaría una red de difracción, básicamente una superficie fina con un patrón regular de agujeros microscópicos:
Principio de funcionamiento de una rejilla de difracción (fuente)

La distancia entre agujeros debe ser del orden de magnitud de la luz que se quiere analizar y lo que se consigue es separar la luz en sus distintos colores de una forma mucho más eficiente a como lo haría un prisma. Para detectar la separación habrá que mirar el patrón desde un ángulo que coincida con los puntos señalados como "m=1" en el dibujo.

Como es raro que alguien tenga un patrón de difracción de laboratorio en su casa, vamos a usar algo mucho más artesanal: un CD. Incluso un CD-R (de los grabados en casa) vale, ya que aunque esté vacío vienen con una serie de surcos de ~500nm de ancho ya pregrabados:

Superficie de un CD-R virgen, donde se aprecian los microsurcos (fuente)


Al no ser
agujeros sino surcos la difracción no será perfecta sino que dependerá del ángulo con el que se mire... ¡pero esto es un experimento casero, así que nos conformamos!



Lo primero que hay que hacer es quitarle la cubierta que lleve pegada en uno de sus lados. Esto debe hacerse con un cutter y
con mucho cuidado para no rayarlo. Recomiendo cortar un trozo sin preocuparse y a partir de ahí ir levantándolo muy lentamente introduciendo el cutter por debajo:

Tras separar la cubierta de un trozo, procedemos a cortarlo con unas tijeras:

Y a continuación buscamos una caja de cartón y haremos una pequeña ranura en uno de los extremos, y colocaremos el trozo de CD sin cobertura de forma que haga un cierto ángulo con un rayo de luz que entre en la caja, tal que así:

El último paso recomendable es cerrar la caja con su tapa y abrir una pequeña ventana por la que poder ver el trozo de CD desde arriba. Deberás probar para averiguar el ángulo de refracción correcto. También hay otras posibles configuraciones (con el CD paralelo a la abertura y el visor en la otra punta, etc...): prueba y descubre la que te parezca más cómoda.

Tras todo esto, ya podemos iluminar la caja a través de la ranura con el tipo de luz a analizar y podremos ver su espectro a través de la ventana. Primero os muestro lo que se ve con una lámpara incandescente (¡¡perdón por la calidad de esta imagen!!):


Como era de esperar, se ve un
espectro continuo, lo que corresponde al tipo de emisión térmico.

Pero si ahora enfocamos una
lámpara fluorescente hacia nuestro rudimentario analizador, veremos esta preciosa imagen:

Cada una de esas líneas representa los saltos discretos de los electrones de la cubierta del tubo fluorescente. Compáralos con los espectros de bombillas de distintas marcas que mostré arriba y verás como son idénticos.

Reconozco que el artículo se me ha ido de las manos de largo, pero si has sido capaz de aguantar leyendo hasta aquí, estoy seguro de que coincidirás conmigo en que...

¡¡esas rayitas tan tontas son la verificación palpable de que el mundo está hecho de átomos que se rigen por las reglas de la mecánica cuántica!!.

La física puede ser maravillosa, ¿o no? ;-)

Fuente:

25 de agosto de 2012

El Big Bang fue en realidad un cambio de fase

Artículo publicado por Natalie Wolchover el 21 de agosto de 2012 en SPACE.com

¿Cómo se inició el universo? Tradicionalmente se ve al Big Bang como el momento en el que un paquete de energía infinitamente denso estalla súbitamente, expandiendo las tres direcciones espaciales y enfriándose gradualmente conforme lo hace.

Ahora, un equipo de físicos dice que el Big Bang debería modelarse como un cambio de fase: el momento en que un universo amorfo análogo al agua líquida enfriada, cristaliza repentinamente para formar un espacio-tiempo de cuatro dimensiones, que sería análogo al hielo.



Big Bang © by { pranav }

En el nuevo estudio, el autor principal James Quach y sus colegas de la Universidad de Melbourne en Australia dicen que la hipótesis puede ponerse a prueba buscando defectos en la estructura del espacio-tiempo cuando se cristalizó el universo. Actualmente, el universo tiene unos 13 700 millones de años.

“Piensa en los inicios del universo como en un líquido”, dice Quach en un comunicado. “Luego, cuando se enfría el universo, ‘cristaliza’ en las tres dimensiones espaciales y una temporal que vemos hoy. Imaginado de esta forma, cuando se enfría el universo, esperaríamos que se formasen grietas, similares a las que se forman en el hielo cuando se congela el agua”.

De existir, estas grietas serían detectables, dicen los investigadores, debido a que la luz y otras partículas se curvarían o reflejarían cuando cubren su camino a través del cosmos.

La idea de que el espacio y el tiempo son propiedades emergentes que se materializan repentinamente a partir de un estado amorfo, se propuso inicialmente por físicos del Instituto Perimeter de Canadá en 2006. Conocida como “quantum graphity”, la teoría mantiene que la geometría de cuatro dimensiones del espacio-tiempo descubierta por Albert Einstein no es fundamental; en su lugar, el espacio-tiempo es más similar a una retícula construida a partir de bloques básicos discretos de espacio-tiempo, de la misma forma que la materia tiene aspecto continuo, pero en realidad está hecha de bloques básicos llamados átomos.

Originalmente, a temperaturas extremadamente altas, los bloques básicos eran como el agua líquida: no tenían estructura, “representando un estado sin espacio”, escriben los investigadores en su artículo. En el momento del Big Bang, cuando la temperatura del universo empezó a bajar hasta el “punto de congelación” de los bloques básicos de espacio-tiempo, cristalizaron en la forma de retícula tetradimensional que vemos hoy.

Las matemáticas que describen la teoría cuadran bien, pero “el desafío ha sido que estos bloques básicos de espacio son muy pequeños, por lo que es imposibles verlos directamente”, explica Quach. Desde el punto de vista humano, el espacio-tiempo parece suave y continuo.

No obstante, aunque los propios bloques básicos podrían ser demasiado pequeños para detectarlos, los físicos esperan observar los límites que se habrían formado cuando las regiones de cristalización de los bloques básicos chocaron entre sí en el momento del Big Bang, creando “grietas” en el universo. Se requiere más trabajo para predecir la distancia media entre grietas – no se sabe si es microscópica o de años luz – para caracterizar sus efectos sobre las partículas.

La investigación de Quach y su equipo se detalla en el ejemplar de este mes de la revista Physical Review D.

Fuente:

29 de febrero de 2012

Una nueva teoría física propone revisar la naturaleza del tiempo

Se basa en el constante movimiento de los cuerpos para afirmar que no pueden tener una posición relativa determinada

Una nueva teoría física, elaborada por un estudiante universitario de Nueva Zelanda que ha sido comparado con Albert Einstein, propone revisar la forma en que pensamos sobre el tiempo y el espacio porque considera que los cuerpos no pueden tener una posición relativa determinada, ya que, si la tuvieran, no podrían estar en movimiento permanente. Asegura que la flecha del tiempo no existe y que los procesos cerebrales asociados a la conciencia son los que fijan para nuestra percepción los cuerpos en el espacio y en el tiempo.


Peter Lynds. Foto: B. Yigitoz.

Peter Lynds. Foto: B. Yigitoz.

Un artículo publicado en la edición de agosto de la revista Foundations of Physics Letters cambiará seguramente la forma en que pensamos sobre la naturaleza del tiempo y su relación con el movimiento, así como las mecánicas clásica y cuántica. Al hacerlo, su autor ha sido comparado con Albert Einstein.

En el artículo El Tiempo y las Mecánicas Clásica y Cuántica: Indeterminación vs. Discontinuidad un joven de 27 años de Wellington, Nueva Zelanda, Peter Lynds, que hasta ahora ha asistido a la universidad sólo durante seis meses, establece que es necesario revisar todos los valores establecidos por la física en relación con el tiempo, lo que supone terminar con ancestrales presunciones sobre el tiempo y las magnitudes físicas, incluyendo la relativa posición de los cuerpos en el espacio.

El trabajo demuestra que esta revisión de los valores físicos establecidos hasta ahora sobre el tiempo y la posición de los cuerpos en el espacio proporciona la solución correcta a las paradojas del movimiento y del infinito, excluyendo la del estadio, concebidas originalmente por el matemático Zenón de Elea, hace más de 2.500 años.

La cosmología cuántica y del tiempo también están contempladas en la teoría de Lynds, incluyendo un convincente argumento contra la teoría del tiempo imaginario elaborada por el físico teórico británico Stephen Hawking.

Respuestas positivas

Hasta ahora el trabajo ha recibido una respuesta muy positiva. Un crítico comentó: el artículo recuerda a la teoría especial de la relatividad formulada por Einstein en 1905, mientras que Andrei Khrennikov, Profesor de Matemáticas Aplicadas de la Universidad de Växjö en Suecia, dijo: encuentro a este artículo muy interesante, e importante para clarificar algunos aspectos fundamentales de formalismos de la física clásica y cuántica. Creo que el autor ha realizado una muy importante investigación sobre el papel de la continuidad del tiempo en los modelos físicos estandarizados de los procesos dinámicos.

Otro impresionado con el trabajo de Lynds es el gigante de la física de Princeton y colaborador y amigo, tanto de Albert Einstein como de Richard Feynman, John Archibald Wheeler, quien dijo: admiro la audacia de Lynds.

Para ayudar a explicar el trabajo, Lynds propone lo siguiente: Imagine una taza atraida a cualquier velocidad, grande o pequeña, contra su escritorio. Luego pregúntese si tiene o no una posición relativa determinada con respecto al escritorio en cualquier momento mientras se encuentra en movimiento. Y luego pregúntese, ¿existe algún momento en el cual la taza no esté en movimiento y en que su posición relativa al escritorio no esté cambiando constantemente?.

De acuerdo tanto con la física antigua como con la actual, la taza tiene una posición determinada relativa al escritorio. De hecho, la física del movimiento desde Zenón y Newton hasta hoy, toma esta presunción como establecida.

No hay instante real de quietud

Pero no es así, según Lynds. Debería ser obvio que no importa cuán pequeño sea el intervalo, o cuán lentamente se mueva la taza durante ese intervalo, ya que la taza siempre está en movimiento y su posición está cambiando constantemente, así que no puede tener una posición relativa determinada. De hecho, si la tuviera, no podría estar en movimiento.

Lynds dice que lo mismo puede decirse sobre la posición relativa de cualquier cuerpo en un instante en el tiempo. Si hubiera un instante en el tiempo subyacente al movimiento de la taza, aunque la taza tuviera una posición relativa determinada en ese instante, tal como es la naturaleza de esa noción etérea, también estaría congeladamente estática en ese instante, y por lo tanto no podría estar en movimiento.

La respuesta, por supuesto, es que no existe un instante preciso en el tiempo que subyazca al movimiento de un objeto, ya que su posición está constantemente moviéndose a medida que pasa el tiempo, por lo que no tiene nunca una posición determinada en un momento concreto.

Según Lynds, no existe por tanto una cuerpo que esté durante un instante completamente quieto en la naturaleza, por lo que ese instante de quietud es algo enteramente subjetivo que proyectamos al mundo que nos rodea. En otras palabras, es un producto de la función cerebral y de la conciencia.

La indeterminación no es cuántica

Para Lynds, la ausencia de una posición relativa determinada en cualquier momento de los cuerpos que ocupan el espacio y, por lo tanto, también de su velocidad, significa necesariamente la ausencia de cualquier otro valor físico y de magnitud determinados en un momento dado, incluyendo al propio tiempo y espacio.

Comenta Lynds, Naturalmente, el parámetro y el límite de la respectiva posición y magnitud de un cuerpo son solamente determinables hasta los límites de medida posibles, de acuerdo a la hipótesis cuántica general y al principio de indeterminación de Heisenberg, pero esta indeterminación del valor preciso no es una consecuencia de la incertidumbre cuántica.

Continúa Lynds, Esto indica que, en relación con la incertidumbre en una magnitud física precisa, lo micro y lo macroscópico están inseparablemente enlazados, ya que ambos parten de una misma cosa, más que simplemente un caso de lo primero subyaciendo y contribuyendo a lo segundo.

En el apartado cosmológico del artículo, Lynds explica: no es necesario que el tiempo emerja y cuaje de la espuma cuántica y de la altamente contorsionada geometría del espacio-tiempo presente antes de la escala de Planck, justo antes del Big Bang, como se ha especulado algunas veces. La continuidad estaría presente y sería naturalmente inherente en prácticamente todos los estados y configuraciones cuánticos iniciales, más que en unos pocos específicos, sin importar lo microscópico de la escala.

Una cuestión simple

Y añade en su artículo: la propuesta cosmológica del Tiempo Imaginario tampoco es compatible con una descripción física consistente, tanto como una consecuencia de lo anterior, como porque lo relevante es el orden relativo de los eventos, no es la propia dirección del tiempo, ya que el tiempo no va en ninguna dirección. Consecuentemente, no es posible que el orden de una secuencia de eventos sea imaginaria, o en ángulos rectos, relativa a otra secuencia de eventos.

Sobre el contenido general del artículo, Lynds comenta: puede ser contrario a la intuición, pero realmente es bastante simple. De alguna forma, casi desearía que no fuera tan extraño, ya que yo diría que algunos encontrarán este aspecto un poco difícil de tragar. De cualquier forma, es correcto.

En relación con su solución a las paradojas de Zenón, Lynds dice: creo que uno podría inferir que hemos sido un poco cortos para entenderlas, considerando que nos ha llevado tanto tiempo alcanzar estas conclusiones. Sin embargo, no pienso que ése sea el caso. Más bien creo que, respecto a un instante en el tiempo, es difícil sorprenderse considerando la extrema dificultad en ver a través de algo que realmente ves y con lo que piensas. Más aún, con sus engañosamente profundas y complicadas paradojas, Zenón de Elea fue un verdadero visionario y, en algún sentido, estuvo 2.500 años adelantado a su tiempo.

Los proyectos de Lynds para el futuro inmediato incluyen la publicación de un artículo sobre las propias paradojas de Zenón en la Revista Philosophy of Science, y otro relacionando con el tiempo y la conciencia. También planea explorar más su trabajo en conexión con la mecánica cuántica y tiene la esperanza de que otros hagan lo mismo.

Fuente:

Tendencias 21

2 de agosto de 2011

Un estudio ve probable que estemos solos en el universo

Dos astrofísicos dicen que nuestra existencia nos ha hecho sobreestimar las posibilidades de vida.

El sistema Gliese 581 es candidato a albergar vida.

El sistema Gliese 581 es candidato a albergar vida.ESO

La idea más intuitiva tiende a hacernos creer que, si nosotros estamos aquí, la aparición de vida debe de ser algo común en el universo y probablemente habrá miles, incluso millones de especies inteligentes esparcidas por el cosmos. En esta premisa se basa la investigación dedicada a encontrar signos de esos otros mundos habitados, como los proyectos SETI (siglas en inglés de Búsqueda de Inteligencia Extraterrestre). Sin embargo, un nuevo modelo teórico viene a poner en duda estas optimistas previsiones y concluye que la probabilidad de que surja la vida puede ser tan baja que bien podríamos estar solos en el universo.

Al no disponer de ninguna prueba de vida extraterrestre, los científicos han especulado durante décadas tratando de basar sus hipótesis en premisas razonables. Muchas de estas discusiones se han centrado en la llamada ecuación de Drake, propuesta en 1961 por el astrofísico estadounidense Frank Drake, fundador del SETI, y que trataba de calcular el número de civilizaciones extraterrestres operando con los parámetros implicados y estimando un valor para cada uno de ellos. Aunque la ecuación de Drake es puramente especulativa, los expertos han estado generalmente de acuerdo en el valor de uno de los factores llamado fl, la probabilidad de que en un planeta habitable acabe surgiendo la vida. Su valor se estima en 1; o, hablando en porcentajes, un 100%.

Pero ¿y si no fuera así? ¿Y si nos estuviéramos engañando? ¿Y si fl fuese, en realidad, tan extremadamente bajo que debiéramos considerarnos prácticamente solos en el universo y abandonar empeños como el SETI? Los que ejercen de abogados del diablo en esta ocasión son los astrofísicos David Spiegel, de la Universidad de Princeton (EEUU), y Edwin Turner, de la Universidad de Tokio.

Estimación sesgada

En su estudio publicado en arXiv.org y sometido a publicación en la revista PNAS, Spiegel y Turner aplican a este factor un método estadístico llamado inferencia bayesiana, consistente en corregir la probabilidad de una hipótesis a posteriori de los hechos. Los dos científicos notan que "la muy limitada información empírica [...] tiene una influencia muy dominante en el cálculo posterior de la probabilidad". En otras palabras, nuestra estimación de fl está sesgada por la sencilla razón de que estamos aquí. Y, si no estuviéramos, no habría estimación.

Para evitar este sesgo, los investigadores han planteado su modelo teórico con una probabilidad muy baja para fl. Y descubren que funciona: "Los datos son consistentes con el hecho de que la vida sea un fenómeno extremadamente raro", escriben. El hecho de que la vida haya surgido en la Tierra, concluyen, es coherente con que sólo haya ocurrido aquí.

Fuente:

Público Ciencia

8 de julio de 2011

Telescopio "Integral" cuestiona los principios de la gravedad cuántica


printer friendly page
Gamma-ray burst
Explosión de rayos gamma

Las observaciones del telescopio de rayos gamma de la ESA, Integral, ponen en duda las bases de la física posterior a Einstein, al demostrar que la granularidad cuántica del espacio tiene una escala mucho menor de lo que se pensaba.

La Teoría de la Relatividad General enunciada por Albert Einstein describe las propiedades de la gravedad y asume que el espacio-tiempo es suave y continuo. Por otra parte, la Mecánica Cuántica sugiere que el espacio presenta una estructura granular en las escalas más pequeñas, como la arena en una playa.

Uno de los principales retos de la física moderna es conciliar estos dos conceptos en una única teoría, conocida como gravedad cuántica.

Los resultados de las observaciones realizadas por el satélite Integral de la ESA imponen unos nuevos límites para el tamaño de estos gránulos cuánticos, demostrando que tienen que ser mucho más pequeños de lo que predecían las hipótesis actuales.

Según los cálculos, la presencia de estos gránulos microscópicos debería alterar la forma en que se propagan los rayos gamma por el espacio, cambiando la dirección en la que oscilan, una propiedad conocida como polarización.

Los rayos gamma de alta energía deberían ‘retorcerse’ más que los de baja energía, y la diferencia en su polarización podría ayudar a estimar el tamaño de los gránulos cuánticos.


Integral: el observatorio de rayos gamma
Philippe Laurent y su equipo de CEA Saclay han utilizado los datos generados por el instrumento IBIS de Integral para buscar diferencias en la polarización de los rayos gamma de alta y baja energía emitidos durante uno de los destellos de rayos gamma (GRBs) más intensos jamás detectado.

Los GRBs tienen su origen en los fenómenos más violentos del Universo. Se piensa que la mayoría de los GRBs se generan cuando una estrella muy masiva colapsa en una estrella de neutrones, o cuando un agujero negro se alimenta de los restos de una supernova. Estos fenómenos tan energéticos emiten un gran pulso de rayos gamma que dura apenas unos pocos segundos o minutos, pero que llega a brillar más que galaxias enteras.

El GRB 041219A se produjo el 19 de diciembre de 2004, y se catalogó inmediatamente dentro del 1% de los GRBs más intensos jamás detectados. Su brillo fue tan intenso que Integral pudo medir con precisión la polarización de sus rayos gamma.

Laurent y su equipo buscaron diferencias en la polarización de los rayos gamma a distintos niveles energéticos, pero no fueron capaces de detectar nada dentro de los límites de resolución de los datos. 10-35 metros (un milímetro equivale a 10-3 metros).

Los datos adquiridos por Integral, cuya resolución es unas 10 000 veces mejor que la de cualquiera de sus predecesores, sugieren que la granularidad cuántica debe ser del orden de los 10-48 metros, o incluso menor.

“Estos resultados son muy importantes para la física fundamental, y permitirán descartar algunas de las hipótesis de la teoría de cuerdas y de la gravedad cuántica de bucles”, explica Laurent.

Integral realizó una observación similar en el año 2006, al detectar una emisión polarizada procedente de la Nebulosa del Cangrejo, los restos de una supernova que se encuentran a tan sólo 6500 años luz de la Tierra, en nuestra propia galaxia.

Esta segunda observación, sin embargo, aporta menos información, ya que se estima que el GRB 041219A se originó a unos 300 millones de años luz de la Tierra, y el giro debido a los gránulos cuánticos se va acumulando a medida que los rayos viajan por el espacio, hasta alcanzar una magnitud detectable.

Como ninguna de estas dos observaciones ha permitido detectar variaciones en la polarización de los rayos gamma, se piensa que los gránulos cuánticos tienen que ser más pequeños de lo que sugerían las primeras hipótesis.

“La física fundamental puede que sea una de las aplicaciones menos evidentes de los datos de Integral”, explica Christoph Winkler, Científico del Proyecto Integral para la ESA, “pero nos ha permitido dar un gran paso en el estudio de la naturaleza del espacio”.

Ahora es el turno de los físicos teóricos, que deberán revisar sus teorías a la luz de estos nuevos resultados.

Fuente:

Portal ESA (España)

28 de septiembre de 2010

Proponen reformular Ley de gravitación de Newton

Sergio Mendoza y Xavier Hernández, astrofísicos mexicanos del Instituto de Astronomía de la UNAM, propusieron reformular la Ley de Gravitación Universal de Isaac Newton, con un planteamiento de Gravedad Extendida que pretende explicar una serie de inconsistencias entre los fenómenos observados a distancias galácticas y el comportamiento predicho por la teoría clásica.

La formulación, publicada este año en dos artículos, en la revista Astronomy & Astrophisics, y en Monthly Notices of the Royal Astronomical Society, ofrece una nueva expresión para la fuerza de gravedad, que resulta indistinguible de la Ley de Newton a escalas del Sistema Solar, pero a niveles galácticos decae más lentamente que lo señalado por la formulación del físico inglés.

Un ejemplo es el de las galaxias espirales, que rotan más rápido de lo esperado, tanto que el gas y las estrellas que las componen, debieran dispersarse al girar como rehilete de agua; sin embargo, la fuerza que las mantiene unidas compensa la centrífuga originada por el movimiento de rotación.

Los modelos dominantes para explicar esta discrepancia han consistido en postular que hay más materia de la que se observa, la llamada materia oscura, cuya fuerza gravitacional debiera mantener unida a la galaxia. No obstante, debe poseer propiedades exóticas como no absorber ni emitir luz, traspasar la materia ordinaria, ocupar grandes extensiones de espacio sin agrumarse, además de componer el 90 por ciento de la materia del Universo.

Por décadas, se ha invertido esfuerzo y dinero para detectar esta hipotética materia, pero no se ha logrado, lo que ha llevado a los científicos a buscar soluciones alternativas.

Exploran camino alterno

La Ley de la Gravitación Universal, propuesta por Newton en 1687 en su libro Principios matemáticos de la filosofía natural, establece una relación cuantitativa para la fuerza de atracción entre dos objetos con masa.

Sostiene que todo objeto en el Universo que posea masa ejerce una atracción gravitatoria sobre cualquier otro objeto con masa, aún si están separados por una gran distancia (como sucede con las estrellas binarias, que están asociadas, aunque a veces están muy lejos una de la otra).

Mendoza y Hernández han explorado un camino alterno que descarta la presencia de materia oscura. Infieren que la fuerza atractiva que produce la materia observada a distancias galácticas es mayor de lo supuesto. Este proceder es el que el mismo Newton recomienda: buscar las fuerzas que rigen el movimiento de los astros en vez de postular sustancias exóticas. Puede ser encontrado en el prefacio de la segunda edición de su libro.

Los científicos también presentan pruebas comparativas a lo largo de todas las escalas astronómicas, con resultados dentro de los rangos de error de las mejores mediciones hechas a la fecha, incluidas las de posición y movimiento del Sistema Solar, que tienen una precisión fraccional de hasta una parte en un billón.

Igualmente, presentan predicciones verificables para numerosos problemas de actualidad. La propuesta explica múltiples inconsistencias a lo largo de todas las escalas astronómicas, sin precisar la de la materia oscura.

Este resultado replantea la visión que se ha tenido del cosmos en los últimos 30 años, desde que Fritz Zwicky y Vera Rubin postularon la existencia de la materia oscura.

La Gravedad Extendida abre nuevas líneas de investigación, como buscar su versión relativista, revisar las consecuencias en torno a la curvatura del espacio y su expansión, y dar respuesta al problema de la energía oscura.

Por más de 30 años, grupos de investigación que consideran insatisfactoria la teoría de la materia oscura han trabajado modelos gravitacionales alternativos.

Parte de ellos han seguido los Modelos de Dinámica Modificada (MOND, por sus siglas en inglés) de Mordehai Milgrom, de 1981, que planteó un cambio en la segunda ley de Newton (describe la dinámica de una partícula de masa acelerada por la acción de una fuerza) para aquellos sistemas que sufrieran aceleraciones pequeñísimas, pero las expresiones matemáticas de MOND han resultado rebuscadas y difíciles de aplicar.

Hernández y Mendoza, junto con su equipo de trabajo conformado por el investigador posdoctoral Juan Carlos Hidalgo y las estudiantes de doctorado y maestría Tula Bernal y Teresita Suárez, han propuesto una alternativa equivalente a MOND, mediante el desarrollo de las potencias de la expresión gravitacional de la fuerza de Newton, conocida como F= GMm/r2.

La Gravedad Extendida detalla la fuerza sentida por los objetos a todas las distancias astronómicas; coincide con la descripción propuesta por Newton para el Sistema Solar, y con las planteadas por MOND para los sistemas galácticos. Además, puntualiza la fuerza sentida por sistemas intermedios como las galaxias elípticas.

En Conocer Ciencia reaizamos un programa dedicado a la biografía de Newton. Observe la presentación aquí:




Conocer Ciencia: Ciencia sencilla, ciencia divertida, ciencia fascinante...


Fuente:

La Jornada

31 de julio de 2010

Idean una nueva teoría sobre el origen del Universo

Científicos de la Universidad Nacional Tsing Hua de Taiwán han ideado una nueva teoría sobre el nacimiento del Universo que supondría el abandono de la Teoría genuina del Big Bang.

En este modelo no hay un origen ni un final. A nosotros, en Conocer Ciencia, nos parce una teoría coherente y que podría generar una nueva forma de ver el cosmos, las ciencias y a nosotros mismos.

Según un artículo publicado en la revista científica Technology Review, en su investigación, el físico taiwanes Wun-Yi Shu ha desarrollado una nueva descripción del Universo. Basándose en que los papeles del espacio-tiempo y la masa se encontrarían relacionados con una nueva forma de relatividad, Shu ha generado un debate que parece estar lejos de cerrarse.

Tal como recoge Shu en su estudio, el tiempo y el espacio no serían independientes, sino que serían unos entes interrelacionados que se encontraría a diferentes distancias. En este caso, la velocidad de la luz sería el factor de conversión de las mismas.

Por otro lado, la longitud y la masa serían intercambiables, en una relación donde el factor de conversión dependería de la constante gravitacional llamada G pero también de la velocidad de la luz. De ahí, que ninguna de las dos tendría porque ser constante.

Opiniones dispares sobre la teoría

Al partir de una teoría donde el universo no tendría principio ni fin, con periodos alternativos de expansión y contracción, muchos tachan la teoría del cosmólogo asiático como un modelo no realista.

Por otro lado, si se basan en las predicciones acertadas por dicha teoría sobre el funcionamiento del mismo, se puede comprobar que no es un mero sueño. Ejemplo de estas demostraciones es su teoría sobre la aceleración, que se convierte en una de las principales características diferenciadoras entre ésta y la Teoría del Big Bang.

Fuera trapos sucios

El modelo de Shu deja fuera algunas de las teorías que estaban cogidas con pinzas desde hace mucho tiempo. Según se comenta en el artículo de Technologies Review, los cosmologos habrían escondido ciertas teoría y leyes de la física para intentar cuadrar el círculo. Ejemplo de ello podría ser la ley de la conservación de la energía.

Según la perspectiva de Shu, no habría necesidad alguna de abandonar la conservación de la energía para que su teoría funcionara, a diferencia de lo que pasa con el Big Bang.

Fuentes:

Eco Diario

Fayer Wayer

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0