Latest Posts:

2 de marzo de 2012

Las pulgas 'gigantes' del Jurásico que chupaban la sangre de los dinosaurios

Fósil de una hembra de pulga gigante (izquierda), y un macho. | Nature

Fósil de una hembra de pulga gigante (izquierda), y un macho. | Nature

Hace 165 millones de años, las pulgas que chupaban la sangre de los dinosaurios eran entre tres y cuatro veces más grandes que los parásitos del mundo actual. Así lo ha demostrado el hallazgo en China de nueve fósiles de estas pulgas 'gigantes', cuyo descubrimiento publica hoy la revista 'Nature'.

El equipo de André Nel, entomólogo del Museo de Historia Natural de París, encontró los espectaculares fósiles en las provincias chinas de Daohugou, Mongolia Interior y Liaoning, que datan de dos épocas diferentes, el Jurásico medio (hace 165 millones de años) y del Cretácico inferior (entre 145 y 99 millones de años).

En una época en la que la Tierra estaba habitada por dinosaurios y grandes reptiles, el hallazgo prueba que el tamaño de las pulgas también era significativamente mayor: el cuerpo de las hembras podía medir entre 14 y 20,6 milímetros y el de los machos entre 8 y 14,7 milímetros.

Estas dimensiones contrastan con las de las pulgas actuales, que oscilan entre 0,8 y 5 milímetros, y miden de media 3,5 milímetros.

Los restos encontrados de las 'superpulgas', tanto de hembras como de machos, muestran que tenían un abdomen largo y ancho, una cabeza relativamente pequeña, patas largas y una antena pequeña y compacta, pero carecían de alas.

Una 'trompa' espectacular

Sin embargo, su rasgo más sorprendente es su impresionante 'trompa' (con forma de sifón alargado), con la que perforaban la piel de sus víctimas antes de succionar su sangre. Este órgano era más largo en las hembras que en los machos, y visiblemente menor que el de las pulgas de hoy en día. Conservan también algunos rasgos primitivos, en particular unas patas traseras no aptas para saltar.

Estas características sugieren a los investigadores que las pulgas gigantes evolucionaron a partir de la mosca escorpión, una especie alada que habitó en el Cretácico inferior, que tenía una boca similar para alimentarse del néctar de las flores y que se extinguió con la aparición de insectos modernos como los mosquitos o las hormigas.

"La boca y los genitales de las moscas escorpión macho son muy similares a los de las pulgas gigantes, lo que apoya la teoría de que ambas especies están relacionadas y que las pulgas gigantes son moscas escorpiones que evolucionaron para alimentarse de sangre", explicó Nel.

Con motivo de esa adaptación, las pulgas perdieron sus alas y disminuyó el tamaño de su antena y de sus ojos.

Elección de victimas

El descubrimiento ha aportado también nueva información sobre la evolución en la elección de sus víctimas ya que, en un primer momento, estos parásitos podrían haberse alimentado de la sangre de dinosaurios con plumas y con posterioridad pasaron a los mamíferos y las aves.

"El gran tamaño de estas pulgas en comparación con las modernas indica que en un primer momento no debieron alimentarse de pequeños mamíferos, sino de grandes dinosaurios con plumas", indicó Nel.

"A medida que estos grandes dinosaurios se extinguieron, desaparecieron también las pulgas gigantes, mientras que las modernas se desarrollaron probablemente durante el Cretácico tardío, a la par que los mamíferos", añadió el investigador. Sin embargo, el motivo de que su tamaño se redujese tanto permanece sin resolver.

"Quizá adaptarse para poder saltar fue una mejor solución evolutiva que tener un cuerpo grande", especuló Nel.

El hallazgo de estos fósiles es poco frecuente, ya que los restos de ectoparásitos, insectos que viven sobre la piel de sus víctimas y entre los que figuran las pulgas y piojos, son poco abundantes y difíciles de encontrar, lo que dificulta la investigación de sus orígenes en la era mesozoica.

Fuente:

El Mundo Ciencia

Nuevo giro en misterio de la antimateria

Estadísticas de un 'descubrimiento'

Un cuarto de dólar
  • La Física de Partículas tiene una definición aceptada para un "descubrimiento": un nivel sigma cinco de certeza
  • El número de desviaciones estándar, o sigmas, es una medida de cuán improbable es que un resultado experimental sea simplemente consecuencia del azar en lugar de un efecto real
  • Del mismo modo, lanzar una moneda y obtener una cantidad de caras seguidas podría ser sólo producto del azar, más que un indicio de una moneda trucada
  • El nivel "sigma tres" representa la misma probabilidad que sacar más de ocho caras consecutivas
  • El sigma cinco, por otra parte, correspondería a sacar más de 20 seguidas
  • Con la confirmación independiente por otros experimentos, los hallazgos de sigma cinco se convierten en descubrimientos aceptados
Acelerador Tevatron

CDF fue uno de dos experimentos polivalentes en el Acelerador Tevatron cerca de Chicago.

Un equipo de físicos han dado un paso en sus esfuerzos para entender por qué el Universo está dominado por la materia, en lugar de su oscuro opuesto, la antimateria.

Un experimento estadounidense confirmó hallazgos previos que insinúan fenómenos fuera de nuestro entendimiento de la física.

Los resultados muestran que ciertas partículas de materia se deterioran de un modo diferente que sus contrapartes de antimateria.

Tales diferencias podrían ayudar potencialmente a explicar por qué hay en el cosmos mucha más materia que antimateria.

Los hallazgos de los científicos que trabajan en el experimento CDF fueron presentados en una reunión de Física de Partículas en La Thuile, Italia.

El CDF fue uno de dos experimentos polivalentes en el ahora extinto Acelerador de partículas Tevatron en Illinois.

Los físicos creen que el intenso calor del Big Bang debería haber forjado cantidades iguales de materia y su "imagen en el espejo", antimateria. Aún así, hoy vivimos en un Universo compuesto abrumadoramente de materia.

La antimateria es relativamente poco común, al ser producida en aceleradores de partículas, en reacciones nucleares o por rayos cósmicos. Llegar al fondo de a dónde fue toda esta antimateria sigue siendo uno de los grandes esfuerzos de la física de partículas.

Los resultados más recientes respaldan los hallazgos del experimento LHCb en el Gran Colisionador de Hadrones, que se anunciaron en noviembre de 2011.

Hablando de partículas...

Gran Colisionador de Hadrones

El LHCb es un enorme detector diseñado para examinar la violación CP.

Tanto el CDF como el LHCb han estado observando el proceso por el cual partículas subatómicas llamadas Mesón-D se deterioran -o transforman- en otras. Por ejemplo, las Mesón-D están hechas de partículas conocidas como Quarks encantados, y pueden desmoronarse en kaones y piones.

Nuestra mejor comprensión de la física hasta ahora, conocida como el Modelo estándar de Física de Partículas, sugiere que las complicadas cascadas de desmoronamiento de Mesones-D en otras partículas deben ser casi las mismas -menos de 0,1%- que una cadena similar de desmoronamientos de antimateria.

Pero el equipo del LHCb reportó una diferencia de un 0,8%, mientras que el equipo del CDF ha presentado ahora datos que muestran una diferencia de 0,62%.

Obtener una medida tan similar al LHCb fue "un poco sorpresiva" según el portavoz de CDF, Giovanni Punzi, porque fue un "resultado muy inusual".

Punzi dijo a la BBC que "el hecho de que dos experimentos separados hayan encontrado esto usando métodos diferentes -ambientes diferentes- es muy interesante".

El profesor Punzi, de la Universidad de Pisa y el Instituto Nacional de Física Nuclear de Italia (INFN), expresó que es probable que esto "haga cambiar la opinión de mucha gente acerca de que sea apenas uno de esos efectos, a algo que será considerado una observación confirmada, debido a este resultado independiente".

¿Una nueva física?

Explicó que cuando los resultados del CDF y el LHCb se combinan, la significación estadística casi alcanza el nivel sigma cuatro de certeza. Esto equivale a aproximadamente una oportunidad en 16.000 de que la observación se reduzca a un capricho estadístico en la información.

La doctora Tara Shears, una física de partículas de la Universidad de Liverpool que trabaja en el experimento LHCb, dijo a la BBC: "Todavía no sabemos si estamos viendo las primeras señales de una nueva física o si estamos empezando a entender mejor el Modelo estándar de física de partículas.

"Lo que hemos visto es un indicio que vale la pena explorar. Y el hecho de que el CDF vea el mismo efecto que el LHCb es una confirmación de que realmente vale la pena".

Punzi se hace eco de estos puntos de vista: "Este efecto es definitivamente mucho más grande que nada que se haya pronosticado. Así que habrá discusiones entre los teóricos, preguntando: 'Es esto realmente una nueva física, o nos equivocamos con nuestros cálculos?'"

El dominio de la materia en el Universo es posible sólo si hay diferencias en el comportamiento de las partículas y las antipartículas.

Los físicos ya habían visto semejantes diferencias, conocidas como "Violación CP". Pero estas diferencias conocidas son demasiado pequeñas para explicar por qué el Universo parece preferir la materia a la antimateria.

Hay otro experimento que mostró una significativa "asimetría" de la materia sobre la antimateria. En junio de 2010, los físicos que trabajaban en el experimento DZero de Tevatron reportaron haber visto una diferencia de 1% en la producción de pares de partículas muones (materia) y pares de antimuones (antimateria).

El Tevatron fue cerrado en septiembre del año pasado, después de que el gobierno estadounidense rechazó una propuesta para financiarlo hasta 2014, pero los científicos continúan analizando datos recogidos hasta el mismo final de las operaciones.

Fuente:

BBC Ciencia

Contenido relacionado

¿Cómo afecta la marihuana a la memoria?



cannabisLa marihuana afecta a la memoria de trabajo (memoria a corto plazo), reduciendo la capacidad de retener y procesar transitoriamente la información para razonar, comprender y aprender. Según un estudio que acaba de publicar la prestigiosa revista Cell, la clave reside en que el ingrediente psicoactivo principal de esta droga (el tetrahidrocannabinol o THC) no afecta a las neuronas sino a los astrocitos, las células de la glía que les dan soporte y les sirven como “andamios”. Eso implica que los astrocitos, además de nutrir y proteger a las neuronas, tienen un rol activo en la formación de los recuerdos.

En experimentos con ratones los investigadores demostraron que si los astrocitos carecen de un tipo de receptor llamado CB1R no sufren alteraciones en la memoria tras consumir una dosis alta de marihuana. Sin embargo, si este receptor se elimina de las neuronas el efecto de la droga sigue siendo el mismo. Es la primera vez que se demuestra que los efectos del cannabis en la memoria a corto plazo no regulados directamente por las neuronas.

Ahora, los investigadores pretenden explorar las actividades de los endocannabinoides endógenos, es decir, sustancias similares al cannabis fabricadas por el propio organismo de forma natural. El sistema endocannabinoide está implicado en el apetito, el dolor, el estado de ánimo, la memoria, etc. “En casi cualquier función fisiológica que se pueda imaginar, es probable que los endocanabinoides estén involucrados de algún modo”, explican los científicos.

Tomado de:

Muy Interesante

Y además…

Frecuencias de comunicación que viajan en forma de Fusilli Italiano podrían ofrecer ancho de banda infinito

(cc) flickr stopthegears


Todos sabemos lo que significa intentar apenas enviar un mensaje de texto o realizar una llamada en vísperas de navidad, año nuevo o incluso en festivales o cualquier lugar con una concentración importante de personas con teléfono en mano. La saturación del espectro de comunicación es tan alta (y convengamos que muchas veces también lo es la falta de infraestructura) que sencillamente no parece haber espacio para todos.

Al parecer, un equipo de investigadores encontró la solución a la falta de espacio para tantas comunicaciones en un simple plato de pasta italiana.

Según la publicación del doctor Fabrizio Tamburini (ahora entienden por qué encontraron la respuesta en la pasta italiana y no en una hamburguesa), en el New Journal of Physics, se descubrió que forzando a viajar a las ondas de radio en forma retorcida como siguiendo una ruta en el aire similar a la forma de un fideo fusilli o tirabuzón, se podría lograr un “potencialmente infinito” número de canales disponibles para transmisión en forma simultánea en una misma frecuencia de aire.

El secreto parece radicar en obligar a las ondas de radio a girar sobre su propio eje a medida que viajan, pero mejor que lo expliquen los propios científicos: “En una perspectiva tridimensional, este giro de fase se ve como un rayo con forma de pasta fusilli. Cada una de estas vigas retorcidas pueden ser generadas de forma independiente y que se propaguen y se detecten incluso en la misma banda de frecuencia, pero comportándose como canales de comunicación independientes”.

La teoría fue demostrada en una serie de pruebas desarrolladas en Venecia, ¿dónde podría conseguirse mejor fusilli acaso?, y se concretó transmitiendo dos ondas de radio retorcidas en la banda de 2.4GHz a una distancia de 442 metros. Luego del experimento confirmaron que sería muy simple seguir agregando señales en simultáneo sin siquiera afectar la transmisión de las anteriores.

¿Imaginan el momento en que este tipo de transmisión pueda ser aplicado? ¿Se terminarían las batallas legales entre operadoras y gobiernos por la explotación del espectro de comunicación? ¿Quiénes ganarían y quiénes perderían con una renovación total de nuestro actual estructura comunicacional por aire con un avance de este tipo? Estas son algunas de las inquietudes que genera esta noticia, de la que seguro volveremos a tener novedades pronto.

Fuente:

FayerWayer

El MIT aspira a diseñar un procesador de más de 100 núcleos


Desde que Intel lanzase al mercado el primer procesador, el Intel 4004 hace 40 años, los microprocesadores han cambiado mucho en tamaño, frecuencia de funcionamiento y consumo de potencia. Hoy en día, hablar de un procesador de cuatro núcleos es algo que nos parece muy normal pero, realmente, esta tecnología no lleva tanto tiempo en el mercado puesto que el primer procesador con dos núcleos se lanzó en el año 2006 (el Intel Core Duo) y, a día de hoy, Intel prepara los Sandy Bridge con seis. Sin embargo, si a nivel comercial se trabaja con 6 núcleos, en los laboratorios de investigación, los ingenieros siguen trabajando en el desarrollo de procesadores mucho más potentes con cada vez más núcleos y, en el caso del MIT, aspiran este año a llegar a un diseño que supere los 100 núcleos.

Para poder alcanzar dicha cota, los investigadores del MIT han desarrollado un entorno de simulación que les permita probar los diseños, evaluar posibles fallos y, lo más importante, medir el consumo de los dispositivos así como los tiempos de respuesta (acceso a memoria, comunicación entre núcleos, etc). El Hornet, que es como se llama este simulador, permitirá realizar labores de testing de los dispositivos sin necesidad de tener que esperar la fabricación de éstos en la fase de prototipado y, por tanto, se enviarán a fabricación diseños mucho más depurados.

Puedes usarlo para poner en marcha una arquitectura y probarla

El Hornet podría usarse como espacio de simulación con diseños de hasta 1.000 núcleos, por tanto, parece que podría tener un ciclo de vida relativamente largo y con continuidad en el tiempo. ¿Simular hasta 1.000 núcleos? Teniendo en cuenta que las simulaciones, en términos generales, necesitan bastante potencia de cálculo, un simulador que puede llegar hasta los 1.000 núcleos requiere una gran capacidad de procesamiento de datos, máxime cuando se realizan simulaciones que abarcan muchos ciclos de reloj y se requieren los resultados exactos de cada ciclo de computación durante la ejecución de un programa y, precisamente, una de las grandes ventajas del Hornet es la precisión con la que es capaz de medir los resultados.

Por ahora, el equipo del MIT ha sido capaz de elaborar un diseño de 64 núcleos que ha sido probado con éxito en el Hornet a todo nivel de detalle e, incluso, se han atrevido a probar diseños mucho más complejos pero con análisis algo menos exhaustivos.

Si diseñásemos sistemas de 1.000 núcleos necesitaríamos más computadoras para poder ponerlas en paralelo

Cuando más sube el número de núcleos mayor es la capacidad de computación necesaria. Para hacernos una idea, en un diseño de 256 núcleos, una simulación requeriría para cada núcleo (que es equivalente a un hilo en la aplicación) alrededor de un millón de instrucciones por ciclo y, por tanto, 256 millones de instrucciones por ciclo de reloj, un número muy alto que requiere de grandes infraestructuras de procesamiento en paralelo.

Gracias al Hornet, los investigadores del MIT tienen algo más cerca alcanzar el objetivo de un procesador con más de 100 núcleos, desde luego que el diseño debe ser espectacular.

Fuente:

ALT1040

Los fines de semana comemos más y peor



comer-findeSi estás a dieta y tienes la sensación de que durante el fin de semana pierdes menos peso, estás en lo cierto. Según un estudio de la Escuela Médica de la Universidad de Washington (EE UU), comemos más cantidad de alimentos los fines de semana que durante los días laborables, lo que unido a la tendencia a reducir el nivel de ejercicio físico durante el sábado y el domingo hace que dejemos de perder tanto peso como esperábamos.

Por otra parte, un estudio publicado hace poco en la revista Appetite revelaba que dos de cada tres adultos españoles comen fruta en el almuerzo y la cena solamente de lunes a viernes, pero dejan de consumirla al llegar el fin de semana. A esto se suma que en el fin de semana tendemos a saltarnos el equilibrio recomendado por la "pirámide alimenticia". Concretamente, otra investigación dada a conocer en la publicación Journal of Public Policy & Marketing desvelaba que consumimos más alimentos ricos en caloría, sobre todo grasas, desde la noche del viernes hasta el domingo.

Fuente:

Muy Interesante
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0