Latest Posts:

30 de marzo de 2012

Descubren que la Tierra se formó por varios tipos de meteoritos

Meteorito
Meteorito
Ampliar
  • El material que creó la Luna formó parte del núcleo terrestre, reforzando la teoría de que se formó por la colisión de un protoplaneta contra la Tierra.
  • Este nuevo hallazgo, según el CNRS, no resuelve de manera completa la cuestión sobre el origen de la Tierra, pero abre una vía interesante de análisis.
  • Se partió del análisis de isótopos de silicio terrestre y de otros de diferentes condritas de enstatita, el tipo de meteorito más frecuente en el planeta.


aa

Un equipo francés de científicos ha descubierto que la formación de la Tierra, contrariamente a lo pensado hasta ahora, no se produjo por la colisión de un solo tipo de meteoritos, según ha informado el Centro Nacional francés de Investigaciones Científicas (CNRS).

Ese grupo de expertos, procedente del CNRS y del Laboratorio de Geología de Lyon, partió del análisis de isótopos de silicio terrestre y de otros procedentes de diferentes condritas de enstatita, el tipo de meteorito más frecuente de los caídos en el planeta.

La Luna se formó por la colisión de un protoplaneta contra la TierraLa suposición inicial de que la Tierra surgió a partir de un solo tipo de condritas había sido consecuencia de la "sorprendente similitud" entre la composición isotópica de las muestras terrestres analizadas y la de esas condritas.

Pero en su estudio vieron que si el núcleo terrestre procediese de la suma de un único tipo de condritas la temperatura de formación de ese núcleo sería de 1.500 grados Kelvin, muy inferior a los 3.000 grados que indican los modelos anteriores.

Este nuevo hallazgo, según el CNRS, no resuelve de manera completa la cuestión sobre el origen de la Tierra, pero abre una vía interesante de análisis. La investigación, cuyos resultados se publican este viernes también en la revista científica Science, revela igualmente que los isótopos de silicio medidos en rocas terrestres y lunares eran similares.

Esto sugiere, según sus conclusiones, que el material que creó la Luna formó parte del núcleo terrestre antes de que se crease ese satélite, lo que refuerza la teoría de que se formó por la colisión de un protoplaneta contra la Tierra.

Fuete:

20 MinutosEnlace

Cassiopeia A, la explosión que volvió una estrella del revés

Un estudio indica que la explosión de la estrella que dió origen a al remanente de supernova Cassiopiea A ha vuelto del revés el material de la estrella. Los elementos que en su día se encontraban en las zonas más internas de la estrella, aparecen ahora cerca de los bordes de los restos de la explosión. Las observaciones realizadas con el telescopio espacial Chandra han permitido conocer cómo se encuentran distribuidos en estos restos los elementos que formaban la estrella.

Cassiopeia A

NASA/CXC/M.Weiss; X-ray: NASA/CXC/GSFC/U.Hwang & J.Laming

Como se puede observar en la imagen, la estructura de una estrella se organiza en capas, como si fuese una cebolla. Los modelos nos dicen que hacia el interior de la estrella vamos a encontrar elementos cada vez más pesados. En este caso la imagen muestra las capas que tendría una estrella masiva (com más de 8 masas solares) antes de su explosión en supernova. En el centro de la estrella encontramos hierro, rodeado por una capa de azufre y silicio, más al exterior habría otra capa con magnesio, neón y oxígeno, y más hacia afuera encontraríamos carbono, helio e hidrógeno. Esta distribución se debe al proceso de fusión nuclear del que obtienen su energía las estrellas, en este proceso se fusionan diferentes elementos en otros más pesados. Durante la mayor parte de su vida, una estrella fusiona hidrógeno en helio, pero con el tiempo el hidrógeno acaba escaseando y la estrella pasa a fusionar el helio, esto es el principio del fin de la estrella, progresivamente irá agotando el helio y el resto de materiales tratando de mantener vivo su proceso de fusión. La fusión de cada uno de estos elementos se produce cada vez más hacia el centro de la estrella, donde se alcanzan las temperturas más altas. Fusionar elementos más pesados requiere alcanzar temperaturas cada vez mayores. Cuando no pueda hacerlo la estrella habrá llegado a su final. En el caso de las estrellas más masivas, su final es una supernova, que será capaz de producir los elementos más pesados, como el hierro.

En la imagen, los colores que vemos en los restos de la supernova muestran dónde abundan los diferentes elementos. El azul representa el hierro, que en su día estuvo en el centro, pero que ahora lo vemos en las partes más externas de los restos. Es más, no se han llegado a encontrar evidencias de hierro hacia el centro de la remanente. En verde vemos el azufre y el silicio, que también se encuentran hacia el exterior, y que en su día debieron estar rodeando el núcleo de hierro. Toda esta distribución apunta a que en la explosión se tuvo que producir una fuerte inestabilidad que ha acabado por llevar las partes más internas de la estrella hacia las partes más externas de la remanente.

Este trabajo es el más exhaustivo realizado hasta el momento de las emisiones de rayos X de una remanente de supernova. El estudio ha permitido calcular las cantidades existentes para los distintos elementos. En los restos se ha encontrado 0,13 masas solares de hierro, 0,03 de azufre y 0,01 de magnesio.

Los investigadores han encontrado acumulaciones de hierro casi puro, lo que indica que éste se debió producir mediante reacciones nucleares cerca del centro de la pre-supernova cuando se formó la estrella de neutrones.

Noticia original: Cassiopeia A, A Star Explodes and Turns Inside Out.

Tomado de:

Campos de Estrellas

29 de marzo de 2012

MIT: Demuestran que los recuerdos residen en unas pocas neuronas

¿Cuántas veces has entrado a un sitio y de repente te envuelve un olor que te traslada inmediatamente a un momento agradable de tu infancia? ¿O a un momento desagradable? Los recuerdos…entre la comunidad científica siempre a cabido la duda de si los recuerdos como tales tienen residencia “física” en unas pocas neuronas o son complejas redes neuronales que implican varias zonas del cerebro. En un estudio del Instituto de Massachusetts los investigadores han usado la optogenética para demostrar que los recuerdos residen en unas pocas neuronas.

Ya en los años 90 el neurocirujano Wilder Penfield observó por casualidad que el estímulo de unas pocas neuronas podía desembocar en complejos pensamientos. Este cirujano trataba pacientes con epilepsia a los que estimulaba con pequeñas corrientes las zonas del cerebro donde se originaban los ataques. Esta operación la hacía con anestesia local para que pudiese ir controlando que los pacientes seguían conscientes durante la operación. Se dio cuenta de que cuando estimulaba una pequeña zona de neuronas en el hipocampo, una zona considerada como esencial para los recuerdos, los pacientes reportaban experiencias muy complejas y recuerdos del pasado. Los científicos siguieron investigando pero hasta el día de hoy no se había demostrado que estimular las neuronas del hipocampo fuera suficiente para rememorar un episodio del pasado.

Para el experimento los científicos han usado la optogenética. Esta ténica consiste en estimular mediante luz células, en este caso neuronas, genéticamente modificadas para que expresen proteínas activadas por luz, en este caso las rodpsinas-canal (ChR2).

Primero los investigadores identificaron las neuronas del hipocampo que son activas cuando el ratón está explorando un nuevo entorno. Determinaron que genes eran activados en estas células y posteriormente los acoplaron con el gen de la proteína ChR2, capaz de ser activada por la luz.

Posteriormente, mediante haces de fibra óptica estimularon neuronas y demostraron que las proteínas acopladas a ChR2 sólo se expresaban en aquellas neuronas estimuladas por luz. De esta manera quedaban contraladas aquellas neuronas que podrían estar implicadas en el recuerdo.

El siguiente experimento fue el que desveló sus sospechas. El ratón fue trasladado a un nuevo entorno y se le dió un pequeño golpe en el pié registrando qué neuronas del hipocámpo se activaban y qué genes se expresaban en ellas tras esta situación. Posteriormente, al igual que el experimento anterior acoplaron los genes a la proteína ChR2 para activar su expresión mediante luz. La pregunta era ¿recordará que ese entorno es malo para él cuando se estimule ese grupo de neuronas con luz?

En efecto, cuando los investigadores estimularon las neuronas mediante luz usando los haces de fibra óptica en un entorno totalmente distinto al que le produjo el daño hizo que el ratón rápidamente adoptase una posición de defensa. Habían conseguido rememorar mediante un simple estímulo de luz ese mal trago en el pobre ratón.

¿No os parece increíble? Poco a poco se van desmenuzando los mecanismos moleculares de lo que durante siglos ha sido la caja negra de nuestro cuerpo. No obstante me gustaría conocer con un poco más de detalle los experimentos porque hay algunas cosas que se quedan en el tintero y me gustaría conocer con más detalle los métodos, así que si alguien encuentra el artículo…aunque tal vez sólo se trate de una comunicación y el artículo salga en unas semanas.

Tomado de:

E-cierncia

¿La aspirina reduce el riesgo de cáncer?

Molécula de ácido acetil salicílico
Que la aspirina reduce el riesgo de cáncer es algo que parecía probable y que se ha discutido en más de una ocasión. Pero no existían suficientes datos para asegurarlo con certeza. Hoy se han publicado tres estudios que aportan más datos para responder a esta pregunta. La conclusión de estos artículos es que, al parecer, el tomar bajas dosis de aspirina diariamente durante un largo periodo de tiempo, ayuda a prevenir la aparición de cáncer (disminuyendo también el número de muertes por cáncer), así como que el cáncer se propague (aparición de metástasis).

Lo primero, decir que la “Aspirina” es un nombre comercial del principio activo llamado Ácido Acetil Salicílico, que se lleva usando como analgésico durante más de 100 años. Además, en pequeñas dosis se utiliza para el tratamiento y prevención de problemas vasculares como los infartos. Sobre el uso de la aspirina en enfermedades vasculares hay bastantes estudios clínicos y varios de esos estudios han sido la base para la publicación de estos artículos sobre el efecto de la aspirina en cáncer.

Previamente se habían publicado varios artículos en los que se concluía que la aspirina reducía la incidencia de cáncer de colon. Más concretamente en uno de ellos se analizaron los datos de 5 ensayos clínicos sobre el uso de la aspirina en prevención de problemas vasculares donde mostraban que un tratamiento diario con aspirina reducía el riesgo de cáncer de colon un 24% y la mortalidad asociada a este tipo de cáncer en un 35% después de 8-10 años. En estos nuevos estudios se han analizado los datos de 43 ensayos clínicos más y se ha tenido en cuenta el efecto en todo tipo de cánceres de los que hubiera datos suficientes.

Así, han visto que en general la aspirina (tomada diariamente) reduce la aparición de cáncer en un 25% pero sólo después de 3 años de empezar el tratamiento, y este hecho era independiente de la edad, del sexo o de si se fumaba o no. Sin embargo la reducción en las muertes por cáncer sólo aparecía después de 5 años pero era de un 40%.

En este tipo de tratamientos un elemento a tener en cuenta es la toxicidad del medicamento y la aspirina tiene un problema: produce sangrados. También estudiaron esta toxicidad y vieron, que aunque los sangrados aumentaban en los primeros 3 años del tratamiento, después la aparición de los mismos disminuía y el riesgo de que aparecieran a partir de ese momento era el mismo o menor que si las personas no estuvieran tomando la aspirina.

La aparición de los sangrados ocurre porque la aspirina bloquea una enzima llamada COX-1 en las plaquetas haciendo que la agregación de las mismas disminuya y aumente el tiempo de sangrado. Debido a este efecto y a que los cánceres se propagan por la sangre generando metástasis, en otro de los estudios analizaron el efecto de la aspirina en la prevención de esta propagación. Y efectivamente comprobaron que la administración de aspirina reducía la propagación de los cánceres (aparición de metástasis), aunque había diferencias dependiendo de dónde aparecieran los nuevos tumores. Un dato interesante es que este efecto se veía incluso en pacientes a los que se les había diagnosticado el cáncer poco después de haber empezado el tratamiento, reforzando así el papel de la aspirina en la prevención de la propagación del cáncer.


Reduccion de la aparicion de diferentes tipos de metastasis. Modificado de Rothwell et al

Todavía quedan muchos datos por analizar en este tema y ya hay varios ensayos clínicos en marcha para estudiar el efecto de la aspirina en la prevención del cáncer como primer objetivo. Además, hay que entender cuál es el mecanismo por el que la aspirina produce estos efectos y tener en cuenta que otros ensayos clínicos en los que la administración de la aspirina no era diaria, sino en días alternos, no han mostrado ningun efecto de la misma sobre la aparición de cáncer.

Por esto no hay que empezar a tomar aspirina por si acaso, ya que hay personas en las que puede estar totalmente contraindicada. Como dicen los anuncios de medicamentos: consulte a su médico. Cualquier tipo de tratamiento siempre tiene que estar bajo la supervisión de un especialista, aunque con estos estudios los médicos tienen más datos para poder utilizar la aspirina como tratamiento para la prevención de ciertos tipos de cáncer.



Referencias:

Rothwell PM, Wilson M, Elwin CE, Norrving B, Algra A, Warlow CP, & Meade TW (2010). Long-term effect of aspirin on colorectal cancer incidence and mortality: 20-year follow-up of five randomised trials. Lancet, 376 (9754), 1741-50 PMID: 20970847

Rothwell, P., Price, J., Fowkes, F., Zanchetti, A., Roncaglioni, M., Tognoni, G., Lee, R., Belch, J., Wilson, M., Mehta, Z., & Meade, T. (2012). Short-term effects of daily aspirin on cancer incidence, mortality, and non-vascular death: analysis of the time course of risks and benefits in 51 randomised controlled trials The Lancet DOI: 10.1016/S0140-6736(11)61720-0


Fuente:

Caja de Ciencia

Las matemáticas de la vida (gracias a la química)



Conferencia impartida por Francisco R. Villatoro, en la cual nos muestra como las matemáticas pueden llegar a servir en todas las ciencias de la vida de una manera espectacular. Conferencia realizada para la Universidad de Sevilla y Amazings.es. La grabación de esta charla ha sido realizada mediante medios personales por @Raven_Neo y @maculamorbida.

Fuente:

Amazings

28 de marzo de 2012

Descubren fósil que reescribe la historia sobre la capacidad de caminar de los humanos

Huesos fosilizados

El descubrimiento de ocho huesos de pie fosilizados en Etiopía -de 3,4 millones de años- ha dado a los científicos una visión excepcional de la evolución de los seres humanos y su capacidad para caminar.

La forma de los huesos, encontrados en la región de Afar, en Etiopía central, sugiere que mientras este pie primitivo muestra una habilidad para caminar erecto, el dedo gordo también podría haberse usado para asirse de ramas.

En un artículo de la revista Nature, los científicos dicen que no hay suficientes fragmentos para identificar la especie humana -o humanoide- a la cual pertenecía.

La criatura es más vieja que aquella conocida como Lucy, también encontrada en esta región, cuyo esqueleto mostraba una clara preferencia por caminar erecta.

Fuente:

BBC Ciencia

Expertos piden una "revolución inteligente" de la agricultura

Agricultores africanos

La agricultura no puede seguir por el camino que está llevando, se requieren cambios fundamentales para el futuro.

Hacen falta cambios importantes en la agricultura y el consumo de comida en todo el mundo para que las futuras generaciones puedan alimentarse adecuadamente, según advierte un informe.

La actividad agropecuaria debe intensificarse substancialmente, recortar los desperdicios y reducir las emisiones de gases de efecto invernadero, recomienda.

La Comisión sobre la Agricultura Sostenible y el Cambio Climático pasó más de un año evaluando las evidencias de científicos y políticos.

Su informe final, "Lograr la seguridad alimentaria ante el cambio climático", fue revelado en la conferencia Planeta Bajo Presión, una reunión en Londres, previa a la cumbre Rio+20 que se llevará a cabo en Brasil en junio próximo.

El presidente de la Comisión, Sir John Beddington, principal asesor científico del gobierno británico, explicó que para garantizar la alimentación de miles de millones de pobres en los próximos años es necesario desarrollar la agricultura con una visión inteligente en cuanto al clima.

Fuente:

BBC Ciencia

Estiman que hay miles de millones de planetas en zonas habitables de la galaxia

Recreación artística de un atardecer en la súper-Tierra 'Gliese 667 Cc'. | ESO

Recreación artística de un atardecer en la súper-Tierra 'Gliese 667 Cc'. | ESO

Un equipo internacional de astrónomos ha descubierto que en las zonas habitables en torno a las estrellas enanas rojas de la Vía Láctea existen decenas de miles de millones de planetas rocosos, según ha informado este miércoles el Observatorio Europeo Austral (ESO) desde su central en Garching, en el sur de Alemania.

El sondeo, realizado con el espectrógrafo HARPS, el 'cazador de planetas' instalado en el telescopio de 3,6 metros del observatorio de La Silla, en Chile, permitió además deducir que en las vecindades del Sistema Solar, a distancias inferiores a 30 años luz, debe haber una centena de 'súper-Tierras' (con una masa de entre una y diez veces la de la Tierra).

Es la primera vez, además, que se mide de forma directa la frecuencia de súper-Tierras en torno a estrellas rojas débiles, que constituyen el 80 por ciento de las estrellas de nuestra galaxia.

Estrellas enanas rojas

El equipo de HARPS ha estado buscando exoplanetas orbitando alrededor de las estrellas más comunes de la Vía Láctea —estrellas enanas rojas (también conocidas como enanas tipo M). Estas estrellas son débiles y frías en comparación con nuestro Sol, pero muy comunes y longevas, y de hecho suponen el 80% de todas las estrellas de la vía Láctea.

"Alrededor del 40% de todas las estrellas enanas rojas tienen una súper-Tierra orbitando en su zona de habitabilidad, una zona que permite la existencia de agua líquida sobre la superficie del planeta," explicó el líder del equipo internacional, Xavier Bonfils.

Según el astrónomo del Observatorio de Ciencias del Universo de Grenoble (Francia), dado que las enanas rojas son tan comunes -hay unos 160.000 millones en la Vía Láctea-, se puede concluir que "hay decenas de miles de millones de planetas de este tipo sólo en nuestra galaxia".

Seis años de observaciones

Durante las observaciones, realizadas durante un periodo de seis años en los cielos australes a partir de una muestra compuesta por 102 estrellas enanas rojas, los científicos descubrieron un total de nueve súper-Tierras.

Los astrónomos estudiaron la presencia de diferentes planetas en torno a enanas rojas y lograron determinar que la frecuencia de súper-Tierras en la zona de habitabilidad es de un 41% en un rango que va de un 28 por ciento a un 95%.

Por otra parte, los planetas gigantes -similares a Júpiter y Saturno en nuestro Sistema Solar-, es decir, con una masa de entre 100 y 1.000 veces la de la Tierra, no son tan comunes alrededor de enanas rojas, con una presencia inferior al 12%.

Según Stéphane Udry, del Observatorio de Ginebra, "la zona de habitabilidad en torno a una enana roja, donde la temperatura es apta para la existencia de agua líquida en la superficie, está más cerca de la estrella que en el caso de la Tierra con respecto al Sol".

"Pero las enanas rojas se conocen por estar sujetas a erupciones estelares o llamaradas, lo que inundaría el planeta de rayos X o radiación ultravioleta: esto haría más difícil la existencia de vida", agregó.

El planeta más parecido a la Tierra

Por su parte, Xavier Delfosse, del Instituto de Planetología y Astrofísica de Grenoble, indicó que ahora que se conoce la existencia de muchas súper-Tierras cercanas, "se espera que alguno de esos planetas pase frente a su estrella anfitriona durante su órbita en torno a la misma".

"Esto abrirá la excitante posibilidad de estudiar la atmósfera de estos planetas y buscar signos de vida", concluyó.

Uno de los planetas descubiertos en el sondeo de enanas rojas de HARPS es 'Gliese 667 Cc'. Es el segundo planeta de este sistema triple estelar y parece estar situado cerca del centro de la zona de habitabilidad. Pese a que este planeta es más de cuatro veces más pesado que la Tierra, es el más parecido a nuestro planeta de los encontrados hasta el momento, y casi con total seguridad cuenta con las condiciones adecuadas para la existencia de agua líquida en su superficie. Se trata de la segunda súper-Tierra dentro de la zona de habitabilidad de una enana roja descubierta durante este sondeo de HARPS, tras el anuncio del descubrimiento en 2007 de Gliese 581d y su posterior confirmación en el año 2009.

Fuente:

El Mundo Ciencia

Venenos: De la cicuta al polonio radiactivo

La catedrática de Química Inorgánica Adela Muñoz Paéz, en su laboratorio. | Efe

La catedrática de Química Inorgánica Adela Muñoz Paéz, en su laboratorio. | Efe

  • Una catedrática de Química de la Hispalense recopila la historia del veneno
  • Pretendía 'interesar' a sus alumnos en algunos elementos químicos
  • 'Tengo compañeros que han probado venenos por curiosidad'

La catedrática de Química Inorgánica de la Universidad de Sevilla Adela Muñoz Paéz ha publicado una 'Historia del veneno' (Debate) que repasa desde la cicuta que tomó Sócrates al polonio que, en 2006, acabó en Londres con la vida del ex agente del KGB Alexander V. Litvinenko.

Publicada con el subtítulo de 'De la cicuta al polonio', esta 'Historia del veneno' ha sido escrita tras comprobar su autora, en sus clases en el laboratorio, la fascinación que los venenos producían sobre sus alumnos.

El 'Verde Scheele' se usó en decoración de interiores en la Inglaterra victoriana. Luego se supo que con la humedad se descompone en hongos tóxicos que se volatilizan

"Como tengo que explicarles 102 elementos químicos, todos menos el carbono, era la forma de hacer que se interesaran por algunos como el arsénico o el cloro", ha explicado Muñoz Páez.

"Tengo compañeros que han probado venenos por curiosidad; los químicos de la antigüedad los probaban y los olían, para poder describirlos; el químico sueco Scheele describió cómo olía y cómo sabía el cianhídrico, que es uno de los venenos más potentes", ha asegurado.

Scheele fue el descubridor del denominado 'Verde Scheele', un pigmento que con la humedad se descompone en hongos tóxicos que se volatilizan y que pudo ser la causa de la muerte, totalmente fortuita, de Napoleón en Santa Elena, según Adela Muñoz. Este pigmento, además, pudo ser también la causa de muerte de muchas personas en la Inglaterra victoriana, cuando se usó mucho en decoración de interiores, y se descomponía en ambientes húmedos y cerrados.

El veneno más usado a lo largo de la historia ha sido el arsénico

El polonio que mató a Litvinenko fue descubierto por Marie Curie y, según Muñoz, tanto ella como su hija Irene murieron de leucemia, probablemente víctimas de las radiaciones.

Sobre la creencia de que las mujeres emplean con más frecuencia que los hombres el veneno para asesinar en ámbitos domésticos, la autora ha asegurado que se carece de estudios estadísticos completos, pero que los que hay indican que "las mujeres los emplean en un 60% de los casos".

La profesora ha asegurado que en la actualidad se puede descubrir el uso de cualquier veneno, si bien los que dejan más rastro son los metales pesados como el arsénico, el talio y el antimonio. Los venenos orgánicos, como el cianhídrico "se procesan y son más difíciles de detectar" pero, según ha explicado, en los laboratorios actuales se puede detectar en el cabello incluso el consumo de estupefacientes efectuado meses o años antes del análisis.

Actualmente, se puede detectar en el cabello el consumo de estupefacientes meses e, incluso, años después

De todos los personajes que ha encontrado en su investigación histórica, Muñoz ha confesado fascinación por el británico Alan Turing, matemático, filósofo, padre de la denominada inteligencia artificial e inventor de la máquina 'Enigma', empleada por el contraespionaje en la Segunda Guerra Mundial, quien, tras verse envuelto en un penoso proceso por ser homosexual, murió al comer una manzana envenenada.

Según Adela Muñoz, el veneno más usado a lo largo de la historia ha sido el arsénico, de ahí que su capítulo se titule 'El rey de los venenos', hasta que fue destronado por Juan Buenaventura Orfila, considerado el padre de la toxicología, de quien se cree causó la muerte de no menos de 5.000 perros en sus experimentos y quien descubrió un método para detectar envenenamiento por arsénico.

Otros capítulos de libro se ocupan de Cleopatra y las serpientes del Nilo, de la familia Borgia, de la corte de los Estuardo, de las brujas y los aquelarres o llevan títulos tan sugerentes como 'Amantes despechadas, criadas resentidas'.

Fuente:

El Mundo Ciencia

Científicos revolucionan el subtitulado de los vídeos


Desde que se desarrollara el subtitulado para las piezas visuales en la década de los 70 poco o nada ha cambiado en la tecnología. Lo que vemos hoy es muy parecido a lo de varias décadas atrás, un texto en la parte inferior que permite ver a los espectadores la traducción de lo que se dice en el vídeo. Hoy y utilizando la tecnología Dynamic Captioning, científicos de China anuncian un modelo revolucionario que ofrece nuevas ventajas sobre los más de 66 millones de personas en todo el mundo que sufren de impedimentos auditivos.

Se trataría de un método de subtítulos donde el texto aparecería sobre bocadillos transparentes a modo de cómic, bocadillos que variarían su espacio y tipografía según la intensidad o locutor en el vídeo.

Una técnica que ha sido desarrollada por la Universidad de Tecnología de Hefei y que ha tenido al científico Wang Meng como principal investigador del proyecto. EL propio Meng explicaba el mismo:

La técnica fue motivada para la solución de las dificultades de los espectadores con discapacidad auditiva al ver vídeos. Estos espectadores tienen dificultad en reconocer que o quién está hablando, así que pusimos las secuencias de comandos alrededor de la cara del que habla; ellos tenían dificultades en el seguimiento de las secuencias de subtítulos, por lo que sincronizamos de manera destacada las secuencias de subtítulos.

Y es que como indican los investigadores, el subtitulado convencional puede considerarse estático ya que todas las palabras habladas están representadas de la misma forma en la parte inferior de la pantalla independientemente de la dinámica del vocablo o de lo que dicen y su importancia. Por esta razón la nueva técnica es definida como dinámica ya que el texto aparece en diferentes lugares y estilos para reflejar la identidad del locutor o la propia dinámica de la conversación, por ejemplo, según la intensidad o volumen de la voz.

Además, a través de Dynamic Captioning todas estas características pueden implementarse de forma automática sin intervención manual. Los investigadores han desarrollado algoritmos para identificar automáticamente las voces llegando a detectar el movimiento de los labios.

No sólo eso, usando una técnica de prominencia visual la tecnología puede encontrar de forma automática una posición óptima para la colocación del bocadillo y que interfiera mínimamente con la escena visual. En el caso de que exista un narrador en off o el interlocutor esté fuera de la pantalla, el sistema vuelve a los subtítulos “estáticos” de toda la vida. Un sistema que según cuentan, calcula el volumen de las voces, tanto en palabras como en frases, mediante el cálculo de la potencia de audio en 30 milisegundos.

A partir de aquí se tratará de mejorar la tecnología. El mismo proceso de subtitulado no se puede procesar mientras se ejecuta el vídeo aunque tarda en realizarlo lo mismo que dura la pieza visual. En cualquier caso, un trabajo que ayudará a las personas con discapacidad auditiva a disfrutar de la experiencia en piezas visuales.

Fuente:

ALT1040


¿Cuántas estrellas podemos ver a simple vista?

Glorious Milky WayUna pregunta milenaria, que seguro preocupó a muchas mentes a lo largo de la historia. La primera aproximación es decir que son muchas, y en este sentido queda retratado en Génesis (15 4-5):
El Señor lo llevó fuera, y le dijo: “Ahora mira al cielo y cuenta las estrellas, si te es posible contarlas.” Y añadió: “Así será tu descendencia".
Los astrónomos griegos, mucho más metódicos, obtuvieron una cifra más precisa de las estrellas que podían ver a lo largo del año. Por ejemplo, Hipparco (aprox. 127 a.C.) catalogó 850 estrellas en el cielo nocturno, mientras que Ptolomeo de Alejandría (127-151 d.C.) aumentó esa cifra a 1022 [1]. De éstas, en un cielo sin Luna y en condiciones muy favorables se pueden ver algo más de la mitad (pues el resto estaría bajo el horizonte).

Los astrónomos griegos dividieron a las estrellas visibles en 6 clases, atendiendo a su brillo aparente. Las estrellas más brillantes como Sirio o Vega eran clasificadas como de magnitud 1, y las más tenues que se podían ver a simple vista en las mejores condiciones caían en la clase 6.

A finales del siglo XIX, Sir N. R. Pogson se dió cuenta que las estrellas típicas de magnitud 6 eran aproximadamente 100 veces más ténues que las de magnitud 1, y que la escala era logarítmica, siendo las estrellas de cada magnitud unas dos veces y media más brillantes que las de la siguiente. En base a esta observación, Pogson redefinió la escala de magnitudes estelares de modo que pudiera asociar un número real al brillo aparente de cada estrella.

En esta nueva escala algunas estrellas con gran brillo aparente tienen magnitud negativa. Así, por ejemplo, el Sol tendría una magnitud –26.74, mientras que Sirio (la estrella más brillante del cielo nocturno), tiene una magnitud de –1.47. También podemos asociar una magnitud a estrellas que sólo son visibles a través del telescopio. Por ejemplo, la estrella más cercana al Sistema Solar (Proxima Centauri) tiene magnitud 11.09.

En una noche oscura y con las mejores condiciones de observación, el ojo humano puede llegar a ver estrellas hasta de magnitud 6 o 6.5 en la nueva escala. De las 300.000 millones de estrellas de nuestra galaxia, 9500 tienen magnitud menor que 6.5. En el mejor cielo estrellado es posible que se puedan a contar unas 4000 a simple vista. En ciudades pequeñas la contaminación lumínica sólo permite que detectemos estrellas de magnitud menor que 4, reduciendo el número de estrellas visibles a unas 200.

Pero... ¿Qué produce ese límite de magnitud de 6.5? Podríamos pensar que el problema está en nuestros ojos. Sin embargo, una estrella de magnitud 6.5 es lo suficientemente brillante como para que cada una de nuestras retinas reciba unos 200 fotones / segundo [2]. Teniendo en cuenta que nuestros bastones (entre las tres clases de fotoreceptores de nuestra retina, la que media la visión nocturna) pueden detectar y trasmitir la captura de un único fotón, esto debería ser suficiente para detectar la estrella ¿Qué está ocurriendo?

Lo cierto es que los bastones no son completamente infalibles, y de vez en cuando reaccionan pese a no haber detectado ningún fotón. Esta reacción es indistinguible de la verdadera captura de un fotón. Para que el ojo esté seguro de haber detectado una estrella, no basta con detectarla; el flujo de fotones capturados debe ser bastante mayor que el flujo de "fotones falsos" reportados por los bastones.

¿Explicaría esto el límite de magnitud 6-6.5? Pues en realidad no. El astrónomo americano Heber Curtis descubrió que podemos ver estrellas mucho más tenues si ocultamos el cielo alrededor de la estrella. Podemos detectar estrellas de magnitud 8.5 cuando las vemos a través de un orificio en una pantalla oscura. Usando tan avanzado aparato, se elevaría a varias decenas de miles el número de estrellas que podríamos contar en una noche.

Sólo un tercio de la luz del cielo terrestre más oscuro procede de las estrellas que podemos discernir a simple vista. El resto es luz difundida que se reparte de manera homogénea en todo el cielo, procedente principalmente de tres fuentes. La primera son reacciones químicas producidas en la alta atmósfera. La segunda es la llamada luz zodiacal, radiación reflejada por el polvo interplanetario. Finalmente, un pequeño porcentaje es debido a la luz galáctica, compuesta de la emisión de estrellas y galaxias demasiado ténues como para ser vistas de manera individual. Esta luz difusa "tapa" las estrellas tenues, y termina limitando el número de estrellas que podemos contar a simple vista [2].

Como veis, para esta y otras muchas preguntas sobre ciencia la respuesta correcta (y la más interesante) suele ser "depende".

Fuentes:

[1] Clifford A. Pickover "The Stars of Heaven"
[2] R.W. Rodiek "The First Steps in Seeing"

Tomado de:

Resistencia Numantina

En Perú se ha encontrado el pop corn más antiguo

Ahora las hacemos con el microondas y el maíz viene en bolsas de papel cerradas, con todos los ingredientes y perfectamente preparadas para que nos queden en su punto. La receta tradicional es tostar, o casi freír en un aceite vegetal, los granos de maíz en una olla tapada hasta que exploten por el calentamiento de la humedad interna. Hoy vamos a ver el resultado de esta receta tradicional, en este caso muy tradicional pues tiene entre 3000 y 7000 años de antigüedad, como relatan Alexander Grobman y sus colegas de la Universidad Nacional Agraria de Lima, en Perú.

Los datos arqueológicos y genéticos indican que el maíz (Zea mays) fue domesticado en México hace unos 9000 años a partir de una planta silvestre llamada teosinte. En los siguientes milenios, el maíz se extendió hacia el sur, hacia América Central y Sudamérica. Hay datos contrastados procedentes de Ecuador hace 7000-5500 años, de los Andes meridionales hace 4000 años y del sur de Argentina hace 4500 años. Grobman y su grupo publican en su estudio la presencia de harina y palomitas de maíz con 293 nuevos hallazgos, con la mayor antigüedad de hace 6700-6500 años en Paredones y Huaca Prieta, en la costa desértica del norte de Perú.

El yacimiento de Huaca Prieta es un montículo artificial, excavado desde los años 40, con 62 metros de ancho,138 metros de largo y por lo menos 32 metros de sedimento. Allí han aparecido restos de habitaciones, tumbas, instrumentos de piedra y de madera, tejidos y restos de animales y de plantas, algunas de ellas cultivadas. Las dataciones de C14 dan a los depósitos una antigüedad de entre 13700 y 3800 años hasta la actualidad. El yacimiento de Paredones está localizado un kilómetro al norte de Huaca Prieta y está fechado entre 6700 y 4000 años. Es también un montículo artificial, algo menor que el de Huaca Prieta, con 30 metros de ancho, 70 metros de largo y 6.2 metros de depósitos.

Los restos de maíz proceden, todos ellos, de una profundidad que va de 1.2 a 12 metros. En total, son 293 fragmentos de todo tipo: mazorcas, cáscara, tallos, penachos y granos. Aparecen dispersos en los yacimientos y no en grandes cantidades. Quizá no era el maíz un alimento básico. También hay restos de peces, conchas, algas, plantas silvestres, calabaza, fríjoles, pimientos y otras plantas.

Pero, y los autores lo destacan, el maíz encontrado aparece, aunque no siempre, como palomitas. También hay maíz que se dedica a la obtención de harina. Muchos de los granos sin cocinar que se han encontrado tienen las características típicas del maíz para palomitas por el tamaño, la dureza y su facilidad para explotar.

Son unas palomitas con una edad de casi 7000 años. Y sin cerámica. Es posible que consiguieran las palomitas echando los granos de maíz directamente a la brasa o, más bien, sobre una piedra caliente.

*Grobman, A. y 5 colaboradores. 2011. Preceramic maize from Paredones y Huaca Prieta, Peru. Proceedings of the National Academy of Sciences USA doi:10.1073/pnas.1120270109

Fuente:

La biología estupenda

Lea también en los archivos de "Conocer Ciencia":

No te gustan las verduras: come palomitas

Palomitas de maíz: ¡la nueva fruta?

Las palomitas de maíz para micoondas pueden ser cancerígenas

El curioso origen del nombre de 5 compañías tecnológicas

¿Te has preguntado de donde viene o cómo se creo el nombre de algunas de tus compañías favoritas? La marca de algunas empresas que hoy son instituciones y tienen un top of mind inmenso en millones de personas se crearon por mera casualidad, por una anecdota o porque no se les ocurría nada mejor a sus fundadores, y no por un detallado proceso de branding para llegar a la mayor cantidad de público objetivo.

Pixar

Una vez que Steve Jobs compró la división de animación generada por gráficos de ordenador de Lucasfilm, él junto a Edwin Catmull y Alvy Ray Smith se pusieron a buscar un nombre que los identifique, al final lo hizo el ordenador que hacía los gráficos en cuestión.

La primera elección de nombre para la máquina fue simplemente Pixel. Pero en algún punto decidieron cambiar las últimas letras, el por ar en relación a las iniciales de Alvy Ray Smith. El resultado fue Pixar Image Computer. El nombre gustó sobre todo por su significado en español: Pixar como la acción de hacer pixeles. La compañía adoptó la palabra y quedó como simplemente Pixar

Google

Google es un caso clásico de un nombre accidental que se convirtió en una de las palabras y por lo tanto una de las marcas más reconocidas hoy en día. Tanto que se convirtió en un verbo para describir la búsqueda de información en internet. Es habitual escuchar el “googlear” en vez de el “buscar”.

Google es un error accidental de ortografía, al intentar escribir la palabra googol (gúgol en español). Sus fundadores decidieron quedarse con el nombre (aunque estuviera mal escrito) porque Google.com estaba libre.

El uso de googol fue originalmente propuesto para describir la inmensa cantidad de información que se pretendía organizar con el buscador.

HTC

¿Sabían que HTC era originalmente un fabricante de portátiles? Aunque rápidamente cambiaron de foco hacia dispositivos con pantallas táctiles (¿sabían que HTC fabricaba los Treo 650 y los iPaq?) el nombre responde a los inicios y los orígenes de la compañía, pues HTC significa High Tech Computer Corp.

Amazon

El nombre de Amazon tiene una versión oficia y una espectulativa, empezaré por la oficial:

Amazon no siempre se llamó así, antes su nombre era Cadabra.com, pero Jeff Bezos, su fundador, decidió cambiarlo porque se dio cuenta que el potencial de venta de productos vía internet estaba en la máxima disponibilidad de millones de productos al mismo tiempo por medio de una tienda online. El inmenso flujo de agua se comparaba con un gran número de productos a disponibilidad del lector.

La versión no oficial es que Bezos, una vez entendiendo que Yahoo (en esa época el buscador más poulgar) orenaba resultados por orden alfabético y decidió usar uno que empiece por la letra A.

LG

LG no siempre se llamó así, aunque las siglas son referencia a la forma en como antes se conocía a esta empresa: Lucky Goldstar que es la combinación de dos marcas populares en Corea con mucha historia.

Lak-Hui, pronunciada “Lucky” (en inglés) que fue la primera coreana en entrar a la industria del plásticos y “Goldstar” quienes fueron los primeros en producir una radio.

El resultado, Lucky-Goldstar, marca que se mantiivo asi hasta 1995 cuando se decidió simplificarla y hacerla más accesible a un público mucho mayor y así er más competetivos, el rsultaado fue Ratzinger LG.

¿Se te ocurren otras compañías con nombres u orígenes curiosos?

Fuente:

Cooking Ideas

Diseñan un sistema inteligente capaz de dotar a máquinas de emociones sintéticas


Los resultados del estudio del catedrático José Luis Salmerón han sido publicados por la revista Applied Soft Computing.

José Luis Salmerón, catedrático de Sistemas de la Información e Informática de Gestión de la Universidad Pablo de Olavide, ha diseñado un sistema de inteligencia artificial capaz de dotar a máquinas de emociones sintéticas. Este estudio, cuyos resultados aparecen publicados en la revista Applied Soft Computing, no sólo permitirá que robots puedan emular emociones sino que, además, éstos podrán anticiparse a las emociones humanas y adaptarse a ellas interactuando en consecuencia. Un avance que, de este modo, podría suponer un gran paso en la futura interacción entre personas y máquinas.

“Existen multitud de razones para la construcción de máquinas y robots que piensen de manera inteligente”, afirma José Luis Salmerón. Según este investigador, algunos expertos esperan que las máquinas inteligentes superen con creces nuestras capacidades cognitivas y razonen de manera racionalmente perfecta. Otros consideran, por el contrario, que se han de diseñar robots que piensen de igual forma que lo hacen los humanos, considerando también nuestras limitaciones.

El sistema desarrollado desde la Pablo de Olavide se basa en la combinación de un modelo dinámico, representado por una estructura de red monocapa, y de la lógica borrosa. Esta técnica permite modelar sistemas complejos y relaciones no lineales con gran flexibilidad facilitando un análisis estático y dinámico. Este sistema evoluciona en el tiempo hasta alcanzar un estado estable que determina la energía y el sentido de la emoción artificial.

“La inclusión de emociones artificiales permite a las máquinas incorporar nuevas funcionalidades y tenerlas en cuenta a la hora de realizar sus actividades. Las emociones artificiales en las máquinas mejoraría sensiblemente sus aplicaciones y las dotaría de una mayor autonomía, pudiendo adaptarse a la interacción con los seres humanos”, afirma Salmerón.

De esta forma, se podrían crear robots o cualquier otro tipo de máquina que se adaptaran o anticiparan las emociones humanas o incluso tuvieran las suyas propias. Así, un robot podría, por ejemplo, sentir hambre si tuviera un nivel bajo de energía o alegría cuando realizara su trabajo correctamente. También permitiría que anticipase las emociones de los seres humanos, de forma que adaptara sus acciones para que produjera emociones positivas en las personas que interactúen con dicha máquina.

José Luis Salmerón Silvera es catedrático de la Universidad Pablo de Olavide. Ingeniero en Informática y economista con una dilatada experiencia en sistemas inteligentes, este investigador es miembro de numerosas sociedades científicas con las que colabora activamente, tales como Internet Society, Association of Computing Machinery, Association of Logic Programming o International Rough Sets Society. Sus trabajos han sido publicados en revistas científicas internacionales de alto impacto. En la actualidad mantiene colaboraciones con numerosos grupos españoles y extranjeros, liderando diversos proyectos nacionales e internacionales.

Fuente:

SINC


El tacocóptero: comida a domicilio traída por mini helicópteros

Es un sueño que persigue la humanidad desde que el hombre es hombre. Siglos de evolución con un único objetivo: que un mini-helicóptero nos traiga a casa comida mejicana lista para hincarle el diente. Una utopía que cada vez está más próxima. Porque, señoras, señores, les presentamos… ¡El tacocóptero!

“Tacocopter” no es solo una palabra simpática y pegadiza: es el nombre de una empresa de comida a domicilio, que promete entregarte tus burritos volando. Simplemente, haz tu pedido con tu smartphone, paga con tu tarjeta y listo. Solo queda esperar a la llegada del aparato.

De momento, es sólo una idea peregrina, puesto que el malvado gobierno de los EEUU pretende paralizar el proyecto.

La ocurrencia, de momento, no pasa de ser un concepto desarrollado por Star Simpson, una graduada del MIT (Massachusetts Institute of Technology). Al hacer el pedido, se transmite la localización a uno de estos microcópteros, capaz de rastrear tu señal con GPS y dejar la bolsa con la comida en el lugar en el que te encuentres. ¡Y no hay que dejarle propina!

Por desgracia, la Administración Federal de Aviación, la inquietante FAA, tiene una serie de legislaciones que prohibe cosas semejantes, imposibilitando el uso de “vehículos aéreos no tripulados para fines no comerciales”. ¡Nuestro gozo en un pozo!

Hay otros problemillas, como que la gente se dedique a robar la comida cuanto el tacocóptero aterrize; o que le de en la cabeza a alguien con la bolsa, puesto que el vehículo no deja de ser un “drone”, aparatos que todavía no reaccionan demasiado bien a su entorno, sino que más que nada se guía por una serie de programas que le indican el mejor camino.

Además, estos mini helicóptero sólo pueden levantar una pequeña cantidad de peso y volar a poca distancia con él, por lo que además no se podrían hacer pedidos familiares.

Los microcópteros utilizados para este servicio son una variedad cada vez más popular en los EEUU. Existen modelos de 4, 6 y 8 rotores, capaces de alcanzar velocidades y alturas bastante respetables para su tamaño; y que pueden ser tanto teledirigidos como programados para realizar diferentes patrones de vuelos. Algunos hasta los utilizan para la vigilancia y el espionaje.

En Twitter son muchos los que han mostrado su apoyo a la idea, que parece más factible en áreas suburviales con viviendas unifamiliares. Aunque muchos ya han calificado el proyecto como “una simple broma”, la risueña señorita Star afirma que “ha registrado la página web para conseguir interés en mi idea y seguir pensando como llevarla a cabo”. Que dios la bendiga.

El interés es tal que, aunque el negocio no haya arrancado, ya se planea una expansión en la costa oeste: el “langosta-cóptero”, que serviría marisco volador a domicilio. ¿Llegará a aprobarse el uso de esta genial ocurrencia? Seguramente no, pero siempre nos quedará la duda de si un mundo en el que estos aparatos surcan los cielos urbanos transportando deliciosa comida es, realmente, un mundo mejor.

Vía Tacocopter y Neatorama

Tomado de:

Cooking Ideas

¿Qué utilidad tiene el himen en las hembras de los mamíferos?

Probablemente ninguna. Hay diferentes teorías para explicar su existencia.

musculos

Resonancia de un aparato reproductor femenino.

Es posible que, realmente, el hecho de que una hembra madura de mamífero mantenga una membrana en el interior de la vagina no tenga una utilidad, sino que sea un residuo de etapas fetales. En ese momento se observa muchas veces que no existe una apertura vaginal, sino que la cavidad está cerrada con una capa de tejido celular más o menos gruesa.

Esa membrana se abre solo parcialmente antes del nacimiento, que es cuando se conoce como himen.

Esa apertura parcial permite que las menstruaciones se den en el futuro con absoluta normalidad, ya que la sangre encuentra un camino hacia el exterior.

Otra de las teorías de algunos biólogos y médicos es que puede tratarse de una protección o barrera biológica ante posibles infecciones en la “infancia”, cuando todavía la vagina no cumple ningún papel reproductor. Otros paleobiólogos lo relacionan con el pasado acuático de la vida.

Lo cierto es que el himen está presente en focas, manatíes, ballenas dentadas, topos, ratas, elefantes, llamas, cerdos de Guinea, lémures y chimpancés, por ejemplo.

Fuente:

QUO


27 de marzo de 2012

La temperatura podría subir tres grados en 2050


olas-calorEn menos de 40 años, la temperatura del planeta aumentará entre 1,4 ºC y 3 ºC de promedio. Nature Geoscience publica los cálculos de un equipo internacional de investigadores que advierten de la veloz evolución del calentamiento global si no se mitigan las emisiones de gases de efecto invernadero.

La previsión de incremento de la temperatura en la Tierra se ha hecho con simulaciones de miles de modelos climáticos diferentes, según apunta la agencia SINC. La simulación se ha hecho con técnicas capaces de combinar las variaciones en las temperaturas locales del último medio siglo, porque se asume que los datos reales del pasado son los mejores para realizar la estimación. Los resultados de este sistema concuerdan con la evaluación de los expertos del Panel Intergubernamental sobre Cambio Climático (IPCC) de las Naciones Unidas.

Aún existen tres aspectos del clima inciertos para los científicos: la sensibilidad del equilibrio del clima, el índice de captación de calor de los océanos y la presión histórica de los aerosoles. Según la investigación, los modelos de cálculo anteriores subestimaban estas incertidumbres. Parte del error se debía a la correlación entre la sensibilidad del equilibrio del clima y el rol de los aerosoles, que tiende a sobreestimar la capacidad de absorción de calor del océano.

Fuente:

Muy Interesante

Y además…

5 curiosidades ociosas sobre Física que probablemente no conoces


1. En mecánica cuántica, la distancia más pequeña posible se conoce como longitud de Planck. Y el tiempo que tardaría un fotón en cubrir esa distancia se conoce como tiempo de Planck. Si contáramos una longitud de Planck por segundo, tardaríamos 10.000.000 veces la edad actual del universo en alcanzar el diámetro de un átomo.

2. Un acelerador de partículas con potencia suficiente como para investigar la escala de Planck debería tener un peso equivalente al de la Luna, y su circunferencia sería igual a la órbita de Marte.

3. Las ondas sonoras generadas por un agujero negro en el doble cúmulo de Perseo está en si bemol, 57 octavas por debajo de las teclas de un piano. Según el libro de Joel Levy 100 analogías científicas:

Se trata de un sonido mil billones más profundo de lo que puede percibir el oído humano. Se trata de una nota que lleva 2.500 millones de años sonando.

4. 100 billones de trillones de grados Kelvin es la temperatura del universo unos segundos después del Big Bang. Una temperatura equivalente a mil millones de billones de supernovas.

5. El universo está hecho “a medida” para nosotros. Si el conjunto de constantes fundamentales que rige las propiedades de la materia y de la energía fuera diferente, la vida no podría haber aparecido. Por ejemplo, si la interacción nuclear débil fuerse un poco más fuerte, el universo sería una gigantesca sopa de hidrógeno puro. Dado ue la interacción nuclear débil tiene exactamente la fuerza que tiene, el universo contiene un amplio abanico de elementos.

Fuente:

Xakata Ciencia

¿Desde cuándo bebemos leche?


Las comunidades centroeuropeas dedicadas a la ganadería lechera fueron las responsables de la evolución de la capacidad de digestión de la lactosa hace 7.500 años, que permitió a los seres humanos beber leche fresca, según mostraba una reciente investigación genética realizada por científicos alemanes y británicos. Antes se creía que solo los europeos nórdicos podían beber leche sin sufrir efectos adversos porque necesitaban vitamina D en su dieta por la falta de la luz solar. «La mayoría de los adultos del mundo no producen la enzima lactasa y por eso no pueden digerir la lactosa», explicó el profesor Mark Thomas del Departamento de Genética, Evolución y Medio Ambiente del University College de Londres. «Sin embargo, la mayoría de los europeos continúan produciendo lactasa durante toda su vida, una característica que se denomina 'persistencia de la lactasa'.»

Los investigadores descubrieron que dicha persistencia está relacionada con una alteración genética única que fue de enorme ayuda para la supervivencia de nuestros antepasados. Y que los adultos no empezaron a consumir leche fresca hasta que aprendieron a domesticar a los animales. Según los investigadores, lo más probable es que la persistencia de la lactasa evolucionara a la par que la práctica cultural de explotar el ganado lechero. Concretamente, los autores sospechan que esto sucedió en la región geográfica donde se originó la cultura Linearbandkeramik, que actualmente ocupa la zona noroeste de Hungría y el suroeste de Eslovaquia.

Se cree que la leche puede compensar la insuficiencia de rayos del sol y la síntesis de vitamina D en la piel en las latitudes más septentrionales. La vitamina D es necesaria para la absorción de calcio, y la leche supone una fuente alimenticia importante de ambos nutrientes, según los expertos. La leche constituye también una fuente beneficiosa de proteínas y es rica en calorías.

Fuente:
Muy Interesante
Y además…

El vertido del Golfo de México tuvo un efecto 'sin precedentes' en el océano

El vehículo subarino 'Alvin' durante los trabajos en el Golfo de México. | PNAS

El vehículo subarino 'Alvin' durante los trabajos en el Golfo de México. | PNAS

Tdoso los medios hablan de Cameron y de su inmersión. Pero son contados los medios que tratan sobre la inmersipon que constató los efectos del derrame de petróleo en el Golfo de México.

El vertido de petróleo del Golfo de México ocurrido hace casi dos años ha dañado los ecosistemas de los fondos marinos mucho más de lo que los científicos imaginaban.

Entre el 15 de octubre y el 1 de noviembre de 2010, unos seis meses después de la explosión de la plataforma petrolífera de la compañía BP en el Golfo de México, el robot submarino Jason II analizaba nueve lugares cercanos al desastre en los que habitan corales de profundidad. Estas colonias se encontraban entre 260 y 2.600 metros bajo la superficie del mar, pero los científicos no encontraron en ninguna de ellas se encontraron daños sobre los corales o sobre los hábitats asociados.

Sin embargo, el 2 de noviembre de 2010 los investigadores cambiaron el lugar de muestreo hacia un área situada a 11 kilómetros del pozo de Macondo, que había sido tapado tres meses antes después de verter al océano, como una surgencia submarina, cerca de 600 millones de litros de petróleo. Tras los resultados obtenidos en los muestreos anteriores, los investigadores quedaron sorprendidos con las imágenes que ofrecía el robot Jason II de esta nueva zona situada a 1.300 metros de profundidad.

Vertido desde el fondo marino

"Tan pronto como el robot submarino se acercó lo suficiente a la comunidad de corales como para verla con claridad, ya tuve claro que algo iba mal en ese punto", explica Charles Fisher, investigador del Departamento de Biología de la Universidad del Estado de Pennsylvania (EEUU) y director de la investigación. "Pensé que había demasiado marrón y blanco y que no había suficiente color en los corales y estrellas de mar".

Los investigadores están más familiarizados con las consecuencias de los vertidos superficiales debido a la liberación del contenido de barcos petroleros o de instalaciones desde tierra. Pero el efecto de una surgencia de petróleo en el propio fondo oceánico afecta de forma muy diferente a las comunidades biológicas.

Helen White, la autora principal del trabajo, publicado en la revista 'Proceedings of the National Academy of Sciences' (PNAS), asegura que "los ecosistemas de las profundidades del Golfo de México están separadas de la actividad humana, en la superficie, por 1.220 metros de agua; por lo que no es esperable que los corales de aguas profundas que se vean afectados por un derrame de petróleo típico. Sin embargo, la magnitud y profundidad del derrame de la plataforma 'Deepwater Horizon', hacen que este sea un caso muy diferente".

Coral dañado. | PNAS

Coral dañado. | PNAS

La descripción científica de los daños sufridos por las comunidades de coral de profundidad debido al efecto del petróleo es demoledora. "Las colonias de coral presentan signos de estrés de forma muy generalizada, incluyendo varios grados de pérdida de tejidos, alargamiento de los escleritos [estructuras de carbonato cálcico que sirven como sustento del coral], exceso de producción mucosa, ofiuros [estrellas de mar] blanquecinos adheridos y una cobertura de un material marrón floculante".

Para examinar las profundidades tras el descubrimiento del área dañada, el equipo empleó el vehículo submarino autónomo 'Sentry', con el fin de cartografiar y fotografiar el fondo del océano; y el vehículo 'Alvin', tripulado por un piloto y dos científicos, para obtener una mejor visión de los corales. Durante seis inmersiones, para las que las pinzas robóticas del vehículo fueron transformadas en cuchillas, el equipo recogió sedimentos y muestras de los corales para su análisis.

Para identificar el petróleo que se encuentra en las comunidades de coral los investigadores usaron una técnica avanzada, llamada cromatografía de gases integral de dos dimensiones. El método, que separa los compuestos del petróleo por peso molecular, permitió a los científicos obtener una 'huella digital' del petróleo, y determinar su origen.

"Ya se conocía el impacto del petróleo en las aguas superficiales, la costa, y la vida marina, pero ésta era la primera vez que se exploraba el fondo marino para examinar los efectos sobre los ecosistemas de aguas profundas", afirma White. "Debido a este derrame sin precedentes, hemos aprendido que su impacto es mucho mayor que el de aquellos que se producen en la superficie", explica White.

Fuente:

El Mundo Ciencia

El sismo que movió la costa mexicana

Sismo México

Aunque son comunes, los sismos en México causan miedo en la población

El reciente terremoto de 7,4 grados en la escala de Richter asustó a miles de mexicanos, especialmente en la capital del país, pero ahora se sabe que el movimiento sísmico causó algo más que pánico.

Científicos de la Universidad Nacional Autónoma de México (UNAM) miden el desplazamiento de la placas continentales en la costa del Pacífico, especialmente en la región de Oaxaca y Guerrero, donde ocurrió el epicentro del sismo.

De forma preliminar se reconoce una separación de las placas de Cocos y la Norteamericana, aunque todavía no se sabe el impacto real del temblor, le dice a BBC Mundo Carlos Valdéz González, jefe del Servicio Sismológico Nacional (SSN).

"El piso oceánico se acerca. Es difícil de medir porque está en el océano, no se ve el movimiento. No se puede medir lo que se desplazó el fondo marino", explica.

El último temblor de 7,4 grados Richter causó la muerte de dos personas, heridas a una docena y afectó a unas 30.000 familias. Hasta ahora se han registrado más de 200 réplicas.

De acuerdo con las estimaciones de la UNAM, el movimiento telúrico fue equivalente a la explosión de 10.000 bombas atómicas similares a las descargadas en Hiroshima, Japón, en 1945.

Placas

El desplazamiento de placas terrestres es normal después de un sismo como el del pasado 20 de marzo.

En 1985 hubo un terremoto de 8,1 grados Richter de intensidad que causó separaciones de tierra de hasta 15 metros en algunos lugares.

En 2010, un movimiento de 7,2 grados en el Valle de Mexicali, al noroeste de México, cambió la zona de cultivos por hundimientos del terreno y el proceso de solifluxión, el desplazamiento masivo y lento de ciertos tipos de suelo. Este asentamiento de la tierrra modificó los mantos freáticos locales.

Ahora los científicos de la UNAM intentan averiguar el impacto del sismo más allá de los daños en la superficie.

En la región del epicentro, una de las más pobres del país, se han colocado aparatos para medir la fractura de la Placa de Cocos, ubicada casi por completo en el Océano Pacífico, y la Placa Norteamericana, donde se encuentra casi todo el territorio mexicano, excepto la península de Baja California que se ubica sobre la Placa del Pacífico.

"¿Dónde te agarró el temblor?"

Sismo Ciudad de México

El sismo más reciente de 7,4 grados Richter causó pánico en Ciudad de México

México es un país donde los movimientos de tierra son comunes. El año pasado, el SSN detectó más de 4.000 sismos de diferentes intensidades, más de diez por día.

La mayor parte pasaron desaparcibidos para la población, aunque hubo algunos que causaron alarma, especialmente en Ciudad de México.

A pesar de la frecuencia de los sismos, los daños fueron menores. Las autoridades dicen que es consecuencia de la cultura de protección civil desarrollada a partir del terremoto de 1985, pero algunos especialistas afirman que en realidad los mexicanos se han acostumbrado a que la tierra bajo sus pies se mueve con frecuencia.

De hecho, cada vez que ocurre un evento de esta naturaleza los científicos recuerdan que, en algún momento del futuro, México vivirá un terremoto de gran intensidad.

Algo parecido a lo que se pronostica con la Falla de San Andrés, en América del Norte, que podría separarse del continente en algún momento.

Los mexicanos asumen con tranquilidad y humor el evento. Por ejemplo, tras el terremoto de 1985 que causó oficialmente las muerte de 10.000 personas, el cantante Chico Che compuso el tema "¿Dónde te agarró el temblor?", que fue uno de los más populares de la época.

La canción todavía se repite en estaciones de radio locales cada vez que, como ahora, ocurren sismos importantes.

Fuente:

BBC Ciencia

Contenido relacionado

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0