Latest Posts:

28 de enero de 2015

¿Por qué tenemos labios?

Parecen adornar tu cara, se ponen secos y agrietados en invierno y, de vez en cuando, quedan atrapados entre los dientes cuando los confundimos con la comida.
Pero en realidad, ¿para qué sirven los labios?
Las aves parecen estar bien sin ellos, los de las tortugas son duros como un pico, y aunque la mayoría de los mamíferos los tienen, los humanos somos los únicos que los tenemos permanentemente hacia afuera.
Al parecer, los labios son bastante importantes, tan importantes que vale la pena correr el riesgo de mordérnoslos de tanto en tanto, aunque esto pueda resultar muy doloroso.

Importancia vital

Usar los labios para chupar es una de las primeras habilidades que demostramos al nacer.
De hecho, es tan decisivo para nuestra supervivencia que se lo conoce como un "reflejo primitivo".
Nacimos sabiendo cómo succionar y no requerimos ningún aprendizaje para ello. Así es en casi todos los mamíferos.
Bebé
Desde que nacemos tenemos la habilidad de usar los labios para chupar.
Es el reflejo de succionar combinado con otra respuesta primitiva, el reflejo de búsqueda, lo que permite el amamantamiento de los infantes.
El reflejo de búsqueda se expresa cuando la cabeza del bebé gira para encontrar todo lo que roza su boca o mejillas.
Tan pronto como algo entra en contacto con los labios del recién nacido, se activa el reflejo de succión.

El artículo completo en:

Paris y su proyecto para convertirse en 2050 en la ciudad del futuro


2050 se está volviendo el año donde importantes ciudades están apuntando a un cambio radical dentro de su planeación urbana, precisamente ayer conocíamos el caso de Nueva York y la transformación de la calle 42 en un gran ecosistema conectado con todo lo necesario siendo los mismos habitantes los encargados de su mantenimiento y supervisión.
Pues ahora conocemos el proyecto de "Paris Smart City 2050" el que no busca transformar sólo una calle, sino toda la ciudad, siendo el primer proyecto sostenible con estas características, que además ya ha sido aprobado por el gobierno de la ciudad.


El artículo completo en:

25 de enero de 2015

Radiografía del cerebro de un terrorista

El atentado de París contra la sede del semanario satírico Charlie Hebdo volvió a recordarnos, una vez más, y de manera brutal, que el terror y la violencia no piden permiso para desatar el pánico. Europa vivió hace unas semanas una auténtica psicosis a raíz de una ola de ataques con los que los cuerpos de seguridad estuvieron en estado de máxima alerta. En un momento en el que decenas de jóvenes occidentales viajan a países como Irak o Siria para unirse a la yihad, los Estados no dejan de trabajar para hacer más seguras sus fronteras.
Las disciplinas que pueden ayudar a luchar contra el terror son muchas: desde las agencias de inteligencia o la política, hasta la informática o la psicología. La prestigiosa revista científica Nature se fija en estas últimas en una serie de artículos que acaba de publicar y que intentan dar respuesta a cuestiones tan cruciales como si es posible predecir el terrorismo, o qué puede llevar a una persona a dejar de lado su vida normal y pasar a ser un asesino.
Aquí destaca especialmente el trabajo del antropólogo Scott Atran, profesor e investigador en la Universidad de Michigan. Este periódico ha contactado con él para que, en la medida de lo posible, intente definir el perfil de estas personas.
"La mayoría son jóvenes que están en una etapa de transición en sus vidas -estudiantes o inmigrantes en una época de cambio entre trabajos o pareja -que han dejado a su familia y buscan otra que dé sentido a su vida", cuenta Atran en conversación con EL MUNDO. Preguntado por cómo es el terrorista típico, si es que tal cosa existiera, cuenta que "tres de cada cuatro personas que se unen a la yihad lo hacen a través de amigos. El 15% a través de familiares", y enfatiza: "Muy pocos son captados en las mezquitas".
Sin embargo, es obvio que ser un adolescente perdido no te convierte en terrorista. "Las personas marginadas son especialmente susceptibles a los cantos de sirena de la yihad, pero también lo son los jóvenes de clase media que quieren dejar su huella en el mundo", cuenta Atran. En Europa, explica, "las redes criminales cuentan con un gran porcentaje de musulmanes marginados que acaban convirtiéndose en delincuentes de poca monta por las pocas oportunidades que le ofrece la sociedad".
"El problema es que ahora la yihad está ofreciendo a estos jóvenes gloria, aventura e importancia, y son precisamente ellos quienes menos tienen que perder, y quienes son más propensos a arriesgar su vida", explica a este periódico este especialista en terrorismo y política internacional.
El artículo completo en:

24 de enero de 2015

Maya Penn: activista y empresaria de 14 años

Maya es, activista, diseñadora, animadora, programadora, conferencista, filántropa, escritora, ilustradora, entre otros talentos.


La diferencia entre la gente buena y la que cambia el mundo para bien es lo que la última se atreve a hacer. No hay una edad límite para empezar a hacer algo que modifique nuestro entorno.
Maya Penn es una chica de sólo 14 años que lleva la mitad de su corta vida emprendiendo. Ahora es diseñadora de moda ecológica, autora de libros para niños, ambientalista, animadora, programadora, filántropa, entre otros talentos.
La nota completa en:

19 de enero de 2015

El sueño: la clave para que los bebés aprendan más...



Bebés
Las averiguaciones ayudan a explicar por qué los bebés pasan la mayor parte de su tiempo durmiendo.

La clave para el aprendizaje en los primeros años de vida es una larga siesta, dicen los científicos.
Los ensayos con 216 bebés de hasta 12 meses de edad indicaron que eran incapaces de recordar informaciones nuevas si no duermen largo rato después de recibirlas.
El equipo de la Universidad de Sheffield, Inglaterra, sugirió que el mejor momento para aprender puede ser justo antes de dormir, y destacó la importancia de la lectura a la hora de acostarse.
Los expertos dijeron que el sueño puede ser mucho más importante en los primeros años que en otras edades.
Los bebés pasan más tiempo durmiendo que en cualquier otro momento de la vida adulta.
Sin embargo, los investigadores dijeron que "sorprendentemente, poco se sabe" sobre el papel del sueño en el primer año de vida.

Aprende, duerme, repite

Los científicos enseñaron a los bebés de seis a 12 meses de edad tres nuevas tareas que implicaban jugar con títeres.
La mitad de los bebés durmió en las cuatro horas despues del aprendizaje, mientras que el resto o bien no tenía sueño o dormía la siesta por menos de 30 minutos.
Al día siguiente, se alentaba a los bebés a repetir lo que les habían enseñado.
El artículo completo en:

17 de enero de 2015

Recuperada la primera muestra del elemento que arrasó Nagasaki

Un equipo de ingenieros nucleares de EEUU identifica la primera muestra de plutonio de la historia, sintetizada en 1941.


Glenn Seaborg, en 1962, posa en el laboratorio donde había sintetizado el plutonio dos décadas antes / DONALD COOKSEY
En 1941, cuando algunas de las lumbreras científicas del mundo ya pensaban en un arma definitiva para detener a Hitler, un investigador de 29 años iba a descubrir uno de sus ingredientes fundamentales. En un laboratorio de la Universidad de California en Berkeley (EEUU), Glenn Seaborg y otros colaboradores bombardearon uranio-238 con átomos de hidrógeno pesado. De aquella manipulación de la materia surgió plutonio-239, un nuevo elemento radiactivo que hasta entonces no se había observado en la naturaleza.
Aquel descubrimiento, el segundo elemento químico sintético de la historia y el primero de una serie de nuevos elementos artificiales más pesados que el uranio, le proporcionó a Seaborg el Nobel de Física en 1951. Antes, en 1942, le abrió la puerta del Proyecto Manhattan, la mayor y más controvertida hazaña de la ciencia aplicada de la historia.
Poco después de producir los primeros átomos de plutonio, Seaborg y el físico italiano Emilio Segrè descubrieron que, cuando se le disparaban neutrones, el plutonio-239 se escindía liberando una energía inmensa. Los científicos sabían que si se pudiese producir una cantidad suficiente del elemento, se convertiría en un explosivo monstruoso dentro del artefacto que ya se empezaba a conocer como la bomba atómica.
Con esta idea, Seaborg lideró un equipo de más de 100 científicos con el objetivo de obtener suficiente plutonio para poder usarlo con fines bélicos. En solo seis meses, lo habían logrado y el nuevo elemento se convirtió en el explosivo nuclear de la bomba bautizada como Fat Man. El 9 de agosto de 1945, solo cuatro años después de haber sido observado por primera vez, la reacción en cadena de los poco más de seis kilos de plutonio de Fat Manarrasó Nagasaki y a mató a buena parte de sus habitantes. Menos de una semana después, Japón se rendía y acababa la Segunda Guerra Mundial.
Antes de tener el apoyo de un Gobierno acuciado por la guerra y más experiencia, Seaborg y sus colegas necesitaron más de un año de trabajo con aceleradores de partículas para conseguir tan solo 2,77 microgramos de plutonio (el microgramo es la millonésima parte de un gramo). Pese a ser minúscula, aquella cantidad, conservada en forma de dióxido de plutonio, permitió comenzar a comprender aquella nueva sustancia y es un hito para la ciencia con profundas consecuencias históricas. Por ese motivo, cuando el trabajo científico terminó, se conservó en un tubo de cristal que acabó expuesto en el Lawrence Hall of Science de Berkeley. Allí permaneció durante varios años, pero en algún momento de la década pasada, según cuentan en un artículo publicado en arXiv y recogido por The Physics arXiv Blog tres ingenieros nucleares de Berkeley, por cuestiones financieras y de seguridad se retiró de la exposición y su pista se perdió.
Lea el artículo completo en:

13 de enero de 2015

¿De dónde salió el cromosoma Y de Jesucristo?


La duda es la obligación metodológica del pensamiento científico. En un momento en el que ascienden nuevas y viejas corrientes irracionales, Estupinyà explica cómo funciona la ciencia y describe la peligrosa tentación de sacar la conclusión que más nos conviene.

Para hablar del pensamiento acientífico nada mejor que comenzar hablando sobre los abogados. Científicos y abogados utilizan un orden opuesto de pensamiento: los científicos primero obtienen evidencias empíricas y después obtienen conclusiones supuestamente objetivas, mientras que los abogados parten siempre de una conclusión predeterminada que defender, y más tarde buscan las pruebas o argumentos subjetivos que la sostengan. Si un abogado está hablando con su cliente y descubre un punto débil, su objetivo será esconderlo. Un científico está en condiciones de hacer lo mismo cuando un resultado no encaja con su teoría, pero entonces será un mal científico. Y los malos trabajos científicos, con el tiempo, son descubiertos.


Imaginemos la siguiente escena: un abogado se encuentra a mitad de un caso; después de escuchar al fiscal, se detiene a meditar, duda un poco, y de repente se gira hacia el juez y dice: “Oiga, ahora que lo pienso, quizás este hombre tenga razón y mi cliente sea culpable.” La opinión general sería que se trata de un mal abogado. Su obligación es luchar y hacerlo de manera dogmática por defender la posición de su cliente, tenga o no razón. “Hay dos verdades, la real y la del caso”, dicen en las facultades de derecho. Si un científico tuviera esta última actitud y se empecinara en defender sus ideas, incluso si las evidencias lo contradicen, entonces diríamos de él que se trata de un pésimo científico.

Admito que mi descripción del trabajo del abogado raya en la caricatura, pero intelectualmente me sirve, en términos generales, para plantear este orden entre conclusiones y pruebas, que distingue el pensamiento científico del acientífico. El ejemplo de los transgénicos puede ilustrar muy bien esta oposición. Alguien que está de manera sistemática en contra de los organismos genéticamente modificados –se trate o no de un investigador– seleccionará solo la información y los estudios que insinúen algún riesgo para la salud o el medio ambiente, y desechará los resultados que no gusten a sus oídos. Por el contrario, el buen científico seguiría un proceso inverso. En un principio no tomaría una posición ni sacaría conclusiones antes de tiempo. Analizaría todas las pruebas de manera objetiva, y después discutiría en qué condiciones un transgénico determinado puede ser conflictivo, absolutamente inocuo o incluso beneficioso. La objetividad es una obligación del buen científico, aunque sea muy difícil mantenerla.

Pensemos que lo que define el pensamiento científico, en términos intelectuales, no es solo los estudios que lo respaldan, sino también su manera de actuar. Nada tan alejado del pensamiento científico como defender algo por fe o dogmatismo. Para la religión las dudas son algo que debe superarse gracias a la fe, mientras que para el científico la duda es una obligación metodológica. La responsabilidad del científico es poner en duda lo que le diga su maestro e intentar corregirlo. De otro modo, los libros de ciencia terminarían siendo biblias intocables, nunca habría creación de nuevo conocimiento y los paradigmas no evolucionarían.
¿De dónde salió el cromosoma Y de Jesucristo?
Un caso ilustrativo de este conflicto entre fe y ciencia es el del reconocido físico Frank J. Tipler, profesor de la Tulane University y autor de un famoso libro de texto de física que se estudia en las universidades. Tipler, por otro lado, es un ferviente religioso convencido de que la ciencia puede congeniar perfectamente con la religión. (Mucha gente piensa lo mismo. Yo no, pero no pretendo discutir ahora esa cuestión.) Si nos atenemos a conceptos generales –si pensamos en un Dios, como el de Spinoza, que diseñó el universo en un momento inicial y dejó que la naturaleza hiciera el resto– la fe y la ciencia podrían coexistir en dimensiones separadas. En cambio, si tratamos de justificar todos los detalles que aparecen en la Biblia, sin duda habrá momentos de fricción entre la creencia religiosa y el pensamiento científico. Tomemos el caso de la virginidad de María: según lo que sabemos hasta ahora de biología, es absolutamente imposible que María tuviera un hijo varón, dado que ningún hombre introdujo el cromosoma Y en su sistema reproductivo. Si Jesucristo hubiera sido mujer, se podría pensar en una reproducción por partenogénesis, un proceso en que el material genético de un óvulo se duplica espontáneamente sin que haya división celular y luego de alguna manera se activa y empieza a dividirse como si hubiera sido fecundado. La partenogénesis existe en algunos reptiles, e incluso se puede inducir artificialmente en primates. No sería imposible que sucediera de modo espontáneo en alguno de los miles de millones de humanos que han aparecido sobre la Tierra a lo largo de nuestra historia. Pero, en cualquier caso, este humano sería hembra, con dos cromosomas X. Una mujer virgen podría tener una hija, pero nunca un hijo. No obstante, la mayor parte de los católicos está convencida de que María engendró a Jesucristo por obra del Espíritu Santo. Algunos admitirán que la mágica multiplicación de panes y peces podría tener un sentido figurado, no así la virginidad de María; esa es incuestionable. Es un dogma de fe. O, para mí, de irracionalidad. Aquí es donde Frank Tipler entra en escena. Hace unos años este gran matemático y físico publicó un libro llamado ThePhysics of Christianity, donde intentaba explicar científicamente todos los “milagros” aparecidos en la Biblia, entre ellos la virginidad de María. Tipler argumentó algo absolutamente inverosímil, como que algunos genes del cromosoma Y del padre de María pudieran haberse traslocado a uno de los cromosomas X de María, de manera que no estuvieran activos en ella, pero que en una eventual partenogénesis se hubieran duplicado y hubiesen pasado a activarse en su futuro hijo. De esta manera Jesucristo tendría dos cromosomas X, pero con los genes clave del cromosoma Y que le darían la condición masculina. Si analizamos el razonamiento de Tipler, su hipótesis es una burda jugarreta para intentar defender sus ideas. Y es aquí donde el físico Tipler está siendo –de modo muy lamentable– anticientífico. Quiere creer que María tuvo un hijo varón siendo virgen, porque así se lo dicta su fe. Ante el conflicto, en lugar de enfrentarse a su fe, se enfrenta a la ciencia al grado de tergiversarla para acomodar las explicaciones científicas a sus creencias. En el caso de Tipler, la fe se encuentra por encima de la ciencia. Podrá ser un buen físico, pero es un mal científico.. Lea el artículo completo en:

2015: el año de la luz

Después de un máximo en 2014, expertos de la NASA vaticinan que la actividad solar descenderá en 2015. Por otra parte, el 20 de marzo de este año gran parte del Viejo Mundo tendrá la oportunidad de disfrutar de un hermoso espectáculo de oscuridad: un eclipse solarque será total únicamente para los habitantes de las islas nórdicas Feroe y Svalbard, pero que barrerá toda Europa, el norte de África y el cuadrante noroeste de Asia. Será una de las noticias relacionadas con la luz que se producirán en el año más apropiado, el Año Internacional de la Luz y las Tecnologías Ópticas (IYL2015), declarado por la Organización de las Naciones Unidas (ONU).
BBVA-OpenMind-luz-2015
El eclipse solar se verá como parcial en casi toda Europa (Crédito: Tomruen)
¿Por qué dedicar un año a la luz? Lo explica a OpenMind el presidente del Comité Internacional del IYL2015 y de la Sociedad Europea de Física, John Dudley: “El objetivo del IYL es crear conciencia entre el público y las autoridades de que la ciencia y la tecnología de la luz sostienen sus vidas de muchas formas que no se aprecian, y que proporcionan soluciones reales a muchos retos globales”. Dudley es también el padre de la idea delIYL2015, propuesta por primera vez en 2009 y que fue recabando apoyos de organismos científicos hasta lograr en 2013 que la Unesco cosechara el respaldo del pleno de la Asamblea general de la ONU. Dudley aclara que el apoyo de Naciones Unidas no es una mera formalidad. “Nada más lejos de la verdad”, aclara el físico neozelandés afincado en Francia. “Conseguir un apoyo político de tan alto nivel requirió un trabajo muy duro de muchas personas y el desarrollo de argumentos defendiendo la propuesta a todos los niveles: de la ciencia a la sociedad, la economía, el desarrollo y más”.
BBVA-OpenMind-year-of-light-2
Poster del Año Internacional de la Luz 2015 (Crédito: Offenburg University)
La elección de 2015 no es casual. Este año coinciden varios aniversarios relacionados con las ciencias de la luz, empezando por un milenio, el del matemático y astrónomo árabe Ibn Al-Haytham o Alhacén (965-1040), pionero de la óptica y del método científico, cuyo trabajo será conmemorado en la campaña global 1001 Invenciones y el Mundo de Ibn Al-Haytham. También se celebrará el bicentenario del trabajo del francés Augustin-Jean Fresnel(1788-1827), uno de los proponentes de la naturaleza ondulatoria de la luz; así como el sesquicentenario de la teoría electromagnética de la luz del escocés James Clerk Maxwell(1831-1879), el centenario de los trabajos sobre la luz de Albert Einstein (1879-1955), y dos cincuentenarios: el del descubrimiento del fondo cósmico de microondas por Arno Penzias y Robert Wilson, y el del desarrollo de las aplicaciones de la fibra óptica por el chino-británico-estadounidense Charles Kuen Kao.
El IYL2015 recibirá el pistoletazo de salida en una ceremonia de inauguración de carácter científico que se celebrará el 19 y 20 de enero en la sede de la Unesco en París. En este acto se destacarán las tecnologías que, en palabras de Dudley, “empujan los límites de la ciencia óptica: una nueva generación de láseres ultrarrápidos de alta potencia (luz extrema), fuentes de luz sincrotrón en áreas como la farmacología, el desarrollo de la tecnología cuántica en áreas como las ciencias de la información, o la aplicación de técnicas ópticas en biología (biofotónica) destinadas a avanzar en la imagen del cerebro”. “Estas son áreas que ya han sido objeto de extensa investigación, pero en las que pienso que probablemente veremos grandes avances en breve”, valora el físico.
Pero por mucho que la ciencia ocupe un lugar esencial en el IYL2015, el objetivo va más allá de popularizar un campo de investigación con vistas a engrosar sus recursos. “Ciertamente queremos subrayar que la inversión gubernamental en investigación y tecnología es vital para asegurar que la ciencia de hoy se convierta en la tecnología del mañana, pero también hay muchas tecnologías existentes que con muy poca inversión adicional pueden transferirse a áreas como la salud, las comunicaciones y la iluminación, de manera que puedan transformar las vidas de la gente en los países en desarrollo”, expone Dudley. Como ejemplo, el científico cita el proyecto Study after Sunset (Estudiar después del Atardecer), cuyo propósito es impulsar el uso de lámparas solares LED en los hogares sin acceso a la luz eléctrica.
Dudley muestra un especial interés en que el IYL2015 no se quede en un plano meramente institucional, sino que también interese a los ciudadanos de a pie, usuarios de nuevas tecnologías ópticas en los LED o los smartphones que ya desempeñan un papel esencial en sus vidas. De cara al público, el IYL2015 incluye la celebración de eventos por todo el mundo, tanto a través de festivales de luz ya existentes como de nuevas citas independientes. “También estamos planeando experimentos de ciencia ciudadana a escala regional e internacional, utilizando smartphones para medir la luz y la polución del aire”, apunta Dudley. “Queremos implicar a tanta gente como podamos”.

Tomado de:

5 consejos para no aburrir en tus presentaciones


Si se pudiera morir de aburrimiento, literalmente fallecer producto del hastío, probablemente la amenaza Nº para la vida de este planeta serían las presentaciones y disertaciones. De seguro la OMS las catalogaría como una epidemia de escala mundial, una tragedia de proporciones bíblicas que arrasaría con todo a su paso. No habría mascarilla, ni guantes ni traje de seguridad que nos mantuviera libres de este flagelo.

Sea para un trabajo universitario, para mostrar un nuevo proyecto o, peor, para hablar de los objetivos de la empresa el año 2035, las presentaciones son una amenaza a la paciencia y la vigilia del auditorio. Por ende, no puedes culparlos si agendaste una presentación para las 14:30 horas donde mostrarías un PPT con 546 slides.

Lo peor de todo es que la información, muchas veces, es relevante. Y cae en el infértil terreno de alguien que puso su atención en el Candy Crash o en Facebook en vez de mirar el PPT que con tanto esfuerzo preparaste.

¿Cómo evitar la Muerte por Powerpoint que está afectando al mundo contemporáneo? Pon atención a estos consejos:

El art{iculo completo en:

Revista Xy

12 de enero de 2015

Las células "teledirigidas" podrían ser el futuro para tratar las diabetes




¿Y si pudiéramos controlar el comportamiento de nuestras células a distancia de la misma forma que controlamos, por ejemplo, un coche teledirigido utilizando radiocontrol? Aunque suene a ciencia ficción, esto es algo que ya está probando un grupo de científicos del Rensselaer Polytechnic Institute en ratones, con el fin de llegar a un resultado aplicable a humanos para el tratamiento de la diabetes.


El proceso es relativamente simple de entender: basta con inyectar un gen con nanopartículas magnéticas cerca de los que se encargan de gestionar la insulina. La idea es que una señal electromagnética excite dicho gen y, con él, incitar a que se comience la producción de la insulina de los cercanos. Por ahora, como decimos, están en fase de pruebas con ratones pero aseguran haber conseguido resultados esperanzadores.

En el futuro, los investigadores esperan que estos métodos puedan aplicarse a otras enfermedades (como el Parkinson, ayudando a liberar la dopamina) y, quién sabe, puede que llegue un día en el que un enfermo de diabetes tan sólo tenga que activar un botón en una app de su móvil para hacer que la insulina comience a fluir por su cuerpo.

Fuente:

Xakata Ciencia

Ocho países son responsables de más de la mitad del deterioro del planeta

El 1% de la Tierra concentra la mayor pérdida global de biodiversidad

Australia, China, Colombia, Ecuador, Indonesia, Malasia, México y Estados Unidos son los grandes culpables de los problemas de conservación de aves, mamíferos y anfibios

Toda la Tierra tiene una superficie de más de 500 millones de kilómetros cuadrados. Y en menos del 1% de esa extensión se está produciendo en estos momentos la mayor pérdida de biodiversidad del planeta. En apenas un puñado de ecorregiones se concentra más del 50% del deterioro global en el estado de conservación de aves, mamíferos y anfibios. Es la conclusión más llamativa del primer estudio que analiza a escala planetaria cómo se están empleando los países y regiones a la hora de cumplir con sus responsabilidades en materia de biodiversidad.

No son pocas las señales de que nos encaminamos hacia la sexta gran extinción de especies de la historia del planeta, y este estudio señala una culpabilidad mancomunada de todas las naciones. Prácticamente todos los países del mundo han contribuido de forma negativa en la tendencia de los animales vertebrados dentro del reconocido índice de la Lista Roja, que se dedica a analizar científicamente el riesgo de desaparición de las especies. Sin embargo, la mayor parte del daño se concentra en ocho países —Australia, China, Colombia, Ecuador, Indonesia, Malasia, México y Estados Unidos—, que son responsables de más de la mitad del deterioro global en el estado de conservación de la fauna.

El artíulo completo en:

El País (Espña)

9 de enero de 2015

Descubierto un proceso que rejuvenece el sistema inmunitario

La activación de los linfocitos puede ayudar a tratar infecciones o cánceres.



El sistema inmunitario —las defensas del organismo— también envejece. En concreto los linfocitos T, que son clave en la detección de organismos extraños para su posterior eliminación, van perdiendo sus propiedades con el tiempo, lo que explica, por ejemplo, por qué las personas mayores son más propensas a adquirir infecciones. El proceso por el que esto ocurre ha sido descrito por un equipo liderado por David Escors, del organismo de investigación Navarrabiomed,  lo que permite pensar en trabajar para revertirlo. Lo han publicado en Nature Immunology. 
El proceso de envejecimiento es más rápido de lo que se piensa. El propio Escors, que midió su sistema inmunitario como parte del trabajo, tenía entre un 35% y un 40% de sus linfocitos T envejecidos a los 37 años, cuando fue analizado (ahora tiene 40).
En el proceso están involucradas varias rutas (el gen p38, la AMPK), lo que ofrece distintas alternativas para actuar sobre ellas. La idea es reactivar el sistema inmunitario para fortalecerlo cuando surge una infección o para activarlo en inmunoterapias contra el cáncer, por ejemplo. De hecho, ya hay fármacos que actúan sobre el p38 (presente en algunos tipos de cáncer). 
El artículo completo en:

8 de enero de 2015

Los cereales más antiguos

¿Le gustaría probar un saludable grano del tipo encontrado en la tumba del Rey Tutankamón? ¿O quizás darse banquete con semillas que, se dice, fueron almacenadas en el arca de Noé?
¿Y que tal un sorbo de vodka hecho a base de quinoa, el tradicional cereal boliviano?
Si esto le abre el apetito, no está solo.
En los últimos cinco años se ha registrado una explosión en la popularidad de los llamados "granos antiguos" en el mercado estadounidense.

Siembra de quinoa en Bolivia
En los campos de Bolivia se cultiva el grano de quinoa, que es una proteína completa, ya que tiene todos los nueve aminoácidos esenciales. De los antiguos es el más conocido.

Muchos de ellos, como la quinoa de Bolivia y el teff de Etiopía, se han cultivado de la misma manera desde hace miles años.
"En un sentido positivo, ha sido como una tormenta perfecta para estos granos", explica Cynthia Harriman, directora de alimentos y estrategias nutricionales de Whole Grain Council, una organización no gubernamental estadounidense dedicada a la promoción de la alimentación saludable y el consumo de cereales.
"Encajan con nuestro deseo de encontrar una súper comida, una bala mágica que deberíamos comer", le dice Harriman a la BBC.
Los granos antiguos son percibidos como lo opuesto al trigo, aún cuando hay tres que son cepas antiguas de él - espelta, escanda y farro - y a menudo son más refinados.

Amaranto
El amaranto fue consumido por los aztecas y es un grano libre de gluten. Se le puede apreciar en los puntos morados que se ven en algunas tortillas.

Son apreciados como más saludables, naturales y beneficiosos para el consumo, dado que poseen más vitaminas, minerales, fibras y proteínas que el trigo moderno, y rara vez son consumidos en su forma procesada.

El artículo completo en:

La ciencia detrás de la fabricación de cerveza


 Al atravesar un túnel frío y húmedo en una zona industrial en el sureste de Londres, encontramos una fábrica de tradicional cerveza británica.
Pero lo que vemos no es, como pudiera esperarse, una colección de antiguos edificios decrépitos que recuerdan el pasado inglés.
La fábrica Kernel tiene poco más de cinco años y la cerveza que se produce en este escondite urbano combina las viejas tradiciones con nuevas ideas y un poco de experimentación.
"En nuestro proceso de fabricación empezamos con una hipótesis, experimentamos y luego vemos el resultado", dice Toby Munn, encargado de la elaboración.
"Podemos hacer cosas diferentes. Es divertido".

Botellas en una línea de producción de cerveza
Las fábricas grandes de cerveza cuidan todos los detalles químicos del proceso de elaboración de su producto.

Munn muestra los tanques de fermentación, donde la levadura va convirtiendo gradualmente los azúcares en alcohol a lo largo de varios días, y una habitación llena de barriles franceses que antes se utilizaban para hacer vino.
También hay un laboratorio, no mucho más grande que un vestidor. Pero su tamaño no hace justicia a su importancia. Hacer cerveza se percibe a veces como un arte, pero si produces grandes cantidades, la ciencia es vital.
Ya seas una fábrica de moda como la de Munn o una marca multinacional como Guinness o Budweiser, la clave para tener éxito es un buen análisis científico de tu producto y aplicar procesos químicos inteligentes.
El artículo completo en:

7 de enero de 2015

Desarrollan antibiótico que destruye bacterias sin generar resistencia


Un grupo de investigadores desarrolló un nuevo antibiótico que destruye las bacterias sin que éstas desarrollen resistencia al mismo, según un artículo que publicó hoy la revista científica británica "Nature". 

El compuesto es efectivo frente a los patógenos que han desarrollado resistencia a otros medicamentos. Además, los científicos no observaron que estas bacterias generaran rechazo alguno. Los investigadores, de diversas instituciones universitarias de Alemania y Estados Unidos, bautizaron el nuevo compuesto como "Teixobactin", un producto al que bacterias como los estafilococos o las de la tuberculosis no generan resistencia. Según los expertos que han participado en la investigación, coordinados por el profesor de la universidad Northeastern de Boston (EEUU) Kim Lewis, las propiedades de este compuesto abren el camino para desarrollar nuevos antibióticos que eviten la resistencia. Lewis explicó que la resistencia desarrollada a los antibióticos "está provocando una crisis en los sistemas sanitarios públicos". 

También, el profesor explicó que han probado el compuesto en varios animales infectados y han obtenido resultados esperanzadores. "Este descubrimiento es una fuente prometedora para desarrollar antibióticos en el futuro y una oportunidad para relanzar la investigación en este campo", subrayó Lewis. Respecto a si es posible que los patógenos muestren oposición al antibiótico en el futuro, los científicos reconocieron en su artículo que es "difícil" de predecir, pero que, en caso de ocurrir, podría tardar varias décadas en aparecer. La motivación del estudio, señalan en el informe, es la rápida resistencia que han desarrollado los patógenos para hacer frente a los fármacos. Esta resistencia es más veloz que la introducción de nuevos antibióticos en el proceso clínico, lo que ha provocado una situación de crisis en los sistemas de salud públicos mundiales, aseguran. 

"Teixobactin" mata a las bacterias al destruir las paredes de sus células, un método similar al que ya utilizaba la vancomicina, descubierta en la década de los 50 y contra la que los patógenos no fueron capaces de desarrollar resistencia hasta después de 30 años. El nuevo antibiótico tiene estos efectos positivos frente a las bacterias debido a que combina varios objetivos, por lo que los científicos consideran que la resistencia de los patógenos podría tardar más en aparecer que en el caso de la vancomicina. 

Fuente:

EMOL

¿Queda algún lugar sin contaminar en el planeta?



A donde quiera que uno vaya podrá encontrar basura. 
 
Parece que los seres humanos hemos hecho un meticuloso trabajo a la hora de contaminar los ríos, océanos y la atmósfera en la Tierra. Pero, ¿es posible que quede algún lugar sin polución en nuestro planeta?

Entre unos 1,8 millones y 12.000 años atrás nuestros ancestros consiguieron dominar el arte de hacer fuego.

Los antropólogos suelen citar este punto como el momento que nos permitió convertirnos en humanos, dándonos la oportunidad de cocinar, mantenernos calientes y construir herramientas.

Pero el fuego también marcó otro momento clave: el inicio de la contaminación hecha por el hombre.

La contaminación o polución, por definición, es algo que se introduce en el medio ambiente y que lo afecta de forma negativa.

Mientras que la naturaleza muchas veces produce sus propios contaminantes dañinos, como el humo de los volcanes o las cenizas de los incendios forestales, los humanos somos responsables de la mayor parte de la contaminación que hay en nuestro planeta.

Aun así, el mundo es un lugar grande. ¿Habrá algún recóndito escondite libre de los males de la contaminación?

Para responder a esa pregunta lo mejor es dividir la naturaleza en cuatro grandes reinos: el cielo, la tierra, el agua dulce y los océanos.

El art{iculo completo en:

BBC Ciencia

6 de enero de 2015

¿La tecnología realmente atenta contra la capacidad de tu memoria?

Dos personas entran a un seminario. Una saca fotos y graba video y audio de la presentación, al tiempo que la otra toma notas a mano. ¿Qué persona cree que recordará mejor la información? El primero puede usar sus notas digitales para crear algo nuevo sobre el tema, mientras que para el segundo no será tan fácil.

Aún así, siguen apareciendo investigaciones como una recientemente publicada en la revista Psychological Science. Esta afirma que tomar notas en papel le da a la persona una ventaja al momento de recordar, en comparación con alguien que lo tipea en un computador.

El argumento lleva varios años circulando y usualmente está basado en la idea de que la escritura a mano es lenta y deliberada. Esto le permite al lector un entendimiento más profundo de la información y, por ende, una mayor capacidad para recordar. En contraposición, los conceptos grabados por medio digital, algo que se hace de forma rápida y automática, limitan la comprensión y, en consecuencia, su posterior memorización.

Existen argumentos similares respecto a la capacidad de recordar cosas leídas en una pantalla de smartphone, tableta o e-reader, por ejemplo, en oposición al papel impreso.

Pero, memorizar información, ¿debería seguir siendo una prioridad? 

El articulo completo en:

América Economía
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0