Latest Posts:

Mostrando las entradas con la etiqueta investigaciones. Mostrar todas las entradas
Mostrando las entradas con la etiqueta investigaciones. Mostrar todas las entradas

30 de abril de 2012

Estudiarán glaciares de Cusco y Áncash para mitigar efectos del cambio climático

Los glaciares de las subcuencas de Santa Teresa del Cusco y Chucchún de Áncash serán investigados a fin de generar conocimiento científico que permita adoptar medidas para mitigar los efectos del cambio climático, informó hoy la Autoridad Nacional del Agua (ANA).
 
ANDINA/Difusión
ANDINA/Difusión
El estudio forma parte del proyecto Glaciares 513, que es dirigido y financiado por la Agencia Suiza para el Desarrollo y la Cooperación (Cosude), en coordinación con la ANA. El ente ejecutor es el consorcio Care Perú-Universidad de Zurich.

Hugo Jara Facundo, jefe de la ANA y presidente del Comité Técnico del proyecto Glaciares 513, indicó que el objetivo del trabajo es fortalecer las capacidades técnico-operativas para el monitoreo e investigación de glaciares en el país.

Asimismo, generar conocimiento científico en glaciología para informar a las comunidades con miras a facilitar su adaptación al cambio climático que provoca el retroceso de los glaciares.

Las acciones se implementarán en el distrito cusqueño de Santa Teresa, así como en la provincia de Carhuaz y el distrito de Acopampa, en Áncash.

El proyecto Glaciares 513 demandará un presupuesto de tres millones 911 mil francos suizos (aproximadamente 12 millones 453 mil nuevos soles), que será aportado por la Cooperación Suiza. Comprende tres niveles de acción: local, académico e institucional.

A nivel local se desarrollarán estudios de línea base y de factibilidad de sistemas de alerta temprana y proyectos multiuso de adaptación al cambio climático.

A nivel académico habrá cursos de posgrado en glaciología y cambio climático en las universidades Santiago Antúnez de Mayolo (Áncash), San Antonio de Abad (Cusco) y Agraria La Molina (Lima).
En el nivel institucional tendrá como meta fortalecer la Unidad de Glaciología y Recursos Hídricos de la Autoridad Nacional del Agua.

El proyecto fue presentado en el museo de la Casa Concha del Cusco y contó con la presencia de representantes de la ANA, la Cooperación Suiza, Care Perú, la Universidad de Zurich, gobierno regional, Universidad Nacional San Antorio Abad y otras instituciones cusqueñas.

Fuente:

Agencia Andina

29 de marzo de 2012

¿La aspirina reduce el riesgo de cáncer?

Molécula de ácido acetil salicílico
Que la aspirina reduce el riesgo de cáncer es algo que parecía probable y que se ha discutido en más de una ocasión. Pero no existían suficientes datos para asegurarlo con certeza. Hoy se han publicado tres estudios que aportan más datos para responder a esta pregunta. La conclusión de estos artículos es que, al parecer, el tomar bajas dosis de aspirina diariamente durante un largo periodo de tiempo, ayuda a prevenir la aparición de cáncer (disminuyendo también el número de muertes por cáncer), así como que el cáncer se propague (aparición de metástasis).

Lo primero, decir que la “Aspirina” es un nombre comercial del principio activo llamado Ácido Acetil Salicílico, que se lleva usando como analgésico durante más de 100 años. Además, en pequeñas dosis se utiliza para el tratamiento y prevención de problemas vasculares como los infartos. Sobre el uso de la aspirina en enfermedades vasculares hay bastantes estudios clínicos y varios de esos estudios han sido la base para la publicación de estos artículos sobre el efecto de la aspirina en cáncer.

Previamente se habían publicado varios artículos en los que se concluía que la aspirina reducía la incidencia de cáncer de colon. Más concretamente en uno de ellos se analizaron los datos de 5 ensayos clínicos sobre el uso de la aspirina en prevención de problemas vasculares donde mostraban que un tratamiento diario con aspirina reducía el riesgo de cáncer de colon un 24% y la mortalidad asociada a este tipo de cáncer en un 35% después de 8-10 años. En estos nuevos estudios se han analizado los datos de 43 ensayos clínicos más y se ha tenido en cuenta el efecto en todo tipo de cánceres de los que hubiera datos suficientes.

Así, han visto que en general la aspirina (tomada diariamente) reduce la aparición de cáncer en un 25% pero sólo después de 3 años de empezar el tratamiento, y este hecho era independiente de la edad, del sexo o de si se fumaba o no. Sin embargo la reducción en las muertes por cáncer sólo aparecía después de 5 años pero era de un 40%.

En este tipo de tratamientos un elemento a tener en cuenta es la toxicidad del medicamento y la aspirina tiene un problema: produce sangrados. También estudiaron esta toxicidad y vieron, que aunque los sangrados aumentaban en los primeros 3 años del tratamiento, después la aparición de los mismos disminuía y el riesgo de que aparecieran a partir de ese momento era el mismo o menor que si las personas no estuvieran tomando la aspirina.

La aparición de los sangrados ocurre porque la aspirina bloquea una enzima llamada COX-1 en las plaquetas haciendo que la agregación de las mismas disminuya y aumente el tiempo de sangrado. Debido a este efecto y a que los cánceres se propagan por la sangre generando metástasis, en otro de los estudios analizaron el efecto de la aspirina en la prevención de esta propagación. Y efectivamente comprobaron que la administración de aspirina reducía la propagación de los cánceres (aparición de metástasis), aunque había diferencias dependiendo de dónde aparecieran los nuevos tumores. Un dato interesante es que este efecto se veía incluso en pacientes a los que se les había diagnosticado el cáncer poco después de haber empezado el tratamiento, reforzando así el papel de la aspirina en la prevención de la propagación del cáncer.


Reduccion de la aparicion de diferentes tipos de metastasis. Modificado de Rothwell et al

Todavía quedan muchos datos por analizar en este tema y ya hay varios ensayos clínicos en marcha para estudiar el efecto de la aspirina en la prevención del cáncer como primer objetivo. Además, hay que entender cuál es el mecanismo por el que la aspirina produce estos efectos y tener en cuenta que otros ensayos clínicos en los que la administración de la aspirina no era diaria, sino en días alternos, no han mostrado ningun efecto de la misma sobre la aparición de cáncer.

Por esto no hay que empezar a tomar aspirina por si acaso, ya que hay personas en las que puede estar totalmente contraindicada. Como dicen los anuncios de medicamentos: consulte a su médico. Cualquier tipo de tratamiento siempre tiene que estar bajo la supervisión de un especialista, aunque con estos estudios los médicos tienen más datos para poder utilizar la aspirina como tratamiento para la prevención de ciertos tipos de cáncer.



Referencias:

Rothwell PM, Wilson M, Elwin CE, Norrving B, Algra A, Warlow CP, & Meade TW (2010). Long-term effect of aspirin on colorectal cancer incidence and mortality: 20-year follow-up of five randomised trials. Lancet, 376 (9754), 1741-50 PMID: 20970847

Rothwell, P., Price, J., Fowkes, F., Zanchetti, A., Roncaglioni, M., Tognoni, G., Lee, R., Belch, J., Wilson, M., Mehta, Z., & Meade, T. (2012). Short-term effects of daily aspirin on cancer incidence, mortality, and non-vascular death: analysis of the time course of risks and benefits in 51 randomised controlled trials The Lancet DOI: 10.1016/S0140-6736(11)61720-0


Fuente:

Caja de Ciencia

16 de diciembre de 2011

EEUU limita el uso de chimpancés en la investigación científica

Un chimpancé camina sobre una cinta de entrenamiento mientras le miden su consumo de oxígeno en un experimento. | C. Wolynsky | PNAS

Un chimpancé camina sobre una cinta de entrenamiento mientras le miden su consumo de oxígeno en un experimento. | C. Wolynsky | PNAS

Un informe del Instituto de Medicina de Estados Unidos (IOM, en sus siglas en inglés) ha recomendado a las autoridades sanitarias que restrinjan la presencia de chimpancés en investigación médicas y reserven estos animales "sólo para aquellos estudios en los que no hay alternativas posibles o la presencia de humanos no fuese ético".

Los Institutos Nacionales de Salud (NIH) de EEUU han anunciado que limitarán el uso de chimpancés en investigación biomédica, revisarán los actuales proyectos y cancelarán temporalmente las becas de estudios que incluyan primates.

El director del NIH, Francis Collins, destacó los beneficios científicos que ha tenido la investigación médica con animales, y subrayó que el uso de chimpancés ya estaba restringido pero, no obstante, señaló que los nuevos métodos permiten otras alternativas.

Los NIH encargó en 2010 un estudio del Instituto de Medicina sobre la necesidad de utilizar chimpancés para la investigación biomédica y cómo trabajar con ellos que ha concluido que, "aunque el chimpancé ha sido un modelo animal útil en investigaciones anteriores, su uso para la investigación biomédica es innecesario".

La única alternativa

Los institutos consideraron que sólo se debe recurrir a ellos en caso de que los conocimientos que resulten de la investigación sean necesarios para mejorar la salud de los ciudadanos y no haya ningún otro método por el que adquirir esos conocimientos.

También es necesario que la investigación no se pueda desarrollar de modo ético en humanos. Además, los animales utilizados deberán mantenerse en entornos adecuados en sus hábitats naturales.

El comité también concluyó que sí se podría seguir la investigación con chimpancés relacionada con terapias de anticuerpos monoclonales, la investigación sobre la genómica comparativa y estudios no invasivos de los factores sociales y de comportamiento que afectan al desarrollo, la prevención o el tratamiento de enfermedades.

Sin embargo, no pudo llegar a un consenso sobre la necesidad de los chimpancés para el desarrollo de la vacuna contra el virus de la hepatitis C profiláctica.

Los parientes más cercanos del hombre

Collins dijo que los NIH aceptarán las recomendaciones del comité, suspenderán temporalmente las becas a la investigación que impliquen el uso de chimpancés y encargarán a un grupo de trabajo que analice los proyectos actuales.

"Los chimpancés son nuestros parientes más cercanos en el reino animal y proporcionan información excepcional en la biología humana, por eso es necesario una especial consideración y respeto", afirmó.

Los Institutos Nacionales de Salud aglutinan 27 centros que forman parte del Departamento de Salud y se encargan, entre otras tareas, de supervisar la investigación médica.

Fuente:

El Mundo Ciencia

17 de octubre de 2011

Descubren el mecanismo genético que da forma a los organismos

Se trata de un proceso de alta precisión, que consiste en la activación progresiva de genes específicos en el desarrollo de cada capa embrionaria.

Los ratones no tienen el rabo en el lomo ni las costillas en la cintura gracias a que su desarrollo embrionario sigue siempre un orden concreto. Científicos de la Escuela Politécnica Federal de Lausanne (EPFL), en Suiza, han descubierto el mecanismo que determina dicho orden, y no sólo en los ratones, sino también en otros animales, e incluso en los humanos: se trata de un proceso genético de alta precisión, que consiste en la activación progresiva de unos genes específicos –los genes Hox- en el momento en que comienza el desarrollo de las capas que componen los organismos. El mecanismo es extremadamente exacto y fiable, y el más pequeño error en él podría dar lugar a nuevas especies, según los investigadores.


Diagrama del mecanismo de formación embrionaria y la relación de ésta con los genes Hox. Fuente: EPFL.

Diagrama del mecanismo de formación embrionaria y la relación de ésta con los genes Hox. Fuente: EPFL.
Los ratones no tienen el rabo en el lomo ni las costillas en la cintura gracias a que su desarrollo embrionario sigue siempre un orden concreto. Científicos de la Escuela Politécnica Federal de Lausanne (EPFL), en Suiza, han descubierto el mecanismo que determina dicho orden, y no sólo en los ratones, sino también en otros animales y en los humanos.

En tan sólo dos días, elementos como las vértebras, las extremidades, las costillas o el cóccix ocupan su sitio en los embriones, con la precisión de un reloj suizo. Intrigados por la extraordinaria fiabilidad de este mecanismo, los biólogos se han preguntado durante mucho tiempo cómo funciona.

Ahora, los investigadores de la EPFL, en colaboración con especialistas de la Universidad de Ginebra (UNIGE) han resuelto el misterio, publica la EPFL en un comunicado.

Cronometraje genético

Durante el crecimiento de un embrión, cada paso se produce en un momento muy específico. En alrededor de 48 horas, los embriones se desarrollan de arriba abajo por capas, en lo que los científicos denominan la segmentación embrionaria.

Uno de los autores de la investigación, el profesor de la EPFL y de la UNIGE, Denis Duboule, explica que “estamos formados por treinta y tantas capas horizontales, que se corresponden más o menos con el número de vértebras que tenemos” (en los seres humanos hay de 33 a 34 vértebras durante la etapa fetal y en la niñez. Durante la etapa adulta sólo hay 24, debido a que los huesos del sacro y el cóccix se sueldan convirtiéndose en un hueso cada uno).

En el desarrollo embrionario, cada hora y media se genera un nuevo segmento. En este proceso, los genes correspondientes a las vértebras cervicales, a las vértebras torácicas, a las vértebras lumbares y al cóccix se activan con exactitud en el momento preciso, uno detrás de otro.

Si este cronometraje no fuera seguido al pie de la letra, los miembros no se colocarían donde deben, afirma Duboule. Pero, ¿cómo saben los genes cómo actuar de una manera tan sincronizada? Los científicos reconocen que aún no comprenden cómo, pero asumen que el ADN juega un papel en este mecanismo.

Fuente:

Tendencias 21

14 de octubre de 2011

Bacterias contra la desertificación

Hoy os traemos este tema tan interesante, que además es el proyecto ganador de la fase regional europea del iGEM 2011 celebrada del 1 al 2 de octubre en Amsterdam. Este equipo es el Imperial College de Londres, formado por 9 alumnos y 7 profesores, y han participado con un proyecto que no sólo lleva una gran base científica sino también una gran preocupación ambiental. Este equipo también fue galardonado con el premio a la mejor wiki, premio que premia la calidad de su página web (http://2011.igem.org/Team:Imperial_College_London). Aquí os contaremos con más detalle cómo pueden las bacterias frenar un problema tan grave como la desertificación. Este es el proyecto “Auxin” del equipo Imperial College de Londres.


Erosión del suelo y desertificación

La desertificación es un gran problema en la actualidad, ya que ocupa un 40% del suelo terrestre, donde viven unos 2 billones de personas, en muchos casos de países en desarrollo. Estos suelos son prácticamente incultivables, por lo que esto lleva a la migración obligada de muchas familias en busca de tierras fértiles, quedando gran parte del suelo inutilizado.

Gran parte de esta desertificación se debe a la erosión del suelo por el viento y la lluvia, que arrastran la capa superior fértil del mismo. Este problema se ve acelerado además con el cambio climático y las técnicas de cultivo abusivas. Generalmente las raíces profundas y bien establecidas de muchas plantas sirven como sujeción de esta tierra, minimizando la erosión de la misma. Sin embargo, en áreas desertificadas las plantas no tienen tiempo suficiente para establecer raíces suficientemente profundas como para sujetar el suelo firmemente antes de que se produzca la erosión del mismo. Este problema es el que han abordado los miembros del equipo Imperial College.

La auxina y el crecimiento de las raíces

Para solucionar este problema, Imperial College se ha centrado en incrementar la velocidad de crecimiento de las raíces de las plantas, de manera que puedan establecerlas con suficiente rapidez como para fijar el suelo antes de que ocurra la erosión. Para ello han creado bacterias que expresan auxina.

La auxina o ácido indol-3-acético (IAA) es una hormona vegetal del crecimiento que, entre otras cosas, estimula el crecimiento de las raíces cuando se expresa en dicha zona. Por lo tanto, consiguiendo unas bacterias que sintetizaran dicha hormona vegetal y la expresaran en las raíces de la planta, se aceleraría el crecimiento de las mismas.

Este ha sido uno de los objetivos del proyecto “Auxin”, que han conseguido con éxito. Para ello han expresado una ruta de producción de auxina, ya presente en la bacteria Pseudomonas savastanoi, en Escherichia coli, la bacteria modelo. Además, también es importante optimizar los niveles de producción de esta hormona, ya que en concentraciones demasiado altas es tóxica para la planta.

Todo este sector del proyecto es lo que el equipo ha denominado como Módulo II: Auxin Xpress (expresión de auxina).

Expresión en las raíces

Como hemos dicho, además de que las bacterias expresen la auxina, es fundamental que la expresen en el sitio correcto, es decir, en las raíces. Para ello, Imperial College ha echado mano de un mecanismo muy extendido entre las bacterias móviles: la quimiotaxis.

La quimiotaxis es un fenómeno en el que las bacterias se mueven dirigidamente cuando detectan una sustancia específica. Este movimiento puede ser de acercamiento a dicha sustancia (quimiotaxis positiva) o de distanciamiento de la misma (quimiotaxis negativa).

Este equipo empleó como diana de esta quimiotaxis el malato, un compuesto que es sintetizado comúnmente por las raíces de las plantas y por el que E. coli no se siente generalmente atraída. Imperial College ha diseñado un quimiorreceptor en E. coli que es capaz de detectar malato y dirigir la bacteria hacia este y, consecuentemente, hacia las raíces. Una vez allí, las bacterias son absorbidas dentro de las mismas mediante un mecanismo que fue descrito el año pasado por Paungfoo-Lonhienne et al. [1] y que este equipo cita.

Este apartado engloba lo que denominan Modulo I: Phyto-Route (fito-ruta).

Bioseguridad

Uno de los aspectos fundamentales que se debe tener en cuenta en la creación de organismos genéticamente modificados es la liberación de los mismos en la naturaleza. Al ser estos unos microorganismos que estarían muy expuestos a ser liberados, ya que se encontrarían en las raíces de las plantas en el suelo, este equipo ha diseñado un mecanismo para incrementar la seguridad de este sistema.

Este apartado se ha centrado en evitar la transferencia horizontal de los nuevos genes creados e introducidos en estas bacterias. La transferencia horizontal es un mecanismo natural de las bacterias que les permite intercambiar ADN con otras bacterias que se encuentren en contacto con ellas, no necesariamente de la misma especie. Esto podría suponer un grave problema ya que en el entorno de estas bacterias modificadas habrá otras bacterias que podrían adquirir estos nuevos genes y propagarlos descontroladamente, con resultados imprevisibles.

Para evitar esto, Imperial College ha diseñado un sistema mediante los genes de la holina, la anti-holina y la endosina que impedirán la transferencia horizontal de estos genes a las bacterias circundantes.

Este último apartado es denominado por el grupo Módulo 3: Gene Guard (Guarda de genes).

Por tanto, mediante estos 3 módulos Imperial College ha diseñado un excelente sistema para luchar contra la desertificación que amenaza a la Tierra. Estamos deseando saber que nos traen para Boston.

Yolanda González Flores y Aída Moreno Moral

Tomado del blog:

Bacterias y Genes

Misión antártica buscará formas de vida desconocidas



Una expedición pionera del Reino Unido buscará obtener muestras de un lago antártico que se encuentra bajo más de tres kilómetros de hielo. Los científicos esperan descubrir formas de vida desconocidas hasta ahora y hallar pistas sobre el impacto futuro del cambio climático.

Los expertos utilizarán agua a altas temperaturas para cavar una vía a través del hielo hasta el Lago Ellsworth, que ha permanecido aislado del mundo exterior durante al menos 125.000 años. Alguos científicos estiman que el lago puede estar sepultado desde hace incluso un millón de años.

Un primer grupo de ingenieros partirá rumbo a la Antártica esta semana, con 70 toneladas de equipo.

La expedición espera ser la primera en el mundo en obtener muestras de un lago subglacial.

Avión en la Antártida Foto SPL

Unas 70 toneladas de equipo serán transportadas por aire y luego por tierra hasta el Lago Ellsworth.

El proyecto, de un costo cercano a los US$10 millones, fue financiado por el Consejo de Investigaciones sobre el Medio Ambiente, Natural Environment Research Council, del gobierno británico.

"Buscaremos formas de vida en el lago Ellsworth y registros climáticos en los glaciares del oeste antártico", dijo a la BBC el investigador principal de la misión, Martin Siegert, de la Universidad de Edimburgo.

"Si tenemos éxito, haremos descubrimientos de gran importancia sobre los límites de la vida en la Tierra y sobre la historia de la Antártida".

Comprender los cambios en los glaciares del oeste antártico es crucial para predecir el impacto del cambio climático, ya que contienen suficiente hielo para elevar el nivel del mar entre tres y siete metros.

Explorar lagos subglaciales también puede ayudar a los científicos a diseñar misiones espaciales, por ejemplo, a una de las lunas de Júpiter, Europa, que según se cree contiene un océano líquido bajo una capa gruesa de hielo.

Derribando límites

El Lago Ellsworth tiene 10kms de longitud y cerca de tres kms de ancho y se encuentra en un valle en la superficie rocosa de la Antártida, bajo tres kilómetros de hielo.

El agua del lago es líquida, debido a fuentes de calor geotérmico desde el interior de la Tierra.

Mapas realizados con radares revelaron que el lago tiene un fondo que no es totalmente sólido, lo que indicaría una gruesa capa de sedimentos.

Taladro para abrir un orificio en el hielo Foto BAS

Se utilizará agua a 97 grados centígrados para abrir un orificio en el hielo.

Pero llegar hasta el lago para extraer muestras es una misión arriesgada que pone a prueba los límites de la ingeniería.

Una boca que dispara agua caliente fue colocada en la punta de una manguera de 3,2 kilómetros.

Cerca de 90.000 litros de agua serán obtenidos calentando y filtrando hielo en la propia Antártica.

El taladro disparará agua a 97 grados centígrados y perforará en el hielo un orificio de unos 36 cms de diámetro hasta alcanzar el lago.

Esa vía será utilizada luego para hacer descender una sonda de cinco kms que llevará 24 recipientes para recoger muestras del agua a distintas profundidades. La sonda también llevará luces y una cámara de video de alta definición.

Gran parte del equipo fue diseñado y construido en el Centro Nacional de Oceanografía, en la ciudad de Southampton, en Inglaterra, bajo la supervisión de Matt Mowlem.

"Se trata de un entorno totalmente desconocido. No sabemos, por ejemplo, si hay gases disueltos en el agua", dijo Mowlem a la BBC.

"Tomaremos muestras del agua a una presión de 300 atmósferas, pero cuando comencemos a retirar la sonda y los recipientes entren en contacto con el aire frío, la presión puede alcanzar las 2.700 atmósferas, un nivel que supera todos los experimentos en ingeniería oceánica".

Una vez que la sonda sea retirada se hará descender otro mecanismo peforador para obtener muestras del lecho del lago, en una verdadera carrera contra el tiempo.

El agua en los extremos del orificio comenzará a congelarse reduciendo progresivamente su tamaño. Siegert estima que deberán recoger todas las muestras en una ventana de 24 horas antes de que el agujero en el hielo se vuelva demasiado pequeño.

Diagrama de la misión hasta el Lago Ellsworth Imagen Subglacial Lake Ellsworth Consortium

1. Con agua a 97 grados centígrados se cavará una vía de tres kilómetros de profundidad hasta el Lago Ellsworth. Los científicos tienen 24 horas para recoger las muestas antes de que el orificio comience a cerrarse.

2. Se harán descender recipientes para obtener muestras del agua.

3. Otro aparato recogerá posteriormente muestras del sedimento en el lecho del lago.

Lea el artículo completo en:

BBC Ciencia

Contenido relacionado

27 de septiembre de 2011

Google cumple 13 años y estas son sus 10 áreas de mayor aportación a la ciencia

Google asaltó nuestras vidas hace tan poco tiempo que, creo, aún no tenemos suficiente perspectiva histórica para evaluar las consecuencias. Eso sí, tenemos números duros que dan cuenta de la pisada gigantesca de la empresa, como sus miles de servidores web basados en Linux, sus petabytes de información indexada, sus gastos energéticos, etc. Sin embargo, poco se habla de su aportación a la ciencia. Pero, ¿cómo medirla? En la práctica tenemos varias métricas. En lo que respecta a este post usaré un parámetro cuantitativo: el número de artículos científicos, o papers, publicados por área. Y aquí los tienen:

  1. Algoritmos y teoría: 221 artículos
  2. Aprendizaje de máquina: 180 artículos
  3. Procesamiento de lenguaje natural: 140 artículos
  4. Sistemas distribuidos y cómputación paralela: 141 artículos
  5. Percepción de máquina: 116 artículos
  6. Seguridad, Criptografía y Privacidad: 112 artículos
  7. Inteligencia artificial y minería de datos: 97 artículos
  8. Interacción Hombre-Máquina y Visualización: 96 artículos
  9. Obtención de información: 75 artículos
  10. Ingeniería de software: 61 artículos

Para quienes no lo sepan, cuando un artículo científico es aceptado y publicado (en revistas científicas, journals, conferencias, entre otros medios), es porque ha pasado por el escrutinio riguroso de varios árbitros expertos en el tema. Y antes siquiera de ser enviado, el artículo involucra meses de investigación de uno o más personas de uno o más grupos de investigación, según la dificultad. En particular, esos números corresponden a la investigación de los googlers a la fecha.

Más allá de los números, ¿qué tipo de conocimiento genera Google? Uno pensaría que está dirigido a sistemas distribuidos y web. Y es cierto a decir por sus productos. Pero el conocimiento de base es, por mucho, algorítmico. Algoritmos para hacer de todo encima de Internet y la Web. Entre ellos algunos vinculados directamente con la publicidad en línea, con todo y sesudos modelos matemáticos, que pongo aquí sólo para ejemplificar:

  • Adapting Online Advertising Techniques to Television
  • Incremental Clicks Impact Of Search Advertising
  • Advertising and Traffic: Learning from online video data

Aunque con un punto de vista más general, son cuatro las grandes áreas de conocimiento que sostienen Google: Inteligencia artificial, ingeniería de software, seguridad y sistemas distribuidos. Desde mi punto de vista, Google vive de la inteligencia artificial, área a la que pertenece su algoritmo fundacional, el PageRank. Así que es natural encontrar esa cantidad de papers sobre aprendizaje y percepción de maquina, seguramente aplicados a sus bots, y los de procesamiento de lenguaje natural que sugieren que Google tiene como prioridad expandir hacia allá su interfaz de búsqueda con voz, nuestra voz.

Google, como cualquier gran empresa de tecnología que se precie de serlo, genera conocimiento a lo largo del tiempo. Lo llevan haciendo así los gigantes IBM y Bell Labs desde el siglo pasado. Este es el total de artículos de aquellas y otras áreas repartidos por año:

  • 2011, 183
  • 2010, 257
  • 2009, 303
  • 2008, 251
  • 2007, 209
  • 2006, 130
  • 2005, 56
  • 2004, 17
  • 2003, 13
  • 2002, 5
  • 2001, 5
  • 2000, 3
  • 1999, 2
  • 1998, 3

Ciertamente, su producción científica aumentó con escala exponencial, aunque, por alguna razón, bajo un poco los últimos dos años (a tomar en cuenta que faltan datos de 2011). Como sea, no hay visos de que la maquinaría de la gran G se detenga, por el contrario, se nota bien afinada por docenas de doctores en ciencias en cada piso de su Googleplex.

Google contrata genios de vez en cuando para dirigir su grupos de investigación. Y es un ejemplo de que el capital más importante está en el conocimiento generado y el potencial, que está por venir. Quién sabe, tal vez en menos de 10 años Google tendrá su primer Nobel. Habrá que verlo. En tanto, espero que lo datos referidos aquí nos ayuden a dimensionar mejor sus aportaciones a la ciencia.Enlace

Fuente:

ALT 1040

23 de septiembre de 2011

La separación de niños y niñas en las aulas fomenta el sexismo y refuerza los estereotipos

Un estudio en EEUU se decanta por los colegios mixtos.

Dos estudiantes en un colegio mixto en EEUU. | D. F. Halpen.

Dos estudiantes en un colegio mixto en EEUU. | D. F. Halpen.

Elegir el colegio en el que estudiarán los hijos es una de las decisiones más importantes para los padres. Además del centro, hay que decantarse por matricularlos en una escuela mixta o bien en un colegio en el que sólo compartan aula con estudiantes de su mismo sexo.

Cada opción tiene partidarios y detractores y, aunque se trata de una decisión personal que deben tomar los progenitores, en los últimos años diversos estudios científicos han respaldado una u otra opción. La última investigación, publicada esta semana en la revista 'Science', se decanta por los colegios mixtos y refuta algunas de las ventajas que suelen atribuirse a las escuelas que separan a sus alumnos por sexos.

El objetivo del artículo, denominado 'La pseudociencia de la escolarización por sexos ('The Pseudoscience of Single-Sex Schooling'), es ofrecer a los padres mayor información a la hora de tomar esta importante decisión. Según destacan los autores, en los últimos años los colegios de un solo sexo en EEUU están ganando popularidad. Más de 500 centros públicos en este país ofrecen ya a los padres esta opción.

Sexismo institucional

El estudio, realizado en EEUU, sostiene que la segregación en las aulas fomenta el sexismo entre los niños y refuerza los estereotipos de género. Los investigadores, liderados por Diane F. Halpern, del Claremont McKenna College (California), señalan que este tipo de colegios legitiman el sexismo institucional.

Además, aseguran que ir a clase con personas del mismo sexo no mejora los resultados académicos, como defienden los partidarios de separar a niños y niñas en la escuela. Para demostrarlo, citan un informe realizado por el Ministerio de Educación de EEUU para comparar los resultados académicos en centros mixtos y de un sólo sexo. El estudio concluyó que el rendimiento de los alumnos era muy similar en los dos tipos de colegios. Conclusiones similares, aseguran los investigadores, se han obtenido en estudios parecidos y a gran escala llevados a cabo en Reino Unido, Canadá, Australia y Nueva Zelanda.

Diferencias en el cerebro

El estudio hace referencia también a otras investigaciones en el campo de la neurociencia que no han encontrado pruebas de que las diferencias en los cerebros de chicos y chicas justifiquen el uso de distintos métodos de enseñanza. Las diferencias halladas en la estructura cerebral de niños y niñas, señalan, no tienen relación con el aprendizaje.

También destacan la existencia de polémicos artículos publicados por docentes en revistas para profesores que defienden la necesidad de escolarizar por separado a niños y a niñas, esgrimiendo diferencias, por ejemplo, en sus sistemas nerviosos. Uno de los trabajos citados es un artículo de Leonard Sax, director de la asociación nacional para la educación pública según el sexo. En él, sugiere que los profesores deben dirigirse a sus alumnos y alumnas de manera distinta. Los chicos, asegura Sax, responderán mejor a un trato enérgico y brusco, mientras que ellas deben ser tratadas de forma más amable. La investigación publicada en 'Science' rebate estas teorías.

Trabajar por la igualdad

"Separar a chicos y chicas en la escuela pública convierte al género en un aspecto muy importante, y esto hace que se refuercen los estereotipos y el sexismo", afirma Richard Fabes, director de la Escuela de dinámicas sociales y familiares de la Universidad de Arizona (USA) y uno de los autores de este estudio.

Y es que, según detectaron, los niños que están en ambientes donde los individuos son etiquetados y segregados en función de sus características físicas, ya sea el género, el color de sus ojos o la camiseta que llevan, se comportaban de manera diferente.

Richard Fabes se pregunta si sería admitible que los estudiantes fueran separados en la escuela en función de su raza o de sus ingresos. "No hay pruebas que demuestren los buenos resultados de separar y segregar. Cualquier forma de segregación mina la igualdad en lugar de promoverla", concluye.

Fuente:

El Mundo Ciencia

22 de agosto de 2011

¿Puede la vida evolucionar a partir de un código químico diferente?

Artículo publicado por Clara Moskowitz el 18 de agosto de 2011 en SPACE.com

Toda la vida de la Tierra se basa en un conjunto estándar de 20 moléculas, llamadas aminoácidos, para construir las proteínas que llevan a cabo las acciones esenciales de la vida. Pero, ¿tiene que ser así?

Todas las criaturas vivas de este planeta usan los mismos 20 aminoácidos, a pesar de que hay cientos disponibles en la naturaleza. Por tanto, los científicos se han preguntado si la vida podría haber surgido sobre la base de un conjunto diferente de aminoácidos.

Molécula de ADN, Universidad de Oxford © Crédito net_efekt


Y es más, ¿podría existir la vida en otros lugares, utilizando un conjunto alternativo de bloques básicos?

“La vida ha estado utilizando un conjunto estándar de 20 aminoácidos para construir proteínas desde hace más de 3 mil millones de años”, dijo Stephen J. Freeland del Instituto de Astrobiología de la NASA en la Universidad de Hawái. “Cada vez está más claro que muchos otros aminoácidos fueron posibles candidatos, y aunque ha habido especulaciones, e incluso suposiciones, sobre qué creaba la vida, se ha avanzado muy poco en el camino de las hipótesis comprobables”.

Así Freeland y su colega de la Universidad de Hawái Gayle Philip K. idearon una prueba para tratar de saber si los 20 aminoácidos de la vida en la Tierra fueron escogidos al azar, o si eran los únicos posibles que podrían haber hecho el trabajo.

Los aminoácidos son moléculas formadas principalmente por carbono, hidrógeno, oxígeno y nitrógeno. Se unen en formas y patrones concretos para formar moléculas más grandes denominadas proteínas que realizan funciones biológicas.

“Técnicamente hay una infinita variedad de aminoácidos”, dijo Freeland a Astrobiology Magazine. “Dentro de ese infinito que hay muchos más de los 20 que estaban disponibles [cuando se originó la vida en la Tierra] en la medida de lo que podemos decir”.

Poniendo a prueba las posibilidades

Los investigadores definieron un conjunto probable de aminoácidos candidatos del que la vida tomó 20. Comenzaron con los aminoácidos que se han descubierto en el meteorito Murchison, una roca espacial que cayó en Murchison, Victoria, en Australia en septiembre de 1969.

La roca se cree que data de los inicios del Sistema Solar, y que representa una muestra de los compuestos existentes en el Sistema Solar y en la Tierra antes de que comenzara la vida.

Entonces, los científicos utilizaron computadoras para calcular las propiedades fundamentales de los 20 aminoácidos usados por la vida, tales como el tamaño, la carga y la hidrofilia, o el grado en que las moléculas se ven atraídas por el agua.

“Sabemos que éstas tres son importantes para la forma en que se construyen las proteínas”, dijo Freeland.

Freeland y Philip analizaron si estas propiedades se podrían haber logrado con la misma cobertura y eficiencia con otras combinaciones de 20 aminoácidos. Los investigadores descubrieron que la vida, aparentemente, no eligió sus 20 bloques al azar.

“Hallamos que sería muy poco probable que sólo el azar escogiera un conjunto de aminoácidos que superase a la elección de la vida”, dijo Freeland.

Selección natural

De hecho, los investigadores piensan que la vida primitiva en la Tierra probablemente usó una versión de la selección natural para elegir estos aminoácidos. Probablemente se intentaron algunas combinaciones de otros aminoácidos, pero ninguna demostró encajar tan bien, por lo que ninguna otra combinación terminó produciendo una progenie tan exitosa como la lograda por el conjunto existente.

“Aquí nos encontramos con una prueba muy sencilla que empieza a mostrarnos que la vida sabía exactamente lo que estaba haciendo”, dijo Freeland. “Esto es consistente con la idea de que la selección natural estaba en marcha”.

Abordar la pregunta de por qué la naturaleza escogió los 20 aminoácidos es experimentalmente difícil, dijo Aaron Burton, Miembro del Programa Posdoctoral de NASA que trabaja como astroquímico en el Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland.

“A pesar de que una serie de experimentos han demostrado que los aminoácidos no naturales pueden incorporarse al alfabeto genético de los organismos, puede que nunca sea posible simular experimentalmente suficientes periodos de tiempo evolutivo para comparar realmente alfabetos de aminoácidos alternativos”, dijo Burton, quien no participó en el nuevo estudio. “Como resultado, estudios como los presentados por Philip y Freeland ofrecen perspectivas interesantes y proporcionan un marco de trabajo para la formulación de hipótesis que pueden ponerse a prueba realmente en el laboratorio”.

Aminoácidos en meteoritos

En este momento la carrera se centra en encontrar directamente aminoácidos en el resto del sistema solar. Algunas pistas de su abundancia se han encontrado en los meteoritos que han caído en la Tierra desde el espacio exterior, así como en misiones, tales como la sonda Stardust de la NASA, que tomó muestras de la coma del cometa Wild 2 en 2004.

“Todo parece indicar que se van a encontrar aminoácidos en toda la galaxia”, dijo Freeland. “Aparentemente, son los bloques de construcción obvios con los que crear la vida. Lo que hemos encontrado apunta a un cierto nivel de previsibilidad sobre cómo sucedieron las cosas”.

La cuestión de la caja de herramientas de aminoácidos de la vida es interesante no sólo para tratar de rastrear el origen de la vida en la Tierra, sino en preguntarse si existe vida en otros planetas, y si es así, la forma que adopte. Los científicos sienten una especial curiosidad sobre cómo un distinto conjunto de bloques básicos de aminoácidos daría lugar a diferentes características de la vida que crea.

“Ésta es la pregunta más importante de todas”, dijo Freeland. “Estamos tratando de encontrar una manera de preguntar, si se cambia el conjunto de los aminoácidos con los que estamos construyendo, ¿qué efecto tiene en las proteínas que se pueden crear? Lo más interesante, es que nadie lo sabe”.

Philip y Freeland informaron de sus hallazgos en un artículo publicado el 19 de abril número de la revista Astrobiology.

Tomado de:

Ciencia Kanija

20 de agosto de 2011

Descubren planta que absorbe arsénico en tierras altamente contaminadas


En el mundo existen diferentes plantas que logran limpiar zonas contaminadas. Son conocidas como fitorremediadoras, por su capacidad de absorber, acumular y/o tolerar altas concentraciones de metales pesados, compuestos orgánicos y radioactivos. Un grupo de investigadores de la Facultad de Química y Biología de la Universidad de Santiago de Chile, encabezados por del Dr. Óscar Díaz, descubrió una especie chilena fitorremediadora que actúa contra el arsénico: el Lupinus microcarpus.

Desde 1997, un grupo de investigadores de la Usach, liderados por el Dr. Óscar Díaz, lleva adelante una línea de investigación sobre la ingesta de arsénico en poblaciones de la Región de Antofagasta. El equipo pudo determinar los elevados niveles de arsénico que se presentaban, tanto en los alimentos como en el agua. Algo no menor, ya que se trata de un elemento tóxico que puede causar graves efectos en la salud, como irritación del estómago, disminución en la producción de glóbulos rojos y blancos, cambios en la piel, e irritación de los pulmones, e incluso cáncer.

Después de obtener los primeros resultados, una de las medidas tomadas por el grupo, en conjunto con Codelco, fue solucionar el problema del agua mediante la instalación de una Planta de Abatimiento de Arsénico. “La pregunta era cómo arreglábamos el problema de los alimentos, porque estábamos hablando de una producción local agrícola que afectaba a alrededor de trece productos”, precisa el Dr. Díaz, sobre la principal motivación para iniciar un reciente estudio con plantas autóctonas de la Región y saber si alguna actuaba como fitorremediadora.

Trabajaron con tres especies: Pluchea absinthioides, Atriplex atacamensis y Lupinus microcarpus. Esta última, fue la que mejor respondió al objetivo de la investigación porque tiene la particularidad de absorber el arsénico del suelo, acumulándolo en sus hojas para, posteriormente, devolverle nitrógeno a la tierra.

Actualmente, la apuesta es fomentar que el Lupinus se plante en la zona destinada a cultivos para que limpie y reduzca los niveles de arsénico. El investigador Usach plantea que la utilización de esta metodología en los suelos del norte, podría generar ganancias para la agricultura de la zona.

Fuente:

El Ciudadano (Chile)

6 de abril de 2011

Blanquear las nubes podría empeorar el cambio climático

El blanqueamiento de nubes es parte de las estrategias conocidas como "geoingeniería".

La novedosa técnica de blanquear las nubes rociándolas con agua de mar, que hasta ahora era vista como una posible "solución técnica" para el cambio climático, podría traer más daños que beneficios, de acuerdo con una nueva investigación.

Las nubes más blancas reflejan más energía solar que rebota hacia el espacio, enfriando la Tierra.

También llamadas "nubes de sal", el procedimiento se logra rociando las nubes con sal marina para volverlas más reflectivas.

Pero un estudio presentado esta semana durante la reunión de Geociencias de la Unión Europea, explica que el uso de gotas de agua del tamaño incorrecto daría lugar al calentamiento, no al enfriamiento del planeta.

Uno de los padres de esta teoría científica dijo que habría que cerciorarse de que las gotas fueran del tamaño correcto.

La técnica del blanqueamiento de nubes fue propuesta originalmente en 1990 por John Latham, que ahora trabaja para la Corporación Universitaria para la Investigación Atmosférica, en Boulder, Estados Unidos.

Cómo funciona

Blanquear las nubes

Nubes blancas
  • Se ha calculado que un aumento modesto en la reflectividad de las nubes marinas, podría equilibrar el calentamiento producido por una duplicación del dióxido de carbono en la atmósfera
  • Las mejores zonas para el blanqueamiento de nubes serían justo al oeste de Norte y Sur América, y al oeste de África

Desde entonces, la teoría ha sido desarrollada por un número de otros investigadores, uniéndose a una serie de técnicas de geoingeniería que intentan reducir la radiación solar que llega a la tierra, así como absorber el dióxido de carbono del aire.

clic Lea también: ¿Nubes de sal o espejos en la Luna?

Una versión de estas técnicas prevé diseñar buques que sean movidos por el viento, capaces de operar en zonas del océano donde sean escasas las nubes estratocúmulos.

Estos barcos se encargarían de lanzar continuamente chorros de finas gotas de agua de mar al cielo, donde los pequeños cristales de sal actuarían como núcleos en torno a los cuales el vapor de agua se condensa, produciendo nubes o engrosando las ya existentes.

Esta técnica de crear nubes no ha sido probado en la práctica, aunque los autores sugieren que debería hacerse.

Oeste de América Latina

Pero Kari Alterskjaer, de la Universidad de Oslo en Noruega, presentó una advertencia a esta supuesta teoría revolucionaria.

gotas de lluvia

Las perspectivas de la técnica dependen de cómo afecta el tamaño de la gota a la reflectividad.

Su estudio, hecho mediante observaciones a las nubes y un modelo informático del clima mundial, confirma resultados anteriores que proponen que, de hacerse el blanqueamiento de nubes, las mejores zonas serían justo al oeste de Norte y Sur América, y al oeste de África.

Pero la investigadora noruega también concluyó que debería "inyectarse a las nubes" alrededor de 70 veces más sal que lo calculado previamente.

Y usar las gotas del tamaño incorrecto, demostró la investigación, podría reducir la cobertura de nubes en lugar de propiciarla, lo que lleva a un calentamiento neto, no al enfriamiento deseado.

"Si las partículas son muy pequeñas, no blanquearán las nubes, sino que influirán en las partículas que ya están allí, y se desatará una competencia entre ellas", dijo la científica a la BBC.

"Obviamente, el tamaño de las partículas es de importancia crucial, no sólo para conseguir un efecto positivo o negativo, sino para que las partículas logren en realidad alcanzar las nubes, ya que si son demasiado grandes, acabarán cayendo al mar", asegura Alterskjaer.

¿Solución real?

En una época en que muchos científicos están frustrados por el lento progreso en la reducción de las emisiones de gases de efecto invernadero, el blanqueamiento de nubes ha sido puesto como ejemplo de una nueva tecnología que podría lograr una verdadera diferencia, para al menos "ganar tiempo".

Se ha calculado que un aumento relativamente modesto en la reflectividad de las nubes marinas, podría equilibrar el calentamiento producido por una duplicación del dióxido de carbono en la atmósfera.

Sin embargo, incluso los defensores de esta tecnología admiten que no haría nada para luchar contra la otra consecuencia importante de las emisiones de carbono: la acidificación de los océanos.

El científico Piers Forster, de la Universidad británica de Leeds, que lidera un proyecto importante de Reino Unido sobre técnicas de geoingeniería, sugiere que se necesita más investigación antes de poder aplicar el blanqueamiento de nubes.

"El problema es que las nubes son muy complicadas, tan pronto como comiencen a ser manipuladas, ocurrirán una gran cantidad de interacciones diferentes", advirtió.

Además, el especialista sugirió que se debe construir una nave prototipo del inyector de partículas a las nubes, para ver cómo funciona en la práctica.

Fuente:

BBC Ciencia

24 de marzo de 2011

Espermatozoides nacidos en el laboratorio

Investigadores japoneses convierten en el laboratorio células del testículo de ratones en esperma maduro para fecundar.

Espermatozoides nacidos en el laboratorio

Evolución de las células precursoras de espermatozoides a partir del tejido testicular Nature
Para ser padre quizá en unos años no sea necesario contar con espermatozoides fértiles. Bastará con tener una muestra microscópica del testículo y una técnica sofisticada de cultivo permitirá madurar artificialmente en el laboratorio las células de ese tejido hasta convertirlas en esperma maduro y listo para fecundar. Eso es lo que ha logrado un equipo de investigadores japoneses, de momento solo con ratones. Los resultados, con prole incluida, se publican hoy en la revista «Nature».

El avance rompe una barrera hasta ahora infranqueable en mamíferos y abre nuevas posibilidades de tratamiento de la infertilidad masculina, tanto en varones adultos como en niños que se quedan estériles tras el tratamiento de un cáncer. Hoy las técnicas de congelación permiten congelar esperma a los varones diagnosticados con un tumor antes de empezar la quimio y la radioterapia, pero en los niños que aún no han alcanzado la pubertad no existe esa posibilidad. Si la nueva técnica funciona en varones cabría la posibilidad de hacer una biopsia del testículo y congelar el tejido de los niños antes de comenzar el tratamiento oncológico para preservar la fertilidad.

La producción de espermatozoides en mamíferos es un largo y complejo proceso difícil de reproducir fuera de la naturaleza. Se necesita un mes para que las células precursoras de espermatozoides (espermatogonias) se conviertan en esperma fértil en el interior de ese laboratorio natural que son los testículos. El equipo de Takehiko Ogawa de la Universidad de Yokohama (Japón) ha desarrollado un método de cultivo que permite recrear en un cultivo de laboratorio esas mismas condiciones. Las células espermatogonias se convirtieron en espermatocitos, después en espermátides hasta alcanzar el estado de espermatozoide. Con un tratamiento de reproducción asistida después fecundaron a unas hembras que dieron lugar a una prole de ratones sanos y también fértiles.

Para demostrar que el procedimiento podría funcionar en niños en los que se desea preservar su fertilidad, los investigadores japoneses primero congelaron la muestra del testículo durante semanas y realizaron después el proceso.

Fuente:

ABC (España)

18 de marzo de 2011

Escuchar música a todo volumen causa daño cerebral

Foto de la Noticia

Científicos del Instituto para Biomagnetismo y Análisis de Señales Biológicas de la Universidad de Munster, en Alemania, han comprobado que escuchar música regularmente a un volumen muy alto puede ocasionar daños en el cerebro.

En dicha investigación, dirigida por el psicólogo Henning Teismann, se ha medido la actividad neuronal en el córtex auditivo de un total de 13 personas, de entre 20 y 30 años, de los cuales había un grupo que durante años habían escuchado música a un volumen muy elevado.

De este modo, observaron que estos adultos tenían afectada su sistema nervioso en esta región cerebral, ya que presentaban dificultades para filtrar ciertos sonidos cuando había un ruido de fondo y se les intentaba distraer.

"Este déficit puede ser equilibrado si la persona se concentra en mucho en escuchar", explica el investigador. Sin embargo, esta compensación de la falta de capacidad auditiva a través de la concentración no funciona de forma indefinida.

Según explica Teismann, en declaraciones a la 'Detusche Welle', recogidas por Europa Press, estos son los primeros síntomas de las limitaciones que pueden sufrir estas personas en el futuro. "Ya se han detectado en el cerebro", lo que muestra también que "puede haber daños a medio y largo plazo si las personas no cambian sus costumbres".

Este hallazgo se une a otros estudios que se han venido realizando para comprobar los efectos para la salud de la música alta. Así, una investigacuión de la Universidad de Friburgo del año 2009 detectó que la música escuchada por auriculares a partir de 85 decibelios puede provocar severos daños en el sistema auditivo.

Fuente:

Europa Press

El nivel de inteligencia de la población afecta a la marcha de la economía

Los últimos artículo de Tendencias21 dejan mucho que desear, yo era un gran lector de dicha página, aunque nunca comulgué con la sección "tendencias religiosas".

Ahora resulta que hay países con gente más inteligente y países con gente menos inteligente, esas son las grandiosas conclusiones de un estudio norteamericano y dicho estudio encuentra relaciones entre la inteligencia y la productividad. Pero en Conocer Ciencia ponemos tres peros a este estudio:

1) este trabajo mide la inteligencia usando el trístemente célebre CI, instrumento ya desfasado,

2) confunde nivel educativo con inteligencia, el nivel educativo de una nación desarrollada es superior al de una nación subdesarrollada; asimismo ve productividad sólo en la inteligencia de una población despreciando otras variables como el desarrollo de las ciencias en el país, el desarrollo del aparato productivo y las relaciones comerciales con otras naciones,

3) el estudio concluye que la inteligencia, aunque no definen el significado de inteligencia, es el motor de la historia, y esto no es así, científicamente sabemos que es la lucha de clases el aútentico motor de la historia.

Estudios de este tipo son graves para la comprensión objetiva de la realidad porque pueden llevar a pensar que hay países inteligentes y países tontos, que las personas de EEUU y Japón son más inteligentes que las personas de Sierra Leona o Haiti. Este estudio no analiza, o mejor dixho encubre, el proceso de colonización de los Imperios de hoy y ayer, los países coloniales y semicoloniales (que dejaron hace décadas de ser colonias), son los países con la más baja productividad debido a su condición de ser economía dependientes de los países desarrollados que saquean sus riquezas e impiden su industrialización y desarrollo, esta es es la verdad de la milanesa, y estudios de ideología fascista y de dominación intentan negarlo.


Les dejo el artículo completo de Tendencias 21, para su análisis y debate:

Un estudio realizado en 90 países demuestra que las habilidades cognitivas inciden en el PIB

Un grupo de investigadores ha constatado recientemente que ni el mercado ni la política son los únicos factores que determinan la riqueza de un país. Otro factor más tendría una gran importancia en este aspecto: la inteligencia de la población. Los científicos analizaron las puntuaciones en tests de inteligencia de habitantes de 90 países distintos, y constataron que la inteligencia de la población, particularmente del 5% de los más inteligentes de cada país, supone una gran contribución a la fortaleza de las economías nacionales.


Foto: ugaldew. Fuente: Everystockphoto.

Foto: ugaldew. Fuente: Everystockphoto.

Un grupo de investigadores ha constatado recientemente que ni el mercado ni la política son los únicos factores que determinan la riqueza de un país. Otro factor más tendría una gran importancia en este aspecto: la inteligencia de la población.

En un estudio reciente, cuyos resultados saldrán publicados en breve en la revista Psychological Science, de la Association for Psychological Science (APS) de Estados Unidos, los científicos analizaron las puntuaciones en tests de inteligencia de habitantes de 90 países distintos.

De esta forma, constataron que la inteligencia de la población, particularmente del 5% de los más inteligentes de cada país, supone una gran contribución a la fortaleza de las economías nacionales.

Análisis de la habilidad cognitiva

Según publica la APS en un comunicado, en los últimos 50 años, los economistas han mostrado un creciente interés por lo que se denomina el “capital humano”.

Este concepto hace referencia a un hipotético factor de producción: el de la calidad, el grado de formación y la productividad de los individuos involucrados en los procesos productivos. Es decir, contempla las capacidades de las personas que trabajan.

El psicólogo Heiner Rindermann, de la Universidad Tecnológica Chemnitz, de Alemania, quiso investigar más a fondo el capital humano y dentro de este factor, un aspecto concreto, el de la llamada “habilidad cognitiva”.

Según Rindermann: “La habilidad cognitiva es la capacidad que tiene una persona de resolver un problema de la forma más eficiente, sin violencia, razonando”.

Características de la investigación

El estudio fue realizado por Rindermann en colaboración con James Thompson, del University College London, y consistió en la recopilación de información de un total de 90 países muy diversos, como Estados Unidos, Nueva Zelanda, Colombia o Kazakhstan.

Heiner Rindermann. Fuente: Universidad Tecnológica Chemnitz.

Heiner Rindermann. Fuente: Universidad Tecnológica Chemnitz.

Asimismo, los investigadores reunieron información sobre la excelencia de cada una de estas naciones en lo que a ciencia y tecnología se refiere (por ejemplo, considerando el número de patentes concedidas por persona o el número de Premios Nobel ganados en ciencia).

El análisis de todos estos datos reveló que la inteligencia marca una diferencia en el Producto Interior Bruto (gross domestic product o GDP en inglés), que es el valor de todos los mercados y servicios producidos por un país durante un año.

Así, por cada punto incrementado en la media del cociente intelectual (CI) de los habitantes de un país, el PIB per capita era 229 dólares (164 euros) más alta.

Se comprobó asimismo que esta diferencia es aún mayor si el 5% más inteligente de la población es aún más inteligente: por cada punto CI adicional en ese 5% de personas, el PIB per capita del país aumentaba hasta los 468 dólares (335 euros).

Importancia del capital humano

Rindermann explica que: “En una sociedad, el nivel de inteligencia de las personas más inteligentes es importante para la productividad económica”. El investigador cree que esto se debe a que estos individuos: “son relevantes para el progreso tecnológico, la innovación, la organización del país, las organizaciones directivas, las empresas, etc.”.

Desde que el economista y filósofo escocés Adam Smith publicara, en 1776 “La riqueza de las naciones” (primer estudio acerca del proceso de creación y acumulación de la riqueza), muchos economistas han asumido que lo más importante para hacer fuerte una economía son las acciones de los Gobiernos.

Rindermann, en cambio, opina que, en la economía moderna, el capital humano y la habilidad cognitiva son más importantes que la libertad económica.

Pero la inteligencia no sólo es importante para la economía. En un estudio anterior, publicado en 2007, Rindermann afirmaba que la educación y la inteligencia tienen, además de en la economía, un fuerte impacto positivo en la democracia, el gobierno de ley y la libertad política, independientemente de la riqueza.

Asimismo, en 2009, en otro estudio, Rindermann y sus colaboradores señalaron que la habilidad cognitiva media de las naciones tiene efectos beneficiosos para la salud general. La inteligencia, el conocimiento y el uso inteligente del conocimiento ayudan, por ejemplo, a frenar la expansión de enfermedades infecciosas. Algunos especialistas como Georg Oesterdiekhoff han llegado incluso a afirmar que la inteligencia es la fuerza motora de la historia.

8 de marzo de 2011

E4studiarán huesos de 100 años para tratar los dolores de espalda

Científicos británicos están estudiando decenas de esqueletos de personas que murieron hace más de 100 años para tratar de encontrar nuevos tratamientos para el dolor crónico de espalda.

Vértebras (Foto: EPSRC)

El estudio analizará columnas vertebrales de personas muertas hace 100 años.

La investigación es un esfuerzo conjunto de médicos, arqueólogos y antropólogos de las universidades de Leeds y Bristol, en Inglaterra.

Aunque el dolor crónico de espalda es un trastorno extremadamente común, hasta ahora no ha sido posible desarrollar un solo tratamiento efectivo para curarlo, más allá de las terapias para controlar el dolor.

Esto se debe a que la columna vertebral contiene una compleja red de nervios, articulaciones, músculos, tendones y ligamentos, todos capaces de producir dolor.

Además, el tamaño y forma de la columna humana varía de persona a persona.

El estudio está siendo llevado a cabo con 40 columnas vertebrales de esqueletos de museos y colecciones anatómicas del Reino Unido.

El objetivo es crear modelos computacionales de distintos trastornos de la espina dorsal y de sus diversos tamaños y formas.

Los científicos esperan usar estos modelos para crear un programa que evalúe el potencial impacto de nuevos materiales de implante y nuevos tratamientos, como la cirugía laparsocópica de columna o el reemplazo de disco artificial, antes de que sean utilizados en el paciente.

Problema común

Se cree que nueve de cada diez adultos experimentan algún tipo de dolor de espalda en algún momento de su vida, y muchos de estos desarrollan dolor crónico.

A diferencia de los tratamientos para cadera o rodilla, en los cuales la ciencia ha avanzado mucho, la investigación ortopédica no se ha centrado en el estudio de probables terapias para los problemas de espalda.

Esto se debe principalmente a que actualmente es muy difícil, o imposible, probar nuevos tratamientos en pacientes con problemas de espalda, debido a que si el tratamiento no es correcto puede tener serias complicaciones en el individuo.

Los científicos esperan poder utilizar el nuevo programa para establecer con precisión cuál es el tipo de tratamiento más adecuado para cada paciente.

"El dolor de espalda es un trastorno extremadamente común pero como todos tenemos una columna vertebral distinta ha sido muy difícil desarrollar nuevos tratamientos", afirmó David Willets, del Consejo de Investigación de Ciencias de Ingeniería y Física (EPSRC), que está financiado el estudio.

"Esta investigación podría mejorar significativamente la calidad de vida de millones de personas en todo el mundo".

"Y es fascinante que podamos unir huesos viejos y nueva tecnología para lograr un beneficio para estos pacientes", señala el funcionario.

Ensayos más rápidos

Dra. Ruth Wilcox (Foto: EPSRC)

Se espera que el estudio ayude a probar nuevos tratamientos para el dolor de espalda.

El programa será diseñado tomando escáneres de tomogragía computarizada de cada vertebra de cada una de las columnas analizadas, para crear imágenes tridimensionales detalladas de las vertebras.

Los investigadores esperan que este programa -el primero que se diseña para el tratamiento de dolor de espalda- pueda ser utilizado también para acelerar los ensayos clínicos de nuevos tratamientos.

Actualmente estos ensayos tardan unos diez años. Pero tal como explican los científicos, los datos obtenidos con los huesos antiguos podrán suministrar datos similares recogidos de cadáveres donados a la ciencia, que son muy limitados y principalmente provienen de grupos de edad avanzada.

"La idea es que una compañía farmacéutica pueda diseñar un nuevo producto para dolor de espalda y nosotros podamos simular cómo funcionaría en los distintos tipos de columna vertebral", explica la doctora Ruth Wilcox, quien dirige el estudio en la Universidad de Leeds.

"Lo bueno de los modelos computacionales es que podemos utilizarlos una y otra vez, de manera que podremos probar un número grande de distintos fármacos en el mismo modelo".

"Si tuviéramos que hacer esto en un laboratorio, necesitaríamos un gran número de columnas vertebrales donadas cada vez que necesitaramos probar un nuevo tratamiento", expresa la investigadora.

Fuente:

BBC Salud

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0