Latest Posts:

Mostrando las entradas con la etiqueta investigacion. Mostrar todas las entradas
Mostrando las entradas con la etiqueta investigacion. Mostrar todas las entradas

27 de junio de 2013

Luis Miguel Castilla: “Habrá medidas fiscales para fomentar inversión en ciencia, innovación y tecnología”

El titular del MEF anunció que parte de la reforma del Estado es dar incentivos tributarios y fiscales para que las empresas inviertan en este rubro y en desarrollar al capital humano.

En el marco del Día de la Banca y Finanzas 2013, el ministro de Economía, Luis Castilla, dijo que se necesita tomar medidas tributarias para que todas las empresas sean más competitivas, especialmente para incentivar la inversión clave en ciencia, innovación, tecnología y capital humano.

Lo primero es el régimen de recuperación anticipado del IGV. Ha sido un instrumento útil para reintegrar los gastos en los que incurren las empresas, sin embargo el trámite es demasiado largo y oneroso.

“Estos recursos son utilizados para ser reinvertidos en los proyectos. Lo que estamos haciendo es la cobertura de la devolución desde la fecha de solicitud y no desde la fecha de aprobación de la solicitud. Esto reducirá el plazo a la mitad, de más de 24 meses a menos de un año”, señaló Castilla.

Además, habrá un régimen de acompañamiento tributario a las mype, que comenten muchas infracciones con la Sunat y suelen hacerlo por desconocimiento.

Innovación, ciencia, tecnología e I+D

El ministro enfatizó que este aspecto es nuclear para apalancar el crecimiento en base a nuestra riqueza natural. Por ello, una medida será hacer que todas las deducciones por gastos en inversión en Investigación y Desarrollo (I+D) no tengan tope de reintegro.

Asimismo habrá un crédito por inversión en capital humano, sobretodo al sector industrial. Se dará un crédito fiscal a las micro, pequeñas y medianas empresas que no puedan capacitar mano de obra en capacidades técnicas.

Fuente:

Gestión (Perú)

4 de junio de 2013

¿Es inútil usar sostén?

Desde hace 15 años, el doctor Jean-Denis Rouillon se ha propuesto estudiar los efectos que tiene el uso del sostén en los senos de las mujeres.

Para ello, este médico deportivo, que también es profesor de la universidad francesa de Franche-Comté, ha observado y medido cuidadosamente el busto de decenas de voluntarias.
Algunas han aceptado vivir su vida, e incluso hacer deporte, sin usar sujetador. Otras sólo lo hacen en algunas de sus actividades. El objetivo es ver si sus senos se caen más o menos al no estar contenidos.
Según resultados preliminares, el médico ha logrado comprobar que –entre las mujeres de 18 a 35 años que participan en el estudio– el pezón vuelve a subir un promedio de siete milímetros en un año cuando no se usa sostén. Los pechos, asegura, se fortalecen.

"Las voluntarias son estudiantes en carreras deportivas o en kinesioterapia, y muchas veces se trata de mujeres que quieren volver a una vida más natural, sin artificios", le explicó el doctor Rouillon a BBC Mundo.

El estudio

Laurette es una de ellas. Tiene 31 años y lleva diez participando en las investigaciones. "Rouillon era uno de mis profesores en la universidad, donde estudiaba deporte. Él nos ofreció participar en la investigación y me pareció interesante", le cuenta a BBC Mundo.
"Las cosas pueden ser diferentes entre mujeres de más de 30 años que ya han tenido hijos"

Jean Masson, cirujano plástico

Mide una talla 90C (34B) y ya no usa sostén. "No fue difícil cambiar mis costumbres. Antes, cuando me quedaba en casa, muy raramente me ponía un sujetador. Ahora sólo lo uso de vez en cuando, con algunos vestidos, para salir en la noche, pero sólo por razones estéticas", aclara.

Laurette es deportista. Practica el triatlón y es entrenadora deportiva. "Cuando trabajo, visto un sujetador deportivo sin aros por la gente que está en las clases. Pero cuando corro, por ejemplo, sólo uso una camiseta de tirantes y no siento ningún tipo de incomodidad", afirma.

Desde el principio, Laurette sintió confianza porque nunca experimentó dolor en los senos cuando se movía. Recuerda que su entorno le aconsejaba no hacer deporte sin sostén. Sin embargo, siguió con el proyecto de Rouillon.

Los únicos inconvenientes, según ella, son la mirada y los comentarios de los demás, pero prefiere no fijarse en ellos. Cuando se siente incómoda, usa un sostén sin varillas.

Resultados preliminares

A pesar de los primeros resultados, Rouillon no quiere sacar conclusiones definitivas, ya que el grupo de mujeres estudiado no es representativo de la población francesa.

Chicas usando sostén. Foto de archivo

El objetivo del estudio es comprobar si los senos se caen más o menos al no estar contenidos.

Aclara que sólo se trata de resultados preliminares y que está prosiguiendo sus investigaciones con mujeres de más edad.

El doctor Jean Masson, un cirujano plástico que trabaja en París, está de acuerdo con estas precauciones. "Las mujeres que han participado en las investigaciones son jóvenes, que no tienen senos muy grandes", explica.

"Para este tipo de mujeres, puede que no sea indispensable el uso de un sostén. Sin embargo, las cosas pueden ser diferentes entre aquellas con más de 30 años que ya han tenido hijos", afirma.

Durante el embarazo, explica Masson, los pechos ganan volumen, lo que tiene consecuencias en la elasticidad de la piel de los senos. Y menos elasticidad significa que las glándulas mamarias pueden desplazarse hacia abajo.

Entonces, ¿más vale usar sostén o no? Para tener una respuesta clara y científica, habrá que esperar un poco más.

"Aunque no tenemos la respuesta por el momento, es una problemática que merece plantearse", concluye Rouillon, que afirma que ninguna investigación científica ha comprobado la eficiencia del sostén para mantener los senos.

Que se tranquilicen las aficionadas a la lencería, aún no ha llegado el momento de tirar sus sujetadores a la basura.

Fuente:

BBC Ciencia

18 de abril de 2013

También se puede aprender a mentir...

Científicos de la Universidad de Northwestern (EE UU) demostraron en un estudio reciente que se puede aprender a decir una mentira de tal modo que parezca idéntica a la verdad.

Normalmente, las personas tardan más tiempo y comenten más errores cuando cuentan una mentira que cuando dicen la verdad. Esto sucede, en esencia, porque en su cabeza están manejando dos respuestas que se contradicen entre sí, y tratando de suprimir la opción más honesta. Sin embargo, con la práctica adecuada las diferencias reconocibles pueden desaparecer. Xiaoqing Hu y sus colegas pusieron a prueba un sistema de "entrenamiento de mentirosos" en el que una serie de sujetos aprendían a aumentar la velocidad de respuesta cuando el contenido de sus palabras era incierto. Tras practicar y repetir en sus mentes varias la mentira, comprobaron que a partir de cierto punto los individuos no cometían errores al contarla, y respondían a idéntica velocidad mintiendo que cuando lo que decían era cierto.

El nuevo hallazgo debería ser tenido en cuenta por la policía cuando se comete un delito. "En la vida real, suele transcurrir un tiempo entre que se produce un crimen y se interroga a los sospechosos, suficiente para preparar y practicar mentiras", advierte Hu. 


Fuente:

Muy Interesante

11 de abril de 2013

Buscando la manera perfecta de simular heces humanas


En días en los que se ha puesto de moda decir que, en caso de que has encadenado muchos infortunios, parece que hayas pisado un pastel de Ikea (en vez de has pisado mierda), hablar de nuevo de caca pudiera ser redundante. Pero vamos a hacerlo. A pesar de que ya os hablamos de aquellas hamburguesas de caca.

En esta ocasión, no hablaremos de heces de verdad, afortunadamente, sino de la forma ideal de imitarlas. Pero ¿para qué diablos querría un investigador simular caca humana? ¿Para gastar una broma?


No se descartan las bromas, ni la opción al IgNobel, pero la razón de los científicos de Kimberley-Clark en Dallas, Texas, tenían otra cosa en mente cuando en 1994 trataron de simular deposiciones humanas: probar la eficacia de distintas clases de pañales, así como de las almohadillas de incontinencia de la compañía. Para ello no sólo debían crear caca verosímil, sino también inodora y que no supusiera ningún peligro.

Tal y como explican Ian Crofton en Historia de la ciencia sin los trozos aburridos:
Los primeros experimentos con pastel de calabaza y manteca de cacahuete no tuvieron éxito, pues los ingredientes sólidos y líquidos se separaban con demasiada facilidad. Después de un período de intensa investigación, Richard Yeo y Debra Welchel dieron con la receta ideal: una mezcla de almidones, polivinilo, gomas, gelatina, resinas y fibras. Simplemente añadiendo agua se obtenía, según Yeo, “algo tan cercano a la cosa real como era posible”.

Tomado de:

Xakata Ciencia

28 de marzo de 2013

La computación evolutiva

En 1859, Charles Darwin publicó un polémico libro, “El origen de las especies”, que sentó las bases de la teoría de la evolución. Según Darwin, los individuos de una especie cambian lentamente de una generación a otra. Estos cambios se producen como resultado del cruce de los mismos y la aparición de mutaciones aleatorias. Los nuevos individuos pueden desenvolverse peor que el resto de los de su especie, pereciendo con una alta probabilidad. Pero también pueden resultar ser mejores, más aptos para sobrevivir en su hábitat, en cuyo caso prosperarán, tendrán descendencia que posiblemente tenga las mismas características diferenciadoras que ellos, y acabarán por reemplazar a los antiguos individuos, menos aptos. Estas son, en esencia, las ideas de Darwin sobre la evolución de las especies, hoy mayoritariamente aceptadas en el ámbito científico. Más de 150 años después de la publicación de Darwin estas mismas ideas se usan como inspiración para crear algoritmos dentro de un computador: los algoritmos evolutivos.


Portada original de la primera edición de “El origen de las especies”. Fuente: Wikimedia commons.

Hoy sabemos que el código genético de un individuo, el genotipo, formado por largas moléculas de ADN, contiene toda la información acerca de las características del individuo: función de las células, morfología, metabolismo, etc. Cuando dos individuos se cruzan, la descendencia de ambos tendrá como ADN una mezcla del ADN de ambos padres. Las mutaciones son el resultado de una copia imperfecta en una de las cadenas de ADN del hijo. De forma análoga, los algoritmos genéticos, que son un tipo de algoritmo evolutivo, usan cadenas de 0s y 1s, habitualmente llamadas cromosomas por analogía con el caso natural, que representan algún tipo de objeto dentro de un ordenador: la solución a un problema, un conjunto de valores numéricos, una imagen, un sonido o incluso una partitura, por poner algunos ejemplos.

Un algoritmo genético está formado por un conjunto de cadenas binarias (individuos) al cual se le llama población. Inicialmente la población está formada por cadenas binarias aleatorias. Seguidamente, algunas de estas cadenas son seleccionadas para realizar la operación de cruce, en la que dos cadenas intercambian parte de sus valores (también llamados genes). Después, un cambio aleatorio en algunos genes simula una mutación y, tras esto, el individuo es evaluado para comprobar si es apto en su hábitat. ¿Qué significa ser apto en este caso? Normalmente se asigna un valor numérico al individuo usando alguna función matemática y este valor representa la aptitud del individuo. Cuanto mayor es el valor mayores son las probabilidades de sobrevivir e incorporarse en la siguiente generación de la población. Este proceso se repite continuamente hasta el momento en que el usuario del algoritmo decida parar.



Ejemplos de operadores de cruce y mutación para el caso de individuos binarios. Fuente: el autor.

¿Por qué podríamos estar interesados en simular dentro de un ordenador la evolución de especies? Una interesante característica de los algoritmos evolutivos es que, debido a su naturaleza aleatoria, el resultado que se obtiene tras cada ejecución del mismo puede ser diferente. El algoritmo puede sorprender al usuario con distintas poblaciones de individuos al final. Imaginemos que los individuos representan una imagen. En ese caso, obtendremos distintas imágenes cada vez que ejecutemos el algoritmo y si la función que calcula la aptitud del individuo está especialmente diseñada para puntuar más alto imágenes con gran valor estético para un humano podríamos conseguir que el algoritmo ofrezca bellas imágenes tras su ejecución.


 

Imagen generada con un algoritmo evolutivo. Fuente: Wikipedia.

El uso de los algoritmos evolutivos para crear obras de arte se conoce con el nombre de arte evolutivo y existen congresos internacionales especializados en esta forma de arte [1]. Un caso particular, es el de la música compuesta por ordenador usando algoritmos evolutivos. Aunque este tópico no es nuevo, recientemente ha llamado especialmente la atención de los músicos el sistema Iamus [2], desarrollado en el departamento de Lenguajes y Ciencias de la Computación de la Universidad de Málaga con Francisco J. Vico a la cabeza. La función de aptitud de Iamus tiene en cuenta aspectos formales de la partitura y es capaz de generar una composición completa en cuestión de minutos. Para conseguir una partitura en tan poco tiempo es necesario diseñar muy bien los operadores de cruce y mutación, uno de los secretos mejor guardados de Iamus. El sistema ha merecido un artículo en la prestigiosa revista Nature [3] y la revista norteamericana Discover lo ha incluido en el TOP 100 de novedades científicas del año 2012. Se ha comercializado un CD con 10 composiciones de Iamus, donde participa la Orquesta Sinfónica de Londres, y, recientemente, una de sus obras fue estrenada por la Orquesta Filarmónica de Málaga en el XIX Ciclo de Música Contemporánea de la ciudad.

La creación artística no es la única aplicación de los algoritmos evolutivos. Éstos pueden utilizarse para resolver problemas de optimización, es decir, encontrar soluciones de muy buena calidad para problemas difíciles de resolver. Un ejemplo de problema de optimización es el de colocar paquetes en un camión de forma que quepa el mayor número posible. No se conoce ningún algoritmo que sea capaz de dar la mejor solución en un tiempo razonable. Los algoritmos conocidos que dan la mejor solución requieren, en el peor de los casos, un tiempo que crece exponencialmente con el tamaño del problema (número de paquetes a colocar). Para resolver un problema como este usando algoritmo evolutivos, tan solo es necesario codificar las soluciones de manera que el ordenador las entienda y programar la función de aptitud, que en este caso podría ser el número de paquetes que caben en la forma indicada por la solución. La principal ventaja del uso de estos algoritmos en optimización es la facilidad con la que pueden aplicarse a la resolución del problema. No es necesario tener un conocimiento profundo del problema para resolverlo, basta con saber evaluar la calidad de las soluciones. Por otro lado, los resultados experimentales con algoritmos evolutivos ponen de manifiesto que las soluciones obtenidas por éstos son, en muchos casos de relevancia práctica, óptimas o se encuentran cercanas al óptimo, mientras que el tiempo requerido para obtener dichas soluciones es reducido (del orden de minutos o segundos).

El uso de algoritmos evolutivos para resolver problemas de optimización ha recibido una importante atención en las últimas décadas y actualmente se pueden contar por decenas los congresos especializados en este tema y las revistas que publican artículos relacionados. En el mencionado departamento de la UMA, profesores como Enrique Alba y Carlos Cotta llevan investigando desde hace casi 20 años el potencial de los algoritmos evolutivos para resolver problemas de optimización. Entre los problemas resueltos por estos investigadores encontramos la optimización de los semáforos para reducir el tiempo de espera de los conductores en una ciudad, la asignación de frecuencias de radio a antenas en una red de telefonía celular, la generación automática de casos de prueba para programas de ordenador, etc [4]. Todos ellos problemas complejos en los que, generalmente, es difícil predecir la influencia de un cambio de la solución en su calidad.

 

Haciendo uso de algoritmos evolutivos es posible reducir el tráfico de una ciudad. Fuente: wikimedia commons.

La computación evolutiva no es el único dominio de la Informática que se ha nutrido de ideas de la naturaleza. En 1983, Kirkpatrick, Gelatt y Vecchi propusieron un algoritmo para resolver problemas de optimización que se basa en el enfriamiento de un metal [5]. Más tarde, en 1992, Dorigo describía en su tesis doctoral una familia de algoritmos que se inspiraba en la forma en que las hormigas buscan comida [6]. Kennedy y Eberhart desarrollaron en 1995 un algoritmo que basaba su funcionamiento en el comportamiento de los pájaros y los peces [7]. Estos dos últimos algoritmos se integran en la actualidad dentro de la línea de investigación conocida como Inteligencia de Enjambre (Swarm Intelligence) que ha servido de inspiración para crear novelas como “Presa”, de Michael Crichton.



El proyecto swarmanoid, coordinado por Marco Dorigo, explora el uso de la inteligencia de enjambre para coordinar un conjunto de robots heterogéneos. Fuente: www.swarmanoid.com

Difícilmente podía Darwin imaginar que sus ideas, con las que pretendía explicar la evolución de las especies, servirían, siglo y medio más tarde, para deleitar al público que acude a un concierto o agilizar el tráfico de una ciudad.

Referencias:
[1] Página Web de la edición de 2013 de EvoMUSART, congreso centrado en la música y el arte evolutivo. http://www.kevinsim.co.uk/evostar2013/cfpEvoMUSART.html
[2] Página Web de Iamus. http://melomics.com/iamus
[3] Artículo de Philipp Ball en Nature sobre Iamus. http://www.nature.com/nature/journal/v488/n7412/full/488458a.html?WT.ec_id=NATURE-20120823
[4] Páginas Web del grupo NEO. http://neo.lcc.uma.es
[5] S. Kirkpatrick, C. D. Gelatt y M. P. Vecchi. 1983. Optimization by simulated annealing. Science, 13 May 1983 220, 4598, 671–680.
[6] M. Dorigo. 1992. Optimization, learning and natural algorithms. Ph.D. thesis, DEI, Politecnico di Milano, Italy.
[7] J. Kennedy y R. Eberhart. 1995. Particle swarm optimization, Proceedings of the IEEE International Conference on Neural Networks, vol.4, pp. 1942-1948.

Tomado de:

Año Turing

4 de marzo de 2013

BBC: ¿Cuán confiables son los estudios científicos?


Autoradiograma de AND

Hasta hace poco, el anestesiólogo alemán Joachim Boldt era un reconocido especialista en la administración de líquidos intravenosos. Recientemente se descubrió que cerca de 90 de sus trabajos tiene errores y una docena de ellos han sido retractados de las publicaciones por mala praxis, incluida la falsificación de datos. Pero el daño ya está hecho.

Sus estudios han permitido la utilización de un tipo de coloide en pacientes quirúrgicos que -se sabe ahora- puede acarrear consecuencias fatales. Se trata del hydroxyethyl starches (HES), un fluido sintético usado comúnmente desde hace décadas en prácticas clínicas, que aumenta el riesgo de muerte y problemas de riñón.
Este caso extremo refleja un creciente problema en la comunidad científica: en los últimos años el número de retractaciones se ha multiplicado de 30 a principios de 2000, a 400 para la segunda década del nuevo milenio. En cambio la cantidad de estudios publicados sólo aumentó un 44%, según datos de la revista Nature

Cuando una publicación es retractada, significa que la investigación tiene tantos errores que hay que eliminarla de toda literatura científica. Se considera por muchos como el peor de los castigos para un especialista.

Pero también tiene graves implicaciones para la ciencia. Si bien estas cifras representan alrededor del 1% de los casi 30.000 ensayos que salen cada año, la forma en que funciona la comunidad científica amplifica su impacto.

Reacción en cadena

Pruebas de laboratorio

La manera como funciona actualmente la comunidad científica es confiar en que la literatura se corrija a sí misma.
 
Es a partir de los resultados publicados que otros científicos basan sus nuevos estudios, por lo que una investigación con errores puede ser citada decenas de veces por otros expertos, cuyos trabajos serán usados a su vez por muchos otros, antes de que se descubra un error.

"La ciencia depende de que otros repliquen, no necesariamente exacto, pero sí de una forma en que te den la seguridad de que los resultados pueden ser reproducibles", le explica a BBC Mundo Nigel Hooper, profesor de la Facultad de Ciencias Biológicas de la Universidad de Leeds.

"Nosotros no salimos y pedimos a alguien que repita el estudio, sino que forma parte del proceso científico", agrega.

"La literatura no se corrige a sí misma", refuta la científica australiana Elizabeth Iorns. "Es como decir que con el tiempo se sabrá (si tienen fallas), pero no será así porque entre los científicos no existe la cultura de buscar financiación para validar sus estudios, y si lo hacen, no hay forma de publicar (los resultados de la réplica)".

Lea el artículo completo en:

BBC Ciencia 

Contenido relacionado

Las ratas que se envían información con el cerebro de un continente a otro

Una de las ratas usada en el estudio. | Duke University

Una de las ratas usada en el estudio. | Duke University
Los científicos lo llaman un "vínculo cerebral", y es lo más cerca que ha estado la ciencia de alcanzar el sueño de la conexión mental en la vida real: los pensamientos de una rata que pasea y retoza en un laboratorio de Brasil son capturados por sensores electrónicos y enviados por Internet al cerebro de una rata situada en Estados Unidos. Según lo que acaba de publicar en 'Scientific Reports' un grupo de investigadores liderado por el investigador de origen brasileño del Centro Médico de la Universidad de Duke (EEUU) Miguel Nicolelis, el segundo animal recibe el pensamiento de la primera e imita su conducta.

Al margen de la sensación de ciencia ficción que transmite el estudio, el avance que supone en la conexión directa de cerebro a cerebro podría sentar las bases de lo que Nicolelis llama un "ordenador orgánico" donde varios cerebros están unidos para resolver problemas a los que los cerebros individuales no pueden hacer frente.

Varios expertos opinan que este campo de estudio es "un campo de minas" para la ética. Sobre todo porque Nicolelis ya está trabajando en la comunicación cerebro a cerebro entre monos.

Lea "Mono en EE.UU. controla con la mente un robot en Japón"

Batallones de soldados de origen animal

"Tener a primates no humanos comunicándose de cerebro a cerebro plantea todo tipo de problemas éticos", asegura un neurocientífico que ha pedido no ser identificado. "Es normal que la gente se ponga nerviosa leyendo cómo los científicos son capaces de poner cosas en los cerebros de estos animales y de cambiar con ello lo que estos hacen", dice imaginando batallones de soldados de origen animal, o incluso soldados humanos, cuyos cerebros son controlados a distancia por otros.

El laboratorio de Nicolelis ha recibido 26 millones de dólares de la Agencia de Proyectos Avanzados del Pentágono para el trabajo en las interfaces cerebro-máquina, como llaman los científicos a este campo de investigación.

Los cerebros vinculados de las ratas usadas en este estudio están basados en 15 años de investigación en interfaces cerebro-máquina. Estas interfaces, por ejemplo, son capaces de captar las señales eléctricas generadas por los cerebros de personas gravemente paralizados y de traducirlos después en comandos que mueven un brazo mecánico, el cursor de un ordenador o incluso propio brazo del paciente.

Este trabajo ha llevado a Nicolelis a preguntarse si un cerebro puede decodificar las señales eléctricas generadas por otro. La respuesta, al menos para las ratas, es sí.
Fuente:

24 de febrero de 2013

Casa Blanca finalmente liberará todos los artículos científicos financiados con dineros públicos

(CC) West Point Public Affairs


La Casa Blanca respondió a una petición –que esperaba su respuesta desde el 13 de mayo del 2012– realizada a través de su plataforma de interacción con los ciudadanos a través de Internet, We The People, donde le solicitaban al gobierno el acceso gratuito a través de Internet a todas las publicaciones científicas financiadas con dineros públicos, pues como bien lo sabía Aaron Swartz, gran parte se encuentra detrás de paywalls.

En la actualidad, la investigación científica en Estados Unidos se hace en instituciones de educación superior –frecuentemente financiadas por el Estado– quienes envían artículos a revistas científicas para que sean publicados (a veces incluso pagando por ello). Luego las revistas envían la información a otros académicos que la revisan –usualmente gratis–, y la editorial de la revista luego gana dinero vendiendo el acceso a la información a las bibliotecas de las mismas universidades.

Para ayudar a dimensionar las ganancias de las editoriales científicas con fin de lucro, una de las más grandes, Elsevier, logró ganancias el 2011 por US$ 1.100 millones con un margen de ganancias cercano al 35%, mientras que las bibliotecas han visto que el costo de su suscripción ha aumentado un 273% entre 1986 y el año 2004.

El jefe de la Oficina de Políticas sobre Ciencia y Tecnología de la Casa Blanca, John Holdren, anunció finalmente que el gobierno adoptaría una política donde todos los papers científicos producidos con dineros públicos van a ser puestos al alcance de toda la población transcurrido un año desde su publicación en una revista científica.

El nuevo reglamento se aplicará a todas las agencias del gobierno estadounidense que tengan un presupuesto para investigación superior a los US$ 100 millones, e incluirá medidas para preservar y divulgar todo tipo de información asociado a la investigación como imágenes y bases de datos, excluyendo los borradores de los papers (tampoco la idea es humillar a nadie, ¿no?).

Lamentablemente, el año de diferencia entre la publicación y la disponibilidad a través de paywalls de un artículo es sólo referencial, y las agencias gubernamentales podrán modificar este límite en base a las dificultades con las que se puedan topar al investigar determinados campos.

Fuente:

FayerWayer

17 de febrero de 2013

Investigadores trabajan en una computadora que nunca se cuelga

Un equipo de investigadores de la Escuela Universitaria de Londres trabaja en el desarrollo de una computadora que nunca se cuelga y podría ser capaz de reprogramarse automáticamente en caso de error.


Si hay algo que nos puede fastidiar bastante es que nuestro smartphone o nuestro ordenador personal se queden colgados, por ejemplo, por un fallo en una aplicación que estamos ejecutando. Quizás a nivel personal es algo que, aunque molesta, no tiene demasiada importancia pero una situación de bloqueo en un sistema crítico es algo que puede tener un gran impacto. Basándose en un esquema que intenta emular la aleatoriedad de la propia naturaleza, un equipo de investigación de la Escuela Universitaria de Londres está trabajando en una computadora que nunca se quedaría colgada puesto que sería capaz de reprogramarse y auto-repararse para evitar una situación de bloqueo.

La idea es que ante una inminente situación de bloqueo, por ejemplo, ante unos datos que se han corrompido, el sistema sea capaz de recuperarse por sí mismo y reparar los datos dañados para prevenir el fallo; un hecho de especial importancia para sistemas de gran criticidad como los que forman parte de un avión o sistemas de control más críticos, por ejemplo, en una central nuclear o, incluso, que un avión no tripulado que ha sido dañado en combate sea capaz de reprogramar sus sistemas y adaptarse a la nueva situación.

¿Cómo puede reprogramarse un computador?

El modelo que está siguiendo el equipo de la Escuela Universitaria de Londres es el del gran computador que encontramos en la naturaleza: el cerebro. La base de este trabajo de investigación es modelar el proceso natural que siguen las neuronas para establecer conexiones y activarse; un proceso que, a nivel macroscópico, también vemos en el comportamiento de los enjambres de insectos que funcionan, prácticamente, como si fuesen una unidad.

Según comentaba Peter Bentley, uno de los responsables del proyecto, la gran diferencia entre una computadora y un ser vivo es cómo se ejecutan los procesos. Las computadoras trabajan de manera secuencial, es decir, ejecutan una instrucción tras otra (y aumentan este ratio con la computación en paralelo); sin embargo, en la naturaleza el funcionamiento es descentralizado y sigue una distribución aleatoria con tolerancia a fallos y capacidad de adaptación a los cambios.

¿Cómo adaptar un computador a los cambios?

El computador en el que trabajan mantiene una memoria que contiene datos e instrucciones sensibles al contexto en el que se encuentra, es decir, tiene instrucciones con lo que debe hacer si la temperatura aumenta o si baja demasiado, por citar un ejemplo. Cada uno de estos contextos se ejecuta en paralelo y, en vez de seguir un contador de programa secuencial (como se haría en un computador), la ejecución de estos contextos está sujeta a un proceso pseudoaleatorio que imita la aleatoriedad de la naturaleza.

Como fruto de este proceso, en cada momento, se evaluarán una serie de condiciones de contorno dentro de una combinación que servirá para obtener una acción como suma de todas estas "acciones en paralelo". Si en cada uno de estos sistemas almacenamos la misma copia de código, nos encontramos con un sistema ultra-redundado en el que la activación de las condiciones de contorno servirá para ejecutar el programa original, aunque se haya dañado alguna parte del sistema.

Precisamente, este el punto en el que se encuentra esta investigación puesto que pretenden que el sistema sea capaz de reescribir el código a ejecutar en respuesta a los cambios del entorno, usando para ello un aprendizaje previo que lo vuelva inmune a fallos si, por ejemplo, una zona de la memoria está dañada (lo cual, en un computador convencional, nos provocaría un error, por ejemplo, un kernel panic).
Una investigación, sin duda alguna, fascinante.

Fuente:

ALT1040

11 de febrero de 2013

Científicos publican método para lograr comunicar al cerebro con una computadora


Esquema del implante de electrodos en el cerebro del paciente.

Esquema del implante de electrodos en el cerebro del paciente.
Científicos de la Universidad de Pittsburgh en Pensilvania, Estados Unidos, hace un año consiguieron comunicar de manera exitosa al cerebro humano con un sistema informático de computadora, logrando que una persona controle un brazo robótico sólo con su pensamiento. Hoy, subieron su trabajo en PLOS ONE –publicación científica digital–, quizás abriendo las puertas a la implementación de esta tecnología por parte de otros investigadores.

A finales de 2011, se contactó al paciente Tim Hemmes, quien a raíz de un accidente en motocicleta sufre de parálisis en todo su cuerpo desde los hombros hacia abajo, luego de haberse lesionado la médula espinal. Los científicos le colocaron un implante de 28 electrodos en el cerebro, que sirve de interfaz o puente para establecer la comunicación entre el sujeto y la computadora, artefacto tiene el tamaño de una estampilla y que sirvió para esta proeza científica. Antes de la operación y para determinar en qué ubicación se pondría el dispositivo, los médicos detectaron a través de una resonancia magnética funcional el área del cerebro de Hemmes que se activaba frente a los movimientos de brazos.

Como resultado y además de poder mover un brazo robótico, el paciente también fue capaz de mover figuras virtuales en tres dimensiones en la pantalla de un PC a voluntad sólo con la mente, estableciendo estas pruebas como todo un éxito a modo de que en el futuro, se pueda ayudar a las personas que sufren de parálisis a interactuar de mejor forma con el mundo exterior, a lo que contribuye esta nueva divulgación pública de la información.



 
Fuente:
FayerWayer

29 de enero de 2013

Human Brain Project: supercomputación para simular el cerebro humano


En el día de hoy dos grandes proyectos de investigación han sido seleccionados para ser financiados con los Fondos del Programa Marco de la Comisión Europea. Mil millones de euros financiarán investigaciones relacionadas con el grafeno y otros mil millones de euros intentarán acercarnos al complejo sistema del cerebro humano mediante el desarrollo de un gran simulador que se implemente mediante un supercomputador, un proyecto llamado Human Brain Project.


HBP-videoverview from Human Brain Project on Vimeo.

Human Brain Project es un proyecto que tiene como objetivo desarrollar un simulador del cerebro humano que sea lo más fiel posible a la realidad y con el que los científicos sean capaces de emular todas sus funciones, estudiar su comportamiento o, incluso, estudiar bajo este modelo el desarrollo de enfermedades del cerebro y mejorar el diagnóstico de las mismas o, incluso, simular la aplicación de tratamientos.

La idea, en parte, es similar a otros proyectos como el que anunció la Universidad de Mánchester hace algún tiempo, proyectos en los que se pretende establecer un modelo computacional del cerebro humano o, al menos, de algunas de sus funciones. Precisamente, el alcance del proyecto es lo que marca la gran diferencia puesto que se pretende modelar el cerebro completo apoyándose en la potencia de un supercomputador y, para ello, contarán, además de con los mil millones de euros de financiación, con la colaboración de 87 instituciones, empresas y centros de investigación.

El proyecto será dirigido por la École Polytechnique Fédérale de Lausanne y participarán, entre otros, el Centro de Supercomputación de Barcelona, el Instituto Allen para las Ciencias del Cerebro, SAP, IBM, el Instituto Pasteur de Francia, la Universidad Cornell de Estados Unidos, la Universidad Libre de Berlín, la Universidad de Harvard, la Universidad de Yale, la Universidad de Oxford o el King's College de Londres entre otros.

Teniendo en cuenta el alcance y la magnitud de los socios que colaborarán en su desarrollo, es fácil hacerse a la idea de que el proyecto no será algo sencillo ni tampoco inmediato. Human Brain Project tiene una duración de alrededor de 10 años y, dentro de este tiempo, se articularán los trabajos alrededor de 5 ejes o sub-proyectos que se encargarán del desarrollo de modelos matemáticos y de simulación, desarrollo de software, el desarrollo de la arquitectura del supercomputador y, además, también se dedicarán recursos a una línea vinculada a la ética y la sociedad.

Uno proyecto bastante interesante que, en los próximos años, podría dar bastante que hablar y, quizás, desvelar algunos de los misterios que aún encierra nuestro cerebro.

Fuente:

ALT1040

14 de enero de 2013

Aaron Swartz y el mundo que queremos construir

Si a alguien le queda alguna duda de la pérdida que sufre nuestra generación con la muerte de Aaron Swartz hoy, sólo tiene que leer cómo vivió sus 26 años. En una conferencia que dio en 2007 contó cómo había conseguido trabajar en lo que le gustaba, y en sus palabras conocemos su mente libre y brillante y su disposición para que hubiera un mejor acceso a la información. Aconsejaba ser libre, curioso, hacer muchas cosas, no detenerse.

Estaba preocupado por el maltrato que recibían las mujeres y las minorías en el entorno tecnológico, su negación por parte de hombres y blancos, y lo consideraba un problema de sistema.



Swartz, con 14 años, ayudó a desarrollar el RSS 1.0, uno de los estándares más usados en internet para difundir contenidos. Trabajó con Larry Lessig en los primeros borradores de las licencias Creative Commons. Fue uno de los fundadores de Reddit. Co-diseñó, con John Gruber, el formato Markdown, hecho para facilitar la escritura con HTML (que estoy usando al escribir este post), y creó la arquitectura para la Open Library, un proyecto que tiene como objetivo “crear una página web para cada libro que exista”. Swartz también fundó DemandProgress, que movilizó a más de un millón de activistas y fue clave para detener SOPA y PIPA.

Creó un script para bajar sistemáticamente papers de JSTOR, una biblioteca digital de publicaciones académicas, y fue acusado por el MIT y por JSTOR por delitos contra el copyright. Pero aunque ellos se aseguraron de que Swartz no distribuyera este material, ”recibieron confirmación de que el contenido no fue ni iba a ser usado, copiado, transferido o distribuído”, y retiraron la denuncia, el gobierno de los Estados Unidos continuó adelante con los cargos, y arrestaron a Swartz. Aquí el escrito de acusación del caso.
Su suicidio nos golpea porque nos hace preguntarnos por otras cuestiones, más allá de las personales o la anécdota de sus depresiones. Aaron Swartz estaba bajo cargos por “crímenes” contra el copyright (sí, voy a usar comillas) desde hace dos años.

Quien diga que liberar información académica para que todos tengan acceso a ella es un crimen, es un mentiroso o un imbécil. Aaron Swartz se enfrentaba a 35 años de cárcel y a una multa de un millón de dólares, unos castigos mucho más duros que para personas que cometen asesinatos o violaciones: al nivel de crímenes de terrorismo.

Durante todo el día de hoy hubo muchas reacciones a este tema: la gran pena de Tim Berners-Lee, el obituario escrito por Cory Doctorow, el post conmovedor de su ex, Quinn Said, la reflexión de Lessig sobre la extralimitación del sistema judicial y el mensaje de su familia donde responsabilizan al fiscal de Massachussets y al MIT de contribuir a la decisión trágica de Aaron. Ya hay una petición a la Casa Blanca para que destituyan a la fiscal.

Yo también creo que si nos importa el mundo que estamos construyendo, deberíamos dejar de mirar el caso de Aaron como el de un adolescente atormentado y preguntarnos qué tipo de Justicia tenemos, qué tipo de leyes mantenemos, qué tipo de sociedad permite que un esquema caduco de industria sostenga el copyright, y que adolescentes como Aaaron Swartz o, más cerca, en España, como Alfonso Fernández, (Alfon) sean tratados como terroristas. No se construye una sociedad abierta, que pueda dar oportunidades a todos, maltratando y persiguiendo a sus ciudadanos.




Tomado de:

Marilink 

28 de octubre de 2012

Cuánto duermes depende de cuánto trabajas

Trabajo y entorno laboral dormir3 

Cuantas más horas trabaja una persona, menos tiempo dedica al descanso, según revelaba un estudio de la Universidad de Pensilvania publicado en la revista Sleep. De acuerdo con los resultados, las personas que duermen 4 horas menos que la media trabajan 93 minutos más los días laborables y alrededor de 2 horas más los fines de semana. Teniendo en cuenta que el descanso determina la morbilidad (el número de personas enfermas) y la mortalidad, el exceso de trabajo es un factor de riesgo importante para la salud.

Por otro lado, el estudio, dirigido por Mathias Basner, revelaba que el tiempo que dedicamos a desplazarnos de un sitio a otro (tanto de casa al trabajo como al centro comercial, al colegio, a eventos sociales, etc.) es el segundo factor que más condiciona las horas de sueño.

Finalmente, los invetigadores llegaron a la conclusión las personas que duermen poco dedican menos tiempo a ver la televisión durante el fin de semana que el resto de la población, y más tiempo a las relaciones sociales y a las actividades de ocio.


Fuente:


Lea también:

21 de septiembre de 2012

La ecuación de una coleta, investigación absurda del año

Los Ig Nobel también han premiado la pistola que te deja mudo, la medición de la actividad cerebral de un salmón muerto o los chimpancés que se reconocen por el culo.

La ecuación que predice la forma de una coleta, investigación más absurda del año
 
U. Cambridge
La ecuación que predice la forma de una coleta, investigación más absurda del año
 
La coleta del estudio, en la entrega de premios

Una investigación de la Universidad de Cambridge sobre las matemáticas que se esconden detrás de la forma de una coleta ha sido una de la galardonadas este año por los Ig Nobel, los galardones que premian cada año los estudios científicos más absurdos o disparatados. Promovidos por la revista Anales de Investigación Improbable como alternativa divertida a los Nobel, los premios fueron entregados durante la noche del jueves en la Universidad de Harvard en Massachusetts (EE.UU.).

Cuando fue publicada en la prestigiosa revista Physical Review Letters, la investigación ya parecía una firme candidata a estos galardones y, en efecto, no ha defraudado. Sin embargo, sus autores, Raymond Goldstein, un físico de la Universidad de Cambridge, y sus colaboradores, aseguraban entonces que su trabajo puede tener implicaciones en la industria textil, la animación por ordenador y los productos de cuidado personal.

Los investigadores desarrollaron una teoría matemática que explica la forma de una cola de caballo, un peinado sencillo que mujeres -y hombres- de todo el mundo emplean para recogerse el pelo. Para derivar la «ecuación de la cola de caballo», los científicos tuvieron en cuenta la rigidez de los cabellos, los efectos de la gravedad y la presencia del rizo o la ondulación del cabello humano. La ecuación puede ser utilizada para predecir la forma de cualquier cola de caballo (conoce más sobre el estudio aquí). Con esto, los investigadores se han llevado el Ig Nobel de Física.

La ecuación que predice la forma de una coleta, investigación más absurda del año
 
La «pistola» para enmudecer

Los premios a lo absurdo también han reconocido otras investigaciones que pueden sonar al lector. Por ejemplo, en Acústica, ha sido galardonada una «pistola» que consigue hacer callar a la gente. Se trata del «SpeechJammer» (algo así como un bloqueador de discursos), capaz de dejar mudo a cualquiera. 

Desarrollada por los japoneses Koji Tsukada y Kazutaka Kurihara, el ingenio provoca que alguien que habla escuche sus propias palabras con un retraso de 0,2 segundos, lo que provoca que, desorientado al no poder escucharse a tiempo, se quede mudo.

También han resultado ganadoras investigaciones sobre la medición de la actividad cerebral en un salmón muerto (Neurociencia), una población sueca a cuyos habitantes se les vuelve el pelo verde (Química), cómo se derrama el café cuando una persona camina con una taza (Dinámica de fluidos), los chimpancés -sí, esto parece increíble- que son capaces de reconocerse por el culo en fotos (Anatomía), cómo minimizar las posibilidades de que los pacientes exploten en una colonoscopia (Medicina) o que inclinarse hacia la izquierda hace que la Torre Eifffel parezca más pequeña (Psicología).

En efecto, los Ig Nobel se superan cada año.

Fuente:

22 de junio de 2012

Hallan el lugar exacto del cerebro donde se origina el amor

Los estudios de neurociencia han demostrado muchas cosas sobre cómo funciona nuestro cerebro.

Cerebro

El amor activa una zona llamada núcleo estriado, que es la misma que se activa con la adicción a las drogas.

Sabemos, por ejemplo, dónde se almacenan los recuerdos, dónde se controla la ira y el miedo y dónde razonamos para resolver problemas.
 Sin embargo se sabe muy poco sobre una de las emociones humanas más poderosas y complejas: el amor.

Ahora una nueva investigación internacional encontró el sitio exacto donde se originan los sentimientos que experimentamos cuando estamos enamorados.

Según los científicos de la Universidad de Concordia, en Canadá, el sitio donde se ubica el amor está vinculado al lugar donde se origina el deseo sexual, pero ambos están separados.

Y el estudio demostró que el amor está en la misma zona cerebral de la adicción a las drogas, señalan los investigadores.

Los estudios del cerebro ya han demostrado que las emociones humanas se originan en el llamado sistema límbico, un conjunto de estructuras importantes que incluyen el hipocampo y la amígdala, entre otras.

En esta región se controlan una serie de funciones que incluyen las emociones, la conducta, la atención, el estado de ánimo, la memoria, el placer y la adicción, etc.

Hasta ahora, sin embargo, había sido muy difícil ubicar el lugar exacto del amor, porque tal como señalan los expertos, a diferencia de otras emociones "concretas" como la ira o el placer, el amor es mucho más complejo y abstracto y parece involucrar muchas áreas del cerebro.

La nueva investigación, en la que también participaron neurocientíficos de las universidades de Sycaruse y Virginia Occidental en Estados Unidos y el Hospital Universitario de Ginebra en Suiza, revisó 20 estudios que habían analizado la actividad cerebral del amor y el deseo sexual.

En los estudios se había sometido a los participantes a escáneres de fMRI (imágenes de resonancia magnética funcional) para observar la actividad de su cerebro mientras estaban comprometidos en tareas relacionadas a imágenes eróticas o a observar la fotografía de la persona de quien estaban enamorados.

Núcleo estriado

Los resultados de los estudios revelaron que dos estructuras del cerebro en particular, la ínsula y el núcleo estriado, eran las responsables tanto del deseo sexual como del amor.

La ínsula es una porción de la corteza cerebral que está plegada en una zona entre el lóbulo temporal y lóbulo frontal, mientras que el núcleo estriado está localizado cerca, en el cerebro anterior.

Los científicos observaron que tanto el amor como el deseo sexual activan diferentes áreas del núcleo estriado.

El área que se activa con el deseo sexual se activa también con otras cosas que producen placer, como la comida.

Pero el área del núcleo estriado que se activa con el amor es mucho más compleja.

Y aunque también se activa con el placer o deseo sexual, sólo funciona cuando hay algo con "un valor inherente" para activarla, dicen los científicos.

"Nadie había colocado estos dos sentimientos juntos para ver cuáles eran los patrones de activación" explica el profesor Jim Pfaus quien dirigió el estudio.

"No sabíamos qué encontraríamos, pensamos que ambos estarían completamente separados. Pero resultó que el amor y el deseo activan áreas específicas pero vinculadas en el cerebro".

"Mientras el placer sexual tiene un objetivo muy específico, el amor es más abstracto y complejo y por lo tanto menos dependiente de la presencia física de otra persona" agrega.

Algo que sorprendió a los científicos fue encontrar que la zona del núcleo estriado que se activa con el amor también está asociado a la adicción a las drogas.

Según el profesor Pfaus, esto tiene sentido.

"El amor realmente es un hábito que se forma con el deseo sexual y que recompensa a ese deseo" dice el científico.

"Y en el cerebro el amor funciona de la misma forma como cuando la gente se vuelve adicta a las drogas" agrega el profesor Pfaus.

Fuente:

BBC Ciencia


Contenido relacionado

21 de mayo de 2012

"Pensar como un gusano", la clave para resolver un crimen


Hall en acción

Insecto

Muchos insectos se dispersan después de haber comido. Afuera puede ser cuestión de unos metros. Dentro pueden llegar más lejos.

Buscamos a los insectos más viejos en el cuerpo, eso nos da un indicio de cuánto tiempo pasó desde que el cuerpo está allí.

Si el cadáver está al aire libre y es verano, sabemos que los insectos lo encontrarán en las próximas 24 horas, por eso la edad de los insectos en el cuerpo es importante.

También hay que pensar en otros elementos. ¿Cuán consistente es la presencia de esos insectos en la escena? ¿Pudo el cuerpo haber sido traído de otro lado?

Muchas veces hay una relación entre la parte del cuerpo que se están comiendo los insectos y la causa de la muerte (por un tiro, por ejemplo)

Martin Hall

Hall se convirtió en detective casi sin darse cuenta

Martin Hall tuvo que acostumbrarse a ver -y oler- cosas espantosas como parte de su trabajo.

Lo que ahora hace a diario tiene muy poco que ver con lo que de niño creyó que haría cuando fuese grande.
Fascinado desde pequeño con los insectos, Hall coleccionaba escarabajos y moscas que atrapaba en su Zanzibar natal, en el este de África.

De joven se dedicó a estudiar el tema en profundidad, y, en 1989, comenzó a trabajar como entomólogo forense en el Museo de Historia Natural de Londres.

Parte de su labor consistía en analizar las enfermedades que sufrían los animales y vincularlas con los insectos.

Hasta ese momento, su trabajo no tenía la más mínima relación con ninguna clase de cadáver humano. Pero todo cambió en marzo de 1992, cuando la policía halló el esqueleto de una mujer en los bosques de Dorset, en el suroeste de Inglaterra.

Nuevos horizontes

La policía sabía que la entomología forense podía ofrecer la respuesta que ellos no podían hallar siguiendo los métodos tradicionales. Y así fue como las autoridades convocaron por primera vez a Hall.

"Para mí se abrió un mundo completamente nuevo", dice este hombre de 57 años.

"De repente me vi involucrado en una situación que jamás me habría imaginado".

A través del análisis de la edad y del tipo de insectos y larvas en la escena, Hall descubrió desde cuándo el cuerpo se encontraba allí.

Esta información le dio a la policía un foco en la investigación y un marco temporal en el que el cadáver pudo haber sido depositado en el bosque.

Desde entonces, Hall ha participado en numerosas pesquisas. Él forma parte de un selecto grupo de expertos en insectos en los que confía la policía.

En la actualidad, este trabajo le toma cerca de la mitad de la semana. En promedio, tiene entre 10 y 20 casos por año.

"La primera vez que ves un cadáver es inquietante, pero ahora me siento bastante cómodo", dice.

"Por lo general, los cadáveres hallados dentro de un departamento presentan más dificultades que los que se encuentran al aire libre".

"Cuando un cuerpo está en un campo puedes -hasta cierto punto- controlar tus emociones y observar la escena desde la distancia".

"Mientras que en una casa", agrega, "hay más artefactos y señales de vida, más claves que hacen evidente que se trata de una persona que estuvo viva hasta hace poco tiempo".

Mirada alerta

Martin Hall

Desde pequeño, Hall sintió fascinación por los insectos.

En la escena del crimen Hall puede pasar desde horas hasta días.

"Tienes sólo una oportunidad para reunir evidencia y es vital no perderse nada", explica el entomólogo forense.

"Tienes que pensar como un gusano. ¿A donde iría si fuese un gusano? ¿Qué haría?
Trabajar dentro del sistema legal es algo que no guarda demasiada relación con la ciencia, pero para Hall, quien ahora es director del Departamento de Entomología del Museo de Historia Natural, es una actividad "extremadamente gratificante".

"Mucha gente se pasa el tiempo haciendo investigaciones que no llegan a ningún resultado. Para mí, es fantástico llegar a conclusiones cada pocos meses, cuandos se resuelve un caso criminal".

Fuente:

BBC Ciencia


29 de marzo de 2012

¿La aspirina reduce el riesgo de cáncer?

Molécula de ácido acetil salicílico
Que la aspirina reduce el riesgo de cáncer es algo que parecía probable y que se ha discutido en más de una ocasión. Pero no existían suficientes datos para asegurarlo con certeza. Hoy se han publicado tres estudios que aportan más datos para responder a esta pregunta. La conclusión de estos artículos es que, al parecer, el tomar bajas dosis de aspirina diariamente durante un largo periodo de tiempo, ayuda a prevenir la aparición de cáncer (disminuyendo también el número de muertes por cáncer), así como que el cáncer se propague (aparición de metástasis).

Lo primero, decir que la “Aspirina” es un nombre comercial del principio activo llamado Ácido Acetil Salicílico, que se lleva usando como analgésico durante más de 100 años. Además, en pequeñas dosis se utiliza para el tratamiento y prevención de problemas vasculares como los infartos. Sobre el uso de la aspirina en enfermedades vasculares hay bastantes estudios clínicos y varios de esos estudios han sido la base para la publicación de estos artículos sobre el efecto de la aspirina en cáncer.

Previamente se habían publicado varios artículos en los que se concluía que la aspirina reducía la incidencia de cáncer de colon. Más concretamente en uno de ellos se analizaron los datos de 5 ensayos clínicos sobre el uso de la aspirina en prevención de problemas vasculares donde mostraban que un tratamiento diario con aspirina reducía el riesgo de cáncer de colon un 24% y la mortalidad asociada a este tipo de cáncer en un 35% después de 8-10 años. En estos nuevos estudios se han analizado los datos de 43 ensayos clínicos más y se ha tenido en cuenta el efecto en todo tipo de cánceres de los que hubiera datos suficientes.

Así, han visto que en general la aspirina (tomada diariamente) reduce la aparición de cáncer en un 25% pero sólo después de 3 años de empezar el tratamiento, y este hecho era independiente de la edad, del sexo o de si se fumaba o no. Sin embargo la reducción en las muertes por cáncer sólo aparecía después de 5 años pero era de un 40%.

En este tipo de tratamientos un elemento a tener en cuenta es la toxicidad del medicamento y la aspirina tiene un problema: produce sangrados. También estudiaron esta toxicidad y vieron, que aunque los sangrados aumentaban en los primeros 3 años del tratamiento, después la aparición de los mismos disminuía y el riesgo de que aparecieran a partir de ese momento era el mismo o menor que si las personas no estuvieran tomando la aspirina.

La aparición de los sangrados ocurre porque la aspirina bloquea una enzima llamada COX-1 en las plaquetas haciendo que la agregación de las mismas disminuya y aumente el tiempo de sangrado. Debido a este efecto y a que los cánceres se propagan por la sangre generando metástasis, en otro de los estudios analizaron el efecto de la aspirina en la prevención de esta propagación. Y efectivamente comprobaron que la administración de aspirina reducía la propagación de los cánceres (aparición de metástasis), aunque había diferencias dependiendo de dónde aparecieran los nuevos tumores. Un dato interesante es que este efecto se veía incluso en pacientes a los que se les había diagnosticado el cáncer poco después de haber empezado el tratamiento, reforzando así el papel de la aspirina en la prevención de la propagación del cáncer.


Reduccion de la aparicion de diferentes tipos de metastasis. Modificado de Rothwell et al

Todavía quedan muchos datos por analizar en este tema y ya hay varios ensayos clínicos en marcha para estudiar el efecto de la aspirina en la prevención del cáncer como primer objetivo. Además, hay que entender cuál es el mecanismo por el que la aspirina produce estos efectos y tener en cuenta que otros ensayos clínicos en los que la administración de la aspirina no era diaria, sino en días alternos, no han mostrado ningun efecto de la misma sobre la aparición de cáncer.

Por esto no hay que empezar a tomar aspirina por si acaso, ya que hay personas en las que puede estar totalmente contraindicada. Como dicen los anuncios de medicamentos: consulte a su médico. Cualquier tipo de tratamiento siempre tiene que estar bajo la supervisión de un especialista, aunque con estos estudios los médicos tienen más datos para poder utilizar la aspirina como tratamiento para la prevención de ciertos tipos de cáncer.



Referencias:

Rothwell PM, Wilson M, Elwin CE, Norrving B, Algra A, Warlow CP, & Meade TW (2010). Long-term effect of aspirin on colorectal cancer incidence and mortality: 20-year follow-up of five randomised trials. Lancet, 376 (9754), 1741-50 PMID: 20970847

Rothwell, P., Price, J., Fowkes, F., Zanchetti, A., Roncaglioni, M., Tognoni, G., Lee, R., Belch, J., Wilson, M., Mehta, Z., & Meade, T. (2012). Short-term effects of daily aspirin on cancer incidence, mortality, and non-vascular death: analysis of the time course of risks and benefits in 51 randomised controlled trials The Lancet DOI: 10.1016/S0140-6736(11)61720-0


Fuente:

Caja de Ciencia
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0