Latest Posts:

Mostrando las entradas con la etiqueta revolucion industrial. Mostrar todas las entradas
Mostrando las entradas con la etiqueta revolucion industrial. Mostrar todas las entradas

2 de enero de 2018

Qué es la cuarta revolución industrial (y por qué debería preocuparnos)

5 claves para entender la REVOLUCIÓN 4.0

  • 1. Alemania fue el primer país en establecerla en la agenda de gobierno como "estrategia de alta tecnología"
  • 2. Se basa en sistemas ciberfísicos, que combinan infraestructura física con software, sensores, nanotecnología, tecnología digital de comunicaciones
  • 3. La internet de las cosas jugará un rol fundamental
  • 4. Permitirá agregar US$$14,2 billones a la economía mundial en los próximos 15 años
  • 5. Cambiará el mundo del empleo por completo y afectará a industrias en todo el planeta

A finales del siglo XVII fue la máquina de vapor. Esta vez, serán los robots integrados en sistemas ciberfísicos los responsables de una transformación radical.

Los economistas le han puesto nombre: la cuarta revolución industrial.

Marcada por la convergencia de tecnologías digitales, físicas y biológicas, anticipan que cambiará el mundo tal como lo conocemos.

¿Suena muy radical? Es que, de cumplirse los vaticinios, lo será. Y está ocurriendo, dicen, a gran escala y a toda velocidad.

"Estamos al borde de una revolución tecnológica que modificará fundamentalmente la forma en que vivimos, trabajamos y nos relacionamos. En su escala, alcance y complejidad, la transformación será distinta a cualquier cosa que el género humano haya experimentado antes", vaticina Klaus Schwab, autor del libro "La cuarta revolución industrial", publicado este año. 

Los "nuevos poderes" del cambio vendrán de la mano de la ingeniería genética y las neurotecnologías, dos áreas que parecen crípticas y lejanas para el ciudadano de a pie.

Pero las repercusiones impactarán en cómo somos y nos relacionamos hasta en los rincones más lejanos del planeta: la revolución afectará "el mercado del empleo, el futuro del trabajo, la desigualdad en el ingreso" y sus coletazos impactarán la seguridad geopolítica y los marcos éticos.

Fuente:

BBC Mundo

19 de mayo de 2014

Basta de hablar de revolución tecnológica




Si hay una idea asociada con la tecnología que hay que desterrar es que estamos presenciando o que presenciaremos una revolución.

Ya se trate del grafeno, la impresión en 3D, la biología sintética, el gas de esquisto, los grandes datos (big data) o el bitcoin, cualquier descubrimiento, técnica o invento nuevo e importante invoca la palabra con "R". Es el caballito de batalla de los proveedores del bombo tecnológico.
La idea de una revolución no solamente se utiliza para impulsar una tecnología en particular. Por ejemplo, en respuesta al cambio climático, políticos como Nicolás Stern promueven una nueva revolución industrial con bajas emisiones de carbono.

Pero qué tecnologías se usarán y, fundamentalmente, cómo serán los procesos de toma de decisiones que las rodean, parece en gran medida irrelevante. El punto es que en una revolución está la salvación.

¿Pero es la revolución una manera adecuada de describir cómo se da el cambio tecnológico o cómo podría mejorar nuestras vidas? Y si no, ¿cómo debemos definir a estos procesos?

Es fácil comprender por qué aquellos que tienen un producto o una idea para vender o promocionar recurren a este lenguaje. Suena emocionante y progresista. Pero tiene menos sentido que los periodistas, los responsables de diseñar políticas y otras personas repitan esta frase propia de las relaciones públicas.

Los que están impacientes por ver el éxito de un nuevo elemento tecnológico podrían proclamar "Es el futuro, acéptalo", pero ¿qué pasa con el derecho a dudar, criticar o simplemente rechazar una tecnología? Nuestro futuro no está tan limitado. Abrir espacios para hacernos preguntas y ver otras opciones (o como el académico de política científica Andy Stirling dice: "pluralizar el progreso") nos podría beneficiar a todos.

Esperanza

La idea de una revolución tiende a exagerar el poder de las tecnologías para impulsar un cambio por sí solas sin las ayuda de otros actores o fuerzas.

bitcoin

La moneda virtual bitcoin, una de las "revoluciones" tecnológicas del momento.

El grafeno bien podría tener un impacto enorme en nuestra vida, pero no lo va a hacer por sí mismo y no va a resolver todos nuestros problemas. La impresión en 3D solo será una revolución del consumismo si se lo permitimos.

Los grandes datos ya están teniendo un impacto significativo en muchas vidas y es probable que eso continúe, pero ¿hasta qué punto, precisamente, sigue siendo tema de debate? Las revoluciones tecnológicas y científicas son también revoluciones de la sociedad, la economía y la cultura.

Diversos factores influyen enla forma en que una tecnología termina forjando nuestras vidas, desde las normas sociales imperantes hasta las estructuras de poder existentes en la sociedad. Es peligroso esconder esos contextos debajo de la alfombra.

También cabe recordar que la Revolución Industrial no fue precisamente gloriosa para todo el mundo. Las personas sufrieron, muchos se opusieron a ella y además tuvo diversas consecuencias a largo plazo no deseadas, como las emisiones de carbono.

Actualmente estamos a mitad del bicentenario de las revueltas de los luditas (1811-1817). Más conocidos por destruir telares de vapor automatizados, tal vez no sorprenda que la palabra ludita se emplee comúnmente hoy en día para denominar a alguien que se opone y que posiblemente les teme a los avances tecnológicos.

Pero el activismo ludita en realidad se centraba más en quién debía controlar la tecnología que en estar en contra de cualquier tecnología en sí misma. Para repetir una frase muy citada del ludita George Mellor: "Dejen las máquinas, pero dispárenles a los amos". Lo que también se olvida muchas veces es el esfuerzo por sofocar este movimiento. Según el proyecto bicentenario ludita, el cuerpo de Mellor y muchos otros fueron donados a la ciencia médica como parte de su castigo.


El término "Revolución Industrial", nació 12 años después.

Lea el artículo completo en:

27 de septiembre de 2013

La historia del calentamiento global: Desde la revolución industrial hasta la actualidad

1712 – El ferretero británico Thomas Newcomen inventa el primer motor a vapor que se usa ampliamente, abriendo camino a la Revolución Industrial y al uso de carbón a gran escala. 

1800 – La población mundial llega a mil millones de personas. 

Revolución industrial

La revolución industrial impulsó el uso de carbón a gran escala.

1824 – El físico francés Joseph Fourier describe el "efecto invernadero" natural de la Tierra y escribe: "La temperatura puede aumentar por la interposición de la atmósfera, porque el calor en estado de luz encuentra menos resistencia al penetrar el aire que la que encuentra al volver al aire una vez convertido en calor no luminoso". 

1861 – El físico irlandés John Tyndall muestra que el vapor del agua y ciertos gases crean el efecto invernadero. "Este vapor acuoso es una manta más necesaria para la vida vegetal que la ropa para los hombres", concluye. Más de un siglo después, una prominente organización de investigación climática británica –el centro Tyndell– lleva su nombre en su honor. 

1886 – Karl Benz presenta su Motorwagen, considerado por muchos como el primer automóvil. 

1896 – El químico sueco Svante Arrhenius llega a la conclusión de que la combustión de carbón de la era industrial aumentará el efecto invernadero natural. Arrhenius sugiere que esto puede ser beneficioso para las futuras generaciones. Su estimación del tamaño probable del "invernadero creado por el hombre" se acerca a la de los modelos climáticos modernos: unos pocos grados Celsius por cada duplicación de CO2. 

1900 – Otro sueco, Knut Angstrom, descubre que incluso en las pequeñas concentraciones que se encuentran en la atmósfera, el CO2 absorbe partes del espectro infrarrojo. Aunque no es consciente de la importancia, Angstrom demostró que los gases presentes en pequeñas cantidades pueden producir el efecto invernadero. 

Máquina a vapor de Newcomen

El invento de Thomas Newcomen.

1927 – Las emisiones de carbono por el uso industrial de combustibles fósiles alcanzan los mil millones de toneladas por año. 

1930 – La población mundial llega los 2 mil millones. 

1938 – El ingeniero británico Guy Callendar analiza los registros de 147 estaciones meteorológicas de todo el mundo y demuestra que la temperatura ha aumentado en los últimos 100 años. También observa que las concentraciones de CO2 han crecido en el mismo período de tiempo, y sugiere que puede ser la causa del calentamiento. El llamado "efecto Callendar" es ampliamente desestimado por los meteorólogos. 

1955 – El investigador estadounidense Glibert Plass analiza en detalle la absorción de los rayos infrarrojos de varios gases utilizando una nueva generación de equipamiento, incluyendo las primeras computadoras. Llega a la conclusión de que si se doblan las concentraciones de CO2, aumentará la temperatura en 3-4ºC. 

1957 – El oceanógrafo Roger Revelle y el químico Hans Suess, ambos estadounidenses, demuestran que el agua marina no es capaz de absorber el CO2 adicional que llega a la atmósfera, como muchos habían asumido. Revelle escribe: "Los seres humanos están haciendo un experimento geofísico a gran escala". 

1958 – Utilizando equipos desarrollados por él mismo, Charles David Keeling comienza a realizar mediciones sistemáticas del CO2 atmosférico en Mauna Loa, Hawai, y en la Antártida. En pocos años, el proyecto –que continúa hoy en día– ofrece la primera prueba inequívoca de que las concentraciones de dióxido de carbono están aumentando. 

1960 – La población mundial alcanza los 3 mil millones de habitantes. 

Joseph Fourier

El francés Fourier describió el efecto invernadero natural de la atmósfera en 1824.

1965 – Un panel del Comité Asesor del presidente de Estados Unidos advierte que el efecto de invernadero es un tema de "preocupación real". 

1972 – La primera conferencia sobre medio ambiente de la ONU se lleva a cabo en Estocolmo, Suecia. El cambio climático apenas figura en la agenda, que se centra en asuntos como la polución química, las pruebas de bombas atómicas y la caza de ballenas. Como resultado se forma el Programa Medioambiental de Naciones Unidas (Unep, por sus siglas en inglés). 

1975 – La población de la Tierra llega a los 4 mil millones de personas. 

1975 – El científico estadounidense Wallace Broecker hace público el uso del término "calentamiento global" como título de un ensayo científico. 

1987 – La población mundial alcanza los 5 mil millones de personas. 

1987 – Se firma el Protocolo de Montreal, que restringe el uso de químicos que afectan a la capa de ozono. Aunque este acuerdo no tiene en cuenta el cambio climático, a la larga tiene más impacto en las emisiones de gases de efecto invernadero que el Protocolo de Kioto. 

1988 – Se forma el Panel Intergubernamental sobre Cambio Climático (IPCC, por sus siglas en inglés) para recopilar y examinar las evidencias sobre el calentamiento global. 

1989 – Las emisiones de carbono producidas por los combustibles fósiles y la industria alcanza las 6 mil millones de toneladas al año. 

Motorwagen de Benz

El Motorwagen de Benz es considerado el primer automóvil.

1990 – El IPCC hace su Primer Informe de Evaluación. En el concluye que las temperaturas han aumentado en entre 0,3 y 0,6 ºC en el último siglo, que las emisiones de la humanidad se están sumando al complemento natural de la atmósfera de los gases de efecto invernadero, y que se espera que ese añadido provoque calentamiento. 

1992 – En la Cumbre de la Tierra de Río de Janeiro, los gobiernos acuerdan la Convención Marco de las Naciones Unidas sobre el Cambio Climático (UFCCC). Su objetivo principal es "estabilizar las concentraciones de gases de efecto invernadero en la atmósfera en un nivel que prevenga la peligrosa interferencia humana en el sistema climático". Los países desarrollados aceptan reducir sus emisiones a niveles de 1990. 

1995 – El segundo informe del IPCC llega a la conclusión de que las evidencias sugieren "una influencia humana" en el clima de la Tierra. Esta es la primera declaración definitiva sobre la responsabilidad humana del cambio climático. 

1997 – Se firma el Protocolo de Kioto. Las naciones desarrolladas prometen reducir sus emisiones en un promedio de 5% para el período entre 2008-2012, con grandes variaciones en las metas de cada país. El Senado de Estados Unidos declara inmediatamente que no ratificará el tratado. 

1998 – El fenómeno meteorológico conocido como El Niño se combina con el calentamiento global y provoca el año más cálido jamás registrado. 

1999 – El planeta tiene 6 mil millones de habitantes. 

Svante Arrhenius

Svante Arrhenius observó que las emisiones de carbono aumentan el efecto invernadero natural en 1896.

2001 – El presidente de Estados Unidos George W. Bush retira a su país del proceso de Kioto. 

2001 – El tercer informe del IPCC encuentra "nueva y más sólida evidencia" de que las emisiones humanas de gases de efecto invernadero son la causa principal del calentamiento observado en la segunda mitad del siglo XX. 

2005 – El Protocolo de Kioto se convierte en ley internacional para aquellos países que lo integran. 

2006 – El informe Stern sobre la economía del cambio climático estima que el calentamiento global podría perjudicar el Producto Bruto Interno (PBI) global en hasta un 20% si no se controla, pero afirma que el costo de frenarlo será de alrededor del 1% del PBI mundial. 

2006 – Las emisiones de carbono de la industria y los combustibles fósiles llega a los 8 mil millones de toneladas por año. 

2007 – El cuarto informe del IPCC sostiene que la posibilidad de que las emisiones humanas de gases de efecto invernaderos sean las responsables del cambio climático es del 90%. 

2007 – Al Gore, exvicepresidente estadounidense y miembro del IPCC, recibe el Premio Nobel de la Paz "por sus esfuerzos por ampliar y difundir el conocimiento sobre el cambio climático provocado por el hombre, y por crear las bases para las medidas necesarias para contrarrestar ese cambio". 

2007 – En negociaciones de la ONU en Bali, Indonesia, los gobiernos acuerdan la "Hoja de ruta de Bali", que tiene como objetivo promover un nuevo tratado global para finales de 2009. 

2008 – Tras medio siglo del comienzo de las mediciones de Mauna Loa, el proyecto Keeling muestra que las concentraciones de CO2 han crecido de 315 partes por millón (ppm) en 1958 a 380ppm en 2008. 

2008 – Dos meses antes de asumir el cargo, el presidente Barack Obama promete “comprometerse vigorosamente” con el resto del mundo para lidiar con el cambio climático. 

Polución

Nuevos datos muestran que la concentración de gases en la atmósfera crece más rápido que antes.

2009 – China supera a Estados Unidos como el mayor emisor de gases de efecto invernadero, aunque EE.UU. sigue a la cabeza en términos de emisiones per cápita. 

2009 – Piratas informáticos descargan una enorme cantidad de correos electrónicos de un servidor de la Unidad de Investigación del Clima de la Universidad de East Anglia, en Reino Unido. Más de 1.000 correos privados entre científicos todo el mundo so publicados en internet, provocando un escándalo conocido como “Climagate” y sugiriendo la manipulación de datos sobre el calentamiento global. 

2009 – Los gobiernos de 192 países acuden a la Cumbre del Clima de la ONU en Copenhagen con expectativas de alcanzar un nuevo acuerdo global, pero sólo logran hacer una polémica declaración política, el Acuerdo de Copenhagen. 

2010 – Los países industrializados comienzan a contribuir, con una inversión de US$30 mil millones en tres años, con un fondo internacional para desarrollar economías más sostenibles y buscar la adaptación al impacto del clima. 

2010 – La cumbre de la ONU en México no acaba en colapso, como se temía, sino que consigue un número de acuerdos sobre diversos temas. 

2011 – Un nuevo análisis del registro de temperaturas de la Tierra realizado por científicos preocupados por las acusaciones del llamado "Climagate" demuestra que la superficie terrestre realmente se ha calentado en el último siglo. 

2011 – La población llega a los 7 mil millones. 

2011 – Los datos muestran que las concentraciones de gases de efecto invernadero están aumentando más rápidamente que en años anteriores. 

2012 – El hielo del Ártico se retrae hasta una extensión mínima en verano de 3,41 millones de km2, un récord desde que comenzaron las mediciones satelitales en 1979. 

2013 – El Observatorio de Mauna Loa en Hawai informa que la concentración diaria de CO2 en la atmósfera ha superado las 400 partes por millón (ppm) por primera vez desde que comenzaron las mediciones en 1958. 

Fuente:

BBC Ciencia

28 de marzo de 2013

Científicos pluriempleados

El otro día me despachaba a gusto a propósito del escaso rigor científico que muestran la mayoría de novelas, poniendo algunos ejemplos sobre cómo ha sido tratado el oxígeno, sin embargo, no es menos cierto que muchos novelistas también han sido científicos, y no sólo en el ámbito de la ciencia ficción hard

Por ejemplo, sólo en el ámbito de la medicina podemos encontrar a los siguientes autores, entre muchos otros: Arthur Conan Doyle, Anton Chéjov, John Keats, François Rabelais u Oliver Goldsmith. Y en matemáticas, también hay una autor mundialmente famoso, Lewis Carroll, el responsable de Alicia en el país de las maravillas, que fue uno de los principales matemáticos ingleses de su tiempo.

Y es que muchos científicos no han cultivado una única afición relacionada con la ciencia, sino que incluso han estado empleados en otros trabajos que nada tenían que ver con su vocación. He aquí una pequeña lista de ejemplos:

Pierre de Fermat: además de matemático, fue abogado penalista.

Isaac Newton: fue miembro del Parlamento, director de la Real Casa de la Moneda y teólogo especulativo.

Georg Büchner: realizó estudios del barbo común, un pez de la familia de la carpa, pero también fue autor de Woyzeck y La muerte de Danton.

Vladimir Nabokov: además de ser autor de Lolita, su obra más polémica, era un lepidopterólogo especializado en las mariposas azules americanas.

John Cage: era experto en hongos del género Amanita, y también compositor experimental. 

Podéis encontrar más ejemplos de científicos pluriempleados en el mundo eclesiástico. Y es que, el lugares como Gran Bretaña, la profesión de párroco o rector rural también proporcionó avances en la ciencia y la técnica, pues recaían buenos sueldos a cambio de relativamente poco trabajo, así que también disponían de mucho tiempo libre.

 En 1851, por ejemplo, en Gran Bretaña había 17.621 pastores anglicanos, y para ser pastor era también un requisito indispensable el poseer un título universitario. De modo que se fue creando una clase cultivada y rica, con ejemplos como:

El rector de la parroquia rural de Leicestershire, Edmund Cartwright, inventor del telar mecánico.

El reverendo de Oxford William Buckland, que describió científicamente por primera vez a los dinosaurios y también fue una autoridad mundial en coprolitos (heces fosilizadas). 

El reverendo de Durham William Greenwell, que fue el padre fundador de la arqueología moderna. 

O el párroco de Kent Thomas Bayes, que desarrolló el célebre Teorema de Bayes, que se emplea actualmente para determinar probabilidades estadísticamente fiables partiendo de información parcial. Podéis leer más sobre ello en Midiendo tus creencias: el teorema de Bayes.

Fuente:

Xakata Ciencia

16 de noviembre de 2012

¿Hemos comido siempre tres veces al día?

Niño comiendo un sándwich

El sándwich es el alimento básico del almuerzo moderno.

Muchos de nosotros, procedentes de distintos países del mundo, crecimos con la idea de que comer tres veces al día es un esquema normal de alimentación, pero la realidad es que no siempre ha sido así.

Con frecuencia escuchamos que la sagrada cena familiar alrededor de la mesa está en declive y Reino Unido no es el único país que está experimentando este cambio.

El argumento en defensa del desayuno, que muchos se saltan con sus correspondientes efectos perjudiciales, es que nos hace estar más alerta, nos mantiene esbeltos y mejora el trabajo y comportamiento de los niños en la escuela.
Pero, cuando las personas se preocupan porque creen que romper las tradicionales tres comidas al día es dañino, ¿tienen razón en cuanto a la parte tradicional? ¿Ha comido la gente siempre de acuerdo a dicho patrón?

Desayuno

Desayuno inglés

No todas las culturas valoraron el desayuno de la misma manera.

El desayuno tal como lo conocemos no existió durante grandes etapas de la historia. Los Romanos no lo tomaban, puesto que generalmente sólo consumían una comida al día, alrededor de mediodía, según explica la historiadora especializada en alimentación, Caroline Yeldham. De hecho, el desayuno se veía con desagrado.

"Los Romanos creían que era más sano hacer sólo una comida al día", dice. "Estaban obsesionados con la digestión, y comer más de una vez se consideraba una forma de glotonería. Esta manera de pensar influyó en la manera en que la gente comió durante mucho tiempo".

En la Edad Media, la vida monástica diseñó cómo comía la gente, explica el historiador experto en comidas, Ivan Day. No se podía comer nada antes de la misa de la mañana, y sólo se podía comer carne la mitad de los días del año. Se cree que la palabra desayuno se introdujo en esta época y literalmente significaba "romper el ayuno de la noche".
"Los Romanos creían que era más sano hacer sólo una comida al día. Estaban obsesionados con la digestión, y comer más de una vez se consideraba una forma de glotonería"
Caroline Yeldham, historiadora especializada en hábitos de comida

La Revolución Industrial de mediados del siglo XIX regularizó los horarios laborales y los trabajadores necesitaron adoptar una comida temprana para mantener la energía durante el trabajo.

Todas las clases sociales empezaron a comer una comida antes de ir a trabajar, incluso los jefes.

Al llegar el siglo XX, el desayuno vivió una nueva revolución de la mano del estadounidense John Harvey Kellogg. Accidentalmente, Kellogg dejó trigo hervido y se puso duro.

Lo pasó por unos rodillos y lo cocinó, creando el primer copo de maíz (cornflake) del mundo. De ahí desarrolló una industria que generaría miles de millones de dólares.

Llegadas las décadas de los años 1920 y 1930, las autoridades promocionaban el desayuno como la comida más importante del día, pero entonces, la Segunda Guerra Mundial convirtió al desayuno en algo difícil de conseguir.

Conforme los británicos se fueron recuperando de los años post-bélicos y se adentraron en la década de los 50, de liberación económica, objetos como las tostadoras estadounidenses, o alimentos como el pan en rebanadas, el café instantáneo y los cereales invadieron los hogares.

Es decir, el desayuno tal como lo conocemos.

Almuerzo

Menú británico

El almuerzo ayuda a continuar con energía la jornada laboral.

La terminología alrededor de la comida es confusa. Para algunos el almuerzo o comida es la cena, y viceversa. Desde tiempos de los Romanos hasta la Edad Media, todo el mundo comía en la mitad del día, pero se le llamaba cena y era la principal comida del día.

El almuerzo tal como lo conocemos actualmente no existía, ni siquiera la palabra.

Durante la Edad Media, la luz del día marcaba las comidas, dice el historiador Day.

Sin electricidad, la gente se levantaba antes para aprovechar la luz. Los trabajadores estaban en el campo desde el amanecer, por lo que para mediodía estaban hambrientos.

Para mediodía, los empleados habían trabajado ya hasta seis horas. Se tomaban un descanso rápido y comían una suerte de tentempié, generalmente pan y queso.

Con el desarrollo de la luz artificial, la cena empezó a ser más tardía para los más adinerados, y como resultado, se necesitó incorporar una comida más ligera durante el día.

Fue el famoso snack de última hora de la noche del Conde de Sandwich en 1750 lo que terminó de dominar el menú del almuerzo moderno. Una noche, el aristócrata le pidió a su ayuda de cámara que le trajera carne fría en pan. Podía comer el tentempié con sólo una mano sin mancharse de grasa.
"Reino Unido fue el primer país del mundo en alimentar a la gente con comida industrial"
Ivan Day, historiador

No está claro si el conde estaba jugando a las cartas o trabajando, se barajan ambas opciones. Pero sea lo que fuera que estaba haciendo, esto supuso el nacimiento del sándwich.

En esa época, el almuerzo, sin embargo, seguía siendo conocido "como un evento accidental que ocurría entre comidas", comenta la historiadora Monica Askay.

Una vez más, fue la Revolución Industrial la que ayudó a modelar el almuerzo tal como lo conocemos actualmente.

Los patrones de comida de las clases baja y media se definieron por los horarios de trabajo. Muchas personas trabajaban largas jornadas en las fábricas y una comida a mediodía era esencial para mantenerlos con fuerza.

Se vendían pastelillos fuera de las fábricas. La gente empezó también a confiar en los alimentos producidos en masa, ya que no había sitio suficiente en las ciudades para tener establos o cultivar alimentos propios. Muchos no tenían siquiera una cocina.

"Reino Unido fue el primer país del mundo en alimentar a la gente con comida industrial", dice Day.

El ritual de llevar el almuerzo al trabajo se convirtió en parte de la rutina diaria.

Cena

Cena familiar

Las cenas con toda la familia están en declive.

La cena es la única comida que hacían los Romanos, incluso aunque fuera a una hora diferente del día.

En Reino Unido, el apogeo de la cena llegó con la Edad Media. La aristocracia comía cenas formales y extraordinariamente fastuosas en torno al mediodía.

Pese a su reputación de ser encuentros sin normas, las cenas eran en realidad bastante sofisticadas, con estrictos modales de comportamiento en la mesa.

Eran una muestra ostentosa de riqueza y poder, con cocineros que trabajaban en la cocina desde el amanecer para tenerlo todo listo, cuenta Yeldham.

Sin electricidad, cocinar la cena en la noche no era una opción. Los campesinos comían la cena alrededor del mediodía también, aunque era algo mucho más modesto.

Según se extendió el uso de la luz artificial, se empezó a comer la cena cada vez más tarde en el día.

Para finales del siglo XVIII, la mayor parte de la gente hacía tres comidas al día en las ciudades, asegura Day.

A comienzos del siglo XIX, la cena se había pospuesto hasta la noche, después del trabajo, cuando la gente regresaba a casa. Muchos, sin embargo, mantuvieron la tradicional hora de la cena los domingos.

La sagrada cena familiar a la que estamos tan acostumbrados se hizo accesible a todos durante la locura del consumo de los años 50. Nuevos electrodomésticos llegaron a Europa desde Estados Unidos y se configuró la imagen de la mujer cocinando en casa.

El golpe mortal a la cena familiar llegó supuestamente en 1986, cuando apareció la primera comida para microondas.

Pero si bien es cierto que menos personas celebran una cena formal familiar hoy en día, indudablemente éstas no han desaparecido – impulsadas por las fenomenales ventas de libros de receta escritos por chefs populares.

Fuente:

BBC Ciencia

Contenido relacionado

14 de noviembre de 2012

Metano y cambio climático exponencial



Cuatro estudios publicados en los últimos días se han centrado en el metano en la Tierra y en su emisión a la atmósfera. El primero explica la evolución del metano atmosférico en las últimas décadas, en otro se da una explicación a la producción de metano en los océanos y en los otros dos se constata la presencia de grandes cantidades de metano bajo los hielos polares, metano que ya se estaría liberando a la atmósfera y cuyo ritmo podría incrementarse en los próximos años con consecuencias potencialmente desastrosas.

Antes de nada veamos la importancia del metano para el cambio climático con cuatro números tomados del IPCC Fourth Assesment Report. Todos solemos asociar el calentamiento global al dióxido de carbono como responsable del efecto invernadero, y esto es correcto pero no es todo el cuadro. En un período de 100 años, a igualdad de masa emitida a la atmósfera, el metano tiene 25 veces la capacidad del dióxido de carbono para afectar al calentamiento global.

Maticemos. El metano tiene efectos grandes en períodos cortos de tiempo (se degrada en contacto con el oxígeno y el ozono y su vida es de 8,4 años en la atmósfera, contribuyendo de paso a la desaparición de la capa de este último), mientras que el dióxido de carbono tiene un efecto pequeño durante largos períodos de tiempo (más de 100 años). Si reducimos el tiempo considerado a 20 años, a igualdad de masa emitida, el metano tiene 72 veces más efecto que el dióxido de carbono. Vemos así las consecuencias a corto plazo que la emisión de grandes cantidades de metano a la atmósfera puede tener.

La concentración de metano atmosférico se ha incrementado alrededor del 150% desde 1750 y este incremento representa el 20% de todo el efecto radiativo de todos los gases con efecto invernadero a nivel global, excluido el vapor de agua.

Sin embargo, entre 1980 y 2005 las cantidades de metano en la atmósfera se estabilizaron. ¿Cómo era posible? Un artículo [1] publicado en Nature parece confirmar una de las hipótesis posibles. El estudio, encabezado Isobel Simpson, de la Universidad de California en Irvine (EE.UU.), indicaría que el 70% del descenso, hasta 21 millones de toneladas al año, se debía al mejor control en las emisiones ocasionadas por la exploración petrolífera y del aprovechamiento del metano como recurso energético.

Sin embargo, desde 2007 los niveles vuelven a subir. ¿Por qué?

Los océanos producen un 4% del metano emitido a la atmósfera.

El que el océano produzca metano es paradójico. El agua del mar tanto por sí misma como por el oxígeno disuelto que contiene tendría que tener la capacidad de oxidar el metano. La cantidad de metano que tendría que estar produciéndose es mucho más alta de la que sería producida por microorganismos anaerobios metanogénicos para que tanto metano pudiera escapar del mar sin oxidarse.

En 2008 se propuso un posible mecanismo para aguas en las que no hubiese cantidades significativas de fosfato. Los microbios aerobios podrían metabolizar un compuesto llamado ácido metilfosfónico (AMF) como fuente de fosfato, liberando metano como subproducto. Esto estaba muy bien y podría ser una solución a la paradoja si no hubiese sido porque no se conocía ninguna fuente natural de AMF.

Ahora un equipo de investigadores encabezado por William Metclaf, de la Universidad de Illinois en Urbana-Champaign, publica [2] en Science el descubrimiento, dicho sea de paso por casualidad, de toda una ruta biosintética para el AMF que sugiere que la molécula es común en los ambientes marinos.

Los investigadores están especializados en la búsqueda de nuevos compuestos antibióticos. Un grupos de compuestos potenciales son los ácidos fosfónicos, por lo que estaban buscando organismos que tengan la capacidad genética de producirlos. Uno de estos organismos es un arqueon marino llamado Nitrosopumilus maritimius, parte de un grupo cuyos miembros están entre los microorganismos más abundantes en las aguas marinas superficiales. Los investigadores identificaron un grupos de genes que podrían sintetizar fosfonatos. Cual no sería su sorpresa al descubrir que el producto sintetizado era AMF.

Si tenemos en cuenta que secuencias genéticas similares se encuentran en otros microorganismos marinos, hace que el AMF sea lo suficientemente abundante para dar cuenta de la producción de metano en ambientes marinos. ¿Podría un aumento de la temperatura global aumentar el número de estos microorganismos aumentando la producción de metano? No lo sabemos. Es necesario investigar más y no es una pregunta fácil de responder.

Hay metano atrapado en el hielo del Ártico. Y se está derritiendo.

En abril de 2011 aparecía, editado por Plaza y Janés, “En mares salvajes” de Javier Reverte. En este libro de viajes, escrito con la maestría habitual de Reverte, éste narra su navegación a través del mítico paso del noroeste (norte de Canadá), abierto a la navegación por la retirada de los hielos árticos desde el 2007. Desde 2010 está también abierto el paso del noreste (norte de Rusia).

En la página 346, Reverte nos cuenta lo siguiente, tras exponer las consecuencias para el entorno que el acceso al Ártico supone:

“Pero este escenario se torna casi apocalíptico si tenemos en cuenta otro hecho: en la tundra, debajo de la tierra de las islas, se cubre una capa de hielo que cubre cantidades ingentes de turba, una materia orgánica formada a lo largo de miles de años por residuos vegetales. Si el hielo subterráneo de la tundra se derrite, la turba comenzará a romperse, provocando grandes emanaciones de gas metano, lo que creará en la atmósfera un descenso de oxígeno y la extinción de numerosas especies.”

Un estudio [3] publicado en Nature, encabezado por J.E. Vonk, de la Universidad de Estocolmo (Suecia), ha estudiado el ritmo al que se está emitiendo carbono (dióxido de carbono y metano) a la atmósfera desde el permafrost siberiano, donde las temperaturas se han incrementado en varios grados más de lo previsto en los últimos años, encontrando que es del orden de 10 veces más de lo que se creía. Hablamos de la emisión de 44 millones de toneladas al año de carbono, dos tercios en forma de dióxido de carbono.

La capa de hielo del Antártico también es una fuente de metano no considerada hasta ahora.

También en Nature aparece otro artículo [4], cuya primera autora es Jemma Wadham, de la Universidad de Bristol (Reino Unido), en el que se sugiere que la capa de hielo antártica podría esconder 20 mil millones de toneladas de carbono orgánico. Esto viene a ser unas 10 veces la cantidad que se estima que hay en el permafrost ártico. Pero la cosa no queda ahí. En el estudio se pone de manifiesto que estos entornos debajo del hielo son biológicamente activos, es decir, que este carbono orgánico se está metabolizando y de aparecer lo haría en forma de dióxido de carbono y metano.

Una simulación numérica de la producción de metano por parte de microorganismos metanogénicos indicaría que habría hasta 400 mil millones de toneladas de metano atrapadas bajo el hielo.

¿Nos damos cuenta de lo que esto significa de seguir aumentando la temperatura global?

Fuente:

3 de julio de 2012

El legado tóxico de la Revolución Industrial

Daños ambientales de la Revolución Industrial.

Las tierras pantanosas saturadas de lluvia ácida se erosionan con facilidad.

La Revolución Industrial impulsada por Inglaterra en el siglo XIX es considerada como uno de los hitos que generó los mayores cambios tecnológicos, económicos, sociológicos y culturales en la historia de la humanidad.

Pero esta transformación profunda en la producción de bienes trajo aparejados un sinnúmero de problemas ambientales cuyos efectos perduran hasta la fecha y que los científicos siguen tratando de revertir. 

Según los expertos, los metales como el plomo o el estaño continúan desprendiéndose de las minas y contaminando fuentes de agua potable, envenenando ríos, contribuyendo al cambio climático y afectando grandes áreas del paisaje.

"A menos que hagamos algo", le dijo a la BBC el especialista en contaminación minera de la Agencia Medioambiental del Reino Unido Hugh Potter, "sentiremos el impacto por muchos años más".

Recuperar la biodiversidad

Cornualles

Los años de minería en Cornualles transformaron el paisaje visual y químicamente.

En la actualidad se están llevado a cabo una serie de proyectos para reparar daños históricos.

Uno de ellos tiene lugar en las llanuras anegadizas de Bleaklow, en el norte de Inglaterra. En esta región, la contaminación provocada por las antiguas fábricas hizo que la turba se tornase más ácida que el jugo de limón.

"Fue un desastre ambiental", asegura Chris Dean, director de la iniciativa que busca reparar 44 kilómetros de turba arruinada por más de 150 años de lluvia ácida.

Estas precipitaciones, contaminadas con el humo expulsado por las chimeneas de las fábricas, "acabaron rápidamente con el musgo que protege a la turba", explica Dean.


Al quedar sin cobertura, la tierra es erosionada y los sedimentos son arrastrados a las reservas de agua, por lo que las compañías encargadas de las plantas de tratamiento de agua deben gastar grandes sumas de dinero para filtrarla y hacerla potable.

Cuando están en buenas condiciones, los páramos son muy absorbentes. Actúan a modo de esponja y evitan las inundaciones. Al estar dañados, el agua se escurre fácilmente.

Estos páramos de turba son además uno de los mayores reservorios de carbono en el Reino Unido. Si se erosionan, el carbono se libera en el aire como dióxido de carbono, uno de los gases que contribuyen en mayor medida al efecto invernadero.

"Algunas zonas están demasiado dañadas para recuperarlas por completo. Pero hemos hecho grandes progresos y podemos lograr que algunas áreas sean mucho más biodiversas y que los ecosistemas vuelvan a brindar los servicios que necesitamos", añade Dean.

Minas abandonadas

Páramos

Los expertos exploran desde el aire los efectos de la erosión.

Uno de los problemas menos obvios pero más generalizados es el de la contaminación que se produce cuando se inundan las minas y el excedente de agua llega a los ríos y a las tierras aledañas.

En el Reino Unido, las minas abandonadas antes de 1999 no tienen la obligación de descontaminar la zona. 

Y mientras que existe un organismo público encargado de lidiar con los problemas generados por las minas de carbón, los esfuerzos por limpiar las minas que no son de carbón han sido poco sistemáticos.

Se estima que cerca de 3.000 kilómetros de canales de agua en el Reino Unido están afectados por sustancias como el cadmio, el zinc, el plomo y el arsénico.

Aunque el riesgo de beber agua que contiene restos de estos metales es bajo debido a que los seres humanos toleran relativamente bien este tipo de contaminación, la vida acuática en los ríos contaminados se ha reducido.

Y aún no se sabe con exactitud cuáles son los efectos que la contaminación por estos metales pueda tener en la cadena alimentaria.

Equilibrio

Minas

Esta antigua mina de cobre en una isla de Escocia contenía residuos tóxicos de plomo y arsénico.

En el condado de Cornualles, en el suroeste de Inglaterra, el problema es de más largo alcance y costoso de solucionar.

La instalación de una planta de tratamiento de agua en una antigua mina de estaño significó un costo de más de US$30 millones, mientras una zona que rodea a una mina cercana debió ser acordonada por ser demasiado tóxica.

Se cree que en esta región del país hay por lo menos unas 2.000 minas abandonadas, lo cual significa que cientos de hectáreas -tanto en zonas rurales como urbanas- están afectadas.

La magnitud del problema a nivel nacional recién ahora está empezando a identificarse. Una estimación reciente indica que el costo del tratamiento puede ser de US$600 millones en los próximos diez años.

Tan profundo ha sido el impacto de la contaminación en algunos paisajes que en algunas zonas ha comenzado a surgir una mezcla inusual de plantas y vida silvestre. En Cornualles, por ejemplo, los desechos de las minas de plomo han dado lugar a una combinación de plantas típicas de la costa con plantas de monte.

Aunque estas plantas ahora están oficialmente protegidas, los científicos continúan buscando una solución, tratando de mantener un balance entre las especies diezmadas y la nueva vida silvestre.

Fuente:

BBC Ciencia


Contenido relacionado
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0