Latest Posts:

Mostrando las entradas con la etiqueta termodinamica. Mostrar todas las entradas
Mostrando las entradas con la etiqueta termodinamica. Mostrar todas las entradas

5 de febrero de 2019

Atención: sepa cómo evitar el “golpe de calor” este verano

Las altas temperaturas afectan la salud sobre todo a niños, mujeres embarazadas y adultos.


Ante las altas temperaturas que se registran en la capital, especialistas del Ministerio de Salud (Minsa) recomendaron adoptar medidas sencillas para evitar el “golpe de calor”, que puede afectar la salud sobre todo a niños, mujeres embarazadas y adultos mayores.

El médico infectólogo del Instituto Nacional de Salud (INS) del Minsa, Dr. Manuel Espinoza Silva, señaló que el “golpe de calor” se caracteriza por presentar fiebre, dolor de cabeza, sensación de vértigo, náuseas, confusión, diarrea, sequedad en la boca, respiración rápida, pulso débil, piel enrojecida, y hasta la pérdida de la conciencia.


“El golpe de calor puede afectar a personas de cualquier edad, pero los grupos de mayor riesgo son los niños, que no manifiestan sus síntomas con facilidad, así como las mujeres embarazadas y los mayores de 65 años”, detalló.

Explicó que esta afectación ocurre generalmente como consecuencia de la exposición prolongada y el esfuerzo físico en altas temperaturas.

“El golpe de calor es la forma más grave de lesión por calor y puede ocurrir si la temperatura del cuerpo alcanza los 40 grados o más, sin tener ninguna enfermedad o infección”, señaló.

Siga estas recomendaciones

El especialista instó a las personas a beber abundante agua (entre 6 a 8 vasos al día) para evitar la deshidratación, usar sombreros de ala ancha, vestir ropa holgada de algodón, mantener las viviendas y lugares de trabajo ventilados.

Asimismo, recomendó evitar exponerse al sol, en exceso, en horas centrales del día (entre las 11 y las 17 horas), evitar consumir alcohol y comidas muy abundantes y grasosas o con alto contenido de azúcares.

“Es mejor priorizar la ingesta de verduras, como la lechuga, acelga, pepinillo, rabanitos, tomate, caigua o nabo; y frutas como el melón, sandía, pepino, entre otras”, recomendó.

Finalmente, señaló que, en caso de presentar síntomas, es importante acudir de inmediato al establecimiento de salud. “Durante el trayecto al servicio de emergencia, se puede utilizar paños de agua tibia o bañar al paciente también con agua tibia”, indicó.
 
 

17 de julio de 2018

¿Se calienta más al sol un coche negro que uno blanco?

Los coches se calientan debido al efecto invernadero: la luz solar que atraviesa la ventana es absorbida por las superficies del interior, y reflejada de vuelta al aire en forma de calor. Esta radiación en forma de calor no puede salir hacia fuera a través del cristal, de modo que la la temperatura interior aumenta frente al exterior. "El interior del coche se calienta porque entra radiación que no puede salir", aclara Klein. El color del interior del vehículo sí puede condicionar la cantidad de calor acumulado, ya que las superficies internas oscuras absorben más energía solar, pero el color de la carrocería no ejerce ninguna influencia.

El color externo de un vehículo no afecta a la cantidad de calor que acumula cuando se expone al sol, según comprobó el año pasado Sanford Klein, del Laboratorio de Energía Solar de la Universidad de Wisconsin Madison.

Fuente:

Muy Interesante

8 de enero de 2018

2017-2018: cambia nuevamente el año, pero ¿qué es realmente el tiempo? ¿Es cierto que solo existe el presente efímero?

Termina un año y comienza otro... Y sí, otra vez caemos en la cuenta de que el tiempo pasa, implacable. 

Pero ¿te has preguntado alguna vez qué es realmente el tiempo más allá de lo que marcan los relojes y los calendarios?

Piénsalo un momento. 

En nuestra experiencia como seres humanos percibimos el tiempo como una secuencia de sucesos.

Es decir: un futuro que se vuelve presente y un presente que se transforma en pasado.

Sentimos que el presente es lo único que existe, pero es efímero, se esfuma a cada segundo. 

Pensamos que el pasado es lo que ha dejado de ser y se aleja de nosotros rumbo al olvido, aunque parte de él permanece en nuestros recuerdos.

Y creemos que el futuro es algo potencial que aún no ha sucedido y promete diversos caminos alternativos.

Pero ¿qué hay de cierto en todo esto? ¿Es el tiempo algo real o una mera ilusión? ¿O una mezcla de ambos?

Prepárate, porque lo que dice la física clásica y actual al respecto puede dejarte perplejo, ya que cuestiona algunas de las creencias más difundidas sobre nuestro devenir.

¿Distintos tiempos?

"Los físicos no se ponen de acuerdo a la hora de contestar la pregunta general de qué es el tiempo", le comenta a BBC Mundo el Dr. Chamkaur Ghag, reconocido investigador del Departamento de Física y Astronomía del University College de Londres (UCL).

"Pero sí hay consenso en aceptar lo que dice la teoría de la relatividad de Albert Einstein, que presenta un universo donde el espacio y el tiempo son inseparables y se influyen mutuamente, y donde los fenómenos se experimentan de distintas maneras según el estado de movimiento de los observadores".

En este cosmos el tiempo es relativo, explica Ghag: se dilata a medida que un cuerpo se mueve más rápido en relación con otros. Cuanto más se aproxima un objeto (o un individuo) a la velocidad de la luz, más notoria es la desaceleración del reloj.

Según Einstein, el tiempo también transcurre más lentamente cuando un cuerpo experimenta una fuerza gravitacional mayor.

En la película "Interstellar" (2014), de Christopher Nolan, hay una escena que lo explica bien: el protagonista desciende a un planeta sometido a una intensa gravedad por encontrarse cerca de un agujero negro. Cuando regresa a la nave nodriza tras lo que para él ha sido más de una hora, se encuentra con un compañero para el que han pasado... 23 años.

La dilatación del tiempo ha sido comprobada de manera experimental en las últimas décadas usando ultraprecisos relojes atómicos y modernos aceleradores de partículas. A lo que se ha sumado la reciente detección de las ondas gravitacionales generadas por las distorsiones en el espacio-tiempo. 

Varios triunfos para las ideas de Einstein.

"Otro de los principios aceptados por los físicos es que el tiempo va para adelante y nunca para atrás", dice el Dr. Ghag.
 
"Y esto lo explica la segunda ley de la termodinámica: la entropía. Significa que las cosas van del orden al desorden".

El artículo completo en:

BBC Mundo

3 de septiembre de 2016

Crean un polo (camiseta) con 'aire acondicionado' contra el calor

Está fabricada con una variante de polietileno con poros microscópicos que reflejan la luz visible y permiten que escape el calor corporal.

Con este polo estarás casi 3°C más fresco!!!!
 




Recreación de las micro fibras de los polos que mantendrán siempre freco.

Con más o menos acierto, el ser humano se ha vestido a lo largo de toda la historia con pieles de animales y diferentes tejidos para mantener el calor corporal, pero diseñar ropas que logren justo lo contrario aún hoy es un reto. La clave para crear prendas más frescas es utilizar materiales que permitan la transpiración. Una estrategia que no llegó a convencer al grupo de ingenieros de la Universidad de Stanford (en Estados Unidos) que ha desarrollado un tejido que refleja la luz solar y facilita la expulsión de calor. Su estudio acaba de ser publicado en la revista Science.


"Si puedes enfriar a la persona en lugar del edificio donde vive o trabaja, podremos ahorrar energía". Así resume la filosofía de este trabajo Yi Cui, uno de los autores y profesor asociado de Ciencias e Ingeniería de los Materiales y Ciencias Fotónicas en Stanford. El problema es que, a la temperatura normal de la superficie de la piel, 34ºC, el cuerpo humano emite radiación infrarroja en un rango de longitud de onda que se solapa en parte con el espectro de la luz visible. En otras palabras: si la prenda no es transparente, no deja salir el calor. Y nadie querría vestirse para seguir pareciendo desnudo. 

La solución vino de la mano de un tipo de plástico: el polietileno con nanoporos (denominado nanoPE). Este material es opaco y posee poros conectados con un diámetro de entre 50 y 1.000 nanómetros, un tamaño que permite dispersar y reflejar la luz visible a la vez que deja pasar la radiación infrarroja. Para que sea más parecido a una tela convencional, los científicos crearon un tejido formado por tres capas: dos láminas de esta variante de polietileno separadas por una malla de algodón, que aporta resistencia y espesor al conjunto. 

El artículo completo en:

El Mundo (España)

3 de julio de 2016

Las leyes de la Termodinámica... ¡en cinco minutos!

Saludos

Nuevamente les dejo un video de Quantum Fracture, esta vez nos explican, en tan solo cinco minutos, las leyes de la termodinámica.

¿Qué es la termodinámica?

En la web de Profesor en Línea encontramos la siguiente definición: La termodinámica (del griego  termo, que significa "calor"dinámico, que significa "fuerza") es una rama de la física que estudia los fenómenos relacionados con el calor.

Específicamente, la termodinámica se ocupa de las propiedades macroscópicas (grandes, en oposición a lo microscópico o pequeño) de la materia, especialmente las que son afectadas por el calor y la temperatura, así como de la transformación de unas formas de energía en otras. 


Se considera a Nicolas Léonard Sadi Carnot, que aparece en la imagen de ariba, (París, 1 de junio de 1796 - 24 de agosto de 1832), como el padre de la Termodinámica. 



Ahora veamos el video para conocer más de cerca las Leyes de la Termodinámica: 


Visiten siempre nuestro blog para más ciencia y más experimentos!!!

Un fuerte abrazo


Leonardo Sánchez Coello


Archivos de Conocer Ciencia:






Experimentos: Cómo congelar agua ¡en menos de un minuto!





Un experimento sencillo y fascinante, solo se necesita agua embotellada, les sugieron que primero practiquen empleando marcas de diferentes de agua embotellada (agua sin gas).


Les dejo el video, es súper fácil de realizar, pero si eres menor de edad primero pide permiso a tu mamá o papá para que puedas usar el refrigerador.


Una variante del experimento, en el que emplea sal para acelerar el proceso de congelación, se puede econtrar en la web de la BBC

23 de marzo de 2015

La escalofriante historia del frío artificial

Refrigeradores, aires acondicionados, sistemas de enfriamiento de cuanto aparato eléctronico exista... Aunque a veces no somos conscientes de su existencia, en el siglo XXI es difícil imaginar la vida sin el frío artificial.
Pero todo empezó hace 200 años con unos cubos gigantes de hielo. Esta es la escalofriante -por sorprendente- historia de los hombres que cambiaron el planeta para siempre, bajándole la temperatura.

1. El terco mercader que quería venderle hielo al Caribe

A comienzos del verano de 1834, un barco de tres mástiles llamado Madagascar entró al puerto de Río de Janeiro, con la carga más inimaginable: un lago congelado de Nueva Inglaterra.

Frederic Tudor
Tudor era bastante cabeza dura.

El Madagascar y su tripulación trabajaban para un empresario innovador y testarudo de Boston: Frederic Tudor.
Como dignos representantes de la clase acomodada bostoniana, la familia Tudor había disfrutado del agua congelada del estanque de su casa de campo, Rockwood, no sólo por su belleza estética, sino también por su capacidad para mantener las cosas frías.
Los Tudor almacenaban bloques de agua congelada -enormes cubos de 90 kilos de peso- en habitaciones especialmente acondicionadas, donde se mantenían hasta que llegaba el verano y comenzaba un nuevo ritual: cortar rebanadas de los bloques para enfríar bebidas, hacer helado o refrescar el agua del baño durante alguna ola de calor.
Cuando tenía 17 años, el padre de Frederic lo mandó de viaje por el Caribe.
Sufrir la inescapable humedad del trópico vestido con todos los trapos que correspondían a un caballero del siglo XIX le dio una idea radical: si pudiera transportar de alguna manera el hielo del norte helado a las Indias Occidentales, encontraría un enorme mercado.
En noviembre de 1805, Frederic Tudor envió a su hermano William a Martinica con su fría carga.
"No es broma", reportó el periódico Boston Gazette:
Un barco con 80 toneladas de hielo ha dejado el puerto con destino a Martinica. Esperamos que no se trate de una especulación resbalosa"
El escarnio del Gazette terminó estando fundamentado, aunque no por las razones que uno pudiera esperar.
A pesar de retrasos relacionados con el clima, el hielo sobrevivió al viaje notablemente bien.
El problema resultó ser uno que nunca se le cruzó por la cabeza a Tudor.
Los residentes de Martinica no estaban interesados en su exótico cargamento congelado. No tenían idea de qué hacer con él.
Aún peor, William no pudo encontrar un lugar adecuado para almacenar el hielo. Sin comprador y sin almacén, el viaje fue un rotundo fracaso.
Pero los Tudor no se rindieron. Después de todo, el negocio tenía sus ventajas.


Los barcos tendían a dejar Boston vacíos, para ser llenados en el Caribe.
Eso significaba que podían negociar precios más convenientes para transportar su hielo en unos barcos que, de otro modo, no llevarían nada a bordo.
Por otro lado, el hielo era básicamente gratis.
Sólo tenía que pagarle a los trabajadores para que lo sacaran de los lagos congelados.
La economía de Nueva Inglaterra generaba otro producto de costo cero: aserrín, el prinicipal desperdicio de las compañías madereras.
Después de experimentar por años, Tudor descubrió que era un excelente aislante para su hielo.
Esta fue su combinación genial: tomó tres cosas que no costaban nada -hielo, aserrín y barcos vacíos- y los convirtió en un negocio floreciente.
En cuanto al problema del almacenamiento, Tudor jugó con múltiples diseños, hasta que se decantó por una estructura de doble carcaza que usaba el aire entre dos paredes de piedra para mantener el aire frío adentro.

Sacando hielo en Indiana, cerca de 1880
El negocio del hielo resultó ser muy lucrativo.

Quince años después de haber tenido la idea de venderle hielo a Sudamérica, comenzó a producir ganancias. Hacia 1820 ya lo había llevado a casi todos los rincones de ese continente, mientras que en ciudades como Nueva York, dos de cada tres casas recibían hielo a domicilio diariamente.
Al momento de su muerte, en 1864, había amasado una fortuna equivalente a más de US$200 millones de hoy.
El agua congelada en esta forma había pasado de ser una curiosidad a una necesidad en menos de un siglo.

Lea el artículo completo en:

21 de diciembre de 2014

Cómo enfriar una bebida en solo dos minutos

Pongámonos en situación: la cena de Nochebuena ha terminado y los que quedáis en casa queréis tomaros una bebida o un combinado para continuar la velada pero, ¡vaya! No hay ningún refresco frío en la nevera.






Circunstancia equivalente a estar de camping, en la playa o en una excursión campestre y encontrarnos con el mismo problema: todas las latas de refrescos están a temperatura ambiente. No hay fallo. Sólo hace falta un poco de hielo y sal para enfriar tú bebida en tan sólo dos minutos.


Necesitarás un recipiente o bol para poner los hielos, añadir una cucharada sopera de sal y, a continuación, meter dentro uno de los refrescos. Tan sólo habrá que dar un par de vueltas a la lata para que la sal se disuelva y esperar dos minutos. ¡Bajarás su temperatura ambiente en más de 15 grados!

Como explican en este vídeo de Upsocl, la segunda ley de la termodinámica establece que “dos sustancias con diferentes temperaturas alcanzan el equilibrio térmico entre ellas”. Química pura y dura. La mezcla de la sal y el agua produce una reacción endotérmica –que absorbe energía– de tal forma que, una vez disuelta, la sal absorberá el calor de la lata de tal forma que el frío de los hielos pasará más rápido al recipiente que está a temperatura ambiente. En tan sólo 120 segundos.



Fuentes:

ElConfidencial

60minutos


19 de abril de 2014

Sobre la entropía


De la entropía

Posiblemente pocas ideas científicas tan fundamentales tengan más expresiones diferentes que la segunda ley de la termodinámica. Una que no suele emplearse demasiado pero que encierra en una sola frase su esencia se debe a Ludwig Boltzmann que, parafraseando a Josiah Willard Gibbs, dijo: “La imposibilidad de una disminución no compensada de la entropía parece estar reducida a una improbabilidad”. Y es que el concepto de entropía está en el centro de la termodinámica, y en el de la evolución del universo.

El origen del concepto de entropía tiene está en una paradoja planteada por William Thomson (más tarde lord Kelvin) en 1847: la energía no puede crearse ni destruirse, sin embargo la energía térmica pierde su capacidad de realizar trabajo (por ejemplo, levantar un peso) cuando se la transfiere de un cuerpo caliente a uno frío. En 1852 Thomson sugirió que en un proceso como la conducción del calor la energía no se pierde sino que se “disipa” o deja de estar disponible. Además, la disipación, según Thomson, es equivalente a una ley natural que expresa la “direccionalidad” de los procesos naturales.
William Macquorn Rankine y Rudolf Clausius propusieron sendos conceptos que representaban la misma tendencia de la energía hacia la disipación. Llamado inicialmente “función termodinámica” por Rankine y “disgregación” por Clausius , sería éste el que le diese su nombre definitivo en 1865, entropía, a partir de a palabra griega para transformación. Cada proceso que tiene lugar en un sistema aislado aumenta la entropía del sistema.

Así, Clausius formuló la primera y la segunda leyes de la termodinámica en su frase “La energía del universo es constante, y su entropía tiende a un máximo”. De esta simple expresión se deduce que el universo terminará alcanzando una temperatura uniforme, que no habrá energía disponible para realizar trabajo y que el universo sufrirá, por tanto, una lenta “muerte térmica”.

Demonio de Maxwell

En 1871 James Clerk Maxwell publicó un experimento mental intentando demostrar que no siempre el calor tiene que fluir de un cuerpo a mayor temperatura a otro a menor. Un agente microscópico ( que Thomson bautizaría después como “el demonio de Maxwell”) controlando una trampilla en una pared que separa un gas frío de otro caliente, podría elegir dejar pasar sólo aquellas moléculas del gas que se muevan más rápidamente de lo que lo hacen el promedio de las moléculas del gas caliente. De esta manera el calor iría del gas frío al gas caliente. Este experimento mental venía a indicar que la “disipación” no era algo inherente en la naturaleza, sino que surgía de la inhabilidad humana de controlar los procesos microscópicos. La segunda ley de la termodinámica tiene sólo un valor estadístico; en regiones macroscópicas la entropía casi siempre aumenta.

Boltzmann intentó resolver un problema apuntado por Joseph Loschmidt en 1876, y por Thomson dos años antes, que ponía en peligro la interpretación mecánica de la termodinámica en general y de la segunda ley en particular. Esta ley sugiere que existe una asimetría en el tiempo que rige los procesos físicos; el paso del tiempo tiene como consecuencia un cambio irreversible, el incremento de entropía. Sin embargo, si las leyes de la mecánica aplicasen a los constituyentes de los sistemas termodinámicos, su evolución debería ser reversible, ya que las leyes de la mecánica son las mismas tanto si el tiempo fluye hacia delante como si lo hace hacia atrás; las leyes de Newton pueden decirnos donde estaba la Luna hace mil años con tanta exactitud como dónde estará dentro de mil a partir de ahora. A primera vista, no parece existir una correspondencia mecánica para la segunda ley de la termodinámica.

No sería hasta 1877 que Boltzmann encontró una solución a esta dificultad interpretando la segunda ley en el sentido del demonio de Maxwell.

Lea el artículo completo en:

Cultura Científica

30 de octubre de 2012

Cosas imposibles que la gente se empeña en conseguir (aunque ya se sepa que es imposible)


A muchos seres humanos no les gana a cabezones nadie. Una buena muestra de ello son aquellos que persiguen lo imposible, entendido como tal lo que es matemática o físicamente imposible. Y es que tal vez la fama o la búsqueda de los hallazgos épicos –por no hablar del simple y llano desconocimiento de la ciencia– son una gran motivación para gente con mucho tiempo libre.

Aquí van un par de esas tareas imposibles que la gente se empeña en perseguir inútilmente, en algunos casos desde hace milenios:

1. La cuadratura del círculo: ¿Se puede, utilizando sólo regla y compás, dibujar un cuadrado que tenga la misma superficie que un círculo dado? Con una regla infinitamente precisa la cuestión sería casi trivial pero… ¿Sólo con regla y compás? Los griegos, que de geometría sabían mucho, persiguieron esta cuestión imaginando que habría algún enrevesado para resolverlo, pero sin hallarlo – y eso a pesar de que problemas similares o aparentemente más complejos sí que tenían solución. Como nadie conseguían dar tampoco con una demostración de que la operación fuera imposible, durante siglos un montón de matemáticos se entregaron en cuerpo y alma a la cuestión. 


En el fondo el problema tiene que ver con la naturaleza del número pi: dada la infinitud de sus decimales (matemáticamente, se denomina un número trascendental) es imposible afinar tanto como para construir algo igual de preciso, en este caso un cuadrado equivalente en superficie. En la práctica basta utilizar una aproximación razonable para pi (como 22/7 o 355/113) para dar con un resultado humanamente adecuado. Pero, científicamente, hubo que esperar a finales del siglo XIX a que el matemático Ferdinand Lindemann demostrara la transcendencia de pi para zanjar la cuestión: pi era un número transcendente y la construcción exacta según el enunciado del problema era imposible.

¿Y qué sucedió después? A pesar de que haber demostrado que el problema era tan imposible como que al sumar 2+2 el resultado fuera 5, muchas almas ingenuas siguieron durante todo el siglo XX buscando una solución. Algunas no sabían que ya se había demostrado que era imposible; otras hicieron oídos sordos y siguieron encabezonadas. De hecho todavía hoy en día muchos profesores reciben «demostraciones» sin mucho rigor de gente sin grandes conocimientos pretendiendo haber resuelto el problema. ¿Qué hacer con todo ese papel? La tradición dice que lo mejor es entregar las «demostraciones» a los estudiantes de primer curso para que encuentren «dónde está el fallo», respondan a los autores y se apunten unos puntos extra.

2. El movimiento perpetuo. ¿Has visto alguna vez una de esas máquinas que se mueven sin parar, con bolitas, imanes, agua, movimientos pendulares, giratorios o giroscópicos, que parecen no pararse nunca? Todas ellas son simples juguetes o simulacros de móviles perpetuos, una categoría en la que se encuadran aparatos de todo tipo que parecen moverse sin fin y sin energía que los impulse, salvo quizá para la puesta en marcha.

La clave del asunto es precisamente que un aparato de este tipo no necesitaría energía externa que lo impulsara; sería un sistema cerrado, independiente y «eterno». Pero lo cierto es que de un modo u otro incluso los más complejos utilizan de algún modo energía externa (viento, luz solar, electricidad…) y no son verdaderos móviles perpetuos: algún día no habrá viento, se consumirá el sol o se acabarán las baterías.


El resumen visto de otro modo es que esos ingenios violan la segunda ley de la termodinámica que –en términos llanos– viene a decir que siempre hay una parte de la energía no aprovechable que se pierde debido al rozamiento, el calentamiento y cuestiones similares. Si la primera ley dice que la energía no se crea ni se destruye sino que solo se transforma, la segunda viene a añadir que además se transforma «con pérdidas». Aunque en una explicación estricta habría que hablar de la entropía y otros conceptos un tanto abstractos, basta con quedarse con esa idea de que «si ya tienes una cantidad de energía, no puedes retorcerla ni manipularla si ayuda exterior para tener más».

Aunque esta ley se conoce desde antiguo y fue descrita formalmente también en el siglo XIX por varios físicos, desde tiempos ancestrales muchos ingenieros e inventores muy, muy cabezotas, han intentado crear mecanismos perpetuos: giratorios, con poleas, corrientes de agua, imanes, bolitas, molinillos de aire y todo tipo de detalles ingeniosos. La eterna búsqueda del perpetuum mobile. Leonardo y otros clásicos le dedicaron algo de tiempo en vano. Para ninguno dio resultado: todos fallan porque no se pueden poner en marcha, se paran al poco tiempo o es imposible eliminar de ellos el rozamiento para mantenerlos funcionando. Los más modernos utilizan electricidad en diversas formas: electroimanes, giroscopios, superconductores y elementos más raros todavía.

Naturalmente, todos esos móviles perpetuos ni funcionan ni funcionarán: si alguno lo hiciera, no solo violaría la segunda ley de la termodinámica, también produciría energía extra que sería fácil acumular o vender y haría infinitamente rico a su inventor (tal vez por eso haya tanto pirado de los móviles perpetuos suelto). Internet está lleno de bromas y sistemas perpetuos graciosos, así como de otros más complejos que son auténticos timos para sacar dinero a la gente corriente o a inversores con ganas de tirar su dinero. Así que, como entretenimiento están bien, pero cuando alguien menciones un «móvil perpetuo» como negocio… ¡Cuidado!

{Fotos: Perpetuum Mobile (CC) Rene Schwietzke @ Flickr; Cuadratura del Círculo (CC) Haylli @ Wikipedia; Perpetuum Mobile de Leonardo da Vinci.}

Fuente:

12 de octubre de 2012

¿El pelo de los mamíferos surgió para protegerse del calor o del frío?

Especial: Animales

 ducha-elefante¿Pensabas que los mamíferos cubrieron su cuerpo de pelo para protegerse del gélido clima prehistórico? Pues probablemente ocurrió todo lo contrario. Según acaban de demostrar científicos de la Universidad de Princeton, al menos en ciertas especies el vello apareció para poder refrescar la piel en regiones donde el calor apretaba.

Aunque la idea de que pequeñas densidades de vello superficial ayudan a disipar el calor es un concepto bien conocido por los ingenieros, a nivel biológico y evolutivo hasta ahora su misión no estaba del todo clara. Conor Myhrvold y sus colegas decidieron estudiar los efectos de las distintas densidades de la piel de elefantes asiáticos y africanos sobre la termorregulación. Y concluyeron que, si bien cuando la densidad del vello es alta el efecto es de aislamiento, cuando su distribución a lo largo de la epidermis es más escasase alcanza un punto de inflexión en que ayuda a liberar el calor en lugar de retenerlo. Así es como el pelo de la piel de los paquidermos aumenta su capacidad de mantenerse “frescos” en entornos donde las temperaturas diurnas son excesivamente altas.

Según explican los autores en la revista PLOS One, los elefantes son los mamíferos terrestres más grandes que viven en climas cálidos, lo que los convierte en el mejor ejemplo para esta forma de termorregulación.

Fuente:

20 de agosto de 2012

La entropía no es desorden: La ordenación espontánea de poliedros



Hay ocasiones en las que un artículo científico, independientemente del interés intrínseco del hallazgo o comprobación que describe, pone de manifiesto cómo las simplificaciones que se hacen, incluidas las de los libros de texto, al intentar hacer comprensibles las ideas científicas tienen el efecto de que después sea mucho más difícil entender nuevos desarrollos. A éstos se les suele llamar contraintuitivos. Una de los conceptos más recurrentes entre los afectados es el de entropía y, por extensión, el de orden.

Un artículo publicado en Science por el equipo encabezado por Pablo Damasceno, de la Universidad de Michigan en Ann Arbor (EE.UU.), nos recuerda que ni la entropía, ni los procesos termodinámicos espontáneos, están relacionados per se con lo que intuitivamente entendemos por desorden. La entropía está relacionada con el número de “posibilidades” para un sistema, lo que muchas veces se traduce en “desorden” pero, como muestra esta investigación, no siempre.

Y es que la naturaleza no entiende de orden o desorden, que son conceptos puramente de la mente humana en su afán por hacer inteligible el entorno. La naturaleza entiende de minimización de la energía y maximización de posibilidades.

Pero vayamos por partes.

La organización espontánea de distintas unidades elementales en estructuras ordenadas se encuentra en todas las escalas. Ejemplos evidentes son los cristales a nivel atómico, los cristales plásticos y líquidos a nivel molecular o las superceldillas de nanopartículas o los coloides. En ciencia de materiales es crítico conocer la relación entre las ordenaciones y sus constituyentes ya que las propiedades físicas de aquellas dependen en gran manera de la estructura.



Lo que han conseguido Damasceno et al. mediante simulaciones por ordenador es poder predecir las estructuras que formarán partículas de distintas formas, en concreto 145 poliedros convexos distintos. De hecho, los autores demuestran que la forma en que se orientan depende sólo de su forma anisótropa. Pero, y esto es lo que consideramos interesante resaltar, este estudio demuestra también que existe una llamativa tendencia a la auto-organización y a la diversidad estructural. Es decir, que haciendo mediciones simples de la forma de la partícula y el orden local (orden a corto) en un fluido se puede predecir si esa forma se organizará espontáneamente como un cristal líquido, como un cristal plástico, como un cristal en sentido estricto o si no se organizarán en absoluto.

Pero, ¿cómo se forman estructuras ordenadas espontáneamente? Muy fácil, diréis algunos, el sistema se enfría, formándose las estructuras ordenadas y la entropía del universo aumenta aunque la del sistema disminuya. Pero, no. No existe variación de temperatura. Tal y como están planteadas las simulaciones, partículas sólidas que no interactúan más allá de su geometría, no existe variación energética, tan sólo maximización entrópica. Nos explicamos.

Sabemos por la segunda ley de la termodinámica que, todo lo demás constante, el sistema evolucionará espontáneamente hacia la configuración que consiga el máximo incremento en la entropía. Habitualmente, como decíamos más arriba, esto coincide con el máximo desorden. Así, un libro de texto puede decir que “los sistemas evolucionan espontáneamente en el sentido en el que aumenta el desorden”, en abierta contradicción con lo que vemos aquí.

La clave está en el espacio disponible. Si las partículas tuviesen todo el espacio del mundo no cabe duda de que se dispersarían tomando posiciones al azar. Pero si el espacio es muy limitado la cosa cambia. En estas circunstancias las posibilidades distintas de acoplamiento aumentan si las partículas se orientan cara a cara, lo que nosotros interpretamos como orden.

Dado que la eficiencia en el empaquetamiento aumenta con el área de contacto, la ordenación puede ser interpretada como el resultado de una fuerza entrópica efectiva, direccional y multicuerpo. Esta fuerza aparece a partir del mayor número de configuraciones disponibles para el conjunto del sistema, lo que trae como consecuencia que los poliedros con un número adecuado de caras se ordenen de determinada manera. Esta idea de fuerza entrópica direccional es la que sugiere que la forma de las partículas puede usarse para predecir las estructuras.

No es que el desorden (entropía) cree orden. Es una cuestión de opciones disponibles: en este caso las disposiciones ordenadas son las que producen el máximo número de posibilidades. Pero no hay que circunscribirse al mundo nanoscópico. Este fenómeno es conocido para cualquiera que haya trasladado una caja de naranjas (de esferas en general): si se agita tiende a ordenarse.

Por ello esta sería una buena ocasión para abandonar esa aproximación a la entropía como desorden y empezar a asimilar la definición estadística de la entropía, mucho más útil a la larga aunque menos intuitiva para algunos al principio: la entropía de un sistema es proporcional* al número de estados posibles en los que puede estar.



Volviendo a los resultados de Damasceno et al., de los 145 poliedros estudiados el 70 por ciento produjeron estructuras cristalinas de algún tipo. Algunas de estas estructuras eran realmente complejas, con hasta 52 partículas en el patrón que se repetía.

Como siempre con un hallazgo interesante, estos resultados nos sugieren muchas más preguntas. La más inmediata es ¿por qué el 30 por ciento no forma estructuras ordenadas quedándose con estructura vítrea (de vidrio)? ¿Por qué se resisten al orden? Un hilo misterioso del que tirar.

Fuente:

4 de mayo de 2012

YPF: es la termodinámica, estúpido


—A partir de este momento, hagamos lo que hagamos, el Titanic se irá a pique.
—¡Pero este barco no puede hundirse!
—Está hecho de hierro, señor. Le aseguro que sí puede. Y lo hará. Es una certeza matemática.

Titanic, James Cameron, 1997.
Se dice que una de las grandes falencias humanas para anticipar problemas futuros es su incapacidad para comprender la función exponencial. Habría que agregar a esto, su incapacidad para comprender como las leyes de la economía no escapan al Segundo Principio de la Termodinámica.

Hay que decir, que nuestra época es completamente adicta y dependiente de la energía. La energía abunda en el Universo, pero sólo aquella que es capaz de realizar un trabajo es la que sirve[1]. Con el petróleo, nos hemos acostumbrado a obtenerla demasiado fácilmente.

Desde el punto de vista de la física, "trabajo" es aquello que se manifiesta cuando se crean, procesan y transforman productos, se construyen edificios y caminos, se translada gente y mercaderías, o se genera luz, calor o frío, etc. Por lo tanto, toda actividad económica depende de que haya energía disponible. El crecimiento es el aumento de la actividad económica, es decir de todas esas actividades que irre­me­dia­ble­men­te demandan energía. Tanto se influyen, que existe una conocida relación entre crecimiento económico y consumo de energía: son curvas que se calcan una a la otra[2].


Hoy se debate sobre la política energética de los últimos años en Argentina: el gobierno denuncia a Repsol por su previsible estrategia depredadora de recursos —vaciando pozos e invirtiendo poco en encontrar nuevos—, y los críticos, denuncian al gobierno por avalar esta política cortoplazista —o sea, haberse conformado con las abundantes retenciones o regalías en las épocas de exportación a precios internacionales en alza. Todos, sin embargo, acuerdan en un punto: las cifras marcan un descenso constante en la producción argentina de petróleo desde hace varios años, y nuestro país, de ser exportador de hidrocarburos, ahora debe importar una importante proporción para su propio consumo.

Todos dan por hecho también, graciosamente, que la posibilidad de producir más o menos hidrocarburos, es sólo consecuencia de aciertos o errores en las decisiones económicas: la mayor o menor inoperancia de los funcionarios de turno, o la mayor o menor codicia empresarial, etc.

Pero ni críticos, ni propios, se detienen a analizar esta sutileza: cuál es la disponibilidad futura de los hidrocarburos. En las actuales circunstancias, el recurso depende tanto de decisiones económicas, como la flotabilidad del Titanic dependía de las decisiones de la tripulación después de chocar con el iceberg: la evolución del proceso se explicaba, más bien, con el Teorema de Arquímedes. Análogamente, poco podrá incidir Kicillof o De Vido en las cifras futuras de producción de YPF, en especial, cuando su destino ya ha sido escrito hace más de medio siglo, por un texano llamado M. King Hubbert. Pero empecemos por el principio.

El profeta del fin

 

M. King Hubbert, en los 50 elaboró un modelo para predecir la disponibilidad de combustibles fósiles.

Marion King Hubbert fue un geofísico empleado por Shell que se dedicó a investigar la disponibilidad futura de petróleo y gas. Descubrió que la producción de petróleo de una reserva experimenta una evolución parecida a una campana de Gauss: se inicia con un ritmo lento, luego se incrementa rápidamente hasta alcanzar un cénit o máximo —cuando la mitad del petróleo ha sido extraído— y a continuación la producción decae, primero lento y luego rápidamente. Es importante entender que el petróleo no se acaba nunca, sino que cada vez se hace más difícil de extraer: como un tubo de dentífrico vaciándose, siempre le queda algo más, pero al final el esfuerzo por extraer una ínfima cantidad de pasta, ya no vale el intento.

En 1957 Hubbert presentó una predicción que anticipaba como a finales de la década del 60 o inicios del 70, la producción de petróleo en Estados Unidos llegaría a su máximo y luego comenzaría a decaer. Lógicamente en los optimistas años cincuenta, esto fue recibido entre la burla y el escepticismo. Pero exactamente en el año 1970 la producción en Estados Unidos llegó a los 10.200.000 barriles por día y jamás pudo superarse esa marca. La producción comenzó a declinar. Hubbert se hizo famoso y pocos años despues, la Academia de Ciencias estadounidense reconoció la validez de su predicción


Lea el artículo completo en:

22 de marzo de 2012

¿A qué temperatura se congela el agua? No. No es a 0 °C

Especial: Día del Agua



cubitosUn equipo de químicos de la Universidad de Utah (EE UU) acaba de demostrar que el agua no se congela totalmente hasta que alcanza los -13ºC, y no a 0ºC como solemos pensar. Es a esa temperatura extremadamente baja cuando el agua no solo se enfría sino que definitivamente su estructura molecular cambia y adquiere formas tetraédricas, en las que cada molécula de agua se une a otras cuatro, formando lo que conocemos como hielo. No obstante, incluso a estas temperaturas pueden quedar restos de agua líquida entre el agua sólida, aunque dura tan poco tiempo que resulta casi imposible de detectar o medir.

Al margen del interés de la investigación desde el punto de vista de la física, los autores del estudio, que publican sus conclusiones en la revista Nature, aseguran que para las predicciones sobre el cambio climático puede ser realmente útil conocer “a qué temperatura exacta se enfría el agua y cristaliza en forma de hielo”.

Fuente:

Muy Interesante

8 de marzo de 2012

Borrar información produce calor

Hace 50 años el físico Rolf Landauer, de IBM, predijo que cuando se elimina información, como hacemos habitualmente en un ordenador, se libera energía. Ahora, investigadores europeos lo han confirmado mediante un experimento con un bit de memoria, según publican en la revista 'Nature'. Los resultados demuestran la íntima relación entre la teoría de la información y la termodinámica.

“Cada vez que borres la información que almacena un dispositivo, como el disco duro de un ordenador, se liberará calor y el dispositivo se calentará”, explica a SINC Eric Lutz, investigador de la Universidad de Augsburg (Alemania) y coautor de un estudio en el que se valida experimentalmente el principio de Landauer.

Este principio, establecido en 1961 por el físico Rolf Landauer de IBM, afirma que cualquier transformación irreversible desde un punto de vista lógico, como suprimir un bit de información, disipa calor. Se denomina ‘límite de Landauer’ a la cantidad mínima de calor que se puede producir cuando se elimina un bit de información.

El nuevo estudio, que se publica esta semana en Nature, demuestra mediante un experimento que el calor disipado es siempre mayor que el límite de Landauer. Los investigadores lo han comprobado colocando una partícula de vidrio en una trampa óptica (un potencial de pozo doble modulable) para crear un modelo genérico de un bit de memoria, con dos estados: 0 y 1.

“Hemos medido el calor que se produce durante el borrado de ese bit de información y los datos revelan que el calor disipado se podía aproximar al límite de Landauer, pero que nunca lo excedía”, subraya Lutz.

Hasta ahora resultaba muy difícil validar el principio del físico de IBM por la dificultad de realizar experimentos con una sola partícula y medir la baja disipación de calor. De hecho, la energía que genera el borrado de un bit de información ha resultado ser de tan solo unos 3x10-21 julios a temperatura ambiente.

Los resultados del estudio también demuestran la “íntima conexión” –según señala el artículo– entre la teoría de la información y la termodinámica, dos ámbitos que ya relacionaba Landauer en sus propuestas.

Lutz recuerda que la generación de calor es “uno de los principales problemas que dificultan la miniaturización de los ordenadores”. La disipación de energía que realizan los circuitos de sílice actuales al realizar una operación lógica es del orden de 1.000 veces más que el límite de Landauer, pero los científicos esperan alcanzar esa meta en los próximos 20 o 30 años.

Referencia bibliográfica:

Antoine Bérut, Artak Arakelyan, Artyom Petrosyan, Sergio Ciliberto, Raoul Dillenschneider, Eric Lutz. “Experimental verification of Landauer’s principle linking information and thermodynamics”. Nature 483, 8 de marzo de 2012. Doi:10.1038/nature10872.

Fuente:

Agencia SINC


5 de febrero de 2012

El lugar más frío del universo

No esta en la luna, donde la temperatura llega a alcanzar -233 grados centígrados. Ni siquiera se encuentra en el interior de la Nebulosa Boomerang, ubicada en la constelación de Centauro, a 5.000 años luz de distancia de la Tierra. Con una temperatura de -272ºC, esta nebulosase encuentra apenas un grado por encima del cero absoluto.

Nebulosa Boomerang. En 1995, utilizando el telescopio Submilimétrico del Observatorio Europeo del Sur, se descubrió que su temperatura es de tan sólo 1 K la más fría fuera de un laboratorio.
Aunque no lo creas, las más bajas temperaturas del universo se pueden observar aquí en nuestro planeta tierra.

El récord de la temperatura más baja, se logró en el laboratorio del premio Nóbel Wolfgang Ketterle que tiene en el MIT. La temperatura alcanzada fue de 810 milmillonésimas de grado por encima del cero absoluto (273 grados centígrados bajo cero), lo mas cerca posible de la temperatura teórica más baja posible.

Wolfgang Ketterle en su laboratorio del MIT.
En esa situación extrema de ultrafrío, los átomos se coordinan como si fueran uno solo. Los átomos congelados, están todo lo quieto que permiten las leyes de la mecánica cuántica.

Hace que la interacción entre ellos sea muy débil, y se ve por ejemplo cómo les afecta la gravedad: se caen como si fueran una roca, algo que no se suele ver a escala atómica.

Pero siguen siendo un gas, y eso es lo que los hace tan fascinantes. Se comportan como sólidos, pero no lo son. La segunda propiedad es que los átomos son coherentes, forman una única onda, igual que la luz en los láseres.

Un intrigante estado de la materia a mínimas temperaturas que es capaz de frenar la luz haciendo que viaje a tan solo unos pocos metros por segundo.

A tales temperaturas, los átomos no pueden ser mantenidos en contenedores físicos porque se pegarían a sus paredes. Tampoco existe ningún contenedor conocido que pueda enfriarse tanto. Por eso se utilizan imanes, cuyos campos magnéticos permiten contener la nube gaseosa sin tocarla.

Tomado de:

Meridianos

21 de julio de 2011

Los límites del cerebro: por qué no podemos ser más inteligentes

¿Tiene nuestro cerebro un límite físico? Millones de años de evolución han refinado tanto los procesos y conexiones neuronales que, en opinión de algunos expertos, resultan difícilmente mejorables. En un artículo publicado en Scientific American, el periodista Douglas Fox se plantea cuáles serían los principales problemas si abordáramos la mejora de nuestra inteligencia desde el punto de vista de la física y la ingeniería.


Las leyes de la termodinámica no hacen excepciones, tampoco con nuestro cerebro. Éste es el punto de partida para los científicos consultados por Douglas Fox para su artículo en la revista Scientific American, en el que se plantea si estamos cerca de "los límites de la inteligencia". ¿Podríamos tener un cerebro más grande, rápido y eficiente? Una aproximación intuitiva nos lleva a pensar que necesitamos más neuronas, más conexiones y, por tanto un mayor tamaño. Lo que nos muestran la experiencia y los estudios sobre la materia es que un cerebro más grande no equivale necesariamente a más inteligencia. El cerebro de una vaca, por ejemplo, es considerablemente más grande que el de un ratón y las diferencias no son proporcionales.

Para medir la relación entre el encéfalo y la masa corporal, los científicos utilizan el denominado "cociente de encefalización". Partiendo de esta base, un cerebro más grande proporciona ventajas cognitivas siempre y cuando tengamos en cuenta su relación con el tamaño del cuerpo, y el ser humano está en la parte alta de la pirámide. Pero esto no significa que aumentar indefinidamente el tamaño proporcione ventajas sin límite, puesto que nos encontramos con otras barreras, como el consumo energético o el tamaño y distancia entre las conexiones.

A medida que el cerebro aumenta, por ejemplo, se producen una serie de cambios sutiles en la propia estructura del cerebro. Las neuronas aumentan de tamaño y pueden conectarse con más compañeras. Pero este crecimiento aumenta a su vez la distancia entre neuronas, lo que significa que las conexiones deben ser más largas y la señal tarda más tiempo en viajar de un lugar a otro. ¿Cómo hacer que la señal viaje más rápido entre neuronas? La única contrapartida es aumentar el grosor de las conexiones, pero en este caso multiplica el consumo de energía, con lo que el sistema vuelve a hacerse ineficiente. Por otro lado, cuando aumenta el tejido cortical, la materia blanca - los axones- crece muchísimo más que la materia gris - que contiene el núcleo de las neuronas -, de modo que el tamaño del cerebro crecería exponencialmente.

En el caso de los primates superiores, incluidos los humanos, determinadas estructuras cerebrales han alcanzado cierto grado de optimización. La densidad de neuronas en nuestra corteza cerebral es considerablemente mayor que el de otras especies de mamíferos. Si seguimos la escala en la que aumenta el cerebro en los roedores, por ejemplo, un ratón que tuviera que alcanzar la cifra de 100.000 millones de neuronas (nuestro kilo y medio de masa encefálica) desarrollaría un cerebro de 45 kilos de peso.

Si aumentar el número de neuronas y de conexiones consume más energía, la solución podría venir entonces de cierto grado de "miniaturización" de los procesos. Desarrollar cerebros más densos, neuronas y conexiones más finas que consuman menos energía. Pero en este terreno encontramos otro límite físico, el mismo que se encuentran los ingenieros en el desarrollo de transistores: los canales iónicos de las neuronas parecen haberse reducido tanto como es posible, a partir de cierta reducción los niveles de ruido en la señal son demasiado grandes y las neuronas se disparan cuando no deben.

"De alguna manera", asegura el neurocientífico computacional Jan Karbowski en SciAm, "los cerebros deben optimizar numerosos parámetros simultáneamente, y debe haber algunas contrapartidas. Si quieres mejorar algo, estás fastidiando cualquier otra cosa". Si el cerebro humano se hace más grande tendrá problemas de consumo de energía, disipación del calor y de eficiencia. Desde luego, a pesar de lo que apunta el artículo, pensar en el límite evolutivo de algo resulta un poco ingenuo en términos biológicos. Cualquier estructura es susceptible de mejoras y cambios desde el punto de vista evolutivo, aunque nuestros conocimientos sobre física nos hagan más difícil imaginar cómo va a suceder.

Más información: "The limits of intelligence", Douglas Fox (Scientific American)

Fuente:

La Información
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0