Latest Posts:

Mostrando las entradas con la etiqueta thomsom. Mostrar todas las entradas
Mostrando las entradas con la etiqueta thomsom. Mostrar todas las entradas

19 de abril de 2014

Sobre la entropía


De la entropía

Posiblemente pocas ideas científicas tan fundamentales tengan más expresiones diferentes que la segunda ley de la termodinámica. Una que no suele emplearse demasiado pero que encierra en una sola frase su esencia se debe a Ludwig Boltzmann que, parafraseando a Josiah Willard Gibbs, dijo: “La imposibilidad de una disminución no compensada de la entropía parece estar reducida a una improbabilidad”. Y es que el concepto de entropía está en el centro de la termodinámica, y en el de la evolución del universo.

El origen del concepto de entropía tiene está en una paradoja planteada por William Thomson (más tarde lord Kelvin) en 1847: la energía no puede crearse ni destruirse, sin embargo la energía térmica pierde su capacidad de realizar trabajo (por ejemplo, levantar un peso) cuando se la transfiere de un cuerpo caliente a uno frío. En 1852 Thomson sugirió que en un proceso como la conducción del calor la energía no se pierde sino que se “disipa” o deja de estar disponible. Además, la disipación, según Thomson, es equivalente a una ley natural que expresa la “direccionalidad” de los procesos naturales.
William Macquorn Rankine y Rudolf Clausius propusieron sendos conceptos que representaban la misma tendencia de la energía hacia la disipación. Llamado inicialmente “función termodinámica” por Rankine y “disgregación” por Clausius , sería éste el que le diese su nombre definitivo en 1865, entropía, a partir de a palabra griega para transformación. Cada proceso que tiene lugar en un sistema aislado aumenta la entropía del sistema.

Así, Clausius formuló la primera y la segunda leyes de la termodinámica en su frase “La energía del universo es constante, y su entropía tiende a un máximo”. De esta simple expresión se deduce que el universo terminará alcanzando una temperatura uniforme, que no habrá energía disponible para realizar trabajo y que el universo sufrirá, por tanto, una lenta “muerte térmica”.

Demonio de Maxwell

En 1871 James Clerk Maxwell publicó un experimento mental intentando demostrar que no siempre el calor tiene que fluir de un cuerpo a mayor temperatura a otro a menor. Un agente microscópico ( que Thomson bautizaría después como “el demonio de Maxwell”) controlando una trampilla en una pared que separa un gas frío de otro caliente, podría elegir dejar pasar sólo aquellas moléculas del gas que se muevan más rápidamente de lo que lo hacen el promedio de las moléculas del gas caliente. De esta manera el calor iría del gas frío al gas caliente. Este experimento mental venía a indicar que la “disipación” no era algo inherente en la naturaleza, sino que surgía de la inhabilidad humana de controlar los procesos microscópicos. La segunda ley de la termodinámica tiene sólo un valor estadístico; en regiones macroscópicas la entropía casi siempre aumenta.

Boltzmann intentó resolver un problema apuntado por Joseph Loschmidt en 1876, y por Thomson dos años antes, que ponía en peligro la interpretación mecánica de la termodinámica en general y de la segunda ley en particular. Esta ley sugiere que existe una asimetría en el tiempo que rige los procesos físicos; el paso del tiempo tiene como consecuencia un cambio irreversible, el incremento de entropía. Sin embargo, si las leyes de la mecánica aplicasen a los constituyentes de los sistemas termodinámicos, su evolución debería ser reversible, ya que las leyes de la mecánica son las mismas tanto si el tiempo fluye hacia delante como si lo hace hacia atrás; las leyes de Newton pueden decirnos donde estaba la Luna hace mil años con tanta exactitud como dónde estará dentro de mil a partir de ahora. A primera vista, no parece existir una correspondencia mecánica para la segunda ley de la termodinámica.

No sería hasta 1877 que Boltzmann encontró una solución a esta dificultad interpretando la segunda ley en el sentido del demonio de Maxwell.

Lea el artículo completo en:

Cultura Científica

24 de septiembre de 2013

La composición de la materia (I)



Aire, agua, tierra y fuego han sido los materiales que, desde la edad de piedra, el ser humano a reconocido y utilizado. No fue hasta el inicio de la ciencia moderna, con la escuela Jónica, en la antigua Grecia, que el ser humano no se planteó cual era la composición básica de todo lo que lo rodeaba.
Fue Leucipo de Mileto(1), maestro de Demócrito, quien en el siglo V e.a.(2) fundó la escuela atomista, la cual afirmaba que la realidad estaba formada por partículas infinitas, indivisibles, de formas variadas y siempre en movimiento llamadas átomos, que significa “indivisible” («ἄτομον» - «sin partes»). Afirmaban que la materia estaba formada por partículas materiales indestructibles, desprovistas de cualidades y que no se distinguen las unas de las otras más que por la forma y dimensión(3).
Siempre su asocia la idea de la primera teoría atómica a John Dalton (4) y, no sin razón. Pero a decir verdad fué Mijail Vasílievich Lomonósov quien, en unos artículos escritos entre 1743 y 1744 ( “Sobre las partículas físicas intangibles que constituyen las sustancias naturales” y “Sobre la adhesión de los corpúsculos”) recupera este concepto de átomo y lo plasma de forma evidente en un tercer artículo donde utiliza en término mónada (acuñado por Leibniz), con el título “Sobre la adhesión y la posición de las mónadas físicas”.
John Dalton (4), alimentandose de las ideas de Leucipo de Mileto y, conocedor de los trabajos de Lomonósov, propone de nuevo una teoría atómica pero, esta vez, con bases científicas. Esta ley fué formulada para explicar porqué ciertas reacciones químicas se daban solamente, en proporciones constantes (la denominada Ley de las proporciones constantes(5) ). Dalton explicó su teoría en base a seis enunciados simples:
  1. La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no se pueden destruir.
  2. Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades propias. Los átomos de diferentes elementos tienen pesos diferentes. Comparando los pesos de los elementos con los del hidrógeno tomado como la unidad propuso el concepto de peso atómico relativo .
  3. Los átomos permanecen sin división, aún cuando se combinen en las reacciones químicas.
  4. Los átomos, al combinarse para formar compuestos guardan relaciones simples.
  5. Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de un compuesto.
  6. Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.
Dados los conocimientos actuales, el modelo atómico de Dalton puede parecernos insuficiente e, incluso, un poco infantil, pero constituyó el primer intento basado en evidencias y pruebas científicas de explicar como y porqué estaba constituida la materia. Eso sin contar que serviría de base para todos los modelos posteriores que, sin duda, han resultado cruciales en el avance científico y técnico de la actualidad.


Varios átomos y moléculas representados en A New System of Chemical Philosophy (1808 de John Dalton )
 
A finales del siglo XIX hay dos descubrimientos clave en el avance de nuestro conocimiento de la composición de la materia. Por un lado, en 1896, Henri Becquerel(6) descubriría la radiactividad trabajando con sales de uranio. Descubrió que al colocar sales de uranio sobre una placa fotográfica en una zona oscura, esta se ennegrecía, debido a que la radiación emitida por el uranio atravesaba elementos opacos a la luz ordinaria.
Al año siguiente, Joseph John Thomson(8), descubriría el electrón. Determinó que la materia estaba constituida por una parte positiva y otra negativa. Y en 1898(7), el matrimonio Curie descubrirá el Polonio y el Radio.
Con toda esta serie de eventos, el propio Joseph John Thomson, en 1903, propondrá su propio modelo atómico, en el que se incluyen por primera vez la polaridad de cargas, existiendo una carga positiva y otra carga negativa. Su modelo es popularmente conocido como el “modelo del puding de pasas” ya que propone que el átomo es una esfera de carga positiva, con los electrónes “incrustados” por toda su superficie, de forma uniforme, de forma similar a como veríamos las pasas en un punding.


Modelo atómico de Thomson

Pero este modelo, que aunaba las virtudes del modelo de Dalton, con los resultados obtenidos con los tubos de rayos catódicos (la existencia de una carga negativa), chocaba frontalmente con la teoría de la dispersión de Rutherford(9) (también conocida como dispersión de Couloumb - 1909). Esta teoría explicaba la dispersión de partículas eléctricamente cargadas, al acercarse a un centro de dispersión que también estaba cargado eléctricamente (experimento de Rutherford(10)). Con este experimento se llegó a la conclusión de que la carga positiva y la mayor parte de la masa del átomo debía estar concentrada en un pequeño espacio en el centro del átomo.
Un año después de que Joseph John Thomson desarrollara su teoría atómica, en 1904, Hantaro Nagaoka(11) desarrolló un modelo planetario, en el que consideraba que existia un centro cargado positivamente, muy masivo, mientras que los electrónes lo rodeaban orbitando a una distancia y unidos a él por fuerzas electrostáticas, de forma similar a como veríamos los anillos con Saturno.
El propio Nagaoka desecharía su propia teoría en 1908, pese a que el antes mencionado experimento de Rutherford diera confirmación experimental a su teoría. Nagaoka consideró que los anillos se repelerían entre sí, dando lugar a un modelo inestable.
El propio Rutherford, en el artículo que escribió, proponiendo la existencia de un núcleo atómico, cita a Nagaoka, como base de su teoría. Como veremos más adelante, esta es la base del modelo de Bohr (también conocido como modelo atómico) y que resultaría fundamental para los siguientes modelos actuales.

Fuente:

Enamorado de la Ciencia
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0