Latest Posts:

24 de agosto de 2011

Antimateria sustituirá a la energía nuclear

En el futuro podría almacenarse y utilizarse para impulsar naves espaciales para reducir el tiempo de viaje interplanetario, afirmó Alejandro Ayala, del Instituto de Ciencias Nucleares


Científicos encontraron un cinturón de antimateria retenidos por la magentósfera terrestre (Foto: Especial Science / Aaron Kaase/NASA/Goddard )





La antimateria -como la encontrada recientemente en el campo magnético que rodea la Tierra- podría almacenarse y utilizarse en el futuro para producir energía, incluso más eficiente que la nuclear, afirmó el científico del Instituto de Ciencias Nucleares, Alejandro Ayala.

Ayala expuso que si se hace chocar un protón contra un antiprotón la energía que se produce es 300 veces mayor a la de una reacción nuclear típica. Eso permitiría alcanzar aceleraciones mayores que las producidas con combustibles comunes y corrientes, basados en la mezcla de hidrógeno y oxígeno.

La antimateria sería un combustible muy eficiente para impulsar naves espaciales y reducir su tiempo de viaje. Se calcula que en 20 años se tendrá esta tecnología, refirió el integrante del Departamento de Física de Altas Energías de esa entidad universitaria.

Por ahora, una vez descubierta la antimateria tan cerca de nosotros, el siguiente paso es "imaginar cómo capturar y almacenar los antiprotones", abundó el experto.

La agencia espacial estadounidense (NASA) quiere aprovechar el hecho de que materia y antimateria se aniquilan para diseñar una nave espacial cuyo componente más importante sea una máquina que dirija la luz -resultado de esa interacción- en cierta dirección, para provocar el movimiento del aparato en dirección opuesta.

El reto es colectar y almacenar la antimateria, hasta que, llegado el momento, se haga chocar con protones para producir la luz en la dirección conveniente

Desde el origen

Ayala explicó que la antimateria está compuesta de partículas idénticas a las que componen la materia, pero con carga opuesta. Por ejemplo, los electrones, que transportan la electricidad en los cables de cobre de las instalaciones eléctricas, comparten las mismas propiedades que su anti-partícula, el positrón, con excepción de su carga eléctrica. Los primeros son negativos; los segundos, positivos.

Ese también es el caso de los protones que se encuentran en los núcleos atómicos, de carga positiva, y cuyas anti-partículas son los antiprotones, que son negativos.

Al formarse el universo, de acuerdo con la teoría estándar, debió existir una gran simetría, es decir, equivalencia entre materia y antimateria.

"No hay razón para que en el comienzo una prevaleciera sobre la otra. En particular, en el ICN estamos interesados en saber el origen de la asimetría entre la materia y antimateria, "por qué estamos hechos de materia, porque hay más de una que de la otra", refirió Alejandro Ayala.

Si dos partículas, una de materia y otra de antimateria, se encuentran, se aniquilan y producen radiación (luz). Al principio del cosmos, todo estaba condensado en un pequeño espacio y existía la misma cantidad de ambos tipos de partículas, de materia y de antimateria que debieron haberse encontrado fácilmente y haberse convertido en luz. Pero no sucedió así.

"Algo ocurrió en la evolución del universo temprano que hizo que hubiera más materia que antimateria, aunque no sabemos qué fue. Esa es una de las preguntas de mayor interés en la física moderna. En el ICN realizamos investigación para responder esta pregunta", refirió Ayala.

Hoy en día, lo que le ocurrió a las anti-partículas durante la evolución del universo es un gran misterio.

"Es una de las preguntas que tratamos de responder en la ciencia de frontera; sabemos que existe, incluso la podemos producir en los grandes aceleradores de partículas -como el Fermilab o el CERN-, pero se desconoce qué le ocurrió a la gran mayoría de las antipartículas", dijo el especiaista.

Nos rodea

Se había teorizado acerca de la presencia de antimateria en la vecindad de la Tierra. La confirmación de que ésta existe es muy importante, sostuvo el científico universitario. Se corroboró que está ahí y la probabilidad de que se produzca y se almacene coincide en buena medida con los cálculos.

En la naturaleza, la anti-materia se crea como en un laboratorio: con la colisión de partículas a muy altas energías. Eso sucede todo el tiempo, si el planeta es bombardeado por rayos cósmicos ultraenergéticos.

En el momento en que éstos llegan a las capas superiores de la atmósfera, encuentran átomos y, en particular, a sus núcleos, producen una gran cantidad de partículas, entre ellas, antimateria. Pero algunas de tales antipartículas no viven mucho tiempo; los piones, por ejemplo, lo hacen tan sólo un instante, durante un tiempo del orden de 10-10 segundos.

Otras son más estables, como los antineutrones que viven por alrededor de 10 minutos; otras, como los antiprotones lo hacen por siempre y por tener carga eléctrica están sujetas a la interacción con los campos magnéticos, como el terrestre.

En el interior de nuestro planeta, explicó Ayala, hay una especie de "imán" de barra enorme, "hecho" de hierro fundido, con polos positivo y negativo que coinciden, más o menos, con los polos Norte y Sur, respectivamente.

A partir de ellos se forman los llamados cinturones de Van Allen, especie de "orejas magnéticas" que van de un polo al otro del planeta, donde las anti-partículas quedan atrapadas, por encima de las capas atmosféricas más altas y tenues, donde la presencia de materia convencional escasea.

Fuente:

El Universal

Dmitri V. Skobeltsyn, el hombre que descubrió la antimateria y se lo contó a Dirac en 1927


Cuando uno piensa en la antimateria piensa en la ecuación de Dirac y en el positrón descubierto por Anderson. Pocos recuerdan a Dmitri V. Skobeltsyn (1892-1990), quien entre 1923 y 1926 observó en una cámara de niebla rayos cósmicos con la masa del electrón pero con carga opuesta, resultado que publicó en 1927. ¿Conocía Dirac en 1927 el descubrimiento de Skobeltsyn? El historiador de la ciencia Norwood Russell Hanson afirmó en un artículo de 1961 que Dirac le dijo en 1955 que una vez asistió a una charla en el Instituto Cavendish, entre 1926 y 1927, en la que Skobeltzyn describió su descubrimiento de los “electrones que se movían hacia atrás.” Dirac afirmó que esta charla no le influyó en su teoría del electrón, de hecho, dice que la recordó tras el descubrimiento del positrón realizado por Anderson en 1932; Dirac afirmó en 1955 que en 1932 pensaba que el descubrimiento del ”electrón positivo” (positrón) era una descubrimiento soviétivo. Sin embargo, Skobeltsyn no utilizó en su artículo (ni Hanson cree que en su charla) la palabra “electrón que se mueve hacia atrás” (backward electron); dicho término fue utilizado por primera vez por el matrimonio Joliot-Curie (que también descubrió el positrón en 1932). ¿Jugó la memoria una mala pasada a Dirac? Hanson afirma que tras hablar con Skobeltsyn él tampoco recordaba haber hablado de “backward electrons” antes de 1932. Skobeltsyn nunca obtuvo el Premio Nobel de Física, que Paul Adrian Maurice Dirac obtuvo en 1933 y Carl David Anderson en 1936. Quizás la memoria de Dirac le jugó una mala pasada, o quizás Skobeltsyn es otro ejemplo de la cruda realidad de la historia de la ciencia. El artículo técnico de Norwood Russell Hanson es ”Discovering the Positron (I),” The British Journal for the Philosophy of Science 12: 194-214, Nov. 1961. El artículo con el descubrimiento es D. Skobelzyn, “Die Intensitätsverteilung in dem Spektrum der γ-Strahlen von Ra C,” Zeitschrift für Physik 43: 354-378, 1927. La imagen que abre esta entrada (parte derecha) es una copia de una figura de dicho artículo (las placas originales no se han conservado).

Hay algo importante que debemos recordar. El descubrimiento del positrón por parte de Anderson el 2 de agosto de 1932 no fue resultado de la teoría del positrón de Dirac (publicada en 1931). Anderson afirmó que no conocía dicho artículo en 1932 y que ni siquiera comprendía el libro de Dirac sobre Mecánica Cuántica de 1930 (“The Principles of Quantum Mechanics”), ni menos aún el artículo original con la teoría del electrón de 1928 (“The Quantum Theory of the Electron”). Según Anderson, él empezó a comprender dichos trabajos gracias a un artículo de Blackett y Occhialini en 1933. Más aún, el descubrimiento de Anderson en 1932 encontró gran número de detractores que se resistían a admitir la existencia de un electrón positivo (entre ellos Bohr y Rutherford). Sin embargo, Anderson siempre replicó que la única explicación posible a su observación era la existencia de un electrón positivo. Tras la confirmación de la observación por otros, en 1933 ya eran muy pocos los que tenían dudas al respecto.

Un descubrimiento tan importante y al mismo tiempo tan “sencillo” como la observación del positrón en los rayos cósmicos tuvo muchos antecedentes. De hecho, Robert Andrews Millikan publicó en 1931 unas fotografías de cámara de niebla que mostraban un electrón y un protón (según Millikan), como en la figura central de arriba. Sin embargo, una de las fotografías era difícil de interpretar (aparece a la derecha en la figura de arriba). Millikan pensaba que era un protón con una energía de 450 meV (milielectrónvoltio) y un electrón de 27 meV, sin embargo, la ionización de la traza de la partícula indica que se trata de un electrón y un positrón. Millikan, en lugar de pensar en un electrón de carga positiva, creyó que la fotografía demostraba que la teoría de la ionización en cámaras de niebla era errónea y proponía corregirla con un término dependiente de la energía (solo aplicable a las trazas de los protones). También observó positrones (la aniquiliación de un electrón y un positrón) en 1929 el físico chino Chung-Yao Chao [wikipedia] siendo estudiante de doctorado en el CalTech bajo la dirección de Millikan; Chao defendió su tesis en 1930, pero no fue capaz de interpretar correctamente su observación.

Pero retornemos a Dmitri Vladimirovich Skobeltsyn [wikipedia; obituario en Physics Today], eminente físico soviético especialista en rayos cósmicos, Premio Stalin (1950) y Héroe Socialista (1969). Skobeltsyn, tras enterarse del descubrimiento del efecto Compton, decidió utilizar el retroceso de electrones por dicho efecto para estudiar los rayos cósmicos en una cámara de niebla de Wilson. Gracias a esta idea descubrió los ”electrones raros” que parecían tener una carga positiva opuesta a la del electrón. Incapaz de entender que había descubierto la antimateria, decidió acudir en 1927 a los laboratorios de Marie Curie en París (donde su hija y su yerno, la pareja Joliot-Curie, también descubrirían el positrón). Ni Skobeltsyn ni los Joliot-Curie fueron capaces de dar el paso que supo dar Anderson, afirmar rotundamente que la única explicación posible para sus fotografías de cámaras de niebla era un electrón positivo (el título del artículo de Carl D. Anderson, “The Positive Electron,” Phys. Rev. 43: 491–494, 1933).

PS: Dos lectores se han sorprendido de que los esposos Joliot-Curie utilizaran en 1932 el término “electrones que se mueven hacia atrás” (Oscar lo asociaba a Stueckleberg en 1941 y alejandro a Wheeler sobre las mismas fechas). Como una imagen vale más que mil palabras, os copio una fotografía comentada que Joliot y Curie enviaron a Bohr el 26 de abril de 1932 y que se preserva en los archivos de la Correspondencia Científica de Bohr para la Historia de la Física Cuántica (Bohr Scientific Correspondence at the Archives for History of Quantum Physics – AHQP).

La figura es de muy baja calidad, pero en la parte de abajo se ve claramente la idea de que los positrones son como “electrones que se mueven hacia atrás” que los esposos Joliot-Curie publicaron en su artículo “Sur la nature du rayonnement pénétrant excite dans les noyaux légers par les particules α,” C. R. Acad. Sci. Paris 194: 1229–1232, 1932. No he podido leer el artículo original, pero por lo que parece al menos la fotografía de la cámara de niebla aparece en dicho artículo, junto con el comentario sobre los “electrones que se mueven hacia atrás.” Esta imagen y más información sobre la contribución de los esposos Joliot-Curie a la física temprana del positrón en Matteo Leone, Nadia Robotti, “Frédéric Joliot, Irène Curie and the early history of the positron (1932–33),” European Journal of Physics 31: 975-987, 2010.

Por supuesto, Oscar y Alejandro tienen razón: Feynman, Stueckleberg, Wheeler y otros apostillaron que los positrones son como “electrones que se mueven hacia atrás” en el tiempo.

23 de agosto de 2011

Los algoritmos que controlan nuestro mundo


Si estaba esperando que alguien le avisara cuando las computadoras se volvieran más inteligentes que nosotros, ponga cuidado.

No va a existir ninguna suave voz, como la de HAL 9000 (el ordenador de la nave espacial de la película "2001: Odisea del Espacio"), que nos informe que nuestros servicios humanos ya no son necesarios.

En realidad, nuestros amos electrónicos ya están tomando el control; y lo están haciendo de un modo mucho más sutil que el que sugiere la ciencia ficción.

Su arma: el algoritmo.

Detrás de todo ingenioso servicio web hay un aun más ingenioso código web: desde mayoristas en línea (que calculan qué libros y películas podríamos estar interesados en comprar) hasta el buscador de amigos Facebook y su servicio para etiquetar imágenes, pasando por los motores de búsqueda que guían nuestros pasos en la web.

Son estos procesos computacionales invisibles los que cada vez controlan el modo en que interactuamos con nuestro mundo electrónico.

En la conferencia TEDGlobal del último mes, el exporto en algoritmos Kevin Slavin dio una de las charlas más impactantes del evento, en la que advirtió que "las matemáticas que las computadoras usan para decidir cosas" se estaba infiltrando en todos los aspectos de nuestras vidas.

Entre otros ejemplos mencionó los de un robot limpiador que mapea el recorrido óptimo para asear una casa y de los algoritmos financieros utilizados en los intercambios bursátiles en línea, que cada vez más se hacen con el control de Wall Street.

"Estamos escribiendo estas cosas que ya no somos capaces de leer", dijo Slavin.

"Lo hemos vuelto ilegible. Y hemos perdido la noción de qué es exactamente lo que sucede en este mundo que hemos creado".

El libro de los millones

Los algoritmos pueden ser más ingeniosos que los humanos, pero no necesariamente comparten nuestro sentido de la perspectiva: una falla que se hizo evidente cuando el código que asigna precios en Amazon fue a la guerra consigo mismo a comienzos de este año.

"The Making of a Fly" ("La Creación de una Mosca"), un libro sobre la biología molecular de una mosca, desde que es larva hasta que se convierte en un insecto completo, puede ser una lectura interesante, pero ciertamente no merece un precio de US$23,6 millones.

Portada de "The Making of a Fly"

¿Habrá vendido algún ejemplar a US$23,6 millones?

Esa es la cifra que alcanzó por unos instantes, debido a que los algoritmos que Amazon utiliza para fijar y actualizar los precios comenzaron a competir entre sí.

Es una pequeña muestra del caos que puede causar el hecho de que un programa se vuelva lo suficientemente inteligente como para operar sin supervisión humana, cree Slavin.

"Son algoritmos en conflictos, sin un adulto que los supervise", dijo.

A medida que el código se vuelve más sofisticado sus tentáculos van alcanzando todos los aspectos de nuestras vidas, hasta nuestras elecciones culturales.

Los algoritmos del sitio de alquiler de películas Netflix ya son responsables del 60% de las películas que son pedidas por sus clientes, a medida que nos volvemos menos dependientes de nuestras propias capacidades críticas y del boca a boca y más de lo que Slavin llama la "física de la cultura".

¿Cuánto vale esa película?

La empresa británica Epagogoxi está llevando este concepto hacia su lógica conclusión: utiliza algoritmos para determinar si una película será exitosa.

Toma una serie de variables (el guión, la trama, las estrellas que actúan en ella, la ubicación) y las cruza con datos sobre las ventas de otras películas similares para determinar cuánto dinero generará.

El sistema, de acuerdo con el director ejecutivo de la empresa Nick Meany, ha "ayudado a los estudios a decidir si hacer o no una película".

En el caso de un proyecto, al que se le había asignado un presupuesto de casi US$300 millones, el algoritmo estimó que sólo recaudaría unos US$50 millones, por lo que sencillamente no valía la pena iniciar la producción.

Letrero de Hollywood

Hasta hay un algoritmo para decidir si vale la pena o no hacer una película.

Para otra película, determinó que la cara estrella que el estudio había preseleccionado para el rol protagónico no redituaría más que si convocaban a una figura menos conocida.

Este enfoque más bien clínico ha fastidiado a quienes creen que se opone a su idea de que sus películas favoritas han sido hechas de una forma más creativa, orgánica.

Meaney se apura en mencionar que los algoritmos no tienen un rol tan protagónico en Hollywood.

"Las películas se hacen por muchos motivos y se nos asigna más influencia de la que en realidad tenemos cuando se dice que nosotros decidimos qué filmes se producen".

"No les decimos cómo tiene que ser la trama. El estudio utiliza nuestros datos como una valiosa información de negocios. Ayudamos a la gente a tomar decisiones difíciles, ¿y por qué no?", dijo.

A pesar de esto, el estudio con que Epagogix ha trabajado por los últimos cinco años pidió no ser mencionado. Meaney dice que es un asunto "delicado".

Una memoria en la red

Si los algoritmos tuvieran un salón de la fama, la principal estrella sería Google.

Su famoso código secreto ha lanzado al gigante de los buscadores a su actual posición como una de las compañías más poderosas del mundo.

Nadie duda de que su sistema ha hecho el acto de buscar algo mucho más fácil, pero sus críticos se preguntan desde hace tiempo a qué costo.

Algoritmo

"Conjunto ordenado y finito de operaciones que permite hallar la solución de un problema"

Diccionario de la Real Academia Española

En su libro "The Filter Bubble" ("La Burbuja del Filtro") Eli Pariser se pregunta en qué medida el algoritmo de Google recolecta nuestros datos personales y da forma, consecuentemente, a la web que vemos.

Por su parte, psicólogos de la Universidad de Columbia, Estados Unidos, presentaron recientemente un estudio que muestra que el uso cada vez más frecuente de motores de búsqueda está cambiando el modo en que los humanos pensamos.

"Desde que aparecieron los buscadores estamos reorganizando la forma en que recordamos las cosas. Nuestros cerebros se apoyan en internet como una fuente de memoria, del mismo modo en que nos apoyamos en la memoria de nuestros amigos, familiares o colegas", dijo la autora del trabajo, Betsy Sparrow.

Ella dice que cada vez más recordamos dónde puede encontrarse cierta información en vez de la información misma.

Desplome repentino

En los mercados financieros, los programas informáticos se están volviendo los actores protagónicos, con sus algoritmos que procesan datos para decidir qué comprar y qué vender.

Hasta el 70% de los intercambios de Wall Street son ejecutados por las llamadas black box (cajas negras) o algo-trading (intercambios basados en algoritmos).

Esto implica que junto a los sabios muchachos de la bolsa, los bancos y empresas bursátiles emplean a miles de sabios físicos y matemáticos.

Pero hasta la precisión de las máquinas, alimentada por los humanos magos del código, es incapaz de garantizar que las cosas funcionen sin sobresaltos.

Operadores en la bolsa de Nueva York

Atónitos ante sus colegas cibernéticos.

En el llamado Flash Crash (Desplome Repentino) del 6 de mayo de 2010, una caída de cinco minutos en los mercados generó un momento de caos generalizado.

Un operador deshonesto fue acusado de una caída del 10% en el índice Dow Jones, pero en realidad el culpable fue un programa informático que el operador estaba utilizando.

En tan solo 20 minutos el algoritmo vendió 75.000 acciones por un valor de US$4.300 millones, haciendo que otros algoritmos lo siguieran.

Al igual que un miembro biónico puede extender la fuerza y resistencia humanas, el mercado electrónico exhibió su capacidad de exagerar y acelerar pequeñas variaciones.

Nadie ha sido capaz de determinar exactamente qué sucedió, y el mercado se recuperó minutos más tarde.

El caos obligó a los reguladores a introducir interruptores para detener la actividad bursátil en caso de que las máquinas comiencen a portarse mal.

Los algoritmos de Wall Street pueden ser el equivalente cibernético de los yuppies de los '80, pero a diferencia de los humanos no exigen gemelos de plata, cigarros y champagne. Lo que quieren son conexiones veloces.

Spread Networks ha estado construyendo una de esas conexiones de fibra óptica, capaz de reducir en 3 microsegundos el intercambio de información entre las bolsas de Chicago y Nueva York, distantes 1.327km.

Por su parte, un cable de fibra óptica transatlántico, que va desde Nueva Escocia, en Canadá, hasta Somerset en el Reino Unido, está siendo desplegado para que puedan operar los algoritmos bursátiles y será capaz de enviar acciones de Londres a Nueva York en 60 milisegundos.

"Estamos recorriendo Estados Unidos con dinamita y sierras para cortar roca, así un algoritmo puede cerrar un trato tres microsegundos más rápido, todo para un sistema de comunicación que ningún humano jamás tocará", dijo Slavin.

A medida que los algoritmos extienden su influencia más allá de las máquinas y se vuelven capaces de transformar su entorno, puede que se vuelva hora de determinar exactamente cuánto saben y si todavía estamos a tiempo de domesticarlos.

Tomado de:

BBC Ciencia

Contenido relacionado

La ciencia en el último adiós: las visiones antes de la muerte


Una investigación indica que personas en estado terminal y sus allegados experimentan con frecuencia este fenómeno estimado como meras alucinaciones. Ahora, investigadores proponen más experimentos para ver si la muerte es realmente el fin de la vida.

Una investigación indica que personas en estado terminal y sus allegados experimentan con frecuencia este fenómeno estimado como meras alucinaciones. Ahora, investigadores proponen más experimentos para ver si la muerte es realmente el fin de la vida.

Las visiones en el lecho de muerte son usualmente desestimadas, sin embargo científicos admiten que hay pocas investigaciones serias sobre los procesos que se desarrollan en nuestro cerebros cuando estamos cercanos a la muerte.

La nueva información indica que lo que nosotros llamamos las experiencias del fin de nuestras vidas son mucho más comunes de lo que nosotros pensamos. El doctor Peter Fenwick de la red de científicos del Reino Unido ha llevado a cabo esta investigación con el personal que labora en residencias para enfermos desahuciados.

Fenwick descubrió que las personas próximas a morir experimentaban extraños fenómenos. Con frecuencia las personas tienen visiones, en las cuales ven que familiares, quienes murieron hace mucho tiempo, venían a ayudarles.

Otras investigaciones incluyeron miembros de la familia de la persona en estado grave, quienes dijeron que fueron visitados por la persona que estaba muriendo incluso cuando la distancia que los separaba eran miles de millas.

Fenwick aseguró que las experiencias de ese tipo son comunes, pero que muchas personas son reacias a hablar sobre ellas. "La evidencia que ha aflorado de nuestras entrevistas es contundente. Los pacientes no hablan sobre sus visiones con sus enfermeros o el personal que les cuida por temor a ser ridiculizados. El personal que trabaja en lugares donde se encuentran enfermos terminales no abordan estos temas no sólo porque no están enmarcados en el campo científico, sino porque no pertenecen a la cultura de un lugar de ese tipo. Nosotros no tocamos estos temas si no estamos con nuestros amigos", dijo Fenwick.

Críticos de este estudio aseguran que todo tiene un carácter retrospectivo, pues depende de los recuerdos que estas personas tienen de los eventos pasados.

El doctor Fenwick intenta organizar un estudio que analice científicamente los fenómenos que ocurren en el lecho de muerte. Él ha apelado por un nuevo modelo de morir que desdeñe menos ese tipo de experiencias y no las califique como simples alucinaciones de quienes están próximos a morir.

Tomado de:

MD zol

Cómo (ob)tener unos huevos más gordos

¿Quién no ha tenido, siendo niño, una pecera con peces de colores? ¿Y qué niño no ha intentado capturar pececillos atrapados entre las rocas con la bajada de la marea? ¿A quién no se le ha ocurrido en más de una ocasión probar sus dotes científicas innatas y experimentar colocando las simpáticas criaturas acuáticas marinas en la pecera de agua dulce y al contrario, los lindos peces de colores en agua salada?

Por otro lado, todos sabemos que una excelente forma de conservar ciertos alimentos y preservarlos del efecto pernicioso de determinadas sustancias nocivas consiste en someterlos a un proceso de deshidratación y sumergirlos en salmuera o vinagre.

Y bien, ¿qué relación guardan los dos párrafos anteriores? Pues muy simple: ambos hacen alusión a un proceso físico denominado ósmosis. Veréis, consiste en lo siguiente: imaginad que disponéis de dos disoluciones con concentraciones diferentes y separadas por una membrana semipermeable (esto es, que deja pasar moléculas de un cierto tamaño, pero no otros). Para que sea más concreto, suponed que a un lado (llamémosle el izquierdo) de dicha membrana tenemos agua y al otro (llamémosle, lógicamente, el derecho) agua en la que hemos disuelto unas cuantas cucharadas de sal, por ejemplo.

Dicho muy simplemente, la ósmosis consiste en el paso de agua del compartimento izquierdo al derecho, es decir, y esto siempre es así, el proceso tiene lugar de tal manera que el agua se desplaza hacia el lado donde existe una mayor concentración (en este caso, el lado derecho donde hemos disuelto sal) con el fin de igualar las de ambos.

egún lo anterior, y volviendo a nuestros queridos pececillos, cuando sumergiéramos en agua dulce la sardina que con tanto esfuerzo pescamos, contemplaríamos con estupor cómo su cuerpo comenzaría a hincharse de forma descontrolada. Todo lo contrario le sucedería al lindo pececito rojo si se nos ocurriese darle un baño de agua salada, pues su abdomen se iría reduciendo paulatinamente hasta dejarlo francamente esmirriado.

¿Por qué sucede esto? Debido a la ósmosis, en efecto. El agua del interior de las células del cuerpo de la sardina posee una concentración salina mayor que el agua dulce en la que la hemos sumergido y, por tanto, a través de las paredes celulares (ahí tenéis la membrana semipermeable de la que hablamos) penetraría agua dulce (la de menor concentración de sal), lo que provoca la hinchazón. Con el pez de colores de agua dulce sucede el efecto opuesto: el agua dulce atraviesa la pared celular, produciendo una deshidratación y, consecuentemente, una disminución acusada en el volumen del cuerpo del animal.

De forma análoga se puede explicar el proceso de conservación de los alimentos en salmuera o vinagre. Cuando las fabricas de conservas envasan pepinillos en una disolución ácida como el vinagre, lo que están haciendo es aprovecharse del fenómeno de la ósmosis. Así, el “agua dulce” (baja concentración) contenida en el interior del pepinillo abandona éste para intentar contrarrestar la elevada concentración del vinagre. El resultado es que la cucurbitácea, al perder agua, impide que determinadas bacterias puedan desarrollarse, conservándose el alimento durante un lapso de tiempo mucho mayor.



Una aplicación enormemente interesante de todo lo expuesto más arriba consiste en lo que yo (osadamente) denomino “cambiar la talla de los huevos desnudos“. Me explico: coged un huevo de gallina, por ejemplo, aunque el experimento también funciona con otras clases de huevos diferentes (ya me entendéis). A continuación sumergidlo en un vaso lleno de vinagre y esperad dos días, aproximadamente. Transcurrido este tiempo, podréis observar cómo la cáscara (de origen calcáreo) ha desaparecido por completo debido a la acción del ácido acético, dejando el huevo desnudo, una especie de pelota elástica y transparente (se puede ver la yema sin problema). Si ahora lo laváis bien lavadito e introducís lo que queda del huevo en otro vaso, esta vez lleno de agua destilada, comprobaréis que al cabo de unos cinco días, más o menos, el huevo ha incrementado su peso en casi el 50% de su valor inicial. Lo que ha sucedido, una vez más, es que el agua destilada (con una concentración de solutos bajísima) ha penetrado en el interior de la membrana del huevo, donde la concentración es claramente superior.

Desafortunadamente, todo el proceso anterior puede invertirse sin más que volver a introducir el huevo hinchado en un vaso con agua y azúcar disuelta en ella. Unas doce horas después la ósmosis habrá devuelto las cosas a su sitio. Y es que nada es permanente, ni siquiera los implantes de silicona…

Tomado de Amazings

¿Podría decirse que en las matemáticas está la respuesta a todo?

En mi opinión, la respuesta a la pregunta es no. En el ámbito de las ciencias físicas biológicas o sociales, y a su vez en ingeniería, las matemáticas proporcionan herramientas que permiten expresar con rigor los resultados de estas ciencias y, por tanto, entender mejor la naturaleza. En cualquier caso, son necesarios los métodos propios de cada una de las ciencias para que el conocimiento en ellas pueda avanzar.

Si usamos el símil de una ciencia experimental, el proceso se podría explicar así: en base a resultados experimentales o a una reflexión sobre conocimientos previos se formula un modelo matemático para explicar cierto fenómeno. Este modelo necesita validarse con posterior experimentación. En tanto que el modelo es dado por válido, la pura deducción matemática aporta nuevas verdades sobre el fenómeno que se estudia.

Sin embargo, el desarrollo de las matemáticas no se circunscribe a este diálogo con otras ciencias. Las matemáticas tienen la entidad de ciencia independiente, con sus propios métodos preguntas y desarrollo natural. Si bien en muchas ocasiones este desarrollo ha venido motivado por las necesidades de otras ciencias, como es el caso de la teoría de juegos, en muchas otras ocasiones los desarrollos matemáticos se han adelantado siglos a sus aplicaciones prácticas. Por ejemplo, Einstein se encontró con un cuerpo de conocimientos de Geometría Diferencial suficiente para poder formular la Teoría de la Relatividad. Si estas matemáticas no hubieran sido ya bien entendidas por los científicos de la época habría sido muy difícil que este descubrimiento se hubiera realizado.

Las matemáticas dan herramientas para expresar con rigor los resultados del resto de ciencias

A lo largo del siglo XX el diálogo entre las matemáticas y la física ha sido cada vez más profundo y fecundo. En 1960, el físico Eugene Wigner publicó un artículo titulado The Unreasonable Effectiveness of Mathematics in The Natural Sciences, en el que observaba que la estructura matemática de una teoría física revelaba más sobre los posibles avances futuros que las evidencias empíricas, y argumentaba que esto reflejaba una relación profunda entre matemáticas y física.

Por ejemplo, en el intento de crear una teoría que explique unificadamente la gravitación y todas las interacciones entre partículas, los físicos han hecho sorprendentes predicciones matemáticas totalmente teóricas. A su vez, los matemáticos han conseguido confirmar estas predicciones y desarrollar nuevas teorías que sirven a los físicos teóricos de posibles marcos para formular sus ideas.

Posiblemente la física es la ciencia mas próxima a la naturaleza de las matemáticas y, por ello, ha sido la primera en la cual el diálogo con las matemáticas ha alcanzado una profundidad y belleza sorprendentes. No obstante, a medida que avanzan las matemáticas, sus aplicaciones en las otras ciencias ganan en profundidad, y este diálogo puede empezar a vislumbrarse. Por ejemplo: hay cada vez más matemáticos interesados en las relaciones con la biología.

En muchas ocasiones, las matemáticas se han adelantado siglos a sus aplicaciones prácticas

Otro ejemplo de notable belleza de la necesidad del desarrollo independiente de las matemáticas puras es la resolución por Adrew Wiles del último teorema de Fermat. Esta pregunta, de teoría elemental de números, se había formulado en 1630. Sin embargo, la cuestión que en sí sólo interesaba a los matemáticos, ha resultado tan difícil y profunda que su solución ha motivado el desarrollo de matemáticas muy avanzadas que son clave ahora en criptografía.

En resumen, las matemáticas tienen entidad de ciencia independiente, cuyo desarrollo permite hacer nuevos y profundos descubrimientos en aquellas áreas cuyo diálogo con las matemáticas es suficientemente rico. Además, para que puedan producirse aplicaciones a otras ciencias, el desarrollo independiente de las matemáticas, como ciencia con objetivos propios, debe producirse, y la sociedad debe favorecerlo.

No hay que olvidar que se pueden encontrar en todas partes. Un símbolo o una fórmula pueden explicar las cuadrículas egipcias, Las Meninas de Velázquez y los grafiti callejeros. Sí, están en todas partes.

Tomado de:

Público

google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0