Latest Posts:

18 de septiembre de 2008

Especial Energías Limpias - Instalan la primera turbina mareomotriz

Especial Energías Limpias - Energía del Mar

Instalan con éxito la primera turbina maremotriz en el lecho marino


Un nuevo sistema abarata el despliegue de estas estructuras

La empresa irlandesa OpenHydro ha instalado con éxito la primera turbina maremotriz en el lecho marino. Ha sido en el European Marine Energy Centre (EMEC), que está situado en Orkney, Escocia. Para ello, han usado un barco especialmente diseñado para la instalación de este tipo de estructuras. Según esta empresa, el “OpenHydro Installer”, como se llama el barco, facilita mucho el despliegue de turbinas, ya que permite un gran ahorro de tiempo y dinero. De esta manera, la energía extraída del mar está más cerca de su viabilidad económica. El Reino Unido está apostando con fuerza por la energía maremotriz. La Corona Británica es la dueña del lecho marino británico y va a empezar a alquilar el lecho que rodea la costa escocesa como primer paso para explotarla. Por Raúl Morales.


Instalan con éxito la primera turbina maremotriz en el lecho marino

Una empresa irlandesa especializada en energías renovables ha conseguido instalar con éxito por primera vez una turbina maremotriz directamente en el lecho marino. Con este adelanto, según la empresa OpenHydro, se demuestra la viabilidad competitiva de la energía maremotriz.

La idea de esta empresa respecto a la energía extraída del mar es desarrollar parques y turbinas montados en el lecho marino, donde ninguna parte de su estructura es visible desde la superficie, y a una profundidad suficiente para no interferir el trabajo de los barcos pesqueros.

La instalación de esta primera turbina ha tenido lugar en el European Marine Energy Centre (EMEC), que está situado en Orkney, Escocia. Para ello, la empresa ha tenido que idear lo que han llamado el “OpenHydro Installer” (Instalador OpenHydro), una barcaza capaz de transportar y hacer las operaciones necesarias para sumergir tanto la base dónde se sujeta la turbina en el lecho marino como la propia turbina. Esta barcaza ha supuesto una inversión de 5 millones de euros.

Menos tiempo y dinero

Según OpenHydro, su concepto supone un importante avance, ya que permite ahorrar mucho tiempo y dificultad en la instalación de las turbinas. “Instalando turbinas maremotrices de esta manera, se convierte un proyecto complicado de meses en una operación rápida de un día y eficiente desde el punto de vista de su coste”, comenta Brendan Gilmore, que es presidente de OpenHydro, en un comunicado . “Es otro paso más para desarrollar un programa comercial de parques maremotrices capaces de generar energía”

La gran innovación ha sido, precisamente, la barcaza con la se ha instalado esta primera turbina. “Nos dimos cuenta de que no existía en el mercado el equipamiento apropiado para la instalación de turbinas en el lecho marino, por lo que en 2007 decidimos empezar a desarrollar nuestro propio barco”, dice James Ives, director ejecutivo de OpenHydro.

OpenHydro ha testado turbinas maremotrices desde el año 2006 usando su estructura de investigación situada en las instalaciones del EMEC. Los primeros frutos de sus trabajos se vieron en mayo de este año, cuando fueron capaces de completar el volcado de electricidad generada por una turbina maremotriz directamente en la red eléctrica del Reino Unido.

OpenHydro tiene previsto proveer y instalar sus turbinas en puntos de Nueva Escocia, Canadá, y en Alderney, una de las Islas del Canal. Para estos proyectos, han comenzado a fabricar una siguiente generación de turbinas, con una potencia de 1MW.

Potencia europea

El Reino Unido está apostando con fuerza por la energía obtenida del mar. Según anunciaba la BBC recientemente, partes del lecho marino de Escocia van a ser alquilados a las empresas que quieran generar este tipo de energía. El lecho marino pertenece a la Corona Británica, que tiene previsto empezar con esta iniciativa en breve.

Se calcula que una cuarta parte del potencial de energía marina en Europa se encuentra en el lecho marino que rodea la costa escocesa. Precisamente en esta zona, la instalación de turbinas es especialmente complicada debido a la fuerza que allí tienen las olas. Aún así, se espera que en 2020 la energía maremotriz vierta a la red eléctrica del Reino Unido un Gigavatio de potencia.

El Reino Unido también es una potencia en la I+D en este campo. Esta semana, ingenieros de la Universidad de Oxford anunciaban el desarrollo de un nuevo tipo de turbina maremotriz más barata de fabricar y más eficiente.

El dispositivo ha sido diseñado por el profesor de ingeniería civil Guy Houlsby, por Malcolm McCulloch, del grupo de energía eléctrica, y por Martin Oldfield, del grupo de ingeniería mecánica.

Se trata de un turbina de eje horizontal pensada para interferir la mayor área posible de corriente marina. El rotor es cilíndrico y gira alrededor del eje. El prototipo, de 0,5 metros de diámetro, ha funcionado bien en las pruebas realizadas hasta el momento, probando las ventajas de este diseño de las palas.

Sus creadores calculan que, una vez construido a escala real, medirá unos diez metros de diámetro. Si se instalara este tipo de turbinas en una superficie de un kilómetro de ancho podrían generar 60 Megavatios de energía.

La turbina es mecánicamente menos complicada que las desarrolladas hoy en día, según los ingenieros de Oxford, ya que requiere menos generadores y cimientos, lo que se traduce en un menor coste de construcción (hasta un 60%) y mantenimiento (hasta un 40%).

El equipo de investigación tiene previsto hacer las primeras pruebas en mar abierto en 2009 y en 2013 tener la primera turbina comercializable.

Fuente:

Tendencias21

Especial Energías Limpias - Se abarata la producción de energía solar

Especial Energías Limpias - Energía del Sol

Un nuevo tipo de panel abarata la producción de energía solar un 30%


Incorpora un concentrador que usa tintes para absorber la luz solar

Un equipo de ingenieros del Instituto Tecnológico de Massachusetts (MIT) ha creado un prototipo de concentrador solar que abarataría la producción de electricidad a partir de energía solar un 30%. El concentrador consiste en una lámina de cristal cubierta por un tinte que tiene la capacidad de absorber diferentes ondas de luz del sol. Combinando los tintes, se puede captar una mayor cantidad de luz solar. Una de las grandes novedades de esta propuesta es que para generar electricidad conecta el concentrador antes citado con placas solares de silicio convencionales, dando como resultado un nuevo tipo de panel solar que usa dos tecnologías diferentes para captar más energía. Por Raúl Morales.


Imagen del prototipo de concentrador solar.

Ingenieros del MIT han desarrollado un nuevo sistema que es capaz de concentrar la luz solar de tal forma que puede hacer que energía solar compita en precio con los combustibles fósiles.

En concreto, han ideado una lámina de cristal que es capaz de recoger luz y focalizarla en una placa solar relativamente pequeña. Las placas solares están hechas habitualmente por capas de silicio muy refinado. Son caras de fabricar y, cuanto más grandes, más caras son. Los concentradores solares pueden reducir el coste medio de la energía solar al ser necesarias menos placas para obtener la misma cantidad de energía.

Habitualmente, los concentradores están hechos a partir de espejos curvados o lentes, que son muy voluminosas y requieren la intervención de sistemas mecánicos muy costosos para ayudarles a seguir la trayectoria del sol.

A diferencia de los espejos y las lentes en los concentradores solares convencionales, las láminas de cristal propuestas por Marc Baldo, que ha dirigido esta investigación, actúan como guías de ondas, encauzando la luz de un modo similar a como los cables de fibra óptica transmiten señales ópticas a largas distancias.

Baldo es profesor de ingeniería eléctrica en el MIT y ha publicado su hallazgo recientemente en la revista Science. Su proyecto podría contribuir a medio plazo a que la energía solar compitiera en precio con los combustibles fósiles. “De hecho, los paneles equipados con estos concentradores serían la tecnología solar más barata”, comenta en un artículo publicado por Technology Review.

Colorantes

Baldo y su equipo han cubierto la superficie de las láminas de cristal con un tipo de tintes. Estos tintes tienen la propiedad de absorber la luz del sol. Concretamente, diferentes tintes pueden usarse para absorber diferentes ondas de luz. Después, los tintes remiten la luz al cristal, que la encauza hacia los bordes del dispositivo. En sus bordes han instalado tiras de placas solares convencionales que absorben la luz y generan, finalmente, electricidad. Cuanta mayor es la superficie del cristal en comparación con el grosor de los bordes, más se concentra la luz y menos cuesta producir la electricidad.

Los tintes usados para cubrir los cristales se usan también para desarrollar pinturas para coches o en OLEDS (diodo orgánico de emisor de luz). En ambos casos, los tintes tienen que estar expuestos durante años al sol. Esta cualidad es esencial para que puedan actuar también como concentradores solares.

En principio, los tintes están en forma de polvo, pero después se les añade un disolvente para hacer una especie de tinta líquida. La mezcla de diferentes tintas es, precisamente, uno de los puntos clave de esta propuesta. Determinar la combinación exacta de tintas resuelve un problema fundamental con el que los investigadores se han encontrado en este nuevo tipo de concentradores solares. Si las láminas de cristal están cubiertas con tintes que absorben la luz del sol, pongamos la gama del verde al azul, la luz emitida será rápidamente reabsorbida por el tinte y muy poca cantidad llegará a los bordes donde están las tiras de células solares convencionales, que son las que finalmente convierten la luz solar en electricidad.

Nuevo tipo de panel

Usando ciertas combinaciones de tintes, Baldo ha cubierto las láminas de cristal con un tinte que absorbe un color (ultravioleta a través de una luz verde) pero que emite otro (naranja). La luz emitida no es reabsorbida rápidamente, por lo que una mayor cantidad llega a los bordes de las láminas de cristal.

Una de las grandes novedades del prototipo es que para generar electricidad conecta el concentrador con placas solares convencionales, dando como resultado un nuevo tipo de panel solar que usa dos tecnologías diferentes para captar más energía.

Diferentes longitudes de onda de luz solar tienen también diferentes cantidades de energía. Así, la luz ultravioleta tiene la mayor cantidad, mientras que la infrarroja tiene la menor. Los paneles solares están optimizados para ciertos colores. Idealmente, habría que usar una combinación de paneles solares capaces de captar diferentes longitudes de onda para recoger la mayor cantidad de luz, pero esto es demasiado caro y poco práctico.

El nuevo concentrador del MIT proporciona, precisamente, un modo barato de combinar placas solares optimizadas para diferentes longitudes de onda: diferentes capas de color (diseñadas para captar ciertas longitudes de onda de luz) pueden ser unidas a varios tipos de placas solares en un único dispositivo.

Según sus creadores, este prototipo (de 30 centímetros cuadrados) genera el doble de electricidad a partir de luz solar que una placa convencional. Esto se traduce en una reducción de un 30% en el coste de producción de electricidad mediante energía solar.

Baldo y su equipo esperan que esa reducción sea mayor cuando su prototipo vaya mejorando. Todavía hay que hacer más trabajo en el laboratorio, como mejorar la gama de colores que el concentrador puede absorber, pero consideran que es el momento para trasladar esta tecnología del laboratorio al mercado. Para ello, han creado una empresa llamada Covalent Solar, que espera comercializar sus primeros productos (a partir de este prototipo) en unos tres años.

Fuente:

Tendencias21

16 de septiembre de 2008

Biografías de la Ciencia - Pasteur 2

Biografías de la Ciencia

Conocer Ciencia en la Televisión

Louis Pasteur - Segunda Parte



Pasteur habia comprobado la efectividad de la vacuna antirrábica en los perros. Inyectó una preparación atenuada del germen de la rabia en un perro sano y comprobó que esta no hacia enfermar al animal pero ¿había adquirido el perro un defensa ante la rabia?. Para verificarlo se introdujo al perro vacunado en una jaula junto a otro rabioso… El perro salió vapuleado y mordido a conciencia pero no desarrolló la rabia.

Sin embargo existia un problema: ¿cómo atreverse a inocular la rabia atenuada en personas?. La posibilidad de contagiar accidentalmente la rabia a un ser humano era intolerable para Pasteur. Pero se presentó una ocasión:

Conozca más sobre la vida de Louis Psteur en la siguiente presentación:



Espero les haya gustado. Un amigo:

Leonardo Sánchez Coello
Profesor de Educación Primaria

14 de septiembre de 2008

Biografías de la Ciencia - Pasteur 1

Biografías de la Ciencia

Conocer Ciencia en la Televisión

Pasteur - Primera Parte

Ahora le toca el turno a Pasteur. Según la Wikipedia: Louis Pasteur 27 de diciembre de 1822 - 28 de septiembre de 1895) fue un químico francés cuyos descubrimientos tuvieron enorme importancia en diversos campos de las ciencias naturales, sobre todo en la química y microbiología. A él se debe la técnica conocida como pasteurización.

Pasteur, al igal que muchos grandes hombres de ciencias, fue calificado como un estudiante mediocre. En efecto no demostró talento especial en los estudios, excepto en química, carrera que finalmente abrazo. Solía decir que su arma de combate era el micrsocopio ¡y vaya usos que le dio a este instrumento! Conzca más sobre la vida, y descubrimientos de este científico en la siguiente presentación:



Pasteur, a pesar de haber sufrido un derrame cerebral, se puso de pie, se sobrepuso a la adversidad y continuó con sus investigaciones. Pero esta historia la vermos en la segunda parte.

Hasta entonces:

Leonardo Sánchez Coello
Profesor de Educación Primaria

11 de septiembre de 2008

¿Qué es el Gran Colisionador de Hadrones (LHC)? - 3

¿Qué es el Gran Colisionador de Hadrones (LHC)? - 3

Ha tomado 20 años de trabajo, 5,000 científicos, 60 países y 6 mil millones de dólares construir el acelerador de partículas más grande y potente del planeta. Tiene 27 kilómetros de diámetro y está a 100 metros bajo tierra- entre las fronteras de Francia y Suiza. ¿Qué es? ¿Para qué sirve?


El bautizo de hoy (10 de septiembre - 2008) ha sido un ensayo general en el que se ha inyectado un primer haz de protones en el acelerador, para comprobar si es capaz de recorrer sin problemas el recorrido circular del anillo. Las primeras colisiones de partículas, sin embargo, no se llevarán a cabo hasta dentro de unas semanas, una vez que los científicos del CERN comprueben que todo funciona a la perfección.



Cuando el LHC empiece a trabajar a pleno rendimiento en los próximos meses, los aproximadamente 10.000 científicos de unos 500 centros de investigación que participan en el proyecto van a tener mucho trabajo. Se calcula que cada año, el acelerador de partículas producirá tantos datos que se necesitaría una pila de CD de una altura de 20 kilómetros para almacenar toda la información generada por sus experimentos. (Vía El Mundo)


¿Qué es el "Gran Colisionador"?



Es un acelerador de protones (uno de los componentes del núcleo atómico) que fue construido en el CERN, en la frontera entre Suiza y Francia. Hará colisionar a los protones con una energía que nunca antes fue alcanzada.

¿Para qué servirá?




Para entender los primeros instantes del Universo. Producirá una especie de pequeño Big Bang para estudiar cómo se ha ido formando la materia. Se pretende hallar una partícula, el bosón de Higgs, responsable de la diferencia de masa de los componentes más pequeños de la materia. Si se lo encuentra, contribuiría de algún modo a la unificación de la física.

¿Por qué se lo llama popularmente la "máquina de Dios"?

El físico y Premio Nobel Leon Lederman fue el primero en referirse a la "partícula de Dios" cuando se refería al bosón de Higgs. De ahí que el nuevo acelerador, que confirmaría la existencia de esa partícula, se conozca como la "máquina divina o de Dios". Vía Clarín de Argentina.

Créditos:
Imágenes - Blog de DinoRaider

También pueden accder a magníficas animaciones en:

Diario El País - España

Diario El Mundo - España


¿Cuántos misterios se podrían develar?

Así informó CORDIS Noticias sobre las posibilidades que brindaría el LHC en el experimento de física denominado "la experiencia científica del siglo".

Uno de los mayores misterios que el LHC ayudará a resolver es el de la naturaleza de la masa. Se desconoce la razón por la que algunas partículas pesan lo que pesan y por qué parece que otras no tienen masa en absoluto. Algunos científicos opinan que una partícula elemental llamada bosón de Higgs podría explicar este enigma. El problema es que nunca nadie ha conseguido observar un bosón de Higgs, por lo que su existencia no ha sido confirmada. En el LHC, tanto ATLAS como CMS se encargarán de buscar evidencias de esta misteriosa partícula.

El LHC también investigará la materia oscura. A pesar de que esta sustancia supone el 96% del Universo, sabemos muy poco sobre ella. Las estaciones ATLAS y CMS se utilizarán para probar las teorías en relación a la composición de la materia oscura.

En otro punto del LHC, el experimento LHCb («Gran Colisionador de Hadrones beauty») explorará las diferencias entre la materia y la antimateria y tratará de averiguar por qué la naturaleza aparenta preferir la primera a la segunda.

Por otro lado, la estación ALICE (Gran Experimento Colisionador de Iones) investigará las condiciones imperantes justo después del Big Bang. Finalmente, todos juntos tratarán de detectar pruebas de otras dimensiones ocultas del espacio.

«Este es un momento histórico de la ciencia. La culminación de décadas de trabajo» comentó Keith Mason, Director del Consejo de Instalaciones Tecnológicas y Científicas del Reino Unido, que colabora con el LHC. «Los científicos pendientes del LHC se atreven a plantear las cuestiones más grandes que existen en la ciencia moderna. Se cumplan nuestras predicciones o se invaliden por completo, los libros de física nunca volverán a ser iguales.»

Visite estos vínculos, para mayor información:

Telemundo: Especial LHC

Página web del LHC

Rap del LCH

¿Qué es el Gran Colisionador de Hadrones (LHC)? - 2

¿Qué es el Gran Colisionador de Hadrones (LHC)? - 2

El mundo empezó como una sopa caliente, extremadamente caliente. Al enfriarse esa sopa incandescente empezaron a formarse grumos, los átomos, el carbono, luego las estrellas, los planetas, nosotros. No sabemos muy bien de qué estaba hecha esa sopa primordial. Para saberlo habría que cocinar todo de nuevo. Y eso es lo que se busca con el Large Hadron Collider (LHC) que entró en funcionamiento ayer (miércoles 10 de septiembre), con una repercusión periodística única en la historia de la ciencia. (Vía Criticadigital de Argentina).

El LHC es un acelerador de partículas, y lo hace a velocidades que nunca se consiguieron antes. Luego, las partículas chocan entre sí y reparten por doquier los restos de un estallido microscópico que se asemeja al universo en su comienzo. Una de las partículas que se espera encontrar es el así llamado bosón de Higgs. Ésta no es una más. Es diferente del resto y (en las teorías actuales) es la responsable de que las demás tengan peso, o, en lenguaje más técnico, de que tengan masa.





En 1993, Leon Lederman, Premio Nobel de física, publicó un libro de divulgación refiriendose al “Higgs”. El título era provocativo: La partícula de Dios: Si el universo es la respuesta, ¿cuál es la pregunta? El nombre quedó acuñado. ¿Se encontrará la partícula y, si se encuentra, cuán importante es el resultado? Para mi amigo Alejandro García, físico nuclear de la Universidad de Washington, es casi seguro de que se la va a encontrar, aunque es probable que se tarde unos tres o cinco años, ya que hay que explorar muchos choques antes de estar seguro.


Pero... (el inevitable pero)

Pero en Conocer Ciencia, lo reiteramos, es inútil intentar reproducir el big bang... ¡por que el big bang nunca existió! El afamado Stephen Wawking afirma que no secontrará el bóson ge Higgs (las partículas de Dios). Estamos ante un nuevo debare que se escribirá en las páginas d ela Historia de la Ciencia. Leamos (Vía Europa Sur):

Sthepen Hawking apuesta a que no sencontrá el bosón de Higgs

Tras esto, Hawking apostó 100 dólares a que la partícula no existe, aunque sostiene que el experimento servirá para lograr resultados más interesantes que el bosón de Higgs.



Peter Higgs, teórico hace 44 años de la partícula de Dios que ahora se espera pueda ser aislada y descrita de manera científica colisionando protones a gran velocidad en el acelerador LHC de Ginebra (Suiza), está enfadado. Y nada menos que con su rival para el Nobel y eminencia científica mundial Stephen Hawking, que ha cuestionado abiertamente la línea experimental emprendida en el nuevo acelerador.

Hawking declaró que sería "más emocionante" para la ciencia si el experimento del CERN en la frontera franco-suiza "no encontrase" la partícula de Dios o bosón de Higgs, principal objetivo de su experimento, ya que no existe. Ante esto, un Higgs bastante irritado ha declarado que "no ha leído" el documento en el que Hawking hace esta reclamación, pero dijo haber leído los escritos que son la base de sus cálculos, y cree que el método que utiliza "no es lo suficientemente bueno".

Bien, ¿por qué tanta confusión? Resulta que en la Pax Económica que supuestamente vive el planeta gracias a ala mano invisible del libre mercado nos lleva a pensar, gracias a su gigantesca maquinaria ideológica y propagandística, que el materialismo dialéctico pertenece al basurero de la historia, y esto no es así. Esta filosofía nos brinda un enfoque objetivo de los diversos procesos que se desenvuelven en el Universo.

De manera paralela se niega a las masas el acceso a una visión coherente e integrada del Cosmos. Las noticias de ciencia y tecnología apenas aparecen. Entonces tenemos un doble proceso para mantener ciegos a los inbdividuos de este siglo: 1º se les niega la información, 2º se les niega las herramientas para analizar la información.

Este estudio, breve pero lúcido, apoya la idea de que es inútil buscar las particulas últimas, finales. (Vía: Nodo50).



Mecaníca Cuántica, Big Bang y Materialismo Dialéctico


Probabilidades y mecánica cuántica



Los científicos continuamente hacen predicciones que son verificadas por la observación y la experimentación. Esto incluye el campo de la mecánica cuántica, a pesar de la "indeterminación". Aunque no es posible predecir con precisión el comportamiento de fotones o electrones individuales, es posible predecir con gran precisión el comportamiento de grandes cantidades de partículas.

No hay nada nuevo en esto. Lo que se conoce como "acontecimientos casuales masivos" se puede aplicar a un gran campo de fenómenos físicos, químicos, biológicos y sociales, desde el sexo de los recién nacidos hasta la frecuencia de defectos en una cadena de producción.

Las leyes de la probabilidad tienen una larga historia. Por ejemplo la "ley de los grandes números" establece el principio general de que el efecto combinado de gran cantidad de factores accidentales produce, para una gran cantidad de dichos factores, resultados que son casi independientes de la casualidad. Esta idea fue expresada tan pronto como en 1713 por Bernoulli, cuya teoría fue generalizada por Poisson en 1837 y le dio una forma acabada Chebyshev en 1867.

La afirmación de que no podemos conocer las causas precisas, o predecir la posición y velocidad precisas de un electrón individual es, en realidad, un lugar común filosófico, sin ningún contenido. Intentar buscar una relación precisa de todas las coordinaciones e impulsos de cada partícula individual sería volver a la cruda determinación mecánica de Laplace. Este es, en realidad, un concepto fatalista que reduce la necesidad al nivel de la mera casualidad— es decir si todo está gobernado por una especie de decreto eterno, entonces todo es igualmente arbitrario, lo llamemos necesario o no. Como Engels planteó: "No se puede tratar de trazar la cadena causal en ninguno de estos casos: por lo tanto somos tan sabios en una como en la otra, la llamada necesidad sigue siendo una frase vacía, y con ello —la casualidad sigue siendo lo que era". (La Dialéctica de la Naturaleza).

Si fuese posible establecer todas las causas del movimiento de las partículas subatómicas, la investigación de éstas, en el caso de un solo electrón sería suficiente para mantener a todos los científicos del mundo ocupados por muchas vidas, y todavía no llegarían al final. Afortunadamente esto no es necesario. Aunque somos incapaces de precisar la posición "fija" y la velocidad de una partícula dada, que por lo tanto se puede decir que tiene un carácter casual, la situación cambia radicalmente cuando se trata de grandes cantidades de partículas. Y aquí, estamos tratando con cantidades realmente grandes. Cuando tiramos una moneda al aire, la posibilidad de que sea "cara o cruz" se puede poner en un 50%. Esto es un fenómeno totalmente casual, que no se puede predecir. Pero los propietarios de los casinos, que supuestamente se basan en un juego de "azar" saben que, a largo plazo, el cero o doble cero saldrán con la misma frecuencia que cualquier otro número, y por lo tanto pueden sacar ganancias respetables y predecibles.

Lo mismo se aplica para las compañías de seguros que ganan grandes cantidades de dinero precisamente en base a las probabilidades, que en último término pasan a ser certezas prácticas, aunque no se puede predecir el destino preciso de los clientes individuales.



"La mecánica cuántica ha descubierto las leyes precisas y fantásticas que gobiernan las probabilidades, es precisamente tratando de cantidades como éstas que la ciencia supera sus problemas. Con semejantes medios la ciencia puede hacer las predicciones más audaces. A pesar de confesar humildemente su incapacidad para predecir el comportamiento exacto de electrones o fotones individuales u otras entidades fundamentales, puede decirte con enorme confianza cómo deben comportarse precisamente grandes multitudes de ellos" (B. Hoffmann, op. cit.)

Por cierto, estos ejemplos, sacados de los más diferentes campos, son excelentes ilustraciones de la ley dialéctica de la transformación de cantidad en calidad.

El desarrollo de la física cuántica representa una auténtica revolución en la ciencia, rompiendo decisivamente con el viejo determinismo mecánico autosuficiente de la física "clásica". (El método "metafísico" como lo habría llamado Engels). En lugar de eso tenemos una visión de la naturaleza mucho más flexible, dinámica —en una palabra, dialéctica. Empezando por el descubrimiento de Plank de la existencia infinitesimal del quantum, que al principio pareció ser un pequeño detalle, toda la física se transformó. Así surgió una nueva ciencia que podía explicar los fenómenos de la transformación radioactiva y analizar con gran detalle los complejos datos del espectroscopio. Llevaba directamente al establecimiento de una nueva ciencia —la química teórica, capaz de resolver cuestiones previamente insolubles. En general toda una serie de dificultades teóricas eran eliminadas, cuando se aceptaba el nuevo punto de vista.

La fusión nuclear

La nueva física reveló las poderosas fuerzas que encerraba el núcleo atómico. Esto llevó directamente a la explotación de la energía nuclear —el camino para la potencial destrucción de la vida en la tierra— o una visión de abundancia inimaginable, sin límites y progreso social humano a través del uso pacífico de la fusión nuclear. He aquí un poderoso avance para la ciencia. Pero la mente humana —contrariamente a lo que piensan los idealistas— es conservadora por naturaleza. Esta revolución de la ciencia se produjo a pesar de que la mayoría de los científicos aceptaban las conclusiones filosóficas más primitivas y reaccionarias.



"Los científicos naturales" escribió Engels, "creen que están libres de la filosofía ignorándola o atacándola. Sin embargo, no pueden dar ni un paso sin pensar, y para pensar necesitan determinaciones mentales. Pero ellos toman estas categorías como un reflejo de la conciencia común de las llamadas personas instruidas, que en general está dominada por las reliquias de filosofías largamente obsoletas, o de la pequeña cantidad de filosofía obligatoria que han aprendido en la Universidad (que no sólo es fragmentaria, sino una mezcla de los puntos de vista de personas pertenecientes a las más variadas y con frecuencia peores escuelas), o de lecturas acríticas y no sistemáticas de escritos filosóficos de todo tipo. Por lo tanto no sólo no están menos influidos por la filosofía sino que en la mayoría de los casos lo están por la peor" (Dialéctica de la Naturaleza).

Así, en su conclusión a un trabajo sobre la revolución cuántica, Banesh Hoffmann es capaz de escribir: "Por lo tanto debemos maravillarnos mucho más de los poderes milagrosos de Dios que creó el cielo y la tierra de una esencia primitiva de tan exquisita sutileza que con ella pudo modelar cerebros y mentes dotados con el don de la clarividencia para penetrar sus misterios. Si la mente de un simple Bohr o Einstein nos deja atónitos por su poder, ¿cómo podemos siquiera empezar a admirar la gloria de Dios que los creó?" (B. Hoffmann, op. cit.)

Desgraciadamente éste no es un caso aislado. Toda la literatura científica moderna está impregnada de arriba a abajo de este tipo de tufillo místico, religioso o casi—religioso. Esto es un resultado directo de la filosofía idealista que en gran parte muchos científicos han adoptado consciente o inconscientemente.

Geometría



Las leyes de la mecánica cuántica parecen incomprensibles a los ojos del "sentido común" (es decir la lógica formal), pero están en plena consonancia con el materialismo dialéctico. Tomemos por ejemplo la concepción del punto. Toda la geometría tradicional se deriva de un punto, que se convierte en una raya, un plano, un cubo, etc. Pero una observación más precisa nos revela que tal punto no existe. El punto se concibe como la expresión más pequeña del espacio, algo que no tiene dimensión. En realidad tal punto se compone de átomos, electrones, núcleo, fotones, e incluso partículas más pequeñas. En última instancia desaparece en una incesante curva de ondas cuánticas en remolino. Y no hay un final para este proceso. No hay ningún punto "fijo". Esta es la respuesta final a los idealistas que quieren encontrar las formas "perfectas" que supuestamente se esconden "más allá" de la realidad observable.

La única "última realidad" es el universo material infinito, eterno y en constante cambio, que es mucho más maravilloso en su inacabable variedad de formas y procesos que la más fabulosa aventura de ciencia ficción. En vez de una localización fija —un "punto"— tenemos un proceso, un flujo, que nunca se acaba. Cualquier intento de poner un límite a esto, en forma de principio o de final, inevitablemente fracasará.

Estado de cambio

Hace cien años los científicos creyeron haber encontrado finalmente la última y más pequeña partícula. Pensaban que no había nada más pequeño que el átomo.

El descubrimiento de las partículas subatómicas llevó a los físicos a profundizar más en la estructura de la materia. En 1928 los científicos se imaginaban que habían descubierto las partículas más pequeñas —protones, electrones y fotones. Se suponía que todo el mundo material se componía de estas tres partículas.

Posteriormente esto fue hecho pedazos por el descubrimiento del neutrón, y después toda una multitud de otras partículas incluso más pequeñas, con una existencia cada vez más efímera —neutrinos, pi-mesones, mu-mesones, k-mesones, y muchas más.

El ciclo vital de algunas de estas partículas es tan evanescente —quizás una cien mil millonésima de segundo— que han tenido que ser descritas como partículas "virtuales" —algo totalmente impensable en la era precuántica.

Desde el punto de vista de la dialéctica estos descubrimientos son extremadamente importantes. ¿Cuál es el significado de estas "extrañas partículas" con una "existencia virtual" —de las que no se puede decir exactamente si son o no son? El neutrino es descrito por B. Hoffmann como "una incertidumbre fluctuante entre la existencia y la no-existencia"), esto es, para decirlo en el lenguaje de la dialéctica, que son y no son.

Todos estos logros de la investigación científica constituyen una brillante confirmación de la concepción dialéctica de la naturaleza como un proceso sin fin, en un estado de cambio continuo que tiene lugar mediante contradicciones, en el cual las cosas se convierten en su contrario.

"Cuando observamos la naturaleza, o la historia de la humanidad, o nuestra propia actividad intelectual," escribió Engels, "la primera imagen que se nos presenta es la de un laberinto infinito de relaciones e interacciones, en el cual nada permanece igual a lo que era, dónde estaba y tal como era, sino que todo se mueve, cambia, pasa a ser y deja de existir. Esta concepción primitiva, ingenua, pero intrínsecamente correcta del mundo era la de la antigua filosofía griega, y fue formulada claramente por primera vez por Heráclito : todo es y a la vez no es, porque todo fluye, está cambiando constantemente, constantemente pasando a existir y desapareciendo" (Anti-Dhüring).

Comparémoslo con esta otra cita: "En el mundo del quantum, las partículas están constantemente apareciendo y desapareciendo. Lo que podemos pensar que es un espacio vacío es una nada fluctuante, con fotones apareciendo de la nada y desvaneciéndose tan pronto como nacen, con electrones apareciendo por breves momentos del océano monstruoso para crear pares evanescentes electrón-protón y súbitamente otras partículas añadiéndose a la confusión" (B. Hoffmann, La Extraña Historia del Quantum).

Más de cien años después, la visión dialéctica del mundo de Engels se ve brillantemente corroborada, no sólo a nivel macrocósmico sino también a nivel microcósmico. ¡Qué lejos está todo esto del universo idealista estático de Platón! Aunque parezca mentira es la filosofía de Platón y de otros idealistas la que probablemente domina el pensamiento de la mayoría de los científicos en contradicción con los resultados de sus propias investigaciones. Tratan a Hegel como un "perro muerto" (por no hablar de Marx y Engels), sólo para echar mano del idealismo en sus formas más abstractas y oscurantistas.

Que las partículas individuales (incluyendo las "partículas virtuales") existen no está en cuestión. "Son" y sus propiedades (por lo menos algunas de ellas) son conocidas. Pero tratemos de determinarlas con más precisión, de fijarlas en un tiempo y un espacio, y resultarán extremadamente evasivas. "Son y no son, porque fluyen." Un electrón es una partícula y una onda al mismo tiempo, está "aquí" y "allí" a la vez.

Esta concepción de la materia en estado de cambio constante, ligada a una red universal de interconexión e interpenetración, es precisamente la esencia del punto de vista dialéctico. Ya no es la ingenua aunque brillante intuición de Heráclito, sino algo firmemente establecido por la experimentación.

Esto por supuesto no impide a los idealistas atacar el materialismo distorsionando sistemáticamente las conclusiones de la ciencia moderna para sus propios fines. Así, argumentaban que la producción de fotones implicaba que la materia había "desaparecido", ignorando que desde el punto de vista del materialismo dialéctico, la materia y la energía son lo mismo. Esto fue demostrado científicamente por la famosa ley de Einstein de la equivalencia de la masa y la energía. De hecho, la masa está permanentemente convirtiéndose en energía (incluyendo luz-fotones) y la energía en masa. Por ejemplo los fotones (luz) cambian constantemente a pares de electrones y positrones, —el proceso opuesto. Este fenómeno se ha estado dando ininterrumpidamente por toda la eternidad. Es una demostración concreta de la indestructibilidad de la materia —justamente lo contrario de lo que se quería demostrar.

El Big Bang

La búsqueda de "la partícula final" ha demostrado ser inútil. Pero a nivel del universo en su conjunto, ha habido un intento similar de poner un "límite" a la materia, en forma de un universo finito. De hecho, la llamada teoría del "Big Bang" es un retroceso a la vieja idea medieval de un "universo cerrado", que, en última instancia, implica la existencia de un Creador.



Hace algunas décadas, Ted Grant, utilizando el método del materialismo dialéctico, puso al descubierto la poca base tanto de la teoría del "Big Bang" del origen del universo como de la teoría alternativa del "Estado Estacionario" planteada por Fred Hoyle y H. Bondi. Posteriormente se demostró que la teoría del estado estacionario, que se basaba en la "creación continua de materia" (de la nada), era falsa. La teoría del Big Bang por lo tanto ganó por "falta de alternativas", y sigue siendo defendida por la mayoría de la comunidad científica.

La teoría del Big Bang sostiene que el universo fue creado en una gigantesca explosión que ocurrió entre diez mil y veinte mil millones de años. Antes de eso, sus defensores nos quieren hacer creer que toda la materia del universo estaba concentrada en un solo punto, cuyas dimensiones han sido descritas de varias formas. De hecho ha habido por lo menos cinco versiones diferentes de esta teoría. La primera fue planteada en los 30 por un cura católico que más tarde ocupó el puesto de director de la Academia Pontificia de Ciencia, Georges-Henri Lemaitre. Esta fue rápidamente refutada en diferentes campos —conclusiones incorrectas de la relatividad general y de la termodinámica, una falsa teoría de los rayos cósmicos y la evolución estelar...

Después de la Segunda Guerra Mundial, la desacreditada teoría fue recuperada por George Gamow y otros en una nueva forma. De cualquier manera, la teoría del Big Bang representa una visión mística de un universo finito en el tiempo y el espacio, y creado en un momento definido por un proceso misterioso, que ya no se puede observar en ninguna parte en la naturaleza. Toda la idea en sí, está plagada de dificultades, tanto de carácter científico como filosóficas.

Los científicos hablan del "nacimiento del tiempo", en el momento del Big Bang. Pero tiempo y espacio junto con el movimiento son el modo de existencia de la materia.

Es un contrasentido hablar del principio del tiempo o de su final, a no ser que consideremos, junto con San Agustín, que Dios creó el universo de la nada, algo que no sólo está al margen de toda experiencia, sino que contradice una de las leyes fundamentales de la física: la ley de la conservación de la energía. La energía, y por tanto la materia, no puede ser creada ni destruida.

Si aceptamos el Big Bang, surgen todo tipo de preguntas. Por ejemplo, ¿qué lo causó? ¿Cuáles eran las leyes del movimiento que condicionaban este minúsculo punto, suspendido en el espacio por toda la eternidad, en el cual toda la materia del universo, ni más, ni menos, se supone que estaba concentrada? La teoría abre la ventana de par en par a la intervención de un Ser Supremo y todo tipo de misticismos, de ahí su atracción sobre el católico Lemaitre y los idealistas en general.

Gamow y otros avanzaron toda una serie de cálculos para explicar los diferentes fenómenos que se desprenden del Big Bang —densidad de la materia, temperatura, niveles de radiación... Se encontraron gran cantidad de discrepancias que invalidaban, no sólo el modelo de Gamow, sino también el modelo del "universo oscilante", planteado por Robert Dicke y otros, en un intento de solucionar el problema de qué es lo que había antes del Big Bang, haciendo oscilar el universo en un ciclo perpetuo.

Sin pruebas

No hay prácticamente ninguna evidencia empírica que sustente la teoría del Big Bang. La mayor parte del trabajo que se ha hecho para apoyarla es de carácter meramente teórico, basado fundamentalmente en fórmulas matemáticas rebuscadas y esotéricas. Las numerosas contradicciones entre el esquema preconcebido del Big Bang y la evidencia observable han obligado a sus defensores a cambiar las reglas del juego para preservar a toda costa una teoría sobre la cual se ha construido tanta reputación académica.

Según los cosmólogos del Big Bang, para que se formaran galaxias a partir del Big Bang debería de haber habido suficiente materia en el universo para que se llegase finalmente a un punto muerto en su expansión debido a la ley de la gravedad. Esto significaría una densidad de aproximadamente diez átomos por metro cúbico. En realidad la cantidad de materia presente en el universo observable es de un átomo por diez metros cúbicos —cien veces menos que la cantidad predicha por la teoría.

En lugar de ver esta contradicción como un fallo decisivo en la teoría, los partidarios del Big Bang buscaron ayuda en las partículas físicas fundamentales, lo que les obligó a inventarse la idea de "la materia oscura", una sustancia invisible, para la existencia de la cual no existe un sólo pedazo de prueba empírica, pero que se supone que suma ¡no menos del 99% de toda la materia del Universo!

La última versión del Big Bang —la llamada "teoría inflacionaria"— no nos lleva ni un paso más adelante. De hecho es todavía más contradictoria y mística que sus desacreditadas predecesoras. De acuerdo con el último gran genio, Alan Guth, el Big Bang tuvo que haber sido acelerado de tal manera que el universo "inflacionario" duplicó su tamaño cada 1035 segundos, llenando de esta manera "espontáneamente" todo el espacio. La cuestión de dónde saldría una cantidad tan enorme de energía sigue sin respuesta. Por lo visto, simplemente apareció DE LA NADA, un truco que difícilmente es concebible sin la intervención de algún mago cósmico. Y todo esto se supone que debe ser aceptado, como artículo de fe, para apoyar una teoría que no se sostiene en pie. Una proposición empíricamente verificable que se deduce de la nueva teoría es que, según ella, los protones se descomponen. En la medida en que la gran mayoría del universo observable está compuesto de protones, esto tiene consecuencias dramáticas. Significaría que el propio universo está condenado a desintegrarse. Sin embargo la experimentación ha demostrado lo contrario: los protones no se descomponen. Su vida se prolonga por varios billones de años más allá de los límites puestos por los experimentos.

En el siglo XVIII , el obispo Usher calculó la fecha exacta de la creación del mundo —el 23 de octubre del 4004 a. C.. Hoy en día los seguidores del Big Bang también han puesto una fecha para el nacimiento del universo (y del tiempo por supuesto) hace entre diez mil y veinte mil millones de años. Esta fecha no se puede situar antes en el tiempo sin contradecir las actuales mediciones de la distancia de las galaxias respecto a la nuestra y la velocidad con que parece que se están alejando.

De esto se deduce que, según esta teoría, no puede haber nada en el Universo más viejo que 20 mil millones de años. Pero hay pruebas que parecen contradecir esta afirmación. En 1986, Brent Tully de la Universidad de Hawai dijo que había descubierto enormes aglomeraciones de galaxias ("super-racimos") de mil millones de años luz de largo, trescientos millones de años luz de ancho y cien millones de años luz de grosor. Para que se pudieran formar objetos de ese tamaño se necesitarían entre ochenta mil y cien mil millones de años, es decir, cinco veces más de lo que nos permitiría la teoría del Big Bang.

Desde entonces ha habido otros resultados que parecen confirmar estas investigaciones. The New Scientist (5 de febrero de 1994) publicaba un reportaje sobre el descubrimiento de un racimo de galaxias por parte de Charles Steidel del Instituto Tecnológico de Massachusetts en Pasadena con grandes implicaciones para la teoría del Big Bang:

"El descubrimiento de un racimo de ese tipo plantea nuevas dificultades para las teorías de la materia oscura fría, que plantea que una gran parte de la materia del universo está en objetos fríos y oscuros como planetas o agujeros negros. Estas teorías predicen que el material del universo primitivo se agrupó desde "arriba", con lo que primero se formaron las galaxias, y sólo después se agruparon para formar racimos"

Como siempre la primera reacción de los astrónomos ha sido recurrir a "cambiar las reglas del juego" ajustando la teoría a los obstinados hechos. Así, Mauro Giavalisco del Telescopio Espacial del Instituto Científico de Baltimore cree que sería posible explicar el nacimiento del primer racimo de galaxias con un desplazamiento hacia el rojo de 3.4 ajustando la teoría de la materia oscura fría. Pero añade una advertencia: "Si encuentras diez racimos con un desplazamiento al rojo de 3.4, sería la muerte de las teorías de la materia oscura fría"

Podemos estar seguros de que existen, no sólo diez, sino un número mucho mayor de estos racimos enormes y que serán descubiertos. Y eso a su vez, será solamente una proporción de un minuto de toda la materia que se encuentra mucho más allá del universo observable y que se extiende hasta el infinito. Todo intento de poner un límite al universo material está condenado al fracaso. La materia no tiene límites, ni a nivel subatómico, ni por lo que se refiere al tiempo y al espacio.

Fin de la segunda parte. En la tercera y última parte veremos aspectos técnicos del LCH, el gran colisionador de hadrones.

Primera Parte

Tercera Parte
google.com, pub-7451761037085740, DIRECT, f08c47fec0942fa0