Cuando tratamos el tema del azar
en un sentido cotidiano, por lo general, suele ser inquietante el
significado que le damos a esta palabra, que no tenemos nada claro. En
una primera aproximación a este término, el azar es simplemente el
intento de poner orden en lo desconocido. Es decir, es intentar
eliminar, tanto como se pueda, la ignorancia sobre determinados sucesos,
y revestir lo que queda de un barniz matemático.
Todo el mundo está familiarizado, o cree
estarlo, con la palabra azar, y pretendemos tener, al menos, alguna
idea de su significado. Pero eso no es tan obvio, y bastaría hacer una
sencilla encuesta entre las personas cercanas para comprobar que no
todos serán capaces de dar esbozos del concepto. No obstante, podrán
obtenerse respuestas del tipo “El azar ocurre cuando suceden cosas
inesperadas”. Lo que viene a ser el reconocimiento claro de que se trata
de una medida del desconocimiento.
Una definición más formal podría ser la siguiente:
El azar es el agente que actúa definiendo un evento a posteriori de un experimento a partir de un conjunto de sucesos posibles a priori.
Es decir, podemos considerar que un
experimento sucede por azar si su resultado final no se puede determinar
a priori de entre un conjunto de resultados posibles.
Dentro de los sucesos que podríamos
caracterizar como gobernados por el azar, a su vez, podemos distinguir
dos fenómenos diferenciados:
- El azar ontológico, en el cual la aleatoriedad forma parte del ser. Se considera esta situación cuando existen procesos que son irreductiblemente aleatorios, independientemente del conocimiento que tengamos del propio sistema, de forma que no se podrá reducir a causas deterministas.
- El azar epistemológico es aquel que se produce por el desconocimiento, bien sea por ignorancia o por incapacidad, para tratar sistemas complejos, que en principio responden a causas de naturaleza determinista.
Tradicionalmente, en la ciencia surgida
de la Ilustración y hasta principios del siglo XX, se consideró que todo
el azar era de tipo epistemológico, y que no existía el azar de tipo
ontológico. Esto era así tanto para los partidarios del naturalismo,
sosteniendo que todo era reducible a causas naturales, aunque fuesen
desconocidas, y que veían dicha naturaleza como compuesta únicamente de
causas físicas, y por tanto materia, sujeta a las propias leyes físicas.
Pero también para los dualistas,
que además de la materia sostenían la existencia de elementos de
naturaleza metafísica, y en particular divina. Obviamente, un azar de
tipo ontológico es incompatible con la aceptación de un ente entre cuyos
atributos se encuentra el de omnisciente, que todo lo sabe.
Esta posición completamente determinista queda reflejada en los trabajos de Pierre Simon de Laplace, quien definió el primer corpus de conocimiento sobre este tema en su obra “Théorie analytique des probabilites“,
publicada en 1820 y donde ya se establece esta disciplina de manera
rigurosa, que se inició poco antes con los trabajos pioneros de Pascal y Fermat.
En este tratado ya enuncia su famosa regla de Laplace,
que todo el que haya pasado por una enseñanza secundaria conoce: Si un
experimento cualquiera puede dar lugar a un número finito de resultados
posibles, y no existe ninguna razón que privilegie unos resultados en
contra de otros, se calcula la probabilidad de un suceso aleatorio A, como el cociente entre el número de casos favorables a A, y el de todos los posibles resultados del experimento. El cociente entre los casos favorables dividido por los casos posibles.
En esa obra, la regla indicada aparece
como el principio número uno de una serie de 10, que rigen todo el
cálculo de probabilidades en las diferentes situaciones posibles.
También, dentro del principio número 6 se ocupa de un argumento original
de Pascal, que desde entonces es conocido como la “apuesta de Pascal” presentado como una nueva prueba de la existencia divina.
Dentro del estudio hace notar que el
cociente entre el número de nacimientos de niños y de niñas difiere muy
poco de la unidad. Y también hace notar que los fenómenos que dependen
del azar, al multiplicarse, manifiestan una tendencia a aproximarse
incesantemente a relaciones fijas que coinciden con las leyes de la
probabilidad que expone, con el enunciado de la ley general de la
probabilidad de los resultados indicados por un gran número de
observaciones: “La integral tomada entre unos límites dados, y dividida
por la misma integral extendida al infinito tanto positivo como
negativo, expresaría la probabilidad de que la discrepancia de la verdad
esté comprendida entre dichos límites”, la antesala de las leyes de los
grandes números, que da lugar a la aplicación de rigurosos principios
matemáticos para poner orden en este ámbito de lo desconocido. Además,
también le da pie a investigar la aplicación del cálculo de
probabilidades a la búsqueda de las causas de los fenómenos, mediante el
esbozo de lo que serían más adelante las correlaciones.
En definitiva, del estudio del cálculo de probabilidades, Laplace se reafirma en su determinismo férreo,
negando la existencia de un azar de características ontológicas. Así,
cuando decimos que al lanzar una moneda tiene una probabilidad de 1/2 de
salir cara, lo que queremos decir es que si repetimos el experimento un
número de veces muy elevado, el cociente entre el número de caras y el
total de los experimentos se aproxima a ese valor. No obstante, el
propio Laplace afirma que, desde el instante en que la moneda se lanza,
debido a la fuerza del impulso, a su dirección, a los rozamientos, y a
la acción de la ley de la gravedad, está completamente predeterminado el
resultado del experimento, si bien nos es completamente imposible
realizar los cálculos pertinentes.
En ese sentido, para ilustrar sus ideas
propuso que si pudiera existir un ser con capacidades sobrehumanas pero
no sobrenaturales, es decir, capacidades superiores a la de cualquier
persona pero que no violan ninguna ley fundamental de la Naturaleza, un
ser que desde entonces es conocido como el “demonio de Laplace“,
sería capaz de predecir con toda exactitud el comportamiento del
sistema en cualquier tiempo futuro. En otras palabras, si el mundo
obedeciera las leyes de Newton sería completamente determinista, y así,
el citado demonio, sería capaz de conocer la posición y velocidad de
todas las partículas del Universo en cualquier momento dado. Un demonio
con estas capacidades, sobrehumanas pero no sobrenaturales, conocería
el devenir de todo lo que existe, y conocería el más leve movimiento de
cualquier cosa o persona que viviera en los próximos cien mil millones
de años.
Por tanto, el azar en el sentido
laplaciano del término, corresponde con el que hemos denominado como
epistemológico. Así, hasta el siglo XX todo estaba claro, el mundo es
determinista y la estadística es un simple truco que usamos para paliar
nuestro desconocimiento o nuestra incapacidad de calcular cosas
excesivamente complejas. Sin embargo a comienzos del siglo XX todo
cambió, con el advenimiento de la mecánica cuántica, en donde se
defiende que el resultado de algunos experimentos no se puede predecir
con exactitud, sino sólo las probabilidades, no ya por desconocimiento,
sino por características inherentes a la propia naturaleza.
Según la que se denominó como interpretación de Copenhague
de la mecánica cuántica, en un experimento controlado en hasta sus más
mínimos detalles, siempre hay un grado de aleatoriedad en el resultado
con esas características. Muchos procesos físicos de carácter cuántico
podrían ser irreductiblemente aleatorios, como las leyes de la
desintegración atómica, que pueden predecir el número de núcleos de un
cuerpo radiactivo que se desintegrarán en un período dado de tiempo,
pero no cuándo lo hará cada uno de los núcleos concretos.
Es evidente que nos podemos plantear que
eso también sea a causa de nuestro desconocimiento, y de hecho, esa fue
siempre la primera opción. Tanto Einstein como Schrödinger,
entre otros pioneros, defendían que había que completar la teoría para
poder determinar así los resultados de manera exacta. Pero se
equivocaban. Dicha interpretación del azar cuántico como desconocimiento
se denominó de las “variables ocultas“,
en el sentido de que debían existir unas variables cuyo valor no
podíamos conocer, pero que estaban predeterminadas, en la misma forma
que opera el mundo físico clásico. El mayor exponente de esta
interpretación fue el artículo que publicó Einstein, junto a sus dos
ayudantes, Podolsky y Rosen, donde proponían lo que se denominó experimento EPR, y que en su publicación inicial el año 1936 resultó demoledor para la interpretación de Copenhage.
En esencia, el experimento planteado
consiste en dos partículas que interactúan alcanzando un estado
denominado “entrelazado” (entangled). Tras los cual, dos observadores
reciben cada una de ellas, llamadas A y B. Si uno de ellos mide, por
ejemplo, el spin de la partícula A y es “arriba”, entonces sabe cuál es
el spin de la B, que será “abajo”. Pero la cuestión es determinar si
dichos valores existían con anterioridad a la observación, o no. Dicho
de otra forma:
- Interpretación de Copenhague. El spin de las dos partículas A y B no estaba predeterminado, estando ambas en una superposición de “arriba” y “abajo”. Al observar una de ellas, el sistema colapsa, y de manera aleatoria, cada una de ellas alcanza uno de los dos posibles valores.
- Interpretación de Einstein. El spin de cada partícula A y B estaba predeterminado, en forma de una variable oculta cuyo valor desconocemos. Así, una está en “arriba” y la otra en “abajo”. Al observar una de ellas, simplemente revelamos su valor preexistente, y conocemos el valor de la otra.
Es
evidente que la interpretación de Einstein es la que coincide con
nuestro sentido común. Pero aún hay más, pues a lo anterior, todavía se
añade el que las partículas pueden separarse tanto como se desee, por
ejemplo, situar cada una en un extremo de la galaxia, y de tal forma que
al observar una de ellas, entonces y de manera instantánea, la otra
alcanza también su valor correspondiente. ¿Cómo logra hacerlo? ¿Viaja
dicha información a mayor velocidad que la luz? Estas paradojas de esas
“acciones a distancia” eran, para Einstein, “cosas de duendes” en un
sentido nada amable, pues algo que no precisa el transcurso del tiempo
es algo que no puede estar en la esfera de la física, y por tanto es
pura metafísica, a la que combatió con todas sus fuerzas.
El experimento EPR, durante un tiempo,
fue un argumento bastante convincente en contra de los postulados de
Niels Bohr como avalista principal de la interpretación de Copenhage, el
cual sólo tenía el argumento de que las matemáticas funcionaban para
oponerse al mismo. Como durante mucho tiempo no hubo manera de llevar a
la práctica el experimento para determinar quién llevaba razón, sólo
cabía echar mano del sentido común, que parecía estar de parte de
Einstein.
Sin embargo era Einstein el equivocado.
Una nueva formulación matemática fue llevada a cabo por John S. Bell, un
físico del CERN en Suiza, que ideó un experimento que podía ser llevado
a cabo, y que permitiría poder comprobar con certeza quién tenía la
razón en esta duradera controversia. La idea genial de Bell era no
considerar un simple par de partículas, sino tratar de manera
estadística un conjunto suficientemente grande, y establecer unas
correlaciones que diferían en sus resultados, con diferentes
predicciones para las hipótesis de Einstein y de Bohr, y que pasaron a
denominarse desigualdades de Bell. Con esta nueva formulación, el
experimento fue llevado a cabo, por primera vez, por Alain Aspect y
otros en París en 1982, y supuso, después de cuarenta y siete años, la
materialización práctica de aquel experimento mental expuesto en 1936,
que terminó por quitar la razón a Einstein. Asimismo, ha sido reiterado
en innumerables ocasiones dando siempre el mismo resultado, mostrando
que dios no sólo juega a los dados, sino que es un jugador honrado que
desconoce los resultados que saldrán.
Esta
nueva concepción del azar, diferente del considerado en la manera
clásica, tiene su aplicación únicamente a escalas subatómicas, donde
operan las leyes de la mecánica cuántica, y en particular a las escalas
donde tiene lugar el Principio de Indeterminación de Heisenberg.
Este tipo de azar no es trasladable, de manera directa, a fenómenos
macroscópicos, lo que daría lugar a paradojas que desafían por completo,
no ya al sentido común sino a la propia realidad. Así, es asumible que
un determinado electrón, funcionando en su naturaleza de onda, pueda
atravesar en el mismo instante dos rendijas diferentes, y sin perder su
cualidad de partícula indivisible, lo que evidentemente contraría toda
lógica de ocurrir con objetos macroscópicos. De la misma forma,
volviendo al caso de los núcleos que se desintegran, es imposible saber
si en un determinado tiempo un núcleo se desintegrará o no, pues eso
ocurrirá, sin ningún tipo de causa, y con una determinada probabilidad
de acuerdo a un azar intrínseco a su naturaleza; no obstante, cuando se
tiene un conjunto muy elevado de ellos, que conforman un cuerpo físico
manipulable, podemos predecir con rigurosa exactitud cual es la cantidad
total de materia que se habrá desintegrado transcurrido un cierto
tiempo, de tal forma, que el azar inicial ha sido transformado en una
ley física de carácter necesario, y se ha recuperado, en cierta forma,
el determinismo clásico del mundo físico.
Por todo ello, podemos concluir que
existen dos tipos de significado que podemos darle al azar, cuando nos
referimos a él desde un punto de vista científico. En primer lugar, un
azar de características epistemológicas, que ocurre a escalas
macroscópicas, procedente de nuestra incapacidad para comprender todas
las variables que aparecen en procesos cuya naturaleza es determinista, y
que por tanto representa una medida del desconocimiento del sistema,
sin que ello impida que los sucesos en el mismo sucedan de una manera
necesaria, atendiendo a las leyes naturales implicadas. Y por otro lado,
existe otro tipo de azar, de características ontológicas, inherente a
la propia naturaleza, y que tiene su efecto sólo a escala microscópica,
donde operan las leyes de la mecánica cuántica. Este azar no es
trasladable de manera directa a fenómenos macroscópicos, si bien es
origen de diversos fenómenos que ocurren en ese ámbito.
Fuente:
Hablando de Ciencia