domingo, 10 de enero de 2021

EL LEGADO DE EINSTEIN (I)

 


1905.- Ése fue el año clave, sólo comparable a otro "annus mirabilis", el de 1665 - 1666, en el que Isaac Newton, refugiado en su casa de campo para escapar de la peste, sentó las bases del cálculo integral, la Ley de Gravitación y la Teoría de los Colores.

En 1905, el joven "esclavo de las patentes", como D. Alberto gustaba de autodenominarse, escribía a su amigo Conrad Habicht de una serie de "balbuceos sin importancia".

A saber:

1.- «Über emem die Erzeugung und Verwandlung des Lichtes betreffenden heugristichen Gesishtspunk» (Sobre un punto de vista heurístico acerca de la creación y la transformación de la luz) que le valió el Nobel de Física en 1921.
En este ensayo, Einstein utilizaba la idea de "cuanto" para explicar el efecto fotoeléctrico, a saber, que cuando la luz ultravioleta incide sobre un metal, éste emite electrones. Einstein sugirió  que el haz luminoso se compone de partículas, más tarde denominadas fotones.
Con ello contradecía la noción, entonces admitida, de que la luz constituía un fenómeno ondulatorio, y negaba que la emisión de la energía en forma de cuantos fuese una característica exclusiva del Cuerpo Negro, sino que era una propiedad intrínseca de la Energía.
Esta genial concepción del electromagnetismo allanó definitivamente el camino para entender y aceptar la dualidad de la luz como onda y partícula.
En aquel momento, Einstein todavía no se había doctorado.

2.- Pero en este año logra doctorarse con un trabajo sobre el movimiento browniano. Einstein postuló que este movimiento se debía al enérgico empuje de las moléculas de agua sobre las partículas en suspensión.
Este estudio fue básico para desarrollar la Mecánica Estadística moderna.

3.- « Zur Elektrodynamik bewegter Körper » (Sobre la electrodinámica de los cuerpos en movimiento).
Recordemos que Einstein no fue el primero en hablar de la Relatividad.
En 1632, Galileo sugirió que las leyes físicas permanecen invariables cualquiera que sea el estado de movimiento del observador, siempre que éste se mueva a velocidad constante (por ejemplo en la cubierta de un navío).
Este principio de relatividad se mantuvo para las leyes de la Mecánica que estableciera Newton a mediados del XVII.
Pero la aparición del Electromagnetismo y el establecimiento de sus leyes fundamentales por James Clerk Maxwell, en las postrimerías del XIX, lo transtornó todo, porque la velocidad de la luz siempre se mantenía constante. Era una constante, un valor absoluto, como la constante gravitacional, o el valor de Pi.
Este carácter de constante física echaba por tierra nuestra concepción del Tiempo y el Espacio como entidades absolutas e invariables.
Evidentemente, si pensamos en la velocidad como el cociente entre la distancia y el tiempo, para que la velocidad permanezca constante, la distancia y el tiempo deberán modificarse a la par. Igualmente aumentará la masa del objeto que aumente su velocidad, puesto que la velocidad es también el momento de inercia dividido por la masa.

4.- Y de todo lo anterior dedujo la Teoría Especial de la Relatividad

5.- Completó su inicial trabajo sobre la Relatividad Especial. Afirmaba que "la masa de un cuerpo constituye una medida de la energía que contiene". Concepto que formuló mediante la famosa ecuación: E= mc².
Aunque en realidad la fórmula original era: m= E/c².

Después de 1905, lo mejor estaba por llegar: "La Teoría de la Relatividad General" publicada en 1916, marcó un hito en la Historia de la Física.
Por cierto, Henri Poincaré estuvo a punto de adelantarse a Einstein en la formulación de la Relatividad Especial, pero se quedó a un paso (el más decisivo): se negó a rechazar el Éter.
La Teoría Especial resolvía las disparidades entre la Mecánica Newtoniana y el Electromagnetismo de Maxwell, pero sólo para el movimiento rectilíneo uniforme.
La Teoría de la  Relatividad General servía para cualquier clase de movimiento, tanto uniforme como acelerado, tanto rectilíneo como curvo. Es más, hacía equivalente la aceleración a la Gravedad.
Para Newton, la Gravedad correspondía a una fuerza que actúa de forma instantánea independientemente de la distancia. Según Einstein, en cambio, constituía una propiedad intrínseca del Espacio y del Tiempo.
Sostenía que, cualquier astro o cuerpo dotado de masa, curva el Espacio y el Tiempo a su alrededor, de forma que los planetas se desplazan sobre trayectorias curvas en el continuo Espacio-Tiempo.
La idea de que la masa comba el Espacio-Tiempo y que el Espacio-Tiempo combado impone cómo debe moverse la masa constituye una absoluta genialidad.
Entre 1916 y 1925, Einstein realizó nuevas contribuciones a la Teoría cuántica incluido el trabajo sobre la emisión estimulada de radiación que, andando el tiempo daría lugar al LÁSER.
Pero quedó decepcionado de la Mecánica Cuántica que describía los fenómenos del mundo subatómico. No aceptaba la interpretación probabilística-estadística, en vez de la clásica relación causa-efecto.
Durante los últimos años de su vida se volcó en desarrollar una teoría de campos que permitiera unificar Mecánica Cuántica y Teoría Relativista. Pero todo acabó en un callejón sin salida.

Con su Principio de Equivalencia de 1907, Einstein había puesto en duda la idea, nunca objetada hasta entonces, de que existían dos tipos de masas: la gravitatoria y la inercial. Einstein afirmó que sólo existía un tipo de masa: no hay posibilidad alguna de distinguir entre lo que le sucede a una masa presionada contra el fondo de un cohete espacial que se acelera y a una masa a la que un campo gravitatorio mantiene contra el suelo de una habitación inmóvil.

Análogamente, Einstein creía firmemente en la existencia de un único tipo de magnetismo, originado, según él, por la alineación de pequeños imanes, en realidad las corrientes cerradas creadas por los electrones al girar alrededor de los núcleos atómicos.

« Einstein habría sido uno de los más grandes físicos teóricos de todos los tiempos incluso si no hubiera escrito una sola línea sobre la Teoría de la Relatividad » (Max Born)

El papel que en la nueva Teoría Cuántica se asignaba a la PROBABILIDAD m
nunca pudo ser asimilado por Einstein. Y así lo expresa por carta  (de modo tremendista) al matrimonio Born a mediados de 1924, ya en la antesala de la aparición de las respectivas formulaciones de Werner Heisenberg (1925) y de Erwin Schrödinger (1926):

« Me resultaba intolerable la idea de que un electrón expuesto a la radiación pueda escoger a su antojo el momento y la dirección del salto. Si así resultara, finalmente preferiría haber sido un zapatero remendón, o incluso empleado de casino antes que físico »

O esta otra dirigida a su amigo Michele Besso, el 12 de diciembre de 1951: 

« Un total de 50 años de especulación consciente no me ha acercado a la solución de la cuestión: ¿Qué son los quanta de luz? Es cierto que hoy día cualquier pillo cree saber la respuesta, pero se equivoca »

sábado, 9 de enero de 2021

EL MALDITO GATO

 


« Siento haber tenido algo que ver con la Teoría Cuántica » (Erwin Schrödinger)

Con su fantasmagórico felino quiso el genial físico austriaco iluminar el siguiente problema:
Según la Mecánica Cuántica, las partículas saltan instantáneamente de un punto a otro, ocupan varios lugares a la vez y parece que establecieran comunicación a velocidad por encima de "C". Entonces ¿por qué los gatos -o los balones de fútbol o las personas o los planetas- no hacen lo mismo? ¡Al fin y al cabo están hechos de partículas!
En cambio los objetos macroscópicos obedecen las predecibles y respetabilísimas leyes clásicas que cuantificó Isaac Newton (afortunadamente)
¿Cuándo da paso el mundo cuántico a la Física de la vida diaria? ¿Por qué el átomo radiactivo está en una superposición de estados, pero el Gato de Schröndinger no?

NOTA.- Yo creo que el Gato también está en una superposición de estados. Y colapsa cuando nosotros lo observamos. En realidad TODO lo que nos rodea está en superposición de estados, presenta una absoluta indefinición cuántica, que sólo se manifiesta cuando la medimos, cuando la observa cada uno de nosotros. Y me remito a Berkeley: « Esse, est percipi ». Olvidémonos del concepto absoluto de "existencia", nada existe hasta que no es percibido por cada uno de nosotros. Y esa realidad es independiente para cada observador. Y cuando uno muere, toda realidad desaparece para siempre.

Pero veamos cuál sería el enfoque clásico que suele darse a la paradoja del gatito  que vive sin vivir en él. En el famoso experimento, el Gato es, en realidad, un aparato de medir, un detector, igual que un voltímetro o un contador Geiger ¿No deberían, entonces, entrar los aparatos de medida en el mismo estado indefinido que las partículas cuánticas, que han de detectar?
Para Niels Bohr (a quien precisamente dirigía Herr Erwin sus lamentaciones) la respuesta era que las mediciones tenían que hacerse con un aparato "clásico".
¿¡CLÁSICO!? ¿Qué diablos es eso? Bohr se defendió admitiendo que la frontera entre lo clásico y lo cuántico podría desplazarse "en función de cómo se dispusiera el experimento", pero dejó claro que los detectores "clásicos" (o sea, macroscópicos) nunca adquieren una superposición de estado.
¿¡POR QUÉ NO!?
Desde entonces se han realizado experimentos cuánticos con objetos cada vez mayores.
En 1995, David Pritchard, del Instituto de Tecnología de Massachusetts (MIT), logró efectuar el experimento de las dos rendijas con átomos de sodio.
Otros experimentos han permitido observar un átomo como ente clásico o cuántico enviándole pulsos de láser.
Existe una teoría llamada "decoherencia" que se basa en la idea de que el entorno destruye la coherencia cuántica. Sea lo que sea eso.
El entorno "desestabilizador" es, en esencia, todo lo que puede afectar el estado del sistema cuántico (y por tanto pueda inadvertidamente "medirlo") como fotones, moléculas vibrando, partículas flotanto en el aire... El entorno no es mero "ruido", sino que actúa como un aparato que "vigila" sin cesar todo el sistema.
Me parece una explicación patética, porque todo eso también afecta a las partículas cuánticas cuando se miden, y muestran sus propiedades sin mayor problema.
El problema último del colapso de onda lo da que sea una CONCIENCIA la que perciba el fenómeno, y no que sea un aparato físico.
Átenme esa mosca por el rabo.
Porque volvemos a empezar! Entonces ¿Qué es la conciencia? ¿Cómo logra la CONCIENCIA -sea eso lo que sea- colapsar la superposición de estados?

Yo creo que habría que replantearse el concepto de "existencia" y de "realidad". Por mi parte lo tengo claro, como dijo Berkeley: "Esse est percipi".

viernes, 8 de enero de 2021

BOHM Y SU REVISIÓN DEL EFECTO EPR


 Frente a la ortodoxa concepción de la Mecánica Cuántica propugnada por la Escuela de Copenhague, se alzan voces disidentes, como la de David Bohm, quien postula que el azar no desempeña ningún papel en las leyes que la rigen: todo objeto material ocupa siempre una región concreta en el espacio, y sus leyes básicas forman un conjunto único, aplicable por igual a todos los objetos físicos.

Para Bohm, las partículas siguen un único camino, pero la Función de Onda toma varios caminos a la vez, y es la Función de Onda la que le informa a la partícula de las peculiaridades del trayecto.

Según la interpretación ortodoxa de la M.C., el resultado de un experimento no existe hasta que se hace dicho experimento. Por tanto, ya no es posible pensar en un Universo en el que todo tiene una existencia "real" (objetiva) completamente independiente de cómo se observe. La "realidad" está formada por el conjunto de muchos experimentos individuales, y si cada uno de estos actos no es sino "un acto elemental de creación" (como dijera John Wheeler), el hecho de elegir hacer un experimento en lugar de otro -y obligar así al Universo a definirse de una manera y no de otra- supone una participación en la creación de la realidad.
Según la Física Clásica, el Universo era algo preexistente que se podía poner al descubierto al hacer experimentos; el Universo, según la M.C. es algo que está en un continuo proceso de recreación.
Por eso, cuando se intenta explicar el Principio de Indeterminación de Heisenberg diciendo que cualquier medición de la posición de una partícula "perturba" de un modo incontrolable su velocidad (y viceversa), estamos haciendo un planteamiento erróneo, porque esta forma de exponerlo da a entender que, antes de la medición, ambos valores observables (posición y velocidad) tenían valores definidos, y no es así.

En realidad nadie sabe por qué es así la realidad que percibimos. Ni siquiera sabemos qué es la "realidad". Probablemente algo absolutamente irreal. Lo que es absolutamente real es la imposibilidad de conocer a la vez los valores de dos variables relacionadas (complementarias), como posición y momento, energía y tiempo, naturaleza corpuscular y ondulatoria u orientación de los espines.

jueves, 7 de enero de 2021

EFECTO TÚNEL

El diagrama de arriba compara el Efecto Túnel con el movimiento clásico de un objeto.

Por analogía con la gravedad, el objeto tiende a desplazarse en dirección al centro de la tierra. Clásicamente, para alcanzar el estado mínimo, debe proveerse con energía adicional. Bajo la ley de la mecánica cuántica, sin embargo, el objeto puede ocasionalmente "atravesar" el estado energético representado por las dos pendientes y la cresta hasta lograr un estado mínimo de potencial energético. Considerando un móvil que circula a lo largo de la trayectoria que describe una vaguada (Para los propósitos de la dilucidación, discriminar fuerzas adicionales a la gravedad). Se dice que el mismo, se encuentra a 500 metros sobre el nivel del mar, la cima de la montaña, simbolizada por una cresta energética, alcanza los 1000 metros, y el plano más allá de la misma, se encuentra a la altura del mar. Toda instancia o entidad material que conocemos tiende a su nivel mínimo energético (esto es, mayor entropía, por lo que el objeto tratará de descender tanto como sea posible). En la mecánica clásica, mientras una posición del plano sea energéticamente menor que aquella que ocupa el móvil, sin compromiso ulterior con las fuerzas añadidas al sistema, este no tendrá la capacidad de por sí para alcanzar esa posición. Sin embargo si existiera un túnel comunicante entre ambos flancos de la montaña, el móvil se desplazaría a través de ella sin la necesidad de una energía suplementaria a la misma gravedad. En aplicación a una partícula que se rige bajo los preceptos de la mecánica clásica, esto es considerado "tunelado cuántico".

Nótese que se trata de un efecto válido en escalas fenomenológicas extremadamente mínimas, generalmente, sólo puede ser observado cuando existe un intercambio energético entre partículas de tamaño atómico o más reducidas, en las cuales el potencial del intercambio o trasvase con las fuerzas que ello involucra, lo transforma en un fenómeno notablemente más complejo, y en el que no existen vasos comunicantes entre túneles de recorrido creciente. Este fenómeno, como se ha expuesto antes, solo permite graduar la energía del espacio que recorre la partícula de forma decreciente y de acuerdo con la segunda ley de la termodinámica.


Si lanzamos partículas contra una barrera, en la Física Clásica sabemos que dichas partículas siempre rebotarán. La única forma de que traspasen la barrera es rompiéndola.
Sin Embargo, en Mecánica cuántica, por culpa del Principio de Indeterminación de Heisenberg la partícula no tiene una localización definida y puede estar en cualquier lugar que marque su Función de Onda.
Incluso existe una probabilidad no nula de que dicha partícula se encuentre al otro lado de la barrera. Es el Efecto Túnel.
Aunque, obviamente, no se produce ningún agujero en la barrera, donde NUNCA puede estar es DENTRO de la barrera. Si así fuera su energía cinética sería negativa.

Por lo tanto, preguntarse "¿cuánto tiempo emplea la partícula en atravesar la barrera?" No tiene sentido. Porque realmente no la atraviesa, simplemente aparece ahí al medirla y ya está-

Sin embargo, Raymond Y. Chiao, Paul G. Kwiat y Aeprhaom M. Steinberg llevaron a cabo un experimento con fotones para  -nunca mejor dicho- arrojar luz al tema.
Pero antes hablemos de fotones.
Una bombilla corriente emite más de cien mil millones en una milmillonésima de segundo, o sea, 10²° fotones en un segundo.
Los físicos citados crearon un sofisticado aparato con espejos de alta sensibilidad, luego lanzaban parejas de fotones en singlete (entrelazados) y, tras varios días de arduo trabajo lograron medir las velocidades de parejas donde uno había atravesado el espejo por efecto túnel y el otro había viajado libremente por el aire, con una velocidad media en el túnel que era aproximadamente ¡1,7 veces la velocidad de la luz!

Según la Teoría de la Relatividad, una señal que viajase más rápido que la luz supondría que los efectos precederían a las causas; una bombilla se iluminaría antes de darle al interruptor
¿Entonces?
 Hasta ahora hemos estado hablando de la velocidad de travesía por Efecto Túnel de los fotones en un contexto clásico, como si fuesen bolitas con una posición bien definida y, por tanto, su medición directamente observable.
Sin embargo, el Principio de Indeterminación de Heisenberg enseña que esto no es así.
El instante de emisión de un fotón no está definido con precisión, como tampoco lo está la localización o la velocidad exacta de la partícula, ni la energía exacta que posee.
Es más correcto describir la posición de un fotón mediante una distribución de probabilidad "acampanada" (con gráfica en forma de campana de Gauss) cuya anchura corresponde a la indeterminación de su localización.
El fotón del Efecto Túnel llega antes porque recorre menos camino, puesto que se evita el grosor de la barrera. Al final, ambos recorren la misma distancia real, por lo que van a la misma velocidad.
El problema es complejo en tanto en cuanto intentamos "visualizar" mentalmente el proceso del viaje del fotón, incluso pensar cómo puede existir "dentro de la barrera" al atravesarla.
Esta forma de razonar es errónea o, más bien, absurda.
En realidad hay que tener en cuanta que ese fotón, en términos cuánticos, ni "es" partícula, ni es onda ni es nada que podamos imaginar, es tan sólo una función de onda, un modelo matemático.
Su "existencia" depende de que un observador realice una medición y, según qué tipo de medición se lleve a cabo, percibiremos una onda o una partícula.

Considerando el fotón como onda hemos de tener en cuenta su energía (o sea, su frecuencia), que nosotros percibimos como color si está en el rango de 650 nm - 430 nm, o como calor si se encuentra en el rango de 9000 nm a 14000 nm.

Ese diferencial de frecuencia lo representamos como "Δν"; y por otra parte tenemos la duración del pulso, que lo expresaremos como "Δt".

Según esto podemos escribir:

ΔνΔt ≥ 1/4 

que simplemente significa que se necesita una frecuencia más ancha para formar un paquete de ondas más corto. Y esto es válido para cualquier clase de ondas.
Si ahora hacemos una interpretación cuántica aplicando la relación de Planck-Einstein (E=hν), la ecuación queda de la siguiente manera:

ΔEΔt ≥ h/4 

Que obviamente se obtiene multiplicando ambos términos por la constante de Planck.
Y esta fórmula no es otra que la del Principio de Indeterminación de Heisenberg (existe una versión análoga más conocida para la posición y el momento) y en virtud de dicho principio es absolutamente imposible conocer con precisión el tiempo de emisión de un fotón y su energía.
Dicho principio, lejos de ser un engorro, es una auténtica bendición, pues impide que los electrones caigan en el núcleo atómico, limita la resolución de los microscopios y -parece ser- es el responsable de la anisotropía que permitió la distribución no uniforme de la materia y la consiguiente formación de estrellas y galaxias.
Volviendo a nuestro experimento, recordemos que emitíamos los fotones en singlete (producto del desdoblamiento de un fotón al atravesar un cristal cuyas propiedades ópticas no son lineales) de los cuales uno atravesaba una barrera por efecto túnel y el otro no, constatando que el 1º viajaba más rápido.
Ahora bien, debido a que las partículas en singlete están correlacionadas, es imperativo que ambos fotones hayan recorrido a la vez ambos caminos. Los dos han atravesado la barrera con el efecto túnel, y los dos la han evitado.
Podría pensarse que, en cualquier caso, el experimento jamás pudo llevarse a cabo pues, como ya hemos visto, el Principio de Indeterminación prohíbe conocer con precisión tiempo y energía a la vez.

Y así ocurriría de haber operado con una sola partícula, sin embargo para dos, la M.C. nos permite definir a la vez la diferencia entre sus tiempos de emisión y la suma de sus energías, aun cuando no se especifiquen los tiempos y las energías de ninguna de las partículas individualmente.

Este hecho condujo a Einstein, Podolsky y Rosen a afirmar que la Mecánica Cuántica era una teoría incompleta, y que existían variables ocultas que explicaban los extraños fenómenos cuánticos de "acción a distancia".

En 1964, John Bell demostró con su brillante Teorema que "ninguna teoría física de variables ocultas locales puede reproducir todas las predicciones de la Mecánica Cuántica".

De todos modos ese capítulo todavía no se ha cerrado. Muchos físicos siguen empecinados en buscarle cinco pies al gato. Más adelante incidiremos sobre este asunto.

miércoles, 6 de enero de 2021

BREVE APUNTE SOBRE EL ESPÍN

 
Uno de los principios básicos de la Física Cuántica es el de Exclusión de Pauli, que prescribe que dos fermiones (partículas con espín semi-impar) idénticos no pueden ocupar el mismo estado cuántico.
Ésa es la razón de que la materia no se desplome.
En Mecánica Cuántica no relativista se postula una relación entre el espín y la estadística de partículas idéntica, pero en realidad no está claro el por qué de tal Principio de Exclusión.
La Teoría Cuántica de Campos, que tiene en cuenta los principios relativistas, nos muestran que un campo que no cambie de signo bajo una rotación completa de 2π (la definición de espín entero) tiene que obedecer la Estadística de Bose-Einstein si queremos que la teoría sea causal y funcione correctamente.
De modo parecido, todo campo que no cambie de signo al sufrir una rotación completa (espín semi-impar) tiene que obedecer la Estadística de Fermi-Dirac.

martes, 5 de enero de 2021

FILOSOFÍA CUÁNTICA (John Horgan)


¿Influye de alguna manera sobre el mundo físico la percepción que tenemos de él? ¿Hay aleatoriedad en el Universo, o todos los universos están predeterminados?

« La razón principal por la que hago experimentos es para mostrar a la gente cuán extraña es la Físca Cuántica » Dice Anton Zeilinger, de la Universidad de Insbruck « La mayoría de los físicos son muy ingenuos y aún creen en ondas y partículas reales »

Fotones, neutrones, átomos e incluso moléculas actúan a veces como ondas y a veces como partículas, sin que de hecho tengan una forma definida hasta que se midan.

Las medidas una vez realizadas pueden también eliminarse, eliminando así el resultado de un experimento que ya sucedió.

Todo comenzó con la dualidad onda-partícula de la luz.

Si realizamos el experimento clásico de las dos rendijas, de Thomas Young, usando modernos fotodetectores (basados en el efecto fotoeléctrico explicado por Einstein) vemos que los fotones (o cuantos de luz) individuales emitidos de uno en uno se acumulan en la pantalla, detrás de las rendijas en puntos y tiempos determinados, como si fuesen partículas. Pero a medida que continúan incidiendo sobre la pantalla, va apareciendo poco a poco la figura de interferencia, señal inequívoca de que cada fotón individual pasó a través de ambas rendijas, como una onda.

Es más, si el investigador no abre más que una rendija cada vez o si coloca los detectores lo suficientemente cerca de ellos, con intención de averiguar qué camino ha seguido cada fotón concreto, entonces los fotones se comportan exclusivamente como partículas, pasando a través sólo de una rendija, y la figura de interferencia desaparece.

Se diría que actúan como ondas siempre que se les permita hacerlo, distribuyéndose por el espacio sin ninguna posición definida.

Pero tan pronto como alguien trate de saber dónde están, a base de determinar por qué rendija pasaron, o de hacerlos incidir sobre una pantalla, bruscamente se convierten en partículas.

Pero la paradoja de la dualidad onda-partícula puede ser infinitamente más desconcertante, si cabe, como puso de manifiesto John A. Wheeler por medio de un experimento mental que ideó en 1980.

¿Qué pasaría, se preguntó Wheeler, si el investigador pudiera esperar a que la luz hubiese pasado ya por las rendijas para decidir cómo observarla?

En 1985 dos grupos independientes de las universidades de Maryland y Munich llevaron a cabo dicho experimento, el cuál demostró que el principio de indeterminación se mantiene y que aún en el caso de tener la certeza de que la luz ha atravesado las rendijas en forma de fotones, al intentar averiguar cuál ha sido el camino elegido por cada fotón se forma un patrón de interferencia ondulatoria, ergo ¡El fotón pasa por ambas rendijas a la vez!

La falacia que origina tales especulaciones es, según Wheeler, suponer que un fotón tenga una forma física determinada antes de que el científico lo mida. La verdad, dice Wheeler, es que "los fenómenos cuánticos no son ni ondas ni partículas, sino que están intrínsecamente indefinidos hasta el momento en que se miden".

Esta frase de Wheeler es la clave.

Por tanto tenía razón Berkeley cuando a firmó a principios del s. XVIII: "Esse est percipi" (Existir, es ser percibido). Y antes que él ya no dijo el Zen: "Shiki soku ze ku" (El objeto es su observación).

Resumiendo: Un ente cuántico no observado existe en una "superposición coherente" de TODOS los posibles "estados" permitidos por su "Función de Onda". Pero tan pronto como un observador hace una medida capaz de distinguir entre esos estados, la Función de Onda "se reduce" o "se colapsa", y el ente se ve forzado a adoptar un estado determinado.

Sir Arthur Eddington, en los años 30, opinaba que la Teoría de la Mecánica Cuántica tenía tanto sentido como los diálogos de los personajes de Lewis Carroll (y razón no le faltaba).

Pero la indeterminación en la medida, no se debe a que en la observación inevitablemente hemos de alterar lo observado, sino que MATEMÁTICAMENTE es imposible conocer la exactitud de dos parámetros (números) cuánticos a la vez.

Una vez que se ha demostrado experimentalmente que las partículas no cumplen el postulado EPR, se pretende experimentar en este sentido con objetos mayores. A corto plazo no debería ser imposible observar comportamientos ondulatorios en seres vivos, como una ameba por ejemplo, aunque habría algunas dificultades. La Función de Onda del protozoo sería enorme, y para poder detectarla habría que moverse muy despacio, tanto que le costaría tres años atravesar un interferómetro. Además habría que eliminar cualquier influencia gravitatoria, es decir, el experimento habría de realizarse en el espacio exterior.

Si en vez de una ameba usamos un ser humano, se tardaría más que la edad del Universo. Yo, al menos, no tengo tanta paciencia.

Pero no todos están en contra de los postulados EPR. Así, por ejemplo, David Bohm, en los años 50 del s. XX, afirmó que una entidad cuántica -v.g. un electrón- sí existe realmente en un lugar e instante determinado, pero su comportamiento está regido por un campo inusual, una "onda piloto", cuyas propiedades vienen definidas por la Función de Onda de Schrödinger. La hipótesis acepta la no localidad, pero niega que la posición de la partícula no esté definida. Sus predicciones son idénticas a las de la Mecánica Cuántica estándar. Demasiado resumido para poder opinar.

Otra hipótesis contraria a la Escuela de Copenhague es la del Grupo de Ghirardi, , un embeleco que no merece la pena ser desarrollado.

De todas estas heterodoxias, la más famosa y excesiva es la de Hugh Everett III (ya el nombre se las trae) con su hipótesis de los Mundos Múltiples. Considerada durante mucho tiempo como pura ciencia ficción, Murray Gell-Mann y James B. Hartle la han retomado, con algunas modificaciones.

Cada observador o "sistema físico sintiente" (¿consciente?) está asociado a un conjunto infinito de mentes que experimentan los distintos resultados posibles de cualquier medida cuántica. El conjunto de elecciones incluidas en la Ecuación de Schrödinger corresponde a la miríada de experiencias tenidas por estas mentes y no a una infinitud de universos. Por lo que ha pasado a denominarse Teoría de las Mentes Múltiples.

En cualquier caso, está claro que debemos renovar nuestras ideas de racionalidad y lógica.

La lógica Booleana, que se basa en proposiciones del tipo "o esto o lo otro", no sirve en un mundo en que un átomo pasa a través de dos rendijas a la vez.

La lógica mecánico-cuántica no es booleana.

Habrá que echar mano del Zen

lunes, 4 de enero de 2021

REALIDAD DEL MUNDO CUÁNTICO (Abner Shimony)


Lo que el estado cuántico de un sistema proporciona de manera inequívoca es la probabilidad asociada con cada uno de los resultados posibles de cualquier experimento que se desarrolle en un sistema.

Por ejemplo, se fija el estado cuántico de un fotón cuando se conocen tres cantidades: su dirección, su frecuencia y su polarización lineal (la dirección del campo eléctrico asociada a un fotón).

Supongamos que proyectamos fotones sobre una lámina polarizadora, y que vamos girando dicha lámina creando distintos ángulos de incidencia; la probabilidad que tiene un fotón de atravesar dicha lámina es igual al cuadrado del coseno de dicho ángulo.

El Principio de Superposición constituye otra idea fundamental de la M.C.

Afirma que a partir de dos estados cuánticos cualesquiera de un sistema pueden formarse otros estados superponiéndolos.

Por ejemplo, consideremos dos estados cuánticos de un fotón; la dirección que tiene su polarización en el primer estado es perpendicular a la que tiene en el segundo.

Se pueden construir entonces innumerables estados en los que la polarización del fotón forme cualquier ángulo comprendido entre las dos direcciones perpendiculares.

Supongamos ahora que dos fotones correlacionados (o sea, en estado de singlete) se alejan en sentidos opuestos. Un posible estado cuántico del par sería aquel en que ambos se hallasen linealmente polarizados según un eje vertical, mientras que en otro lo estarían según un eje horizontal. Mas, como están superpuestos, sabemos que se hallan en un estado de "superposición cuántica", esto es, poseen a la vez las dos orientaciones de polarización (vertical y horizontal). A este curioso estado vamos a denominarlo Ψo.

Imaginemos que insertamos en las trayectorias de los fotones láminas polarizantes de eje vertical. Por contener Ψo cantidades iguales de los estados polarizados vertical y horizontalmente, habrá una probabilidad de 0.5 de que ambos fotones se transmitan a través de sus láminas respectivas, y otra probabilidad de o.5 de que ambos queden bloqueados. Lo que no puede suceder jamás es que un fotón se transmita y el otro quede bloqueado. Este hecho se da siempre, por más alejadas que estén las placas.

Otrosí, un fotón se comportará como partícula si medimos sus propiedades corpusculares o como onda si estudiamos las ondulatorias. ¿Cómo sabe el fotón cuándo ha de "convertirse" en una cosa u otra? ¿Cómo y cuándo se define una propiedad indefinida?

John Wheeler es taxativo al respecto:

"Ningún fenómeno cuántico elemental es un fenómeno hasta que llega a ser un fenómeno registrado"

Entonces, algunos, contra argumentan con la paradoja del Gato de Schrödinger. Yo pienso que no hay tal paradoja, y que Wheeler tiene razón. Máxime con el famoso experimento del "anillo superconductor". Imaginemos un anillo superconductor que no se cierra del todo sobre sí mismo, pues una finísima rodaja de material aislante separa sus dos extremos. El efecto túnel que se produce a través del aislante permite que circule una corriente eléctrica por el anillo, corriente que genera, obviamente, un campo magnético. Si el anillo fuera continuo, el flujo magnético que lo atraviesa (área del anillo multiplicada por la componente del campo magnético perpendicular al plano del aro) tendría un valor fijo, pero el aislante permite que tenga distintos valores. Lo sorprendente es que, en efecto, el flujo no presenta ningún valor definido. Porque el efecto túnel se basa en la indefinición del flujo (Principio de Indeterminación de Heisenberg).

Y Wheeler añadía que , en un fenómeno cuántico, no se produce la transición de la indefinición a la definición mientras no acontezca un "acto irreversible de amplificación".

El problema es que seguimos sin ponernos de acuerdo sobre la definición de "acto irreversible".

domingo, 3 de enero de 2021

TEORÍA CUÁNTICA Y REALIDAD (Bernard D'Espagnat)


 "La doctrina de que el Mundo está formado por objetos cuya existencia es independiente de la conciencia humana se halla en conflicto con la M.C. y con hechos que se han establecido experimentalmente"

De una teoría física esperamos, no sólo que nos aporte confirmaciones experimentales, sino que nos dé una explicación del origen y evolución de los sucesos observados.
Pero en Física Cuántica esto último se hace complicado.
Por ejemplo, un electrón viene definido por una expresión matemática denominada "Función de Onda". Dicha Función de Onda describe al electrón como una onda, una especie de "ectoplasma", que se hallará esparcida por una amplia región del Espacio.
Esta representación no está en contradicción con la experiencia; por el contrario, la Función de Onda nos da, de forma exacta, la probabilidad de hallar el electrón en cierto lugar. Sin embargo, cuando el electrón se detecta realmente, nunca está esparcido, sino que tiene una una posición definida.
Entonces ¿Cómo debemos imaginarnos un electrón? Quizá la respuesta sea que la  pregunta es totalmente absurda, tan absurda como preguntarse qué forma tiene el color rojo.
Por ello, muchos físicos creen que se debe considerar la M.C. como un mero conjunto de reglas que permite predecir los resultados de los experimentos Y nada más.
Pero resulta que ni siquiera con estas limitaciones obtenemos un concepto satisfactorio.
Veamos por qué.
Desde siempre, la Física se había basado en tres hipótesis o premisas sagradas:

1) Realismo.- Existe una realidad física cuya existencia  es independiente del observador.
2) Inferencia inductiva como forma válida de razonamiento.- Pueden deducirse conclusiones legítimas a partir de observaciones coherentes.
3) Separabilidad o localidad.- Ninguna clase de influencia puede propagarse más rápido que la velocidad de la luz.
Son los tres pilares sobre los que se sustentan las llamadas "Teorías realistas locales de la Naturaleza"

Sin embargo la Mecánica Cuántica parece contradecir estos tres principios.

Supongamos que medimos dos partículas en singlete, veremos que su espín es siempre opuesto.
El vector que representa el espín de una partícula se define mediante las componentes a lo largo de tres ejes (A, B, C) en el espacio, que no forman necesariamente ángulos rectos entre sí.
El problema es que un aparato puede medir únicamente una componente del espín, y al hacerlo altera los valores de las otras componentes.
Lo ideal sería contar con un aparato que midiese las tres componentes a la vez.
Pero eso es imposible.
O sea, Berkeley y el Zen tenían razón. Ciñéndonos al experimento de la medición del espín, esto significaría que no tendría sentido alguno atribuir nada parecido a una componente de espín bien definida a una partícula antes de que se hubiese medido tal componente, y que la única magnitud con una realidad verificable es la misma observación, la impresión sensorial.

sábado, 2 de enero de 2021

LA CONCEPCIÓN FÍSICA DE LA NATURALEZA (Paul Dirac - 1963)


Puede decirse que Newton nos permitió pasar de una concepción que tenía simetría bidimensional a otra que la tenía tridimensional.
Einstein dio otro paso en la misma dirección y nos demostró que puede pasarse a una simetría tetradimensional. Aunque las cuatro dimensiones sean completamente simétricas.
Obviamente es el tiempo el "cuarto" en discordia, y así lo vemos en ecuación que expresa la invariante distancia en el espacio tetradimensional:

ds² = c²dt² - dx² - dy² - dz²

Donde:

s = distancia
c = Velocidad de la luz
t = tiempo
x,y,z = dimensiones espaciales
d = diferenciales

La falta de total simetría se pone de manifiesto en que la contribución de la dirección temporal (c²dt²) no tiene el mismo signo que las tres direcciones espaciales

[NOTA.- ¿Tal vez porque en la vida diaria el tiempo sólo se mueve en una dirección?]

Lo que nuestra consciencia capta, en realidad, es una sección tridimensional de una imagen de cuatro dimensiones. Cada corte será siempre distinto del posterior puesto que se "desliza" ininterrumpidamente sobre la 4ª dimensión: EL TIEMPO.
La Relatividad Especial exige que demos a las leyes físicas una forma que manifieste la simetría tetradimensional.
También exige que el Espacio físico sea curvo, con lo cual las secciones tridimensionales también serán curvadas.
Resumiendo, no queda otra que realizar cortes tridimensionales -aparentemente planos- del Espacio curvo tetradimensional y analizar las observaciones.
Hace años que se intenta aplicar las ideas cuánticas a la gravitación.
El Campo Gravitatorio es un campo tensorial que tiene 10 componentes. Pero sólo son necesarios seis de ellos para describir todos los fenómenos físicos importantes.
El problema es que entonces destruimos la simetría tetradimensional, haciendo incompatible la Física Cuántica con la Relatividad.
Por tanto ¿es necesario conservar la simetría tetradimensional?

La primera aparición del cuanto (quantum) se produce cuando Planck descubre que la energía de las ondas electromagnéticas sólo se manifiesta como múltiplos de una determinada unidad.
Einstein descubre luego que la misma unidad de energía aparecía en el efecto fotoeléctrico, y que no era una simple "manifestación" de la energía, sino parte de su esencia: La energía sólo podía existir en forma de "paquetes", o sea, de múltiplos de una unidad fundamental "h" (la Constante de Planck h6,626 × 10-34 julios x seg.)
Estos primeros trabajos de teoría cuántica obligaban obligaban simplemente a aceptar tal unidad de energía, pero no podían incorporarla a la concepción física.

El primer paso en esa dirección fue la idea atómica de Bohr donde los electrones seguían órbitas precisas, aunque variables, en función de la energía que poseían. No se sabía cómo se producían esos saltos orbitales; había que aceptarlo sin más como una especie de discontinuidad.
El modelo sólo servía para el átomo de Hidrógeno, luego era incompleto.

El gran avance de la Teoría Cuántica se produjo en 1925, con el descubrimiento de la Mecánica cuántica (M.C.), realizado por Werner Heisenberg, primero, y por Erwin Schrödinger, poco después, de forma independiente y desde diferentes puntos de vista.

Heisenberg desarrolla la Mecánica Matricial, y Schrödinger la Ecuación de Onda.

Este último se basó en De Broglie y sus trabajos sobre ondas asociadas a partículas.
El desarrollo de Schrödinger fue puramente matemático, sin dejarse influir por avances experimentales.
La Ecuación de Onda describe de modo ajustado y elegante los procesos atómicos.
El principio fundamental de la Física Cuántica es que debemos abandonar la concepción determinista que siempre se dio por supuesta. A partir de ahí deriva todo lo demás.

Pero las verdaderas dificultades surgen cuando tratamos de aplicar nuestra Teoría cuántica a los campos y queremos que concuerden con la Relatividad Especial.
El problema de la resolución de las ecuaciones radica en que las integrales resultantes divergen (en lugar de converger hacia algo definido) hacia el infinito.
Pero haciendo una pequeña trampa (metiendo diferenciales en ciertos términos) logramos obtener unos resultados que prácticamente coinciden con los datos experimentales. Es la Teoría de la Renormalización. Una chapuza que funciona.

Dirac abogaba por recuperar el concepto de Éter, pero no en su obsoleta versión decimonónica.
La objeción básica a la antigua idea del Éter es que, si suponemos que es un fluido que llena la totalidad del espacio, tendrá una velocidad definida en cualquiera de sus puntos, lo que impide la simetría tetradimensional requerida por el Principio Especial de la Relatividad de Einstein. Fue este principio el que liquidó tal concepción del Éter.
Pero la teoría cuántica actual ya no  nos obliga a asignar una velocidad definida a ningún objeto físico, puesto que la velocidad está sujeta a las relaciones de indeterminación, que son mayores cuanto menor es la masa.
El nuevo Éter tendría una masa mínima, por lo que las relaciones de indeterminación serían enormes.
Esto tendría como consecuencia un cambio importante de nuestra concepción del Vacío.
Si hubiese un Éter sujeto a las relaciones de indeterminación, la simetría exigida por la Relatividad Especial no se cumplirían al 100%; el Vacío resultaría ser entonces un estado al que sería posible acercarse cuanto quisiéramos, pero sin alcanzarlo nunca.
Hasta ahora no se ha descubierto ninguna teoría satisfactoria que permita manejar matemáticamente las relaciones de indeterminación del Éter.
Y del mismo modo que toda energía ha de ir en múltiplos de la constante de Planck, "h, las cargas eléctricas has de ser múltiplos de "e" lo que aparentemente contradice el concepto de "campo", y la consecuencia de ello es que hay que llevar a cabo renormalizaciones en las ecuaciones de electrodinámica cuántica, añadiendo un "Δ m" a la masa del electrón.

≈ 6,626 x 10^ (-34) J.s
e ≈ 1,6 x 10^(-19) J

También es complicado imaginar al electrón como una partícula "puntual". Dirac aboga por asignarle una forma geométrica (básicamente esférica). Pero este enfoque crea más problemas que los que resuelve.

"Uno de los rasgos básicos de la Naturaleza es que parece ser que las leyes físicas fundamentales se describan por medio de teorías matemáticas de gran belleza y potencia, requiriendo niveles matemáticos elevados para entenderla [...] Quizá pudiera decirse que Dios es un matemático excepcional que usó matemáticas muy avanzada para construir el Universo"

viernes, 1 de enero de 2021

¿QUÉ ES UNA PARTÍCULA ELEMENTAL?

 ARTÍCULO COPIADO ÍNTEGRAMENTE DE LA PÁGINA WEB DE

"INVESTIGACIÓN Y CIENCIA":

 (https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/qu-es-una-partcula-840/qu-es-una-partcula-elemental-20203)

CON FINES EXCLUSIVAMENTE EDUCATIVOS


¿Qué es una partícula elemental?

Se ha pensado en ellas de muchas maneras: como objetos puntuales, excitaciones de un campo o matemáticas puras que han irrumpido en la realidad. Ahora, dos nuevos enfoques están redefiniendo la idea de partícula elemental.


EN SÍNTESIS

La idea de partícula elemental puede abordarse desde ángulos sorprendentemente dispares. Estos incluyen desde su definición en términos de excitaciones de un campo hasta un enfoque puramente matemático basado en grupos de simetría.

En los últimos años, dos líneas de investigación han comenzado a cambiar la manera de pensar en los constituyentes básicos del universo. Una de ellas parte de una imagen de la naturaleza basada puramente en qubits e información cuántica.

Otra se basa en lo único que realmente pueden medir los experimentos: la probabilidad de que las partículas interaccionen de una forma u otra. Tales probabilidades parecen poseer una estructura subyacente que los físicos intentan desentrañar.


Dado que todo en el universo se reduce a partículas elementales, la pregunta resulta natural: ¿qué son? Una respuesta fácil enseguida se revelará insatisfactoria. Se supone que los electrones, los fotones, los quarks y las demás partículas «fundamentales» carecen de estructura interna o extensión física. Según Mary K. Gaillard, física de partículas de la Universidad de California en Berkeley que en los años setenta predijo la masa de dos tipos de quarks, «básicamente pensamos en una partícula como en un objeto puntual». Sin embargo, las partículas difieren en rasgos como la carga o la masa. ¿Cómo es posible que un punto sin dimensiones «pese»?

«Decimos que son fundamentales», afirma Xiao-Gang Wen, físico teórico del Instituto de Tecnología de Massachusetts, «pero esto no es más que una manera de decirles a los estudiantes: “¡No preguntes! No sé la respuesta. Es fundamental y listo, no preguntes más”.».

Si se tratase de cualquier otro objeto, sus propiedades dependerían de su estructura física y, en último término, de las partículas que lo componen. Pero las propiedades de las partículas elementales no se derivan de otros constituyentes, sino de su estructura matemática. En tanto que conforman el punto de contacto entre las matemáticas y la realidad, las partículas se encuentran a caballo entre ambos mundos, en una especie de equilibrio incierto.

Al preguntar a varios físicos de partículas qué es una partícula, las respuestas han resultado ser sorprendentemente variadas. Todos ellos hacen hincapié en que los distintos puntos de vista no son excluyentes, sino que capturan distintas facetas de la verdad. También han descrito dos nuevas líneas de investigación que están intentando proporcionar una imagen más amplia y satisfactoria de las partículas.

«¿Qué es una partícula? No cabe duda de que es una pregunta muy interesante», afirma Wen. «Estamos haciendo progresos para poder responderla. No diré que existe un punto de vista único, pero hay diferentes visiones y todas ellas parecen interesantes.»

Una función de onda colapsada

El intento de entender los constituyentes fundamentales de la naturaleza se remonta a la antigua Grecia y a la afirmación de Demócrito de que tales objetos existen. Dos milenios después, Isaac Newton y Christiaan Huygens discutieron si la luz estaba compuesta por partículas o por ondas. Unos 250 años después, la mecánica cuántica demostró que ambos sabios estaban en lo cierto: la luz consta de pequeños paquetes de energía llamados fotones, los cuales pueden comportarse como ondas o como partículas.

ILUSTRACIONES DE ASHLEY MAcKENZIE
ILUSTRACIONES DE ASHLEY MAcKENZIE

La dualidad onda-partícula resultó ser el síntoma de una profunda rareza. En los años veinte del siglo pasado, la mecánica cuántica reveló que la mejor descripción de los fotones y otros objetos cuánticos es en términos de abstractas «funciones de onda»: entidades matemáticas dependientes del tiempo que codifican la probabilidad de que la partícula muestre unas propiedades u otras. Por ejemplo, la función de onda de un electrón puede estar esparcida por el espacio, con lo que este tendrá asociadas varias localizaciones posibles. Pero lo extraño es que, cuando usamos un detector y medimos su posición, la función de onda súbitamente «colapsará» en un solo punto y el aparato registrará la partícula en ese lugar.

Una partícula es, por tanto, una función de onda colapsada. Pero ¿qué significa eso? ¿Por qué la observación causa que una función extendida colapse y aparezca una partícula concreta? ¿Qué decide el resultado de la medida? Casi un siglo después, los físicos siguen sin tener la menor idea.

La excitación de un campo cuántico

Poco después la imagen se hizo aún más extraña. En los años treinta, los físicos se percataron de que la función de onda de un gran número de fotones se comporta colectivamente como una sola onda que se propaga como una combinación de campos eléctricos y magnéticos. Esta no es otra que la imagen de la luz descubierta en el siglo XIX por James Clerk Maxwell. Pero los investigadores descubrieron que era posible «cuantizar» una teoría de campos clásica imponiendo que los campos solo pudieran oscilar en cantidades discretas, conocidas como cuantos del campo. Además de los fotones (los cuantos de luz), Paul Dirac y otros físicos hallaron que la idea podía extenderse a los electrones y a todo lo demás. Según la teoría cuántica de campos, las partículas son las excitaciones de los campos cuánticos que llenan el espacio.

Al afirmar la existencia de tales campos, más fundamentales, la teoría cuántica de campos rebajó el estatus de las partículas, las cuales pasaron a ser meros fragmentos de energía que agitaban los campos cuánticos. Pero, a pesar de ese bagaje ontológico de campos omnipresentes, la teoría cuántica de campos acabaría convertida en el lenguaje de la física de partículas, ya que permitía predecir con una precisión extrema el comportamiento de las partículas cuando interaccionan entre sí. Tales interacciones son, precisamente, las que construyen el mundo a un nivel básico.

A medida que se fueron descubriendo más partículas y sus campos asociados, comenzó a desarrollarse una perspectiva paralela. Las propiedades de las partículas y los campos parecían seguir pautas numéricas. Y, al extenderlas, los físicos lograron predecir la existencia de nuevas partículas. «Una vez que codificamos matemáticamente las pautas observadas, esas matemáticas se tornan predictivas», explica Helen Quinn, física de partículas e investigadora emérita de Stanford. Al mismo tiempo, esos patrones matemáticos ofrecieron una perspectiva más abstracta y potencialmente más profunda de la verdadera naturaleza de las partículas.


Una representación de un grupo

Mark Van Raamsdonk recuerda el comienzo de su primera clase de teoría cuántica de campos como estudiante de doctorado en la Universidad de Princeton. El profesor entró, miró a los estudiantes y preguntó: «¿Qué es una partícula?». «Una representación irreducible del grupo de Poincaré», respondió un adelantado compañero de clase. Dando por sentado que esa definición, aparentemente correcta, era conocida por el resto de los estudiantes, el profesor prescindió de explicaciones adicionales y comenzó a impartir una inescrutable serie de clases. «En todo el semestre no aprendí nada en ese curso», afirma Van Raamsdonk, hoy un respetado físico teórico en la Universidad de la Columbia Británica.

La profunda respuesta de aquel estudiante constituye un estándar entre los expertos: las partículas son «representaciones» de grupos de simetrías, que, a su vez, son conjuntos de transformaciones que pueden aplicarse a los objetos. Consideremos un triángulo equilátero. Si lo rotamos 120 grados, 240 grados, lo reflejamos con respecto a la línea que une cada vértice con el punto central del lado opuesto o, simplemente, no hacemos nada, el triángulo resultante será idéntico al de partida. Estas seis simetrías forman un grupo. Dicho grupo puede expresarse como un conjunto de matrices: tablas de números que, al multiplicarlos por las coordenadas de un triángulo equilátero, nos devuelven las mismas coordenadas. El conjunto formado por esas matrices constituye una «representación» del grupo de simetría.

De manera similar, los electrones, los fotones y las demás partículas elementales son objetos que permanecen esencialmente iguales cuando sobre ellos actúa un cierto grupo. En concreto, las partículas son representaciones del llamado grupo de Poincaré: el grupo que dicta las diez maneras posibles de moverse en el continuo espaciotemporal. Un objeto puede trasladarse en las tres direcciones espaciales y en el tiempo; puede también rotar en las tres direcciones del espacio, y moverse con velocidad constante a lo largo de ellas. En 1939, el físico matemático Eugene Wigner identificó las partículas como los objetos más simples que pueden trasladarse, rotar o moverse.


Lo que Wigner realmente supo ver fue que, para que un objeto pudiera cambiar de la manera correcta bajo esas diez transformaciones del grupo de Poincaré, ha de tener un conjunto mínimo de propiedades. Esas son las propiedades que definen a las partículas. Una de ellas es la energía: en el fondo, esta no es más que la cantidad que se mantiene constante cuando el objeto se desplaza en el tiempo. De forma similar, el momento lineal es la propiedad que se conserva cuando el objeto se mueve en el espacio.

Hay una tercera propiedad que es necesario especificar para saber cómo se transforman las partículas cuando las rotaciones espaciales se combinan con movimientos en el espacio tridimensional (ambos tipos de transformaciones dan lugar a rotaciones en el espaciotiempo). Dicha propiedad es el espín. Cuando Wigner llevó a cabo su trabajo, los físicos ya sabían que las partículas tienen espín, una especie de momento angular intrínseco que determina numerosos aspectos del comportamiento de la partícula, incluido si actúa como materia (como los electrones, por ejemplo) o como fuerza (los fotones). Wigner demostró que, en el fondo, «el espín no es más que una etiqueta que tienen las partículas debido a que en el mundo existen las rotaciones», explica Nima Arkani-Hamed, físico teórico de partículas del Instituto de Estudios Avanzados de Princeton.

Las diferentes representaciones del grupo de Poincaré corresponden a partículas con un número distinto de «etiquetas de espín», o grados de libertad que se ven afectados por las rotaciones. Por ejemplo, hay partículas que tienen tres grados de libertad de espín, las cuales rotan de la misma manera que los objetos tridimensionales con los que estamos familiarizados. Por su parte, todas las partículas de materia poseen dos grados de libertad de espín, a los que podemos llamar «espín hacia arriba» y «espín hacia abajo». Estas partículas rotan de manera diferente. Cuando giramos un electrón 360 grados, su estado de espín se invierte. Como analogía visual, podemos pensar en lo que le ocurre a una flecha que se desplaza a lo largo de una banda de Möbius: tras una vuelta, la flecha acabará apuntando en sentido contrario al de partida. En la naturaleza hay también partículas elementales con una y con cinco etiquetas de espín. Por ahora, lo único que parece faltar es una representación del grupo de Poincaré con cuatro etiquetas de espín.

La correspondencia entre partículas elementales y representaciones resulta tan directa que algunos físicos, como el profesor de Van Raamsdonk, las identifican. Otros ven en ello una mezcla de conceptos. «La representación no es la partícula; es una manera de describir ciertas propiedades de la partícula», señala Sheldon L. Glashow, receptor del premio Nobel de física en 1979 y profesor emérito de Harvard y la Universidad de Boston. «No confundamos ambas cosas», advierte.

Sheldon L. Glashow en el CERN en 1979, dos semanas después de recibir el premio Nobel de física por sus contribuciones a la formulación de la teoría electrodébil. [CERN]
Sheldon L. Glashow en el CERN en 1979, dos semanas después de recibir el premio Nobel de física por sus contribuciones a la formulación de la teoría electrodébil. [CERN]


Objetos con varias capas

Haya o no distinción, la relación entre la física de partículas y la teoría de grupos fue enriqueciéndose a lo largo del siglo xx. Varios hallazgos mostraron que las partículas elementales no solo tienen el conjunto mínimo de etiquetas que hacen falta para navegar por el espaciotiempo. Poseen también etiquetas adicionales y un tanto superfluas.

Dos partículas con la misma energía, momento y espín se comportarán de idéntico modo bajo las diez transformaciones del grupo de Poincaré. Sin embargo, pueden diferir en otros aspectos, como la carga eléctrica. Cuando, a mediados del sigloxx, se descubrió lo que Quinn llama «el zoo de partículas», se observaron varias diferencias entre ellas que obligaron a introducir nuevas etiquetas. Estas se conocen con los apodos de «color» y «sabor». Al igual que las partículas son representaciones del grupo de Poincaré, los teóricos han llegado a la conclusión de que estas propiedades adicionales reflejan nuevas maneras en que las partículas pueden transformarse. Pero, en lugar de corresponder a movimientos en el espaciotiempo, tales transformaciones resultan ser más abstractas. Por decirlo de alguna forma, lo que hacen es cambiar los «estados internos» de las partículas.

Consideremos la propiedad denominada color. En los años sesenta, los físicos concluyeron que los quarks, los constituyentes elementales del núcleo atómico, existían en una combinación probabilística de tres posibles estados que apodaron «rojo», «verde» y «azul». Estos calificativos no guardan ninguna relación con colores reales ni con cualquier otra propiedad perceptible. Lo único que importa es el número de etiquetas: los quarks, que tienen tres, son representaciones de un grupo de transformaciones llamado SU(3), que consiste en los infinitos modos de mezclar matemáticamente esas tres etiquetas.

Mientras que las partículas con color constituyen representaciones del grupo de simetría SU(3), las partículas con las propiedades internas de sabor y carga eléctrica son representaciones de los grupos de simetría SU(2) y U(1). Por eso suele decirse que el modelo estándar de la física de partículas, la teoría cuántica de campos que describe todas las partículas elementales conocidas y sus interacciones, corresponde al grupo de simetría SU(3)×SU(2)×U(1), que consiste en todas las posibles combinaciones de las operaciones de simetría en los tres subgrupos (que las partículas también se transforman bajo el grupo de Poincaré resulta probablemente tan obvio que, a estas alturas, no parece que nadie sienta la necesidad de mencionarlo).

Medio siglo después de su formulación, el modelo estándar sigue vigente. Aun así, se trata de una descripción incompleta del universo. No incluye la gravedad, una interacción que la teoría cuántica de campos no consigue tratar por completo, y que la teoría de la relatividad general de Einstein describe de manera independiente como un efecto de la curvatura del espaciotiempo. Y más allá, la estructura tripartita SU(3)×SU(2)×U(1) del modelo estándar suscita preguntas. Dimitri Nanopoulos, veterano físico de partículas de la Universidad de Texas A&M, lo expresa así: «¿De dónde diablos viene todo esto? Bien, supongamos que funciona. Pero ¿qué es esto? No puede haber tres grupos. Lo que quiero decir es que “Dios”, entre comillas, puede hacerlo bastante mejor».


Cuerdas en vibración

En los años setenta, Glashow, Nanopoulos y otros investigadores intentaron encajar el grupo SU(3)×SU(2)×U(1) en un grupo de transformaciones mayor. La idea era que, en el origen del universo, todas las partículas habrían sido representaciones de un solo grupo de simetría, y que las cosas comenzaron a complicarse cuando esa simetría primigenia se rompió. El candidato más natural para formular esa «teoría de gran unificación» fue el grupo SU(5), pero pronto los experimentos descartaron dicha opción. Con todo, otras posibilidades menos atractivas permanecen abiertas.

Los investigadores depositan mayores esperanzas en la teoría de cuerdas. Esta parte de la idea de que, si ampliásemos una partícula lo suficiente, lo que veríamos no sería un objeto puntual, sino un pequeño filamento que vibra. También descubriríamos que el espacio tiene seis dimensiones más, que según la teoría de cuerdas estarían enrolladas sobre sí mismas en cada punto de nuestro conocido espaciotiempo tetradimensional. A su vez, la geometría que adoptan esas seis dimensiones determina las propiedades de las cuerdas y, con ellas, las del mundo macroscópico. Y las simetrías «internas» de las partículas, como las operaciones de SU(3) que transforman el color de los quarks, adquieren así un significado físico: corresponden a rotaciones en esas diminutas dimensiones espaciales, de manera similar a como el espín refleja las rotaciones en las dimensiones macroscópicas. Según Nanopoulos, «la geometría nos da la simetría y esta, a su vez, nos da las partículas; todo va unido».

No obstante, si las cuerdas o las dimensiones adicionales existen, serían demasiado pequeñas para poder detectarlas en los experimentos, por lo que, en ausencia de estos, han surgido otras ideas. A lo largo de la última década, dos estrategias han atraído a las mentes más brillantes de la física fundamental. Y, una vez más, ambas han revitalizado la imagen de las partículas.


Una deformación en un océano de qubits

La primera de estas líneas de investigación sigue el eslogan en inglés it from qubit, que expresa la hipótesis de que todo lo que existe en el universo (it, «eso», lo que incluye no solo las partículas, sino también el espaciotiempo en el que están insertadas) emerge a partir de bits cuánticos de información, o qubits. Un qubit constituye una combinación probabilística de dos estados, usualmente denotados 0 y 1. Y aunque pueden almacenarse en sistemas físicos, al igual que los bits ordinarios en los transistores, desde un punto de vista más abstracto es posible pensar en ellos como en mera información. Cuando consideramos múltiples qubits, sus posibles estados pueden entrelazarse, de forma que cada uno de ellos depende de todos los demás. Debido a estas particularidades, un número modesto de qubits puede codificar una gran cantidad de información.

Para entender a qué corresponden las partículas en esta imagen del universo, primero hemos de entender el espaciotiempo. En 2010, Van Raamsdonk escribió un influyente artículo en el que puso en negro sobre blanco lo que ya venían señalando varios cálculos y donde argumentaba que los qubits entrelazados podían ser las «costuras» que mantienen unido el tejido espaciotemporal. Durante décadas, diversos cálculos, experimentos mentales y ejemplos sencillos han indicado que el espaciotiempo tiene propiedades «holográficas»: toda la información contenida en una región del espaciotiempo puede codificarse en grados de libertad situados en un espacio con una dimensión menos; un espacio que, con frecuencia, es la frontera de la región considerada [véase «El espacio, ¿una ilusión?», por Juan Maldacena; Investigación y Ciencia, enero de 2006]. Según Van Raamsdonk, «en los últimos diez años hemos entendido muchísimo mejor cómo funciona esta codificación».


Lo que resulta más sorprendente y fascinante de la relación holográfica es que el espaciotiempo tiene curvatura porque incluye la gravedad; sin embargo, el espacio de dimensión menor que codifica la información de una región curva es un sistema puramente cuántico que carece de curvatura, de gravedad o incluso de geometría. Puede entenderse como un sistema de qubits entrelazados. Y según este programa de investigación, las propiedades del espaciotiempo (su robustez y sus simetrías) provienen esencialmente de la manera en que se entrelazan esos ceros y unos. La larga búsqueda de una descripción cuántica de la gravedad se reduciría así al problema de identificar el tipo de entrelazamiento entre qubits que codifica la clase concreta de espaciotiempo que encontramos en el universo.

Por ahora, los físicos han aprendido mucho más sobre cómo funciona esta idea en «universos de juguete» con curvatura negativa, con los que resulta relativamente fácil trabajar. Nuestro mundo, en cambio, tiene curvatura positiva. Pero, para su sorpresa, los investigadores han hallado que, siempre que un espaciotiempo de curvatura negativa admite una descripción holográfica, las partículas acaban apareciendo. Es decir, siempre que un sistema de qubits codifique holográficamente una región del espaciotiempo, habrá patrones de entrelazamiento entre qubits que corresponderán a porciones de energía localizadas flotando en ese mundo con una dimensión más.

Lo importante es que, al traducir las operaciones algebraicas sobre qubits al lenguaje del espaciotiempo, «estas se comportan exactamente como rotaciones que actúan sobre partículas», explica Van Raamsdonk. «Te das cuenta de que existe esa imagen codificada en un sistema cuántico sin gravedad. Y de alguna manera, ese código —siempre que podamos descifrarlo— nos dice que hay partículas en algún otro espacio», añade. El hecho de que el espaciotiempo holográfico contenga siempre esos estados de partículas constituye «una de las características más importantes que distingue estos sistemas holográficos de otros sistemas cuánticos», continua Van Raamsdonk. «Creo que nadie entiende realmente por qué los modelos holográficos muestran esta propiedad.»

Resulta tentador imaginar que los qubits tienen algún tipo de ordenación espacial que crea el universo holográfico, del mismo modo que un holograma ordinario se proyecta a partir de configuraciones espaciales. Sin embargo, las relaciones e interdependencias entre los qubits pueden ser mucho más abstractas y no poseer ordenación espacial alguna. «No es necesario hablar de esos ceros y unos como si vivieran en un espacio en particular», indica Netta Engelhardt, física del Instituto de Tecnología de Massachusetts que en 2020 recibió uno de los premios Breakthrough por sus trabajos sobre la información cuántica contenida en un agujero negro [véase «La paradoja más famosa de la física se acerca a su fin», por George Musser; Investigación y Ciencia, febrero de 2021]. «Podemos hablar de la existencia abstracta de ceros y unos y de cómo un operador actuaría sobre ellos. Y todo eso no son más que relaciones matemáticas abstractas», explica.

No cabe duda de que aún queda mucho por entender. Pero, si esta imagen de la naturaleza basada en qubits es correcta, entonces las partículas serían hologramas, al igual que el propio espaciotiempo. Su definición más fiel sería en términos de qubits.

Nima Arkani-Hamed, del Instituto de Estudios Avanzados de Princeton, ha investigado la relación entre las interacciones entre partículas elementales y las propiedades de ciertos objetos geométricos abstractos. [BÉATRICE DE GÉA PARA <em>QUANTA MAGAZINE</em>]
Nima Arkani-Hamed, del Instituto de Estudios Avanzados de Princeton, ha investigado la relación entre las interacciones entre partículas elementales y las propiedades de ciertos objetos geométricos abstractos. [BÉATRICE DE GÉA PARA QUANTA MAGAZINE]


Lo que miden los detectores

Por último, otro grupo de investigadores, autodenominados «amplitudólogos», intentan devolver el foco de atención a las partículas mismas. Su argumento es que la teoría cuántica de campos, el lenguaje de la física de partículas, cuenta una historia demasiado enrevesada. Los físicos la usan para obtener ciertas fórmulas básicas llamadas amplitudes de dispersión, las cuales se encuentran entre las características de la realidad más básicas que pueden calcularse. Cuando las partículas colisionan, las amplitudes indican la manera en que se transforman y se dispersan. Y dado que el mundo surge de las interacciones entre partículas, los físicos comprueban su descripción de la naturaleza comparando las amplitudes de dispersión que han calculado con los resultados de los experimentos, como los que se llevan a cabo en el Gran Colisionador de Hadrones (LHC) del CERN.

Por regla general, calcular esas amplitudes requiere tener en cuenta todas las maneras posibles en que pueden reverberar las ondulaciones de los campos cuánticos antes de convertirse en las partículas estables que emergerán del punto donde se produjo la colisión. Y curiosamente, cientos y cientos de páginas de cálculos suelen acabar simplificándose en una fórmula que cabe en una sola línea. Por ello, los amplitudólogos argumentan que la representación en términos de campos cuánticos está oscureciendo un patrón matemático mucho más simple. Arkani-Hamed, uno de los líderes de este programa de investigación, se refiere a los campos como «una ficción conveniente». «En física, muy a menudo cometemos el error de cosificar el formalismo», afirma. «Empezamos dejando caer en el lenguaje que lo real son los campos cuánticos y que las partículas son excitaciones. Hablamos de partículas virtuales. Pero nada de eso hace clic en ningún detector.»

Los amplitudólogos creen que existe una imagen más veraz y matemáticamente más sencilla de las interacciones entre partículas. En algunos casos, están encontrando que el enfoque de Wigner basado en la teoría de grupos puede también extenderse a las interacciones, sin el galimatías que suelen implicar los campos cuánticos. Lance J. Dixon, destacado amplitudólogo del Centro del Acelerador Lineal de Stanford (SLAC), explica que los teóricos han usado las rotaciones de Poincaré estudiadas por Wigner para deducir directamente la «amplitud a tres puntos», una fórmula que describe la manera en que una partícula puede desintegrarse en dos. También han demostrado que dicha amplitud a tres puntos puede usarse como elemento básico con el que construir las amplitudes a cuatro y más puntos, las cuales corresponden a más partículas. Esas interacciones dinámicas parecen emerger de simetrías básicas.

Para Dixon, lo más emocionante es que las amplitudes de dispersión en las que intervienen gravitones (las hipotéticas partículas transmisoras de la gravedad) resultan ser el cuadrado de las amplitudes en las que intervienen gluones (los transmisores de la interacción nuclear fuerte). Asociamos la gravedad a la estructura del espaciotiempo, mientras que los gluones se propagan en él. A pesar de ello, unos y otros parecen surgir de las mismas simetrías. «Es algo muy extraño. Por supuesto, aún no entendemos en todos sus detalles cuantitativos por qué ambas representaciones son tan diferentes», afirma Dixon.


Por su parte, Arkani-Hamed y sus colaboradores han encontrado nuevos andamiajes matemáticos para llegar directamente a los resultados. Uno de ellos es el «amplituedro», un objeto geométrico que codifica las amplitudes de dispersión de las partículas. Esto abandona la imagen según la cual las partículas colisionan en el espaciotiempo mediante toda una cadena de causas y efectos. «Estamos buscando en el mundo platónico de las ideas estos objetos que automáticamente nos proporcionan propiedades causales», indica Arkani-Hamed. «Entonces podemos decir: “¡Ajá! ahora entiendo por qué esta imagen puede interpretarse como una evolución”.»

La línea de investigación basada en qubits y la amplitudología abordan las grandes cuestiones de manera tan diferente que es difícil saber si se complementan o se contradicen. «Al final, la gravedad cuántica tiene alguna estructura matemática que por ahora solo estamos arañando», afirma Engelhardt. La investigadora añade que, en último término, hará falta una teoría cuántica de la gravedad y del espaciotiempo para entender cuáles son los elementos fundamentales del universo a las escalas más básicas: una versión más elaborada de la pregunta de qué es una partícula. Engelhardt reconoce que, por ahora, «la respuesta corta es “no lo sabemos”».


Este artículo apareció originalmente en 
QuantaMagazine.org, una publicación independiente promovida por la Fundación Simons para potenciar la comprensión pública de la ciencia.

********

© "INVESTIGACIÓN Y CIENCIA":

 (https://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/qu-es-una-partcula-840/qu-es-una-partcula-elemental-20203)


SIDNEY HARRIS

SISTEMA SOLAR

UNIVERSO MUNDO