TEMAS

  • FÍSICA CUÁNTICA Y RELATIVISTA (16)
Mostrando entradas con la etiqueta FÍSICA CUÁNTICA Y RELATIVISTA. Mostrar todas las entradas
Mostrando entradas con la etiqueta FÍSICA CUÁNTICA Y RELATIVISTA. Mostrar todas las entradas

sábado, 16 de enero de 2021

INTRODUCCIÓN A LA MECÁNICA CUÁNTICA (I)

 

Empezaremos hablando de los electrones.
Todos los electrones son idénticos entre sí. Todos. De modo y manera que nunca podremos saber qué electrón de un átomo estamos midiendo.
Los electrones son partículas puntuales, pero poseen alguna forma de rotación, lo cuál contradice el sentido común, pues una partícula puntual ni tiene forma ni puede girar. En realidad el electrón se comporta como si poseyera la propiedad matemático-física de la "Velocidad Angular".
A esta extraña propiedad la llamaremos "spín" o "espín".
Todo electrón gira exactamente a la misma velocidad, independientemente de la dirección en que se mida la rotación. Ya hemos dicho que son exactamente iguales.
Bueno, hay una excepción. Si medimos su rotación, comprobaremos que la mitad de las veces giran hacia la derecha (espín dextrógiro, en inglés "up") y la otra mitad giran hacia la izquierda (espín levógiro, en inglés "down").
Debido al Principio de Indeterminación de Heisenberg, es imposible medir con absoluta precisión los valores de posición y velocidad de una partícula.
Esto quiere decir que no puede existir una partícula inmóvil, puesto que su velocidad estaría entonces perfectamente definida: CERO.

Igualmente los electrones obedecen el Principio de Exclusión de Pauli, que dice que dos partículas idénticas no pueden ocupar el mismo estado cuántico (o dos, cuando posean diferente espín).

La Teoría Cuántica describe el comportamiento de las partículas en términos de distribuciones de probabilidad, y la observación de una partícula individualmente nos da tan sólo la probabilidad de hallarla en un estado determinado. En realidad, la probabilidad de cualquier suceso en un experimento ideal es el cuadrado de la amplitud de probabilidad.
Las probabilidades pueden referirse también a procesos prohibidos en la Mecánica Clásica, como la penetración de partículas a través de barreras delgadas de energía.

Sigamos con el Principio de Indeterminación de Heisenberg. También nos dice que no se puede medir con absoluta precisión la energía y el tiempo en que una partícula virtual va a tener existencia. Son constantes conjugadas, y por tanto están íntimamente relacionadas según la fórmula de la Indeterminación:

Δ E . Δt  ħ/2

donde

ΔE = Diferencial de la Energía
Δt = Diferencial de tiempo
ħ = Constante reducida de Planck  = h/4ᴨ ≈ 10 ‾ ³⁴

Obviamente, cuanto menor es su tiempo de existencia mayor es la energía que posee dicha partícula virtual, y viceversa. Pero esto no sólo es aplicable a las partículas virtuales.

La mayoría de las partículas tienen masa en reposo, y esto equivale a una gran cantidad de energía. Cuando hablamos de "reposo" nos referimos a una velocidad cercana a cero.

Las partículas virtuales sin ninguna energía inicial pueden todavía existir durante un breve periodo de tiempo "pidiendo prestada" la energía que necesitan para su masa en reposo en forma de una fluctuación cuántica.

Ya hemos visto que una partícula "gira" (tiene espín), y también podemos decir que tiene un "movimiento" de precesión, o sea, que "cabecea" como si fuese un trompo. Ese movimiento, imposible de visualizar físicamente, pero con una absoluta realidad matemática, va asociado al espín y al momento angular de la partícula.
En un electrón, el momento es una propiedad, relacionada con el movimiento y el magnetismo, que provoca una corriente eléctrica.

Debido al Principio de Indeterminación de Heisenberg no podemos conocer con exactitud el momento y la posición de una partícula a la vez.

Las partículas que pueden tomar diversos caminos, existen como una superposición (matemáticamente: suma) de amplitudes (matemáticamente: probabilidades), cada posible camino contribuye con una amplitud (u opción) al comportamiento de las partículas. Las diversas amplitudes pueden interferir combinándose entre ellas de manera que se sumen en algunas zonas para dar lugar a una elevada probabilidad de encontrar allí la partícula.

En otros sitios pueden cancelarse entre sí, dando lugar entonces a una probabilidad muy baja de encontrar en ellas partícula alguna.

Cuando varias partículas atraviesan dos rendijas, en realidad se comportan como ondas, y su conducta resultante es una amplitud o función de onda.
Como ya hemos dicho, al interferir las ondas entre sí, sucede que las ondas pueden sumarse o restarse, con lo que el resultado puede ser cero, positivo o negativo.
¿Dónde están entonces las partículas? ¿Y cómo se explica ese posible resultado negativo?
Para sortear este problema, se toma el cuadrado de la amplitud, con lo que siempre obtendremos un resultado positivo.
Así hemos obtenido un resultado de probabilidad.

La versión ortodoxa de la M.C. es la Interpretación de Copenhague, con Niels Bohr como figura máxima. Lo cuál se resume, más o menos, en que: Cuando en un sistema pueden suceder diferentes cosas, existirá una amplitud para cada una de ellas (o sea, una probabilidad con una magnitud determinada), y el estado final del sistema viene dado por la suma de TODAS esas amplitudes.

Cuando se realice una observación se encontrará un valor que corresponde a una de esas amplitudes, y las amplitudes excluidas se anularán. Este proceso se conoce como Reducción de Amplitudes, y es, en teoría, la explicación de la paradoja del Gato de Schrödinger.

La descripción ortodoxa en M.C. de una medida tiene el inconveniente de que el proceso de medición no parece compatible, de ningún modo, con el resto de la Teoría cuántica, porque se supone que TODO en el mundo está compuesto por átomos, inclusive el aparato de medida y el propio observador.
Por tanto, al ser TODO (sujeto observable, aparato de medida y observador) un conjunto de sistemas cuánticos, y existir varios valores medibles, el aparato de medida no tiene derecho a elegir uno solo, ni el observador a percibir dicha medida, por tanto:

COROLARIO:
- O nunca podríamos observar nada
- O la Teoría Cuántica es un completo disparate

Y habida cuenta que sí observamos algo...

Volviendo al orden  y al concierto diremos que "UN ESTADO DESCRIBE LA CONDICIÓN DE UN SITEMA FÍSICO.
Éste es el concepto básico en la Teoría cuántica; la mejor descripción que puede proporcionarse del mundo real.

En general, la amplitud para un estado da la probabilidad para los diversos resultados posibles de cualquier observación.
Para algunos estados puede haber sólo un resultado posible de una medida concreta. Es el llamado Estado Estacionario.

Medidas repetidas darán todas las veces el mismo resultado (v.g. el spin o la carga).
También se llama autoestado al estado estacionario (del alemán Eigenstate).
Pero existen magnitudes que no pueden compartir el mismo Estado Estacionario. Por ejemplo la posición y el momento.

Otro principio fundamental en Mecánica Cuántica es el Principio de Exclusión de Pauli, que es vital para la existencia de los átomos.
Recordemos que el Principio de Exclusión sólo afecta a los fermiones, pero no a los bosones; esto permite que los átomos no colapsen.

Los átomos se mantienen separados en virtud de la llamada "Presión de Fermi" que , en realidad, es una fuerte oposición por parte de los electrones de un átomo a ser iguales a los de su vecino.
La materia es incomprensible debido al individualismo extremo de los electrones.

Entonces llega la Física Relativista y convierte una gigante roja en una estrella de neutrones, y, por si esto fuera poco, en un agujero negro.
Y la Presión de Fermi, el Principio de Exclusión de Pauli y toda la Física Cuántica devienen al carallo en un santiamén.

Los electrones pueden recibir energía de un fotón y saltar a un nivel superior o pueden perder energía emitiendo un fotón, con lo que cae a un nivel de inferior.
Pero esto sucede a veces sin que haya fotón alguno.
En realidad sí hay fotón. Siempre hay un fotón cerca.
En realidad hay una constante nube de fotones virtuales cuya interacción con otras partículas cargadas produce un campo eléctrico, y son la causa de los saltos espontáneos de los electrones (decaimiento espontáneo).
Si las partículas son también ondas, los campos de fuerza están compuestos de partículas (más o menos).
La interacción eléctrica entre dos partículas cualesquiera cargadas, está causada por el intercambio de fotones entre ellas.

RECORDEMOS: Donde haya una carga eléctrica siempre surgirá una nube de fotones a su alrededor.

Y no sólo pueden crearse fotones virtuales, sino también partículas con masa, como por ejemplo electrones, aunque éstos han de ser producidos junto con sus antipartículas para que no haya cambio alguno en su carga total y se respete el principio de conservación de la energía.
Se requiere energía para crear la masa en reposo de esas partículas, pero la energía necesaria puede estar disponible como  una fluctuación de energía durante un periodo breve de tiempo.
Tal fluctuación puede ocurrir aunque no haya inicialmente energía alguna, y las partículas pueden crearse literalmente de la nada.
El "ESPACIO VACÍO" es de hecho una "sopa" en ebullición de pares partícula-antipartícula, que incesantemente se crean y desaparecen.
Pero la probabilidad de que un electrón produzca un fotón, o de que un fotón produzca un par electrón-positrón es bastante pequeña. lo cuál quiere decir que las amplitudes más complicadas son más débiles y terminan por no ser perceptibles.

RESUMIENDO: El "Vacío" bulle de fotones que crean partículas electrón-positrón, las cuales crean fotones que crean partículas que crean fotones que crean...

Es como la aporía del huevo y la gallina.
Parece imposible que surjan partículas y energía de la nada, pero todo lo que impide la producción de pares partícula-antipartícula es la necesidad de suministrar energía para la masa en reposo de las partículas, y las partículas individuales no tienen esa inhibición.
Es una "unidad", un "todo" de enorme fluctuación cuántica.
Un átomo, en su estado normal o fundamental, tiene sus niveles más bajos de energía uniformemente llenos de electrones, pero existen niveles de energía más altos que están normalmente vacíos.
Cuando se excita uno de esos electrones, éste acabará en uno de esos niveles de energía más altos o saldrá fuera del átomo.
Pero en cuanto haya un hueco en un nivel inferior, un electrón de lo alto decaerá para poder ocuparlo, lo cual exige que se libere de la energía sobrante emitiendo un fotón.
Así es cómo los átomos emiten radiación electromagnética, sea en forma de luz, Rayos X o de cualquier otro rango.

Debido al Principio de Indeterminación, las partículas tienen una "borrosidad", una indefinición característica, tanto en tiempo como en espacio (o sea. en Espacio-Tiempo) como en Energía.
Esta borrosidad se manifiesta como fluctuaciones de energía en las que las partículas se comportan como si tuvieran más o menos energía que la que deberían tener o/y presentando bilocación. Al menos así lo manifiesta su Función de Onda.
También presentan indeterminación temporal, que puede llegar a invertir el sentido del tiempo, y las partículas viajarán del futuro al presente.
Feynman describe las antipartículas como partículas que viajan hacia atrás en el tiempo.
Así, un electrón de carga negativa, que viaje hacia atrás en el tiempo, se verá como un positrón que viaja hacia el futuro, y viceversa.

Un átomo está imbuido del campo eléctrico generado por su núcleo de cargas positivas. Dichas cargas producen un "pozo de potencial" alrededor del núcleo que, a su vez, define los estados disponibles para ser ocupados por los electrones, los cuales pueden ocuparlos debido a su carga eléctrica negativa.
La selección de estados disponibles es una forma de Efecto de Interferencia, similar a la gama de notas que pueden obtenerse del tubo de un órgano o la cuerda de un violín.
Cualquier función de onda que no corresponda a uno de tales estados es eliminado mediante interferencia destructiva.

NOTA.- "8" es el número mágico que marca el máximo de electrones que admite un orbital atómico.

El núcleo posee carga eléctrica positiva, que atrae a los electrones y mantiene unido el átomo. por otra parte, esta carga positiva repele a otras partículas positivas y proporciona una barrera alrededor del núcleo (la Barrera Coulombiana) que mantiene alejados al reto de átomos.

Recordemos que los tamaños de las partículas son relativos, puesto que toda partícula es también onda  y puesto que no se puede medir con precisión una partícula en reposo; los nucleones poseen unas dos mil veces más masa que los electrones, por tanto tienen 2000 veces más energía en reposo (E=mc²) y por tanto se hallan en una región 2000 veces más localizada.
Por eso parecen más pequeños que un electrón, aunque deben de ser considerablemente mayores. Aunque esta expresión tenga poco sentido.

Los neutrones son "ciegos", o sea, no interactúan con los fotones, pues no tienen carga eléctrica y, por tanto, no poseen energía electromagnética que emitir o recibir.
En realidad no están sujetos a ningún tipo de interacción de largo alcance.

NOTA.-  Los neutrones sí poseen un tipo de carga, la de los quarks que los forman, aunque la suma total de las cargas da cero:

N= d(-1/3) + u(2/3) + d(-1/3)

Una vez desechado el esquema atómico del "Sistema Solar", podemos decir que los electrones ocupan TODO el volumen del átomo, lo que significa que pasan a través del núcleo, al igual que por cualquier otro sitio.
En realidad no "pasan a través", simplemente su localización no está definida, poseen una Función de Onda que nos dice la probabilidad que tienen de encontrarse en alguna coordenada del Espacio-Tiempo.
En cualquiera.
Recordemos también que los átomos se mantienen unidos gracias al intercambio de fotones, pues ellos son los portadores de la energía electromagnética.
Los electrones no se repelen entre sí porque están a una considerable distancia unos de otros y porque la fuerza atractiva del núcleo los mantiene unidos.

Es el núcleo, son los nucleones quienes suministran y controlan el potencial eléctrico que rige el estado de los electrones.
Y también son los que suministran el estado eléctrico y los estados cuánticos de los propios nucleones.
Sólo que, al estar tan cerca unos de otros, esta vez sí que se repelen con gran fuerza.
Afortunadamente existe la Interacción Fuerte, de muy corto alcance pero de gran intensidad, que mantiene unido el núcleo.
En esta interacción participan multitud de bosones, todos ellos de importancia capital. Entre ellos el Pión.
Los piones se crean y se destruyen en el proceso del intercambio de la susodicha Interacción o Fuerza Fuerte.
Los bosones también son bosones, pero no tienen masa, por eso es tan fácil crearlos; en cambio los piones, con una masa 300 veces mayor que un electrón, son difíciles de producir.
No obstante pueden crearse mediante una fluctuación de energía, permitida por la Relación de Heisenberg, pero esa fluctuación debe ser muy grande a fin de suministrar la energía de la masa en reposo del Pión, por lo que su vida ha de ser breve. Muy breve.
No obstante, la Fuerza Fuerte no tendría efecto sin la mediación de los neutrones (sobre todo en núcleos con abundancia de protones) que mantienen separados a los protones a la vez que interactúan con ellos a través de la Fuerza Fuerte.

En el núcleo también hay niveles de energía donde se van colocando los nucleones, al modo que lo hacen los electrones; obviamente en el núcleo la distancia es menor.
En los núcleos grandes con muchos nucleones la repulsión entre todos los protones se hace tan fuerte que los núcleos se tornan inestables, sufriendo desintegraciones radiactivas.

La más habitual es la emisión de un partícula alfa (un núcleo de Helio, con dos protones y dos neutrones), la cuál, una vez que sale disparada, va rebotando contra la barrera coulombiana y el núcleo hasta que, por fin, la barrera coulombiana que aísla el núcleo es atravesada.

Pero también los neutrones pueden sufrir una desintegración "β" (un neutrón decae en un protón, más un electrón, más un antineutrino electrónico; o bien el neutrón decae en un protón, más un positrón más un neutrino electrónico).
Llámase desintegración β porque el electrón y el positrón son partículas beta.
En cualquier caso, partículas β y neutrinos escapan velozmente del núcleo, pues no les afecta la Interacción Fuerte.

Los núcleos también pueden emitir rayos γ, que son fotones de altísima energía (aunque muchas veces se emplea el término "rayo γ" como emisión de fotones, sin importar su energía) que se producen cuando un protón desciende a un nivel inferior, emitiendo en el proceso un fotón con la energía sobrante, y como las energías de interacción en el núcleo son mucho mayores que las que se desarrollan en la corteza, el fotón escapa con una energía cientos de miles de veces superior a la que emite un electrón.

El potencial eléctrico del núcleo proporciona una barrera coulombiana que repele las partículas cargadas positivamente, pero los neutrones pueden atravesarla sin ningún problema. Cuando un neutrón invade un núcleo atómico, éste se divide en dos, emitiendo en el proceso rayos "γ" y neutrones (del núcleo golpeado), los cuales a su vez pueden impactar en núcleos cercanos repitiéndose el proceso en progresión geométrica y produciéndose una letal reacción en cadena.

En el mundo físico (y químico) casi todo lo que ocurre se debe a la interacción de electrones y fotones.

Existen muchas partículas que interactúan fuertemente, además del neutrón y el protón.
Es muy complicado distinguir las diferentes partículas. Su carga eléctrica (positiva negativa o nula) nos da una orientación, pero lo que de verdad las diferencia es su masa. También nos ayuda a identificarlas su tiempo de vida. Normalmente son muy inestables, y las partículas pesadas suelen desintegrarse en otras más ligeras.

Fuera del núcleo, el neutrón es inestable, con una vida media de 15 minutos.

Las partículas pueden crearse en procesos de colisión: La energía cinética de las partículas que colisionan sirve para producir la energía de la masa en reposo de las nuevas partículas.
Son partículas artificiales que no existen en la vida ordinaria, y cuya vida media es brevísima.

Los bariones contienen 3 quarks, y los mesones un quark y un antiquark.
Los mesones son bosones. Su existencia fue postulada por Hideki Yukawa. Le dieron el Nobel por ello.

El mesón es el bosón portador de la Fuerza Fuerte entre bariones que permite al núcleo permanecer compactado.
-Todos los hadrones (bariones y mesones) son grupos ligados de quarks.
-Los fotones transportan la energía de los electrones, pero NO su carga eléctrica.
-Los gluones transportan la energía que mantiene unidos a los quarks, pero , además, también transporta el color.
Cuando un quark atrapa un gluón, éste le transfiere la fuerza que lo mantiene unido, y también el color.
Un quark también posee carga eléctrica, si es positiva, su carga vale 2/3 del valor de la carga del electrón, si es negativa sólo alcanza 1/3 de la que tiene el electrón.
Todos los núcleos atómicos están formados por quarks up, de valor +2/3, y por quarks down, de valor -1/3.
Protón = (up, up, down); neutrón = (up, down, down).

Del mismo modo que la carga eléctrica crea fotones, el color crea gluones. Pero los gluones también poseen color, por lo que el color de ese gluón crea más gluones con color que, a su vez, siguen creando gluones, etc. en un proceso interminable.
Pero en vez de esparcirse en una amplia nube difusa como los fotones, se agrupan para formar las firmes cuerdas coloreadas de gluones virtuales que mantienen unidos a los quarks

Por otra parte, cada gluón es una mezcla de color y anticolor.Pero un color y un anticolor no se anulan, sino que dan un nuevo color.
Por eso los gluones están ligados entre sí.
En cambio con los fotones una mezcla de carga (+) y anticarga (-) da una partícula de carga 0.
por eso un fotón no emite fotones virtuales; al contrario que los gluones.

También puede suceder que un fotón colisione con un quark y le transfiera una gran cantidad de energía. Entonces este quark puede liberarse, de forma "ilusoria" de la cuerda gluónica que lo mantiene unido a sus otros dos hermanos quarks "siameses".
Porque esa cuerda, que en realidad es una cadena, no se la podrá quitar jamás. Se libra de sus "hermanos", pero queda automáticamente ligado a un antiquark simétrico a él, formando un kaón, que es un bosón, y es más conocido como mesón K. Posee el número cuántico (sabor) "strange", los kaones (en realidad hay cuatro tipos de kaones) son realmente complicados (en la Wikipedia dan una magnífica explicación acerca de los kaones, pincha AQUÍ).

Existe un tipo de fuerza llamada "Interacción Débil" (o "Fuerza Electrodébil") que permite transformar un quark "d" o un quark "s" en un quark "u".
En el proceso, se cambia la carga eléctrica del quark, y la carga extra la transporta el bosón (W¯), que es quien transmite la fuerza electrodébil.
Este bosón W interactúa con un antineutrino y lo convierte en un electrón.
Esto sucede en el proceso de la desintegración β que ya vimos anteriormente, donde un neutrón se convierte en un protón; emitiendo un elecrón y un antineutrino.

Protones y neutrones se caracterizan por estar compuestos por quarks, por tanto pertenecen a la familia de los hadrones.
Existen cientos de hadrones... Que sólo cobran vida en los laboratorios de altas energías, o cuando un rayo cósmico golpea una partícula al azar, y que duran una fracción ínfima de segundo.

¿Por qué en la Naturaleza sólo existen 2 hadrones? 

No Tenemos ni la menor idea.

Einstein no soportaba el principio de la Escuela de Copenhague (liderada por Niels Bohr) que afirma que una particula no tiene existencia real antes de que se lleve a cabo su medición.
En otras palabras: No estaba allí antes de que la viéramos.
Lo grave es que tal afirmación es válida también para objetos macroscópicos. Por eso decía Einstein con sarcasmo "me gustaría tener la certeza de que la Luna existe antes y después de que yo la mire". Esta frase inspiró a Schrödinger la paradoja de su famoso gato en superposición cuántica.
El padre de la Ciencia Moderna, Galileo, afirmó que las teorías científicas deben aceptarse o rechazarse únicamente sobre las bases de pruebas experimentales, sean o no acordes con la intuición y el sentido común.
Newton acabó con la Cosmología medieval que consideraba dos mundos: el terrenal y el celestial; ambos se regían por leyes distintas. Sus leyes mecánicas servían tanto para la vida cotidiana como para los movimientos de los astros.
Los geólogos demostraron, basándose en la Mecánica Newtoniana, que la Tierra tiene más de los 6000 años preconizados por el arzobispo Usser.
Que al final desembocó en la Teoría de la Evolución de Darwin; el principio del fin de la religión.

Hubo muchos que preguntaron a Newton cómo era posible que la Fuerza Gravitatoria pudiese actuar entre los cuerpos a través del vacío, sin ningún tipo de contacto físico.
Respondió: "Hipotheses non fingo" (No elucubro sobre hipótesis).
Cuando Laplace presentó su magna obra "Exposition du système du Monde" a Napoleón, éste le reprochó amablemente "Me cuentan que ha escrito usted este gran libro sobre el sistema del universo sin haber mencionado ni una sola vez a su Creador". Laplace contestó: "Sire, nunca he necesitado esa hipótesis". Porque Newton sí que aludió a Dios para justificar el origen y equilibrio del Universo así como ciertas anomalías en las órbitas planetarias.
Anécdotas aparte, para Newton una teoría científica sólo necesitaba proporcionar predicciones sistemáticamente correctas.

Newton supuso un antes y un después en la historia de la Física.

"En Física ya no queda nada nuevo por descubrir. Todo lo que resta por hacer son mediciones más y más precisas", decía Lord Kelvin en 1894.

Newton opinaba que el Espacio estaba vacío, de lo contrario losplanetas sufrirían un gran rozamiento y una pérdida de velocidad. Por tanto, la luz no podía ser ondulatoria sino corpuscular. Asunto zanjado.
Pero a comienzos del XIX, Thomas Young lleva a cabo el experimento de la doble rendija, demostrando la existencia de un patrón de interferencia, ergo la luz era de naturaleza ondulatoria. Asunto zanjado.
Pero toda onda se desplaza en un medio ¿qué clase de fluido podría ser? A ese extraño fluido (que presentaba problemas por todos lados) se lle llamó "Éter".
Pero este Éter debía tener una características bien extrañas: Había de ser un fluido, para llenar el Espacio, pero a la vez debía poseer una rigidez millones de veces superior a la del acero para poder soportar las altas frecuencias de la luz, y por supuesto no poseer masa ni viscosidad para no frenar las órbitras de los astros, sin mencionar que sería completamente transparente y continuo. Resumiendo, era un elemento físicamente imposible.
Maxwell, basándose en el concepto de "campo" del gran Faraday, desarrolló sus cuatro (en principio eran ocho) magistrales ecuaciones, que abarcan todos los fenómenos eléctricos y magnéticos, demostrando que la luz es una onda electromagnética. Asunto zanjado.
Pero si era una onda volvíamos al problema del medio por el que se desplazaba, pleno de contradicciones.
A finales del s. XIX Michelson & Morley demuestran que la velocidad de la Luz no varía, independientemente del sentido en que se mida. Ergo no hay medio propagador.
Eso no podía ser. Salvemos el Éter.
Se lanzaron todo tipo de especulaciones, a cuál más descabellada Lorentz, Larmor, Voigt y sobretodo Poincaré, postulaban que tiempo y espacio se contraían y dilataban con la velocidad, pero la más osada de todas fue la de Einstein, defendiendo lo anterior y añadiendo que por eso la velocidad de la luz era una constante, idéntica para cualquier observador, independientemente de la velocidad que lleve.
Lo peor es que tenía razón.
Es imposible medir velocidades absolutas. Cualquier observador que se mueva a velocidad constante puede considerarse en reposo.
Pero esto ya lo dijo Galileo.

viernes, 15 de enero de 2021

EL IMPOSIBLE NÚCLEO DEL CARBONO

 


Los núcleos atómicos poseen distintos niveles de energía, difíciles de calcular.
Por ejemplo el Nitrógeno, que contiene 15 partículas, tiene un nivel de 2,4 (MeV), otro de 7,1, etc.
Lo verdaderamente notable de la Naturaleza es que el carácter del Universo entero  dependa, precisamente, de la posición de un nivel concreto. En el núcleo del Carbono 12 existe un nivel de 7,82 MeV. Y esto lo cambia todo.
La situación es la siguiente: Al principio era el Hidrógeno. Según los átomos de Hidrógeno van apelotonándose por efecto de la Gravedad, los núcleos se fusionan y surgen átomos de Helio.
Y aquí se acaba la historia. Pues cuando algunos átomos de Helio se fusionan con los de Hidrógeno, estos nuevos elementos se desintegran en Helio.
¿Por qué las estrellas sólo pueden fabricar Helio (y apenas media docena más de elementos)? ¿De dónde proviene el resto de los elementos químicos?
Fred Hoyle y Edwin Salpeter dieron una solución. Si se juntan 3 átomos de He, se puede formar un átomo de carbono, al menos en teoría. Se calculó la probabilidad de que esto sucediera y resulto ser prácticamente igual a CERO.
¡Salvo que el Carbono contuviera un nivel de energía de 7,82 MeV! Lo cual permitiría, no sólo la formación de Carbono, sino de que éste, a su vez, se transformara en otros elementos.
Y, efectivamente, se descubrió en laboratorio que tal nivel existía.
Ese nivel surge como un accidente complicadísimo, casi milagroso, producto de la interacción de las 12 partículas de su núcleo.
Y gracias a lo cual existen el resto de elementos de la Tabla Periódica.

La realidad es muchísimo más compleja de lo que podemos imaginar.

jueves, 14 de enero de 2021

LO GRANDE LO PEQUEÑO Y LA MENTE HUMANA (Roger Penrose)



 Empezamos con una especial característica que es exclusiva de la Relatividad General (por supuesto no está presente en la Teoría Newtoniana de la Gravedad), y dice así:

« Los objetos que están en órbita, uno al lado del otro, irradian energía en forma de ondas gravitatorias »

Tales ondas son similares a ondas electromagnéticas, aunque son ondulaciones en el Espacio-Tiempo en lugar de ser ondulaciones en el campo electromagnético.
Estas ondas absorben energía del sistema a un ritmo que puede ser exactamente calculado según la Teoría de la Relatividad.

Estamos hablando del sistema gravitacional, esto es, de la energía d equilibrio en la rotación entre inercia y gravedad.
Tal pérdida de energía ha podido ser medida en el sistema de estrellas de neutrones binarias durante 20 años, coincidiendo con la Ley de la Relatividad con una exactitud de ±(10 ̄ ¹⁴  ).

Segundo problema ¿Por qué el Universo evoluciona tal como lo hace?

RESPUESTA: Porque, siempre, la entropía aumenta (2ª Ley de la Termodinámica)

Exactamente... ¿Qué es la Entropía?
Antes tendremos que hablar del "Espacio de Fases". Un Espacio de Fases es un espacio de un enorme número de dimensiones, y cada punto de ese espacio multidimensional describe las posiciones y los momentos de TODAS las partículas que constituyen el sistema en consideración. A medida que se mueven las partículas, el sistema evoluciona mostrándose más y más "desordenado".
Y parece que hemos vuelto al punto de partida.
¿Qué queremos decir con la palabra "desorden"? Pues, para expresarlo de modo matemático (que es como mejor se expresa la realidad), significa tomar todos los estados que yacen en esa región del  Espacio de Fases, se amontonan, consideramos el volumen de dicha región del Espacio de Fases, se toma el logaritmo del volumen, lo multiplicamos por la Constante de Boltzman (1.380649 x 10-23 Jul . K-1) et... Voilà!
Eso es el desorden o entropía (S): S= K ln W.
En el terreno lingüístico, en realidad la Entropía puede considerarse como la tendencia al "orden", de un sistema, o, lo que es lo mismo, la distribución azarosa de todos los puntos del Sistema.

Curiosamente, si conocemos el estado inicial de un sistema, podremos saber cómo va a evolucionar, pero no al revés, es decir, conocido el estado final de un sistema no podemos seguir la secuencia inversa.
Por eso mismo es bien extraño cómo se originó el Universo.
A medida que retrocedemos en el tiempo, la entropía se hace cada vez menor, hasta que finalmente terminamos en la Gran Explosión (desafortunado término, pues no hubo ninguna explosión al modo pirotécnico).
Una idea comúnmente aceptada es la del Universo Inflacionario. Se supone que una tremenda expansión tuvo lugar cuando el Universo tenía sólo 10ˉ³⁶ segundos.
La expansión fue de un factor de magnitud enorme: 10⁶º .
El universo, que tenía un tamaño muy inferior al de un protón pasó a tener el volumen de un pomelo.
El tirón producido provocó una homogénea isotropía que lo hizo plano... Algo así como el que estira la sábana de la cama quitando las arrugas.
Aunque el símil es falaz. Lo que cabría esperar en ese estado inicial, si fuera escogido al azar, es una horrible mezcolanza, y si se expande esta mezcolanza en ese factor tan enorme, la mezcolanza sería colosalmente caótica.
¿Cuál es la probabilidad de que, puramente por azar, el Universo tuviera una singularidad inicial que permitiera una evolución como la actual?
Pues sencillamente monstruosa10 ^ (10¹²³)
¿De dónde procede esta estimación?
Se deriva de una fórmula de Jacob Beckenstein y Stephen Hawking, relativa a la entropía de los agujeros negros.

miércoles, 13 de enero de 2021

APROXIMACIÓN A LA TEORÍA DE CUERDAS


 La Teoría de Cuerdas predice que el Universo ocupa al azar un "valle" de entre una colección casi infinita (10⁵ºº para ser precisos) de hondonadas en un inmenso paisaje de posibilidades.
Según la Relatividad General, la Gravedad equivale a la Geometría del Espacio-Tiempo. Cualquier cuerpo dotado de masa deja una huella en la conformación de éste, curvando el Espacio y ralentizando el Tiempo.

NOTA.- Por eso en el interior de un agujero negro nada puede escapar ni el Tiempo puede transcurrir.

Visto lo acertado que fue reemplazar la Fuerza Gravitatoria por la dinámica del Espacio y el Tiempo ¿Por qué no buscar una explicación geométrica para las demás fuerzas de la Naturaleza, incluidas las partículas elementales?
En esa búsqueda se empeñó Einstein gran parte de su vida. Puso gran atención a los trabajos del alemán Theodor Kaluza y del sueco Oskar Klein.
Mientras la gravedad refleja la forma de las cuatro dimensiones espacio-temporales que nos resultan familiares, el electromagnetismo, sostenían estos dos grandes físicos, resulta de la geometría de una quinta dimensión adicional que, lamentablemente no se había detectado (y que sigue sin dar señales de vida).
La concepción de Kaluza-Klein ha sido desenterrada y ampliada por la física actual, incorporándola a la Teoría de Cuerdas.
Antes de seguir diremos que, en realidad, no es una teoría sino varias, cinco como mínimo. Y que no es una teoría sino una hipótesis.
Kaluza y Klein propusieron postularon la existencia de esta quinta dimensión, a principios del s. XX, cuando sólo se conocían 2 fuerzas elementales: electromagnetismo y gravedad.
Ambas decaen proporcionalmente al cuadrado de la distancia de su fuente; resultaba tentador imaginar que estaban relacionadas.
Tal relación podría ser cierta de existir una quinta dimensión.
La Relatividad General describiría entonces la geometría de un espacio-tiempo de 5 dimensiones.
Se pueden distinguir en esta geometría 3 elementos:

- La forma de las 4 dimensiones grandes del espacio-tiempo
- El ángulo entre la 5ª dimensión y la otra.
- La circunferencia de la 5ª dimensión

(El espacio-tiempo grande se comporta según la Relatividad General Clásica).

En cada uno de sus puntos el ángulo y la circunferencia poseen determinado valor, como dos campos definidos en Espacio-Tiempo que tomen ciertos valores en cada punto.
Sorprendentemente, el campo del ángulo reproduce un campo electromagnético que vive en el mundo de cuatro dimensiones. Dicho de otra manera, las ecuaciones que gobiernan su comportamiento son idénticas a las del electromagnetismo.
La "circunferencia" determina las intensidades relativas de las fuerzas electromagnéticas y gravitatorias.
Así pues de una teoría de sólo la gravedad en 5 dimensiones se obtiene una teoría, tanto de la gravedad como del electromagnetismo, en cuatro.
En la Teoría de Cuerdas las partículas son en realidad objetos unidimensionales, pequeñas hebras o anillos en vibración.
El tamaño típico de una cuerda es del orden de la longitud de Planck, 10^-35 m.
Para que las ecuaciones de la Teoría sean matemáticamente coherentes, la cuerda ha de vibrar en 10 dimensiones, o sea, las cuatro conocidas más seis adicionales, demasiado pequeñas éstas para que se las detecte (jejé, el viejo truco...)
Además de las cuerdas puede haber en el Espacio-Tiempo más láminas de varias dimensiones conocidas como "branas", amén de otras muchas de variada complejidad.
Pero en esencia la Teoría de Cuerdas retiene la noción principal de la Hipótesis de Kaluza-Klein: las leyes físicas que vemos dependen de la geometría de dimensiones adicionales ocultas.
Cuantas más dimensiones, mayores posibilidades existen para que surjan distintas topologías y cada topología es una nueva estructura geométrica con sorprendentes propiedades.
Sin embargo, las soluciones de esta vasta colección no son equivalentes: cada configuración tiene una energía potencial, determinada por los flujos, las branas y la curvatura misma de las dimensiones enroscadas: Es la famosa Energía de Vacío, la energía del Espacio-Tiempo cuando las cuatro dimensiones grandes carecen por completo de materia-energía o de campos. La geometría de las dimensiones pequeñas intentará acomodarse para minimizar esta energía, al igual que una bola colocada en lo alto de una pendiente rodará hasta una posición más baja.
La cantidad de la energía dependerá del tamaño total del espacio oculto.
Calcular la Energía de Vacío es un problema difícil, y en la Teoría de Cuerdas hay muchísimos espacios, gran parte de ellos inviables.
Se calcula que puede haber 10⁵⁰⁰ configuraciones matemáticas posibles, de las cuales sólo 10¹⁵⁰ serían posibles; y por supuesto cada una de ellas con su cantidad y tipo de partículas determinadas, y lo mismo respecto de fuerzas presentes y leyes fundamentales.
Así pues, cada vacío estable se caracteriza por su número de asas, branas y cuantos de flujo. Pero debemos tener en cuenta que cada uno de estos elementos se puede crear y destruir de modo que tras períodos de estabilidad el mundo puede saltar a otra configuración  diferente.
Es lo que tiene la Mecánica Cuántica, que espacios vacíos, inviables, pueden llegar a desarrollar sistemas de "realidad".
Realmente, de los 10⁵⁰⁰ "vacíos", la gran mayoría no logran sus 15' de gloria.
Pero hemos pasado por alto una parte clave de esta historia: El efecto de la Energía de Vacío en la evolución seguida por el Universo. Los objetos ordinarios -estrellas, galaxias, nebulosas, agujeros negros...-tienden a frenar el Universo en expansión, debido a la clásica Ley de Gravitación de Newton. Una energía de Vacío positiva, sin embargo, actuaría a modo de anti-gravedad.
Según la Ecuación de Einstein, dicha Energía ocasionaría una aceleración inflacionaria de las tres dimensiones espaciales.
Esta rápida expansión tiene un importante y sorprendente efecto cuando las dimensiones ocultas saltan a una nueva configuración.
Y es que el Universo entero es, en realidad, una espuma de burbujas que surgen espontáneamente del vacío y se expanden. Pero cada burbuja alberga nuevas burbujas que surgen en su interior y se expanden. Este proceso se prolonga hasta el infinito.
Cada burbuja cuenta con sus propias constantes y leyes físicas. De entre ellas son poquísimas las apropiadas para la formación de estructuras complejas como las galaxias y la vida. Nuestro Universo, de 50 mil millones de años luz de radio, es una pequeña región de una de esas burbujas.
Ya hemos dicho que en principio podrían existir 10⁵⁰⁰ burbujas.
En nuestro esquema, lo que tomamos por la Gran Explosión que originó el Universo no es sino el salto más reciente a una nueva configuración de cuerdas en este lugar, que se ha dilatado ya hasta contar con 13.790 millones de años de antigüedad y 10¹¹ a.l. de diámetro.
Algún día de éstos -probable y afortunadamente demasiado lejano como para inquietarse- esta parte del Universo Mundo experimente una transformación cuántica que lo haga desaparecer.

El esquema que hemos expuesto explica cómo llegan a existir los diferente vacíos estables del paisaje de las cuerdas en diversos lugares del Universo, con la consiguiente formación de innumerables sub-universos.
Este resultado puede resolver uno de los problemas más importantes y pertinaces de la Física Teórica, relacionado, precisamente con la Energía de Vacío.
Para Einstein lo que ahora imaginamos como Energía de Vacío era un término matemático arbitrario -una "constante cosmológica", como la Gravitación Universal- que se podía añadir a su Ecuación de la Relatividad General para que concordase con su convicción (imperante en ese momento) de que el Universo es estático.
El resto de la historia ya la conocemos. Con el santo advenimiento de la Teoría Cuántica de Campos, el Espacio vacío -o "Vacío", sin más- se convirtió en un concurrido lugar de partículas virtuales y campos de todo pelaje brotando y desapareciendo sin cesar, poseyendo de paso cada partícula y cada campo (valga la redundancia, pues toda partícula viene a ser "la excitación de un campo" o, dicho de modo matemático, "una representación irreductible del Grupo de Poincaré") una energía asociada que podría ser positiva o negativa. Según los cálculos más simples basados en esta Teoría, esas energías sumadas alcanzarían la densidad de 10⁹⁴ grs/cm³.
O sea, toda la materia del Universo condensada en 1cm³.
En realidad, la Energía de Vacío tiene un valor cercano a cero, para ser exactos es menor de 10­­ˉ¹²º ΛpΛp es la masa de Planck por cada longitud cúbica de Planck), dicho valor es ideal para albergar universos viables ¿Por qué nuestro Universo tiene ese valor?
Probablemente por una lógica ley antrópica.

martes, 12 de enero de 2021

EINSTEIN: Relatividad General y Constante Cosmológica


 En 1917, Albert Einstein tenía que conciliar su nueva teoría de la gravedad (la Relatividad General) con los limitados conocimientos de que se disponía en aquel momento acerca del Universo. Él, como la mayoría de sus contemporáneos, estaba convencido de que el Universo debía ser estático. Pero tal estado no era compatible con sus ecuaciones de la Gravedad.
En una huida hacia delante agregó a sus ecuaciones una entidad ad hoc, un término cosmológico (la "Constante Cosmológica") que compensaba la gravedad y permitía una solución estática.
Pero doce años más tarde, Edwin Hubble descubrió que las galaxias se alejan entre sí a una velocidad proporcional a su lejanía.
Einstein le confesó a George Gamow que la introducción de la Constante cosmológica había sido "el mayor disparate de su vida".
Sin embargo, a finales del s. XX se comenzó a reivindicar dicha Constante al descubrir que el Universo se expande de un modo acelerado contra toda lógica. Y además ello obedece a principios de la Mecánica Cuántica.

La Relatividad General nace de un gedanken donde Einstein llegaba a la conclusión de que gravedad y aceleración producen idéntico efecto. Einstein recibió un influjo poderoso de el gran Ernst Mach. Rechazaba éste la idea de un sistema de referencia absoluto para el Espacio-Tiempo.
En la Física Newtoniana, la inercia refleja la tendencia de un objeto a moverse con velocidad constante a menos que se halle condicionado por una fuerza.
La noción de velocidad constante requiere un sistema de referencia inercial, no acelerado. Ahora bien, no acelerado ¿con respecto a qué?
Newton postuló la existencia del Espacio Absoluto, un sistema de referencia inmóvil que definía todos los sistemas inerciales locales.
Para Mach, en cambio, la distribución de materia en el Universo definía todos los sistemas inerciales.
Einstein buscó una solución finita, estática y compatible con los principios de Mach (Mach postulaba la necesidad de materia para definir el Espacio). La Constante Cosmológica producía una repulsión cósmica que compensaba la atracción gravitatoria. Así, el Universo se curvaba sobre sí mismo como la superficie de un balón, y se mantenía en equilibrio, precario, pero equilibrio a fin de cuentas. Problema resuelto.

Poco duró la alegría.
Willem de Sitter demostró que, a pesar del Término Cosmológico, el Universo de Einstein no tenía materia.
Alexander Friedman construyó modelos en expansión y contracción sin el susodicho Término mágico. Y Arthur Eddington, el más devoto fan de Einstein, demostró que el universo einsteniano poseía un equilibrio tan extremadamente precario que la más mínima perturbación lo llevaría al colapso gravitatorio.
Por eso fue un alivio la llegada del Universo expansivo de Hubble (1931). Y la Constante Cosmológica quedó barrida bajo la alfombra.
Pero sesenta años más tarde la Constante Cosmológica resurgió de sus cenizas, pues era inevitable su presencia.

En su actual conformación no deriva de la Relatividad sino ¡Oh paradoja! de la Mecánica Cuántica.
La ecuación de campo original, enunciada por Einstein: "Gμν = 8πGTμν"  relaciona la curvatura del Espacio "Gμν", con la distribución de materia y energía "Tμν" , donde "G" es la Constante de Newton que caracteriza la intensidad de la Gravedad.
Cuando Einstein añadió el Término Cosmológico, lo puso en el lado izquierdo de la ecuación, coo si fuese una propiedad del Espacio. Pero si lo trasladamos al lado derecho, entonces adquiere un sentido radicalmente nuevo, el que tiene hoy día: Una nueva y extraña forma de energía que permanece constante, incluso cuando el Universo  se expande, y cuya gravedad no es atractiva sino repulsiva.
La Invarianza de Lorentz -la simetría fundamental asociada con la Teoría de la Relatividad,  tanto Especial como General- dicta que sólo el Espacio Vacío puede alcanzar tal clase de densidad de energía.
Pero vayamos por partes.
En primer lugar ¿Qué magnitud puede tener Energía de Vacío? Pues, con los experimentos llevados a cabo hasta la fecha, podemos afirmar que entre 55 y 120 órdenes de magnitud superior a la energía de toda la materia y radiación de todo el Universo observable.
Si esto fuera cierto, la materia del Universo se dispersaría al instante ¿Entonces?
Antes de seguir analicemos el significado de "Término Cosmológico" (o Variable Cosmológica).
El núcleo de la Teoría de la Relatividad General de Einstein es la "ecuación de campo", según la cual, la geometría del Espacio-Tiempo(Gμν, el Tensor de Curvatura) está determinado por la distribución de materia y energía ( Tμν, el Tensor Energía-Momento), donde G es la Constante de Newton que caracteriza la intensidad de la Gravedad.

NOTA.- Recordemos que un "tensor" es una entidad geométrica o física que se puede representar por medio de números.

O sea, el Espacio se curva en función de la cantidad de Materia-Energía: Gμν = 8πGTμν.

Einstein introdujo el término cosmológico " Λ " para que se compensase la atracción de la gravedad a escalas cósmicas. Se obtenía así un universo estático. Añadió el término (multiplicado por gμν, el tensor métrico que define las distancias) al lado izquierdo de la ecuación de campo; daba así a entender que era una propiedad del Espacio:
Gμν + Λ gμν = 8πGTμν

Pero abandonó el Término al constatar que el Universo se expande.

El nuevo Término Cosmológico que hoy se investiga es una consecuencia de la Teoría Cuántica, que indica que el Espacio Vacío puede poseer una densidad de Energía. Este Término: ρVAC (la densidad de la Energía de Vacío), multiplicada por gμν, debe ir al lado derecho de la ecuación, con las otras formas de energía.

Gμν = 8πG (Tμν ρVAC gμν)

Aunque matemáticamente equivalentes, el Término cosmológico de Einstein y la Energía de Vacío  divergen en su significación conceptual; aquél constituye una propiedad del Espacio, ésta es una forma de energía ligada a los pares virtuales partícula-antipartícula.
La Teoría Cuántica mantiene que dichas partículas virtuales surgen sin cesar del Vacío, existen durante un brevísimo intervalo y desaparecen.

NOTA.- El Término Cosmológico de Einstein iba a la izquierda para equilibrar la fuerza expansiva del término derecho, y de esta forma obtener un Universo estático. Una vez que se supo era dinámico, no hacía falta tal aderezo.
Pero hoy día sabemos que el Universo se expande de modo acelerado con una intensidad muy superior a la que sugiere  8πGTμν, por tanto hemos de añadir ahí un factor de fuerza adicional ( ρVAC gμν )

Volvamos a la Energía de Vacío ¿Por qué no se le dio importancia a la disparidad entre su enorme magnitud teórica y el nulo efecto en la realidad? Porque en todas las áreas de la Física, con excepción de la Gravedad, carece de interés la energía absoluta de un sistema, sólo importan las diferencias de energía entre los estados (v.g. en términos eléctricos, en tanto no haya una diferencia de potencial, la energía del sistema es cero).
Pero la Relatividad General establece que todas las formas de energía, incluida la Energía de Vacío, actúan como una fuente de Gravedad.
Fue en los años sesenta cuando empieza a abordarse el problema, y pronto se ve que nada encaja.
Recordemos que Hubble descubrió que las velocidades relativas de las galaxias remotas eran proporcionales a la distancia de nuestra Galaxia.
Desde el punto de vista de la Relatividad General, esta correlación se debe a la expansión del propio Espacio, que ha de frenarse con el tiempo en virtud de la atracción gravitatoria.
Y como las galaxias remotas se ven como eran hace miles de millones de años, el frenado de la expansión ha de curvar la relación de Hubble (lineal en los demás aspectos). O sea la recesión de las galaxias más distantes ha de ser más veloz que lo predicho por la Ley de Hubble.

A comienzos de 1998 se hace un descubrimiento sorprendente: Durante los últimos cinco mil millones de años, la expansión se ha ido ¡ACELERANDO! En lugar de frenarse como sería lo más lógico.
Sabemos que el Universo es plano, ni esférico ni silla de montar.

Una geometría espacialmente plana obliga a que la densidad media del universo sea igual a la densidad crítica.

Y sabemos que toda la materia del Universo no suma más del 25% de toda la Densidad Critica, o sea de toda la Materia-Energía real; siendo el 5% materia normal y el 20% Materia Oscura.
¿Dónde está el 75% restante? La Energía de Vacío podría ser el candidato perfecto, pero al rompecabezas le faltan todavía demasiadas piezas. Empezando por explicar por qué la Energía de Vacío no es cero, aunque sí tan pequeña como para que sus efectos en el cosmos cuenten sólo desde hace algunos miles de millones de años.

Y aquí tenemos que hablar de la "Teoría M".
La teoría M es una teoría física, propuesta como una "teoría del todo", que unifica las cuatro fuerzas fundamentales de la naturaleza, o dicho de otro modo, unificaría las Mecánica Cuántica y la Relatividad. La teoría M fue esbozada inicialmente por Edward Witten, su propuesta combinaba las cinco teorías de supercuerdas y supergravedad en once dimensiones. 
Tiene en la Supersimetria (SUSY) uno de sus principios básicos. La cuál consiste en una simetría entre las partículas de espín semi-entero (fermiones) y las de espín entero (bosones).
En ese mundo supersimétrico, una partícula y su "supercompañera" poseerían la misma masa; por ejemplo, el electrón supersimétrico (selectrón) tendría una masa de 0,510 998 950 00(15) MeV/c, como el electrón, y así sucesivamente.
Se puede demostrar que en ese "supermundo", la nada cuántica no pesaría y el vacío tendría energía cero.
Sin embargo sabemos que en el mundo real no puede existir un selectrón tan ligero como el electrón, se habría detectado en los aceleradores de partículas.
Se conjetura que las partículas super-compañeras son millones de veces más pesadas que los electrones; por eso no pueden hallarse sin aceleradores potentísimos.
Por tanto, SUSY, debe ser una simetría rotas: el vacío cuántico podría pesar un poco.
Pero también cabe la posibilidad de que la explicación de la aceleración cósmica nada tenga que ver con que el Término Cosmológico sea tan pequeño o con que deba incluir la M.C.
La Relatividad General estipula que la gravedad de un objeto es proporcional a su densidad de energía más tres veces su presión interna (!)
Cualquier forma de energía con una presión grande y negativa tendrá, por tanto, una gravedad repulsiva
La aceleración cósmica podría revelar, lisa y llanamente, la existencia de Energía Oscura.
Y esta singular forma de energía no está prevista ni por la Mecánica Cuántica ni por la Teoría de Cuerdas.

lunes, 11 de enero de 2021

LOS "QUANTA" DE EINSTEIN (Primeras andaduras hacia el Premio Nobel)

 


Entre 1902 y 1904, Einstein publicó tres artículos en los que exponía una formulación genuina de la Mecánica Estadística, en la línea de Ludwig Boltzmann.

Un sutil razonamiento permite a Einstein dar con el sistema buscado: la radiación emitida por un Cuerpo Negro en equilibrio a cierta temperatura.

Hasta 1899, los datos experimentales obtenidos en el análisis de la Naturaleza y las propiedades de la emisión y absorción de la luz por un cuerpo negro eran acordes con la Ley de Wien, propuesta 3 años antes.

Pero en otoño de 1900, los experimentos realizados por Heinrich Rubens y Ferdinand Kurlbanm en Berlín con longitudes de onda más largas pusieron de manifiesto que no existía tal concordancia.

En unos días, Max Planck encontró una nueva fórmula que encajaba con todos los resultados experimentales obtenidos hasta la fecha.

Según esta nueva fórmula, el Cuerpo Negro emitía o absorbía radiación como si dicha radiación estuviese formada por partículas cargadas eléctricamente en permanente oscilación. En realidad Planck creía que eso era una característica del Cuerpo Negro, una especie de artificio matemático.

El tratamiento clásico de estos osciladores era incompatible con la Ley de Planck. O sea, su fórmula funcionaba en la práctica pero no en la teoría.

Es así como Planck, "en un acto de desesperación" (según sus propias palabras) decide aplicar los métodos estadísticos de Boltzmann al problema de la radiación. Método que no le gustaba en absoluto, pues implicaba el carácter probabilístico de las leyes de la Termodinámica, cuando él consideraba que las leyes de la Física deberían tener un carácter absoluto.
Para colmo, el resultado fue extrañísimo: Los osciladores planckianos de frecuencia ν no podían absorber y emitir cualquier cantidad de energía, como cabría esperar según los trabajos clásicos, sino sólo cantidades múltiplo de una unidad elemental -quantum- de valor E= h ν.

Poco después, Einstein publica « Über emem die Erzeugung und Verwandlung des Lichtes betreffenden heugristichen Gesishtspunk » (Sobre un punto de vista heurístico acerca de la creación y la transformación de la luz), donde postula que la emisón de la energía en quantos no es una característica del Cuerpo Negro, sino de la propia energía electromagnética:

« Cuando un rayo de luz emerge desde un punto, la energía no está continuamente distribuida sobre un espacio cada vez mayor, sino que consiste en un número finito de quanta d energía que están localizados en puntos del espacio, que se mueven sin dividirse, y  que sólo pueden ser absorbidos o producidos como un todo ».

La línea del razonamiento de Einstein fue la siguiente:

-Primero obtuvo la variación de la entropía de un gas ideal como consecuencia de una transformación reversible de su volumen, manteniendo constante la temperatura.
-Después repitió el cálculo para el mismo proceso, pero ahora con radiación en lugar de gas, y suponiendo válida la Ley de Wien, antes mencionada.

La analogía formal entre ambos problemas y la comparación entre los respectivos resultados permitió a Einstein llegar a una conclusión transcendente.

« La radiación monocromática de baja intensidad (dentro del rango de validez de la fórmula de Wien) se comporta desde el punto de vista de la teoría del calor como si estuviese constituida por quanta de energía, independientes unos de otros, de magnitud "" »

De esta cuantización de la energía luminosa extraía Einstein el fundamento que explicaba el fenómeno fotoeléctrico.

Sin embargo para Planck y sus colegas del club de los dinosaurios la emisión cuántica de la energía no dejaba de ser sino una extraña propiedad que sólo afectaba a ciertos osciladores, aceptar los postulados de Einstein suponía socavar los principios de la Teoría del Campo Electromagnético, formulada más de 30 años atrás por James Clerk Maxwell.
Menos mal que genios como Pauli apoyaban sin reservas la teoría einsteniana.

En 1916. Einstein, aplicando la "Navaja de Ockham" (Pluralitas non est ponenda sine necessitate), eliminó todo vestigio de los osciladores planckianos para pasar a entender la materia como un agregado de moléculas que sólo pueden existir en un conjunto discreto de estados energéticos. Las transiciones entre éstos eran la causa de la emisión y absorción de radiación por la materia. Todo muy en la línea del modelo de Bohr.
Desde esta perspectiva, Einstein logró deducir la Ley de Planck y también que la unidad para el intercambio de energía entre la molécula y la radiación monocromática de frecuencia ν habría de venir dada por el producto . También se obtenía la ya muy obsoleta
Ley de Wien.
Y lo más asombroso es que todo esto lo dedujo de un "gedanken", no necesitó un complejo laboratorio como Planck.

Pero aún hay más, analizando ciertas fluctuaciones en su experimento mental, Einstein llega a la conclusión de que el gas y la radiación no sólo intercambian energía sino también cantidad de movimiento en una dirección determinada.

Es el momento en que los viejos e imprecisos quanta de radiación, simples unidades de intercambio de energía, adquieren el status de auténticas partículas, más adelante llamadas fotones.

La interacción materia-radiación pasa a explicarse en términos de intercambio de fotones, y cada fotón, como cualquier partícula, tiene una energía y una cantidad de movimiento determinados.
La llegada del fotón, introducido por Einstein en 1916, trajo más problemas que soluciones, pues ponía en tela de juicio una teoría tan consolidada como la del electromagnetismo de Maxwell. Y supuso la oposición radical del club de los dinosaurios.
En 1923 se operó un cambio substancial como consecuencia de la explicación teórica del Efecto Compton a partir de la aplicación conjunta de la Teoría de la Relatividad y de la Teoría Cuántica al choque elástico entre un fotón y un electrón libre.
Recordemos que el efecto Compton consiste en el cambio de frecuencia de un fotón de rayos X tras colisionar con un electrón atómico débilmente ligado.
Aún así, Bohr y otros afamados físicos seguían empeñados en negar la realidad del fotón.
Por fin, en 1925, Walther Bothe y Hans Geiger demostraron experimentalmente cuán equivocado andaba Bohr y lo acertado que estaba D. Alberto.

En la primavera de 1924, un joven profesor bengalí, Nathan Bose, envió a Einstein un magnífico trabajo para que el genio de Ulm lo avalase: "La Ley de Planck y la hipótesis de los quanta de luz".
Einstein accedió impresionado por la calidad del mismo.
En esencia, la idea de Bose consistía en tratar los fotones como partículas "indistinguibles", contra la tradicional distinguibilidad de las moléculas, por ejemplo, que era como las consideraba la Estadística Clásica de Boltzman.
Esta fue la genialidad de Bose. A la hora de calcular el número de los repartos de fotones entre posibles estados, bose lo hacía como si, por ejemplo, estuviese distribuyendo monedas de un euro entre personas: las monedas son indistinguibles a todos los efectos, pues sólo interesa la cantidad asignada.
Bose no se dio cuenta de que acababa de establecer las bases de la nueva Mecánica Estadística, herramienta fundamental que permitió desarrollar hasta sus últimas consecuencias la Mecánica Cuántica.
Pero Einstein era un físico estadístico consumado, e inmediatamente percibió las implicaciones del trabajo de Bose. Si tratando a los fotones como indistinguibles, éste había obtenido una fórmula (la de Planck) de la Teoría Cuántica de la Radiación, Einstein pensó en volver a la analogía que ya había explotado en 1905 entre gas y radiación, sólo que ahora en sentido contrario.
Es así como logró elaborar la Teoría Cuántica de los gases, largamente anhelada como posible solución a problemas pendientes ligados con ciertos comportamientos termodinámicos a muy bajas temperaturas.
Y de este modo nació la Mecánica Estadística de Bose-Einstein. La cual predecía un extraño fenómeno que posteriormente sería bautizado como "Condensado de Bose-Einstein", y que consistía en que a una temperatura cercana al cero absoluto, los átomos se comportaban como una sola partícula.
Otra consecuencia de esta nueva estadística fue la división de las partículas en bosones (tienen espín entero: 0, 1... etc.) y fermiones (de espín semi-entero: 1/2, 3/2, 5/2...). Las características de los bosones fueron predichas por la Estadística de Bose Einstein, mientras que los fermiones obedecían a la Mecánica Estadística de Fermi-Dirac.
Pero no había hecho más que empezar. Considerar a las moléculas como indistinguibles suponía que debían ser consideradas como ondas. Y así lo defendía también Louis De Broglie.
Schrödinger tomó el testigo de Einstein y De Broglie, como él mismo reconoció, y formuló su Mecánica Ondulatoria a comienzos de 1926, proporcionando una base para abordar de forma sistemática los problemas asociados con el comportamiento ondulatorio de la materia.
Aunque el nuevo formalismo de Schrödinger fue muy bien acogido por Einstein, la alegría sólo duró una semana. El motivo fue la introducción por Born de la interpretación probabilística de la Función de Onda.
Y a partir de aquí, Einstein comienza a abominar de la Mecánica Cuántica. Es famosa la carta que le escribe a Born:

« La Mecánica Cuántica es ciertamente impresionante. Pero una voz interior me dice que no constituye aún la última palabra. La Teoría explica muchas cosas, pero realmente no nos acerca más al secreto de "El Viejo". Yo, en cualquier caso, estoy convencido de que Él no juega a los dados »
Niels Bohr, le respondió: “Einstein, deja de decirle a Dios lo que ha de hacer con sus dados.”
Einstein se negaba a aceptar que Dios es un ludópata empedernido.

Disgustado como estaba, se negó a aceptar la invitación de Lorentz para que presidiera en 1927 el mítico "V Congreso de Solvay", y se limitó a asistir como un ponente más, aunque las malas lenguas afirman que declinó la invitación porque era un vago redomado.
En este Congreso se exhibieron todas las grandes aportaciones habidas hasta la fecha, siendo especialmente fructíferas y revolucionarias las de los dos últimos años.

La Pléyade de genios fue espectacular:


© Fuente de la imagen (https://thebigbangphysics.es/conferencia-de-solvay-1927-parte-1/#[2]) Personalizada por Amador Martínez.

Fue aquí donde comenzó un largo y fructífero debate entre Bohr y Einstein en torno a la correcta interpretación del formalismo cuántico.
Un debate entre dos posiciones irreconciliables: el "realismo" (y localismo) preconizado por Einstein,  frente a la ortodoxa "Escuela de Copenhague", encabezada por Niels Bohr.
Hasta el final de sus días, Einstein intentó, sin éxito, una nueva teoría acorde con sus premisas.

SIDNEY HARRIS

SISTEMA SOLAR

UNIVERSO MUNDO