Now Playing Tracks

#009. ATOMISMO: AYER Y HOY.

Ortega y Gasset dijo (1964):

”(…)El físico sabe muy bien que lo que dice su teoría no lo hay en la realidad(…).El hombre de la calle trabaja sobre el plano real y describe fenómenos reales (aquellos que afectan directamente nuestra experiencia sensible o mesocosmos) mientras que el científico trabaja en un plano ideal donde describe los fenómenos físicos y científicos (relativos al microcosmos y macrocosmos) que tienen una correspondencia mucho menos estrecha con el mundo experiencial que conocemos. (…) El punto matemático, el triángulo geométrico, el átomo físico, no poseerían las exactas cualidades que poseen si no fuesen meras construcciones mentales (…)”

NO comparto la totalidad de la frase pero el mundo de la subestructura atómica está más allá de la descripción común de nuestra experiencia sensible. En Sumeria, Mesopotamia, alrededor del año 3500 a.C., se empezó a registrar la observación del mundo con datos cuantitativos y numéricos. Nunca antes de esa fecha se había hecho (tal vez en China y la India, pero de forma menos rigurosa).

Las culturas mesopotámicas aportaron grandes datos sobre la Astronomía, las sustancias químicas conocidas y las medicinas. Los babilónicos conocían, al menos rudimentariamente, el teorema de Pitágoras, resolvían ecuaciones y desarrollaron el sistema sexagesimal. Pero sus observaciones y medidas aparentemente fueron tomadas con propósitos concretos más que como leyes científicas. El teorema de Pitágoras, por ejemplo, fue registrado aparentemente en el siglo XVIII a.C por el registro de ciertas ternas pitagóricas, por no era un formulación abstracta del teorema que luego formalizarían los griegos. 

Los avances significativos en el Antiguo Egipto tienen que ver principalmente con la Astronomía, las Matemáticas, y la Medicina. Su geometría era una consecuencia necesaria de la topografía, con el fin de intentar conservar la disposición y la propiedad de las tierras inundadas cada año por el Nilo o calcular por ejemplo el volumen de una parte de la pirámide.

La ciencia como la conocemos hoy, viene en gran medida de la cultura helénica. Fue la civilización griega la primera que se planteó una descripción de la naturaleza que no estuviera totalmente condicionada a la actuación de los seres sobrenaturales (germen del hoy llamado principio de causalidad en Física). Los griegos proponen ideas y que las coas cosas del mundo están ordenadas según ciertas leyes o regularidades. El mundo es un cosmos, no un caos (aunque cosmos y caos comparten como vocable origen común, y también en Cosmogonía). El comportamiento del Cosmos puede ser aprehendido si descubrimos las leyes por medio de la razón. Los griegos aportan filosofía y física, y la existencia de los elementos primeros que sigue estando de actualidad aunque a un nivel mayor que la que ellos posiblemente imaginaron. Son ellos pues los padres intelectuales de la Física y Química modernas.

El concepto de átomo existe desde la antigua Grecia (Leucipo, Demócrito, Epicuro), y también el del principio fundamental o “arjé” que los físicos se afanan siempre por descubrir. La necesidad filosófica de explicar la realidad les lleva a plantearse si la materia es infinitamente divisible o existen partículas que ya no pueden dividirse en partes más pequeñas. Estas partículas son los átomos. Los átomos son indivisibles e indestructibles para los griegos, aunque hoy día lo que llamamos átomos desde el punto de vista químico sabemos que son divisibles y tienen microconstituyentes subatómicos: las partículas “elementales”. 

Entre los nombres y contribuidores principales a la teoría atómica original destacan:

-Thales (624a.C-548 a.C). Investigó las causas fundamentales de los fenómenos naturales. Estableció que la Naturaleza, a pesar de la gran variedad que presenta, puede ser comprendida con cuidado. Planteó que toda sustancia estaba formada por un principio único, que sostuvo era agua, porque podría presentarse como sólida, líquida o gas. Introdujo el modelo de que la Tierra era un disco plano que glotaba en el agua, el elemento universal. 

-Pitágoras(580-500a.C.). Todo es número para los pitagóricos. Desucbrió el teorema que lleva su nombre, las subdivisiones enteras y los armónicos de la cuerda como origen de los sonidos armoniosos. Eso le llevó a la idea de que la descripción natural debía hacerse siempre con números naturales. Los pitagóricos pensaban que los números estaban en la esencia de todas las cosas. Postularon que la tierra era esférica y que se movía alrededor de un fuego central (sol). La Tierra, el sol, la luna y los planetas giraban en torno a ese fuego primordial del que recibía su luz el sol. 

-Empédocles (490-430 a.C). Planteó que no podía haber un principio único del que todas las cosas estuvieran compuestas, ya que en la Naturaleza había propiedades contradictorias. Existen el frío y el calor, lo seco y lo húmedo. Como el agua es húmeda, según Empédocles no podía ser el principio único fundamental. Postuló también la teoría de los 4 (5) elementos fundamentales: juntando el agua de Tales, el fugo de Heráclito, el aire de Anaxímenes y la tierra de Jenófanes. Estos elementos tenían propiedades opuestas. Agua y Tierra sonpesados, Aire y Fuego son ligeros. Agua y aire son húmedos mientras que Fuego y Tierra son secos. Todas las sustancias conocidas estaban compuetas de estos elementos en diferentes proporciones. Siglos después se añadiría el éter (quinto elemento) o quintaesencia, que sin embargo ya era conocido o usado por la filosofía hindú y ciertas filosofías orientales y asiáticas. Por otra parte, los elementos se unían o separaba npor dos interacciones que pretenden explicar el movimiento (generación, corrupción y cambio) en el mundo: el amor (A) tiende a unir los elementos, el odio (O) tiende a la separación o ruptura de los elementos. La Naturaleza, con todas sus manifestaciones, surgía de un equilibrio o balance entre las interacciones de los elementos y explicaba así el cambio y permanencia/reciclado de los seres en este mundo. 

-Demócrito (460-370a.C.). Junto a su maestro Leucipo, es el fundador del atomismo moderno. Para Demócrito, la realidad estaba compuesta de dos causas o elementos: lo que es, representado por los átomos homogéneos e indestructibles, y lo que no es que estaba representado por “el vacío”. Este último es el elemento que permite la pluralidad de partículas diferenciadas y el espacio en el cual se mueven todas y la materia. Demócrito mantenía que los átomos eran indivisibles y se distinguían por tamaño, orden, y posición, poer compuestos por la misma substancia. Éstos eran los factores que determinaban las propiedades físicas del material. Por ejemplo, los átomos de un líquido sonlisos, lo que les permitiría deslizarse uno sobre otro. La distinciónpor peso atómico fue introducida por Epicuro tiempo después, ya que la gravedad se explicaba por un movimiento de rotación, que hacía qu elos átomos más grandes correspondientes a sustancias más pesadas, tendieran a irse hacia el centro de la Tierra, mientras qu elos más ligeros iban hacia fuera. Los átomos pueden ensamblarse pero no fusionarse y formar cuerpos. Los átomos de un cuerpo se separan cuando colisionan con otro conjunto de átomos. Los átomos estuvieron y estarán siempre en movimiento y son eternos. El movimiento de los átomos en el vacío es un rasgo único inherente de ellos, un hecho irreductible a su existencia. Son eternos e indestructibles son su principal propiedad. Cada objeto que surge en el Universo y cada suceso se produce, según los atomistas, por el resultado de la reacción entre átomos. El modelo atomista constituye un claro ejemplo de modelo materialista y reduccionista, dado que el azar, enfatizado por Epicuro, y las reacciones en cadena son las únicas formas de interpretarlo. Más adelante, para evitar el determinismo mecanicista, criticado por Aristóteles, Lucrecio tomó el pensamiento de Epicuro e introduce la tesis de que los átomos caen en el vacío también, y experimentan por sí mismos una declinación que les permite encontrarse. De esta forma se trata de imponer cierto orden a la idea original que suponía que los objetos se formaban con un movimiento caótico de átomos. Como curiosidad, Kanada, en el siglo II.a.de C., en Guyarat,India, postuló que la realidad estaba compuesta por 5 elementos básicos: tierra, aire, agua, fuego y éter. También como Demócrito, Kanada postula la idea de partículas mínimas de tierra (“anu”= minúsculo) y, curiosamente, también habla de partículas mínimas de tiempo (“kala anu”, unas 52.67 millonésimas de segundo en sus unidades). No habla sin embargo de los átomos del espacio. 

Aristóteles, 384-322 a.C., rechaza la idea atomista con el argumento de que el vacío subyacente entre partículas no puede existir. La materia está constituida por un “continuum” de materia, y no puede haber partes irreducibles indivisibles. En la obra “Física”, Aristóteles parte del concepto de sustancia inmutable y forma cambiante para describir el movimiento como un tipo de cambio. 

Aristóteles,describe el Universo con la Tierra esférica en su centro (modelo geocéntrico) y separa el Universo en parte terrrestre (por debajo de la órbita lunar) y parte celeste (situado por encima de la órbita lunar incluyendo ésta). El movimiento de los astros en la esfera celesta era inmutable y se describían en función de círculos, las figuras perfectas para los griegos. El movimiento en la Tierra se describía con líneas rectas. Dentro del movimiento terrestre, se distinguen movimientos naturales, tanto para los objetos pesados (agua y tierra), como para los objetos ligeros (aire y fuego), que caían en diferentes sentidos. Los movimientos requieren de una causa externa para Aristóteles, y eso generaba las velocidades. Aristóteles considera que los movimientos forzados requieren una causa que produzca el movimiento, de forma que cuando cesa la causa, cesa el movimiento. La velocidad era proporcional a la fuerza, e inversamente proporcional a la resistencia del medio. Por eso, Aristóteles no admitía la existencia del vacío, ni tampoco aceptaba la teoría atómica de Demócrito, porque implicaría una resistencia nula, aunque asumía plenamente la teoría de los cuatro elementos de Empédocles. 

Al requerir que los movimientos forzados tuvieran una causa motor para cada movimiento, el movimiento del motor, a su vez, debe estar causado por otro motor. De esta forma se llega a la última cuasa, el “Motor inmóvil” y origen de todo movimiento. Hoy día podríamos llamar al primer motor el Big Bang…

La Física de Aristóteles, junto a su teoría de los 4 elementos de Empédocles, constituyó el paradigma básico de la Ciencia durante más de un milenio, casi 2000 años de hecho. Basados en este paradigma:

-Arquímedes (s.III a.C.) realiza avances en hidrostática, estática y el principio de la palanca. Uno de los matemáticos más importantes de la antigüedad y de la Historia. Usó el método de exhausción para el cálculo de áreas y definió fórmulas para volúmenes de las superficies de revolución. También logró una buena aproximación del número pi. 

-Ptolomeo (s.II a.C.). Describió el movimiento celeste con gran precisión usando el modelo geocéntrico de Aristóteles. Catalogó muchas estrellas por brillo y magnitud, estableciendo criterios para predecir eclipses. Su aportación fundamental con su modelo geocéntrico se mantendría hasta la revolución del Renacimiento, porque añadiendo los epiciclos y deferentes se logró explicar el movimiento retrógrado de los planetas y su aumento aparente de brillo en dicho vaivén, así como la distinta duración de las revoluciones siderales. En óptica exploró las propiedades geométricas de la luz, la refracción y la reflexión.

El modelo atomista siguió sin embargo un camino paralelo,y tiempo después la ciencia de la Alquimia recuperó algunas de sus ideas, como la transmutación de las sustancias. Los alquimistas antiguos y medievales pretendían la transmutación de las sustancias variando la cantidad de los elementos que la formababan. Así el sueño era convertir plomo en oro añadiendo alguna proporción de aire, fuego, tierra y agua adecuada…

La Alquima es la precursora de la Química actual y otros ciencias modernas. Muchas de las sutancias, herramientas y procesos de la Alquimia se usaron como pilares para el establecimiento de la Química y la Metalurgia. Hata el siglo XVII, sin embargo, la Alquimia era considerada una ciencia seria en Europa pero con cierto misticismos. El propio Isaac Newton dedicó mucho más tiempo y escritos a la Alquimia que a la propia Óptica o la Física. Otros eminentes alquimistas del mundo occidental fueron los no menos famosos Roger Bacon, Snato Tomás de Aquino, Tycho Brahe, Thomas Browne, Ramón Llull y Parmigianino. El nacimiento de la Química moderna se produjo cuando tras el nulo progreso de la Alquimia, los críticos resentidos de la Alquimia provocaron que se progresara en la ciencia de la composicón de la materia gracias al perfeccionamiento de la balanza y otros instrumentos científicos. El paradigma de la física antigua no se vió sustancialmenente modificado durante la edad Media. Es destacable que se produjo un desarrollo del pensamiento lógico en el intervalo previo al Renacimiento. Así, Guillermo de Occam postula su principio de simplicidad:

"Pluribus non est ponenda sine necesitate. No debe presuponerse la multiplicidad sin necesidad", dicho de otra forma, ante dos posibles explicaciones de un mismo fenómeno, debe escogerse la más simple. Este concepto de simplicidad ha llegado hasta nuestros días.

En resumen, en el pensamiento clásico tenemos que los elementos eran Tierra, Aire, Fuego, Agua. Las interacciones eran el Amor y el Odio. El marco teórico es fundamentalmente la Física de Aristóteles. 

Durante la Edad Media, a pesar de la oposición al modelo atómico de la materia, especialmente debida a ideas teológicas, el modelo atómico fue defendido por algunos personajes, como Guillermo de Conches y Nicolás de Autrecourt (s.XIII). Durante el siglo XII (Edad de Oro islámica), los atomistas islámicos desarrollan teorías atómicas que eran una síntesis del modelo griego y el indio, aportando algunas ideas nuevas como la posibilidad de hacer que existieran partículas más pequeñas que los propios átomos. Estas ideas pasaron desapercibidas. La teoría atómica cobró un nuevo auge en los siglos XV y XVI, coincidiendo con la crítica al modelo de Aristóteles, con las ideas de Nicolás de Cusa y Giordano Bruno y la renovación de Gassendi (s.XVII), que considera el atomismo como la hipótesis más razonable para explicar los fenómenos naturales. En esta época se debatieron cuestiones polémicas de la doctrina atómica y se intentó una solución:

a) Dificultad lógica de admitir que exista un porción de materia que no se pueda dividir.

b) Las dificultades para explicar la diversidad de las propiedades físicas y químicas de los cuerpos. 

La Física Clásica pronto se vería en la necesidad de recuperar los conceptos atómicos. La revolución de Copérnico, Galileo, Newton (y Leibniz) y Lavoisier sentaron las bases del nuevo atomismo. Copérnico estableció experimentalmente el modelo heliocéntrico, Galileo con el telescopio formuló las teorías del movimiento y fundó el método científico y experimental moderno, e introdujo la noción de inercia por la que los cuerpos tienden a mantener su estado de movimiento en ausencia de acciones externas.

Newton desarrolló, independientemente de Leibniz, el calculo diferencial e integral, permitiendo la formalización matemática de la Física y la Ciencia moderna que preconizaba Galileo. Postuló sus leyes de la Dinámica (dos de las cuales ya habían sido descubiertas por Galileo empíricamente) y logró unificar la gravedad celeste con la terrestre dando una causa origen común al movimiento de los astros y de los cuerpos en la Tierra. El Universo satisface las mismas leyes en todos sus puntos. 

Lavoisier logró descomponer agua en hidrógeno y oxígeno, así como recomponerla. Por otro lado descubrió que la combustión tenía su origen en la combinación con el oxígeno. Previamente, se había considerador que los cuerpos al arder emitína una sustanci llamada flogisto. Esto era la prueba definiiva de que los elementos de Empédocles no eran fundamentales. También comprobó y propuso la ley de conservación de la masa (materia). Y ello llevó a Dalton a la idea de que la maeria era indestructible y a recuperar el concepto de átomo para la Química. 

Dalton, amplió el trabajo de Proust de las leyes ponderales, y descubrió que las reacciones químicas se producían en ciertas proporciones de números. Planteó un nuevo escenario para la teoría atómica, explicando con ella las leyes ponderales y desarrolló burdamente los principios de la futura teoría cinética de los gases. El modelo atómico de Dalton se basaba en una serie de hipótesis: 

1. La materia estaá formada por partículas muy pequeñas llamadas átomos, indivisibles e indestructibles.

2. Los átomos de un mismo elemento soniguales entre sí, tiene su propio peso o masa y cualidades físicas idénticas propias. Los átomos de diferentes elementos tienen masas o pesos diferentes.

3. Los átomos permanence sin división aún cuando se combinan en reacciones química. 

4. Los átomos al combinarse forman compuestos químicos que guardan relaciones simples entre sí.

5. Los átomos de elementos diferentes se pueden combinar en proporciones diferentes y formar más de un compuesto químico.

6. Los compuestos químicos se forman al unirse átomos de 2 o más elementos iguales o distintos. 

El modelo atómico de Dalto fue un éxito: explicaba las leyes ponderales, el proceso de combinación y reacción química, aclarando que aún existiendo una gran variedad de sustancias diferentes, estas mismas sutancias podían ser explicadas en términos de una cantidad más bien pequeña de elementos o constituyentes elementales. En esencia, el modelo explicaba la mayor parte de la Qímica orgánica del siglo XIX y también la mayoría de la Química inorgánica. Todo se redujo a una teoría combinatoria de átomos simples.

Por otra parte, Amedeo Avogadro (en 1811) genera el concepto de molécula, e introduce la idea de que a una presión y temperatura dados, y volumen fijo, un gas tiene siempre el mismo número de partículas, sean átomos o moléculas, independientemente de la naturaleza del gas ideas. La hipótesis de que los gases eran moléuclas poliatómicas es una avance y perfeccionamiento del modelo atómico. 

James Maxwell, formula las ecuaciones del campo electromagnético que hoy llevan su nombre, describiendo electricidad, magnetismo e inducción electromagnética, junto a la luz y otros fenómenos, de una forma unificada. También crea la estadística de Maxwell-Boltzmann en la teoría cinética de gases y formula la expresión termodinámica que establece la relación entre diferentes variables termodinámicas, en particular entre temperatura y energía cinética de las moléculas. La teoría cinética de gases explica el comportamiento y propiedades de los gases a partir de una descripción estadística de los procesos moleculares y se desarrolla especialmente en este siglo XIX: Botlazmann, Maxwell, y Gibbs contribuyeron a su asentamiento. 

Boltzmann, pionero de la mecánica estadística, ciencia de la mecánica con un número enorme de grados de libertad, introduce la constante que hoy lleva su nombre y la caracterización microscópica de la variable entropía. Se suicidó en 1906 aparentemente por los problemas psicológicos asociados al ser rechazada su idea entrópica, al estar fundada en la realidad física de los átomos y las moléculas (que se entendían más como un truco matemático que como algo real y tangible). 

Mendeleiev clasifica los elementos en forma de tabla ordenada. Así, se correlaciona el peso o masa atómica de un elemento con las propiedades químicas. También le permitió predecir la existencia de nuevos elementos entonces desconocidos. El poder predictivo de los nuevos descubrimientos es siempre una de las características más notables de las revoluciones científicas.

El panorama de la ciencia a finales del siglo XIX era brillante pero con algunos claroscuros. La Física clásica a finales del siglo XIX podía resumirse en: elementos fundamentales (alrededor de 90 según la tabla de Mendeleiev), interacciones (gravitatoria, electromagnética) y el enlace químico, con un marco teórico dado por la Física Clásica y las leyes de Newton. 

La Física Moderna comienza con el nuevo siglo XX. J.J.Thomson descubre en sus experimentos de rayos catódicos que hay partículas más pequeñas en el interior de los átomos de los elementos gaseosos conocidos. Descubre el electrón en 1897, plantea el primero modelo atómico cualitativo moderno: el modelo del pudin con pasas (plum cake model) pero no puede reproducir el espectro de absorción y emisión del átomo más simple, el hidrógeno. En su modelo atómico, los electrones se hallan incrustados en una masa de carga positiva fluida o “sopa”. 

Becquerel descubre la radioacividad en 1896. Planck plantea la hipótesis cuántica en 1900 para explicar el espectro del cuerpo negro. Rutherford (y sus becarios Geiger y Marsden) explica el experimento de la lámina de oro con un modelo planetario del átomo, inspirado posiblemente en el modelo saturniano de Nagaoka. En 1911 publica sus resultados y su nuevo modelo atómico, e identifica la radiación alfa como núcleos de helio tiempo después. También se da cuenta de que los núcleos atómicos son esferas duras y que tienen casi la mitad de la masa atómica, por lo que debía existir otra partícula en los núcleos de naturaleza neutra. Chadwick descubre el neutrón en 1932. Sin embargo, el modelo de Rutherford era inestable usando simultáneamente los conocimientos existentes hasta la fecha de electromagnetismo (las partículas cargadas aceleradas deberían radiar ondas electromagnéticas, perder energía y caer al núcleo en poco tiempo) y la física clásica usual. Era pues evidente la necesidad de una nueva física y mecánica para explicar la estructura atómica y subatómica. 

Emmy Noether, en el siglo XX, establece la conexión matemática entre simetrías y leyes de conservación en física mediante sus dos teoremas. La invariancia global implica leyes de conservación en Física, y la invariancia local implica identidades o dependencias entre las ecuaciones de movimiento. A cada grupo de simetría (global) contínuo de invariancia le corresponde una ley de conservación. A cada grupo de simetría (local) contínuo le corresponde una identidad matemática. 

Niels Bohr aplica la hipótesis cuántica al modelo de Rutherford, explicando el espectro del átomo de hidrógeno (y de los hidrogenoides) de forma triunfal. Contribuye decisivamente al desarrollo de la física atómica y nuclear. Tiene debates encendidos con A.Einstein, el otro gran científico de su era. Su modelo atómico estaba basado en las ideas de que los electrones orbitan el núcleo en niveles discretos y cuantizados en energía, no todas las órbitas estaban permitidas, sino tan sólo un subconjunto infinito de éstas. Los electrones podían saltar   de un nivel electrónico a otro mediante el concurse de fotones que satisfacieran la relación de Planck sin pasar por energías intermedias. El salto mediante la ley de Planck E=hf corresponde a la diferencia de energía entre tales órbitas. Las órbitas permitidas tienen valores discretos (n=1,2,3,…) en energía pero también en momento angular L=0,1,2,…El radio mínimo del electrón en el átomo de hidrógeno es de unos 0.53 angstroms, o  bien 0.053nanómetros. Esa distancia es el radio de Bohr. Un electrón no puede bajar a niveles inferiores a ése. 

Sin embargo, el modelo de Bohr estaba limitado a átomos de 1 sólo electrón, las correciones de la relatividad de Sommerfeld no lo solucionaron, y se tuvo que desarrollar la Mecánica Cuántica. Tampoco se pudo explicar los efectos Stark o Zeeman con el modelo de Bohr o el de Bohr-Sommerfeld. La Mecánica Cuántica no tardó en formularse.

Heisenberg introdujo el principio de indeterminación por el cual se limita la medida simultánea de 2 observables conjugados (con dimensión física producto de acción) a partir de su mecánica matricial. Junto con Ivanenko desarrolla el primer modelo nuclear de la interacción protón-neutrón. 

Pauli introduce la ecuación de Pauli, la hipótesis del neutrino para explicar el espectro continuo de la desintegración beta, lo que lleva a introducir las interacciones nucleares débiles como independientes de las fuertes que ligan a los protones y neutrones en los núcleos atómicos. Tras el descubrimiento del neutrón por Chadwick, se vió claro que el neutrino era otra partícula tiempo después.

Fermi introduce la primera teoría de la interacción débil, explicando el espectro de la desintegración beta a nivel efectivo. Albert Einstein, explica el efecto fotoeléctrico en 1905, enuncia el principio de equivalencia en 1907 y la relatividad general en 1915 y 1916. También en 1905 explica un modo de determinar el número de Avogadro, introduce las bases de la relatividad especial, explica el movimiento browniano y establece el camino a la nueva física. Einstein apoya inicialmente el atomismo con su uso de la idea cuántica para explicar el efecto fotoeléctrico, pero luego, años después, reniega de la interpretación estadística de la recién nacida Mecánica Cuántica y su interpretación probabilística (Copenhage). Eso a pesar de que él mismo contribuyó a demostrar la existencia de los átomos con sus trabajos sobre el movimiento browniano y a confirmar una y otra vez la corrección de la Mecánica Cuántica con sus diferentes experimentos mentales. 

La variación del paradigma newtoniano en la interaccional gravitacional de Einstein fue algo sensacional. La gravedad es una pseudofuerza debida a la curvatura del espacio-tiempo, y las leyes geométricas de la misma vienen dictadas por la geometría de espacios curvados de tipo riemanniano. La gravedad es un efecto de curvatura, debido a la presencia de materia y energía, …Sin embargo, también introduce la constante cosmológica en sus ecuaciones de campo, en un intento por evitar la predicción de un universo dinámico que sin embargo se vería confirmado por la recesión de las galaxias observada por Hubble años después. 

La Física Moderna tiene sus bases en la Física Cuántica y la Relatividad (restringida y general). Tiene aplicaciones muy extensas en todos los aspectos de las ciencias:

a) Los fundamentos del enlace químico están justificados por la descripción cuántica del movimiento de los electrones en los átomos y moléculas.

b) La interacción de los electrones con una red cristalina es la base de la llamada física del estado sólido, parte de lo que llama hoy día física de la materia condensada.

c) La mayoría de los fenómenos de física nuclear pueden describirse en física moderna, pero el origen de la interacción nuclear fuerte y débil no queda justificado en este marco ingenuo. 

d) La astrofísica se puede describir usando el paradigma de la Física Moderna. También la Cosmología. 

Así, hacia 1930 la entonces Nueva Física o Física Moderna  resumía el saber conocido de la siguiente forma:

A) Elementos: electrón, protón, neutrón y neutrino. 

B) Interacciones: gravitación, electromagnetismo interacción fuerte e interacción débil.

C) Marco: Física Cuántica y Relatividad General (gravedad). 

La Física en la actualidad es el resultado de la evolución acaecida entre 1930 y 1970, y ha sido confirmada hasta la actualidad, principios del siglo XXI. 

Dirac plantea la ecuación que hoy lleva su nombre para explicar de forma relativista el electrón y otras partículas cuánticas de espín 1/2. Postula la existencia del positrón y la antimateria en 1928, descubierto por Anderson en 1932. También aporta su conocimiento para fundar las bases de la llamada Electrodinámica Cuántica relativista (QED, Quantum Electrodynamics). La interacción electromagnética se describe de forma cuántica con electrones y fotones en QED. 

Hideki Yukawa aplica la teoría cuántica de campos (mecánica cuántica relativista, Quantum Field Theory o QFT) a la interacción fuerte, e introduce el concepto de mesón de intercambio. De ello deduce que el rango o alcance de las interacciones nucleares está apantallado y confinado a pequeñas distancias, con el uso de su potencial de Yukawa. A continuación se producen descubrimientos diversos en física de partículas. Por ejemplo, analizando los rayos cósmicos se descubre el muón, pero éste no corresponde al mesón de Yukawa porque no interactúa con los núcleos por la interacción nuclear. En 1947 se descubren los piones, los verdaderos mesones de Yukawa. Después, otras muchas partículas para desconcierto de muchos, y de propios y ajenos. Por ejemplo, los mesones K, kaones, los hiperones, los neutrinos,…

Con el desarrollo de aceleradores de partículas, se descubren partículas aún más pesadas.Feynman introduce su integral de camino y explica la QED junto con Schwinger y Tomonaga de forma independiente. La QED permite relacionar el momento magnético del electrón con su carga y masa con una precisión asombrosa de unas 10 cifras significativas. Se formula como una teoría gauge local y sirve como modelo para el resto de interacciones (la débil y la fuerte son también teorías gauge pero no abelianas). 

Murray Gell-Mann introduce la noción de quark, independientemente de Zweig, en 1963 y la teoría de la cromodinámica cuántica,QCD , Quantum Chromodynamics, no tarda en aparecer como la responsable de la existencia e interacción de quarks y gluones en el interior de los hadrones o partículas que sienten la interacción nuclear fuerte. La idea de los quarks se ve apoyada fuertemente experimentalmente en los años 70 del siglo XX. 

Higgs y otros científicos introducen un campo auxiliar, el campo de Higgs  y unas partículas teóricas nuevas, los bosones de Higgs, para explicar la unificación de la teoría electromagnética y la nuclear débil a altas energías (unos 100GeV, gigalectronvoltios). También se predice la existencia de dos fotones masivos, uno cargado W y otro neutro Z que serían encontrados en el LEP (Large Electron Positron collider) a finales de los 70 y principios de los 80. Se encuentran y confirman evidencias de las 3 generaciones o familias de partículas (leptones y quarks), así como se estudian las propiedades de los bosones intermediarios W y Z. C. N. F. Yang y Weinberg establecen la teoría y el funcionamiento del Modelo Estándar de interacciones de partículas elementales. También Salam y Glashow, son los generadores de la hipótesis de unificación electrodébil que se confirma de forma espectacular en LEP y en el Tevatron. Carlo Rubbia es premio Nobel por el descubrimiento experimental de los bosones W y Z en 1984. 

El modelo estándar de las interacciones de partículas (originado entre 1968-69 y 1975) requería por consistencia encontrar el campo de Higgs. Se halló en 2012 en el LHC (Large Hadron Collider) del CERN, el sustituto del LEP. El Tevatron había previamente intentado hallarlo sin éxito pero hallando en su lugar la masa del quark top. Por tanto, gracias a Higgs, Glashow, Salam y Weinberg, también a Anderson y otros, tenemos desde 1975 un marco teórico de las interacciones cuánticas para la materia: 

-Elementos: quarks y leptones. 3 familias. 6 sabores. (u,d,c,s,b,t) y los tres leptones con sus tres neutrinos asociados. Más los 3 colores de las interacciones de los gluones y los dos tipos de carga eléctrica. 

-Interacciones: interacción electrodébil, interacción fuerte (8 gluones) y gravedad (clásica, descrita por la relatividad general).

-Marco teórico: teorías gauge locales (teorías de Yang Mills para el caso de las interacciones electrodébiles y nucleares, mientras que de tipo geométrico riemanniano, grupo de Lorentz o Poincaré, para la relatividad general). 

El Modelo Estándar y la Relatividad General ensalzan el uso de las leyes de simetría y la teoría de grupos en la física de partículas y la astrofísica y Cosmología modernas.

La gravitación einsteniana y la teoría de Maxwell de la luz son teorías clásicas, pero son teorías gauge. El grupo de simetría de la relatividad general es el grupo de difeomorfismos que se rompe al grupo de Poincaré (y Lorentz) mientras que el del electromagnetismo es un grupo de Lie y de tipo Yang-Mills. El Modelo estándar ha sido confirmado por todo experimento hasta la fecha, y no tiene ninguna observación en su contra por el momento, habiendo confirmado hasta el momento cada una de sus predicciones.

Por otra parte, sabemos que no puede ser el final de la historia. No hay unificación entre todas las fuerzas en el marco del model estándar. Además, se sabe desde finales del siglo XX que el neutrino cambia de sabor, y por tanto tiene una masa no nula que no explica el Modelo Estándar (éste predice que debería ser nula). El neutrino es pues evidencia de física más allá del modelo estándar. También desde finales de siglo (1998) sabemos que la expansión del universe está acelerada positivamente, luego debemos suponer que existen una energía del vacío (energía oscura) actuando como una suerte de antigravedad o presión negativa a muy grandes escalas. Se prueba de momento también que incluso esta energía oscura es la componente principal de materia-energía del Universo. La otra parte fundamental es materia oscura que aparentemente existe en las galaxias y sólo interactúa mediante la gravedad y nada más, y que no puede ser ninguna partícula que exista en el Modelo Estándar. La materia y energía luminosa del universo es apenas un 5% del Universo. 

Los problemas más acuciantes de la Cosmología y la Física de partículas son:

1) Explicar el origen de la materia y la energía oscura.

2) Formular una teoría de gravedad cuántica consistente y predictiva. 

3) Explicar la naturaleza y origen de la masa, mediante el análisis detallado del campo de Higgs y sus cuantos. 

Por tanto, en la actualidad, en el marco teórico del denominado Modelo Estándar de Física de partículas y en el marco teórico del Modelo Cosmológico Estándar tenemos dos imágenes diferentes del cosmos:

1) Modelo Estándar de partículas. Materia y energía formada por fermiones y bosones, junto a sus interacciones gravitatoria, electrodébil y nuclear fuerte. 

2) Modelo Estándar Cosmológico. Materia y energía usual 5%, materia oscura (26%), energía oscura 69%. 

¿Qué son los constituyentes de la materia y energía oscuras? No son partículas del Modelo Estándar, … ¿Entonces qué? ¿O tal vez son una ilusión y efectos de la gravedad cuántica? 

Las partículas elementales son hoy los “átomos”, y la aplicación de la propia idea atómica al espacio y el tiempo (cuantos de espacio y tiempo ¿tiene sentido?) es aún provisional. Hay diversos caminos especulativos hacia la unificación de los constituyentes:

-Teoría de supercuerdas/Teoría M/F/…Especulan con que la idea de partícula y de campos se funda en la idea geométrica de cuerda u objetos de dimensiones superiores. Herederas de las teorías de Kaluza-Klein del primer tercio de siglo XX, dan descripción teórica consistente de todas las interacciones pero con demasiados parámetros de ajustes. Ninguna de sus predicciones, en especial la supersimetría (SUSY) ha sido encontrada aún. 

-Gravitación cuántica de bucles. LQG (Loop Quantum Gravity). Teoría que intenta dar una descripción cuántica del espacio y el tiempo independiente del “background” o fondo. Las variables son bucles y no puntos o cuerdas. El espacio-tiempo es espumoso o discreto a pequeñas escalas, del orden de la longitud de Planck. Tampoco ha sido demostrada ninguna de sus predicciones. 

-Extensiones no triviales de la relatividad especial y general, geometría cuántica. 

También, el descubrimiento de que las soluciones de las ecuaciones de la relatividad general conducen a singularidades y objetos compactos conocidos como agujeros negros está rodeada aún de misterio. Pese a que la Relatividad General sigue siendo confirmada por todos los experimentos, sabemos que tiene aplicación limitada y de hecho, sus soluciones se comportan de forma Termodinámica. S.W. Hawking y Bekenstein probaron esto y que los agujeros negros no sólo tienen entropía y temperatura, sino que radian partículas mediante un efecto cuántico (aunque no hay evidencia experimental de la radiación de Hawking aún, pocos dudan de su existencia). El hecho de que los agujeros negros tienen entropía, significa que tienen microestados y “constituyentes”, pero poco es conocido sobre estos constituyentes. Sólo en cálculos limitados a agujeros negros con supersimetría se ha logrado reproducir la llamada fórmula de Bekenstein-Hawking, S=A/4 en unidades de Planck. Esto clama por una explicación “atomista” que hoy día no está disponible porque no conocemos los cuantos de la gravedad ni tenemos aún evidencia de las ondas gravitacionales, ni tampoco una idea de qué son los microestados que generan la entropía de un agujero negro como el de Schwarzchil…

Y la teoría atómica aún tiene mucho que dar…

¿Y por evolucionar?

#008. LOS RESULTADOS DE AMS02

image

image

Ayer, 3 de abril de 2013, el espectrómetro de la Estación Espacial International (ISS) anunció al mundo los resultados más precisos sobre búsqueda de materia oscura usando unas medidas sobre el espectro de positrones.

En las gráficas de arriba, se observa la diferencia de las barras de error de este experimento con anteriores. Sólo PAMELA es comparable en términos de sistemática y estadística, como se ve claramente. Podemos hacer una serie de observaciones acerca del flujo de positrones observados en el rango 0.5 GeV hasta unos 350 GeV:

1) El flujo (de positrones) disminuye hasta unos 10 GeV para aumentar y luego seguir aumentando pero de forma más lenta a partir de unos 100 GeV. No tiene ni estructura ni dependencia temporal.

2) El ajuste de los datos, que muestra la segunda gráfica arriba mostrada, se hace con un “flujo difuso” de positrones más una fuente simple tipo “ley potencial” y reproduce todos los datos hasta la fecha (incluidos los antiguos datos de DAMA/LIBRA que “incluían” de una forma menos robusta la denominada “modulación anual”).

3) Los datos pueden interpretarse como resultado de la aniquilación de partículas de materia oscura, pero otras interpretaciones son posibles, dado que el “fit” o ajuste a los datos del modelo empleado en esas gráficas es muy “model independent”. Algunos modelos de púlsares pueden reproducir ese espectro.

4) La clave para la interpretación y confirmación de este nuevo fenómeno físico como resultado de la aniquilación de partículas de materia oscura va a depender de la forma que tendrá ese espectro en la región de alta energía (por encima de 300-350 GeV) que de momento no se ha analizado (en parte por estadística insuficiente) y si se extiende o no hasta 1TeV y más allá. La mayoría de modelos de partículas de materia oscura señalan que el flujo de positrones, su exceso, tendrá un “corte” (o “cut-off”) en cierto valor de la energía, donde se producirá un abrupto cambio en la curva arriba indicada, que como hemos mencionado, no manifiesta estructura. Si se produce algún tipo de partícula de materia oscura, este detector podría detectarla como una “resonancia” y como consecuencia, el plot/gráfico debería mostrar un cambio de comportamiento en torno a la masa de dicha partícula. De momento, eso no se observa, hay que esperar a posteriores análisis de los datos en la zona 100GeV-1TeV. Y posiblemente, se podrá analizar también la zona 1TeV-50TeV con algunos upgrades/actualizaciones en el futuro.

5) Ha llevado 18 años planear este experimento y estará funcionando unos 20 años (si todo va bien). Este detector y sus posibles actualizaciones tiene potencial para detectar partículas de muy alta energía en unas condiciones que sería muy complicado reproducir en la  Tierra y los colisionadores de partículas. Además, realizará medidas muy precisas, como ya las está haciendo, acercándonos a la solución del enigma de la Materia Oscura, uno de los problemas más acuciantes en el estado actual de la Física Teórica, la Física de Partículas y la Astrofísica/Cosmología.

#006. Filosofía y pensamiento oriental, ciencia occidental.

image

Últimamente estoy teniendo pensamientos reminiscentes de momentos anteriores de mi vida, y recordé haber leído una vez en algún libro la frase:

”(…)Filosofía oriental y Ciencia occidental(…)”

No recuerdo el título o el autor que originó tal idea ni por qué a mí me atrae pensar sobre Filosofía y su relación con la Ciencia. Pero, dado que descubrí en la Exposición Universal de Sevilla 1992 algunas falacias en panfletos que repartían en pabellones de divulgación como El Pabellón del Universo, o sitios relacionados, sentí la necesidad ya de pequeño de investigar las verdades y las grandes ideas subyacientes al Universo (o Poliverso) en el que vivimos.

Hoy voy a recomendar la lectura de los tres principales textos del taoismo. La gente en España es generalmente conocedora de los textos católicos como la Biblia, o también el Corán por nuestra historia (yo los lei también siendo adolescente), pero descubrí que si bien las ideas pueden ser poderosas, lo son más el autoengaño de creerse a pies juntillas algunas de las ideas más controvertidas y falsas de cualquier ideario religioso. El taoismo es bastante más espiritual y estipula una relación de armonía con la Naturaleza que nos rodea. Además, contiene muchas ideas filosóficas que los griegos discutieron bajo otra forma hace milenios aunque sutilmente disfrazadas a través de antinomias o paradojas en forma más o menos poética.

1) Tao Te King. Autor: Lao Tze. Editorial: Alianza Ed.

2) El libro de Zhuang-Tze.Se puede encontrar por ejemplo aquí: Zhuang Zi: maestro Chuang Tsé. Traducción directa del chino de los 33 capítulos, introducción y notas a cargo de Iñaki Preciado Idoeta. Barcelona: Editorial Kairós.

3) Tratado de la Perfecta Vacuidad, de Lie-Zi. El más práctico de los libros taoistas, especialmente conocido por maestros y emperadores de la antigua China. Versión de Esteve Serra y traducción de León Wieger. Olañeta Editor, 2003.

Son textos a mi entender sencillos, no muy extensos, pero muy profundos pese a la manera en que expresan las cosas, que recuerda casi a algunos tipos de dialéctica que practican los filósofos de la Grecia más Antigua. Esos tres libros, son a mi entender más profundos que el manual adivinatorio chino, y uno de los libros más raros que jamás he leido, El I Ching. Los trigramas y hexagramas del I Ching provienen en su mayoría de la visión global y particular que el taoismo hace del “significado de la vida”.

¡Que los disfrutéis!

PS: Nunca confundáis Ciencia con Religión o con Filosofía. Una cosa es que algún tipo de Filosofía o Religión quiera asemejarse a la Ciencia o usarla para justificar sus postulados, y una cosa muy distinta es que eso pueda ser así( que no lo es jamás). En Ciencia no se puede creer en datos o teorías que no estén sujetos a la falsación por medio del método científico, y eso supone usar al final algún procedimiento experimental o los principios del razonamiento y la lógica del pensamiento. En algunas formas de Filosofía, o en cualquier Religión, los postulados no son falsables experimentalmente, y por lo tanto, deben mantenerse al margen de las consideraciones científicas. La ética es otro punto importante a debatir, en especial a la luz de la interacción de los descubrimientos científicos con los individuos y la sociedad, pero lo haré en alguna futura entrada.

PS(II): En la exposición universal de Sevilla 1992, en el pabellón del Universo repartían un panfleto circular negro en el que se leía “(…)El hombre sabio observa el espacio, y no ve lo grande como demasiado grande ni lo pequeño como demasiado pequeño pues sabe que no existe un límite en las dimensiones(…)” y lo atribuía a Lao-Tze. Me llevó dos meses de investigaciones y el uso de la biblioteca municipal descubrir que la frase era de Zhuang-Tze, no de la Lao-Tze, y aparece en un apartado muy interesante de su libro. Como una vez apareció literalmente en cierto trailer “(…)Parte de la Historia [Si no toda en mi opinión] está basada en la verdad, otra parte[la mayor parte o toda ella]…En mentiras(…)”. Como decía Feynman, “(…)Todo suele depender de los prejuicios que se tengan(…)”.

To Tumblr, Love Pixel Union