La Crisis de la Cosmología (Parte II)

0
164
cuantica

cuanticaLa infinidad real no es ni puramente mecánica ni completamente aleatoria, sino que es una unidad dialéctica de los opuestos: lo nuevo y lo viejo, la novedad y la repetición, el caos y el orden, aleatoria y determinista, casualidad y necesidad. Este infinito es un proceso evolutivo de desarrollo y el cambio dialéctico, con patrones y tendencias, pero sin repetición exacta; un proceso de transformación de la cantidad en calidad, y de nuevo en la cantidad.

La eternidad real en el Universo, por lo tanto, no una eternidad del universo sino que la eternidad de la materia en movimiento, pero la infinidad de la materia en movimiento – una infinidad de cosas finitas, sin principio ni fin.

El idealismo de la mecánica cuántica

Los otros tres pilares fundamentales de la cosmología –la mecánica cuántica, la el SMPP, y la relatividad general – no están exentos de problemas evidentes. En la mayoría de los casos, estos poseen una teoría que tiene un poco más de, nos atrevemos a decir, naturaleza filosófica.

La mecánica cuántica, mientras ha  sido consistentemente validada por experimentos aún plantea cuestiones fundamentales en cuanto a la interpretación de sus resultados. El paradigma dominante en el campo de la mecánica cuántica es el de la Escuela de Copenhague, llamada así por el físico danés, Niels Bohr, quien fundó esta interpretación. De acuerdo con este paradigma, el estado de una partícula no es una realidad objetiva, sino simplemente una probabilidad, expresada en términos de una función de onda. La “función de onda”, sin embargo, no es más que una construcción matemática – una ecuación; un modelo abstracto creado por los matemáticos, pero que promete  convertirse en la base de toda la realidad por la Escuela de Copenhague de la filosofía.

Esta interpretación probabilística de la conducta de las partículas atómicas y subatómicas significa que la incertidumbre es inherente a cualquier sistema cuántico; la vieja previsibilidad proporcionada por la mecánica newtoniana se pierde, y así con ella, todo el sentido de la causalidad y la ley de la naturaleza. Dada la pequeña escala y altas velocidades involucradas en el nivel cuántico, un grado de probabilidad y la incertidumbre es de hecho inevitable. Sin embargo, la Escuela de Copenhague lleva las cosas a un extremo y niega la existencia de la realidad objetiva, la ley y la causalidad por completo.

Con esta interpretación de la mecánica cuántica, por lo tanto, regresamos al idealismo de la filosofía de Kant, de la “incognoscible” cosa-en-sí; a la idea de una realidad cuya objetividad verdadera será siempre un misterio para nosotros. Esto es contrario a los fundamentos mismos de la ciencia que se basa en un método materialista y que afirma que existe la legalidad en la naturaleza. A través del proceso de la experimentación científica e investigación, el funcionamiento interno del Universo puede ser conocido por nosotros. Esta filosofía materialista, que está en la base tanto del método científico y del marxismo, explica que no hay tal cosa como lo “incognoscible”, sino simplemente lo que es actualmente desconocido.

Incluso más que eso, Bohr y sus seguidores afirmaron que las propiedades de una partícula son simultáneamente todos los valores – en un estado de “superposición” – hasta el punto de medición, momento en el cual se dice que la función de onda de una partícula “colapsa” en un solo estado. Esta interpretación en última instancia conduce a una forma de idealismo subjetivo, en el que no existe una realidad objetiva distinta de la que se observa – una forma moderna de la cuestión filosófica: si un árbol cae en el bosque y no hay nadie alrededor para escucharlo, ¿sigue teniendo un sonido?

El enigma obvio es: de acuerdo con la interpretación de Copenhague, en qué punto del “acto de la observación” ¿las probabilidades cuánticas de la función de onda se hacen realidad? ¿En qué momento el acto subjetivo de la medida se convierta en un hecho objetivo? En ese entonces, el físico austriaco Erwin Schrödinger se burlaba de la interpretación de Copenhague, con la elaboración del famoso experimento mental del “gato de Schrödinger” para mostrar lo absurdo de la opinión de Bohr, lo que llevaría a la consecuencia de que un gato, colocado en una caja junto con un cierto instalación de equipos radiactivos ¡podría decirse que está vivo y muerto al mismo tiempo hasta que el punto de observación!

Las implicaciones de la Escuela de Copenhague es que ciertos experimentos con sistemas cuánticos producen resultados que son aparentemente sobrenaturales. En concreto se da el fenómeno de “entrelazamiento”, en el que dos partículas pueden estar “enredadas”, de tal manera que una propiedad de una partícula siempre es el opuesto de la propiedad equivalente de su socio. Las dos partículas están inicialmente en un estado de superposición, en el que no se conocen las propiedades de ninguna de las partículas, pero cuando se observa la propiedad de una partícula y la función de onda colapsa, la propiedad de la segunda partícula se puede inferir por el conocimiento de la primera. El resultado es que dos partículas cuánticas, separadas a grandes distancias, parecen ser capaces de comunicar información de manera instantáneamente la una con la otra, rompiendo así el límite máximo de la velocidad de la luz. Este fenómeno aún no ha sido explicado por las teorías cuánticas actuales.

Por supuesto, en la medición de cualquier aspecto de la naturaleza, estamos obligados a interactuar con el sistema bajo observación, y al hacerlo, tenemos un efecto sobre las propiedades del sistema en sí. No podemos situarnos fuera de la naturaleza con el fin de observarla. La experimentación científica es interactiva, en esencia, un proceso de aplicación de la mano de obra a la naturaleza con el fin de entender sus relaciones internas, la causalidad interna, y las interconexiones. Pero negar la objetividad de la realidad y para afirmar que no existe una realidad hasta que se produce la observación, equivale a moverse hacia el idealismo subjetivo, en el solipsismo. Se trata de un refugio de última instancia, en la mística, de nuevo al reino de lo divino de la realidad “incognoscible” más allá del alcance de la ciencia y por lo tanto más allá de las posibilidades del entendimiento humano también. “Dios”, como se nos ha dicho en repetidas ocasiones, “se mueve de maneras misteriosas”.

El método materialista de la ciencia y del marxismo también, se basa en el principio fundamental de que existe una realidad objetiva, que existe independientemente de la observación humana, pero que puede ser conocida por nosotros. Como explicó Lenin, al ridiculizar los subjetivistas, que argumentaron que el mundo dejó de existir fuera de la mente de la humanidad.

“Las cosas existen independientemente de nuestra conciencia, independientemente de nuestras percepciones, fuera de nosotros…”

“… [L]a existencia de la cosa reflejada independiente del reflector (la independencia del mundo externo de la mente) es un principio fundamental del materialismo. La afirmación hecha por la ciencia que la tierra existía antes que el hombre es una verdad objetiva”.

¿Qué es la masa?

El SMPP también deja a los científicos rascándose la cabeza de confusión. La principal causa de la confusión es la completa falta de rima o razón detrás de las diversas partículas que se han postulado. No hay un patrón se puede discernir que explique la compleja variedad de materia que existe.

También está la cuestión particular de la masa. ¿Por qué las partículas tienen las masas que ellos hacen? ¿Qué es lo que causa la masa en el primer lugar? ¿Y qué es la “masa” en el primer lugar?

En términos físicos generales, la masa es una propiedad de toda la materia. Física newtoniana explica la masa en términos de inercia – la resistencia de la materia a la aceleración, que es, una resistencia a los cambios en el movimiento. En el paradigma newtoniano, los cambios en el movimiento se explican por el concepto de “fuerza” – algo concebido como puramente externo al objeto en cuestión.

Este punto de vista de un solo lado refleja la visión mecánica de todo el paradigma newtoniano. Una visión dialéctica, por el contrario, ve la interconectividad y de dos parcialidad de cualquier proceso, incluyendo el cambio en el movimiento de la materia. Como Engels explica en su gran obra inacabada, La Dialéctica de la Naturaleza,

“Todos los procesos naturales tienen dos lados, que se basan en la relación de por lo menos dos partes operativas, acción y reacción. La noción de la fuerza, sin embargo, debido a su origen a partir de la acción del organismo humano en el mundo externo, y la mecánica terrestre más extensa, implica que sólo una parte es activa, operativa, siendo la otra parte pasiva, receptiva … La reacción de la segunda parte, en la que la fuerza actúa, aparece en la mayoría de veces como una reacción pasiva, como una resistencia. Ahora bien, este modo de la concepción es permisible en una serie de campos, incluso fuera de la mecánica pura, es decir, en los que es una cuestión de la simple transmisión de movimiento y su cálculo cuantitativo. Pero ya en los procesos físicos más complicados ya no es adecuada… “

La masa, como una resistencia a los cambios en el movimiento, por lo tanto, sólo puede ser definida como algo relacional entre objetos, en otras palabras, en términos de una interacción entre la materia.

Además, en la interacción mecánica de dos objetos, el impulso, que se define como la masa multiplicada por la velocidad (MV), se conserva siempre. La energía cinética de la materia en movimiento viene dada por la fórmula ½ mv ², mientras que Einstein, con su famosa ecuación E = mc ², mostró la equivalencia entre masa y energía. Es un hecho bien conocido de la naturaleza que la masa y la energía siempre deben ser conservadas en cualquier proceso. Todo esto muestra, además, cómo la masa sólo puede adecuadamente ser concebida como una propiedad de la materia; una propiedad que surge de las relaciones – es decir, la interacción – de la materia en movimiento.

Uno de los grandes avances de la SMPP es que la masa ya no se concibe como algo inherente a un objeto. Una visión mecánica e idealista de la naturaleza ve las propiedades de las cosas como algo inherente e intrínseco. Por lo tanto, se puede ver cómo en la antigüedad, la temperatura (es decir, picor) de un objeto se considera que es un resultado de la misma que posee una cierta cantidad del elemento fuego. Del mismo modo, en el siglo XVII, una sustancia llamada flogisto fue considerado para dar a  la materia la propiedad de combustibilidad. El color de un objeto una vez fue considerado como una propiedad inherente de ese objeto, de manera que las cosas rojas son rojas debido a que tienen la propiedad del enrojecimiento. O bien, desde el punto de vista subjetivista, el color es simplemente debido a nuestra percepción sensorial individual. En el ámbito de las ciencias sociales, los capitalistas hablan de la “naturaleza humana”, como el egoísmo innato de todos los pueblos, para justificar su sistema de explotación de la codicia. Mientras tanto, el valor de cualquier producto, de acuerdo con la teoría económica burguesa de la “utilidad marginal”, es simplemente el resultado de las preferencias subjetivas de los individuos abstractos.

La filosofía dialéctica, respaldada por todos los descubrimientos de la ciencia moderna, demuestra, por el contrario, cómo las propiedades de las cosas siempre son verdaderamente una expresión de las relaciones entre las cosas. Las propiedades emergen de las interacciones entre las cosas. Por ejemplo, gracias a las modernas teorías de la termodinámica, sabemos que la temperatura de un objeto es una expresión del movimiento de los átomos y las moléculas, mientras que la combustión hoy se conoce como una interacción química entre un combustible y un oxidante. La propiedad del color ahora se sabe que surgen de la interacción entre la luz (fotones) y los electrones en los átomos de un objeto. Estos absorben fotones de ciertas frecuencias (valores de energía en términos cuánticos) y emiten fotones a ciertas frecuencias específicas que son a su vez detectadas por las células receptoras en los ojos y convertida en señales nerviosas eléctricas para ser interpretados por el cerebro.

El  marxismo, es decir, la visión dialéctica y materialista de la historia y la economía, explica cómo el comportamiento humano es un producto de la sociedad y el modo de producción, mientras que el valor de una mercancía es una expresión de una relación social, que sólo puede ser determinado a través del acto de intercambio.

En la SMPP, la masa de cualquier partícula ya no es inherente o intrínseca, pero se describe en términos de la interacción entre la partícula y el “campo de Higgs”, por medio de llevar una partícula conocida como la “Higgs”. Si bien este concepto de masa como una propiedad interactiva de la materia es un paso adelante, el uso del campo de Higgs y el bosón de Higgs para explicar esto en realidad no explica nada. ¿Qué es lo que crea el campo de Higgs? ¿De qué manera la interacción de tres vías entre el campo de Higgs, el bosón de Higgs y otras partículas dan lugar a la propiedad de los medios? ¿Y por qué esta interacción proporciona partículas con los valores de las masas que observamos? Además, existe el problema no menos documentado-que la teoría de Higgs sólo representa una fracción de la masa de la materia.

Al igual que con los ejemplos de la partícula “inflatón” en relación a la inflación, la partícula “gravitón”, y la fuerza de la gravedad, o “WIMPs” y la cuestión de la materia oscura, al recurrir a términos como “campo” y “bosón” , los científicos simplemente han aplicado etiquetas y han  inventado nuevas partículas hipotéticas para dar cuenta de fenómenos inexplicables. Una verdadera comprensión de la masa como una propiedad emergente debe surgir, sin embargo, no está fuera de los campos misteriosos y “partículas de Dios”, sino de estudiar la forma en la materia interactúa con otras materias. Este es el único camino verdaderamente materialista – es decir, científico – la forma de explicar cualquier fenómeno de la naturaleza.

Partículas “fundamentales”0quantumpic

La pregunta de por qué diferentes partículas tienen la masa que tienen surge de la misma confusión. Pero también hay otras partes en este tema y otras cuestiones que no se han formulado. ¿Por qué las masas de las diversas partículas “fundamentales” tienen un buen patrón para ellos? ¿Por qué la naturaleza debería siempre mostrar “belleza” en su disposición? ¿Y por qué consideramos estas partículas “fundamentales” para sean  “fundamentales” en absoluto?

Las dos primeras preguntas ponen de relieve uno de los principales problemas en la cosmología moderna – el tremendo idealismo filosófico al que se ha deslizado, por lo que las teorías se consideran correctas o incorrectas sobre la base de la estética matemática. Nuestros modelos y teorías son siempre y en todas partes sólo una aproximación de un Universo que es infinitamente complejo en todos los sentidos. En muchos casos, a cierta escala, la sencillez surge de la complejidad – y viceversa. Por lo tanto la complejidad de naturaleza a veces puede ser expresada por las ecuaciones relativamente simples. Pero asumir y buscar la simplicidad en la naturaleza es a su vez plantear el problema de cabeza. Nuestras ideas, matemática, científica o de otro tipo, son un reflejo del mundo que nos rodea, no al revés. Esta es la base fundamental del materialismo en la ciencia y el marxismo. Ya sea que las ideas, teorías o ecuaciones sean “bellas” o no, su utilidad depende de la precisión con que reflejan la realidad material y que nos permiten tener una mejor comprensión del funcionamiento de la naturaleza. Afirmar que la naturaleza debe ser conforme a nuestra idea subjetiva de la belleza es puro idealismo.

La tercera cuestión relativa a la “fundamentalidad” de las partículas en el SMPP se relaciona con las dos primeras. Donde esperamos ver patrones en la naturaleza como resultado de nuestras teorías-que son las generalizaciones de nuestras observaciones anteriores-, en su lugar vemos aleatoriedad inexplicable, esto sugiere que una mejor comprensión de las relaciones causales y las interconexiones de los fenómenos es necesario.

El llamado “principio de incertidumbre” en la mecánica cuántica es un ejemplo de ello. Observamos fenómenos en los niveles atómicos y sub-atómicos que son aparentemente aleatorios y que las teorías actuales no pueden explicar. Pero en lugar de profundizar con el fin de revelar las conexiones internas reales dentro de estos fenómenos, los defensores de la Escuela de Copenhague, simplemente levantan una barrera de misticismo y declaran el funcionamiento interno a escala cuántica a ser “incognoscible”. Esto es contrario a toda la historia y el método de la ciencia, la tarea de la que siempre ha sido la de encontrar explicaciones a lo que se pensaba hasta ahora inexplicable, de proporcionar previsibilidad, donde una vez hubo incertidumbre y de descubrir las leyes donde antes veíamos sólo aleatoriedad.

Patrones e incluso las leyes generalizadas pueden surgir de procesos aparentemente aleatorios y caóticos, no lineales, e impredecibles. Por ejemplo, para modelar y predecir el movimiento de cada partícula en un cilindro de gas sería imposible. Pero debido a la interacción de muchos miles de millones de partículas de gas, surgen leyes definidas de la termodinámica que relacionan la presión, la temperatura y el volumen del gas. Los patrones emergen de aleatoriedad; el orden surge del caos; la predictibilidad es vista dentro de lo impredecible. Incluso los procesos de la mecánica cuántica, que es uno de los pocos ejemplos de un proceso que todavía es considerado  verdaderamente  fortuito, produce resultados predecibles y patrones, como los famosos patrones de interferencia observados en el experimento de la doble rendija.

Con el tiempo, a través del desarrollo y la profundización de la comprensión científica, las relaciones estadísticas que simplemente describen los patrones y los fenómenos pueden ser reemplazados por modelos físicos o leyes científicas que explican la interrelación y las relaciones causales dentro de estos fenómenos. Incluso las llamadas “leyes” científicas, sin embargo, sólo son exactas a cierta escala y dentro de ciertos límites. Tales leyes son siempre sólo una aproximación de la realidad objetiva y siempre contienen errores, imprecisiones e incertidumbre, hasta cierto punto.

En el caso de los SMPP, el problema es que podemos asumir que podemos hablar de partículas “fundamentales” en absoluto. Toda la historia de la ciencia de la física ha sido la de reducir y encoger continuamente lo que consideramos los bloques “fundamentales” del edificio. Primero existió el concepto de átomo—originalmente planteado como hipótesis por el antiguo filósofo griego Demócrito (la palabra átomo se deriva del griego “indivisible”. Más tarde aparecieron los  descubrimientos de Rutherford, quien propuso un modelo atómico consistente de electrones, protones y neutrones. Las investigaciones posteriores llevaron al descubrimiento de los quarks, los cuales están compuestos de neutrones y protones. ¿Quién sugiere ahora que los quarks representan el  límite de los descubrimientos científicos en términos de las partículas físicas?

La dificultad para la mayoría de los científicos reside en la respuesta a esta pregunta. Si asumimos que los quarks están compuestos por partículas incluso más pequeñas, entonces ¿de qué están compuestas estas partículas más pequeñas? y podemos hacernos está pregunta sucesivamente, hasta el infinito. Pero ese es precisamente el punto, uno puede seguir dividiendo incluso todavía más. Así como no existe tal cosa como un número más pequeño “indivisible”, de esa manera  no existe una partícula “fundamental” en la naturaleza.  

Hace un siglo, las principales diferencias químicas y físicas entre los más o menos cien elementos se descubrieron y se  basaron en un patrón fundamental relativamente simple que involucró diferentes combinaciones de no más de tres partículas “fundamentales” subatómicas. Este descubrimiento marcó un importante paso adelante en la comprensión de la estructura de la materia. Ahora, la variedad de las partículas sub-atómicas postuladas se cuentan por  docenas y la ciencia no le está apostando más a la comprensión de cualquier patrón fundamental.

La solución a la cuestión de las llamadas partículas “fundamentales” se encuentra en una serie infinita de objetos finitos – una regresión infinita de las cosas compuestas de otras cosas. Y es la interacción entre las cosas en cada etapa de esta serie que da lugar a las propiedades que emergen en los niveles superiores.

Esta es la respuesta a los problemas de la SMPP y de la mecánica cuántica también. Donde nuestras teorías actuales no pueden explicar lo que actualmente vemos, debemos profundizar en la búsqueda de una verdadera descripción, más precisa y completa de la naturaleza; es una búsqueda que no tiene límite, debido a la complejidad infinita del Universo en todas direcciones.

Teorías irreconciliablesFriedrich Engels

Por encima de todos estos problemas con los diversos componentes teóricos cosmológicos descritos anteriormente, hay una cuestión que molesta a los científicos en el campo por encima de todo: la incompatibilidad de los diferentes pilares de la cosmología moderna, y en particular, el carácter irreconciliable de la mecánica cuántica y la SMPP con la relatividad general.

La mayoría de las veces esta incompatibilidad no es relevante, ya que la mecánica cuántica sólo se aplica a pequeñas escalas, sub-atómicas, mientras que la relatividad general se utiliza para describir la gravedad y el efecto de las grandes masas en una escala cósmica. Bajo la descripción SMBBC del Big Bang, sin embargo, toda la materia del Universo entero  se dijo inicialmente que estaba concentrada en un solo punto. Del mismo modo, en la actualidad la hipótesis de que una singularidad, con una cantidad finita de materia concentrada en un punto infinitamente pequeño, existe en el centro de cada agujero negro, formado a partir de las estrellas (de una cierta masa) colapsando sobre sí mismos bajo la fuerza de su propia gravedad. Tales hipótesis plantean grandes problemas, ya que implican tratar tanto una pequeña escala como una gran masa – de ahí las tentativas de reconciliar estos dos pilares de la cosmología moderna.

El carácter irreconciliable de la mecánica cuántica y la relatividad general tiene muchas formas. En primer lugar, la forma en que cada teoría trata espacio y el tiempo. En la mecánica cuántica, el espacio y el tiempo son discretos, con una longitud mínima conocida como la “longitud de Planck”. En la relatividad general, el espacio – o más precisamente, el espacio-tiempo – es continua. El “tejido” del espacio-tiempo es comparado con frecuencia, con la analogía de los objetos que ruedan sobre una lámina de goma a menudo usada para explicar cómo la fuerza de la gravedad surge de acuerdo con la teoría de la relatividad general.

Desde una perspectiva dialéctica y materialista, ambas interpretaciones del espacio y el tiempo son deficientes, ya que el espacio y el tiempo no son cosas en sí mismas, sino que son expresiones de relación o propiedades de la materia en movimiento. Como se señaló anteriormente en relación con las teorías de “cambio de fase” del Big Bang, el espacio y el tiempo no son tangibles, materiales, objetos físicos, y no pueden, por lo tanto, ser considerados, ya sea continua o discreta. Hablar de “tiempo” y “espacio” sin hacer referencia a la materia y el movimiento es hablar de abstracciones vacías, carentes de todo contenido real. El tiempo, el espacio, la materia y el movimiento son inseparables.

En segundo lugar, existe el problema de las cuatro fuerzas “fundamentales” descritas por estas dos teorías. A pequeña escala, el SMPP describe el electromagnetismo, la fuerza nuclear fuerte y la fuerza nuclear débil en términos de las interacciones entre la materia a través de bosones – partículas transportadoras de fuerza. A gran escala, la cuarta fuerza, la gravedad, se explica sin recurrir a ningún “bosón”, excepto a través de la relatividad general, con la materia (masa-energía) que afectan a la curvatura del espacio-tiempo y el espacio-tiempo a su vez afecta a la moción de materia. Algunos han planteado la existencia de un “gravitón”, un bosón de gravedad, pero su existencia todavía no se ha probado.

El problema con la cuestión de cómo surgen las cuatro fuerzas “fundamentales”, y la divergencia en la forma que la SMPP y la Relatividad General explican estas fuerzas, es el resultado de la visión mecánica y unilateral de lo que la “fuerza” significa, en primer lugar, como se discutió anteriormente. Esto resulta del paradigma Newtoniano de las leyes del movimiento, en el que se analiza cada objeto de forma aislada, con el cambio en el movimiento de cualquier objeto el cual se da por una fuerza externa. Esto se expresa en términos físicos como la fuerza equivalente a cambio en el momento y que a menudo se simplifica a F=ma, donde F es la fuerza, m es la masa y a es la aceleración (un cambio de velocidad).

Expresar cambios en el movimiento de esa manera, sin embargo, es para representar cada término de la ecuación como algo tangible, con una fuerza externa que actúa sobre un objeto (con masa) y provoca un cambio en el movimiento (la aceleración). En otras palabras, se recurre a una forma de idealismo, en el que los elementos de la ecuación, que son en sí mismos abstracciones, se conciben como reales, es decir cosas materiales. La realidad, sin embargo, es que la materia en movimiento, en toda su complejidad, nunca puede ser capturada totalmente por alguna fórmula. Todas las leyes, ecuaciones y modelos matemáticos son simplemente abstracciones útiles de este movimiento dinámico e interconectado.

Lamentablemente la Ciencia se ha quedado con esta visión newtoniana mecánica desde entonces, que se abre paso en todos los campos de investigación. Donde hay movimiento, se supone que hay una fuerza responsable de tal movimiento. Desde el punto de vista del materialismo dialéctico, sin embargo, el movimiento de la materia es lo primario. Cualquier “fuerza” no es más que una expresión de la relación entre los cambios en el movimiento cuando interactúa la materia mutuamente. Asignar una fuerza a cualquier forma de movimiento que no entendemos es simplemente cubrir nuestra actual falta de comprensión de los fenómenos que se investigan. Adelantarnos un paso más allá y decir que las fuerzas se deben a “partículas portadoras de fuerza” tampoco mejora la cuestión. Esto es lo mismo decir que el calor se debe a la alta temperatura.

 Como Engels explica:

“Con el fin de ahorrar de tener que dar la verdadera causa de un cambio provocado por una función de nuestro organismo, sustituimos una causa ficticia, una llamada fuerza correspondiente al cambio. Entonces llevamos a cabo este conveniente método hacia el mundo externo también, y así inventamos tantas fuerzas en la medida que hay diversos fenómenos. “

No hay ninguna razón, por lo tanto, porqué las tres “fuerzas” descritas por el SMPP deben describirse en los mismos términos que la “fuerza” de la gravedad. El SMPP y la relatividad general son, como todos los modelos, sólo aproximaciones que describen el movimiento de la materia en diferentes escalas. Pero las leyes de cómo interactúa la materia no son necesariamente las mismas a diferentes escalas. En un momento determinado, la cantidad se transforma en calidad y emergen fenómenos diferentes, con diferentes leyes.

Tenemos, por ejemplo, como se ha descrito anteriormente, las leyes de la termodinámica que se desprenden de la multitud de interacciones que tienen lugar entre un gran número de partículas y que describen las propiedades tales como la temperatura y la presión, dos propiedades que son insignificantes cuando se habla de una partícula individual. En otras palabras, tenemos fenómenos en los que el todo es más que la suma de sus partes.

Del mismo modo, las leyes de la química, que describen las interacciones a nivel atómico y molecular, no se pueden utilizar para predecir el comportamiento de un organismo biológico conjunto. Del mismo modo, el conocimiento de las leyes biológicas no da mucha información sobre los patrones emergentes y leyes generales que pueden observarse en la historia, la sociedad y la economía; para esto, se requiere que el método materialista del marxismo.

¿Qué es una ley?

El mismo razonamiento explica por qué la mecánica cuántica y la relatividad general son incompatibles: porque ambos son, como todas las leyes o teorías, sólo aproximaciones que pueden describir el movimiento de la materia, dentro de ciertos límites. Como Engels explica:

“[No] hay absolutamente ninguna necesidad de alarmarse por el hecho de que la etapa de conocimiento que hemos alcanzado es tan final como todos los que le han precedido … La verdad y el error, al igual que todos los pensamientos-los conceptos que se mueven en polos opuestos, tienen validez absoluta sólo en un campo muy limitado … Tan pronto como aplicamos la antítesis entre la verdad y el error fuera de ese estrecho campo que se ha mencionado anteriormente se vuelve relativo y, por tanto, inservible para los modos científicos exactos de expresión; y si tratamos de aplicarlo como absolutamente válida fuera de dicho ámbito del que realmente nos encontramos totalmente agotados: los dos polos de la antítesis se transforman en su contrario, la verdad se convierte en error y el error en verdad. “

El papel de la ciencia es mejorar continuamente nuestros modelos con el fin ampliar su utilidad; para aumentar nuestra comprensión de todas las formas de movimiento y para obtener una mayor precisión de la predicción. Así se dió la base para el salto de la mecánica newtoniana a las teorías de la relatividad y la mecánica cuántica. Las leyes de Newton son adecuadas para la mayoría de las experiencias del día a día, pero no pueden explicar el movimiento a pequeña escala o en altas velocidades.

Esta es entonces la regresión infinita del progreso científico – una serie representada por sucesivas generaciones de investigación, que exponen de manera amplia nuestra comprensión  más allá y se acercan a la captura de la infinitamente compleja naturaleza del Universo. Como Lenin comenta:

“El pensamiento humano entonces, por su naturaleza, es capaz de dar y sí  proporciona, la verdad absoluta, que está compuesta de una suma total de verdades relativas. Cada paso en el desarrollo de la ciencia añade nuevos granos a la suma de la verdad absoluta, pero los límites de la verdad de cada proposición científica son relativos, ahora expandiéndose, ahora encogiéndose con el crecimiento del conocimiento. “

La mecánica cuántica y la relatividad general son excelentes teorías que han demostrado que pueden  proporcionar predicciones exactas dentro de ciertos límites. Para tratar de unificar los dos, sin embargo, es una tarea inútil, ya que ellas están describiendo el movimiento en diferentes escalas, cada una con su propio conjunto de leyes que surgen de la interacción de la materia en movimiento en esas escalas.

La razón principal de los intentos de unificar estas teorías se debe a la hipótesis del Big Bang – una hipótesis que está a sí misma lejos de ser probada. Es más, incluso si había un momento en que una gran masa se concentró en una escala tan pequeña, esto necesariamente implica nuevas formas de interacción entre la materia, es decir, nuevas leyes emergentes, lo que sería diferente de las descritas por la mecánica cuántica, relatividad general, o incluso una combinación formal de los dos. El todo es siempre más que la suma  de sus partes.

Toda conversación, por lo tanto, de una “Teoría del Todo” es una utopía. Todas las teorías son verdades relativas, aproximaciones de la dinámica del movimiento dentro de los límites. Las leyes científicas de la naturaleza, al igual que con todas las leyes de la historia, la economía o la sociedad, no son leyes de hierro fundido, pero son descritas con más precisión como “tendencias”: generalizaciones que surgen de los procesos de la materia en movimiento, en el que las condiciones similares producen resultados similares. No existe una ley que es absoluta y universalmente aplicable a todas las situaciones en todo momento y en todas las escalas.

Para plantear la hipótesis de la posibilidad de una ley tan absoluta es ver el Universo de una forma idealista, ver las “leyes” como primarias y el mundo material como un reflejo secundario de estas leyes. El punto de visto materialista dialéctico afirma lo contrario: la materia en movimiento es lo principal y las leyes de la naturaleza surgen de las interacciones de la materia. Estas leyes no están escritas en la estructura del universo, pero son abstractas y generalizadas por la ciencia con el fin de comprender mejor y manipular el mundo que nos rodea. No hay un “programador de computadoras en el cielo”, que ha especificado y descrito todas las leyes de la naturaleza con antelación, sólo con presionar la tecla “enter” y sentarse a ver desplegar el movimiento de acuerdo con estas leyes.

Este es el concepto idealista de las “leyes” que se ha heredado del paradigma newtoniano y su mecánica del “determinismo puro” de un “reloj del Universo”, en el cual todo movimiento futuro puede ser especificado  y predicho a partir de un conocimiento de las condiciones iniciales y las leyes en juego. El materialismo dialéctico del marxismo, confirmado por toda la ciencia moderna, incluyendo las ideas de la teoría del caos, muestra cómo la materia en movimiento es fundamental, nuestras leyes son sólo descripciones aproximadas de este dinamismo complejo y la interacción mutua.

El único “Teoría del Todo” verdadero, por lo tanto, es una teoría, derivada de las experiencias generalizadas del proceso concreto que vemos en la naturaleza, la sociedad y el pensamiento, que describe las leyes generales de todo movimiento; las leyes del cambio en sí mismo. Tal teoría es explicada por la filosofía marxista del materialismo dialéctico.

Un paso adelante, dos pasos atrás

Los diversos misterios sin resolver en la física descritos anteriormente no son un secreto. La comunidad científica es plenamente consciente de los retos que enfrentan. La búsqueda de la solución a estos problemas ha producido muchos candidatos, ninguno de los cuales todavía puede cantar victoria. Lo que es notable, sin embargo, es lo poco que el campo de la cosmología ha avanzado en las últimas décadas.

Hay una multitud de aspirantes al trono de la Teoría del Todo. Estos incluyen la súpersimetría, la teoría de cuerdas, la teoría-M junto con otros. Hay muchas variedades y sabores diferentes dentro de cada teoría, con nuevas hipótesis, supuestos y extensiones realizadas a cada paso cuando las observaciones y experimentos no confirman las predicciones (¡si incluso hay ninguna predicción!) de la teoría original.

Por ejemplo, en la súpersimetría, se propone una nueva gama de partículas para explicar y unificar tres de las cuatro fuerzas de la naturaleza: el electromagnetismo, la fuerza nuclear débil y la fuerza nuclear fuerte. Sin embargo, los experimentos con el Gran Colisionador de Hadrones hasta ahora han fallado en encontrar cualquier evidencia de la súper simetría. En lugar de aceptar la muerte de la súpersimetría, los académicos han desarrollado versiones cada vez más elaboradas en un intento desesperado de mantener la teoría  viva (¡y al mismo tiempo sus carreras!). Es una gran ironía que en su búsqueda de la “belleza” de la simplicidad matemática, los físicos teóricos terminan produciendo modelos cada vez más difíciles de manejar que contienen un conjunto cada vez más amplio de las partículas y parámetros.

Por otra parte tenemos la teoría de cuerdas, que plantea la hipótesis de que todas las partículas elementales de la SMPP son de hecho variaciones de una sola cuerda vibrante fundamental, con diferentes energías de vibración que forman el conjunto de partículas que vemos. La supuesta elegancia de la teoría de cuerdas es que al parecer ofrece una Teoría del Todo que unifique la mecánica cuántica y la relatividad general. La desventaja es que la teoría sólo funciona si de hecho, a pesar de todas nuestras experiencias, vivimos en un universo de diez dimensiones que consiste de nueve dimensiones espaciales mas el tiempo. Estas seis dimensiones espaciales adicionales son, por lo que dice la teoría, no observables – y por lo tanto no comprobables – ya que se envuelven y se compacta a una escala minúscula.

De hecho, hay cinco teorías de cuerdas diferentes que pueden ser incluidas en una única teoría, conocida como la teoría M, si asumimos un universo de once dimensiones. De la teoría M se despliega el concepto de nuevos objetos matemáticos, tales como las “branas” discutidas anteriormente, que se dice están flotando alrededor y chocando unas con otras, lo que provoca los eventos como  de Big Bang.

Si todo esto suena bastante extravagante, es porque lo es. Debe hacerse hincapié en que no existe evidencia empírica para cualquiera de estas afirmaciones fantásticas. La teoría de cuerdas y la teoría M son simplemente un caso de un conjunto de suposiciones y conjeturas apiladas una sobre la otra. No son más que modelos matemáticos abstractos, juguetes y artículos de juego teóricos académicos, que, si bien internamente tienen coherencia en términos matemáticos, no tienen ni observaciones que los respalden, ni predicciones verificables para apoyarlos. Sorprendentemente, la teoría-M, que ha sido ampliamente discutida e investigada en el campo de la física teórica y la cosmología, en realidad no es una teoría en absoluto. Hasta el momento, en realidad nadie ha escrito formalmente por lo que sería o cómo debería ser; simplemente existe como la idea de una idea.

Tales teorías son completamente indemostrables y están más cerca de las discusiones medievales por parte de sacerdotes sobre “cuántos ángeles pueden bailar en la cabeza de un alfiler” que a una verdadera ciencia en ningún sentido significativo. Sin embargo, a pesar de estas graves limitaciones, esas teorías se presentan al público como ideas científicas viables por profesores conocidos como Brian Greene y otros científicos famosos. Parece que por cada paso dado hacia adelante en el campo de la cosmología se han dado  dos pasos hacia atrás, con un sinnúmero de horas de tiempo de trabajo y las enormes sumas de dinero que se desperdicia en la búsqueda de este tipo de oscurantistas e idealistas viajes de fantasía.