Fecha de recepción: mayo 13 de 2022
Fecha de aceptación: marzo 1 de 2023
doi: https://dx.doi.org/10.14482/eidos.40.986.001
Perspectivas actuales del indeterminismo en ciencia*
Current Perspectives on Indeterminism in Science
Nicolás García De Castro
Universidad de Antioquia (Medellín, Colombia)
Resumen
La mecánica de Newton fue considerada durante siglos y de manera virtualmente universal como el modelo absoluto del conocimiento científico. Sin embargo, durante el siglo XX, los desarrollos en física suscitaron la necesidad de ampliar el marco conceptual y teórico en torno a aspectos fundamentales como el poder predictivo de los modelos científicos o el rol del observador en la descripción de los fenómenos físicos; esto, a su vez, revitalizó el antiguo debate entre el determinismo y el indeterminismo. En la actualidad, la discusión disciplinaria, lejos de alcanzar un consenso, ha dado lugar a nuevos tipos de preguntas que reflejan un cambio en lo que Cassirer llama el ideal de conocimiento. A partir de una síntesis histórica del debate de las últimas décadas, el presente artículo busca señalar algunas perspectivas contemporáneas del indeterminismo en ciencia.
Palabras clave: determinismo, indeterminismo, predictibilidad, ideal de conocimiento.
Abstract
Newtonian mechanics was for centuries virtually universally regarded as the absolute model of scientific knowledge. However, during the 20th century, developments in physics prompted the need to broaden the conceptual and theoretical framework around fundamental issues such as the predictive power of scientific models or the role of the observer in the description of physical phenomena; this in turn revitalised the long-standing debate between determinism and indeterminism. Today, the disciplinary discussion, far from reaching a consensus, has given rise to new kinds of questions that reflect a change in what Cassirer calls the ideal of knowledge. From a historical synthesis of the debate of the last decades, the present article seeks to point out some contemporary perspectives on indeterminism in science.
Keywords: determinism, indeterminism, predectibility, ideal of knowledge.
Introducción
Ciertamente, los medios de difusión científica más potentes como museos, planetarios y revistas suelen hacer énfasis en los avances del conocimiento y en los aciertos en la investigación. Esto ha contribuido a que la percepción del público general sobre la ciencia siga siendo la de un proceso más o menos homogéneo de crecimiento constante y sin grandes contradicciones, que conducirá pronto a una unificación teórica tal que estaremos en condiciones de "leer la mente de Dios", como escribió Stephen Hawking (1988).1 Por contraste, la filosofía y la historia de la ciencia, consolidadas durante el siglo XX, han considerado más ampliamente a la ciencia, reconociéndola como un "fenómeno sociocultural [...] sometido a las vicisitudes y contingencias del tiempo y la historia" (Orozco, 2009, p. xvii).
Así como la filosofía, al menos desde Nietzsche, ha asumido una postura crítica frente al conocimiento científico (Gentili y Nielsen, 2010), también la literatura ha aportado —desde la sátira de Moro sobre una isla regida por principios absolutamente racionales, pasando por las terribles distopías de principios del siglo XX hasta las profundas reflexiones sobre el conocimiento científico que aparecen en autores como Jorge Luis Borges o Umberto Eco— escenificaciones narrativas del conocimiento científico relativamente divergentes de la visión más difundida de la ciencia. De cualquier modo, la mayoría de las narraciones que involucran a la ciencia, en especial las producciones del género de la ciencia ficción, se ocupan sobre todo de los efectos que promete o amenaza el saber científico en su operacionalización tecnológica. Allí suele representarse a los científicos como algo que no son: como ingenieros que hacen experimentos para alcanzar fines prácticos. Y dichas representaciones, a su vez, contribuyen con una imagen distorsionada de la ciencia, que confunde mucho a los estudiantes primerizos respecto de las perspectivas de investigación en la Universidad, como bien acusó el profesor Asdrúbal Valencia Giraldo (2003). Por cierto, otras narraciones ficcionales han hecho eco de posturas abiertamente anticientíficas, que descalifican el discurso científico como apropiado para discutir lo humano, dado su carácter objetivador y su pretendida relación de dominación sobre la naturaleza (Suzunaga, 2013).
Igualmente, a nivel político, las instituciones promueven una visión estática de la ciencia, ligada siempre a una perenne «innovación» tecnológica asociada con el bienestar futuro. De este modo, si se habla de una "nueva era científica" (Adams, 2001), la mayoría de las personas piensa en un conocimiento hiperes-pecializado sobre partículas cada vez más pequeñas (positrones, bosones, etc.) o sobre fuerzas cada vez más abstractas y, en últimas, en el arribo a un conocimiento casi divino sobre el universo. Por el contrario, la discusión más técnica al interior de distintas disciplinas, así como la reflexión crítica desde la filosofía y la historia de la ciencia nos ofrecen un panorama menos definido, menos prometedor si se quiere, pero también más comprometedor, pues conduce en última instancia a la reflexión, como en Borges o Eco, sobre el papel del ser humano en el cosmos y, en este, el rol del conocimiento científico.
Durante el siglo XX la ciencia experimentó cambios cualitativos; más allá del rápido desarrollo de las disciplinas y de los numerosos éxitos prácticos que ya habían sobrevenido desde el siglo anterior, las circunstancias sociales en que se despliega la actividad científica se transformaron, entre otras causas, gracias a programas de alfabetización que estuvieron en la base de las políticas de desarrollo de potencias y aliados: el número de personas con acceso a la educación universitaria, por ejemplo, creció de manera vertiginosa y sin precedentes, de suerte que los estudiantes llegaron a constituir una clase social nueva (Hobs-bawm, 1994, 1998). Incluso a nivel lingüístico, es evidente "que la comunicación cotidiana y coloquial se ha enriquecido por el discurso científico" (Roelcke y Kniffka, 2016, p. 14). Pero, la transformación cualitativa de la ciencia no se limita al marco cultural o social de sus realizaciones. Al interior mismo de los postulados científicos, independientemente de las áreas o campos de saber, la investigación científica ha encontrado nuevas fronteras que, lejos de cumplir con las expectativas de un crecimiento infinito, más bien señalan verdaderos límites. Por cierto, estos límites no se circunscriben únicamente a los objetos de investigación, como podría ser el caso de la demostración de que la materia no puede viajar más rápido que la luz, sino que se imponen a las teorías científicas mismas, a los modos de producir el conocimiento racional y, en un plano más general, a la concepción de lo que es la ciencia, a lo que Cassirer (1922, 2018) llamó "el ideal de conocimiento" [Erkenntnisideal].
En el presente artículo se pretende ilustrar esta transformación acudiendo a una antigua discusión entre filosofía y ciencia, a saber, la confrontación entre (a) el (supuesto) determinismo de las leyes de la naturaleza, que durante siglos pareció avalado por las ciencias físicas y (b) el (supuesto) indeterminismo inherente a las elecciones éticas del ser humano. Haciendo énfasis en el primero de los términos (a) de esta aparente oposición, se delinearán algunas perspectivas de reflexión que ofrece la física contemporánea.
I. La crisis de la física en el siglo XX
Uno de los aspectos en los que más se evidencia la transformación de la producción de conocimiento racional está relacionado con la capacidad predictiva de los modelos científicos. En su libro The Open Universe. An argument for indeterminism (1988),2 Popper discutió a fondo la relevancia histórica que a este respecto desempeñó la consolidación de la física que hoy llamamos clásica: si bien la idea de que el futuro está determinado de antemano y es tan inalterable como el pasado tiene un origen religioso, fue "el triunfo de las leyes de Kepler y de la dinámica celeste de Newton el que condujo a una aceptación casi universal del determinismo 'científico'" (Popper, 1988, p. 7). Con las comillas simples el autor indica de manera explícita que se trata de una postura determinista que pretende encontrar su fundamento en las teorías científicas, especialmente las de la física. La diferencia fundamental de la secularización que resulta de remplazar la idea de Dios por la de naturaleza y la idea de "ley divina" por la de "ley natural" radica en que, "por contraste con Dios, que es inescrutable y a quien solo se lo puede conocer por una revelación, las leyes de la naturaleza pueden ser descubiertas por el intelecto humano con el apoyo de la experiencia humana" (p. 6). Una vez que la física estuvo en condiciones de explicar con precisión el movimiento de los planetas, que hasta entonces fueran "el más notorio símbolo del capricho" (p. 7), científicos y filósofos tuvieron muchas razones para suponer que la inteligencia humana podría inferir leyes universales capaces de predecir cualquier fenómeno, siempre que se contara con la información de partida relevante. Como, además, nada permitía suponer que nuestro conocimiento tuviera un límite inherente, esta visión del mundo sustentó un ideal de ciencia, expresado por Laplace (1825, p. 4), por ejemplo, con la imagen de un demonio que dispusiera de un conocimiento pleno de las leyes naturales y del estado general del universo, y para el cual "nada podría ser incierto y el futuro, como el pasado, aparecerían presentes en su mente".
Para la época en que Popper iniciaba su indagación, todavía eran muy difundidas ciertas corrientes de pensamiento decididamente deterministas como el conductismo (parágrafos 4 y 7 del capítulo I y Popper y Eccles, 1977) o lo que él denomina historicismo (Popper, 1945, 1957) que, extrapolando la potencia predictiva del modelo newtoniano, suponían que bastaría con seguir recabando información para llegar a explicar (lo que además equivaldría a predecir) el comportamiento de las personas o los movimientos políticos en la historia de las sociedades. Por oposición, los análisis de la historia o del comportamiento humano que defendían el carácter indeterminista de sus respectivos objetos de estudio enfrentaban el problema de fondo, es decir, la explicación de cómo el mundo humano comportaría una excepción dentro del mundo físico.3
Ambas posiciones mencionadas pasaron por alto un asunto clave que solo vino a ocupar el primer plano de la discusión en las últimas décadas del siglo XIX, a saber, la interrogante de si estamos en condiciones de obtener toda la información de partida relevante. Mientras que científicos como Laplace creyeron que las limitaciones al respecto podrían solventarse con el avance de la investigación y el mejoramiento de los métodos y técnicas de observación y de análisis, los modelos científicos se confrontaron cada vez más directamente con lo que Popper llama "el principio de acontabilidad",4 dado que una predicción racional no podrá ser nunca más precisa que la información de partida de la que dispone.5 Una teoría científica no puede eludir los fallos o imprecisiones en sus predicciones arguyendo que no se disponía de la suficiente información sobre el estado actual del sistema, sino que debe estar en condiciones de dar cuenta [accountfor] de qué tipo de información y cuán precisa requiere que esta sea.
Ya en los trabajos de Maxwell o de Boltzmann, la teoría de probabilidades sirvió para sortear las limitaciones a la hora de medir las trayectorias individuales de millones de partículas implicadas en sistemas muy complejos como el movimiento de los gases, por ejemplo. Desde entonces, las probabilidades fueron relegadas a un plano fenomenológico, asociadas a nuestra limitación en la observación o a la ausencia de información. Pero, con el advenimiento de la mecánica cuántica, cuya formulación estándar está relacionada con la escuela de Copenhague, y cuyos autores más reconocidos fueron Bohr y Heisenberg, el cálculo de probabilidades cobró una nueva dimensión y las dificultades para obtener toda la información sobre el estado actual de una partícula pasaron de ser un problema meramente metodológico a ocupar un lugar central en los modelos explicativos, en la descripción de los fenómenos y en la concepción misma de la ciencia. Como se sabe, el principio de incertidumbre, también llamado "relación de indeterminación" (Popper, op. cit., p. 50), demuestra una proporcionalidad inversa entre las variables de posición y de velocidad o momentum de una partícula, es decir, que mientras más precisamente se quiera medir una de esas dos variables, menos precisa será la medición de la otra. La interpretación de Copenhague es que esto ocurre en la medición de cualquier partícula fundamental, electrones o fotones, por ejemplo, y que, por lo tanto, al medir una partícula elemental estamos, de hecho, perturbándola o interfiriendo con ella.
Frente al determinismo 'científico', es decir, frente a la idea de que "la estructura del mundo es tal que se puede calcular racionalmente y por anticipado cualquier evento futuro si tan solo conocemos las leyes de la naturaleza y el estado presente o pasado del mundo" (ibid., p. 1), los desarrollos de la física cuántica oponen una concepción en la que es el observador quien, con sus mediciones, aporta la determinación de los procesos que hasta ese momento permanecen como meras posibilidades. Y, ciertamente, usando la teoría de probabilidades para contrastar esas (en principio infinitas) posibilidades, con las mediciones concretas de la observación (lo que se conoce como "el colapso de la función de onda"), la física cuántica obtuvo impresionantes conquistas experimentales, empezando por la reorganización de la tabla periódica de los elementos. Semejantes éxitos también suscitaron un renovado entusiasmo, que fue celebrado como un hallazgo definitivo. Así puede leerse, por ejemplo, en Leopold Infeld (1978, 2013), en su momento gran colaborador de Einstein, ya bien entrada la segunda mitad del siglo XX: "La arrogancia dominaba en el imperio de la ciencia [durante el siglo XIX]. El soberbio conocimiento de que el mundo está gobernado por leyes deterministas había de ser destruido recién cien años después por el advenimiento de la teoría cuántica" (p. 23).
Y, sin embargo, el debate no quedó, en absoluto, cerrado. Como anota Prigogine, "el rol del observador, que le dio su tono subjetivista a la mecánica cuántica, fue la razón por la que Einstein se abstuviera de aceptarla, y condujo desde entonces a controversias interminables" (1997, p. 5). En efecto, no solo Einstein,6Planck o von Laute fueron desde el principio opositores de la interpretación de Copenhague, sino que también Broglie, Landé o Bohm, entre otros (Popper, 1982, p. 14), se fueron apartando de ella, proponiendo alternativas respecto de la visión más ortodoxa que consideraba esa interpretación como definitiva en su campo de investigación.
Desde el punto de vista de la filosofía de la ciencia, la controversia en torno al rol del observador en los modelos explicativos de la física puede ser por sí misma representativa de la transformación en el ideal de conocimiento, por cuanto condujo al debate entre realismo y antirrealismo (Diéguez, 2005). De acuerdo con la interpretación ortodoxa, que en su momento llegó a ser "casi universalmente aceptada" (Popper, 1982, p. 35), "[solo] sucede realmente algo cuando se somete a observación [...] Nada ocurre en absoluto entre observaciones", como escribió el físico alemán Wolfgang Pauli en 1947 (citado por Prigogine, 1997, p. 50). Por su parte, Heisenberg escribe: "La concepción de la realidad objetiva de las partículas elementales se ha evaporado [...] en la claridad de unas matemáticas que ya no representan el comportamiento de las partículas elementales sino más bien nuestro conocimiento de dichas partículas" (1958, p. 100). En oposición, cada vez más científicos plantearon, más allá del debate ideológico, una objeción técnica; mientras que algunos físicos influyentes como Von Neumann o Heisenberg pretendieron haber demostrado que la teoría cuántica serviría para interpretar todos los fenómenos y otros, como Paul Davis, señalaban que de esa manera no podría explicarse al menos un fenómeno, a saber, el de la observación misma:
En terreno sólido, la mecánica cuántica ha proveído procedimientos altamente exitosos para predecir los resultados en observaciones de microsistemas, ¡pero cuando preguntamos qué ocurre realmente cuando una observación toma lugar, obtenemos puros disparates! Los intentos por superar esta paradoja van desde lo bizarro, como la interpretación de los universos múltiples de Hugh Everett, hasta las ideas místicas de John Von Neumann y Eugine Wigner, que invocan la consciencia del observador. (Davies, 1989, p. 6)
El desplazamiento radical en el ideal de conocimiento ya no se circunscribe, pues, a los alcances predictivos de los modelos científicos, aspecto en el que la cuántica demostró altísimos rendimientos, sino al papel que se otorga en los modelos explicativos a lo indeterminado, a aquello que escapa a nuestra observación. Para filósofos como Popper, la historia de la ciencia resulta esclarecedora, y resalta que la imposibilidad de recabar toda la información de partida no aparece únicamente cuando se analizan estructuras microscópicas al interior del átomo, sino que incluso desde la época de Newton se recurrió a métodos de aproximación para calcular, por ejemplo, la interacción gravitacional de un sistema de más de dos cuerpos. A pesar de que científicos como Laplace creyeran erróneamente haber resuelto el problema de la estabilidad del sistema solar (Popper, op. cit., p. 31), lo cierto es que tampoco la mecánica newtoniana cumple con las exigencias que impone el principio de acontabilidad.7
Desde esta perspectiva, la imposibilidad de recabar toda la información de partida relevante no es exclusiva de la teoría cuántica, sino que es inherente a todo conocimiento científico. Una teoría puede tener un carácter de prima facie determinista, pero no puede imponer ese carácter a la naturaleza: "incluso si asumiéramos que la mecánica de Newton es válida, sería claro que él todavía no ha obtenido una teoría que imponga el determinismo pues, aún si no halláramos otra razón, todavía no ha mostrado que todos los eventos físicos sean mecánicos" (Popper, 1982, p. 38). Por oposición a lo que llama las "consecuencias ontológicas" que extraen Heisenberg, Von Neumann y demás defensores de la interpretación ortodoxa de la cuántica —para la que nuestras limitaciones en la observación son las responsables de introducir la determinación en la naturaleza—, más bien se trata, para Popper, de resaltar el "carácter parcial de todo conocimiento científico" (1982, p. 55). Esta parcialidad, que a su vez está estrechamente vinculada a la creatividad y la libertad humanas (Popper, 1945, 1952, 1957), constituye "el argumento filosófico más fundamental en contra del determinismo 'científico'" (García, 1982, p. 55). Haciendo énfasis en que no podremos predecir el conocimiento que nuestras investigaciones nos procuren, ni mucho menos los efectos que dicho conocimiento tenga sobre nosotros o sobre el mundo, el autor propone (anticipa) una alternativa a la interpretación de Copenhague que llama "teoría de las propensiones".8 Desde esta perspectiva, la novedad (la evolución) y las propiedades emergentes (imprevisibles) podrían incluirse en una descripción realista de la naturaleza, en la que las probabilidades ya no se limiten a las propiedades de las partículas ni a suposiciones sobre el estado inicial de los fenómenos sino a los estados específicos en los que se presentan.
En la siguiente sección se mostrará cómo la investigación experimental liderada por Prigogine durante las últimas décadas del siglo XX puede leerse como un nuevo capítulo en la discusión del determinismo, puesto que, en consonancia con la propuesta más epistemológica de Popper, confiere un valor nuevo a lo indeterminado, superando la suposición de que son nuestras observaciones imperfectas las que "actualizan" la infinitud potencial de los fenómenos.
II. Entender no es predecir
Hasta ahora se ha expuesto cómo la física del siglo XX rebatió el determinismo laplaceano del siglo XIX, en tanto que no solo demuestra la imposibilidad de obtener toda la información de partida relevante para predecir fenómenos, sino que además recurre a dicha imposibilidad para obtener predicciones asombrosamente acertadas con la ayuda de modelos probabilísticos. Sin embargo, respecto de la discusión filosófica en torno a la aparente oposición entre el determinismo de las leyes naturales y las leyes de la libertad, la interpretación ortodoxa de la mecánica cuántica parece abrir aún más la brecha, puesto que sería nuestra observación limitada (la "consciencia" en la interpretación de Von Neumann) la responsable de que los fenómenos naturales, en principio indeterminados como meras posibilidades en los microestados (es decir, a nivel subatómico), se "actualicen" en la realidad de los macroestados que percibimos.
Así pues, este pretendido "rol del observador" es la razón por la que filósofos como Popper insistan en que el debate debe continuarse, considerando el asunto desde la perspectiva de la historia de la ciencia. Al confrontar la mecánica newtoniana con el principio de acontabilidad, el autor concluye que la física clásica tampoco sustenta una visión determinista del mundo sino que, como todo conocimiento racional, es limitada y parcial; por lo tanto, no podremos predecir al menos un fenómeno, el del crecimiento del conocimiento. En consecuencia, la postura de Popper es que toda la ciencia y la historia de la ciencia son el argumento filosófico más potente en contra del determinismo. Por lo demás, esta objeción, digamos, "epistemológica", al determinismo 'científico' se complementa con una discusión técnica al interior de la física. Por ejemplo, si —como escribe Murray Gell-Mann en su libro El quark y el jaguar (1995, p. 6)— "la mecánica cuántica no es por sí una teoría, sino más bien el marco general en el que debe encuadrarse cualquier teoría física contemporánea", debería estar en condiciones de explicar qué tipo de fenómeno constituye entonces una observación. Esto se conoce también como la paradoja cuántica. En términos de la aparente oposición entre las leyes de la naturaleza y las de la libertad, esto supondría un dualismo exacerbado. Pues bien, Prigogine plantea que, gracias a impresionantes avances experimentales de la física durante las últimas décadas del siglo XX, ahora estamos en condiciones de superar dicha paradoja.
Para Prigogine no resultan ajenas las consideraciones filosóficas que subyacen a la discusión del determinismo y que emergieron en el debate técnico al interior de la física, lo que se puede ver por sus constantes referencias a la historia de la filosofía, empezando por las reflexiones de Epicuro sobre el devenir y el cambio. Sin embargo, resalta que su propuesta para solventar los dilemas implicados en el dualismo exacerbado de la interpretación ortodoxa de la mecánica cuántica se basa en desarrollos experimentales, en especial en los espectaculares progresos en termodinámica y en una nueva disciplina, la física de procesos alejados del equilibrio, que surgió en las últimas décadas del siglo XX. Su enfoque se basa en lo que incluso para un crítico tan sagaz de la interpretación de Copenhague y del determinismo científico como Popper solo es "secundario" respecto del debate sobre el determinismo: "la asimetría entre el pasado y el futuro" (Popper, 1988, p. 55), lo que también se conoce como "la flecha del tiempo" [the arrow of time].9
Y es que, si bien fue la inclusión de la variable de tiempo en las ecuaciones para describir los movimientos planetarios la que fundó las bases de la física clásica, esas mismas ecuaciones limitaron o, en palabras de Prigogine, "banalizaron" la asimetría entre el pasado y el futuro. Solo hasta Kepler los modelos para describir el sistema solar se producían con base en la geometría; fue la inclusión de la relación entre la distancia del sol a los planetas y la velocidad de estos (en cuya descripción aparece necesariamente la variable t para el tiempo) lo que permitió introducir fuerzas físicas en la concepción de la dinámica celeste (Koestler, 1981). Desde la síntesis newtoniana, la variable tiempo t en las ecuaciones para describir trayectorias se puede remplazar por su equivalente negativo -t sin alterar en absoluto la ecuación. Así, a partir de una información completa del estado actual de un sistema y de las leyes que lo rigen, no solo estaríamos en condiciones de predecir sus estadios futuros, sino también de proyectarlos hacia el pasado [retrodict]. De este modo, las leyes fundamentales de la física, tal como fueron heredadas por el siglo XX, excluían la posibilidad de que hubiese procesos propiamente irreversibles y negaban la unidireccionalidad del tiempo. En la relatividad y en la cuántica, la reversibilidad del tiempo en las ecuaciones se mantuvo. Sin embargo:
La ciencia no es un bloque monolítico. De hecho, el siglo XIX nos dejó una herencia doble: las leyes de la naturaleza, como las de Newton, que describen un universo reversible en el tiempo, y una descripción evolutiva asociada con la entropía. (Popper, 1988, p.17)
En efecto, desde que Joule lograra medir experimentalmente la equivalencia mecánica de la caloría, y los científicos del siglo XIX abandonaran la idea de que el calor es un fluido, se hizo posible reconocer que algunos procesos naturales son (al menos en apariencia) irreversibles, rompiendo la simetría temporal. Así lo anota Geymonat (1970, 1998):
La transformación del trabajo en calor constituyó el primer y más típico ejemplo de proceso irreversible estudiado por la física («irreversible» porque, una vez realizado el proceso, no podemos hacer el recorrido en sentido inverso para devolverlo todo al estado inicial: no podemos volver a transformar la totalidad del calor en trabajo). La consideración de los fenómenos irreversibles en física significó la introducción del factor «tiempo» en el mundo natural inorgánico. (p. 562)
Ya en 1865, el gran Rudolf Julius Clausius formuló una definición de entropía (en griego, "evolución") para referirse a la tendencia al equilibrio, observable en numerosos fenómenos como las reacciones químicas o la difusión: partiendo de componentes que reaccionan entre sí, con el paso del tiempo estos alcanzarán un estado de equilibrio y la reacción se detendrá; igualmente, partiendo de un estado heterogéneo, la difusión tenderá a homogeneizar el sistema.
De manera llamativa, los desarrollos en la descripción de estos fenómenos irreversibles condujo, hasta la propuesta de Prigogine y sus colaboradores, a conclusiones muy similares a las de la interpretación de Copenhague de la mecánica cuántica, en términos de que serían nuestras limitaciones en tanto que observadores imperfectos las responsables de que surja, como mera apariencia, una dirección en el tiempo en los procesos macroscópicos que sin duda desaparecería si tuviéramos conocimiento pleno de lo que ocurre a nivel de los microestados. Para comprender mejor esta situación conviene remitir a lo que Prigogine (1998, pp. 19 y ss.) llama "la tragedia" de Boltzmann, que resumiremos a continuación.
Más arriba se mencionó cómo los desarrollos de Boltzmann constituyeron una solución metodológica para superar las dificultades a la hora de obtener información completa del estado de sistemas que involucraran millones de partículas y cómo, desde entonces, las probabilidades fueron relegadas a un plano fenomenológico. Sin embargo, el físico vienés había partido de una perspectiva muy diferente, a partir de la cual Prigogine resalta un paralelo con la teoría evolutiva de Darwin. Este último había mostrado que la evolución de las especies no se puede explicar estudiando a los individuos sino a las poblaciones. De manera similar, Boltzmann intentó explicar el aumento de la entropía en un sistema, no desde las trayectorias individuales de las partículas, sino como el resultado de numerosas colisiones en grandes poblaciones de ellas. Remplazando el estudio particular por el estudio de poblaciones, se podría explicar cómo pequeñas variaciones (de individuos en Darwin, de colisiones microscópicas en Boltzmann) producen una evolución a nivel colectivo.
Ahora bien, en 1872, Boltzmann publicó el famoso "teorema H" que incluía la función H, un parangón microscópico de la entropía. Sobre este asunto, Boltzmann propone que imaginemos un volumen dividido en dos compartimientos iguales, conectados entre sí, y que contenga un inmenso número de partículas (como el número de Avogadro, por ejemplo). Es obvio que no podremos calcular el comportamiento individual de cada partícula; por esta razón, Boltzmann introdujo la suposición de que a cada estado microscópico le corresponde a priori la misma probabilidad, y la diferencia se hallaría en el nivel macroscópico descrito por parámetros observables como temperatura o presión, con los que podemos determinar el número de partículas. Si disponemos un estado inicial en el que uno de los compartimentos contiene todas las partículas y el otro está vacío, podemos observar que, con el transcurso del tiempo, las moléculas empezarán a llenar este último. Mientras el sistema se acerca al equilibrio, la función H decrece y, cuando esta alcanza su valor mínimo, indica que las colisiones entre partículas dejan de modificar la distribución de sus velocidades y el sistema habrá alcanzado el equilibrio. Sin embargo, esta interpretación sucumbía frente a la reversibilidad del tiempo implícita en la ecuación fundamental de las trayectorias: si invirtiéramos las velocidades individuales de cada partícula, el sistema se devolvería a su propio pasado y, aunque la entropía fuera creciente antes de la inversión, entonces decrecería. Boltzmann no logró superar esta aporía, pues no tuvo cómo demostrar la imposibilidad de que, si dispusiéramos de un tiempo infinito de observación, no surgiría eventualmente una desviación espontánea del equilibrio, aunque esto fuera, como él mismo concluye, muy improbable. A diferencia de la teoría de Darwin, cuyo enfoque evolutivo de las poblaciones en relación a las variaciones a nivel individual sentó las bases para nuestra actual comprensión de la vida, la interpretación microscópica de la segunda ley de la termodinámica planteada por Boltzmann no superó la crítica severa que recibió durante años y su autor hubo de remplazarla por una interpretación probabilística, basada en nuestra carencia de información.
Todavía en las últimas décadas del siglo XX "la opinión general era que las probabilidades son un estado mental y no un estado del mundo" (Popper, 1988, p, 4). La explicación de que se observara irreversibilidad a nivel macroscópico, como se ha mencionado, fue reducida al plano fenomenológico y a nuestra carencia de información, como puede leerse en Gell-Mann (1995):
Hay más modos en que la mantequilla de maní y la jalea contaminen sus respectivos compartimentos de los que hay para que permanezcan completamente puros. Y hay más modos en los que las moléculas de gas del oxígeno y el nitrógeno se mezclen de los que hay para que se segreguen. En tanto que el azar está operando, es muy probable que un sistema cerrado que está en alguna clase de orden se mueva hacia el desorden, que ofrece muchas más posibilidades. [...] De hecho, la entropía puede entenderse como una medida de la ignorancia. Cuando se conoce que un sistema está en un macroestado dado, su entropía mide el grado en que se ignora el microestado, contando el número de bits que harían falta para especificarlo, asumiendo que todos los microestados dentro del macroestado son igualmente probables. (p. 218)
Para superar la aparente oposición entre la irreversibilidad observable en un sinnúmero de fenómenos tanto físicos como químicos y la descripción de la naturaleza que nos ofrecían las ecuaciones fundamentales de la física, Prigogine propone una reescritura de las leyes naturales que incluya el caos y la inestabilidad, otorgándole un nuevo significado a la variable del tiempo. En este punto, señala, también hizo falta una ampliación de las matemáticas. De acuerdo con la transformación en el ideal de conocimiento que intentamos ilustrar, esta relación entre la física, por un lado, y la lógica y las matemáticas por el otro, resulta muy relevante, por cuanto también en estos dos campos el siglo XX llegó a demostrar un límite nuevo en la construcción del conocimiento, en este caso desde el punto de vista formal.
Con el fin de resaltar esta analogía, conviene volver a la historia de la ciencia y a algunas observaciones de Popper. Como se mostró en líneas anteriores, el principio de acontabilidad reclama de una teoría científica la especificación de cuál sería la información de partida relevante para una predicción. Pero, en un sentido más fuerte, este principio también exige que las teorías científicas establezcan con antelación qué tan exactos han de ser los resultados de la predicción. Respecto de este "sentido fuerte" del principio de acontabilidad, Popper (1988, p. 39) aduce un experimento publicado por Hadamard en 1898,10 cuyos resultados constituyeron una refutación al determinismo de Laplace, mucho antes de la aparición de la teoría cuántica y, sin embargo, no despertaron tanto revuelo en su momento. Una clave para entender esta situación se puede encontrar en sendas notas a pie en el texto de Popper, en las que se comentan las conclusiones filosóficas que extrajo Hadamard: su experimento muestra que, aun suponiendo que pudiéramos establecer con absoluta certeza la posición de inicio y predecir a partir de allí las trayectorias individuales de cada uno [any given] de los cuerpos, de ello no se puede deducir una regla general para establecer el comportamiento entero del sistema, es decir, para todas [for all] las trayectorias posibles. En la nota al pie número 4 del capítulo 14, Popper (1988) establece una referencia directa al teorema de Gödel:
La diferencia entre "todos" [for all] y "cualquiera" [any given] en esta formulación [de Hadamard] muestra cierta analogía con el hecho (descubierto por Gödel) según el cual aunque podemos construir, para cualquier axioma aritmético, una teoría formal en la que el axioma sea decidible, no podemos construir una teoría formal en la que todos los axiomas lo sean. Con esta analogía en mente podemos decir que la cuestión de Hadamard (que se pregunta si un sistema de más de un cuerpo cuyas condiciones iniciales estén dadas con un grado finito de precisión estará por siempre en un mismo estado específico) es una cuestión físicamente indecidible. (p. 40)
La similitud entre los resultados de Hadamard y los postulados de Gödel es también histórica, aunque no sigan exactamente el mismo curso. También en matemáticas, la suposición de que podría lograrse una axiomatización completa se remonta a la primera modernidad, a Descartes y Leibniz (Kline, 1972, 2012, pp. 1569 y ss.). Con la publicación de Gödel en 1931, la investigación cambió de rumbo, pues se demostró que había un límite definitivo en el programa de la axiomatización completa. De cualquier modo, no por ello las matemáticas perdieron su vitalidad; por el contrario, en torno a esta imposibilidad o límite formal, se abrieron nuevos campos de investigación y nuevas perspectivas al interior de ellos. Así lo describe Kline (1972, 2012):
La cuestión acerca de la base lógica adecuada para la matemática y el nacimiento en particular del intuicionismo viene a sugerir que, en un sentido muy general, la matemática ha recorrido un círculo completo. Sus comienzos tuvieron una base intuitiva y empírica. El rigor se convirtió en una necesidad con los griegos y, aunque escasamente logrado hasta el siglo XIX, por un momento pareció alcanzado. Pero lo cierto es que todos los esfuerzos por perseguir el rigor hasta el final han conducido a un impasse en el que ya no hay acuerdo acerca de qué es lo que realmente significa. La matemática sigue viva y con saludable vitalidad, pero sólo apoyándose en una base pragmática. (p. 1599)
Este cambio de actitud respecto de las limitaciones formales en el que, en el transcurso de unas décadas, los problemas insolubles dejan de parecer absurdos o faltos de sentido y adquieren una significación nueva es característico de muchos modelos explicativos actuales y ocupa un lugar central en la argumentación de Prigogine. En el mismo sentido, Popper lo remarca en la otra nota al pie arriba mencionada, en la que discute las conclusiones epistemológicas que Hadamard extrae de sus experimentos cuando afirma que estos sugieren que el problema de la estabilidad del sistema solar "dejaría de tener sentido". Frente a ello, Popper anota:
Mostrar que un problema no puede calcularse en base a una teoría sumada a cualquier medición de las condiciones iniciales, por precisas que sean, no significa en absoluto que el problema carezca de sentido; más bien, ello establece que el problema es insoluble. Un problema insoluble no carece de significado y el descubrimiento de su insolubilidad puede elucidarlo tanto como el descubrimiento de una solución.11 (1988, p. 40)
Por su parte, Prigogine remite a desarrollos en matemáticas de finales del siglo XIX, específicamente a la teoría de resonancias de Jules-Henry Poincaré (Petrosky y Prigogine, 1991). Esta teoría no solo demuestra, como el experimento de Hadamard, que ciertos sistemas dinámicos no son integrables, es decir, que no se pueden remplazar las condiciones particulares por variables generales válidas en todos los casos, sino que da un paso más, explicando por qué ello es así. Luego, con un abordaje inspirado en la propuesta evolutiva de Boltzmann, Poincaré asume que el comportamiento de las partículas individuales no está determinado únicamente por sus respectivas trayectorias, que son un evento local, sino por incontables interacciones entre ellas que limitan la solución de las ecuaciones de movimiento (de trayectorias individuales). Estas interacciones se pueden describir, en cambio, a partir de la relación entre las frecuencias de cada movimiento: si una fuente se desplaza de su punto de equilibrio, esta vibrará con una frecuencia característica. Si sometemos esta fuente a una fuerza externa cuya propia frecuencia puede variar, y dado el caso de que la ratio numérica entre ambas frecuencias sea simple (es decir, que son iguales, o bien que la una es dos, tres o cuatro... veces más grande), la amplitud del movimiento de la fuente se incrementa dramáticamente. Esta creciente divergencia hace imposible calcular el movimiento de todas las trayectorias individuales e impone una solución estadística del sistema entero, no local.
Sin embargo, los desarrollos de Poincaré fueron pasados por alto durante décadas. La explicación, para Prigogine (1997, p. 40), es que "era muy difícil de creer que una dificultad técnica (las divergencias resultantes de las resonancias) pudieran alterar la estructura conceptual de la dinámica". Por oposición, Prigogine asume la imposibilidad analítica de calcular la trayectoria individual de partículas en sistemas complejos como una oportunidad. Sesenta años después de Poincaré, la llamada teoría KAM (por las iniciales de sus autores Kolmogorov, Arnold y Moser) se abocó a estudiar la influencia de las resonancias en las trayectorias. El resultado es que, por cuenta de las resonancias, se producen tanto trayectorias "bonitas" y deterministas ["nice" trajectories] como trayectorias "aleatorias" ["random" trajectories] y, además, que, dado un incremento en la energía del sistema, aumentan también las regiones en las que prevalece la aleatoriedad. De este modo, aun comenzando por el intento de determinar las trayectorias individuales, con el paso del tiempo emergen nuevas condiciones que las afectan y que no se podrían calcular por anticipado. Sin importar cuán determinadas sean las condiciones de partida, las trayectorias dejan de ser la causa de la tendencia al equilibrio en el sistema y se pueden concebir como resultados de procesos probabilísticos o, más precisamente, estocásticos.
De acuerdo con Prigogine, la simetría temporal en las ecuaciones newtonianas, en las que los roles del pasado y el futuro se mantienen invariables respecto de la inversión temporal (t → -t), es la que les impone un carácter determinista y conduce a pesadillas como el demonio de Laplace. Y, si bien la relatividad y la cuántica superaron en muchos aspectos a la mecánica clásica, la reversibilidad del tiempo se mantuvo. En cuántica las ecuaciones no describen trayectorias, sino funciones de onda, pero la ecuación fundamental, la de Schrödinger, sigue siendo determinista a este respecto (los subrayados son de Prigogine):
Por una parte, está la ecuación de Schrödinger, que describe de manera totalmente determinista cómo la función de onda para cualquier sistema cambia con el tiempo. Luego, bien aparte, hay un aparato de principios que nos dice cómo usar la función de onda para calcular los múltiples resultados posibles cuando alguien hace una medición. (Weinberg, 1994, citado por Prigogine, p. 15)
Al incluir la asimetría entre pasado y futuro en la descripción de los fenómenos, las condiciones de partida pierden la relevancia que se les confería, al menos desde Newton, en la predicción de los fenómenos, y ya no hace falta subordinar el cálculo de probabilidades a las limitaciones de nuestra observación, sino que pueden incluirse en la formulación misma de las ecuaciones fundamentales. El indeterminismo encuentra así sus fundamentos en la física, sin necesidad de recurrir a consideraciones ontológicas o metafísicas. En este sentido, la física de Prigogine desmiente la equiparación entre entender y predecir. Por cierto, los modelos científicos y su operacionalización técnica pueden (tal vez deban) seguir buscando predicciones acertadas, pero se puede superar la arrogante postura de que alcanzaremos un conocimiento absoluto. Esto, a su vez, abre una pregunta nueva: ¿cuáles son las perspectivas de la ciencia? Por oposición a científicos como Stephen Hawking, quien a finales del siglo pasado aseguró que estaríamos prontos a una formulación unificada que nos permitiría "leer la mente de Dios" (Hawking, 1988), para Prigogine estamos "al inicio de una nueva era científica" en la que la creatividad y la libertad humanas son parte de "una tendencia fundamental, presente en todos los niveles de la naturaleza" (Prigogine, 1997, p. 7). Sin embargo, más allá de estas consecuencias ideológicas tan relevantes, la «nueva ciencia» que plantea Prigogine, anticipada por filósofos como Popper, ofrece perspectivas epistemológicas para abordar problemas para los que hasta ahora no disponíamos de aclaraciones contundentes. En la sección final del artículo nos ocuparemos de estas perspectivas.
III. Perspectivas actuales del indeterminismo
Como se señaló al principio de este artículo, toda vez que se haga énfasis casi exclusivo en los aciertos de la investigación, la difusión científica está contribuyendo a una imagen distorsionada de la ciencia, presentándola como un proceso relativamente homogéneo y que avanza en una dirección casi obvia. Esta concepción se corresponde con el ideal de conocimiento del determinismo laplaceano: sin duda, al elegir la imagen de un demonio para expresar una inteligencia global que dispusiera de una comprensión completa de las leyes universales y, al mismo tiempo, de la información completa sobre el estado actual del universo, Laplace era plenamente consciente de nuestras limitaciones para obtener semejante conocimiento absoluto: "[Todos] los esfuerzos [del ser humano] por buscar la verdad tienden meramente a aproximarse a la inteligencia que acabamos de describir, de la que sin embargo estaremos eternamente alejados" (1825, p. 4). A pesar de esta limitación, el curso a seguir parecía claro: continuar afinando nuestros métodos de análisis y nuestros instrumentos de observación, proceso al que hoy se refiere como "coarse graining", para seguir aproximándonos a la verdad. En el siglo XX, la crisis de la física cristalizó en una concepción más que opuesta: en vez de considerar los límites de nuestra observación como un desafío infinito, la interpretación de Copenhague de la mecánica cuántica le otorgó a nuestras aproximaciones, a nuestro "coarse graining", un valor ontológico, haciéndolo responsable de que los microestados, en sí indeterminados como meras probabilidades, se actualicen en los fenómenos macro que percibimos. Desde el punto de vista filosófico, ambas posturas ofrecen perspectivas igualmente alienantes: o bien un universo predeterminado en el que no hay espacio para el cambio o la libertad, o bien un universo regido por el azar en el que nada ocurre realmente hasta que algún tipo de conciencia no haga una medición. Tras décadas de debate, el escenario actual está enriquecido por lo que Vanney (2014) denomina "pluralismo cognitivo", en el que "la distinción entre el determinismo y la predictibilidad permite explorar cómo los campos ontológico y gnoseológico se relacionan entre sí" y, por otra parte, "la pluralidad de las descripciones aportadas por la ciencia contemporánea abre la cuestión del estatus cognitivo de las distintas formulaciones científicas" (p. 136).
En la misma línea discursiva, Popper, en su crítica del determinismo 'científico', reconoce que aún los análisis más exhaustivos fallan a la hora de proveer una prueba contundente en favor del indeterminismo, puesto que siempre se podrá apelar a un punto de vista metafísico, en el que las leyes naturales determinaran incluso nuestra incapacidad para predecir cualquier fenómeno. Pero apunta que una concepción indeterminista aportaría, más que nada, una "enorme ganancia para la ciencia misma" (1988, p. 93), pues, en lugar de afirmarnos en un conocimiento simplemente creciente y acumulativo, la investigación arribaría necesariamente a nuevas preguntas. En medio del pluralismo que caracteriza la ciencia contemporánea, esta reflexión cobra un valor especial desde que autores como López-Corredoira (2001) defendieron el determinismo laplaceano y la validez de la mecánica de Newton. Para este autor, como para muchos otros hasta las últimas décadas del siglo anterior, la irreversibilidad observable en los macroestados no entra en conflicto con la reversibilidad de las ecuaciones fundamentales de la mecánica clásica y se puede explicar con base en la estadística, tal como hizo Bolzmann. En cambio, investigaciones recientes reconocen que esta apuesta no concluye el debate, sino que genera nuevos interrogantes y líneas de investigación:
Asumiendo que la mecánica estadística está en condiciones de explicar las regularidades macroscópicas en términos de las leyes microscópicas, ¿qué tipo de explicación es esta? [...] La explicación es probabilística. Sin embargo, no está claro en absoluto cómo deba interpretarse esto. (Allori, 2020, p. xi)
Aparte de los planteamientos de Prigogine, propuestas como las de Albert y Loewer plantean soluciones alternativas para reconciliar la flecha del tiempo de la termodinámica con las ecuaciones fundamentales de la mecánica (temporalmente reversibles) que permita contestar preguntas del tipo "¿cuál es la probabilidad objetiva de B dado A?" (Loewer, 2020, p. 5). Por lo demás, el modelo estadístico de Bolzmann no es el único y autores como Werndl y Frigg (2020), entre muchos otros, exploran las posibles relaciones entre este y el modelo de Gibbs. Ahora bien, desde el punto de vista formal, la investigación sigue encontrando nuevos aspectos, o nuevos abordajes para antiguos problemas. El Budapest-Kraków Research Group ha aportado en los últimos años minuciosos y muy fértiles análisis con énfasis en "la importancia de hacer explícitos los supuestos matemático-estructurales que subyacen a los argumentos filosóficos" en torno a las posibilidades, la causalidad y el indeterminismo (Hofer-Szabó y Wroñski, 2017, p. xiii).
Con todo, y más allá de las distintas aplicaciones que el indeterminismo ha sugerido en campos como la economía, la inteligencia artificial o la estética (Katsenelinboigen, 1997, y Villalba Puerta, 2012), quizá los límites epistemológicos que surgen en la investigación sobre la predictibilidad, la teoría de probabilidades y la relación entre el mundo subatómico y los macroestados observables, resultan especialmente productivos en la discusión entre biología y física. Ya en 1924, el célebre físico Erwin Schrödinger planteó una definición física de la vida que podría explicar cómo, en un universo que tiende a la homogeneización y al desorden, existen organismos altamente estructurados, capaces de mantener su organización interna, pues en su interacción con el ambiente logran reducir la entropía propia aumentándola en el exterior. Sin embargo, "una cosa es que la vida sea compatible con el segundo principio de la termodinámica, y otra que sea una consecuencia necesaria de las leyes de la física" (García Leal, 2013, p. 16). Prigogine señala que la razón principal para incluir el caos y las probabilidades al interior de las ecuaciones fundamentales en nuestra descripción del universo físico es que ya no podemos identificar la irreversibilidad exclusivamente con un incremento en el desorden (la tendencia al equilibrio), sino que asombrosos progresos en la investigación han mostrado de manera inequívoca que los procesos irreversibles en sistemas alejados del equilibrio producen orden y conducen a estructuras complejas. En esta línea, investigadores como Goodwin o Kauffman habían articulado, durante las últimas décadas del siglo XX, experimentos que señalan cómo eventos aleatorios a nivel local producen patrones globales en el sistema, que son propiedades emergentes conducentes al orden (Lewin, 1995). De este modo, el surgimiento de la materia orgánica a partir de la inorgánica ya no tiene que concebirse, como lo hiciera Monod en su célebre libro El azar y la necesidad (1971), como un evento único, contingente e irrepetible de probabilidad cercana a cero, sino como un resultado esperable de las fuerzas físicas. A esto se suma que autores como García Leal (2013) han desarrollado modelos explicativos que incluso podrían aclarar la aparición de la inteligencia humana en estos términos, y este tipo de propuestas, a su vez, despiertan nuevas interrogantes: ¿cuáles son los principios fundamentales que rigen la complejidad? o ¿hay una tendencia universal de aumento en la complejidad?, son cuestiones que invitan a la discusión interdisciplinaria y cuya respuesta no podrá ya remitirse simplemente a la mejoría de nuestros métodos de análisis o a la mayor precisión en nuestras observaciones por uno, dos o varios decimales más (Lineweaver et al., 2013).
En definitiva, más allá de las convicciones frente a la verdad ontológica del indeterminismo, la investigación contemporánea al respecto señala que, sin importar cuán precisas sean nuestras mediciones o en qué grado podamos determinar las condiciones iniciales de nuestros experimentos, los efectos esperables, y las consecuencias de nuestros actos, resultan imprevisibles a un nivel que el siglo XIX no podía contemplar. El grado de responsabilidad de la vida humana en los cambios del clima o del nivel de los océanos es materia de debate en la actualidad (Trischler, 2017), pero el problema nos involucra a un nivel más comprometedor. En palabras de Douglas Adams (2001):
El planeta ha atravesado ya cinco períodos de extinción masiva [...]. No tenemos que salvar el planeta, el mundo está bien, es suficientemente grande para cuidarse por sí mismo. Lo que nos tiene que ocupar es si el planeta podrá sostenernos a nosotros en él.
* Este artículo es resultado de la investigación en el marco del doctorado en filosofía de la Universidad de Antioquia y también como derivado del proyecto "Poshumanismo y cultura ancestral en las obras de ciencia ficción de Daína Chaviano, René Rebetez, Angélica Gorodischer y Edmundo Paz Soldán", realizado con apoyo del Centro de Investigaciones y Extensión de la Facultad de Comunicaciones de la Universidad de Antioquia, Estrategia de Sostenibilidad del grupo GEL 2020/21.
1 A menos que se indique lo contrario, todas las traducciones son propias.
2 El libro The Open Universe, an Argument for Indeterminism (1988) de Karl Popper constituye un verdadero estado del arte en torno a la cuestión del determinismo durante el siglo XX; corresponde al segundo tomo del postscript que Karl Popper escribió a su Logik der Forschung (1934). Aunque el cuerpo principal del texto pasó a pruebas de imprenta en 1956, bajo el título Postscript: After 20 Years, no fue publicado hasta 1982 y reeditado en 1988, tiempo durante el cual el autor fue expandiendo y actualizando la argumentación.
5 Popper (1988) refiere a este respecto el postulado de Pierre Duhem (1914), proveniente de un contexto distinto al de la discusión sobre el determinismo: "Es necesario que estemos en condiciones de determinar el [...] error que se pueda admitir en los datos si queremos obtener un resultado dentro de un rango definido de aproximación" (p. 13).
6 Al este respecto, es ilustradora la discusión epistolar entre Einstein y Bohr (1948) y el artículo Can Quantum-Mechanical Description of Physical Reality Be Considered Complete? (Einstein et al., 1935).
7 Para ilustrar esta situación, Popper propone un modelo para calcular las condiciones iniciales requeridas para predecir, a partir de mediciones, el comportamiento de un sistema gravitacional newtoniano, así: para calcular la masa de los distintos cuerpos, tenemos que recurrir a la ley cuadrática inversa y medir las distancias y las aceleraciones; para medir la aceleración es necesario empezar por medir las velocidades y observar cómo cambian. Sin embargo, ya a la hora de medir las velocidades aparece un problema, pues cuanto más precisamente queramos determinar la velocidad, menos precisamente podremos determinar el instante al que pertenece. E incluso si pasáramos por alto esta primera dificultad, volvería en una forma más severa cuando intentemos determinar la aceleración, pues para ello deberíamos medir las velocidades en dos instantes de tiempo separados por un intervalo finito y no demasiado corto, de manera que podamos apreciar la diferencia. Pero entonces, "no podemos atribuir la aceleración a un instante preciso; y obtendremos, por añadidura, solamente aceleraciones promedio" (ibid., p. 53). Como el mismo Popper resalta, "la similitud entre la situación en física clásica descrita más arriba y el principio de incertidumbre que, según Heisenberg, es válido para la teoría cuántica, es demasiado obvia como para necesitar mayor comentario" (1982, p. 56).
8 Para una exposición completa sobre esta teoría ver Popper (1982).
9 La diferencia entre el enfoque de Prigogine y el de Popper es explícita, por ejemplo, en la siguiente aseveración de este último: "En cuanto a la flecha del tiempo [arrow of time] es erróneo hacer a la segunda ley de la termodinámica la responsable de su dirección". Popper construye todo un análisis en el que demuestra cómo la relatividad especial, si bien no la general, también indica una asimetría entre los roles del pasado y el futuro (1988, capítulo III, parágrafo 18).
10 Tomando dos órbitas (trayectorias cerradas) que parten del mismo punto inicial con una desviación dentro del ángulo a, Hadamard demuestra que, aún si se reduce el ángulo tanto como se quiera, de todos modos, surgirán algunas trayectorias, desde el mismo punto inicial, que tienden al infinito. Esto equivale a decir, en palabras de Popper, que "ninguna medición de la dirección inicial, por precisa que sea [...] podrá determinar si la masa se moverá en una órbita o, en cambio, en una trayectoria que eventualmente se dirija al infinito".
11 Compárese también la referencia de Kline (1972, 2012, p. 1597) a Brouwer (1927) cuando rebate la postura formalista respecto de las aporías en la axiomatización del álgebra: "Una teoría falsa no es menos falsa porque no conduzca a contradicción, lo mismo que un acto criminal es criminal esté o no condenado por un tribunal".
Referencias
Adams, D. (2001). Parrots, the Universe and Everything [Palomas, El Universo y todo lo demás]. Conferencia dictada para la Universidad de California. CBSC, 2001.
Allori, V. (ed.). (2020). Statistical Mechanics and Scientific Explanation. Determinism, Indeterminism and Laws of Nature [Mecánica estadística y explicación científica. Determinismo, indeterminismo y las leyes de la naturaleza]. World Scientific Publishing Co. Pte. Ltd.
Brouwer, L. E. J. (1927). Intuitionistic reflections on formalism [Reflecciones intuicionistas sobre el formalismo]. Koninklijke Akademie van Wetenschappen te Amsterdam: Proceedings of the section of sciences. 31, 374-379.
Cassirer, E. (2018). El problema del conocimiento en la filosofía y en la ciencia moderna (trad. W. Roces). Fondo de Cultura Económica. (Obra original publicada entre 1920 y 1922 como Das Erkenntnisproblem in der Philosophie und der Wissenschaft der neueren Zeit)
Davis, P. (1989). The New Phisics: A Synthesis. Cambridge University Press.
Diéguez, A. (2005). Realismo y antirrealismo en la filosofía de la biología. Ludus Vitalis, vol. XIII, num. 23, 49-71. Recuperado de: http://www.ludusvitalis.org/ojs/index.php/ludus/article/view/515/517
Duhem, p. (1914) La Théorie Physique: Son Objet, Sa Structure [La teoría física: su objeto, su estructura]. Librairie Marcel Rivière. Recuperado de https://books.openedition.org/enseditions/6920
Einstien, A. (1948) Quantenmechanik und Wirklichkeit [Mecánica cuántica y realidad]. Dialectica 2, 3-4, 320-24.
Einstein, A., Podolky, B. y Rosen N. (1935). Can Quantum-Mechanical Description of Physical Reality Be Considered Complete? [¿Puede la considerarse completa la descripción física de la realidad de la mecánica cuántica?] Physical Review, Vol. 47, mayo.
García Leal, A. (2013). El azar creador. La evolución de la vida compleja y de la inteligencia. Tusquets.
Gentili, C. y Nielsen, C. (eds.). (2010). Der Tod Gotes und die Wissenschaft: Zur Wissenschaftskritik Nietzsches [La muerte de Dios y la ciencia: sobre la crítica de Nietzsche a la ciencia]. Walter de Gruyer GmbH y Co. KG.
Gell-Mann, M. (1994). The Quark and the Jaguar [El quark y el jaguar]. Little Brown.
Geymonat, L. (1998). Historia de lafilosofíay de la ciencia (trad. P. L. Font). Crítica. (Obra original publicada entre 1970 y 1972 como Storia del pensiero filosofico e scientifico).
Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme [Sobre proposiciones formalmente indecidibles de los Principia Mathematica y sistemas relacionados]. Monatshefte für Mathematik und Physik, 38, 173-198.
Hadamard, J. (1898). Les surface à courbures opposées [La superficio en curvaturas opuestas]. Journal des mathématiques pures et appliquées, serie 5, vol. 4, 27-73.
Hawking, S. (1988). A Brief History of Time: From the Big Bang to Black Holes [Breve historia del tiempo: del Big Bang a los agujeros negros]. Bantam Books.
Heisenberg, W. (1958). The Representation of Nature in Contemporary Physics (trad. O. T. Benfey) [La representación de la naturaleza en la física contemporánea]. Dedalus 87, 95-108.
Hofer-Szabó, G y Wroñski, L. (eds.). (2017). Making it Formally Explicit. Probability, Causality and Indeterminism [Hacerlo formalmente explícito: probabilidad, causalidad e indeterminismo]. Springer International Pbulishing, AG. Cham.
Hobsbawm, E. (1998). Historia del siglo XX (trads. J. Fací et. al.). Crítica. (Obra original publicada en 1994 como The Age of Extremes: The Short Twentieth Century, 1914-1991).
Infeld, L. (2013). El elegido de los dioses: La historia de Evariste Galois (trad. R. Bixio). Siglo XXI. (Obra original publicada en 1978 como Whom the Gods Love: The Story of Evariste Galois).
Kant, I. (1788). Kritik der praktischen Vernunft [Crítica de la razón práctica]. Georg Reimer Verlag. Recuperado de https://www.gutenberg.org/files/49543/49543-h/49543-h.htm
Kastenelinboigen, A. (1997). The concept of indeterminism and its applications: economics, social systems, ethics, artificial intelligence, and aesthetics [El concepto de indeterminismo y sus aplicaciones: economía, sistemas sociales, ética, inteligencia artifical y estética]. Greenwood Publishing Group.
Kline, M. (2012). Elpensamiento matemático de la Antigüedad a nuestros días (trads. J. Hernández Alonso, et. al.). Alianza. (Obra original publicada en 1972 como Mathematical Thought From Ancient to Modern Times).
Koestler, A. (2017). Los sonámbulos: Origen y desarrollo de la cosmología (trads. varios). Consejo Nacional de ciencia y tecnología. (Obra original publicada en 1959 como The Sleepwalkers: A History ofMan's Changing Vision).
Laplace, P. S. (1825). Essai philosophique sur les probabilités [Ensayo filosófico sobre las probabilidades]. Quai des Grands - Augustines. Recuperado de https://gallica.bnf.fr/ark:/12148/bpt6k96200351.texteImage
Lewin, R. (1995). Complejidad. El caos como generador de orden (trad. Juan Gabriel López Guix). Tusquets.
Lineweaver, Ch., Davies, P. & Ruse, M. (eds.). (2013). Complexity and the arrow of time [Complejidad y la flecha del tiempo]. Cambridge University Press.
López-Corredoira, M. (2001). Determinismo en la física clásica: Laplace vs. Popper o Prigogine. El Basilisco. 2° época 29, 29-42.
Loewer, B. (2020). The Mentaculus Vision [La visión del mentáculo]. En Allori, (2020).
Monod, J. (1971). El azary la necesidad (trad. F. Ferrer Lerín). Monteavila. (Obra original publicada en 1970 como Le hasard et la nécessité. Essai sur la philosophie naturelle de la biologie moderne).
Orozco, S. (2009). Isaac Newton y la reconstitución del palimpsesto divino. Universidad de Antioquia.
Petrosky, T. y Prigogine, I. (1991). Alternative Formulation of Chaos and Quantum Dynamics for Non-Integrable Systems [Formulación alternativa del caos y la dinámica cuántica para sistemas no integrables]. Phisica A 175.
Popper, K. (1945). The Open Society and Its Enemies [La sociedad abierta y sus enemigos]. Routledge.
Popper, K. (1952). The Nature of Philosophical Problems and Their Roots in Science [La naturaleza de problemas filosóficos y sus raíces en la ciencia]. The British Journal for the Philosphy of Science 3.
Popper, K. (1957). The Poverty of Historisism [La pobreza del historicismo]. Routledge.
Popper, K. y Eccles, J. (1977). The Self and its Brain: An Argument for Interactionism [El sí mismo y su cerebro. Un argumento a favor del interaccionismo]. Springer Iternational
Popper, K. (1982). Quantum Theory and The Schism in Physics [Teoría cuántica y el cisma en física]. Rowman and Littlefield. Tatowa.
Popper, K. (1988). The Open Universe. An Argumentfor Indeterminism [El universo avierto. Un argumento a favor del indeterminismo]. Cambridge University Press.
Prigogine, I. (1997). The End of Certainty. Time, Chaos, and the New Laws of Nature [El fin de la certeza. Tiempo, caos y las nuevas leyes de la naturaleza]. The Free Press.
Roelcke, T. y Kniffka, G. (2016). Fachsprachenvermittlung im Unterricht [Lingüisitica de lenguajes disciplinarios en el aula]. Ferdinand Schröningh.
Suzunaga, J. (2013). Modernidad, crueldad y exclusión del sujeto, o las contradicciones del discurso capitalista. Desde el Jardín de Freud: Revista de psicoanálisis 13, 2013, 239-256.
Trischler, H. (2017). El Antropoceno, ¿un concepto geológico o cultural, o ambos? Desacatos 54, mayo-agosto, 40-57.
Valencia Giraldo, A. (2004). La relación entre la ingeniería y la ciencia. Revista Facultad de Ingeniería 31, junio, 156-174.
Villalba Puerta, M. E. (2012). Gestión con base en las ciencias de la complejidad: las organizaciones como estructuras disipativas. Universidad & Empresa 22, 11-42. Recuperado de: https://ciencia.lasalle.edu.co/cgi/viewcontent.cgi?article=1023&context=maest_gestion_desarrollo
Weinberg, S. (1994). Life on the Universe [Vida en el universo]. Scientific American, 271, 4, octubre, 44.
Werndl, Ch. y Frigg, R. (2020). Taming Abundance: On the Relation between Boltzmannian and Gibbsian Statistical Mechanics [Domesticando la abundancia: sobre la relación entre las mecánicas estadísticas de Bolzmann y Gibbs]. En Allori, (2020).
Vanney, C. (2014). Indeterminism and Pluralism in Nature: From Science to Philosophy and Theology [Indeterminismo y pluralismo en la naturaleza: de la ciencia a la filosofía y teología]. En Silva, I. (ed.), Latin American Perspectives on Science andReligion. Routledge, 135-145.