Revista de Filosofia

ISSN electrónico: 2011-7477.
Nº 6 enero-junio de 2007

Fecha de recepción: enero de 2007
Fecha de aceptación: febrero de 2007


RESTRICCIONES SIN REFUTACIONES DE DOMINIOS DE TEORÍAS FÍSICAS

Elementos para el debate realismo-instrumentalismo*
* Trabajo realizado en el marco del Grupo de Investigación de Filosofía del Lenguaje, de la Naturaleza y de la Ciencia, de referencia 930174, financiado por la Consejería de Educación de la Comunidad de Madrid y la Universidad Complutense.

Andrés Rivadulla
Universidad Complutense. Departamento de Lógica y Filosofía de la Ciencia. E-28040 Madrid.


RESUMEN

El principal propósito de este trabajo es argumentar a favor del instrumentalismo en filosofía de la física. Siguiendo la terminología de Theo Kuipers de extensión y restricción de dominios, asumo, contradiciéndolo, que la metodología de revisión de dominios sólo puede apoyar un enfoque anti-realista en teoría de la física. La existencia tanto de extensiones como de restricciones del dominio de aplicación de modelos teóricos y la incompatibilidad teórica entre teorías sucesivas, proporcionan respectivamente argumentos menores y mayores a favor del instrumentalismo en física.

PALABRAS CLAVE
Extensión y revisión de dominios, realismo, instrumentalismo, teoría de la física


ABSTRACT

The main aim of this paper is to argue on behalf of instrumentalism in the philosophy of physics. Following Theo Kuipers' terminology of domain extension and domain restriction I claim, contradicting him, that the methodology of domain revision can only support an antirealist approach to the theory of physics. The existence of both extensions and restrictions of the application domain of theoretical models and the theoretical incompatibility between successive theories provide respectively with minor and major arguments for instrumentalism in physics

KEY WORDS
Extension and restriction of theory domains, realism, instrumetalism, philosophy of physics.


1. INTRODUCCIÓN

La controversia acerca de la existencia y, en su caso, eficacia metodológica, de refutaciones empíricas en la historia de la física sigue plenamente vigente en la filosofía actual de la ciencia desde que Karl Popper abanderase la metodología crítica de la ciencia a partir de los años treinta del siglo pasado. Aunque Popper no es el introductor de la metodología falsacionista en ciencia1, sí fue quien la popularizó. Desde entonces muchas e interesantes opiniones se han vertido acerca de ella, y muchas discusiones en torno a ella han contribuido a la vitalidad de la moderna teoría de la ciencia. Filósofos como Lakatos, Kuhn, Feyerabend, Laudan, por citar algunas figuras relevantes, han enriquecido la polémica con interesantes aportaciones, a las que yo he querido sumar la mía propia2: las refutaciones se presentan básicamente de dos formas, i) o bien porque los hechos se resisten a amoldarse a lo que la teoría vigente prescribe, o ii) porque desde una teoría nueva alternativa se prescriben pruebas a la teoría anterior que deberían ser explicadas por ella, si fuera verdadera. Las refutaciones juegan además un papel muy importante en la metodología de la física, o bien porque abren las puertas a revoluciones científicas, o bien porque consolidan revoluciones científicas en marcha. Para mí, pues, la cuestión acerca de la existencia y eficacia de las refutaciones está fuera de discusión. En el bien entendido que, por refutación de una teoría, desde un punto de vista pragmático, sólo concibo el rechazo de la misma como marco conceptual inaceptable para nuestro manejo predictivo con la Naturaleza.

Hay sin embargo en la metodología de la física una circunstancia, apenas detectada por los filósofos de la ciencia, consistente en la existencia de restricciones en el dominio de aplicaciones propuestas de una teoría, que refiere básicamente el hecho de la ampliación fracasada de su dominio de aplicación. Esta idea la hemos desarrollado independientemente Theo Kuipers y yo, quienes la expusimos en el congreso sobre Model-Based Reasoning de Pavía, en diciembre de 20043. Un mes antes la había expuesto yo en mi contribución al Seminario Internacional Complutense Filosofía Analítica y de la Ciencia Hispanoamericana en el Contexto Internacional. La terminología de ampliación y restricción del dominio de aplicaciones propuestas es propia de Kuipers.

La historia de la física está llena de ejemplos de ampliación y restricción del dominio de aplicaciones propuestas de teorías científicas. La mecánica newtoniana constituye sin lugar a dudas uno de los mayores logros intelectuales de la humanidad. Cuando Isaac Newton la expuso en 1687 nunca pudo imaginar que el dominio de aplicación de su teoría se ampliaría tanto desde entonces, incluso con extensiones a dominios tan nuevos como los que conciernen a la astrofísica y la cosmología teóricas contemporáneas. Aparte de los casos típicos de aplicaciones propuestas, que en sentido kuhniano conformarían el conjunto paradigmático ejemplar, la mecánica newtoniana ha visto ampliar su aplicación a muchísimos otros casos, que, por tanto, cabría considerar como pertenecientes a su dominio. Por ejemplo: al cálculo de las masas de estrellas, de la masa de la Tierra, a la 'explicación' tanto de la existencia de estrellas colapsadas como de la estabilidad de estrellas no colapsadas e, incluso, convenientemente adaptada, a los cálculos de la desviación de la luz por el Sol, del valor de la densidad crítica del Universo, etc. La euforia despertada por su exitosa aplicación a dominios insospechados por su creador llevó en ocasiones a sobrepasar sus propias capacidades 'explicativas', como p. e. cuando Helmholtz y Kelvin propusieron la hipótesis del colapso gravitacional como fuente de la energía de las estrellas, que posteriormente hubo de ser abandonada porque de ella se deducía una edad ridículamente corta para el Sol.

Pero lo interesante del asunto es que las restricciones en la aplicación de teorías no las refutan ipso facto, ya que a priori nunca tenemos razones para sospechar sobre qué no cuenta entre sus aplicaciones propuestas.

Mi tesis es que la existencia de ampliaciones y restricciones ofrecen un argumento menor a favor de una concepción instrumentalista de la física, pero no por ello despreciable. La razón es obvia: si de entrada, cuando se hace una propuesta teórica, su dominio de aplicación está tan abierto que de antemano no tenemos la menor idea acerca de para cuantos fenómenos servirá de 'explicación', y para cuántos otros no, entonces nada es más razonable que asumir que las teorías no son más que herramientas para manejarnos predictivamente con la Naturaleza.

Pero si esto lo combinamos con el hecho de que, al menos hasta ahora, las revoluciones científicas vienen separando teorías que son incompatibles entre sí, y como la incompatibilidad hace imposible afirmar lo cerca que teorías diferentes están de la verdad, entonces la historia de la física no se puede contar legítimamente en forma de teorías que se suceden unas a otras de manera que las últimas están más próximas a la verdad que las precedentes. La incompatibilidad teórica proporciona un argumento mayor en favor del instrumentalismo en física.

2. MODELOS TEÓRICOS EN FÍSICA

El estudio del papel de los modelos teóricos en física constituye una de las tareas más fascinantes de la metodología contemporánea de la ciencia, pues permite encauzar el debate realismo-instrumentalismo hacia un territorio relativamente poco explorado de la filosofía de la física.

En la astronomía griega los modelos geométricos del Universo constituían herramientas de cálculo para salvar los movimientos erráticos de los planetas. Con lo que, desde nuestra perspectiva histórica actual, los astrónomos antiguos deben ser considerados como constructores de modelos. En la Edad Moderna destacaron Co-pérnico, Tycho y Kepler. Posteriormente, la mecánica newtoniana proporcionó un modelo muy eficaz para el manejo con los fenómenos gravitacionales celestes, que permaneció vigente hasta que fue sustituido por el modelo más exitoso del espacio-tiempo cuadridimensional pseudoeuclídeo de Minkowski.

Hoy en día el uso de modelos teóricos, extendido a todas las ramas de las ciencias físicas, económicas, biomatemáticas, etc., nos muestra la relevancia de los modelos teóricos como modo de manejarnos predictivamente con la Naturaleza.

Un defensor decidido del uso de modelos mecánicos en física fue Lord Kelvin, quien en Lectures on Molecular Dynamics and the Wave Theory of Light, 1884, pp. 131-132, citado por Duhem (1906, p. 71), afirma: "Me parece que la prueba de '¿Entendemos un sujeto particular de la física? es '¿Podemos hacer un modelo mecánico de él?'", o también: "Nunca me doy por satisfecho hasta que he hecho un modelo mecánico de algo. Si puedo hacer un modelo mecánico, lo entiendo."

El propio Pierre Duhem (1906, p.99) acepta que "el uso de modelos mecánicos ha guiado a algunos físicos en la ruta del descubrimiento". Pero añade inmediatamente que en todo caso tal uso "No ha llevado al progreso de la física de que se alardeaba. La parte del botín que [el uso de modelos, A. R.] ha aportado al grueso de nuestro conocimiento parece bastante magro cuando lo comparamos con las conquistas opulentas de las teorías abstractas." Por ello Duhem, ibíd., reconoce que los modelos mecánicos estaban más bien diseñados como 'método de exposición' que como 'medio de descubrimiento científico'.

Rudolf Carnap (1966, p. 174) entiende, por su parte, que no se puede considerar una objeción válida contra una teoría nueva el que sea menos intuitiva que la vieja. Entre los ejemplos que cita Carnap está el siguiente:

Durante muchos años el modelo atómico de Bohr pareció ofrecer una solución buena y satisfactoria: Una especie de sistema solar con un núcleo central y los electrones que se movían en sus órbitas alrededor de éste. Pero éste resultó demasiado simple. Hoy un físico atómico ya no intenta proponer un modelo completo. Incluso si hace uso de un modelo, tiene siempre claro que éste sólo describe ciertos aspectos de la situación, y deja otros fuera de consideración.

Por eso líneas después Carnap propone que Un modelo puede constar sólo de una única ecuación matemática o de un sistema de ecuaciones. Se trata de una descripción simplificada de una estructura (física, económica, sociológica o de otro tipo) en la que conceptos abstractos se ligan matemáticamente. Es una descripción simplificada porque descarta muchos factores que sólo harían el modelo más complicado. (...) El modelo es puramente hipotético. Algunos parámetros se introducen y se modifican hasta que se consigue una adecuación a los datos. Cuando se hacen más observaciones, puede ocurrir que los parámetros no sólo deben continuar siendo modificados, sino que también hay que modificar las ecuaciones fundamentales. En otras palabras, se cambia el modelo mismo. Se agota el viejo modelo, se busca un modelo nuevo.

Resulta curioso constatar cómo en algunos aspectos esta caracterización de Carnap de los modelos teóricos coincide con Karl Popper (1994, p. 170 y ss.), para quien

1. Los modelos son siempre y necesariamente supersimplificaciones burdas y esquemáticas.

2. Todo modelo, tanto de la física como de las ciencias sociales, tiene

que ser una supersimplificación4

Y, para citar finalmente a un físico contemporáneo, Antonio Ranada (1994) asevera de los modelos de sistemas físicos que Los modelos dan visiones esquemáticas y simplificadoras de la realidad, pues en su parte física requieren idealizaciones y la matemática aproximaciones. Sin las idealizaciones el estudio científico de la naturaleza sería imposible, debido a su gran complejidad.

3. MIS TESIS ACERCA DEL PAPEL DE LOS MODELOS TEÓRICOS EN FÍSICA

En Rivadulla (2004) sostengo:

1. Que los modelos teóricos constituyen constructos tendentes a 'salvar los fenómenos' y a facilitar predicciones empíricamente contrastables acerca de los dominios empíricos de su competencia. Son particularmente útiles en disciplinas huérfanas de teoría.

2. La exigencia científica ineludible de los modelos teóricos es su consistencia con leyes físicas aceptadas, así como su concordancia con datos observacionales disponibles.

3. El requisito fundamental para la aceptación de un modelo teórico es su éxito empírico, siendo ilegítima la inferencia del éxito a la verdad, la verosimilitud, o la probabilidad de verdad. De ahí mi rechazo de que las relaciones de los modelos teóricos con el mundo sean de verosimilitud, isomorfismo, e incluso, de analogía o semejanza.

Esto tiene las siguientes consecuencias para la filosofía de la física:

1) No tiene sentido decir -en un sentido realista del término representación-, que los modelos representan aspectos del mundo, pues el acceso al mundo está condicionado por el propio modelo, el cual no puede ser al tiempo juez y parte del proceso 'cognitivo';

2) Los modelos teóricos no contienen conocimiento del Mundo, sino constituyen meras herramientas para manejarnos predictivamente con la Naturaleza;

3) Descripción, explicación y comprensión están fuera de su ámbito de competencia.

La aceptación de las tesis 1), 2) y 3) nos enfrenta a dos retos:

i) ¿Cómo explicamos el éxito empírico de los modelos teóricos?

ii) ¿Cómo damos cuenta del fracaso de modelos antes exitosos?

Una respuesta posible a la primera pregunta podría ser:

I. Los modelos a veces son exitosos, porque la meta de la ciencia es la verdad, la aproximación a la verdad o la probabilidad de verdad. Los modelos teóricos a veces son exitosos o bien porque son directamente verdaderos, o bien porque son verosímiles, o bien porque poseen una alta probabilidad de ser verdaderos.

Ahora bien, aquí hay ciertamente una inferencia lógicamente inaceptable del éxito empírico del modelo a la explicación del éxito. Además, la historia de la ciencia muestra que llega un momento en que muchos modelos teóricos altamente exitosos fracasan ante fenómenos que pertenecen a su dominio de aplicación. Luego una respuesta satisfactoria de la primera pregunta estaría también estrechamente ligada a una respuesta satisfactoria de la segunda pregunta.

Todo buen entendedor percibe que en el fondo de esta cuestión subyacen cuestiones que se han etiquetado, según la postura adoptada, como: argumento del no milagro, inferencia a la mejor explicación, inducción optimista, inducción pesimista, etc.

No obstante, un realista científico podría seguir manteniendo que el éxito empírico-predictivo de un modelo es un indicador de verdad, proximidad a la verdad o probabilidad de verdad.

Por ello en esta discusión hay que tener en cuenta como elementos frecuentemente característicos de toda revolución científica tanto el hecho de que las teorías que se suceden son incompatibles entre sí -mecánica newtoniana y teoría de la relatividad, mecánica clásica y mecánica cuántica-, como que, cuando hay una bifurcación en el desarrollo histórico, las teorías pertenecientes a ramas diferentes son también incompatibles entre sí -caso de la teoría de la relatividad y la mecánica cuántica. A veces incluso llegamos a manejar modelos teóricos incompatibles entre sí, pero empíricamente exitosos, acerca de un mismo dominio, como evidencia la física nuclear5.

Así pues, otra respuesta posible a la pregunta acerca de cómo explicamos el éxito empírico de los modelos teóricos consiste simplemente en decir que

II. la verdad no juega ningún papel en física a nivel teórico, o sea, que la teoría no constituye el hábitat, el recinto o el espacio de la verdad. De forma que, si a veces nuestras teorías o modelos tienen éxito, la razón está en que están diseñados para el éxito, no en que constituyen representaciones más o menos fidedignas del mundo exterior, cosa cuya posibilidad de conocimiento nos trasciende.

De modo que, como conclusión de lo dicho, cabe entender que, para hacer ciencia seria, podemos prescindir de la verdad a nivel teórico. El éxito empírico basta: un modelo teórico no precisa ser verdadero, a fin de habérnoslas con el dominio, generalmente limitado, de fenómenos de su competencia.

4. pros Y CONTRAS EN LA RELACIÓN ENTRE

MODELOS TEÓRICOS Y DOMINIOS EMPÍRICOS

Desde la concepción estructuralista, Theo Kuipers (2006) ha desarrollado un enfoque realista de la aproximación de las teorías a la verdad sobre la base de la revisión del dominio de aplicaciones propuestas de una teoría: ampliación o de restricción del mismo. Aunque sin hacer un uso explícito de esta terminología yo he venido refiriendo este hecho de la metodología de la física6, aunque para un propósito epistemológico antirrealista.

Ejemplo 1. Ampliación del dominio de aplicaciones propuestas de la mecánica estadística clásica: La masa límite de Jeans para la formación de protoestrellas

James Jeans (1877-1946) se interesó por las condiciones que deberían tener lugar para que en una nube molecular compuesta de N moléculas se produjese un colapso que propiciase la formación de una estrella. Para ello parte7 del teorema de equipartición de la energía de la mecánica estadística clásica que afirma que la energía cinética interna de la nube es

donde kB es la constante de Boltzmann. Y si expresamos en términos del peso molecular medio y la masa del Hidrógeno, entonces

Por aplicación del teorema del virial que, aplicado a sistemas compuestos por numerosos objetos, establece que la energía potencial gravitacional media de los objetos constituyentes es dos veces su energía cinética media, si el doble de la energía cinética interna total de la nube supera a su energía potencial gravitacional, la nube se expandirá, mientras que en caso contrario, colapsará. Y como la energía potencial gravitatoria total es

donde aquí M y R designan respectivamente la masa y el radio de la nube molecular, entonces por el teorema del virial tenemos que

Basta ahora sustituir en función de la densidad de la nube, supuesta constante, para obtener el valor crítico de la masa de Jeans:

que ha de ser superado por la nube para que se produzca el colapso.

Ejemplo 2. Restricción del dominio de aplicaciones propuestas de la mecánica estadística clásica: El modelo de radiación de Rayleigh-Jeans del cuerpo negro

La ley de radiación de Rayleigh-Jeans evidencia que la física clásica no es el marco teórico apropiado para el manejo con gases de fotones, cuyo estudio es competencia exclusiva de la mecánica cuántica. En efecto, la ampliación del dominio de aplicación de la mecánica estadística clásica al estudio de la radiación conduce a la catástrofe del ultravioleta, nombre dado por Paul Ehrenfest para etiquetar el calamitoso fracaso de la citada ley.

De hecho, el fracaso de la ley de radiación de Rayleigh-Jeans es consecuencia de la aplicación del teorema de equipartición de la energía, propio de la mecánica estadística clásica, a la radiación del cuerpo negro. Este teorema afirma que la energía cinética media de una partícula de un sistema en equilibrio termodinámico vale 1/2 KBT

En 1900, Lord Rayleigh y James Jeans aplicaron este teorema al cálculo de la densidad de energía de un gas de fotones dentro de un recinto en equilibrio térmico que contiene Nv ondas electromagnéticas estacionarias con frecuencias dentro del intervalo de frecuencias v, v + dv y energía media kBT, resultante de la suma de las energías correspondientes de los campos eléctrico y magnético. El valor total de la energía sería pues E=NkBT.

Como la densidad de energía es independiente de la naturaleza física del recinto y de su forma geométrica, y se deduce que el número de modos de radiación es entonces, basta multiplicar Nv por kBT para determinar, en el marco de la mecánica estadística clásica, el valor de la densidad de energía emitida por un cuerpo negro:

Esta ampliación del dominio de aplicación de la mecánica estadística clásica se mostraba fructífera en el ámbito de la radiación a frecuencias bajas. El problema se presentaba a altas frecuencias. En efecto, integrando la ley de radiación de Rayleigh-Jeans para todas las frecuencias8 sale:

que deja claro el fracaso de la física clásica para explicar el espectro de la radiación del cuerpo negro. Como sabemos, la explicación de este fenómeno la dará la mecánica estadística cuántica de Bose-Einstein, previo paso por la Ley de radiación de Planck9.

La mecánica estadística clásica se muestra ineficaz, pues, para dar cuenta de la radiación del cuerpo negro.

5. RAZONES MENORES Y RAZONES MAYORES A FAVOR DE UNA CONCEPCIÓN INSTRUMENTALISTA EN FÍSICA

5.1 RAZONES MENORES

No parece necesario insistir en la vigencia de la regla lógica deductiva básica de que una aplicación exitosa de una hipótesis científica no repercute en su verdad (ni en su probabilidad de verdad10): La ampliación del dominio de aplicación de una teoría o de un modelo teórico mantiene las puertas abiertas tanto de su verdad como de su posible falsedad.

Por otra parte, a la vista del fracaso del modelo mecánico-estadístico clásico de radiación de Rayleigh-Jeans cuando las partículas son fotones, aunque constituye un caso claro de restricción del dominio de aplicación de la teoría, no obliga a concluir que la mecánica estadística clásica deba ser revisada. En efecto, ante el fracaso de un modelo para la explicación teórica de aplicaciones potenciales posibles del mismo, se podría argumentar que lo que tenemos ante nosotros es simplemente una muestra de que no toda hipótesis física que sea consistente con leyes previamente aceptadas concuerda necesariamente con todos los fenómenos, por lo que de entrada no tiene por qué ser aplicable a todas y cada una de las cuestiones que la Naturaleza nos presenta.

Así, ambos casos de estudio presentados en la sección 4, ejemplos claros de ampliación y restricción respectivamente del dominio de aplicación de una teoría o un modelo teórico, nos muestran que a priori, es decir, cuando se propone una teoría o modelo teórico nuevo, no están dadas de antemano todas sus aplicaciones posibles. De hecho, sólo a posteriori podemos reconocer la inaplicabilidad de un modelo en un dominio determinado. A priori carecemos de razones para sospechar qué no cuenta como una de sus aplicaciones propuestas11.

Hemos llegado pues a la siguiente conclusión: Ni la ampliación verifica, aproxima a la verdad, o incrementa la probabilidad de verdad del modelo o la teoría, ni la restricción refuta ipso facto el modelo o la teoría. La lógica sin más no capacita para fijar de una vez por todas el estatus epistémico de una teoría científica.

Claro que, se podría argüir entonces, si restricción no equivale a refutación, podríamos llegar entonces a determinar tan completamente el dominio de aplicación de una teoría o modelo teórico que no cupiera duda sobre su verdad acerca del mismo. Habríamos inmunizado entonces la teoría frente a potenciales falsadores. El precio que pagaríamos por ello entonces sería que la verdad teórica resultaría científicamente ininteresante. He aquí una razón de peso a favor de considerar los procesos de revisión -ampliación y restricción- del dominio de aplicación de teorías y modelos teóricos como exponentes de una metodología instrumentalista que responde a una concepción de éstos, modelos y teorías, como meras herramientas para manejarnos predictivamente con la Naturaleza.

5.2 RAZONES MAYORES

El problema que estamos analizando va más allá empero de aceptar que la responsabilidad del fracaso de una teoría o modelo siempre incumbe al científico, que puede sobrepasar su dominio de aplicación.

Como he expuesto en Rivadulla (2003), y analizado en Rivadulla (2004), el propio modelo celeste newtoniano, por citar un ejemplo bien conocido, fracasa en dominios en los que no debería hacerlo, si fuera verdadero. Estos fracasos son bastante más que una mera restricción de su dominio de aplicación. En efecto, el modelo en cuestión no sólo fue incapaz de afrontar con éxito viejos retos como el avance del perihelio de Mercurio. Tampoco fue capaz de dar respuesta satisfactoria a aplicaciones propuestas propias como la desviación de la luz por el Sol o el desplazamiento gravitacional hacia el rojo.

Como, además, lo que es aún más importante, su sustitución en la historia de la física se llevó a cabo por medio de teorías incompatibles con él, el newtoniano no sólo se reveló como un modelo teórico inadecuado para el tratamiento de los fenómenos gravitatorios, sino que carece de sentido decir que representa la realidad ni siquiera de forma aproximada. La física nuclear ofrece también un buen ejemplo (Cf. Rivadulla 2004, cap. V) de que los modelos teóricos de la física no son más que herramientas conceptuales falibles para habérnoslas predictivamente con la Naturaleza.

6. CONCLUSIÓN

La conclusión final es pues que no sólo una metodología de revisión de dominios de aplicación es adecuada al real proceder de la ciencia. Una epistemología instrumentalista es imprescindible si queremos conocer cómo es (la física). Y si se nos pidiese una explicación del por qué de la falibilidad intrínseca de los modelos teóricos de la física desde esta perspectiva instrumentalista, tendríamos que remitir a la inexistencia de un único método en ciencia capaz de garantizar el acceso al conocimiento. La falibilidad de la ciencia teórica sólo es comprensible desde un reconocimiento del mito del método científico.


REFERENCIAS

Carnap, R. (1966), Philosophical Foundations of Physics. Basic Books, Inc., New York

Duhem, P. (1906), The Aim and Structure of Physical Theory. Princeton Univ. Press, 1954

Kuipers, Th. (2006): "Theories Looking for Domains. Fact or Fiction? Reversing Structuralist Truth Approximation", pp. 33-50. En L. Magnani (ed.), Model Based Reasoning in Science and Engineering. Cognitive Science, Epistemology, Logic. King's College Publications, London

Ostlie, A. & Carroll, D. (1996), An Introduction to Modern Astrophysics, Addison-Wesley, Reading, Mass.

Popper, K. (1994), The Myth of the Framework. In Defence of Science and Rationality. Routledge, London

Ranada, A. (1994), Dinámica Clásica, Alianza Editorial, Madrid

Rivadulla, A. (2002a): "The Search for Explanations in the Methodology of Mathematical Physics". En E. Neuenschwander and L. Bouquiaux (eds.), Science, Philosophy and Music, Brepols Publishers, Turnhout, Belgium

Rivadulla, A. (2002b): "La solución revolucionaria de Planck del problema de la radiación del cuerpo negro". En C. Mataix y A. Rivadulla (eds.), Física Cuántica y Realidad/Quantum Physics and Reality, Editorial Complutense, Madrid

Rivadulla, A. (2003), Revoluciones en Física, Editorial Trotta, Madrid

Rivadulla, A. (2004), Éxito, Razón y Cambio en Física. Editorial Trotta, Madrid

Rivadulla, A. (2006a): "Theoretical Models and Theories in Physics. A Rejoinder to Karl Popper's Picture of Science" , pp. 85-94. En I. Jarvie, K. Milford and D. Miller (eds.), Karl Popper: A Centenary Assessment. Vol. III: Science. Ashgate, Aldershot

Rivadulla, A. (2006b): "The Role of Theoretical Models in the Methodology of Physics", pp. 75-85. En L. Magnani (ed.), Model Based Reasoning in Science and Engineering. Cognitive Science, Epistemology, Logic. King's College Publications, London.


Notas

1 Rivadulla (2004, pp. 89-91).

2 Rivadulla, Op. Cit., capítulo III.

3 Ambas ponencias aparecen mencionadas en este trabajo como Kuipers (2006) y Rivadulla (2006È).

4 Sobre la concepción de Popper acerca de los modelos teóricos, Cf. Rivadulla (2006a).

5 Cfr. Rivadulla (2004, 144 y ss.).

6 Cfr. Rivadulla (2006¿).

7 Cf. Ostlie & Carroll (1996, p. 447 ss.).

8 Cf. Rivadulla (2002a, p. 154).

9 Cf. Rivadulla (2004, pp. 81-84) y (2002È).

10 Sobre la inviabilidad de una respuesta a la pregunta acerca de qué probabilidad de ser verdadera tiene determinada teoría científica, Cf. Rivadulla (2004, Cap. 1).

11 Cf. Rivadulla (2006¿).


eidos
Revista de Filosofía de la Universidad del Norte
http://eidos.uninorte.edu.co/index.php/eidos
eidos@uninorte.edu.co

Universidad del Norte
Barranquilla (Colombia)
2007
©