Revista de Filosofia

ISSN electrónico: 2011-7477.
Nº 6 enero-junio de 2007

Fecha de recepción: enero de 2007
Fecha de aceptación: febrero de 2007


EL IMPACTO DE LAS OENDAS COGNITIVAS EN LA FHOSOFÍA DE LA CIENCIA*

* Este artículo corresponde a la ponencia presentada en la Conferencia Internacional sobre Filosofía de la Ciencia y de la Tecnología, organizada por la Universidad del Norte (Barranquilla, Colombia) en septiembre del 2001.

Anna Estany**
** Universitad Autónoma de Barcelona.


RESUMEN

El objetivo de este artículo es ofrecer un panorama de los distintos debates y corrientes que han surgido a raíz de lo que se ha denominado "programa naturalista en epistemología y filosofía de la ciencia. Especial importancia han tenido las ciencias cognitivas, tanto por su especial relación con el pensamiento como por el hecho de que la filosofía formó parte desde el principio del marco interdisciplinar de las ciencias cognitivas junto a la ciencia de la computación, la neurobiología, la antropología, la psicología y la lingüística.

PALABRAS CLAVE
Naturalización, ciencias cognitivas, epistemología


ABSTRACT

The purpose of this essay is to offer a Wide view of the diverse currents of thought and debates that have emerged due to the so called: "naturalistic program in epistemology and the philosophy of science". The cognitive sciences have been of great importance due to their relationship to thought, and to the fact that philosophy has been, from the beginning, part of the interdisciplinary frame that groups: cognitive science, computer science, neurology, anthropology, psychology and linguistics.

KEY WORDS
Naturalization, cognitive science, epistemology.


1. el debate contemporáneo: autonomía versus reducción de la epistemología en las ciencias empíricas

Una parte de los debates en filosofía de la ciencia en las últimas décadas ha girado en torno a la naturalización. Cualquier forma de naturalización implica un cuestionamiento de una epistemología apriorística totalmente independiente de las ciencias empíricas. Hay tres conceptos clave en esta cuestión: apriorismo, normatividad y naturalización. Habitualmente se piensa que el tercero se opone al primero y al segundo. Definitivamente se opone al primero pero es discutible que se oponga al segundo.

Otra de las cuestiones surgidas en relación a la naturalización es la fundamentación del conocimiento. A veces, se ha tomado la naturalización como una corriente opuesta a cualquier programa fundacionalista, sin embargo, es un error de apreciación. Lo que hay es una oposición a determinados programas fundacionalistas pero no a la fundamentación del conocimiento en sí misma.

Tanto las corrientes naturalistas como las apriorísticas son funda-cionalistas, ya que todas ellas pretenden dar razones de la naturaleza del conocimiento aunque la base de esta fundamentación reside en niveles conceptuales distintos. Así, mientras los criterios epistémicos apriorísticos residen en el nivel metateórico, los criterios naturalizadores residen en la psicología, la sociología y la neurobiología dependiendo de la ciencia particular elegida; mientras los primeros dan por supuesto una jerarquía de niveles conceptuales en que cualquier problema en un nivel determinado es resuelto por el inmediato superior, los segundos no admiten ningún tipo de jerarquía conceptual sino que todo se resuelve en el mismo nivel teórico.

Ahora bien, también hay que hacer algunas consideraciones sobre lo que entendemos por fundamentación. Buscar la fundamentación de una creencia es buscar elementos que la hagan más fiable. Por tanto, se descarta cualquier sentido de fundamentación que suponga elementos absolutos que nos proporcionen conocimiento necesariamente cierto.

2. la naturalización de la epistemología1

Cuando examinamos lo que se entiende por naturalización vemos que hay distintos sentidos de cómo se la concibe. Ello nos lleva a la necesidad de aclarar los diversos sentidos y así poder determinar aquel que corresponde a la influencia de las ciencias cognitivas en la filosofía.

■ Naturalización por simetría metodológica

La idea es que los métodos utilizados en la filosofía no tienen por qué ser distintos de los utilizados en las ciencias particulares. Uno de los filósofos que claramente se muestra partidario de este tipo de naturalismo es L. Laudan, quien ha mantenido esta idea desde su libro Progress and its problems. Más recientemente ha desarrollado esta tesis en su artículo "Naturalismo normativo y el progreso de la filosofía" (1998), argumentando a favor de la similitud estructral de la ciencia y la filosofía.

Laudan no acepta una epistemología apriorística por encima de la propia actividad científica, por eso él mismo califica su concepción de naturalista, pero no por ello quiere renunciar al carácter normativo de la filosofía de la ciencia, de aquí su calificación de normativo. En la formulación de estas normas juega también un papel importante la historia de la ciencia, que nos proporciona patrones metodológicos que han funcionado en otras situaciones. Veamos algunas de las afirmaciones más significativas de Laudan:

El naturalismo epistemológico no es tanto una epistemología como una metaepistemología. Básicamente, este naturalismo mantiene que las tesis y las hipótesis de la filosofía deben ser juzgadas según los mismos principios de evaluación que usamos en otras áreas de la vida, tales como la ciencia, el sentido común y el derecho. (Laudan, 1998)

El tema más espinoso para este tipo de naturalismo es cómo salvar la falacia naturalista, es decir, cómo sostener que las tesis filosóficas y las tesis científicas tienen la misma naturaleza, dado que las primeras tienen carácter prescriptivo y las segundas descriptivo. Laudan resume así la tesis de cómo conectar los reinos descriptivo y normativo:

Hay normas epistemológicas que tienen su fundamento en teorías basadas en los hechos. Estas teorías describen cómo conducir la investigación pero, al mismo tiempo, ellas proporcionan apoyo para reglas normativas. Ahora bien, es sin duda verdad que no podemos deducir las normas de los hechos, pero tenemos que recordar, de igual modo, que no podemos deducir las teorías empíricas de los hechos. La no-deducibilidad de enunciados normativos a partir de enunciados empíricos es un hecho que el naturalista necesita aceptar. Pero él puede aceptarlo e insistir todavía en que los hechos tienen una relevancia para las reglas normativas de la epistemología, precisamente en el mismo sentido en que los hechos tienen una relevancia para las teorías científicas. Los anti-naturalistas suponen que, puesto que no podemos derivar las reglas a partir de los hechos, debemos tratar tales reglas como convenciones no empíricas. Pero ellos mismos no insisten en que debamos considerar a las teorías científicas como convenciones, aun cuando las teorías, como las reglas, no son deducibles de los fenómenos. El naturalismo no debe tener más temor de cometer la llamada "falacia naturalista que el temor al problema humano de la inducción" (la falacia de la afirmación del consecuente). Por supuesto, las dos son falacias de la lógica formal. Tenemos que reconocerlo. Pero, habiéndolo reconocido, podemos dejarlo a un lado, porque ahora entendemos que las áreas empíricas de investigación -como la ciencia y "como la filosofía"- tienen que usar formas de inferencia y de argumentación que van más allá de las permitidas por los libros de lógica deductiva (Laudan, 1998, en W. González (ed) 1998: 108).

El naturalismo centrado en el aspecto metodológico es muy interesante para la filosofía de la ciencia y se ha tratado, sobre todo, en relación al papel de la historia en la filosofía de la ciencia. El programa de Laudan (1986 y 1988) de poner a prueba las tesis de los modelos de cambio científico de Kuhn, Lakatos, Hanson y Feyerabend, contrastándolos con casos de la historia de la ciencia, responde a este tipo de naturalismo metodológico.

■ Naturalización por analogía

Consiste en tomar una ciencia particular como modelo analógico para analizar problemas filosóficos. Por ejemplo, la llamada "epistemología evolucionada", propuesta por autores como S. Toulmin y D. Hull, encajarían con este tipo de naturalización. Aunque hay diferencias entre los autores de este enfoque, a la teoría de la evolución se le atribuye una función heurística, no predictiva. Es decir, en general, no se pretende hacer una extrapolación automática de la teoría de la evolución (modelo analógico) a la epistemología (campo modelado). Podríamos decir que el modelo analógico se entiende en el sentido de las analogías que encontramos en la historia de la ciencia, tales como el sistema solar, tomado por E. Rutherford y N. Bohr como modelo analógico para estudiar la estructura del átomo o la física dinámica, en la que se inspiró S. Freud para su teoría psicoanalítica.

S.F. Martínez y L. Olivé, compiladores del libro Epistemología evolucionista (1997), hacen las siguientes reflexiones sobre el papel de los modelos evolucionistas en la naturalización de la epistemología:

Alguien que quisiera insistir en que una explicación evolucionista del conocimiento es imposible en principio, tendría que ofrecer una justificación diferente de la que se podría articular con facilidad antes de que se aceptaran las explicaciones seleccionistas en inmunología y en otras teorías en donde los replicadores no son los genes. Si simplemente se arguye que la evolución sólo es explicativa en el contexto de la replicación de genes, entonces tampoco las explicaciones en inmunología y en neurobiología podrían aceptarse. En este caso sólo tendríamos el recurso de tratar de ofrecer explicaciones sobre la base de una analogía con la evolución orgánica. Pero si se aceptan las explicaciones seleccionistas en las que los replicadores no son genes, entonces el problema no radica en determinar si una explicación seleccionista acerca de cómo crece el conocimiento es aceptable en principio, ni siquiera en determinar hasta qué punto es posible fundamentar una analogía, sino, más bien, el problema consistiría en explicar qué tan exitosos pueden ser esos modelos seleccionistas en epistemología, y en última instancia, en caracterizar los modelos seleccionistas en el marco de una teoría general de la selección que contemple como casos especiales la selección orgánica y las aplicaciones que se consideran exitosas (Martínez y Olivé, 1997:17).

Además de la vía evolucionaria hay otras formas de naturalizar por analogía. Por ejemplo, el enfoque computacional de P. Thagard podría situarse en este tipo de naturalización, aunque Thagard toma los modelos analógicos de la ciencia de la computación y no de la teoría de la evolución.

■ Naturalización por traspasamiento

Consiste en traspasar las funciones (todas o en parte) de la epistemología a una ciencia particular (sea ésta la psicología, la sociología o la neurobiología). La idea es que los problemas (todos o en parte) de la epistemología pueden ser resueltos por la ciencia particular en cuestión. El traspasamiento puede ser total o parcial. En el primer caso tendríamos que hablar de "reducción" de la epistemología a una ciencia particular, pudiendo llegar a la "eliminación" de la epistemología. En el segundo caso tendríamos lo que podríamos llamar "tesis minimalista de la naturalización", que consistiría en lo siguiente: i) abandonar los criterios apriorísticos para la fundamentación del conocimiento; y ii) aceptar que toda norma epistémica ha de ser compatible con lo que las ciencias empíricas nos dicen sobre las capacidades cognitivas de los humanos, teniendo en cuenta las condiciones del entorno físico y social en el que se desenvuelven.

De todos estos sentidos de naturalización, es el de traspasmiento el que, habitualmente, se entiende en filosofía y, dentro de éste, el que toma la psicología como la ciencia particular que recibe el traspaso de funciones, reduce o elimina la epistemología. Es también este sentido el que enlaza con la tradición psicologista de la que encontramos abundantes ejemplos en la historia de la filosofía. Si la psicología significa literalmente el estudio del alma, o de la psique o de la mente, éste ha sido siempre uno de los objetivos de la filosofía. Desde el De anima de Aristóteles hasta la Crítica de la razón pura de Kant tratan de cuestiones como la sensibilidad, el entendimiento, la intuición, etc., todos ellos conceptos filosóficos relacionados con la psicología. Por todo ello, en lo que sigue vamos a centrarnos en la naturalización de la epistemología a partir del papel de la psicología en el análisis de las cuestiones epistemológicas, haciéndonos eco de las diversas posturas.

3. EL RETORNO DE LA PSICOLOGÍA: DEFENSORES Y DETRACTORES2

En la década de los cincuenta surgen las primeras voces que cuestionan algunas de las tesis del positivismo lógico. Una de las críticas procede de cuestionar el antipsicologismo del Círculo de Viena. Podríamos decir que hay una vuelta al psicologismo aunque ahora esta corriente se la conoce como "la naturalización de la epistemología".

■ WILLARD VAN ORMAN QUINE

El principal artífice del retorno de la psicología es Quine, que en un artículo publicado en 1969, "Epistemology naturalized", propone un giro en la teoría del conocimiento. Dice Quine:

¿Por qué no decidirse por la psicología? Este traspaso de la carga epistemológica a la psicología es un movimiento que se consideró anteriormente como un razonamiento circular. Si el objetivo del epistemólogo es la validación de los fundamentos de la ciencia empírica, el epistemólogo defrauda su propósito al utilizar la psicología u otras ciencias empíricas en su validación. Sin embargo, estos escrúpulos contra la circularidad tienen poco fundamento una vez hemos desechado nuestro sueño de deducir la ciencia de las observaciones. Si nos proponemos entender el vínculo entre observación y ciencia, sería aconsejable utilizar cualquier información disponible, incluida la proporcionada por la ciencia cuyo vínculo con la observación intentamos entender (Quine, 1969).

La tesis de Quine puede considerarse como sustitutoria en el sentido de que la epistemología quedaría reducida a la psicología empírica. La consecuencia inmediata es que la epistemología queda eliminada y habría que abandonar las nociones de justificación, buenas razones, afirmaciones justificadas, etc. y reconstruir la noción de "evidencia" a partir de estímulos sensoriales, que son los que causan las creencias científicas que tenemos.

■ HILARY PUTNAM

Las reacciones a esta corriente reduccionista no se hicieron esperar y otro de los filósofos importantes de las últimas décadas, Hilary Putnam, respondió en su artículo "Why reason can't be naturalized?" (1982), argumentando del modo siguiente:

Si no vamos a eliminar lo normativo y no hay posibilidad de reducir lo normativo a nuestra ciencia favorita, sea ésta la biología, la antropología, la neurología, la física o cualquier otra, ¿dónde estamos? Podemos intentar una teoría de lo normativo en sus propios términos, una epistemología formal, pero este proyecto parece demasiado ambicioso. Mientras tanto, hay mucho trabajo filosófico a hacer y se haría con menos errores si nos sintiéramos libres de enfoques reduccionistas e historicistas que han tenido atada a la epistemología de pies y manos. Si la razón es a la vez trascendental e inmanente, entonces la filosofía como reflexión culturalmente determinada y como argumento sobre cuestiones eternas es a la vez temporal y arquimédea; hablamos siempre el lenguaje en un tiempo y un lugar pero la corrección o la incorrección de lo que decimos no es sólo para un tiempo y un lugar (Putnam, 1982).

Putnam rechaza cualquier opción que suponga la eliminación de la epistemología y, por tanto, el aspecto normativo de la teoría del conocimiento. Sin embargo, hay que señalar que la naturalización de la epistemología no está necesariamente ligada, como en el caso de Quine, a la renuncia de su aspecto normativo. Digamos que Quine, por un lado, inicia una crítica a ciertos principios de la filosofía positivista del Círculo de Viena, como la distinción entre términos observacionales y teóricos o el criterio empirista del significado y, por otro, acepta los resultados del conductismo que hasta la década de los cincuenta fue el paradigma predominante entre la comunidad de psicólogos.

■ RONALD GIERE

Uno de los filósofos que ha abogado por una filosofía de la ciencia naturalizada no desligada del aspecto normativo es R. Giere en su obra Explaining Science. A Cognitive Approach (1988). Giere entiende el naturalismo como la idea de que todas las actividades humanas deben ser entendidas como fenómenos totalmente naturales, tal como son las actividades de los elementos químicos o los animales. Giere reconoce que el naturalismo ha sido refutado muchas veces en filosofía pero cree que ahora existen elementos nuevos a su favor. Estas razones proceden del desarrollo que han experimentado las ciencias cognitivas y, en especial, de su éxito empírico. Así, de la misma forma que la nueva física del siglo XVII se impuso no tanto porque refutara los argumentos de los escolásticos sino por sus logros empíricos, también ahora el debate sobre psicologismo-naturalismo/ antipsicologismo-no naturalismo puede saldarse por el éxito empírico de las ciencias cognitivas.

A pesar de que no renuncia a lo normativo, Giere se desmarca de Putnam porque cree que éste impone una definición de racionalidad que no es en absoluto necesaria. Putnam asume una concepción de racionalidad categorial (equivalente a la racionalidad de fines), cuando para un naturalista es suficiente una racionalidad hipotética (equivalente a la racionalidad de medios). Según Giere, el enfoque naturalista requiere que el sistema de la ciencia esté basado en descubrimientos empíricos sólidos sobre estrategias efectivas con la finalidad de obtener objetivos científicos.

Si, tal como parece, la fuerza del nuevo naturalismo, que se desmarca de Quine, reside en las ciencias cognitivas, el próximo paso es examinar los objetivos, naturaleza y alcance de las ciencias cognitivas de las que la psicología forma parte. Sólo así podemos hacer un balance de los argumentos a favor y en contra del naturalismo.

4. EL IMPACTO DE LAS CIENCIAS COGNITIVAS EN LA EPISTEMOLOGÍA3

Los objetivos de las ciencias cognitivas no son distintos de los que tenían los griegos en su interés por la naturaleza del conocimiento humano. Vemos que en el Menon de Platón, Sócrates instruye a un joven y la instrucción consiste en hacer aflorar el conocimiento innato a la conciencia. La diferencia con los griegos es que ahora poseemos instrumentos mucho más poderosos para conocer la naturaleza humana. No es la primera vez que el sueño de un filósofo recibe el espaldarazo empírico al cabo de años o siglos. Este es el caso de Dalton, que proporcionó base empírica al sueño de Demócrito, y éste es también el caso de las ciencias cognitivas que proporcionan base empírica al sueño de Platón, de Descartes y de Kant entre otros muchos filósofos. Tenemos más información sobre lo que significa saber algo, tener creencias justificadas, ignorar algo, equivocarse. Conocemos muchos de los mecanismos del aprendizaje, de la memoria y de la racionalidad. Tenemos información de cómo almacenamos conocimiento, cómo lo perdemos, por qué un individuo aprende más rápido que otro, cuáles son los vehículos del conocimiento, cuáles son los modos de representación de una imagen, de un concepto y de una palabra, cuál es el papel del lenguaje, cuáles son los límites del conocimiento, y un largo etcétera de cuestiones sobre las cuales poseemos evidencia empírica, instrumentos poderosos para continuar la investigación y unas perspectivas esperanzadoras de nuevos hallazgos en este campo. H. Gardner (1987) define la ciencia cognitiva como una ciencia que intenta responder cuestiones epistemológicas planteadas desde siempre con evidencia empírica, en especial aquellas que tienen que ver con la naturaleza del conocimiento humano, sus componentes, sus fuentes, su desarrollo y su organización.

Las ciencias cognitivas tienen como objetivo el estudio de sistemas inteligentes y sus procesos computacionales en humanos (y animales), en ordenadores y en sistemas abstractos como la lógica formal o la teoría de la decisión. Hay muchas conductas humanas que consideramos inteligentes: resolver un problema, elegir el mejor medio para alcanzar el fin propuesto, contestar coherentemente a una pregunta, crear algo útil, bello u original. Desde el punto de vista de las ciencias cognitivas, lo que interesa es saber los procesos que subyacen a todas estas conductas inteligentes. En cuanto a los ordenadores, se dice que un programa es inteligente si su actuación es considerada inteligente en el caso de que la tenga un ser humano (Simon y Kaplan, 1989). En la formación de este campo de investigación han contribuido disciplinas diversas como la psicología, la lingüística, la filosofía, la antropología, la neurobiología y la ciencia de la computación.

¿Dónde reside la pertinencia de las ciencias cognitivas para la epistemología? La epistemología tiene como objeto de estudio el conocimiento, que es la propiedad de las mentes individuales. Si el conocimiento es la propiedad de las mentes individuales y la mente es el objeto de estudio de la psicología, es razonable pensar que, como mínimo, la psicología tiene algo que decir sobre cualquier teoría del conocimiento. Lo que apuntábamos al principio a raíz de la relación entre filosofía y ciencias empíricas está en juego en este punto. En función de si consideramos o no que las ciencias empíricas en general y las ciencias cognitivas en particular pueden jugar un papel importante en la resolución de problemas filosóficos, entenderemos el papel que las ciencias cognitivas pueden jugar en la resolución de problemas epistemológicos. Por tanto, no es sorprendente que en la actualidad el debate epistemológico tenga lugar en campos distintos, desde la neurobiología hasta la filosofía.

Hay que señalar que las disciplinas científicas como la neurobiología y la ciencia de la computación no son en absoluto ajenas a los problemas de fundamentación del conocimiento, a menos que nos situemos en una postura antipsicologista "a lo Frege". En realidad, de Platón a Kant, la psicología fue tenida en cuenta a la hora de teorizar sobre la posibilidad del conocimiento, pero tener en cuenta la psicología a finales del siglo XX significa tener en cuenta la neurobiología y la ciencia de la computación y, en general, las ciencias cognitivas.

5. ENFOQUE COGNITIVO EN FILOSOFÍA DE LA CIENCIA

El enfoque cognitivo en filosofía de la ciencia es el resultado de la influencia de las ciencias cognitivas en la metaconceptualización. A continuación, voy a exponer algunas propuestas dentro de este enfoque que abordan diferentes campos de la filosofía de la ciencia.

■ RONALD GIERE (1988)

Hemos visto que Giere es uno de los filósofos que, después de años de debate sobre la naturalización de la epistemología (aquí ejemplificado por Quine vs. Putnam), aboga por plantear de nuevo un programa naturalizador. Vamos a ver cómo repercute el enfoque cognitivo en la formulación de una teoría de la ciencia (Giere, 1988). Giere pertenece a la corriente que en filosofía de la ciencia se denomina "concepción semática de las teorías" a la que ha incorporado elementos extraídos de la psicología cognitiva, como el concepto de "modelo mental", basado en el de P.N. Johnson-Laird (1983). Giere propone cambiar el esquema de teoría científica propuesta por el empirismo lógico (figura III) por un esquema más acorde con los modelos cognitivos de representación del conocimiento (figura IV).

La idea de Giere se fundamenta en que los científicos, como cualquier otro humano, construyen modelos sobre la realidad y que las teorías pueden entenderse como modelos (mentales) teóricos. Así, distingue tres categorías ligadas a las entidades con las cuales representamos el conocimiento: "modelos teóricos", "hipótesis teóricas" y "teorías". Los modelos teóricos forman parte del mundo imaginario, es decir, son sistemas idealizados que se utilizan para representar los diversos sistemas del mundo real. Los modelos no son entidades lingüísticas, aunque puedan ser caracterizados con recursos lingüísticos distintos. Las hipótesis teóricas son las que ponen en relación los modelos con el mundo real; éstas sí son entidades linguísticas y pueden ser verdaderas o falsas. En cambio, de los modelos no puede predicarse su verdad o falsedad, tan solo su grado de similitud con los sistemas reales. Las teorías científicas estarían formadas por el conjunto de modelos y de hipótesis teóricas, las cuales ligan dichos modelos a los sistemas reales. Lo que encontramos en los libros de texto son las definiciones de los modelos que forman parte de la teoría.

■ PAUL CHURCHLAND (1986)

P. Churchland pertenece a la corriente eliminacionista dentro de la filosofía de la mente, que propone eliminar los conceptos de la psicología popular (folk psychology), los cuales pueden ser sustituidos por conceptos procedentes de la neurobiología. Propone, por lo tanto, un reduccionismo de la psicología a la neurobiología.

Por lo que respecta a la filosofía de la ciencia defiende un naturalismo fuerte, en el sentido de que el análisis filosófico de la ciencia puede hacerse totalmente con modelos neurocomputacionales procedentes del paradigma de procesamiento de la información en paralelo, llamado también conexionismo. Así, las teorías científicas, la explicación científica, el cambio conceptual, etc. son abordados desde los modelos proporcionados por el conexionismo. Vamos a centrarnos en lo que dice sobre las teorías que, en último término, son los productos más elaborados de conceptualización.

Churchland presenta ejemplos de redes neuronales (la que "aprendió" a distinguir entre minas y rocas, o la que "aprendió" a distinguir las letras del alfabeto inglés) que tienen capacidad de incorporar representaciones de factores y patrones que están sólo parcial o implícitamente reflejados en el corpus de los inputs. Churchland constata que las representaciones en el espacio vectorial de redes neuronales no son lo suficientemente ricas como para asimilarlas a los conceptos humanos, pero hace la siguiente puntualización:

Las redes han ideado un sistema de representaciones internas que corresponden a importantes distinciones y estructuras del mundo exterior, estructuras que no están explícitamente representadas en el corpus de sus inputs sensoriales. El valor de estas representaciones es que ellas y sólo ellas permiten a la red "dar sentido" al input variado y a veces ruidoso, en el sentido de que ellas y sólo ellas permiten a la red responder a aquellos inputs de una forma que sistemáticamente reduce el error del mensaje en una insignificancia. Esto, no necesito recordarlo, son las funciones adscritas típicamente, a la "teorías" (Churchland, 1986:177).

Por lo tanto, las teorías intervienen en todos los procesos de percepción, tanto humana como animal. O sea, que una teoría consiste en una serie de conexiones sinápticas que pueden ser más o menos fuertes en función de los pesos. Cognitivamente, tanto las teorías científicas como las teorías que los animales tienen sobre el mundo son lo mismo: todas pueden reconstruirse neurocomputacionalmente de la misma forma, la diferencia es sólo una cuestión de complejidad, lo que se traduciría en un espacio vectorial con muchas más dimensiones y con distribuciones de peso distintas.

■ NANCY NERSESSIAN (1992)

N. Nersessian aboga por un "análisis histórico-cognitivo". Su idea es hacer filosofía de la dinámica científica (estudio diacrónico de la ciencia o análisis del contexto del descubrimiento) inspirada en la ciencia cognitiva, muy especialmente, en la psicología cognitiva. Sería, por tanto, una teoría cognitiva del cambio conceptual.

Esto supone, en primer lugar, analizar qué se entiende por teoría científica en un enfoque cognitivo de ciencia. Una teoría científica es un tipo de sistema representacional y los científicos cognitivos han propuesto diversas formas de representación. Nersessian, siguiendo a P.N. Johnson-Laird (1983), asume tres formas de representación:

1) Representación "preposicional" (tiras de símbolos tales como "el gato está sobre la alfombra".

2) "Modelos mentales" (análogos estructurales del mundo real o de situaciones imaginadas, tales como que el gato está sobre la alfombra o el unicornio está en el bosque)

3) "Imágenes" (un modelo mental desde una perspectiva específica, tal como mirar desde arriba hacia abajo el gato sobre la alfombra).

Es importante señalar que tanto Nersessian como Johnson-Laird asumen que, a pesar de que en el nivel de codificación todas las representaciones son proposicionales, en el momento de razonar y comprender, la gente construye modelos mentales de fenómenos, circunstancias, situaciones, procesos, etc. reales e imaginarios.

Uno de los valores de tener formas de representación como los modelos mentales es que pueden hacer inferencias sin que la persona tenga que computar estas inferencias. Por ejemplo, moviendo un objeto inmediatamente cambian todas las relaciones espaciales y hace posible sólo unas cuantas. La hipótesis de que hacemos inferencias a través de los modelos mentales gana plausibilidad cuando consideramos que, como organismos biológicos, nos tenemos que adaptar al entorno. De hecho, los investigadores de la inteligencia artificial se encuentran con muchos problemas cuando abordan los enormes efectos que producen los cambios, inclusos los pequeños, en nuestros sistemas de representación del conocimiento.

El que un modelo mental sea un "análogo estructural" significa que contiene una representación de las relaciones espacial y temporal entre los eventos y las entidades de la narrativa. Al construir y poner al día una representación, los lectores invocarán una combinación de conocimiento conceptual y del mundo real y emplearán los mecanismos tácitos y de inferencia recursiva de sus aparatos cognitivos.

Este enfoque, según Nersessian, dará lugar a una filosofía de la ciencia psicológicamente realista, lo cual revertirá en la coherencia y competencia de la propia filosofía. A partir de estas ideas, Nersessian reconstruye casos de historia de la ciencia como el de Faraday.

■ PAUL THAGARD (1992)

Thagard aborda los conceptos y los sistemas conceptuales, dando un panorama de cómo se han entendido éstos en la historia de la filosofía y de la psicología, ya que son percibidos de forma distinta por cada una de estas disciplinas. Mientras la filosofía tiene como objetivo poner de manifiesto los aspectos metafísicos y epistemológicos, la psicología tiene como objetivo dar cuenta de las características del pensamiento humano. Actualmente, los investigadores de la Inteligencia Artificial desarrollan enfoques de estructura conceptual que permitan a los ordenadores hacer tareas que requieran inteligencia cuando son realizadas por humanos.

Thagard expone una clasificación de los distintos puntos de vista sobre la naturaleza de los conceptos, y desarrolla el suyo propio. Veamos algunas formas de entender los conceptos:

1) Conceptos definidos dando condiciones necesarias y suficientes (enfoque tradicional).

2) Conceptos como prototipos. Algo es caracterizado como un fruto si es suficientemente similar a nuestro prototipo de fruto, y es una función del grado de similitud al prototipo (Lakoff , 1987, para una discusión sobre prototipos).

3) Conceptos como marcos (Minsky), que sería una implementación de los prototipos.

4) Conceptos como patrones de activación distribuidas sobre unidades neuronales en una red neuronal altamente conectada (enfoque conexionista de Rumelhart et al., 1986).

La propuesta de Thagard es considerar los conceptos como estructuras complejas semejantes a los "marcos", en el sentido de Minsky pero i) dando una especial prioridad a las relaciones de tipo y de parte-todo y ii) expresando información factual a través de reglas que reflejen dicha complejidad.

A partir de esta caracterización de los conceptos introduce la idea de "sistema conceptual" y de "cambio científico". Un sistema conceptual consiste en conceptos organizados en jerarquías de tipo y jerarquías de parte y unidos unos a otros por reglas. En este sentido, un sistema conceptual puede ser analizado como una red de nodos, en que cada nodo corresponde a un concepto, y cada línea de la red corresponde a una unión entre conceptos. Un cambio científico es un cambio conceptual y puede darse por diferentes razones:

1) Añadiendo una nueva instancia.

2) Añadiendo una nueva regla débil.

3) Añadiendo una nueva regla fuerte que juega un importante papel en la resolución de problemas y en la explicación.

4) Añadiendo una nueva relación de partes.

5) Añadiendo una nueva relación de tipo.

6) Añadiendo un nuevo concepto

7) Fundiendo parte de la jerarquía de tipos y abandonando distinciones previas.

8) Reorganizando jerarquías y saltando brancas, esto es, cambiando un concepto de branca dentro del mismo árbol.

9) Cambiando el árbol, es decir, cambiando el principio organizativo de la jerarquía del árbol.

Paul Thagard centra el cambio científico en el cambio conceptual. De esta forma, las revoluciones científicas son "revoluciones conceptuales" (Thagard, 1992). En este sentido recoge la idea de Toulmin sobre el desarrollo de la ciencia en términos de evolución de los conceptos. Thagard define su propio enfoque como psicológico y computacional y utiliza como instrumento de análisis la Inteligencia Artificial .

Thagard propone reconstruir cada secuencia de la historia de una disciplina con un mapa conceptual que (y esto es muy importante para la caracterización del modelo de Thagard como modelo cognitivo de ciencia), que para Thagard, corresponde a la manera de como la psicología cognitiva nos dice que nosotros estructuramos el conocimiento, esto es, en estructuras conceptuales denominadas "marcos". Con este aparato conceptual, y sirviéndose del programa de ordenador conexionista denominado ECHO, analiza las revoluciones aparecidas en la química (Lavoisier), en la biología (Darwin), en la geología (Wegener), y en la física (Copernico, Newton, Einstein y los líderes de la mecánica cuántica). Al final del libro aborda las revoluciones en la psicología, pero con un interrogante, "¿Revoluciones en la psicología?"

6. EJEMPLOS DE ANÁLISIS DE CUESTIONES FILOSÓFICAS DESDE LA CIENCIA COGNITIVA

6.1. la tesis de la observación neutra versus la carga teórica de la observación4

El problema que se plantea es el de la carga teórica de la observación y se analiza a la luz de los resultados empíricos de la psicología cognitiva y, dentro de ésta, de la teoría de la percepción, por ser especialmente relevante para dicho problema filosófico.

El análisis de la observación reviste especial importancia porque concurren distintos elementos. Por un lado, en la discusión sobre la neutralidad de la observación vs. carga teórica de la observación, la objetividad de la ciencia está en juego. Por otro, la percepción está a la base de cualquier actividad cognitiva y, en el caso de la observación es especialmente relevante la percepción visual que, además, es uno de los fenómenos más estudiados por la psicología. Por lo tanto, los resultados de la investigación psicológica no dejarán incólumes a los filósofos.

La tesis de la carga teórica de la observación está relacionada con la distinción entre términos observacionales y teóricos. La distinción teórico-observacional ha constituido un punto de tensión entre los diversos enfoques de la filosofía de la ciencia. Se pueden distinguir dos posturas opuestas representadas por C. Hempel, que defiende la distinción entre términos teóricos y términos observacionales, y por N. R. Hanson, que sostiene la tesis de la carga teórica de la observación y, en consecuencia, que todos los términos son teóricos.

El posicionamiento respecto a estas tesis ha jugado un papel muy importante en filosofía de la ciencia haciendo recaer sobre ellas la fiabilidad de la observación y, en consecuencia, la objetividad de la ciencia. A partir de Hempel se formula el criterio empirista del significado que se fundamenta en la distinción teórico-observacional y en la posibilidad de una observación neutra. En el modelo hempeliano, la base empírica de la ciencia está en función de que los términos teóricos de una teoría puedan definirse a partir de términos observacionales. La tesis de Hanson ha sido tomada por muchos filósofos (por ejemplo, Feyerabend y todos los constructivistas sociales posteriores) como un sostén de sus tesis relativistas, aunque hay que decir que Hanson nunca sacó consecuencias tan radicales.

La relación entre las dos tesis podemos establecerla como sigue: si se acepta que hay dos tipos de términos científicos (observacionales y teóricos), entonces hay que abandonar la tesis de la carga teórica de la observación pero uno puede rechazar ambas tesis.

Este debate se reproduce en filosofía de la mente entre Jerry Fodor y Paul Churchland. Mientras el primero mantiene la tesis de la independencia del sistema perceptual, el segundo lo niega. Según Fodor (1984), el sistema perceptual está aislado, y como consecuencia todos los humanos compartimos la misma experiencia perceptual. Hace referencia a experimentos como el de Müller-Lyer y el del palo sumergido en el agua, señalando que el saber que las dos líneas tienen la misma longitud y de que el palo es recto no quita que uno siga viendo una línea más larga que otra y el palo torcido.

Paul Churchland arguye que la tesis de Fodor es falsa y que, aún en el caso de que fuera cierta, desde el punto de vista de la psicología de la percepción no aportaría nada nuevo a la tesis de la observación neutra. El aislamiento del sistema operativo -dice Churchland- no nos asegura la verdad de nuestras creencias perceptuales. Recurre a algunos experimentos para apoyar su tesis: las figuras ambiguas como la del conejo/pato, mujer joven/anciana, son ejemplos que prueban que al menos algunos aspectos de los procesos visuales están controlados por los centros cognitivos superiores.

En relación a las tesis filosóficas, la idea es que lo que la psicología cognitiva dice sobre la percepción puede, si no resolver, sí clarificar este debate, descartando alguna de estas tesis y apoyando a otras.

Hay dos enfoques fundamentales en la psicología de la percepción: uno que dice que nuestra actividad cognitiva discurre mediante procesos denominados "de abajo-arriba" (bottom-up) y otro que dice que los procesos son "de arriba-abajo" (top-down). El de abajo-arriba se denomina también "análisis de rasgos" (feature analysis). Desde esta perspectiva, el reconocimiento de un objeto está basado en la detección de rasgos distintivos. Un rasgo distintivo es un atributo que caracteriza un objeto y que puede ser detectado en muchas circunstancias, funcionando como una señal invariante.

En este tipo de reconocimiento de patrones la información fluye desde las pequeñas piezas perceptuales hasta las unidades más grandes. Estos procesos son operativos en el reconocimiento de palabras a partir de las letras y así sucesivamente.

Según el enfoque que basa la actividad cognitiva en procesos de arriba-abajo, las creencias de nivel más alto o más fundamentales influencian la interpretación de unidades perceptuales de más bajo nivel. Martindale (1991) señala que hay evidencia empírica de que los humanos utilizamos los dos tipos de mecanismos para la percepción.

A partir de estas ideas sobre los procesos cognitivos vamos a reconstruir las tesis de Hempel y Hanson.

Siguiendo a Hempel tendríamos lo siguiente:

• Los términos observacionales son la representación lingüística de los procesos de abajo-arriba.

• Hay procesos de arriba-abajo, pero estos "deben" ser excluidos en la observación

De esto se desprende que Hempel da por supuesto que nuestro aparato cognitivo es capaz de elegir, en cualquier momento, qué tipo de proceso (de abajo-arriba o de arriba-abajo) queremos usar.

Siguiendo a Hanson tendríamos lo siguiente:

• Todos los procesos perceptuales son del tipo de arriba-abajo.

• Los procesos de arriba-abajo disminuyen, hasta prácticamente eliminar la fiabilidad de la percepción.

De todo ello podemos concluir que no es posible seguir completamente la norma de Hempel, ya que no podemos controlar el uso de uno u otro proceso. Y que no tiene sentido construir una teoría de la ciencia sobre una norma que no podemos cumplir. Por otro lado, no hay evidencia empírica de que toda la percepción sea a través de procesos de arriba-abajo y de que este tipo de procesos hagan, siempre, la percepción menos fiable.

En contra de lo que piensa Hanson, hay tareas cognitivas en que los procesos de arriba-abajo son cruciales y son imprescindibles para alcanzar determinados fines que pueden ser claves para la supervivencia de la especie o para el éxito en la investigación científica. Sin embargo, tiene desventajas porque nos puede llevar a cometer errores de percepción. Desde un punto de vista epistemológico, es interesante mitigar, en la medida de lo posible, las desventajas de los procesos de arriba-abajo. Interesa saber hasta qué punto nuestro aparato cognitivo puede ir más allá de las expectaciones.

La percepción es un compromiso entre la sensación y la expectación. Cuánto hay de sensación y cuánto de expectación es relevante para la tesis de la carga teórica de la observación, tesis sobre la que pesa la objetividad de la ciencia. S. Grossberg (1980) aborda la forma en que se da este compromiso entre expectación y sensación. El sistema estimulador hace posible superar la expectación cuando hay un desajuste entre expectación y sensación. Por tanto, el sistema estimulador tiene la función de mitigar las consecuencias negativas de los procesos de arriba-abajo.

De nuevo vamos a ver las repercusiones en la filosofía de la ciencia, reconstruyendo las ideas de Hempel y Hanson, desde el supuesto de que la percepción es un compromiso entre sensación y expectación. De acuerdo con Hempel la percepción "debe ser" sensación. De acuerdo con Hanson la percepción "es" expectación.

Desde la tesis de Hanson de la carga teórica de la observación, deberíamos decir que la percepción es expectación y sólo expectación. Suponiendo la tesis de Hanson sobre la observación, a nivel cognitivo significa que el individuo que está observando un objeto del entorno ni siquiera es capaz de darse cuenta del desajuste sino que la expectación es tan predominante en la obsevación que anula los estímulos. Pero, como hemos visto, son unos supuestos que no tienen ningún fundamento empírico tal como demuestran los numerosos experimentos de los que tenemos constancia.

¿Qué significa a nivel cognitivo la tesis de Hempel? De entrada hay una diferencia y es que mientras la tesis de Hanson tiene un carácter descriptivo, la de Hempel tiene carácter normativo. Que las cosas no funcionan tal como prevé Hanson está claro, por tanto, el supuesto de Hanson contradice la evidencia empírica que tenemos en la actualidad. La tesis de Hempel se sitúa en otro nivel; por tanto, no podemos decir que sea falsa ya que lo que dice Hempel es que para que la ciencia sea objetiva, algo que todos queremos, debería atenerse a la observación neutra, lo cual significa libre de ideas preconcebidas. No vulnerar nunca esta norma equivaldría a que toda percepción sea a partir de procesos de de abajo-arriba y además que no haya errores. Cualquier ámbito normativo puede dar las normas que considere oportunas, pero no tiene sentido dar una norma que se está seguro que aquellos individuos que la tienen que cumplir no están capacitados para cumplirla. Pues esto es lo que ocurre con la tesis de Hempel entendida como norma epistemológica. Simplemente, no es plausible si nos atenemos a los resultados empíricos de la psicología cognitiva. La única forma posible de mantener la tesis de Hempel es considerándola como modelo ideal, en el sentido de los tipos ideales de Weber, pero situados en el metanivel, en sentido literal serían "metatipos ideales", de los que sabemos que nunca se dan exactamente iguales en la realidad. O cuando en química se formula alguna ley y se añade "en condiciones ideales de presión y temperatura", dando por sentado que, en realidad, nunca se dan.

Hasta aquí he argumentado que la prescripción de Hempel de que la percepción debe ser sensación no es posible. También voy a argumentar que no es deseable, desde un valoración epistemológica.

Aún suponiendo que hubiera un mundo en que los seres que hicieran ciencia fueran capaces de cumplir la regla ideal de Hempel, no está claro que sólo fueran ventajas epistémicas ya que, como hemos indicado, los procesos de arriba-abajo tienen ventajas epistémicas, por ejemplo, la velocidad (recordemos que A. Goldman,1986, pone la velocidad como una de las virtudes epistémicas). Si sólo hubiera procesos de abajo-arriba cualquier tarea cognitiva sería absolutamente tediosa, dificultando, incluso bloqueando, cualquier progreso científico.

Grossberg dice que cuando la atención está causada por desajustes entre expectación y realidad, las entradas (inputs) desde el sistema estimulador pueden superar estas dificultades. Si este no fuera el caso, el deseo destruiría la realidad y nosotros percibiríamos lo que esperamos percibir. Esto, que Grossberg y Martindale y cualquiera con un mínimo de racionalidad descartaría, constituye el núcleo fuerte del pensamiento relativista y especialmente del Programa Radical en Sociología del Conocimiento.

6.2. la tensión entre valores epistémicos en la investigación científica5

El problema que vamos a analizar se produce por la tensión entre diferentes valores epistémicos a la hora de elegir entre hipótesis y entre fines u objetivos de la ciencia. La filosofía de la ciencia, a lo largo de su historia, ha ido consolidando una serie de indicadores epistémicos que conforman los valores y los fines de la ciencia. Uno de los problemas es que estos valores no pueden llevarse a cabo en la misma medida, lo cual significa que tenemos que priorizar unos frente a otros. Sin embargo, por un lado, no hay un algoritmo para saber en cada momento qué valores hay que poner en primer lugar cuando hay que elegir entre dos teorías en competencia. Por otro lado, la investigación científica requiere la objetividad para que la ciencia tenga fundamento racional. El problema es, pues, cómo aunar la falta de un algoritmo para la elección de teorías y la objetividad de la ciencia. En resumen, cómo puede resolverse el pulso epistémico.

Como ejemplos de valores epistémicos podemos señalar los siguientes:

• C. Hempel: los desiderata, que tienen carácter de normas o valores cognoscitivos que actúan como constreñimientos para una teoría de la decisión de teorías.

• B. Van Fraassen: las virtudes de una teoría como la coherencia, la adecuación empírica, la elegancia matemática y la simplicidad.

• A. Goldman: los criterios epistemológicos evaluadores como la Habilidad, el poder y la velocidad.

• T. Kuhn: los valores cognoscitivos compartidos como el rigor, la consistencia, el campo de aplicación, la simplicidad y la fecundidad.

• C. Popper: la falsabilidad de una teoría.

• W.H. Newton-Smith: los criterios para elegir entre teorías en competencia como el éxito observacional, la verosimilitud, la fertilidad, el historial, el apoyo interteórico, la adaptabilidad, la consistencia, la compatibilidad con creencias metafísicas bien fundadas y la simplicidad.

• I. Lakatos: los indicadores de los programas progresivos.

• S. Toulmin: los modos de resolver problemas como refinar la terminología, introducir nuevas técnicas de representación y modificar los criterios para identificar casos a los que sean aplicables las técnicas corrientes.

• L. Laudan: la resolución de problemas.

• P. Kitcher: los indicadores para evaluar la producción teórica de una teoría como el lenguaje utilizado, las cuestiones significativas, los enunciados sobre el objeto de estudio, los patrones explicativos, los criterios de credibilidad, los paradigmas de experimentación y observación, y los ejemplares de razonomiento.

A pesar de todas las aportaciones de los filósofos a los valores epistémicos, el problema planteado sigue en pie, ya que existe la cuestión de cómo establecemos las prioridades. ¿Poseemos algún algoritmo por el que podamos asignar pesos a los distintos indicadores y así determinar unívocamente qué criterio es el prioritario en cada momento de decisión entre teorías? Ninguno de los filósofos aquí presentados apuesta por la existencia de un algoritmo. Tampoco tenemos jerarquías fijadas de antemano, aunque en determinados momentos históricos haya habido modelos metodológicos que han priorizado uno u otro valor epistémico.

Tomando en consideración lo expuesto anteriormente podemos sacar las consecuencias siguientes:

1) No hay un algoritmo para la elección de teorías porque no hay un algoritmo para la elección de criterios para elegir teorías.

2) La investigación científica es una práctica científica realizada por individuos con intereses y fines idiosincráticos inmersos en contextos socioculturales, y el resultado es que estas diferencias se plasman en la actividad cognitiva y afloran en el quehacer científico.

3) La ciencia no puede desprenderse de la objetividad, de la generalidad, de la sistematicidad, si queremos que nuestro conocimiento tenga fundamento racional.

4) La cuestión es cómo aunar, por un lado, la constatación de 1) y 2) y, por otro, el imperativo de 3).

Desde la filosofía de la ciencia se han dado algunas respuestas a esta problemática, tales como el modelo reticular de Laudan que contrapone al modelo jerárquico, la metáfora del etnólogo de NewtonSmith y la variabilidad cognitiva de Kitcher. Vamos a detenernos en la propuesta de Kitcher basada en cuatro tipos de variación cognitiva:

a) Si los científicos tienen acceso a diferentes cuerpos de información, entonces pueden tener diferentes creencias, con lo cual los contenidos de la memoria declarativa (y posiblemente del conjunto de los fines a largo término y de la memoria procesual) diferirán de un científico a otro.

b) Posiblemente las proposiciones se almacenarán de formas distintas en la memoria declarativa de los científicos, por tanto, lo que es fácilmente accesible para un científico no lo es para otro.

c) Dependiendo del orden y la frecuencia de la exposición a diferentes tipos de información, algunas de las propensiones pueden ser más probablemente activadas que otras. Dos científicos pueden compartir las mismas propensiones, en el sentido de que en ambos está presente el mismo repertorio, pero optar por una u otra en función de diferentes desarrollos intelectuales.

d) Los científicos pueden diferenciarse en los contenidos de su memoria procesual, dándose propensiones inferenciales en uno que no se encuentran en otro (Kitcher,1993: 61-65).

La conclusión que saca Kitcher de esta variación, y del hecho de que ningún científico individual puede almacenar todas las proposiciones que son relevantes para el avance de un campo de investigación, es que las diferencias entre los científicos no son accidentales sino esenciales para el progreso científico: el desarrollo del campo se atrofiaría si se impusiera la uniformidad. O sea que la variación cognitiva es beneficiosa para el progreso científico.

Si aceptamos la propuesta de Kitcher de que la variación es beneficiosa para el progreso científico y que una de las razones es que ningún científico individual puede almacenar toda la información relevante para la investigación científica de un fenómeno, es de suma importancia estudiar las posibilidades reales, las cuales dependen de las capacidades cognitivas de los humanos, es decir, de que nuestro cerebro esté diseñado de tal forma que pueda haber transferencia de información entre los científicos, lo cual hará posible que los científicos puedan juntar esfuerzos que revertirán en el progreso científico.

Y en este punto es donde entra Edwin Hutchins, un antropólogo con orientación cognitiva que piensa que hay que reconsiderar la relación entre la cognición vista como una actividad mental solitaria y la cognición vista como una actividad socialmente distribuida. Su obra seminal Cognition in the Wild (1995) es un intento de poner la cognición en el mundo social y cultural. La cognición "en su medio natural" (in the wild) se entiende como cognición fuera del laboratorio. Lo que quiere demostrar es que la cognición humana no es solamente que esté influenciada por la cultura y la sociedad sino que es un proceso cultural y social. Para ello quiere sacar las unidades cognitivas de análisis fuera de la piel de la persona individual y tratar el grupo como un sistema computacional y cognitivo.

Muchas de las ideas propuestas por el enfoque de la Cognición Socialmente Distribuida pueden parecer triviales, de sentido común y no novedosas. Sin embargo, aunque los temas no son nuevos sí lo son muchas de las ideas con las que se abordan estos temas. Lo más interesante del modelo de Hutchins es que proporciona base empírica (neurobiológica, psicológica y computacional) a la idea de que la variación cognitiva tenga efectos benéficos para el conocimiento. Hutchins presenta un modelo cognitivo que hace plausible psicológicamente la colaboración cognitiva. Y esto es fundamental porque, por mucha voluntad de cooperación que tuviéramos, si nuestro sistema neurobiológico no tuviera esta capacidad, de nada serviría el voluntarismo.

De todo ello podemos sacar las siguientes conclusiones:

• El pulso epistémico se produce por la tensión entre valores epistémicos y la razón de esta tensión es que no hay un algoritmo que nos permita saber en cada momento qué valor primar en la investigación científica.

• Los científicos actúan en función de caracteres idiosincráticos, fruto de su historia psicosocial pero bajo constreñimientos impuestos por la metodología de la ciencia.

• La cuestión está en que la idiosincrasia de los científicos puede jugar en contra de la objetividad de la ciencia, pero la mejor estrategia es aprovechar la variedad cognitiva de los científicos para neutralizar los sesgos.

• Para ello es necesaria la colaboración entre los científicos y aquí Hutchins nos da un modelo de colaboración cognitiva, que sitúa al grupo como unidad cognitiva y computacional

• La conclusión última que podríamos sacar respecto a la práctica científica desde el punto de vista cognitivo es que a pesar de no disponer de un algoritmo en la decisión de teorías, no tenemos por qué dudar de que la filosofía de la ciencia tiene en su haber modelos metodológicos y epistemológicos que los científicos tienen en cuenta y de que las ciencias empíricas proporcionan modelos cognitivos que explican cómo hacer de la necesidad virtud y poder, así, mantener la objetividad de la ciencia.

7. CONCLUSIONES

Al hacer un balance del programa naturalizador surgido del impacto de las ciencias cognitivas en la filosofía de la ciencia, podemos señalar los puntos siguientes:

• La epistemología no está formada por conocimiento a priori, sino que tiene que utilizar los mismos métodos que la ciencia, por lo tanto, el naturalismo metodológico, en lo fundamental, es aceptable.

• La naturalización de la epistemología, si se entiende como la sustitución de ésta por una ciencia empírica (sea ésta la que sea) no tiene sentido porque no resuelve los problemas planteados por ella. Por lo tanto, la postura más coherente sería el traspasamiento parcial, en el sentido de que las ciencias empíricas establecen constreñimientos a la normatividad de la epistemología.

• Las ciencias cognitivas proporcionan elementos nuevos para replantear la naturalización, aunque en los términos señalados en el punto anterior.

• La epistemología tiene que ser compatible con los resultados empíricos de la psicología cognitiva.

• Las ciencias cognitivas poseen modelos teóricos que pueden ser útiles para el análisis de cuestiones epistemológicas.

• Lo que no nos dice la ciencia cognitiva es cuál es la mejor estrategia para justificar nuestras creencias entre todas las que son compatibles con nuestro aparato cognitivo.

Como dice O. Neurath "somos como marineros que debemos siempre reparar nuestro barco en alta mar sin poder nunca amarrarlo a un dique seco". Es decir, no hay criterios a priori que sostengan la empresa científica, pero podemos mejorar dicha empresa a partir de la experiencia que nos proporciona nuestra historia intelectual que hace que no partamos siempre de cero y que podamos ir corrigiendo nuestros errores.


REFERENCIAS

Agree, P.E. & J. Shrager (1991) "Routine Evolution and the Culture of Speed", en Routine Evolution and Culture of Speed (Systems Sciences Laboratory, Xerox Palo Alto Research Center).

Almeder, R. (1990) "On naturalizing epistemology", American Philosophical Quarterly, v.27 n.4: 263-279.

Anderson, J.R. (1985) Cognitive pschology and its implications. New York: W.H. Freeman.

Ballard, D.H., M.M. Hayhoe & P.K. Pook (1995) "Deistic Codes for the Embodiment of Cognition". National Resource Laboratory for the Study of Brain and Behavior, University of Rochester.

Ballard, D.H., M.M. Hayhoe & J.B. Pelz (1995) "Memory Representations in Natural Tasks". Journal of Cognitive Neuroscience, 7,1: 66-80.

Barnes, B. & D. Bloor (1982) "Relativism, rationalism and the sociology of knowledge", en M.Hollis & S.Lukes (ed) Rationality and relativism. Oxford: Basil Blackwell.

Bealer, G. (1987) "The boundary between philosophy and cognitive science", The Journal of Philosophy, pp. 553-555.

Bechtel, W. & Abrahamsen, A. (1991) Connecionism and the Mind. An Introduction to Parallel Processing in Networks. Oxford: Basil Blackwell.

Bloor, D. (1976) Knowledge and Social Imagery. Chicago: The University of Chicago Press.

Buckhout, R. (1982) "Eyewitness testimony". En U. Neisser (ed.), Memory Observed: remembering in Natural Contexts. Freeman.

Cicourel, A. (1994) "La connaissance disttibuée dans le diagnotic medical". Sociologie du Travail, 4: 427-449.

Clancey, W.J. (1993) "Situated Action: A Neuropsychological Interpretation Response to Vera and Simon". Cognitive Science, 17:87-116.

Crick, F. (1994) The Astonishing Hypothesis: The Scientific Search for the Soul. New York: Simon & Schuster. Chisholm, R. (1982) Teoría del conocimiento. Madrid: Tecnos.

Churchland, P.M. (1989) A neurocomputational perspective. The nature of mind and the structure of science. Cambridge, (MA): The MIT Pres.

Churchland, P.S. (1986) Neurophilosophy: Towards a Unified Science of the Mind-Brain. Cambridge (MA): MIT Press.

Churchland, P.S. (1987) "Epistemology in the Age of Neuroscience" Journal of Philosophy, 84:544-552.

Churchland, P.S., V.S. Ramachandran & T.J.Sejnowski (1994) "A Critique of Pure Vision". In C.Koch and J.Davis (editors) Large-Scale Neuronal Theories of the Brain, pages 23-60. Proc., AIAA Conf. On Intellegent Robots in Factory, Field, Space, and Service (CIRFFSS).

D'Andrade, R. (1989) "Culturally Based Reasoning", en A. Gellatly, D.Rogers y J.A. Sloboda (ed.) Cognition and Social Worlds . Oxford: Oxford University Press.

Estany, A. (1990) Modelos de cambio científico. Barcelona: Crítica.

Estany, A. (1993) Introducción a la filosofía de la ciencia, Barcelona: Crítica.

Estany, A. (1999) Vida, muerte y resurrección de la conciencia. Análisis filosófico de las revoluciones científicas en la psicología contemporánea. Barcelona: Paidós.

Estany, A. (en prensa) "The Theory-Laden Thesis of Observation in the Light of Cognitive Psychology". Philosophy of Science.

Estany, A. (en prensa) La fascinación por el saber. Barcelona: Crítica.

Estany, A. (en prensa) "Ventajas epistémicas de la cognición socialmente distribuida" (Publicaciones de la Universidad de Málaga)

Fodor, J. (1983) The Modularity of Mind. Cambridge (MA): M.I.T. Press.

Fodor, J. (1984) "Observation reconsidered", Philosophy of Science, 51: 23-43.

Fodor, J.A. (1983) The modurality of mind. Cambridge (MA): The MIT Press.

Frege, G. (1973 ) Fundamentos de la aritmética. Barcelona: Laia.

Frege, G. (1996) Estudios sobre semántica. Prólogo de J. Mosterín. Barcelona: Crítica.

Gardner, H. (1987) The Mind's New Science. A History of the Cognitive Revolution. U.S.A.:BasicBooks Harper Collins Publishers.

Giere, R. (1988) Explaining science. A cognitive approach. Chicago: The University of Chicago Press.

Goldman, A. (1986) Epistemologa and Cognition. Cambridge (MA): Harvard University Press.

Grossberg, S. (1980) "How does the brain built a cognitive code?", Psychological Review, 87:1-51.

Hanson, N.R. (1961) Patters of Discovery. Cambridge (England): Cambridge University Press.

Hempel, C. (1977) Filosofía de la ciencia natural. Madrid: Alianza. Hempel, C. (1979) La explicación científica. Buenos Aires: Paidós.

Hempel, C. (1983) "Valuation and Objectivity in Science". En R.S. Cohen y L.Laudan (eds.) Physics, Philosophy and Psychoanalysis, 73-100. Boston: Reidel Publishing Company.

Henderson, J.M. & A. Hollingworth (1999) "The role of fixation position in detecting scene changes across saccades". Psychological Science, 10: 438-443.

Hull, D. (1988) Science as a process. An evoulutionary account of the social and conceptual development of science. Chicago: University of Chicago Press.

Hutchins, E. (1995a) Cognition in the Wild. Cambridge (MA): The MIT Press. Hutchins, E. (1995b) "How a Cockpit Temembers its Speeds". Cognitive Science, 19:265-288.

Johnson-Lair, P.N. (1983) Mental models: towards a cognitive science of language, inference and conciousness. Cambridge (MA): Harvard University Press.

Kitcher, Ph. (1992) "The naturslists return", The Philosophical Review, v. 101, n.1: 53-114.

Kitcher, Ph. (1993) The Advencement of Science. Oxford: Oxford University Press.

Knorr-cCtina, K.D. (1981) The Manufacture of Knowledge: An Essay on the Constructivist and Contextual Nature of Science. Oxford: Pergamon.

Kuhn, T. (1977) "Objectivity, Value Judgement and Theory Choice". En T.Kuhn, The Essential Tension. Chicago: University of Chicago Press.

Kuhn, T. (1977) La estructura de las revoluciones científicas. México: Fondo de Cultura Ecónomica.

Lakatos, I. (1983) La metodología de los programas de investigación científica. Madrid: Alianza.

Lakoff, G. (1987) Women, fire and dangerous things. Chicago: University of Chicago Press.

Latour, B. & S. Woolgar (1979) Laboratory Life. London: Sage.

Laudan, L. (1977) Progress and its Problems. Berkeley: University of California Press.

Laudan, L. (1984) Science and Values. The Aims of Science and their Role in Scientific Debate. Berkeley: University of California Press.

Laudan, L. y otros (1986) "Scientific change: philosophical models and historical research", Synthese, v.69/2: 141-223.

Laudan, L., R. Laudan & A. Donovan (ed) (1988) Scrutinizing science: empirical studies of scientific change, Dordrecht: Reidel.

Laudan, L. (1998) "Naturalismo normativo y el progreso de la filosofía", en W.González (ed) El pensamiento de L.Laudan. Relaciones entre historia de la ciencia y filosofía de la ciencia. La Coruña: Universidade da Coruña.

Lave, J. (1988) Cognition in Practice: Mind, Mathematics and Culture in Everyday Live. Cambridge: Cambridge University Press.

Lozares, C. (2001) "La actividad situada y/o el conocimiento socialmente distribuido", Papers, Barcelona: Universidad Autónoma Barcelona.

Marr, D. (1982) Vision . Oxford: W.H.Freeman and Co.

Martindale, C. (1991) Cognitive Psychology. A Neural-Network Approach. Pacific Grove, CA: Brooks/Cole Publishing Company.

Martínez, S.F. & L. Olivé (Introducción y compilación) (1997) Epistemología evolucionista. México: Paidós y Universidad Nacional Autónoma de México.

Merton, R.K. (1977) La sociología de la ciencia. Madrid: Alianza.

Nersessian, N.J. 1992 "How do scientists think? Capturing the dynamics of conceptual change in science". En R. Giere (ed) Cognitive models of science. Minneapolis: University of Minnesota Press.

Newell, A., Rosenbloom, P.S. & Laird, J.E. (1989) "Symbolic Architectures for Cognition", en M.I. Posner (ed.) Foundations of Cognitive Science. Cambridge, MA:The MIT Press.

Newton-smith, W.H. (1987) La racionalidad de la ciencia. Barcelona: Paidós.

Popper, K.R. (1962) La lógica de la investigación científica. Madrid: Tecnos.

Popper, K.L. (1979) Objective knowledge. An evolutionary approach. Oxford: Claredon Press. Putnam, H. (1982) "Why reason can't be naturalized?", Synthese, 52:3-23.

Quine, W.V. (1969) "Epistemology Naturalized" en Ontological Relativity and Other Essays. New York: Columbia University Press.

Rao, R.P.N. & D.H. Ballard (1995) "An Antive Vision Architecture Based on Iconic Representations". Artificial Intelligence, 78:461-505.

Rumelhart, D.E. (1989) "The Architecture of Mind: A Connectionist Approach", en M.I. Posner (ed.) Foundations of Cognitive Science. Cambridge, MA:The MIT Press.

Rumelhart, D.E., G. Hilton, & J.L. McClelland (1986 ) "A general framework for parallel distributed processing". En D.Rumelhart & J.L. McClelland (eds) Parallel distributed processing. Vol.1. Cambridge (MA): The MIT Press.

Sejnowski, T.J. (1986) "Open Questions about Computation in Cerebral Cortex". In J.McClelland et al. 1986 Parallel Distributed Procesing: Explorations in the Microstructure of Cognition, vol.2. Cambridge (MA): The MIT Press.

Simon, H.A. & Kaplan, C.A. (1989) "Foundations of Cognitive Science", en M.I. Posner (ed.). Foundation of Cognitive Sience. Cambridge: The MIT Press.

Stich, S.P. (1994) "Could Man Be an Irrational Animal? Some Notes on the Epistemology of Rationality".In H. Kornblith Naturalizing Epistemology. Cambridge (MA): The MIT Press.

Suchman, L. (1993) "Response to Vera and Simon's Situated Action. A Symbolic Interpretation". Cognitive Science, 17:71-75.

Thagard, P. (1992) Conceptual revolutions. Princeton: Princeton University Press.

Toulmin, S. (1977) La comprensión humana. I: El uso colectivo y la evolución de los conceptos. Madrid: Alianza.

Van Essen, D. & C.H. Anderson (1990) "Information Processing Strategies and Pathways in the Primate Retina and Visual Cortex". In S.F. Zornetzer et al. (1990) An Introduction to Neural and Electronic Networks. San Diego (CA): Academic Press.

Van Fraassen, B. (1980) The Scientific Image. Oxford: Oxford University Press.


Notas

1 Para este apartado se ha seguido el capítulo 4 de Estany (2001b) La fascinación por el saber.

2Para este apartado se ha seguido el capítulo 2 de Estany (2001b), La fascinación por el saber.

3 Para este apartado se ha seguido el capítulo 4 de Estany (2001b), La fascinación por el saber.

4 Este ejemplo se explica en Estany (2001a), The theory-laden thesis of observation in the light of Cognitive Psychology.

5 Este ejemplo se explica en Estany (2001c), "Las ventajas epistémicas de la cognición socialmente distribuida".