ISSN 2011-7477 |
RESEÑA BIBLIOGRÁFICA / BOOK REVIEW
Complejidad: revolución científica y teoría
Complexity: scientific revolution and theory.
Carlos Maldonado et al. Complejidad: Revolución científicay teoría. Bogotá. Editorial Universidad del Rosario, 2009, 178 pp. ISBN 9789587380309.
Fredy Enrique Rozo Cañón
Universidad del Rosario
rozo.fredy@urosario.edu.co
El libro del profesor Carlos Eduardo Maldonado pretende encontrar más y mejores posibilidades de conocimiento, en particular en referencia a las ciencias de la complejidad. En él presenta las diferentes posturas acerca de la complejidad concebidas desde algunas de las disciplinas científicas más importantes, con miras a superar las fronteras del conocimiento y en especial el abordaje de un mundo complejo, como consecuencia de una revolución científica, de una revolución del conocimiento.
Este libro (conformado por varios textos de diferentes autores) es el resultado de un encuentro que se proyectó con la participación de profesores de distintas universidades, y que, con base en estudios individuales tanto como de grupos de investigación, busca generar sinergias y ampliar horizontes. El hilo conductor es uno solo: la revolución científica, producto de las ciencias de la complejidad. Son tres las ideas directrices:
Simulación y aplicaciones en complejidad.
El estudio del problema de la medición de la complejidad.
El desarrollo de una teoría de la complejidad.
El primer texto es de Diógenes Campos, Vicerrector de la Universidad Jorge Tadeo Lozano, quien realiza un planteamiento sobre las ciencias de la complejidad como consecuencia de una revolución científica. En su texto titulado Caos y complejidad en el marco de cuatro revoluciones científicas, el Prof. Campos busca ubicar la teoría de los sistemas caóticos y las teorías sobre la complejidad en el marco de las cuatro revoluciones científicas que han transformado las ciencias físicas: Mecánica Clásica, Teoría de la Relatividad, Mecánica Cuántica y Teoría del Caos y Complejidad.
Resalta en su exposición la importancia que tiene para Galileo Galilei la evidencia experimental, ya que esta prevalece sobre las creencias y será el experimento el que se usará como criterio para decidir sobre la verdad.
Argumenta igualmente que para Newton la ciencia contemporánea acepta que un sistema natural dado se puede modelar, es decir, que el "sistema real" se puede representar en una forma simplificada por un mundo formal de ecuaciones matemáticas.
Así mismo, señala que la ciencia moderna se basa en la idea de modelar el sistema de interés a investigar como un sistema dinámico, con la creencia de que es posible hacer predicciones sobre el comportamiento futuro del sistema; no es, sin embargo, posible predecirlo debido a las contribuciones no lineales que aparecen en un sistema dinámico con tres o más variables de estado.
Concluye que los sistemas se clasifican en simples, complicados y complejos y finaliza su texto con una definición de sistema complejo, a la que concibe como un sistema abierto, formado por un gran número de elementos que interactúan de manera no lineal, que no se puede reducir a dos o más subsistemas distintos, y que presenta propiedades emergentes.
El segundo texto es de Efraín Domínguez y Viktor V. Ko-valenko, profesores de la Pontificia Universidad Javeriana y de la Universidad Estatal Hidrometeorológica de Rusia, respectivamente, quienes presentan un estudio y sus resultados respecto de la modelación estocástica (enfoque probabilístico) de sistemas complejos.
En su texto titulado Modelación estocástica de sistemas complejos: adaptación y bifurcación como mecanismos de evolución, presentan conceptos de la teoría de funciones aleatorias y elaboran una descripción de sistemas complejos a través de curvas de densidad probabilística. Así, el tema es el estudio probabilístico de la complejidad, en el que las relaciones "tradicionales" de causa-efecto determinísticas son sustituidas por relaciones de causa-efecto difusas.
De igual forma, determinan que la obtención de este tipo de probabilidades para sistemas complejos requiere de la división del problema en dos etapas:
La construcción de un núcleo probabilístico y,
El tratamiento de la incertidumbre por medio de la introducción de procesos de ruido blanco.
En su investigación señalan que la simulación probabilística de sistemas complejos habilita la posibilidad de estudiar la incertidumbre de los sistemas a través de factores "ruidosos" en los que se resume la influencia de elementos aleatorios. Este mecanismo no solo es una técnica que permite cuantificar el nivel de incertidumbre en el conocimiento empírico y teórico existente sobre el sistema estudiado, sino que también abre nuevas alternativas epistemológicas.
Por último se establece que la tecnología de pronóstico presentada en este texto constituye una solución para la necesidad de tener pronósticos de las curvas de densidad probabilística (CDP) para procesos no estacionarios.Esta metodología permite simular los cambios de comportamiento ocasionados no solo por la variabilidad de las entradas, sino también por alteraciones de los parámetros internos del sistema en el que transcurre el proceso.
En el tercer texto, Jorge Villamil y Nelson Gómez, de la Universidad Distrital Francisco José de Caldas, presentan su investigación titulada Ingeniería de sistemas complejos; manifiestan que existen tres tipos o modos de ingeniería, así: ingeniería clásica, ingeniería emergente y la vida artificial. Las dos primeras son denominadas como ingeniería convencional y a la tercera la denominan ingeniería de sistemas complejos.
Los autores argumentan que el campo de trabajo de la ingeniería clásica es el del conocimiento preciso y completo de los requerimientos, los diseños únicos y cerrados y los entornos plenamente determinados y que, por tanto, la ingeniería clásica es una ingeniería de control en las que las causas determinan linealmente los efectos.
De otra parte, indican que la vida artificial pone de manifiesto la existencia de sistemas que exhiben vida o, lo que es lo mismo, pone de manifiesto la existencia de sistemas de complejidad creciente. Este tipo de sistemas son caracterizados por no-linealidad, adaptación, auto-organización, asimetrías temporales, en fin, por emergencias. La vida artificial, cuyo objetivo es, principalmente, la comprensión y explicación de la vida tal y como podría ser, y no de la vida tal y como es, plasma los fundamentos de una nueva forma de hacer ingeniería a través de la síntesis de sistemas capaces de actuar en entornos altamente cambiantes a impredecibles.
La ingeniería de sistemas complejos se ocupa de comprender y trabajar con sistemas que exhiben complejidad, y su reto es el de diseñar y construir sistemas capaces de desempeñarse en entornos abiertos y cambiantes y de resolver asuntos en circunstancias desconocidas con información incompleta y control restringido, sistemas que presenten más de una solución o, lo que es lo mismo, un espacio de soluciones. Esto marca un contraste con la ingeniería convencional, que se ocupa de diseñar sistemas que cumplan tareas preestablecidas en situaciones y entornos preestablecidos, a través de procesos altamente predecibles, fiables, estables y precisos.
La estrategia de esta nueva ingeniería se orienta hacia la construcción de sistemas que puedan desempeñarse en ambientes cambiantes, que sean capaces de tratar la variedad en múltiples facetas, no tanto ajustando o modificando sus parámetros, sino más bien dando cabida a la sorpresa, a la impredecibilidad, a la movilidad y al cambio de jerarquías de sus variables o componentes.
De igual forma manifiestan que la ingeniería convencional es una práctica ingenieril de los impactos y efectos directos, mientras que la ingeniería de sistemas complejos tiende a ser indirecta, porque se fundamenta ampliamente en trabajos de simulación, más que en el diseño y el modelamiento, de los que también hace uso pero que no son su fin último.
Dada la diversidad de problemas que exhiben complejidad y que la ingeniería debe enfrentar, no es posible hablar de una regla estricta; no se busca uniformidad de resultados sino ciertos elementos que caracterizan un proceso, que generan instancias o familias de instancias en el espacio de soluciones, asunto que es completamente útil para el trabajo de ingeniería de los sistemas complejos. Tales elementos -patrones o pautas- constituyen el régimen de la ingeniería de sistemas complejos que no pretende alcanzar resultados completamente reproducibles, sino sistemas que se desempeñen dentro de su espacio de soluciones para ajustarse a diversas situaciones particulares.
Los elementos que conforman el régimen de sistemas complejos son:
1. Ambiente de desarrollo
2. Espacio de resultados
3. Recompensa
4. Formulación de reglas
5. Evaluación
6. Caracterización continua
7. Normas de seguridad
8. Dualidad
Los autores terminan concluyendo que se necesita una ingeniería más propositiva, mucho más amplia, capaz de construirse en campos de los ecosistemas, de la biodiversidad, de sistemas viables con el medio ambiente, y dejar a un lado productos puros y delimitables plenamente.
En el cuarto texto Eugenio Andrade, profesor de la Universidad Nacional de Colombia sede Bogotá, titula su escrito Hacia una teoría general de la complejidad, en el que reseña la historia de los antecedentes que permiten avanzar en la búsqueda de una teoría de la complejidad.
El Prof. Andrade menciona que la búsqueda de una teoría general de la complejidad reviste especial importancia por cuanto permitiría reexaminar las relaciones de las ciencias físicas y biológicas, en el sentido de que los sistemas vivos deben ser abordables desde una perspectiva física a la vez que la descripción de los sistemas físicos requieren de la noción de tiempo evolutivo que se gestó al interior de las ciencias de la vida. Una teoría general de la complejidad debe explicar el problema de cómo se generan sistemas complejos.
Argumentando su teoría, nos menciona que en el siglo XIX Pierre Laplace manifiesta: "Debemos imaginar el estado presente del Universo como el efecto del estado anterior y como la causa del estado que seguirá".
Según Andrade, Laplace representa el sueño reduccionista, de acuerdo con el cual las predicciones sobre el mundo físico, biológico y social podrían reducirse a un cómputo de posición y momento de las partículas indivisibles constitutivas del Universo. Pero la utilidad de la estadística que legó Laplace como instrumento para manejar la incertidumbre anticipó la preocupación sobre si la naturaleza misma de las leyes del mundo que pretende describir es o no estadística.
De igual forma señala cómo, según Darwin, se propuso dar una explicación racional a la evolución de las formas de vida, tesis resumida en los siguientes puntos:
a. Existe un desarrollo gradual de la vida desde formas muy simples o formas cada vez diferenciadas y adoptadas a su entorno.
c. Este desarrollo no sigue una trayectoria única trazada de acuerdo a un plan, sino que a partir de ancestros comunes se va abriendo y ramificando permanentemente por causas que desconocemos y que en este sentido podemos atribuir al azar.
d. Existe en la economía de la naturaleza una lucha y competencia por los recursos (fuentes de energía) que lleva a que el más fuerte sobreviva y deje descendencia, y el más débil perezca.
e. Como resultado de la selección natural las formas de vida más adaptadas incrementan su número en la población. Aceptó de acuerdo al espíritu de su época que cada linaje o rama del árbol de la vida manifiesta una tendencia clara y definida hacia estados de mayor adaptación o ajuste a las condiciones del medio ambiente. El adaptacionismo es un componente fundamental del darwinismo.
Ahora bien, nos presenta cómo James Maxwell se preguntó sobre la posibilidad de revertir un proceso que tiende a desordenarse e incrementar la entropía, entendida esta como una derivación estricta de leyes estadísticas aplicables a los grandes números. Por tanto, su interrogante era acerca de qué pasaría con los sistemas de un número bajo de partículas.
Así mismo, Maxwell no solamente abrió la vía hacia la complejidad, sino que, además, postuló que el azar no es solo una consecuencia de la incertidumbre sobre nuestro conocimiento de las partículas del universo, sino que también existe una impredictibilidad debido a la naturaleza de las cosas. Es decir, anunció la existencia de eventos naturales altamente sensibles a las condiciones del medio que hacen imposible la predicción de los estados futuros de este último.
Continuando con el recorrido científico, nos resalta que Ludwing Boltzmann y Charles Darwin coincidieron en señalar que el tiempo existe una dimensión de la realidad que en los procesos de transformación, sean físicos o biológicos, hace posible hablar de estados pasados, un presente y uno o varios estados futuros, que se suceden respetando el principio de una continuidad causal. En cambio, para Einstein no hay tiempo ni espacio absoluto, sino un continuo espacio-tiempo que es inseparable de la materia.
Para los filósofos y científicos la postura de Einstein era una abstracción propia de la ciencia que al negar la experiencia vivida y la subjetividad dejaba de lado lo que nos es más preciado: la vida misma. Esta "ilusión" psicológica es prueba de que no todo está dado desde el comienzo, sino que la duración trae consigo creación e innovación. La evolución trae las sorpresas que depara la libertad, nuevas situaciones que no estaban contenidas en el libreto original, el azar va de la mano con la creación abriendo posibilidades hacia el futuro.
Einstein vio en el evolucionismo una especulación filosófica que lo alejaba del rigor del formalismo matemático. El antievolucionismo de Einstein era una manera de decir que el estudio de los procesos de cambio impide descubrir la invarianza de las leyes absolutas, que una vez encontradas mostrarían como todo estaba contenido en las condiciones iniciales. Para Einstein, todas las acciones de nuestra vida y de la vida en el universo están determinadas por las condiciones iniciales presentes en el big bang. Habría una evolución sin libertad ni azar, una predeterminación desde el comienzo, un acto único de creación en el pasado. Si existiera una ley universal absoluta, la unificación sería posible, y, por tanto, no habría lugar para las ciencias de la complejidad.
Por último, para el Prof. Andrade, Ilya Prigogine cree que la ciencia del siglo XXI se dedicará a explorar el mecanismo del devenir y la evolución: se refiere a la manera como se dan y suceden las series de bifurcaciones que hoy en día se asocian independientemente a las teorías sobre origen de la vida y la cosmología.
Prigogine introdujo la irreversibilidad en la ciencia. En los sistemas lejos del equilibrio térmico no hay estabilidad en las perturbaciones y se presentan puntos de bifurcación: se pone en evidencia que existen muchas posibilidades o ramas que dan lugar a la aparición de nuevas estructuras. La evolución de la vida corresponde a una sucesión de bifurcaciones, y, por tanto, el futuro no está predeterminado.
Las teorías de la complejidad son bienvenidas. Cabe la pregunta sobre si la ley de evolución y cambio es una ley que evoluciona, y, en caso afirmativo, surge la pregunta sobre si esta ley de cambio cambia de acuerdo a una ley absoluta. Si la respuesta es positiva, el sueño de Newton y Einstein sigue vigente, si no, las teorías de la complejidad y el cambio deben tener la primacía. Pero la pregunta precedente, lejos de contar con una respuesta afirmativa, más bien nos conduce a una regresión infinita que en principio es irresoluble; y, por tanto, las teorías de la complejidad siempre tendrán vigencia en la medida en que contribuyen al avance del conocimiento hacia niveles mayores de generalidad y de profundidad matemática simultáneamente.
Como afirma Prigogine, el fin de la certeza da la posibilidad misma de la innovación y de la evolución. Siempre habrá algo inesperado desde el entorno que afecta al mismo objeto de estudio, y, por tanto, la física se verá en dificultades para explicar no solo la vida sino los sistemas abiertos en un contexto determinado.
Para concluir, lejos de contraponer a Darwin con Einstein, digamos que el primero nos hizo solidarios con la vida y el segundo, con el universo que la generó.
Ambos persiguieron la simplicidad expresada en leyes universales y esa actitud les permitió alcanzar la mayor estatura científica en sus respectivos siglos, pero desde la perspectiva de las teorías de la complejidad podemos captar que la convergencia entre ambas posturas se debe a que resaltan la imposibilidad de satisfacer plenamente el sueño de la simplicidad.
En el quinto texto, el Profesor de la Universidad del Rosario Carlos Eduardo Maldonado presenta una explicación bien sustentada acerca de la teoría de la complejidad titulada Exploración de una teoría general de la complejidad.
El Prof. Maldonado señala que una teoría general de la complejidad no puede ni debe ser entendida análogamente al sentido de una teoría general del derecho, ni tampoco como una teoría unificada, tal y como se habla en física. De suerte que una teoría general de la complejidad debe ser entendida como una teoría que no simplemente abarque el conjunto o un conjunto significativo de los temas, problemas, modelos y ciencias constitutivas de la complejidad, sino, mejor, como una teoría orgánica que arroje luz acerca de las especificidades de la complejidad o la no-linealidad, en contraste con la ciencia que no sabe de, ni trabaja con, complejidad o no-linealidad.
Pues bien, en el campo de las ciencias de la complejidad existen algunos intentos en la dirección que apunta hacia el desarrollo de una teoría general de la complejidad, y para obtener el reconocimiento de ciencia es necesario realizar varias actividades que conforman la base en cuyo trasfondo se realizan las diversas prácticas científicas, teóricas y académicas. Entre las actividades que se pueden destacar se encuentran:
Trabajar con neologismos y metáforas.
Realizar eventos académicos de importancia.
Crear revistas especializadas consagradas al nuevo campo de trabajo.
Constituir colecciones editoriales.
Conformar currículos académicos inicialmente a nivel de posgrado, y
Comenzar a escribir tesis de pregrado y de posgrado sobre la nueva ciencia.
El estudio de las teorías en general es un tema que no ocupa un lugar destacado en el panorama intelectual; quizás porque es considerado demasiado técnico, abstracto, o árido. De todas maneras, el tema de las teorías consiste en el estudio de tres aspectos, a saber:
Cómo surge una teoría científica.
Qué es y cómo se sostiene una buena teoría, y
Cómo se eliminan o se suprimen las teorías científicas.
Estos tres aspectos se encuentran estrechamente entrelazados y, desde una perspectiva clásica, puede decirse que en general forman parte de la epistemología y la filosofía de la ciencia, pero, en particular, son el objeto propio de la lógica y de las matemáticas.
En su texto Maldonado formula tres tesis para allanar por vía negativa o de contraste, el camino exploratorio hacia una teoría general de la complejidad.
Tesis 1: no es posible una teoría general de la complejidad en el sentido de una teoría unificada (teoría de campo), o como una teoría general (en el sentido del derecho).
Tesis 2: no es deseable ni tampoco necesaria una teoría general de la complejidad como filosofía de tipo reduccionista o como una teoría disciplinaria.
Tesis 3: una teoría general de la complejidad no debe ser axiomática.
Las teorías científicas constituyen el ser mismo de los fenómenos en general en cuanto que un fenómeno, comportamiento o sistema, no son tales si no encuentran una explicación al interior de un modelo teórico. La teoría no simplemente contiene y expresa el ser mismo de las cosas, sino, además, arroja luces de comprensión acerca de lo que sucede en el mundo, como ahora ocurre, e incluso acerca de lo que deja de tener lugar.
Para el Prof. Maldonado un defecto bastante extendido en el contexto de los países de América Latina es el hecho de que la mayor parte de la educación sucede de espaldas al estudio, discusión, reconstrucción y crítica de las teorías.
Considera que sería deseable que la educación universitaria pivotara en torno a los tres ejes mencionados, a saber: el estudio de las teorías científicas constituidas de cada disciplina, cómo surgen, se defienden y son suprimidas estas teorías. Este giro no solamente permite una visión de profundidad, sino que, además, establece puntos sólidos con otras teorías, modelos explicativos; en fin, procesos históricos y lógicos que definen las dinámicas de las ciencias y disciplinas en general, incluidas las ingenierías.
La finalidad de la ciencia en general es la de lograr explicar los fenómenos. Para ello apela a la formulación de un modelo (o varios, según el caso) gracias al cual posteriormente es posible elaborar una teoría. Gracias a ello emerge una ciencia o, en términos generales, un nuevo campo científico o de investigación. Gracias al desarrollo y la importancia del computador es perfectamente posible que en el tránsito de la explicación hasta la teoría pueda tener lugar una simulación, de tal suerte que en varios casos, la simulación viene a ocupar el lugar de los modelos en el camino hacia la constitución o formulación de una teoría.
La relación entre teoría y ciencia puede ser condensada en dos elementos, cuyo mérito consiste en establecer el piso común de lo que hasta el momento ha sido una teoría científica. Los dos elementos clásicos de las relaciones entre teoría y ciencia son.
Importancia de comprender la teoría no como un componente de la ciencia, sino como una unidad de explicación.
Una teoría es una unidad de explicación de dominios del mundo, dimensiones de la realidad o escalas temporales.
Ahora bien, buena parte de las teorías científicas han tenido lugar como síntesis. La síntesis es una forma de creatividad consistente en el desarrollo de una nueva idea a partir de otras preexistentes, pero de tal forma que la nueva idea concebida es más que las ideas anteriores y no podía ser anticipada simplemente mediante el reconocimiento de estas.
De igual forma la teoría general de la complejidad es o puede ser una teoría de segundo orden. La complejidad no lo es todo, y una teoría general de la complejidad, por tanto, no se aplica o se refiere a todos los fenómenos, ni siquiera a todos los fenómenos complejos. En este sentido, un tema constitutivo de la teoría de la complejidad puede ser el de establecer los criterios de aquellos fenómenos, comportamientos o sistemas complejos que entran en ella, lo cual significa que no todos los fenómenos deben ser incluidos, necesariamente.
Dicho de una manera precisa, la teoría general de la complejidad no debe ocuparse tanto de objetos (fenómenos), cuanto de dinámicas o procesos. Aquí radicaría su principal novedad. Los objetos quedan así relegados a los procesos, lo cual no es sino una variante de la expresión que afirma que en complejidad la función es condición de la estructura.
Que la teoría pueda ser de segundo orden tiene implicaciones fundamentales para el problema de la medición, que es con toda seguridad una de las puntas de lanza del estudio de la complejidad creciente. Una teoría de la complejidad no se ocupa de medir todos y cada uno de los fenómenos complejos. Con todo y el reconocimiento de que la medición no consiste ni se agota en la ciencia de punta contemporánea.
La finalidad de la teoría general de la complejidad no es otra que la explicación de los flujos, de las bifurcaciones, inestabilidades, equilibrios dinámicos, transiciones de fase a partir de los estados y puntos críticos, pero esto tiene lugar, justamente, como una determinación gradual, inacabada e incompleta de aquello de lo cual se trate en complejidad. Es esto lo que se denomina una teoría subdeterminada.
En cuanto a los rasgos generales de la teoría de la complejidad, se destacan:
Es una teoría incompleta e imperfecta.
Es una teoría indecidible e inacabada.
Es una teoría evolutiva.
No es una teoría de origen disciplinar.
Es una teoría abierta.
Es una teoría con incertidumbre.
Es una teoría de mundos posibles.
La arquitectura de la complejidad es precisa.
En términos negativos, o por vía de contraste, puede decirse que una teoría general de la complejidad puede no ser deductiva, axiomatizada, concluyente y conclusiva, en fin, autorreferencial, que son en términos generales los rasgos característicos o definitorios de las teorías habidas hasta el presente.
Finalmente, se impone una observación de tipo puntual. Hace referencia a lo que se quiere determinar como el marco del trabajo en complejidad. Este marco hace referencia a las lógicas no clásicas o lógicas filosóficas, las cuales son:
Lógicas paraconsistentes
Lógica de la relevancia
Lógica del tiempo
Lógica cuántica
Lógica polivalente
Lógica difusa
Lógica intuicionista.
Por último, en el sexto texto Sergio N. Osorio, de la Universidad Militar, presenta su investigación titulada De la teoría crítica de la sociedad a la paradigmatologia de Edgar Morin, en la que se estudia el concepto de paradigma y la propuesta sobre la formación de conceptos.
Mientras que los textos anteriores se concentran en las ciencias de la complejidad, este último se enfoca en el pensamiento complejo, una de las aristas más sugestivas en el estudio de la complejidad en general, y cuyo referente es la obra del sociólogo francés Edgar Morin.
La complejidad, afirma Morin, es manifiestamente un nuevo paradigma. El término de paradigma tiene en su uso una acepción global que la refiere al sentido de enfoque, conjunto o sistema cognoscitivo desde el cual se comprende e interpreta la realidad o una parte de ella; y de otro lado, un sentido particular, que se refiere a un determinado y específico caso en el que se ilustra de manera ejemplar el potencial comprensivo y explicativo que dicho enfoque comporta.
En los paradigmas se juega la organización del sistema total del conocimiento y al mismo tiempo la manera como nos relacionamos desde él con el mundo. Una vez afirmado el nuevo paradigma o sistema de ideas, creencias, valores, métodos y técnicas de la actividad científica, se inicia un nuevo periodo de mejoramiento y desarrollo del paradigma, un nuevo periodo de ciencia normal y así sucesivamente.
El paradigma es, por tanto, un instrumento analítico y heurístico para el análisis teórico, metodológico e histórico, y también de uso político, y su contenido está determinado por el contexto de uso.
Pero el análisis crítico del pensamiento subyacente: la paradigmatología moriana, tiende a verse rebasado por las estructuras complejas de la realidad. Es decir que no hay propiamente hablando un pensamiento complejo, sino estrategias de pensamiento y acción para enfrentar el mundo. Según el Prof. Osorio, Morin está trabajando por un paradigma de complejidad que como tal no existe, sino que está haciéndose, y nos propone reconocer lo paradigmático de un pensamiento complejo capaz de comprender la complejidad sobre todo a partir de las manifestaciones del paradigma de simplificación.
El pensamiento complejo puede entonces entenderse como la disposición de apertura ante la crisis del paradigma de simplificación, que, eventualmente, podría convertirse en un nuevo paradigma, pero que no puede autopredicarse como el nuevo paradigma alternativo, sino a costa de renunciar a lo que él mismo plantea.
En síntesis, tendríamos que tomar a Edgar Morin como alguien que desde pretensiones muy grandes abre camino, inicia y vislumbra un recorrido. Es equivocado buscar en él un pensamiento consolidado, pues solo articula caminos posibles, pero aun poco transitados, y en esa medida parecen imposibles.
Si los hombres conocen, piensan y actúan en conformidad con los paradigmas culturalmente inscritos en ellos, los sistemas de ideas, los sistemas noológicos, están radicalmente organizados en virtud de los paradigmas, y en ese sentido los paradigmas presentan varias características:
Tiene un sentido generativo y organizacional.
El paradigma tiene una dimensión semántica, lógica, ideológica y pre-lógica simultáneamente.
Desde el punto de vista semántico, el paradigma contiene dentro de sí los conceptos fundamentales o categorías rectoras del entendimiento y del sentido humano.
Desde el punto de vista lógico, el paradigma permite y organiza las operaciones y relaciones de interacción entre los conceptos y categorías fundamentales de la intelección y de la acción humana.
Desde el punto de vista ideológico, el paradigma está constituido por principios y axiomas que funcionan de manera invisible e inexplicable, de allí que presenten un carácter de invulnerabilidad.
Desde el punto de vista pre-lógico, el paradigma presenta características particulares.
El paradigma dispone de un principio de exclusión, es decir, que excluye como si no existieran, datos, ideas, teorías que no estén conformes con él.
eidos |