El Paradigma dominante en la ciencia moderna: 2ª Parte
Por: M.C.E. Claudia Tamariz y M.C.E. Ana Cecilia Espinosa Martínez
“Si la historia de la ciencia ha podido sacar a la luz un hecho importante, es sin duda éste: ¡jamás existe una adecuación perfecta entre las teorías y los hechos!”
(Thuillier)
En la edición anterior iniciamos, amable lector, la revisión de las características que distinguen al paradigma positivista de la ciencia, concretamente, analizamos la objetividad del conocimiento y el recurso a la experiencia sensible, cuya idea central es que fuera de nosotros existe una realidad acabada y plenamente externa y objetiva que nuestro aparato cognoscitivo puede reflejar dentro de sí, como un espejo, fundamentando el paradigma en el modelo empirista o materialista del conocimiento. En este artículo terminaremos esa tarea, mediante el abordaje de las temáticas siguientes:
- El determinismo de los fenómenos,
- La lógica formal como garantía de un procedimiento correcto y la matematización de las teorías
- La verificación experimental
- La posibilidad de separar el todo en partes para su estudio. La especialización en la ciencia.
Estos tópicos nos permitirán, en un tercer momento, la descripción de la metodología de la ciencia moderna.
EL DETERMINISMO DE LOS FENÓMENOS.
La concepción tradicional de la ciencia considera que existe una uniformidad de la naturaleza en tiempo y espacio, una conducta mecánica establecida mediante cadenas de causa-efecto, en una palabra, que está regida por leyes universales que la razón puede descubrir.
“El mundo definido por la ciencia ha sido tradicionalmente un mundo de pureza casi platónica. Las ecuaciones y teorías que describen la rotación de los planetas, la elevación del agua en un tubo, la trayectoria de una pelota o la estructura del código genético contienen una regularidad y un orden, una certidumbre mecánica que hemos terminado por asociar con leyes naturales” (Briggs y Peat, 1994:14).
Este orden natural, que subyace debajo del aparente caos de los fenómenos complejos, se puede explicar mediante un esquema de causa-efecto representado por una ecuación diferencial. Fue Newton quien introdujo, dentro de su esquema mecánico del mundo, la idea de lo diferencial que relacionaba las razones de los cambios en la naturaleza con diversas fuerzas.
Para los científicos pronto resultó una práctica común describir fenómenos diversos a través de ecuaciones diferenciales lineales donde los cambios se relacionan con las fuerzas de manera proporcional, ya que este tipo de ecuaciones expresan que: “...pequeños cambios producen pequeños efectos y los grandes efectos se obtienen mediante la suma de muchos cambios pequeños” (Briggs y Peat, op.cit :23).
Estas nociones conllevan el concepto de que el Universo es continuo, esto es, que todos los fenómenos están relacionados a través de líneas de causa-efecto. Así, para la física clásica el Universo es continuo en tanto causal.
El comportamiento regular del Universo, a la manera de un mecanismo de relojería perfectamente previsible, permite hablar de un determinismo en la naturaleza.
Laplace aseguraba que el estado presente del universo es producto de su estado pasado y causa de su estado futuro, y afirmaba que si una inteligencia conociese todas las fuerzas que animan a la naturaleza y la situación que guardan todos los seres que la componen podría saber, mediante cálculos precisos, los movimientos futuros de los más grandes cuerpos del universo y del átomo más pequeño. Esta aspiración ha animado durante mucho tiempo a los científicos, en particular a quienes trabajan en el campo de la física teórica, a descubrir un principio único que unifique todas las teorías existentes y dé cuenta de cuanto ocurre, ocurrió y ocurrirá en el universo.
“En la época de Napoleón, el físico francés Pierre Laplace pudo imaginar razonablemente que un día los científicos deducirían una ecuación matemática tan poderosa que lo explicaría todo” (Ibid. :21).
Estas ideas son la base de la concepción determinista del paradigma positivista.
El determinismo en física consiste en descubrir una fórmula capaz de calcular el futuro a partir del presente.
Este principio ha sido cuestionado a partir del descubrimiento de la física cuántica y, concretamente, con la formulación del Principio de Indeterminación de Heisenberg, que analizaremos en el apartado sobre los nuevos paradigmas de la ciencia.
Este principio, formulado para la realidad de lo microfísico, acaba con la causalidad lineal, unidireccional de la física newtoniana y con el determinismo.
Si a esta teoría le aunamos la visión de Ilya Prigogine (que también analizaremos con más detenimiento en un próximo apartado), según la cual vivimos en un mundo improbable, en un mundo en evolución emergente, de emergente novedad, donde el tiempo no es reversible, como lo considera la física newtoniana , sino que es como una flecha donde es imposible volver atrás y el presente condiciona al futuro, un único futuro nuevo y singular, veremos que en la nueva concepción científica el determinismo es imposible.
LA LÓGICA FORMAL COMO GARANTÍA DE UN PROCEDIMIENTO CORRECTO Y LA MATEMATIZACIÓN DE LAS TEORÍAS.
Si bien se considera que las teorías científicas deben partir de la experiencia y luego volver a ella a través de la verificación experimental, a nivel teórico deben revestirse de una sistematización y un rigor lógico que garanticen su validez.
De hecho, la experiencia no confirma o verifica principios físicos aislados sino que éstos deben incorporarse a un cuerpo estructurado: la teoría física, y son las deducciones de ésta las que se confirman en la experiencia.
Y es que una única proposición de una ciencia empírica no puede ser comprendida en todo su significado si no se la refiere al marco general de la teoría de la cual forma parte. Por ello no se pueden verificar aisladamente.
“No es común que los principios erigidos en base de las teorías sean directa e individualmente controlables; es en cambio todo el sistema teórico por ellos constituido que, en sus consecuencias, puede ser verificado” (Geymonat, op.cit. :137).
Es por ello que es necesario que los principios físicos estén contenidos en una sola teoría que posea coherencia interna, y para garantizar tal coherencia las ciencias empíricas recurren a la lógica y más concretamente a la matemática como disciplinas que poseen rigor y solidez en sus discursos. De esta manera, cuando una teoría física se expone en términos matemáticos se presenta como un edificio lógicamente construido donde cada parte sostiene a las demás.
Uno de los recursos matemáticos empleados para establecer un esquema lógico de pensamiento dentro de la teoría es la axiomatización.
La axiomatización consiste en establecer como punto de partida de una construcción teórica un cierto número de postulados básicos o axiomas válidos para todas las ciencias, basados en evidencia intuitiva (por ejemplo: si dos cosas son iguales a una tercera son iguales entre sí), de los cuales se derivan, por argumentaciones lógicamente rigurosas, todas las consecuencias posibles.
De esta manera la matemática se sustenta en dos elementos:
La intuición; y
El discurso lógico
En matemáticas fueron éstas las bases para desarrollar la geometría euclidiana que por muchos años constituyó el paradigma en que debían inspirarse todas las ciencias para erigir verdades incuestionables, era el modelo para exponer cualquier asunto en forma exenta de dudas.
Sin embargo, dentro de la matemática pronto empezó a cuestionarse el argumento de la evidencia como una propiedad psicológica más que lógica y, por tanto, como un criterio subjetivo que varía de individuo a individuo.
Tales cuestionamientos, surgidos a partir del desarrollo de geometrías no euclidianas puso en crisis, en el siglo XVIII, el recurso a axiomas evidentes obtenidos por intuición, pues:
Se demostró que la aceptación de este tipo de axiomas era fruto de un acto voluntario, esto es, de una convención entre los científicos.
Surgieron dudas sobre la aceptación de la geometría euclidiana como modelo verdadero que explicaba la realidad física
Sin embargo, tales críticas llevaron a la exigencia de que la matemática aplicara el máximo rigor, no sólo para sus demostraciones, sino también en sus definiciones, no aplicando un criterio de intuición sino haciendo un escrupuloso análisis crítico de todos los conceptos “intuitivos” heredados de la matemática tradicional que, por cierto, no fueron descartados sino que se consideraron un punto de partida para elaborar conceptos más precisos.
En este nuevo sentido, la función de la intuición va a ser sugerir la elaboración de conceptos rigurosos y exactos, perdiendo su función anterior de constituirse como criterio de verdad.
Por supuesto las ciencias empíricas, a diferencia de las matemáticas, no se quedan en el discurso lógico, aunque echan mano de él para dar solidez a sus teorías, sino que su principal fundamento lo constituye el recurso a la experiencia, la posibilidad de verificación empírica.
Así, aplicada a las ciencias empíricas (empleando como modelo las físicas) la axiomatización no parte de principios evidentes e intuitivos sino de una serie de enunciados y proposiciones elementales sobre un fenómeno, obtenidos mediante observación y a los que son reducibles toda clase de proposiciones acerca del mismo. Estas proposiciones se erigen como axiomas de los cuales derivar, por deducción, toda la teoría sobre el fenómeno.
Este recurso a la axiomatización con un fundamento en la experiencia y un regreso a ella a través de la verificación de las conclusiones deducidas de los axiomas es un recurso que el paradigma positivista elaboró para salvar la crítica al inductivismo ingenuo: ya no se trata de derivar por vía inductiva las leyes que rigen al mundo, sino que admite que se parte de teoría: los axiomas, pero estos se derivan de la experiencia mediante observación.
Joseph Fourier en 1822 fue el primer científico que conceptualizó así la axiomatización dentro de las ciencias físicas al estudiar las propiedades del calor y, dentro de esta línea, lo secundaron los llamados Positivistas Lógicos o Neopositivistas pues sostienen que las teorías físicas, construidas matemáticamente, deben ser expuestas en un lenguaje riguroso y preciso (lógico) a la vez que deben atenerse a la experiencia. De aquí que se les conozca también como empiristas lógicos.
Basados en Wittgenstein y su Tractatus, los empiristas lógicos sostienen que estas dos exigencias: el rigor lógico y la base empírica no están en contradicción, porque un lenguaje organizado en forma lógica, aún el más abstracto, describe fielmente la experiencia, ya que existe un isomorfismo entre las palabras y la realidad que describen.
Por ello el lenguaje sugerido por estos científicos para satisfacer tales exigencias es el de los símbolos de la lógica matemática, instrumento que requiere un perfecto dominio de los métodos lógicos.
La matematización de las teorías en las ciencias empíricas se debe:
Por un lado, a esta necesidad de establecer el máximo rigor, coherencia y sistematización al interior de las construcciones teóricas de la ciencia positiva, pues la matemática busca el rigor de la exactitud y precisión entre las representaciones simbólicas que logra y se caracteriza por su constante tendencia a la demostración de sus aportaciones, por lo que constituye, para las ciencias empíricas, un método de conocimiento certero y preciso
“La cultura occidental se caracteriza por una suerte de mito de las matemáticas. Existe la creencia -que debemos a Pitágoras- de una virtud explicativa y casi trascendente de éstas. Para mucha gente, el hecho de describir en términos matemáticos (...) parece suficiente” (Antaki, 1997a :161).
Por el supuesto carácter objetivo de las representaciones de la matemática, pues no obedecen a cuestiones subjetivas, sean psicológicas o culturales. Esta objetividad está garantizada por el manejo de propiedades cuantitativas de los fenómenos y no de cualidades de los mismos.
“Las matemáticas otorgan un terreno de comprensión, son absolutas y universales, independientes de toda influencia cultural. Las nociones que cada lengua expresa dependen de datos influidos por la cultura; pero los objetos matemáticos están libres de esa cárcel cultural” (Antaki, op.cit. :161).
Otro recurso moderno que las ciencias empíricas adoptan, echando mano de las matemáticas, es el empleo de modelos matemáticos.
El método de la ciencia no sólo parte de la axiomatización pues, aunque es útil como forma de sistematizar los resultados de la investigación y construir teorías, no lo es para sugerir una explicación de los fenómenos estudiados. Para ello los científicos emplean la construcción de modelos.
En la actualidad los modelos no son considerados como representaciones literales de la realidad, sino que poseen dos funciones:
Hacer comprensible el grupo de fenómenos estudiados, incluso a los no especialistas.
Cumplir la función de una primera hipótesis acerca de la estructura del grupo de fenómenos estudiados y que resulta útil en tanto explica estos fenómenos a partir de nociones ya familiares en la ciencia, nociones que ya están sistematizadas, incluso en otro ramo de ella. Por ejemplo el explicar la estructura del átomo de hidrógeno a partir del sistema solar donde el electrón gira en torno al núcleo compuesto del protón y el neutrón.
Dentro de esta metodología es también común recurrir al empleo de modelos matemáticos a partir de la búsqueda de un isomorfismo entre determinado fenómeno natural, expuesto en lenguaje formal y riguroso, y una estructura matemática. La tarea es simular un fenómeno natural y determinar sus propiedades y consecuencias a un nivel puramente matemático para luego retornar con los resultados obtenidos de la estructura matemática al fenómeno examinado.
Además, el modelo matemático permite, con ayuda de la computadora, variar las condiciones en que supuestamente se desarrollará el fenómeno, obteniendo consecuencias diversas de diferentes hipótesis, eligiendo finalmente la que permita simular el curso efectivo del fenómeno
Como una crítica a la posición positivista a partir de su rigorismo garantizado por las ciencias formales, podemos decir:
Que la axiomatización respalda el carácter subjetivo e ideal de la ciencia en tanto se trata de convenciones establecidas que deben respetarse por la comunidad científica. Y es que, aunque los axiomas de las ciencias empíricas no parten estrictamente de intuiciones evidentes sino supuestamente de observaciones, no dejan de ser hipótesis sobre el comportamiento de la naturaleza.
De acuerdo a autores como Geymonat, el empleo de los modelos matemáticos es el punto más elevado de la idealización de la ciencia y un ejemplo más de su subjetividad, porque:
Los modelos son construcciones ideales
Un mismo fenómeno puede ser explicado por medio de dos modelos que resultan aparentemente contradictorios: el modelo ondulatorio y corpuscular de la luz, por ejemplo.
Algunos autores señalan que un defecto del enfoque positivista es la identificación de lo racional con lo meramente lógico, pues produce una imagen estática, instantánea, de las teorías científicas, como si la racionalidad tuviera sólo como posibilidad el pensamiento lineal sistemático y no el razonamiento relacional, sistémico y dinámico. Así, lo racional en la ciencia no puede restringirse a lo puramente lógico-deductivo sino que debe incluir otras formas como la intuición, la lógica de descubrimiento y la lógica dialéctica -en la cual las partes son comprendidas desde el punto de vista del todo- y hasta tolera, según algunos autores, ciertas inconsistencias lógicas y contradicciones.
“..una ciencia natural no debe ser considerada meramente como un sistema lógico, sino de modo más general como una empresa racional, que tolera ciertas incoherencias, inconsistencias lógicas e incluso ciertas contradicciones. (...) El estudio de las entidades (...complejas) requiere del uso de una lógica no deductiva; requiere una lógica dialéctica” (Martínez, op.cit.: 108).
LA VERIFICACIÓN EXPERIMENTAL
Uno de los rasgos fundamentales que han contribuido al enorme éxito del paradigma positivista en el mundo moderno es la posibilidad de verificar sus resultados en la experiencia.
Ya vimos que, merced a numerosas críticas en torno a la idea de que la investigación científica se inicia con una observación imparcial y pura del investigador, finalmente el paradigma ha terminado por aceptar que detrás de cualquier observación hay un fundamento teórico, pero ello no le ha hecho desistir de su afán objetivista fundamentándolo esencialmente en la posibilidad de hacer hablar a la experiencia en el momento de la verificación de una hipótesis.
El científico interroga a la naturaleza para que ésta le confirme o refute sus suposiciones, pero no se trata de un modo meramente teórico racional de interrogación que también puede ser empleado por la filosofía, por ejemplo, sino que la ciencia moderna inaugura una forma novedosa de verificación ligada a la práctica del ingeniero: la verificación experimental.
Con el experimento se interroga a la naturaleza en nombre de la teoría y su respuesta se registra con precisión para determinar con ella la solidez o no de una suposición teórica.
Sin embargo, para autores como Ilya Prigogine e Isabelle Stengers (1983) la experimentación como método singulariza a la ciencia moderna en tanto la constituye en un encuentro entre teoría y técnica, en una alianza entre la ambición de modelar el mundo y la de comprenderlo. Por ello, no basta la observación pasiva de la naturaleza sino la acción sobre ella, acción que practica el método experimental al manipularla.
“Se trata de manipular, de poner en escena la realidad física hasta conferirle una proximidad máxima con respecto a una descripción teórica” (Prigogyne e Stengers, 1983:44).
Además afirman que con el método experimental se manipula al objeto estudiado hasta convertirlo en una situación ideal que no existe en la realidad, pero que se vuelve perfectamente inteligible pues se convierte en la hipótesis teórica que guía la manipulación.
Así, en el fondo de la supuesta objetividad del método continúa latiendo la decisión subjetiva del investigador, pues aunque la experimentación se erige como un juez de la teoría y los resultados del experimento se registran con precisión para emitir su veredicto, la pertinencia de estos resultados se evalúa en referencia a la idealización hipotética que guía el experimento, siendo todos los demás efectos secundarios, despreciables.
Esto se liga a las ideas de autores como Lakatos o Kuhn, que ya analizamos, que rechazan la idea popperiana de que un experimento resulta crucial para echar por tierra toda una teoría, cuando la historia de la ciencia demuestra que muchas veces estos experimentos refutadores son manipulados o ignorados, de tal forma que la teoría se mantiene; de acuerdo a Lákatos por efecto de la heurística positiva del programa de investigación; de acuerdo a Kuhn porque el paradigma dominante se mantiene hasta que son demasiados los hechos que no puede explicar y surge un paradigma paralelo que sí los incluye, dando lugar a una revolución científica.
Además, afirman Prigogine y Stengers, es claro que con el método experimental la naturaleza debe confirmar el lenguaje teórico en que se le dirige la palabra (determinado por el paradigma). Y éste evoluciona en la historia de la ciencia en función de factores como el balance de las respuestas que da la naturaleza, su relación con otros lenguajes y la relación de la ciencia con la cultura a la que pertenece, esto es, la exigencia que hace la cultura para que la ciencia formule nuevas preguntas y que comprenda a la naturaleza según lo que cada época considere pertinente.
Empero, aún cuando en el experimento a veces se trata de una naturaleza preparada con anticipación, manipulada en función de la hipótesis, científicos y filósofos de la ciencia que lo han criticado, como Prigogine, están de acuerdo en que ello no le impide desmentir dichas hipótesis, en ese aspecto el investigador no puede hacer decir a la naturaleza lo que él quiere.
En otras palabras, aún cuando el experimentador ignore sus resultados o los manipule es un hecho que la naturaleza habla por sí misma y, tarde o temprano, desmiente al científico si éste la ha ignorado.
Por ello algunos autores afirman que la adquisición del método experimental es irreversible pues garantiza que la naturaleza interrogada será tratada como un ser independiente, el cual, aunque forzado a expresarse en un lenguaje inadecuado, no da las respuestas que los científicos quieren oír.
Esta posibilidad, inaugurada por el método experimental, de controlar la realidad para verificar una hipótesis fue el fundamento de otra poderosa característica de la ciencia moderna y de su paradigma: la posibilidad de dominar los fenómenos naturales, lo que contribuyó a darle la aceptación que tiene hasta nuestros días.
LA POSIBILIDAD DE SEPARAR EL TODO EN PARTES PARA SU ESTUDIO. LA ESPECIALIZACIÓN EN LA CIENCIA.
En un apartado anterior analizamos, como parte de las características del paradigma newtoniano-cartesiano, la idea de que el universo se comporta en forma mecánica, como un reloj con movimientos regulares y previsibles si se conocen las leyes que lo rigen. La posibilidad para la razón humana de conocer tales leyes implica hacer simple lo complejo, encontrar, en la incertidumbre, confusión y desorden de los fenómenos complejos del mundo, aquello que los hace previsibles, claros, ordenados y simples, en una palabra, aquello que poseen de comprensible para la mente humana: su racionalidad.
Y para simplificar lo complejo, para clarificar lo obscuro, para ordenar lo desordenado, la ciencia procede a descomponer en partes los fenómenos pues el paradigma establece que la realidad puede reducirse a sus estructuras más simples para desnudar sus mecanismos de operación, para develar las leyes que lo gobiernan.
“...el ideal del conocimiento científico clásico era descubrir, detrás de la complejidad aparente de los fenómenos, un Orden perfecto legislador de una máquina perfecta (el cosmos), hecha ella misma de micro-elementos (los átomos) diversamente reunidos en objetos y sistemas” (Morin, 1998:30).
El reduccionismo en la ciencia presupone la concepción de que es posible separar en partes un fenómeno o realidad para analizarlo y desentrañar, a través de sus fragmentos, los mecanismos que lo rigen.
“Esencialmente, el reduccionismo ve la naturaleza como la vería un relojero. Un reloj se puede desarmar y descomponer en dientes, palancas, resortes y engranajes. También se puede armar a partir de estas partes. El reduccionismo imagina que la naturaleza se puede armar y desarmar de la misma manera. Los reduccionistas creen que los sistemas más complejos están compuestos por los equivalentes atómicos y subatómicos de los dientes, palancas y resortes, los cuales la naturaleza ha combinado en un sinfín de maneras ingeniosas” (Briggs y Peat, op.cit. :21).
Para el paradigma positivista la realidad es un rompecabezas susceptible de desarmarse y armarse al antojo del investigador, cuyas piezas pueden ser estudiadas en forma aislada, como entes individuales, para reportar al científico las características de la totalidad. De esa forma el paradigma hace énfasis en lo interno, peculiar y singular de las cosas, propiciando el aislamiento y el individualismo.
Esta característica del modo de pensar científico positivista la expresa Hernández Rojas de la siguiente manera: En ciencias sociales y naturales: “... todos los fenómenos complejos (entre ellos la educación) pueden reducirse a sus elementos constitutivos para propósitos de estudio y explicación” (Hernández, op.cit. :84).
Esta posibilidad que brinda el paradigma positivista de separar la totalidad en fragmentos para su estudio, con la convicción de que estos pueden ser en cualquier momento reunidos para reintegrar el conjunto, facilitó la concentración de los estudios científicos en parcelas que, en principio, se concretaban a dividir grandes sectores de la realidad originando la aparición de diversas ciencias, pero que cada vez fueron profundizando en aspectos más y más concretos que hicieron surgir las especializaciones dentro de las diferentes disciplinas, y erigieron barreras entre ellas, especialmente al establecer lenguajes científicos distintos e incomunicables entre sí, con lo que la ciencia moderna se olvidó de reintegrar los fragmentos divididos y acabó por mutilar epistemológicamente la realidad.
“Una hiperespecialización habría aún de desgarrar y fragmentar el tejido complejo de las realidades, para hacer creer que el corte arbitrario operado sobre lo real era lo real mismo” (Morin, op.cit. :30).
De hecho, con la aparición del paradigma de la ciencia moderna terminó el imperio de la Filosofía como la ciencia de las ciencias, como el saber único que englobaba una realidad holista y única.
Concretamente, la separación cartesiana entre res cogitans (mente) y res extensa (materia), sujeto y objeto, estableció una diferencia aparentemente insalvable entre la Filosofía y la ciencia, pues: “En efecto, la ciencia occidental se fundó sobre la eliminación positivista del sujeto a partir de la idea de que los objetos, al existir independientemente del sujeto, podían ser o bservados y explicados en tanto tales” (Ibidem. : 65).
Así, la ciencia se ocupó del conocimiento de los objetos sin intromisión subjetiva alguna, pues el sujeto fue rechazado como perturbación o como ruido a eliminar. Por el contrario la Filosofía, a través de la metafísica y la ética, tomó para sí el estudio del sujeto: “...rechazado de la ciencia, el sujeto se toma revancha en el terreno de la moral, la Metafísica, la ideología”. (Ibid. :66)
Esta oposición entre ciencia y filosofía acabó con el concepto de una Ciencia Universal que englobaba el conocimiento existente. Sin embargo, hasta el siglo XVIII aún sobrevivió la idea de que existe una ciencia única a la que toca determinar la cientificidad o no cientificidad de las demás disciplinas. Esta ciencia era la matemática .
Pero esta postura se abandonó en el siglo XIX ante el avance de varias ciencias, y la nueva se declaró en pro de la especialización en el conocimiento. El representante decimonónico de esta tendencia es Augusto Comte, heredero de la escuela politécnica y de una sociedad industrial basada en la división del trabajo que defiende la especialización de las disciplinas como la causa del notable desarrollo del conocimiento humano.
Sin embargo, Comte aún forma parte del gran movimiento iluminista del siglo anterior y por ello expresa su preocupación filosófica de que la especialización excluya cualquier intento de generalización del conocimiento, que las grandes mentes científicas se aboquen a una parcela del saber y no se preocupen por cuestionamientos generales como los que le competían a la filosofía.
De ahí que le preocupe hacer una clasificación de las ciencias para reducir el número de ellas sólo a seis: matemáticas, astronomía, física, química, biología y sociología y que considere que cualquier otra especialización particular se reduzca a una de estas seis disciplinas, sin reconocerles autonomía.
“En cambio las seis ciencias fundamentales tienen funciones, métodos, estructuras efectivamente bien distintos, donde sería grave error querer reducirlos a una unidad, subordinándolos completamente a la matemática” (Geymonat, op.cit. :56).
Para Comte cada una de estas disciplinas tiene el derecho de erigirse en ciencia independiente porque evolucionó según la ley de los tres estadios que ya mencionamos en líneas anteriores, y cada una de ellas se actualiza en un nuevo estadio en momentos distintos a las demás, de manera que ninguna de ellas alcanza el estado científico si antes no lo alcanzan sus predecesoras.
La postura de Comte “...es una primera respuesta de la filosofía al gran fenómeno histórico de la especialización: respuesta que reconoció su ineludibilidad, pero al mismo tiempo trataba de establecer un límite” (Ibidem. : 57).
Sin embargo, el límite impuesto por Comte pronto fue sobrepasado en vías de lograr el progreso científico dentro de un modelo similar al modelo industrial (este punto lo analizaremos en el siguiente capítulo), por lo que aparecieron miríadas de especializaciones y subespecializaciones, cada una con su respectivo lenguaje, para favorecer las descripciones precisas, la exactitud de las proposiciones, el rigor de los razonamientos y la clarificación de los principios en que se basan las teorías.
Como una primera crítica a esta concepción, Morin nos dice que la ciencia concebida a la manera positivista es como una inteligencia ciega que destruye los conjuntos y las totalidades aislando a los objetos de sus ambientes: “La metodología dominante produce oscurantismo porque no hay más asociación entre los elementos disjuntos del saber y, por lo tanto, tampoco posibilidad de engranarlos y de reflexionar sobre ellos” (Morin, op.cit. :31).
También aparece, en boca de varios filósofos, la idea de que la especialización del conocimiento, con sus lenguajes aislantes y aislados, hace que el científico se encierre en su propia disciplina sin preguntarse siquiera si ella requiere de una coordinación o integración con el trabajo realizado en otras disciplinas y, por supuesto, sin llegar a una visión completa de lo que es la realidad.
Igualmente se cuestiona la separación cada vez mayor entre ciencia y filosofía por el total desinterés de los científicos en problemas generales que afectan a toda la ciencia, desinterés filosófico que da origen a lo que ya habíamos nombrado, con Ludovico Geymonat, como “neutralidad teorética”, esto es, la negativa a admitir que la ciencia pueda, de algún modo, comprometerse con asuntos no específicos.
Tal neutralidad y desinterés del científico por cuestiones filosóficas conlleva implicaciones graves:
Que los científicos, al no tener una postura filosófica propia, terminen siendo manipulados por intereses de grupos específicos.
Que la ciencia se prive de toda posibilidad de conocerse y reflexionar sobre sí misma.
Que se establezca una separación e incluso una oposición entre dos culturas: la humanista y la científica, lo que contribuye a esta visión mutilada de lo real, aún en el terreno social.
Se cae entonces en una disyunción entre el humanismo centrado en el conocimiento filosófico, y la ciencia preocupada por el conocimiento de lo empírico, no habiendo forma de establecer una comunicación entre ambos saberes, máxime que no existe forma de entablar dicha comunicación entre las disciplinas científicas. G
bibliografía
Antaki, Ikram (1997) El Banquete de Platón : Ciencia . Edit. Joaquín Mortiz. México. 163 pp.
Briggs, John y F. David Peat (1994) Espejo y Reflejo. Del caos al Orden. Guía ilustrada de la Teoría del Caos y la Ciencia de la Totalidad Edit. Gedisa. Grupo ciencias naturales y del hombre. Subgrupo Divulgación científica Vol. 10 2ª. Edición. Barcelona. 222 pp.
Geymonat, Ludovico (1993) Límites Actuales de la Filosofía de las Ciencias Edit. Gedisa. Colección Límites de la Ciencia #9 2ª edición. Barcelona. 181 pp.
Martínez, Miguélez, Miguel (1997) El Paradigma Emergente. Hacia una nueva teoría de la racionalidad científica. Edit. Trillas. 2ª edición. México. 263 pp.
Martínez, Miguélez, Miguel (1998) La Investigación Cualitativa Etnográfica en Educación. Manual teórico-práctico Edit. Trillas. 3ª edición. México. 175 pp.
Martínez, Miguélez, Miguel (1999) La Nueva Ciencia . Su desafío, lógica y método. Edit. Trillas. México. 271 pp.
Morin, Edgar (1998) Introducción al Pensamiento Complejo. Ciencias Cognitivas. Edit. Gedisa Colección Hombre y Sociedad. Serie CIA.DE.MA. 2ª reimpresión. Barcelona. 165 pp.
Prigogine Ilya e Isabelle Stengers. (1983) La Nueva Alianza. Metamorfosis de la Ciencia. Alianza Universidad. Madrid. 287 pp.
Claudia Tamariz García es Maestra en Ciencias de la Educación por la Universidad del Valle de México y Licenciada en Ciencias Humanas con especialidad en historia por el Clausto de Sor Juana. Es profesora del área de humanidades en la Universidad del Valle de México, Campus Juriquilla.
Ana Cecilia Espinosa Martínez, es Maestra en Ciencias de la Educación por la Universidad del Valle de México y Licenciada en Contaduría por el Centro de Estudios Universitarios Arkos de Puerto Vallarta, donde funge como subdirector Académico.
Para el paradigma newtoniano el hecho de que el universo se comporte como un mecanismo de relojería lo convierte en un mundo constante y repetitivo donde las leyes que lo rigen garantizan que lo que ocurrió en el pasado sucede en el presente y seguirá sucediendo en el futuro; por ello su concepción del tiempo es, a decir de Illya Prigogine (1983), reversible.
Prigogine afirma que en tanto para la física clásica los principios que rigen a la realidad material son eternos, luego entonces, aplicables al Universo en cualquier momento del tiempo, éste resulta reversible, no en el sentido de vuelta atrás desandando lo andado, sino en el sentido de que no importa qué momento del tiempo se elija, los principios físicos aplicaran igual. Para este paradigma las leyes que rigen al cosmos se aplican hoy como se aplicarán mañana y se aplicaron ayer. Así, en tanto el comportamiento de la naturaleza es uniforme en tiempo y espacio, el tiempo no resulta un factor determinante para esta visión, es independiente del espacio y es absoluto.
En la geometrías no euclidianas se deja fuera el argumento de que dos líneas que corren paralelas jamás llegarán a tocarse. Igualmente, la teoría de conjuntos llegó a afirmar un postulado que íba contra la evidencia: son tantos los puntos de un segmento, por pequeño que sea, como los de la recta entera.
Fue Kant el principal defensor de esta idea, llegando a afirmar que tanto la química como la psicología no tenían el carácter de ciencias por no contener elementos matemáticos. |