El Desarrollo de La Ciencia y Las Teorías Epistemológicas en El Siglo Xx

100
HISTORIA DEL PENSAMIENTO FILOSÓFICO Y CIENTÍFICO TOMO III Giovanni Reale y Darío Antisieri PARTE DECIMOCUARTA EL DESARROLLO DE LA CIENCIA Y LAS TEORÍAS EPISTEMOLÓGICAS EN EL SIGLO XX «En el campo de aquellos que buscan la verdad no existe ninguna autoridad humana. Cualquiera que trate de convertirse en juez se ve abrumado por las carcajadas de los dioses.» Albert Einstein «La ciencia es falible, porque la ciencia es humana.» Karl Popper «La razón debe obedecer a la ciencia, a la ciencia más evolucionada, a la ciencia que evoluciona [...]. La aritmética no está fundamentada sobre la razón. Es la doctrina de la razón la que se fundamenta en la aritmética elemental.» Gaston Bachelard

description

Antiseri - Reale: Introducción al tomo III

Transcript of El Desarrollo de La Ciencia y Las Teorías Epistemológicas en El Siglo Xx

HISTORIA DEL PENSAMIENTO FILOSÓFICO Y CIENTÍFICO

TOMO III

Giovanni Reale y Darío Antisieri

PARTE DECIMOCUARTA

EL DESARROLLO DE LA CIENCIA Y LAS TEORÍAS EPISTEMOLÓGICAS EN EL SIGLO XX

«En el campo de aquellos que buscan la verdad no existe ninguna autoridad humana.

Cualquiera que trate de convertirse en juez se ve abrumado por las carcajadas de los dioses.»

Albert Einstein

«La ciencia es falible, porque la ciencia es humana.»

Karl Popper

«La razón debe obedecer a la ciencia, a la ciencia más evolucionada, a la ciencia que evoluciona [...].

La aritmética no está fundamentada sobre la razón.

Es la doctrina de la razón la que se fundamenta en la aritmética elemental.»

Gaston Bachelard

CAPÍTULO XXXV

LÓGICA, MATEMÁTICA, FÍSICA Y BIOLOGÍA EN EL SIGLO XX

1. LOS AVANCES DE LA LÓGICA Y DE LA MATEMÁTICA EN EL SIGLO XX

1.1. La «investigación sobre los fundamentos» y el descubrimiento de la «antinomia de las clases»

Como se comprobó en el capítulo dedicado al desarrollo de las ciencias en el siglo XIX, un grupo de matemáticos geniales -que comprende Cauchy hasta Weierstrass- se había comprometido en un programa de otorgar mayor rigor conceptual a las nociones fundamentales del cálcul.o infinitesimal (límite, infinitésimo, continuidad, infinito matemático, etc.). Con Weierstrass y su escuela, este programa llegó a lo que se ha llamado la «aritmetización del análisis», es decir, a la reducción de los conceptos fundamentales del análisis (la matemática que tiene como eje central la teoría de los «números reales») a los conceptos aritméticos (la matemática que tiene como eje central la teoría de los números enteros positivos, es decir, de los números naturales y, por extensión, de los números racionales). Ahora bien, puesto que se sabía que la geometría podía reconducirse al análisis (por medio de las operaciones que constituyen la geometría analítica), la aritmética (a la cual se reducía el análisis) se configuraba como base natural de todo el edificio matemático. Dicho proceso de reducción de toda la matemática a la aritmética halla su punto culminante en la obra de Peano, que en 1899 propuso su ya clásica axiomática de la aritmética elemental. El sistema axiomático de Peano consta de cinco axiomas, formulados con la ayuda de tres términos primitivos: «número», «cero» y «sucesor inmediato de». Podemos enunciar así los axiomas de Peano: 1) el cero es un número; 2) el sucesor inmediato de un número es un número; 3) el cero no es el sucesor inmediato de ningún número; 4) dos números cualesquiera poseen un sucesor inmediato diferente; 5) toda propiedad que posea el cero y el sucesor inmediato de todo número que posea dicha propiedad, pertenece a todos los números. (Este último axioma expresa lo que se denomina principia de inducción matemática».) Sin embargo, como ya se dijo en el capítulo dedicado a las ciencias del siglo XIX, precisamente durante la época en que Peano trabajaba en su proyecto, había estudiosos como Frege y como Cantor que, no estando convencidos de la naturalidad de la base constituida por la aritmética, buscaban reconducir la aritmética a una base todavía más profunda, reduciendo el concepto de número natural al concepto lógico de «clase», por que la lógica de las clases aparecía como la teoría más adecuada para la investigación sobre los fundamentos de la matemática. Esa noción -el hecho de que la definición de número puede darse en término de clase (Frege y Russell) o, en palabras de Cantor, en términos de conjuntos, sin que se sea capaz de contar los elementos de estas clases o conjuntos- se puede ilustrar muy sumariamente de la siguiente forma. Si tenemos dos clases A y B, de modo que a cada elemento de A se le pueda hacer corresponder un elemento de B, y viceversa, entonces se dirá que dichas clases tienen la misma potencia o el mismo número cardinal. De esta manera, a través de la ejecución de la operación puramente mecánica de la puesta en correspondencia biunívoca de los elementos de las dos clases, podemos saber, sin necesidad de contar, si las dos clases tienen o no la misma cardinalidad, es decir, el mismo número de elementos. Por consiguiente, parece legítimo definir el número cardinal de una clase A como la característica poseída en común por todas las clases -y únicamente por ellas- cuyos elementos pueden ponerse en correspondencia biunívoca con los elementos de A.

Más en general, nos es posible afirmar, como escribe Russell en Principios de la matemática (1903), que «matemáticamente, un número no es más que una clase de clases equipotentes». Esta definición de número permitió a Cantor, entre otras cosas, trabajar sobre las relaciones existentes entre conjuntos infinitos y establecer toda una jerarquía de cardinalidad, descubriendo cosas interesantes y opuestas a la intuición, como por ejemplo que el conjunto de los números naturales tiene la misma potencia que el de los números relativos y de los racionales (se trata de algo opuesto a la intuición porque entre O y 1 ya se contienen infinitos números racionales, esto es, infinitas fracciones propias p/q, en las que p es menor que q. Prescindiendo sin embargo de estos y de otros interesantísimos resultados técnicos obtenidos por Cantor hay que decir que Bertrand Russell publicó en 1903 los Principios de la matemática con la convicción de que «la matemática y la lógica son idénticas» y de que «toda la matemática pura trata exclusivamente de conceptos definibles en términos de un número pequeñísimo de conceptos lógicos fundamentales». Russell, mediante el contacto con la obra de Frege y el conocimiento de la técnica lógica de Peano, elaboró las tesis de este libro comprometiéndose en el grandioso programa de construcción efectiva de toda la matemática a partir de la lógica, programa que Russell llevó a cabo junto con Alfred N. Withehead en los tres grandes volúmenes -aparecidos entre 1910 y 1913- titulados Principia Mathematica. De este modo Russell trató de llevar a cabo el propósito de Frege de construir toda la matemática sobre bases lógicas. Mientras tanto, sin embargo, entre 1901 y 1902 Rusell había puesto en crisis la

lógica de clases, con lo cual había herido de muerte la fundamentación de la aritmética efectuada por Frege, que se basaba precisamente en la lógica de clases. La causa de ello fue el descubrimiento de una antinomia que mostraba cómo una proposición -legítima según los fundamentos de la aritmética de Frege- era sin embargo autocontradictoria. Ésta es, a grandes rasgos, la antinomia de Russell. Consideremos un conjunto que no se contenga en sí mismo como elemento (el conjunto de los libros sobre la mesa; el conjunto de estos libros no es un libro), y llamemos «normal» a ese conjunto. Si bien los conjuntos más comunes son normales, no puede excluirse que exista también algún conjunto anormal. Así, por ejemplo, el conjunto de todos los conjuntos es él mismo un conjunto y, por lo tanto, no es normal. Ahora bien, formemos el conjunto C de todos los conjuntos normales y preguntémonos si es normal. Supongamos que C se contenga a sí mismo como elemento: en ese caso, es normal (porque los elementos de C son conjuntos normales), y en cuanto conjunto normal, no puede contenerse a sí mismo como elemento. Supongamos, en cambio, que C no se contenga a sí mismo como elemento. En ese caso, por definición, es normal, pero como todos los conjuntos normales, tiene que ser elemento de C, y por lo tanto, tiene que contenerse a sí mismo. Tanto en la primera como en la segunda hipótesis, se incurre en una contradicción. Russell parafraseó su paradoja, con cierta dosis de humor, mediante este ejemplo: definimos a un barbero de pueblo como aquel que afeita a todos aquellos que no se afeitan solos. Las paradojas lógicas hallan un antiguo prototipo en la paradoja del mentiroso: «Epiménedes el cretense dice que todos los cretenses son mentirosos.» Russell comunicó por carta a Frege el descubrimiento de dicha antinomia. Frege trató de poner remedio a la dificultad que implicaba para el núcleo mismo de su sistema, pero en el fondo no quedó convencido de sus propios intentos de salvamento y pasó los últimos años de su vida habiendo perdido la confianza en todo el trabajo realizado. Después del descubrimiento de la antinomia de Russell, fueron formuladas otras, lo cual obligó a no aceptar de manera ingenua el concepto de conjunto y a plantear de manera axiomáticamente rigurosa la teoría de los conjuntos. Tal fue el caso de Zermelo quien, habiendo descubierto independientemente de Russell la antinomia de las clases, desarrolló en 1908 una primera teoría axiomática de los conjuntos. A ésta le siguieron otras axiomatizaciones de los conjuntos: las de Skolem, Fraenkel, van Neumann, Bernays... Russell, por su parte, convencido de que la aparición de antinomias se debía a un mal uso del lenguaje (era un platónico, que creía en la existencia objetiva de los entes matemáticos cuyas propiedades y relaciones tenía que descubrir el matemático; en su opinión, las contradicciones no podían darse en el mundo objetivo de los entes matemáticos), propuso resolver el problema de las antinomias mediante la «teoría de los tipos» expuesta en el apéndice de los Principios de la matemática. Dicha teoría se reduce a prescripciones de carácter lingüístico. Distingamos, dice Russell, entre diversos tipos de predicados: los predicados de tipo «cero» son nombres de individuos; los de tipo «uno» son propiedades de individuos, se refieren a clases de individuos; los predicados de tipo «dos» se refieren a clases de clases de individuos, y así sucesivamente. Efectuada esta distinción y con el propósito de evitar las antinomias, Russell propone la regla siguiente: se puede atribuir un predicado de tipo «n» únicamente a un sujeto de tipo «n - 1». En otros términos: un concepto nunca puede ser necesario como predicado en una proposición cuyo sujeto sea de un tipo igual o mayor al del concepto mismo. Hasta aquí, muy sumariamente, lo que expone Russello Sin embargo, tanto las diversas axiomatizaciones de la teoría de los conjuntos como la teoría de los tipos de Russell dejaban planteados graves problemas. Las primeras, sin duda, evitaban las antinomias conocidas, pero no eran una garantía contra otras antinomias posibles. La segunda, que tampoco garantizaba que no surgiesen nuevas antinomias (como las «semánticas», la primera de las cuales fue formulada por Richard en 1905), no podía impedir que construyesen proposiciones no paradójicas y que a pesar de todo no respetasen en absoluto la teoría de los tipos.

1.2. El programa de Hilbert y los teoremas de Gödel!

Frege, Peano y Russell (si bien este último suavizó más tarde en cierta medida su propia posición) son, básicamente, platónicos: creen en un mundo objetivo, existente por sí mismo, de entes y relaciones matemáticas que el investigador debe descubrir pero no inventar.

En cambio, la escuela formalista -encabezada por David Hilbert- sostiene que un ente matemático existe cuando ha sido definido de un modo no contradictorio. Por consiguiente, la demostración de la no contradictoriedad de las teorías matemáticas se convierte en el problema central de la investigación matemática. Un modo de probar la no contradictoriedad de una teoría matemática había consistido en hallar un modelo de los axiomas de la teoría dentro de otra teoría ya existente y que por consenso unánime haya sido aceptada como coherente. Este camino, practicado por el

propio Hilbert en sus Fundamentos de la geometría (1899; en esta obra Hilbert axiomatiza de modo riguroso la geometría euclidiana), ya había sido recorrido por el italiano Beltrami cuando éste había construido modelos euclidianos de las geometrías no euclidianas. En cualquier caso, por ingenioso o útil que pudiese parecer este procedimiento, no llegaba hasta la raíz de la cuestión: no resolvía el problema, se limitaba a desplazado, ya que -refiriéndonos siempre a nuestro ejemplo- nadie puede garantizar que la geometría euclidiana (no interpretada en relación con un universo de objetos físicos) sea no contradictoria. Teniendo en cuenta todo esto -el descubrimiento de las antinomias, la crisis ya admitida de la fuerza fundamentante de la evidencia intuitiva, las dificultades de la corriente logicista (Frege y Russell), la diferente concepción de la naturaleza de los entes matemáticos y el hecho de que buscar la prueba de la no contradictoriedad de un sistema formal en otra teoría de cuya no contradictoriedad no tenemos ninguna garantía, es una vía practicable pero no resolutiva- y mediante los escritos de 1922 y 1923, Hilbert propone el llamado «programa hilbertiano», encaminado a ofrecer una prueba no ya relativa (a otro sistema) sino directa o absoluta de un sistema axiomático. Y así como la matemática «clásica» después de todo el trabajo precedente, se reducía a tres grandes sistemas axiomáticos: el de la aritmética, el del análisis y el de los conjuntos, y puesto que, además, las investigaciones realizadas en el siglo XIX hacían que se considerase como fundamental «la teoría aritmética», resultaba natural que Hilbert partiese de la demostración de coherencia de la aritmética, para extender más adelante dicha coherencia al ámbito del análisis y al de los conjuntos. Como es obvio, si se axiomatiza la aritmética, hay que reconocer (cosa que después de Frege se volvía inevitable) la necesidad de explicitar escrupulosamente todos los ingredientes y los mecanismos lingüísticos y lógicos a través de los cuales se organiza y se desarrolla la teoría (esto, como mínimo, servía para impedir la aparición de aquellas contradicciones que pueden surgir del mismo aparato lógico con el que se deducen los teoremas de la teoría).

Esto lleva a una completa formalización de la teoría cuya coherencia se desea probar. Hay que tener en cuenta que la formalización de una teoría no debe confundirse con aquel aspecto -por lo demás, no esencial- de los sistemas formales que consiste en la simbolización. Formalizar una teoría significa explicitar los trozos del lenguaje admitido, así como también las reglas de formación de las formas expresivas admisibles y las reglas del manejo de estas fórmulas admisibles. De este modo, la teoría asume la forma de un puro cálculo que prescinde de los significados asociables a sus símbolos y a sus expresiones. En tales circunstancias, la no contradictoriedad de una teoría se identifica con la imposibilidad de obtener, aplicando las reglas de manejo que se hayan admitido, una cadena demostrativa en la que aparezca una proposición y su negación, es decir, una contradicción. Por lo tanto, la axiomatización completa de una teoría comporta también la formalización de la lógica que sirve para construida. Sin embargo, al hacer esto, ¿con qué medios podía la «metamatemática» de Hilbert someter la lógica a un análisis crítico, si no era con la lógica misma? ¿No existiría acaso el riesgo de caer en un círculo vicioso? ¿O para demostrar la no contradictoriedad de una teoría, será necesario apelar a la evidencia, a aquella intuición que tantas sospechas había provocado? Hilbert considera que con nada no se hace nada, por lo cual resulta casi inevitable una cierta circularidad. Sin embargo, pensaba emplear procedi-mientos -los llamados «métodos finitistas» que, aun formando parte de aquella aritmética que se desea fundamentar, resulten tan seguros que no comprometan el fruto de las demostraciones. Dichos métodos finistas se reducen a procedimientos elementales e intuitivos, de tipo combinatorio, que se utilizan por ejemplo para manejar siempre una cantidad finita de objetos y de funciones perfectamente determinables. La intuición integra, pues, el intento que lleva a cabo Hilbert de fundamentar la matemática, pero no establece -por intuición, justamente- las propiedades de determi-nados entes matemáticos; sólo concierne a la realización de operaciones muy sencillas, y tan seguras y elementales que sean aceptadas como base de cualquier investigación teórica. Las ideas de Hilbert fueron acogidas por matemáticos geniales -entre los cuales cabe mencionar a Paul Bernays (1888-1977), Jacques Herbrandt (1908-1931), Wilhelm Ackermann (1898-1962) y Johann von Neumann (1903-1957). En la década de 1920, después de algunos éxitos iniciales, se pensó que el programa de Hilbert podía de veras hacerse realidad. En 1928, Hilbert había planteado el problema de la completud de la teoría de los números, preguntándose si los axiomas de Peano pertenecientes a la teoría elemental de los números eran capaces o no de demostrar o de refutar todas las proposiciones de aquella teoría. En 1931, Kurt Gödel (1906-1978) demostró (en su escrito Proposiciones formalmente indecidibles de los «Principia Mathematica» y de sistemas afines) que no es posible construir una teoría axiomática de los números que posea la completud propuesta por Hilbert. Pero las cosas llegaron mucho más allá, ya que de este primer resultado Gödel extrajo el corolario según el cual un cálculo lógico, con potencia suficiente para formalizar la aritmética elemental, si es coherente, es de un tipo que hace que en él sea indemostrable la fórmula que expresa su coherencia. La coherencia de la aritmética, por lo tanto, no se puede obtener utilizando los instrumentos pertenecientes al sistema formal mediante el cual se expresa la aritmética. Dicho resultado señalaba con toda claridad el fracaso del programa hilbertiano (dado que los métodos finitistas utilizados por Hilbert para demostrar la no contradictoriedad de la aritmética también son formalizables en el interior del sistema axiomático de la aritmética). Gödel puso de manifiesto que resultaba imposible una prueba puramente sintáctica de la no contradictoriedad de un sistema formal, por lo menos cuando es tan complejo de expresar como la aritmética elemental. A partir de aquel momento la garantía de la coherencia de los sistemas formales o de los cálculos se buscará en las interpretaciones que sean modelos de dichos cálculos.

1.3. La semántica de Tarski y el intuicionismo de Brouwer

Es preciso mencionar aquí el ensayo de Alfred Tarski (nacido en 1902) El concepto de verdad en los lenguajes formalizados (1934) sobre la semántica de los sistemas formales (que se desarrollará a continuación en aquella importante rama de la lógica matemática constituida por la «teoría de los modelos»). Tarski define con precisión el concepto de «verdad» (como un acuerdo con los hechos: «la afirmación "la nieve es blanca" es verdadera si y sólo si la nieve es blanca»; entre otras cosas, Tarski afirma que, si tenemos una definición de verdad consistente en el acuerdo entre aserciones y hechos, no tenemos un criterio de verdad: siempre podemos equivocarnos al decir que una teoría es verdadera) y el de «consecuencia lógica» (que es una noción semántica y no sintáctica, como la de «derivabilidad»). De este modo, Tarski investiga las relaciones que se pueden establecer entre los lenguajes formalizados y los conjuntos de objetos sobre los cuales dichos lenguajes pueden ser interpretados, de forma que den origen a proposiciones verdaderas sobre esos objetos. La semántica lógica, después de los resultados de Gödel, adquirió una importancia cada vez más central, puesto que es posible demostrar que si un cálculo admite un modelo, ese cálculo es coherente. De este modo se obtiene una prueba de coherencia de tipo semántico.

No podemos acabar estas notas sobre la matemática en nuestro siglo sin mencionar el intuicionismo. Si los platónicos como Frege consideran que los entes matemáticos son entes existentes por sí mismos y que hay que descubrir; si los formalistas como Hilbert piensan que un ente sólo puede considerarse como matemáticamente existente si se lo define sin contradicciones, el holandés Jan Luitzen Egbertus Brouwer (1881-1966) y sus seguidores -entre los que se cuenta Arend Heyting (nacido en 1898) sostienen que sólo puede considerarse que un ente existe matemáticamente si se logra construirlo, es decir, únicamente a condición de que podamos dar un ejemplo de él o indicar el procedimiento que nos permite llegar a un ejemplo similar, a través de una cantidad finita de pasos. Esta concepción -el «intuicionismo»- prohíbe apelar al «infinito actual». Y si se habla de infinito, no se habla de él como teoría de los conjuntos, sino únicamente en el sentido de que, por ejemplo, cada punto al que se haya podido llegar, puede verse superado. El infinito es algo potencial, nunca actual. El infinito actual es imposible de construir. Por otro lado, si la existencia de un ente matemático significa su efectiva construcción, su constitución práctica, entonces puede aceptarse aquel tipo de demostración conocida como «ley del tercero excluido» («para toda proposición p, o p o no p»). Como es obvio, si se aceptan las reglas de los intuicionistas, es decir, construyendo uno por uno los entes matemáticos, se evitarán los peligros de las antinomias. En los comienzos del intuicionismo, en la década de 1920, no se entendió dicha teoría, y debido a su carga polémica, dio la sensación de que se quería echar por la borda gran parte de la matemática «clásica». En la actualidad las cosas han cambiado; el intuicionismo ha mostrado toda su fecundidad y es una de las corrientes más interesantes de la matemática contemporánea.

2. EL DESARROLLO DE LA FÍSICA EN EL SIGLO XX

2.1. Cuestiones generales

Ya hemos comprobado que el desarrollo de la física en el siglo XIX puede esquematizarse de manera bastante sencilla, en términos de éxito y subsiguiente hundimiento del programa de inversión mecanicista. En cambio, por lo que respecta a la física del siglo XX, es evidente que no pueden formularse valoraciones de conjunto tan claras como la anterior. Sin embargo, por lo que puede apreciarse, no parece que la actual investigación física esté recorriendo un camino que pueda describirse de modo tan lineal. Cabe decir que, hasta ahora, la investigación se ha caracterizado por un dualismo básico de programas. El primero de éstos se desarrolló en las primeras décadas del siglo, tomando como punto de partida la crisis de la mecánica en su impacto con el electromagnetismo y en torno al paradigma relativista einsteiniano. Mientras tanto, a finales del siglo XIX el estudio de los fenómenos de interacción entre la materia y las radiaciones permitía el desarrollo de otro paradigma: el cuántico. Ambos programas, aunque a veces convergen (existe de hecho una teoría cuántica relativista), en esencia se refieren a dos planos de observación muy distintos. Las dos teorías admiten que la física clásica es una excelente aproximación en lo que respecta a los valores de las magnitudes físicas que entran dentro de los límites de nuestra experiencia cotidiana. La teoría cuántica, empero, es necesaria para enfocar los

fenómenos microscópicos (por ejemplo los fenómenos atómicos, nucleares o subnucleares), mientras que la relatividad se aplica a velocidades y longitudes muy grandes, por ejemplo, a escala astronómica. Por consiguiente, los dos programas se estudian desde puntos de vista distintos, y no parece próxima la unificación de ambos. Sin embargo, hasta ahora no se ha observado ningún motivo de incompatibilidad ni se ha formulado ninguna hipótesis al respecto. Junto con la teoría de los cuantos, además, se ha desarrollado la investigación sobre el núcleo y sobre sus partes; resulta extremadamente espinoso describirla en términos elementales, pero no puede dejar de hacerse alguna mención al res-pecto. Como conclusión, describiremos de forma sumaria las nuevas relaciones que se han instituido entre la física y las demás ciencias de la naturaleza en los últimos años, y de este modo hablaremos del origen y de la constitución de algunas disciplinas fronterizas.

2.2. Einstein y las teorías de la relatividad

A caballo entre los siglos XIX y XX se habían hecho numerosos intentos de conciliar la oposición entre las teorías de Maxwell y las de Newton. El último intento de esta clase había sido llevado a cabo por H. Poincaré. Éste, como ya vimos, acepta la teoría de Lorentz y el principio de la relatividad clásica, según el cual los fenómenos físicos deben respetar las mismas leyes, si se observan desde sistemas de referencia que se mueven uno en relación a otro con un movimiento rectilíneo y uniforme; sin embargo, conserva la noción de éter como realidad física. Las obras de Poincaré y de Lorentz aparecen entre finales del siglo XIX y principios del XX. En 1905, empero, A. Einstein (1879-1955) publica los fundamen-tos de la nueva teoría resolutoria, conocida como «teoría de la relatividad restringida», en el histórico artículo Sobre la electrodinámica de los cuerpos en movimiento. Este es el núcleo central de la teoría: «Tanto los fenómenos de la electrodinámica como los de la mecánica no poseen propiedades correspondientes a la noción de reposo absoluto. Indican más bien que [...] las mismas leyes de la electrodinámica y de la óptica resultan válidas para todos los sistemas de referencia en los que se aplican las ecuaciones de la mecánica. Elevaremos esta conjetura [...] a postulado e introduciremos además otro postulado que sólo aparentemente no es conciliable con el primero: la luz siempre se propaga en el espacio vacío a una velocidad determinada, que es independiente del estado de movimiento del cuerpo emisor.» El primer postulado elimina la exigencia del éter. Además, sería incompatible con el segundo si se mantuviesen vigentes las transformaciones de Galileo. Einstein, empero, las substituye por las de Lorentz, deduciéndolas de manera independiente a partir de los dos postulados.

La teoría comporta una reformulación de los conceptos tradicionales de espacio y tiempo. En efecto, sobre esta base se pueden demostrar teoremas que entran en oposición con la experiencia común; por ejemplo:

- la duración de un fenómeno sobre un cuerpo en movimiento es mayor que su duración sobre un cuerpo en reposo;

- dos fenómenos simultáneos con respecto a un observador pueden no serlo con respecto a otro, y viceversa;

- la longitud de una regla se reduce en la dirección de su movimiento;

- la masa de un cuerpo aumenta junto con su velocidad; y sobre todo, aquella famosa ley que se encuentra en la base de muchos fenómenos nucleares, según la cual la masa equivale a una cantidad de energía determinada por la fórmula E = mc2 (E es la energía; m es la masa; c es la velocidad de la luz). Todo esto ha permitido efectuar numerosos controles, muy exactos, que han confirmado sólidamente la teoría. Kuhn consideró que el paso desde la mecánica clásica a la relatividad restringida fue uno de los mejores ejemplos de «revolución científica», entendida como transición de un paradigma a otro, que no posee un carácter acumulativo sino que implica un replanteamiento teórico global.

La relatividad restringida se afirmó muy rápidamente, superando obstáculos y oposiciones. Y sólo 11 años después, Einstein propone una nueva teoría que supera a la anterior, generalizándola. En efecto, eliminando la limitación a movimientos rectilíneos uniformes, sostiene que las leyes de la física son las mismas cualquiera que sea el sistema de referencia desde el cual se observen, aunque éste se halle acelerado, siempre que se tengan en cuenta también los efectos del eventual campo gravitacional: tal es el núcleo de la «teoría de la relatividad general». Para llegar a este resultado, Einstein parte de la constatación de que la masa de un cuerpo es la misma cuando la medimos con la ley de la gravitación universal o con la segunda ley de la dinámica (la masa inercial es igual a la masa gravitacional): como consecuencia, existe la posibilidad de referir cualquier efecto acelerador a los correspondientes campos gravitacionales, que modifican la estructura geométrica del espacio. En definitiva, todo problema físico hay que resolverlo mediante el estudio de las propiedades geométricas del espacio. Esta teoría contiene como caso límite la teoría «restringida»: conserva todas las consecuencias propias de la anterior y añade otras que la someten a ulteriores controles experimentales. Entre éstos, además de las trayectorias exactas de los diversos planetas, recordemos la deflexión de un rayo de luz debido a un campo gravitacional (AS. Eddington, 1919) y el desplazamiento de las líneas espectrales de la luz

emitida por estrellas de gran masa (W.S. Adams, 1924). Se abre aquí un desarrollo de «ciencia normal», consistente por un lado en la elaboración de la cada vez más ardua parte matemática, y por el otro, en someter la construcción teórica a controles experimentales cada vez más perfeccionados y hasta el momento siempre con 'resultados positivos. Entre los numerosos experimentos que se hallan actualmente en estudio, son muy interesantes los referentes a la posibilidad de captar las ondas gravitacionales de origen cósmico, del mismo modo que se captan las ondas electromagnéticas.

2.3. La teoría de los cuantos

El estudio de los fenómenos de interacción entre la materia y las radiaciones, como ya se ha dicho, dio origen a otra vía distinta de investigación. «Cuanto» es el término acuñado por M. Planck (1858-1947) para solucionar un problema de emisión electromagnética: el problema del «cuerpo negro» (concepto abstracto, matemático, que indica un objeto que absorbe toda la energía radiante que incide sobre él transformándola en calor). La función que expresa la energía emitida por un cuerpo negro al variar la temperatura (J. Stefan, 1879) había resultado incompatible con la termo-dinámica, y por lo tanto con la mecánica clásica. La solución de Planck (1900) consiste en suponer que la energía no se emite ni se absorbe en forma -de radiación de la materia con continuidad, es decir, según cualquier magnitud de valores, sino únicamente de acuerdo con múltiplos enteros de determinada cantidad, iguales al producto entre la frecuencia v de la radiación y una cierta constante h, la constante de Planck; la cantidad h v se denomina «cuanto de energía», y la constante h, «cuanto de acción». Desde el punto de vista conceptual, lo que interesa es que Planck llega a su descubrimiento negándose a adaptar las teorías existentes a las evidencias experimentales contrarias: en este sentido, es comparable a Einstein. Y justamente de Einstein procede la primera verificación de la teoría de Planck. Aquél supone que toda radiación se ajusta a la hipótesis de los cuantos, y llama «fotón» a la partícula correspondiente a una radiación de frecuencia v y una cantidad de movimiento : esto le permite integrar el efecto fotoeléctrico en el seno de la teoría, lo cual sirve para confirmarla. En 1923 llevará a cabo con éxito una operación análoga con respecto a la difusión de rayos X o gamma por parte de los electrones (efecto Compton). Muy pronto se unificó con la teoría de los cuantos el estudio de la estructura del átomo, iniciado por J.J. Thomson (1856-1940) en 1897 al descubrir el electrón, cuya carga fue determinada por R.A Millikan (1868-1953) entre 1908 y 1911. No pasó mucho tiempo sin que se propusieran diversos modelos sobre el átomo: según J.B. Perrin (1870-1942) estaba formado por un núcleo central en torno al cual giran los electrones (1901); según lord Kelvin (1824-1907) hay en él una distribución uniforme de carga positiva en cuyo interior se hallan los electrones en situación de equilibrio (1902). Se trata de dos programas diferentes de investigación científica que entran en competencia: uno «nuclear» y otro «no nuclear»; E. Rutherford (1871-1937), gracias al histórico experimento del haz de partículas (núcleos de helio) sobre una finísima placa de oro, será quien haga prevalecer el primer programa (1911).

Nacía entonces el problema referente a cuál era la situación de los electrones en torno al núcleo. La primera respuesta (1913) provino de N.H. Bohr (1885-1962). Éste supuso que los electrones giraban en órbitas circulares muy definidas, calculables mediante las leyes de los cuantos de energía, y que los átomos absorbían y emitían energía a través de saltos 'de los electrones de una órbita a otra, más alta o más baja, respectivamente. Muy pronto este modelo (1916) fue perfeccionado por AJ. Sommerfeld (1868-1951). Las primeras confirmaciones -pero también algunas falsaciones parciales- proceden de experimentos de espectroscopía. No obstante, el histórico experimento (1921-1922) de o. Stern (1888-1969) y W. Gerlach (n. 1889) brinda a la teoría de Bohr, y a toda la teoría cuántica, una de sus confirmaciones más sólidas. Es evidente que estas nociones, referidas a los ámbitos microscópicos, contrastan con las de Maxwell, referentes a los ámbitos macroscópicos. Sin embargo, el mismo Bohr supera la potencial contradicción, proponiendo (1916) interpretar la teoría de Maxwell como una descripción estadística de lo que sucede en el caso de una gran cantidad de componentes elementales. Se enuncia así por primera vez el «principio de correspondencia», que constituye una de las claves para comprender y aplicar la teoría de los cuantos. Se trata de una noción semejante a la que, en el siglo XIX, había permitido superar la oposición potencial que se había evidenciado entre la termodinámica y la mecánica clásica, aplicada microscópicamente. En 1?24 la teoría se enriquece aún más, gracias a LV. De Broglie (n. 1892). Este formula la hipótesis según la cual, así como a toda onda electromagnética le corresponde un corpúsculo, sucede a la inversa que a toda partícula, con una masa mo en reposo y una velocidad v, le corresponde una onda de longitud A = h- m0 v colocan-do así las bases para un nuevo derrotero de estudio teórico, la llamada «mecánica ondulatoria». La constatación -establecida gracias a una base experimental cada vez más amplia- de que no es posible renunciar al estudio de los fenómenos mecánicos y electromagnéticos ni al modelo corpuscular o al ondulatorio, permite que Bohr deduzca la teoría según la cual todo fenómeno presenta en realidad dos aspectos, que son en ambos casos verdaderos y se complementan y excluyen recíprocamente. Tal es, en substancia, el «principio de complementariedad», base de la ley cuantitativa de la indeterminación que formula W. Heisenoérg (1901-1976), y que establece unos límites precisos a la posible «determinación simultánea» de magnitudes que se refieren a los dos aspectos complementarios. Por ejemplo, resulta imposible determinar, en un instante dado, la posición y el momento (es decir, el producto entre velocidad y masa) de una partícula con precisiones pequeñas fijadas de forma arbitraria: cuanto más determinada se halla una

magnitud, será posible determinar la otra con una precisión correlativamente menor, y a la inversa. La mecánica ondu-latoria es sistematizada teóricamente por E. Schródinger (1887-1961), quien determina la ecuación a la cual debe ajustarse la onda de De Broglie (1926); Max Born (1882-1960) interpreta dicha ecuación de onda como un dato con un significado probabilista.

Llegamos así a la base de la interpretación de toda la teoría de los cuantos en un sentido no determinista. Se trata por lo tanto de un enfoque muy distinto al que había prevalecido en el caso de la mecánica clásica a lo largo del siglo XIX. A pesar de ello, no faltaron interpretaciones contrarias, por ejemplo la llamada «de las variables ocultas», que tendía a reconducir la indeterminación observada a la existencia de algunas variables no conocidas. En cualquier caso, la interpretación triunfante fue la «interpretación de Copenhague», que se extendió gracias a la figura de Bohr en el centro de investigación de Copenhague (dirigido y fundado por el propio Bohr, y en el que participaron Heisenberg, Born, P.A.M. Dirac -no 1902-, W. Pauli -1900-1958- y muchos otros de los más prestigiosos sabios de la época) así como en los congresos organizados a partir de 1911 por E. Solvay (1838-1922) y que continuaron después de su muerte. En su Lógica del descubrimiento científico, Popper estigmatiza este tipo de concepción porque pone límites de principio al conocimiento posible, y por tanto a la investigación científica básica; asume también una postura análoga con respecto a la insuperabilidad de la velocidad de la luz afirmada por Einstein. Popper observa que sólo puede hacer que progrese el conocimiento si tratamos de superar los actuales límites, y no obligándonos a permanecer más acá de ellos.

La teoría de los cuantos halla en 1927 una primera axiomatización gracias a Dirac y a P. Jordan (n. 1902), y una segunda, más general, elaborada por J. von Neumann (1903-1957) en 1930. A partir de aquel momento el estudio de la teoría cuántica consistirá básicamente en extender sus aplicaciones y replantear su formulación de un modo más perfec-cionado, sin efectuar ninguna crítica de sus principios fundamentales. Como en el caso de la relatividad, pues, se abre un período de «ciencia normal», por lo menos dentro de los límites en que dicho término resulta aplicable a una ciencia durante un período en que ésta se halla dominada por dos paradigmas y no por uno solo. Entre 1925 y 1940 se desarrollan y se estudian las primeras ecuaciones que aplican al mismo tiempo las dos teorías fundamentales. Entre sus autores más conocidos, hay que citar a Schródinger, Pauli, Dirac, O. Klein, W. Gordon y E. Majorana (1906-1938).

Las investigaciones en este sector aún se hallan en curso. Sin embargo, los numerosos y continuados intentos de construir una teoría unificada de la naturaleza hasta ahora no han producido ningún resultado significativo, a pesar de que a ello se hayan dedicado sabios de la categoría de Einstein o Heisenberg. En cambio, podemos hallar innovaciones posteriores, de carácter fundamental, en el sector en el cual el único límite que ha encontrado el investigador ha sido el de la instrumentación técnica, en rápida evolución por lo demás. Se trata del sector correspondiente a la estructura interna del núcleo.

2.4. Física atómica, nuclear y subnuclear

Después del descubrimiento del electrón y de la estructura nuclear del átomo, la atención de los físicos se concentró en este último. En 1925 Pauli formula el «principio de exclusión», que permite colocar los electrones alrededor del núcleo, de un modo coherente con los descubrimientos de la química. A partir de ese momento, el estudio de las estructuras electrónicas se convertirá en ámbito propio de la química. Bohr bautiza con el nombre de «protones» las partículas cargadas positivamente que se hallan presentes en el núcleo. Los experimentos de F.W. Aston (1887-1945) en los años 1919 y 1920 sobre los isótopos (descubiertos en 1912 por F. Soddy, 1877-1956) exigen un tercer tipo de partículas, pesadas y eléctricamente neutras: los neutrones, cuya existencia fue demostrada experimentalmente por J. Chadwick (1891-1974) en 1932. Se proponen entonces los primeros modelos del núcleo (H.A. Bethe, n. 1906; G.c. Wick, n. 1909, y sobre todo Bohr junto con J.A. Wheeler, n. 1911). Sin embargo, el cuadro se complicó con mucha rapidez porque se descubrió gran cantidad de nuevas partículas elementales, comenzado por la familia de los «mesones», cuyo primer componente había sido formulado teóricamente por Heisenberg y Majorana, y comprobado experimentalmente por H. Yukawa (n. 1907) en 1935.

Resulta notable la historia de otra partícula elemental: el «neutrino». Éste había sido propuesto por Pauli en 1930, para explicar determinados fenómenos radioactivos, y la teoría había sido formulada de un modo que no permitía su comprobación en ningún caso, con los instrumentos disponibles en aquella época. Se trataba por lo tanto de una teoría que tenía todo el aspecto de una hipótesis ad hoc para salvar la teoría de los cuantos, con respecto a evidencias al parecer contradictorias. Hubo que dejar pasar unos treinta años para lograr una prueba experimental de la existencia del neutrino, yen consecuencia, para el ingreso efectivo de esta teoría en el ámbito de la ciencia.

El descubrimiento del neutrón implicó la introducción de un tercer tipo de fuerza, además de la gravitacional y de la electromagnética: la «interacción fuerte». El estudio del neutrino puso de manifiesto una cuarta clase de fuerza, la «interacción débil». A lo largo de décadas se han ido sucediendo los intentos de unificar las teorías de las cuatro fuerzas fundamentales de la naturaleza, pero hasta ahora sólo se han obtenido resultados parciales.

En cambio, se encuentra más avanzado el proceso de simplificación de los componentes elementales de la naturaleza: las más de cien partículas que se han propuesto teóricamente y se han experimentado a partir de la década de 1930 hasta hoy parecen reductibles a combinaciones de unas cuantas partículas subelementales (3, 4, 5, 6...) llamadas «quarks», y cuya hipótesis fue formulada por M. Gell-Mann (n. 1924) por primera vez. La primera teoría en este sentido se ha emitido en época reciente, y son aún más recientes los primeros datos experimentales significativos a este res-pecto. Sin embargo, el conjunto de la cuestión todavía resulta poco claro, y se espera que en un futuro no demasiado lejano surja una respuesta más precisa.

En cambio, ha sido muy rápido el avance técnico en los estudios nucleares: el camino abierto por Rutherford -experimentar el bombardeo de núcleos con partículas más pequeñas- se ha mostrado muy fecundo, sobre todo a partir de la década de 1930, gracias a la aparición de aparatos que podían otorgar elevadas velocidades a los proyectiles (R.J. van der Graaf, 1901-1967; E.O. Lawrence, 1901-1958). .

Entre los experimentadores de dicho período destacan los esposos Irene (1897-1956) y Frédéric (1900-1958) Joliot-Curie, así como el grupo de Roma dirigido por E. Fermi (1901-1954) y formado por E. Amaldi, n. 1908; E. Segré, n. 1905; B. Pontecorvo, n. 1913; F. Rasetti, n. 1901; Majorana y Wick. Gracias a estas investigaciones pronto se descubrió que un átomo de uranio bombardeado por protones puede romperse en dos partes y liberar algmios neutrones, junto con una enorme cantidad de energía (la fisión nuclear, 1938: O. Hahn, 1879-1968, y F. Strassmann, n. 1902), y que los neutrones liberados en determinadas condiciones pueden dividir otros núcleos de. uranio en una sucesión continuada (reacción en cadena, teoría aparecida en 1939, debida sobre todo a H. van Halban y J.B. Perrin). Estos dos descubrimientos llevarán a Fermi a la pila atómica (1942), y a otros, a la bomba atómica (1945). En las dos aplicaciones distintas, la teoría es la misma: en el primer caso, la reacción en cadena se hace más lenta debido a que entre los diversos bloques de uranio se interponen determinadas substancias que vuelven más lenta la difusión de los neutrones, mientras que en el segundo caso la reacción se produce a enorme velocidad, desarrollando la energía en un tiempo brevísimo. La primera está en la base del funcionamiento de las centrales eléctricas con energía nuclear, de los motores a propulsión nuclear y de muchas otras aplicaciones pacíficas; la segunda, en cambio, está en el origen de letales ingenios bélicos.

Sin embargo, la bomba de fisión no es el ingenio destructor más poderoso realizado hasta ahora. En los años cincuenta se experimentó (fabricandú numerosos ejemplares) con una bomba basada en la agregación de varios núcleos de hidrógeno, para obtener elio y gran cantidad de energía (fusión nuclear). Afortunadamente, ésta nunca ha sido experimentada sobre el hombre; sin embargo, aún no se ha logrado controlar esta reacción nuclear, haciendo que se desarrolle lentamente: si tal cosa fuese posible, el problema energético quedaría resuelto durante siglos. Siguen activas las investigaciones en este terreno.

2.5. La interdisciplinariedad y las disciplinas «de frontera»

A partir de principios del siglo XIX, se ha ido produciendo un proceso de gradual especialización de los científicos y hoy podemos comprobar los efectos de dicho proceso hasta un límite muy notable. No obstante, sería erróneo ver en esto un rasgo característico de la ciencia avanzada: la división de los conocimientos en diversas disciplinas a menudo no es más que una mera convención, y la especialización es un alto precio que se ha pagado a la vertiginosa rapidez del progreso. Como ha demostrado Popper, la ciencia tiene su origen en los problemas, y por lo general, éstos no se hallan enmarcados dentro de esquematismos académicos. En consecuencia, hay que entenderlos como oportunos mecanismos correctores de la anómala situación en que se halla la actual investigación científica dos realidades metodológicas que han surgido en este siglo y que caracterizan la investigación actual. La primera es la institución de los equipos formados por estudiosos con culturas y formaciones diversas. En los progresos más recientes de la investigación biomédica, y en particular en aquellos que han llevado a la biología molecular, pueden comprobarse magníficos ejemplos de la validez y la fecundidad de este modo de investigar. Entre los físicos que han participado en este sector -junto a médicos, químicos y biólogos- recordemos a M. Delbrück (n. 1906), F.H.C. Crick (n. 1916) y los ya citados Bohr, Schródinger y Jordan. Otra figura simbólica, debido a la multiplicidad de sus campos de interés, es la del químico, físico y biólogo, L. Pauling (n. 1901). La segunda realidad está constituida por el nacimiento y desarrollo de las disciplinas «de frontera», a caballo entre los sectores tradicionales del saber: entre ellas, recordemos la química física, la astrofísica, la bioquímica, la biofísica, la geofísica y muchas otras. Est¡is nuevas disciplinas en sentido estricto, en lugar de contribuir a una posterior sectorización, constituyen (en unión a los equipos interdisciplinarios) canales a través de los cuales las disciplinas y los investigadores vuelven a entablar comunicación, después de alrededor de un siglo y medio de sepa-ración. Hallamos así una orientación hacia el carácter unitario de la investigación científica, que se había ido perdiendo a lo largo del siglo XIX.

3. LA BIOLOGÍA DESPUÉS DE DARWIN

3.1. El neodarwinismo: A. Weismann y H. De Vries

En esencia, Darwin había afirmado dos cosas: 1) las especies evolucionan, no son inmutables, se desarrollan gradualmente, dando origen así a las diferentes especies; 2) el mecanismo esencial de la evolución de la especie es la selección natural: el medio ambiente toma en consideración las variaciones de los individuos, descartando a los que presentan variaciones desfavorables y preservando a los que poseen los instrumentos más idóneos para adaptarse al ambiente a lo largo de la lucha por la existencia. Ahora bien, es evidente que la selección puede actuar sólo cuando las diferencias individuales sean transmisibles a los descendientes, porque si los individuos de una especie son todos iguales o si los caracteres por los cuales difieren no son transmisibles por herencia, la teoría de Darwin no podía existir. Que los individuos de una especie son distintos entre sí es un dato de hecho. Aquí, empero, se plantean dos graves cuestiones posteriores: a) ¿cuáles son las causas de las diferencias individuales?; b) si estas diferencias son hereditarias, ¿de qué manera se transmiten a los descendientes?

Como se advierte en las últimas ediciones del Origen de las especies, Darwin se había pronunciado a favor de la heredabilidad de los caracteres adquiridos por los organismo bajo la acción del medio ambiente. En este terreno se aproximaba a Lamarck, aunque de la doctrina de este autor negaba la concepción referente a una tendencia interna, situada dentro de los organismos y que habría impulsado a éstos a perfeccionarse. (En cierto modo esta idea fue defendida por el suizo Karl Wilhelm von Nageli, 1817-1891, a través de su teoóa de la «ortogénesis», donde se habla de una fuerza psicoquímica análoga a la fuerza de inercia en la mecánica.) El zoólogo alemán August Weismann (1834-1914), uno de los representantes más batalladores del neodarwinismo, se opuso tajantemente a la propuesta neolamarckiana, rechazando de manera total el influjo del ambiente y negando la noción de herencia de los caracteres adquiridos. Para confirmar su postura, cortó la cola a varias generaciones sucesivas de ratones recién nacidos y comprobó que todos los ratones nacían con su cola normal, sin que se hubiese transmitido este carácter adquirido. Estos experimentos de Weismann, junto con otros más perfeccionados, confirmaron la teoría según la cual las variaciones (color, altura, etc.) sobre las cuales actúa más tarde la selección, no provienen del ambiente (que instruióa al organismo) sino del interior del organismo. En el Ensayo sobre la herencia y sobre cuestiones biológicas afines (1892) Weismann distinguió entre el «germoplasma», responsable de la transmisión de los caracteres hereditarios, y el «soma» o plasma del cuerpo. Weismann afirma que el germoplasma es la parte más importante de un organismo: él es el que determina las formas y los rasgos asumidos por el plasma del cuerpo. El cuerpo sólo sirve para nutrir al germoplasma, de modo que haga posible la reproducción de éste. Aquí encontramos la razón -señala Weismann- que explica por qué no son hereditarias las modificaciones del soma (por ejemplo, la cola amputada de los ratones). Aunque trabajando sobre temas difíciles y novedosos, Weismann trató de explicar el origen de la variabilidad, atribuyendo su causa a la reproducción sexual, que une dos patrimonios hereditarios en una mezcla (que Weismann bautizó con el nombre «anfimixis») que serían el origen de la variabilidad. (Más adelante, la genética confirmará la teoría de Weismann pero limitando su alcance, en el sentido de que cada fecundación provoca una nueva combinación de los genes existentes en una población.)

Mientras tanto, el botánico holandés Hugo De Vries (1848-1935), observando una planta ornamental-la Oenothera lamarckiana, que había readquirido carácter silvestre en las campiñas de los Países Bajos- cayó en la cuenta de que, además del tipo normal de la especie, en la población de la planta había algunos individuos notablemente diferentes del tipo normal, por ejemplo en su altura (había individuos enanos e individuos gigantes), la forma de las hojas, etc. De Vries hizo que estos individuos «extraños» se reprodujeran y constató que sus caracteres aberrantes se retransmitían a las generaciones sucesivas. De Vries, por lo tanto, captaba la evolución en acto: además de los individuos normales, una especie reproduce individuos manifiestamente anormales (en un porcentaje del 1 ó2 %). De Vries bautiza con el nombre de «mutaciones» estas variaciones manifiestas, que se transmiten hereditariamente. Darwin había observado algunas de estas variaciones de gran alcance y también le habían hablado de ellas los criadores de animales, que las llamaban «bromas». Sin embargo, no les había concedido demasiada importancia y pensaba que la selección actúa sobre variaciones pequeñas, de mínima entidad. De Vries rectificó tal postura, proponiendo, con base en sus propias observaciones, la noción de «evolución a saltos»: toda especie produce, en determinada época de su existencia, mutaciones, es decir, individuos que se alejan mucho de la norma. La selección actúa sobre este material notablemente variado (mutado), con la consecuencia de que desde una misma especie originaria pueden evolucionar distintas especies, y si hallan las condiciones requeridas, pueden hacerlo incluso en medios diferentes. En cualquier caso, aunque defendía que las mutaciones son substancialmente independientes del medio ambiente, De Vries ignoraba las causas de tales mutaciones. Por lo tanto, éstas son las dos aportaciones más relevantes del neodarwinismo: la variabilidad es independiente del medio ambiente; la selección obra sobre variaciones manifiestas, sobre mutaciones, caracteres de nueva aparición. De todas maneras, continuaba habiendo problemas y de envergadura. En efecto, la teoría de la

evolución tiene uno de sus puntos decisivos en las desemejanzas o variaciones que en el interior de una misma especie caracterizan a los diferentes individuos. Por consiguiente, no podía evitar los interrogantes antes mencionados y tenía que volver sobre ellos, a pesar de las aportaciones efectuadas por investigadores como Wiesmann y De Vries: ¿por qué razones urgen las variaciones'?, ¿de qué modo se transmiten en la reproducción? Estos son los problemas que a principio del siglo xx darán origen a la nueva disciplina bautizada en 1906 con el nombre de «genética».

3.2. El descubrimiento de los cromosomas y el redescubrimiento de las leyes de Mendel

La genética se enmarca en el seno de la teoría evolutiva, en la medida en que esta teoría tenía que explicar los mecanismos de la herencia biológica. Como hemos visto en el capítulo sobre el desarrollo del pensamiento científico "en el siglo XIX, ya en 1866 Mendel había descubierto las leyes que sirven de fundamento a la genética. Había enviado el resultado de sus investigaciones a Niigeli, pero éste no advirtió su importancia. Mendel cruzó y fecundó artificialmente una variedad alta y otra baja de guisantes, y obtuvo semillas que producían sólo plantas altas. Éstas, autofecundadas, producían plantas altas y bajas con una proporción de 3 a 1. De 1/4 de las plantas bajas así obtenidas sólo nacían plantas bajas, mientras que de los 3/4 de las plantas altas, una parte (el 25 % del total de la segunda generación) sólo daba plantas altas, mientras que el 50 % restante daba origep. al reproducirse a un 75 % de plantas altas y a un 25 % de plantas bajas. Esta es la primera ley de Mendel: la ley de la segregación. Si se cruzan plantas o animales que difieren en más de un par de caracteres, éstos se volverán a combinar de todas las maneras posibles. Ésta es la segunda ley de Mendel: la ley de la independencia. Así, por ejemplo, si cruzamos guisantes de semilla amarilla y lisa con guisantes de semilla verde y rugosa, en la primera generación se obtendrán plantas con semillas que presentan los dos caracteres dominantes, por ejemplo, amarillo y liso. En la segunda generación, obtenemos cuatro tipos de individuos que manifiestan las cuatro combinaciones posibles, dos ya producidas en el cruzamiento y otras dos nuevas: amarillo liso, amarillo rugoso, verde liso y verde rugoso. Descubiertas quizás con demasiada anticipación para su época, las leyes de Mendel fueron redescubiertas a principios del siglo xx, en un momento en que ya se podía comprender su relevancia y advertir su fecundidad. En efecto, entre 1870 y 1880 el alemán Walther Flemming (1843-1905), utilizando una substancia colorante (la cromatina), descubrió que en el interior del núcleo de la célula había objetos filiformes, los cromosomas, y vio que en el momento crucial de la división de la célula (mitosis) cada cromosoma producía una copia de sí mismo. Flemming publicó estos resultados en 1882. Continuando las investigaciones del citólogo alemán, el belga Edward van Beneden (1846-1919) demostró que hay una cantidad fija y constante de cromosomas en cada especie animal o vegetal: las células del hombre contienen 46, repartidos en 23 pares; el maíz tiene 20, en 10 pares; la mosca, 12, en 6 pares; la Drosophila (mosca del vinagre, que se convertirá más tarde en el héroe de la genética), 8, en 4 pares. (Cada uno de los dos cromosomas que constituyen un par de cromosomas proceden respectivamente del padre y de la madre.) Además, van Beneden descubrió que en la formación de las células sexuales (el óvulo y el espermatozoide) la división de los cromosomas, para formar la nueva célula, no estaba precedida del desdoblamiento. Si no se llevase a cabo este proceso, la meiosis, ocurriría que a cada nueva generación el individuo originado gracias a la unión de dos células tendría una doble dotación de cromosomas.

En este momento, vuelven a descubrirse las leyes de Mendel. Sucede entonces que todos estos estudios sobre los cromosomas se iluminan repentinamente y toda una serie de descubrimientos anteriores se integran en un marco racional y coherente. Fue así como el citólogo estadounidense Walter S. Sutton (1876-1916) señaló en 1902 que los cromosomas se comportan como los factores hereditarios de Mendel: cada célula posee una cantidad fija de pares de cromosomas y cada uno de éstos transmite la capacidad de determinar caracteres físicos de una a otra célula. En cada par de cromo sornas del nuevo organismo, uno de ellos proviene de la madre a través del óvulo, y el otro procede del padre a través del espermatozoide. Esta nueva combinación de cromo sornas que tiene lugar en cada generación tiende a poner de manifiesto los caracteres recesivos que se habían - visto antes dejados a un lado por un carácter dominante. Las combinaciones siempre nuevas producen aquellas variaciones de caracteres que más tarde serán aprovechadas por la selección natural.

3.3. En el interior del cromosoma: los genes

Las cosas no se quedaron aquí, puesto que en el lapso que transcurre entre 1910 y 1920 el zoólogo estadounidense Thomas Hunt Morgan (1866-1945) mostró que en los cromosomas (que están, como se ha dicho, en el interior del núcleo de cada célula) se encuentran los genes, dispuestos de acuerdo con un orden. Los genes, que pueden concebirse como partículas materiales y que tienen el tamaño de una gran molécula de proteína, constituyen el patrimonio hereditario del individuo. «Son capaces de reproducirse conservando su propia individualidad, su propia independencia con respecto a los otros genes, y por tanto la capacidad de recombinarse en todos los modos posibles, así como la capacidad de dar origen a los caracteres que representan» (G. Montalenti). Morgan trabajó sobre la Drosophila

melanogaster, insecto que posee sólo cuatro pares de cromosomas y que se desarrolla desde el óvulo hasta el estado adulto en sólo doce días. Las investigaciones sobre la Drosophila revelaron que los rasgos que solían heredarse juntos a veces se separaban. Morgan interpretó este hecho en el sentido de que el cromosoma que contenía los genes se había dividido entre las posiciones determinantes de aquellos rasgos, y más tarde se había unido a un fragmento similar procedente de otro cromosoma dividido. Mientras tanto, en 1927, Hermann Joseph Muller -alumno de Morgan- publica un descubrimiento sensacional: bombardeando con rayos X los gametos (los espermatozoide s y los óvulos de los animales, los granos de polen y los óvulos de las plantas) se obtiene un porcentaje elevadísimo de mutaciones. Este descubrimiento fue de una gran importancia, porque abrió el camino a investigaciones referentes al proceso de mutación y a la naturaleza y la estructúra del gen. Antes de la segunda guerra mundial, la genética había llegado a establecer que: 1) los genes representan los caracteres hereditarios; 2) están localizados en los cromosomas y asumen un orden lineal; 3) los cromosomas son constantes, en cantidad y calidad, para cada especie; 4) dichas estructuras son constantes, pero sin embargo resultan susceptibles de variaciones; 5) «dichas variaciones, las mutaciones, se dividen en tres categorías: génicas, constituidas por el paso de un único gen a un estado de alelo; cromosómicas, variaciones estructurales de un único cromosoma, con la consiguiente variación del orden lineal de los genes; y mutaciones genómicas, variaciones en la cantidad de cromosomas, que en ciertas condiciones y con unas limitaciones determinadas, también son posibles» (G. Montalenti). Al mismo tíempo, la biología molecular se había ido desarrollando, y el siguiente gran paso adelante estará constituido por el descubrimiento del código genético, que lleva el análisis al interior mismo del gen. Todo esto sirve como prueba del gran esfuerzo humano para capturar entre las redes de la razón la vida y su desarrollo. A este respecto hay que decir que si la teoría de la evolución es un intento de comprender la historia de la vida, otro problema inevitable -y que también posee serias implicaciones filosóficas- era y sigue siendo el del origen de la vida. En definitiva, continúa la antigua controversia sobre la generación espontánea: ¿la vida proviene de la materia, o bien omne vivum e vivo? Hoy se sabe que ningún organismo, a partir de las bacterias, nace por generación espontánea. Es cierto que el descubrimiento de los virus filtrables (ultravirus) pareció constituir un paso importante hacia la abiogénesis. Sin embargo, dado que estos virus son parásitos, no es posible considerados como origen de la vida, ya que presuponen la existencia de organismos más complejos, las células de las cuales son parásitos. Más interesante resulta la propuesta realizada recientemente por R.C. Vrey, en 1952-1953, y experimentada por S. Miller entre 1953 y 1957, referente a la formación de compuestos orgánicos complejos, por ejemplo los aminoácidos, que son las moléculas fundamentales de las proteínas, las cuales a su vez constituyen los elementos básicos del protoplasma. Miller sometió durante varios días una mezcla de agua, hidrógeno, metano y amoníaco a una chispa eléctrica proveniente de una corriente de alta frecuencia, y obtuvo moléculas complejas, por ejemplo, aminoácidos, urea, etc. Como es obvio, este experimento no es suficiente para decidir la cuestión acerca del origen de la vida. El problema continúa abierto. Basta con dejar constancia de ello.

3.4. El código genérico

Durante mucho tiempo los genetistas estudiaron los caracteres hereditarios dedicándose a poner en claro el mecanismo de su transmisión de un individuo a otro, pero olvidando indagar la naturaleza de las moléculas que actúan como vectores de dicha transmisión. Se conocía la existencia de macromoléculas como las proteínas y los ácidos nucleicos, y se suponía que éstos ejercían un papel fundamental en el fenómeno, pero hasta la década de 1940 no se nició un tratamiento experimental del problema de las bases moleculares de la herencia. Hacia 1944, O.T. Avery (1877-1955), del Instituto Rockefeller de Nueva York, había conseguido pruebas elocuentes de que los rasgos hereditarios se transmitían desde una célula bacteriana a otra a través del ácido desoxirribonucleico (ADN). Por otra parte, se sabía desde tiempo atrás que el núcleo de las células animales, que contiene los cromosomas y, por lo tanto, los genes, era el órgano sub nuclear más rico en ácidos nucleicos y, sobre todo, en ADN. Las macromoléculas de ADN son polímeros constituidos por residuos de ácido fosfórico, de un azúcar -desoxirribosa- y de bases azoicas, guanina, citosina y timina.

A principios de la década de 1950, siguiendo las huellas de los trabajos de L. Pauling que habían ilustrado la estructura de las proteínas -macromoléculas helicoidales constituidas por diversas combinaciones de una veintena de aminoácidos- se afrontó el problema de la macromolécula de ADN, que se suponía poseedora de una estructura helicoidal constituida por diferentes combinaciones de cuatro nucleótidos distintos. Cada nucleótido está compuesto por un resto de ácido fosfórico, una molécula de desoxirribosa y una de las cuatro bases azoicas. Las investigaciones se efectuaron empleando métodos químicos y cristalográficos, y para la solución del problema fueron de importancia los datos recogidos por E. Chargaff (nacido en 1905) que había demostrado en diversas muestras de ADN la igualdad de restos de timina y adenina, y la de restos de citosina y guanina. La idea de colocar los componentes moleculares de ADN en forma de doble hélice estabilizada por las interacciones entre bases azoicas complementarias -respectivamente, adenina-timina y citosina-guanina- fue elaborada en Cambridge por F. Crick y J. Watson (n. 1928), mientras que los datos de difracción de los rayos X necesarios para verificar dicho modelo fueron proporcionados por M. Wilkins (n. 1916).

El modelo de doble hélice consta de dos cadenas polinucleotídicas que giran en sentido necesariamente helicoidal debido a los requisitos estructurales de las bases azoicas y de los puentes de hidrógeno que forman de modo

complementario. La naturaleza complementaria de las series de bases justifica el proceso de duplicación, es decir, la formación de dobles hélices partiendo de una hélice doble en la que se separan los dos filamentos. El ADN da lugar a un tipo de duplicación llamado semiconservador, y el hecho de que cada filamento de ADN dé origen a una nueva doble hélice fue descubierto por Meselson y Stahl en 1958, en Caltec. Además del ADN, existe otro tipo de ácido nucleico, el ribonucleico o ARN, presente principalmente en el citoplasma celular y que se distingue del ADN en el tipo de azúcar. En el ARN, se trata de ribosa, mientras que las bases azoicas son la adenina, la guanina, la citosina y el uracilo. La estructura del ARN parece asumir primordialmente un carácter de filamento único, y su actividad resulta decisiva -junto con la del ADN- como base molecular del mecanismo de transmisión genética. El material genético de la vida y todo lo que en el pasado se identificaba mediante el nombre de gen está constituido por el ADN, mientras que la rama biológica que trata de extraer -estudiando el comportamiento de moléculas como el DNA y el RNA- las leyes que regulan la transmisión de la herencia, recibe el nombre de «biología molecular».

A partir deo1941 se sabía que cada gen controla la formación de una enzima, como fue demostrado por G.W. Beadle (n. 1903) y E.L. Tatum (n. 1909). Puesto que las enzimas son proteínas -es decir, filamentos constituidos por bases azoicas- pronto se puso de manifiesto que la secuencia de bases del ADN podía determinar en cierto modo la secuencia de ami-noácidos de las proteínas. El problema residía en entender cómo un alfabeto compuesto por cuatro letras podía representar a un grupo de unas veinte letras. Puesto que combinando las cuatro bases, dos a dos, sólo se obtienen 16 combinaciones, quedó en evidencia que era necesario combinar las bases tres a tres para obtener 64 combinaciones, que eran más que suficientes para representar los veintiún aminoácidos presentes en las proteínas. Así, cada «triplete» de bases azoicas representa un aminoácido.

En 1955 S. Ochoa logró sintetizar ARN in vitro y en 1956 A. Kornberg obtuvo -también in vitro- ADN. En 1961 F. Jacob y J. Monod demostraron la existencia de un ARN mensajero, es decir, una macromolécula de ARN que se sintetiza según el modelo de ADN (proceso de transcripción) y se engancha a los ribosomas, partículas subcelulares del citoplasma donde tiene lugar la síntesis proteica. El ARN mensajero es una especie de cinta que contiene la secuencia proteica, escrita en código de triplete. Dicha cinta es leída por el ribosoma, que puede así construir la proteína correspondiente a la secuencia especificada en la molécula del ARN mensajero. En los años 60 M.W. Nirenberg y J.N. Matthei -incubando con extractos de Escherichia co/i moléculas de ARN sintético constituidas por una sola base, uracilo- lograron formar un polipéptido constituido por una secuencia de un solo aminoácido, polifenilalanina. El triplete uracilo-uracilo-uracilo designaba así al amino ácido fenilalanina, y este descubrimiento permitió descifrar la clave del código genético, igual que la piedra Rosetta permitó descifrar los jeroglíficos egipcios. Todo el código fue puesto en claro por Nirenberg, Crick, Khorana y otros, que identificaron el significado de los 64 tripletes que constituían el código mismo. Los tipos de ARN identificados en la célula son el ARN ribosómico, con un elevado peso molecular; el ARN mensajero, y un ARN soluble llamado ARN transferente o ARN 1. El proceso mediante el cual la información genética se transmite del ADN al ARN se llama «transcripción», y es una enzima -el ARN polimerasa- la que cataliza la síntesis del RNA mensajero sobre el modelo constituido por el ADN. La síntesis de la cadena polipeptídica que concreta en la secuencia proteica la información procedente del ADN tiene lugar en el proceso llamado de «traducción». En consecuencia, puede representarse así -de modo abreviado-la secuencia de todo el proceso de biosíntesis proteica:

La copia del ADN y la transcripción del ARN mensajero se llevan a cabo gracias a las posibilidades de acoplamiento estereoespecífico de bases azoicas complementarias: la adenina reconoce la timina, y la citosina reconoce la guanina. El proceso de traducción se realiza a través de vectores intermedios, que son moléculas de ARN t, capaces de ligar tanto aminoácidos como bases azoicas. Existen, pues, una veintena de ARN t que son capaces cada uno de ellos de fijar un aminoácido, y están provistos de un lugar que reconoce una tripleta de ARN mensajero. El ARN t se dispone sobre el ribosoma y allí lee la cinta del mensajero que transporta el aminoácido especificado en el mensaje. De este modo se construye la secuencia de aminoácidos del ribosoma que posee la maquinaria enzimática necesaria para comenzar y terminar la lectura de la secuencia escrita en el ARN mensajero. El descubrimiento del código genético ha permitido interpretar de modo mecanicista fenómenos como la reproducción, la herencia, las variaciones y las mutaciones. Dicho código es universal y por lo tanto representa un lenguaje común a todos los organismos, desde los virus hasta las bacterias, las plantas y los animales. Se trata de una importante etapa en la realización del programa que aspiraba llevar el fenómeno de la vida al interior de la razón.

CAPITULO XXXVI

LA FILOSOFÍA DE LA CIENCIA ENTRE LAS DOS GUERRAS MUNDIALES. EL NEOPOSITIVISMO, EL OPERACIONISMO y LA EPISTEMOLOGÍA DE GASTON BACHELARD

1. DIRECTRICES GENERALES

En los años que transcurren entre las dos guerras mundiales, la reflexión sobre el método científico recibe un impulso decisivo. Durante ese período el centro principal de la filosofía de la ciencia fue la universidad de Viena, donde un grupo de científicos filósofos -reunidos en torno a Moritz Schlick- dieron vida al Círculo de Viena (el Wiener Kreis). El pensamiento de los miembros del Círculo se conoce con el nombre de «neopositivismo» o «positivismo lógico», y se caracteriza por una actitud decididamente antimetafísica y por toda una serie de profundos análisis de gran relevancia acerca del lenguaje, la estructura y los métodos de. las ciencias naturales, y los fundamentos de la matemática. El núcleo de fondo de la filosofía vienesa es el «principio de verificación», según el cual sólo tienen sentido las proposiciones que se pueden verificar empíricamente a través de los hechos de experiencia. Con base en dicho principio, los neopositivistas decretaron la insensatez de cualquier aserto metafísico y teológico, y afirmaron además que las normas éticas se reducían a un conjunto de emociones.

La llegada de Hitler al poder comportó el final del Wiener Kreis. Algunos de sus miembros (Carnap, Feigl, etc.) se exiliaron a los Estados Unidos y allí su pensamiento entró en simbiosis con las corrientes empíricopragmáticas de la filosofía norteamericana. Dicho contacto ensanchó en dirección semántico-pragmática las perspectivas del neopositivismo, que gracias a Carnap se dirigió hacia una mayor liberalización. Mientras sucedía esto en América, Wittgenstein imprimía un profundo giro a la filosofía inglesa, rechazando las pretensiones metafísicas y absolutistas del principio de verificación y encauzando la filosofía hacia el análisis de los diversos juegos lingüísticos que entretejen el lenguaje humano, que es mucho más rico, más articulado y más sensato en sus manifestaciones no científicas de lo que jamás hayan imaginado los neopositivistas. Mientras tanto, Karl R. Popper replanteaba sobre una base diferente los problemas de los neopositivistas, brindándoles soluciones distintas y más consistentes, sin negar para nada la sensatez de los lenguajes no científicos, como el de las proposiciones metafísicas.

No demasiado alejado de algunos de los núcleos centrales del neopositivismo se encuentra -siempre en el período entre las dos grandes guerras mundiales- el «operacionismo» del físico estadounidense Percy William Bridgman, que sostenía que el significado de los conceptos científicos se reducía a un conjunto de operaciones. Por esos mismos años, el francés Gaston Bachelard elaboraba una filosofía no positivista de la ciencia, cuyo influjo se ha podido comprobar con el paso de los años y cuyas ideas -por ejemplo, la de «ruptura epistemológica» o de «obstáculo epistemológico», y sobre todo su consideración de la historia de la ciencia como instrumento primordial para el análisis de la racionalidad- se han revelado cada vez más importantes en nuestros días. - .

2. EL NEOPOSITIVISMO VIENÉS

2.1. Los orígenes y la formación del Círculo de Viena

El neopositivismo es la filosofía del Círculo de Viena. Éste inició su andadura cuando el físico y filósofo Moritz Schlick (1882-1936) fue llamado desde Kiel a la universidad de Viena, para encargarse de la cátedra de Filosofía de las ciencias inductivas, cátedra que ya había ocupado Ernst Mach, a quien había sucedido más tarde Ludwig Boltzmann y Adolf St6hr (pensador de tendencia antimetafísica).

Viena constituía un terreno especialmente idóneo para el desarrollo de las ideas neopositivistas, dado que allí, durante la segunda mitad del siglo XIX, el liberalismo (con su patrimonio de ideas procedentes de la ilustración, el empirismo y el utilitarismo) representó la orientación política predominante. Además, la universidad de Viena, a diferencia de la mayo-ría de las universidades alemanas y debido al influjo de la Iglesia católica, se había mantenido básicamente in contaminada por el idealismo. Fue así como la mentalidad escolástica -según nos recuerda Neurath, uno de los miembros más activos del Círculo- preparó la base del enfoque lógico de las cuestiones filósoficas.

Schlick fue llamado a Viena en 1922. Sin embargo, narra Herbert Feigl, ya antes de la guerra de 1914-1918, «un grupo de jóvenes doctores de filosofía, la mayoría de los cuales habían estudiado física, matemática o ciencias sociales -y entre los cuales destacaban Philipp Frank, Hans Hahn, Richard von Mises y atto Neurath- se reunían los jueves por la noche en un café de la Viena antigua, para discutir sobre todo cuestiones de filosofía de la ciencia. En aquella época el positivismo de Ernst Mach constituía la principal inspiración de este pequeño grupo de estudiosos».

Estas reuniones anteriores a la primera guerra mundial se recordarán más adelante en el Círculo de Viena con simpatía y respeto como la época «prehistórica» del neopositivismo, cuya historia en sentido estricto comienza en 1924, cuando Herbert Feigl y Friedrich Waismann se entrevistaron con Schlick con la idea de formar un grupo de debate. Schlick aceptó la iniciativa, y como consecuencia comenzaron los coloquios del viernes por la noche. Este fue el inicio del

Círculo de Viena, que contó entre sus primeros miembros con el matemático Hans Hahn, el sociólogo y economista atto Neurath y su esposa alga (hermana de Hahn y también ella matemática y lógica), Felix Kaufmann (entonces profesor de filosofía del derecho), Victor Kraft (filósofo versado en historia e interesado por la metodología científica) y el matemático Kurt Reidemeister, quien en 1924 (o quizás en 1925) propuso leer y discutir el Tractatus logico-philo-sophicus de L. Wittgenstein. En 1926 también R. Carnap fue llamado a la universidad de Viena. Hahn y Schlick mostraron sus preferencias por él, en lugar de Hans Reichenbach, quien por su parte en Berlín había fundado la Sociedad para la Filosofía científica, entre cuyos miembros más relevantes hay que recordar a Richard von Mises (de origen vienés), Kurt Grelling, Walter Dubislav, Alexander Herzberg y, más adelante, los discípulos de Reichenbach: Carl G. Hempel y Olaf Helmer. Los objetivos y las actividades de la Sociedad Berlinesa eran análogos a los del Círculo de Viena. Desde un principio se establecieron lazos estrechos entre los dos grupos, basados también en las relaciones personales existentes entre Carnap y Reichenbach y entre von Mises y Philipp Frank, que en aquel tiempo era profesor de física en Praga. Frank, que no llegó a ser miembro efectivo del Círculo, pero que lo visitó con frecuencia (siendo, entre otras cosas, amigo de Hahn y de Schlick), se convirtió junto con este último en director de la colección «Schriften zur wissenschaftlichen Weltauffassung» (Escritos para una concepción científica del mundo), en la q\le se publicaron -entre otros- textos tan importantes como La ley de la causalidad y sus límites, de P. Frank (1932), Compendio de lógica, de Carnap (1929), Sintaxis lógica del lenguaje, también de Carnap (1934) y Lógica del descubrimiento científico, de Karl Popper (1935).

2.2. El manifiesto programático del «Wiener Kreis»

En 1929 se publicó, firmado por Neurath, Hahn y Carnap, el «manifiesto» del Círculo vienés: La concepción científica del mundo. Uno de los protagonistas de la filosofía neopositivista, Frank, recuerda así su origen, junto con las iniciativas del Círculo: «Hacia 1929 caímos en la cuenta de que estaba surgiendo una nueva filosofía, con motivo de la colaboración que se estaba llevando a cabo en Viena. A todos los padres les gusta mostrar las fotografías de sus propios hijos; también nosotros buscábamos medios de comunicación que nos permitiesen presentar al mundo el parto de nuestro cerebro, descubrir las reacciones de aquél y recibir nuevos estímulos. Por lo tanto, decidimos en primer lugar publicar una monografía sobre nuestro movimiento; más tarde, organizar un debate; por último, fundar una revista filosófica para difundir los trabajos del grupo. Mientras preparábamos la monografía, nos dimos cuenta de que nuestro movimien-to y nuestra filosofía no tenían nombre: muchos de nosotros nos oponíamos a los términos "filosofía" y "positivismo"; a otros no les gustaban los "ismos" propios o extraños. Finalmente, elegimos el nombre Wissenschaftliche Weltauffassung (concepción científica del mundo) [...]. Carnap, Hahn, y Neurath, en estrecha colaboración mutua, se ocuparon de la redacción del texto monográfico.»

Estas tres iniciativas pronto se hicieron realidad. En septiembre de 1929 se llevó a cabo en Praga un encuentro promovido por los grupos vienés y berlinés sobre la «Gnoseología de las ciencias exactas». (A dicho encuentro siguieron otros congresos, organizados también por los epistemólogos vieneses y berlineses: Konigsberg en 1930, Praga en 1934, París en 1935, Copenhague en 1936, París en 1937, Cambridge en 1938, universidad de Harvard, en los Estados Unidos, en 1939.) En 1930, bajo el título de «Erkenntnis» (Conocimiento), comenzó a publicarse la prestigiosa revista filosófica del movimiento, dirigida por Carnap y Reichenbach.

Las líneas esenciales del programa neopositivista, expuestas en el escrito programático antes citado, eran las siguientes: 1) constitución de una Einheitswissenschaft, una ciencia unificada, que abarcase todos los conocimientos proporcionados por la física, las ciencias naturales, la psicología, etc.; 2) el medio para lograr dicho propósito debía consistir en el uso del método de análisis lógico elaborado por Peano, Frege, Whitehead y Russell; 3) los resultados de la aplicación de ese método al material de las ciencias empíricas permitirían augurar: a) la eliminación de la metafísica; b) una clarificación de los conceptos y de las teorías de la ciencia empírica, así como de los fundamentos de la matemática.

En el escrito programático los predecesores del Círculo quedaban clasificados, según los temas correspondientes, en los grupos siguientes: a) positivismo y empirismo Hume, los ilustrados, Comte, Mill, Avenarius-, Mach; b) bases y métodos de las ciencias empíricas: Helmholtz, Riemann, Mach, Poincaré, Enriques, Duhem, Boltzmann, Einstein; c) logística: Leibniz, Peano, Frege, SchrOder, Russell, Whitehead, Wittgenstein; d) axiomática: Pasch, Peano, Vailati, Pieri, Hilbert; e) eudemonismo y sociología positivista: Epicuro, Hume, Bentham, MilI, Comte, Feuerbach, Marx, Spencer, Mueller-Lyer, Popper-Linkeus, Carl Menger (el economista). Esta larga serie de nombres resulta extraordinariamente relevante, porque nos indica con toda claridad la tradición, o mejor dicho, las tradiciones en las que se sitúa el neopositivismo.

2.3. Las teorías fundamentales del neopositivismo

En cuanto a las tesis fundamentales de la filosofía neopositivista, cabe decir que estos autores -a pesar de sus disparidades de criterio, a veces profundas (como en el caso de la polémica sobre los protocolos o aserciones de observación)- afirmaron lo siguiente: 1) el principio de verificación constituye el criterio distintivo entre proposiciones sensatas y proposiciones insensatas, de manera que dicho principio se configura como criterio de significación que delimita la esfera del lenguaje sensato con respecto al lenguaje carente de sentido, que sirve para expresar el mundo de nuestras emociones y nuestros miedos; 2) basándose en ese principio, sólo tienen sentido las proposiciones que pueden verificarse empírica o fácticamente, esto es, las aserciones de las ciencias empíricas; 3) la matemática y la lógica constituyen únicamente conjuntos de tautologías, estipulados de forma convencional e incapaces de decir algo acerca del mundo; 4) la metafísica, junto con la ética y la religión, al no estar constituidas por conceptos y proposiciones verificables de modo fáctico, son un conjunto de preguntas aparentes (Scheinfragen) que se basan en pseudoconceptos (Scheinbegriffe); 5) la labor que debe realizar el filósofo serio consiste en un análisis de la semántica (la relación entre lenguaje y realidad a la que se refiere aquél) y de la sintaxis (relación recíproca entre los signos de un lenguaje) del único discurso significativo: el discurso científico; 6) por lo tanto, la filosofía no es una doctrina, sino una actividad: actividad esclarecedora del lenguaje.

Si se tiene en cuenta esta concepción del quehacer filosófico y la competencia de los neopositivistas con las diferentes ciencias, no es difícil de concebir la gran aportación realizada por los vieneses en el análisis de las ciencias empíricas (causalidad, inducción, estatus de las leyes científicas, relación entre términos teóricos y términos de observación, probabilidad, etc.) y en los fundamentos de la lógica y de la matemática (basta recordar aquí el trabajo de Kurt Godel, que provocó un giro decisivo en los estudios de la lógica matemática). Lo cierto es que en Viena, gracias a la labor del Círculo, se consolidó decisivamente la filosofía de la ciencia, entendida a la manera moderna, como disciplina autónoma que se propone la explicitación consciente y sistemática del método y de las condiciones de validez de las aserciones efectuadas por los científicos.

2.4. La antimetafísica del «Wiener Kreis»

La actitud antimetafísica es una constante de la filosofía neopositivista. En el Tractatus logico-philosophicus, Wittgenstein sostiene que «la mayoría de las proposiciones y de las cuestiones que han sido escritas en materia de filosofía no son falsas, sino carentes de sentido». Siguiendo las huellas de Wittgenstein, Schlick compara a los metafísicos con los actores que actúan recitando su intrascendente papel cuando el teatro ya está vacío. En el ensayo Positivismo y realismo (1932), escribe que «aserciones como "realidad absoluta" o "ser trascendente", u otras del mismo género, no significan otra cosa que determinados estados de ánimo en particular». Rudolf Carnap desencadena un ataque contra la metafísica análogo al de Schlick, basándose también en el principio de verificación. En La superación de la metafísica mediante el análisis lógico del lenguaje (1932), Carnap afirma: «Ni Dios ni ningún diablo podrán damos jamás una metafísica.» Las proposiciones de la metafísica «sólo sirven para expresar sentimientos vitales». Un metafísico, según Carnap, quizás pueda expresarse de manera óptima a través de la música de Mozart: «Los metafísicos son músicos sin talento musical.» En resumen, para Carnap la metafísica surge cuando se aceptan como significativos términos que no implican una referencia a la experiencia, y se emplean tales términos (por ejemplo, «absoluto», «cosa en sí», «incondicionado», etc.) para construir frases que pretenden, sin logrado hablar de la realidad. Por otro lado, según Neurath constituía una tarea improrrogable «poner en funcionamiento un lenguaje lo más libre posible de la metafísica». Defensor de una sociología empírica, Neurath se oponía a la idea de Wittgenstein según la cual un hecho tendría que reflejarse en la estructura de una proposición, y también se mostró contrario a las conclusiones místicas del Tractatus, en alerta permante ante las infiltraciones metafísicas en el interior de las discusiones del Círculo. Su segunda esposa, Marie Neurath, y R.S. Cohen recuerdan, a este propósito, la anécdota siguiente: «Neurath interrumpía con frecuencia, exclamando "¡Metafísica!", durante el debate y la lectura del Tractatus de Wittgenstein en las reuniones del Círculo, lo cual irritaba a M. Schlick, quien acabó por decirIe que interrumpía los trabajos demasiado a menudo. Hans Hahn, adoptando una postura conciliadora, propuso a Neurath que se limitase a decir "M". Después de mucho refunfuñar, como narró Hempel más adelante, Neurath realizó otra propuesta a Schlick: "Pienso que ahorraríamos tiempo y cansancio si digo "No-M" cada vez que el grupo no esté hablando de metafísica".» El conocimiento científico, para Neurath, no puede ser sino el sistema de las proposiciones que aceptaban los científicos de la época, y el rechazo de la metafísica constituía para él una batalla exactamente igual a la que pudiera entablarse contra el enemigo político. Tal es, pues, la antimetafísica de Neurath. Hans Reichenbach, en la Introducción al primer volumen de la revista del Círculo, «Erkenntnis» (Conocimiento), afirmó que representa un hecho decididamente progresista el abandono de toda metafísica o poesía en conceptos (Begriffsdichtung), abandono posterior a lo que el mismo Reichenbach calificó de desdivinización (Entgotterung) de la naturaleza.

2.5. M. Schlick y el principio de verificación

Se ha dicho que los primeros miembros del Círculo de Viena leyeron) y comentaron el Tractatus logico-philosophicus de Ludwig Wittgenstein. Este había escrito que «comprender una proposición quiere decir saber cómo están las cosas en el caso de que sea verdad» (prop. 4.024). Para Schlick (véase su ensayo Significado y verificación) esto quería decir que «el significado de una proposición es el método de su verificación». En Positivismo y realismo, Schlick añade: «Es tarea específica de la filosofía la de buscar y aclarar el sentido de las aserciones y de las preguntas.» «El sentido de una proposición consiste únicamente en el hecho de que la proposición expresa un determinado estado de cosas», que hay que mostrar si se desea señalar cuál es el sentido de una proposición. Por lo tanto, «si queremos hallar el sentido de una proposición, debemos transformarIa a través de la introducción de sucesivas definiciones, hasta que por último nos encontremos ante palabras que no pueden definirse ulteriormente mediante palabras, cuyo significado sólo pueda mostrarse de forma directa. El criterio de verdad o falsedad de una proposición consiste en el hecho de que, bajo determinadas condiciones, algunos acontecimientos se produzcan o no. Si se ha establecido tal cosa, se ha establecido todo aquello de lo cual se habla en la proposición, y gracias a ello se conoce su sentido.» Como es obvio, la verificabilidad en cuestión no es una verificabilidad de hecho sino de principio «porque el sentido de una proposición no depende naturalmente del hecho de que las circunstancias en las cuales nos encontremos de manera directa en un sentido determinado nos permitan o nos impidan su verificación fáctica. La proposición "en la otra cara de la luna hay montañas de 3000 metros de altura" es sin ninguna duda absolutamente sensata, aunque nos falten medios técnicos para verificarla» .

Ésta era la misma línea que seguía Carnap, el Carnap de la Construcción lógica del mundo (1928), donde la reducción de todas las proposiciones de la ciencia, efectuada mediante el «sistema de constitución» (Konstitutionssystem), hacía que todo el edificio del lenguaje sensato, para resultar significativo, se apoyase en los Elementarerlebnisse, los datos de experiencia inmediata. En Problemas aparentes en filosofía (1928) Carnap sostiene: «El sentido de una proposición consiste en que expresa un estado de hecho (pensable, pero no necesariamente existente). Si una (presunta) proposición no expresa un estado de hecho (pensable), carece de sentido y por eso es una aserción sólo en apariencia. Si una proposición expresa un estado de hecho siempre posee significado; y es verdadera cuando existe dicho estado de hecho y falsa cuando no existe.» Carnap se muestra extremadamente claro: fuera de las expresiones lógicas y mate-máticas que no son más que transformaciones tautológicas, no se da otra fuente de conocimiento que no sea la experiencia. No hay ningún juicio sintético a priori, ninguna intuición y ninguna visión eidética. Las palabras sólo tienen significado cuando indican algo factual, los asertos sólo tienen un sentido cuando expresan un estado de cosas posible. Si no es así, en el primer caso habrá un Scheinbegriff (pseudoconcepto), y en el segundo, una Scheinsatz (pseudoproposición). Sólo si estamos en condiciones de decidir basándonos en los datos de la experiencia, será posible abandonar «aquella inextricable maraña de problemas que se conoce con el nombre de filosofía», escribe Carnap en su Sintaxis lógica del lenguaje.

2.6. Neurath y el fisicalismo

El principio de verificación se vio muy pronto sujeto a críticas muy severas. Muchos lo consideraron como un principio metafísico (o para ser más exactos, criptometafísico), que en nómbre de la ciencia condenaba.de modo apriorístico el sentido de cualquier otro discurso. Aparte de ello, en el principio de verificación la ciencia no parecía encontrar una sistematización capaz de salvada, dado que la ciencia se fundamentaba en experiencias totalmente subjetivas e inficionadas de solipsismo, como es el caso de las Erlebnisse. Las proposiciones elementales o protocolos, como señaló Kraft, eran algo más psicológico que lógico. y luego, una vez formado el principio de verificación, nos encontramos enseguida ante este dilema: el criterio es una aserción fáctica -y entonces ya no es una norma absoluta que sirva para juzgar el lenguaje significativo o no- o bien se afirma en cuanto norma, y entonces cae en un callejon sin salida, ya que la norma según dicho principio no tiene sentido.

Dentro de los intentos de superar esta espinosa situación durante la primera fase del Círculo (la llamada fase «semántica»), Neurath acompañado por Carnap encauzó la tendencia semántica hacia la dirección sintáctica o, como se suele decir, fisicalista. Para conjurar cualquier perplejidad, Neurath en Ciencia unificada y psicología (1933) afirma la necesidad de situarse en un lenguaje donde todas las proposiciones tengan que resultar intersubjetivas ya desde el comienzo. Para esto no hay que partir de la concepción irremediablemente viciada de metafísica, según la cual se con-sidera el lenguaje en su función de representación proyectiva de los hechos. El lenguaje hay que tomado como un hecho físico, como un conjunto de sonidos y de signos. La ciencia es la totalidad de las aserciones empíricas pronunciadas o escritas, y éstas -huellas de tinta o sistemas de ondas aéreas- son al mismo tiempo aquello de lo cual habla la ciencia y aquello mediante lo cual se expresa. En Fisicalismo (1931), Neurath escribe: «La teoría del lenguaje puede asimilarse por completo a la teoría de los procesos físicos, estamos siempre dentro del mismo ámbito.» En resumen, no podemos salir del lenguaje y convertimos en acusadores, acusados y jueces al mismo tiempo. Aumentamos la ciencia aumentando la cantidad de sus proposiciones, confrontando las nuevas proposiciones con las que ya están en uso y creando un sistema carente de contradicciones, que sirva para efectuar con éxito predicciones. En Sociología dentro del fisicalismo (1931-

1932), Neurath especifica: «Sólo podemos afirmar que hoy operamos con el sistema espaciotemporal que corresponde a la física. »

La consideración del lenguaje como hecho físico y la eliminación de su función de representación proyectiva de los hechos llevan a un cambio radical en el criterio de aceptabilidad. La teoría de la verdad como correspondencia entre una proposición y un hecho queda substituida por la teoría de la verdad como coherencia entre proposiciones. Neurath afirma: «Las proposiciones se han de confrontar con proposiciones y con experiencias, ni con un mundo o con otra cosa. Todas estas duplicaciones sin sentido pertenecen a una metafísica más o menos perfeccionada, y por lo tanto hay que eliminarlas. Toda proposición nueva debe confrontarse con la totalidad de las proposiciones presentes, que ya concuerdan entre sí. Por lo tanto, sólo se dirá que una proposición es correcta cuando puede integrarse dentro de dicho sistema. Lo que no pueda integrarse en él debe ser rechazado como incorrecto. En lugar de rechazar las proposiciones nuevas, se puede alterar el sistema completo -cosa a lo que nos decidimos con mucha dificultad- hasta que nuestras proposiciones puedan integrarse, en él [...]. La definición de "correcto" e "incorrecto" que aquí damos se encuentra muy alejada de las que son habituales en el Círculo de Viena, que recurren al significado y a la verificación. En la presente teoría permanecemos en el ámbito del pensamiento hablado.» Por lo tanto, una proposición es incorrecta si no concuerda con las demás proposiciones reconocidas y aceptadas en el corpus de las ciencias; en el caso contrario, es correcta. Este es el único criterio que permite proyectar una enciclopedia de la ciencia unificada, utilizando el único lenguaje sensato, que es el de las ciencias físicas. Neurath (en el escrito Sociología empírica de 1931) habla de enciclopedia y no de sistema, debido a la apertura y el carácter incompleto que son propios de la primera, donde es posible hacer que confluyan los resultados anónimos de las diferentes ciencias positivas, o para emplear las palabras de Nietzsche, «las verdades sin pretensiones», que, al contrario de los seductores errores de las épocas metafísicas, evitan convertirse en un mausoleo y constituyen una fuerza intelectual viva y útil para la humanidad.

2.7. Carnap y el lenguaje fisicalista como lenguaje universal de la ciencia

Las radicales ideas acerca del fisicalismo, propuestas por Neurath, introdujeron en el Círculo poderosos motivos de discusión. Camap fue quien se vio más afectado por el influjo de Neurath. Sin embargo, puesto que en opinión de Carnap las formulaciones de Neurath no eran algo indiscutible, fue precisamente Carnap quien intentó replantearlas con el propósito de efectuar una fundamentación más adecuada del fisicalismo. Como ya se ha dicho, el fisicalismo de Neurath tenía dos núcleos: la concepción del lenguaje como un hecho físico (concepción que pasaba por alto la cuestión del lenguaje como proyección del mundo) y la exigencia de una ciencia unificada sobre bases fisicalistas. Carnap acepta sin más la tesis de la universalidad de la lengua fisicalista, pero sin insistir sobre la reducción del lenguaje a hecho físico y, por lo tanto, sin rechazar la función simbólica de los .signos.

En efecto, los ensayos El lenguaje fisicalista como lenguaje universal de la ciencia (1931) y La psicología dentro del lenguaje fisicalista (1932), escritos en defensa del fisicalismo, se limitan casi exclusivamente al tema de la universalidad de la lengua fisicalista. En Filosofía y sintaxis lógica (1935), Carnap escribe: «En las discusiones del Círculo de Viena hemos llegado a la concepción según la cual el lenguaje físico es el lenguaje-base de toda la ciencia, un lenguaje universal que abarca los contenidos de todos los demás lenguajes científicos.» Según él, el lenguaje físico debe ser considerado como lenguaje de la ciencia unificada (en la cual entran también la psicología y la sociología, es decir, las llamadas «ciencias del espíritu»), porque tiene las tres categorías de la «intersensualidad», la «intersubjetividad» y la «universalidad». - .

Sin duda, podemos aceptar fácilmente -junto con Carnap- que el fisicalismo es una tesis lógica, que no habla de cosas sino de palabras. Estas palabras, empero, ¿de qué hablan? ¿Cómo podemos establecer cuál es la relación entre lenguaje y realidad? Entre Schlick y Neurath estalló una polémica sobre dicha relación. En el fondo, a Carnap no le interesaba demasiado la cuestión, dedicado durante este período a la Sintaxis lógica del lenguaje y, por lo tanto, a la determinación de las estructuras formales -la sintaxis lógica- de los lenguajes. Pero si a Carnap no le interesaba, para Schlick se trataba de un problema acuciante y no podía aceptar la propuesta de los convencionalistas según la cual había que considerar como válido todo lenguaje no contradictorio. En efecto, un lenguaje no contradictorio no es suficiente para dar razón de la ciencia: también una fábula bien elaborada puede resultar no contradictoria, sin que por ello debe ser considerada como científica.

Schlick, de todas maneras, aunque no halló la formulación adecuada para su criterio «nuestro principio es una trivialidad sobre la cual no cabe discutir siquiera», desempeñó dentro del Círculo la función dialéctica de la continua referencia a los hechos, referencia que -como dice Russell- convierte en verdadera a toda aserción. Afirmó tal cosa en contra de los convencionalistas (Neurath y, en parte, también Carnap, etc.), los cuales, preocupados por una supuesta y temida infiltración metafísica en el pensamiento de Schlick, acababan casi por abandonar el empirismo. Los convencionalistas parecían olvidar que el objeto de las palabras consiste en ocuparse de cosas diferentes a las palabras. A ellos les parecía

que la ciencia era poco más o menos como una fábula bien estructurada: siempre se trata de conjuntos de signos. Sin embargo, Schlick insiste en el hecho de que la ciencia es un conjunto de signos, pero que se aplica en el terreno de la naturaleza. Los convencionalistas, dice también Russell, parecen decir: «En el principio era el verbo»; y Schlick afirmó que «en el principio era lo que significa el verbo».

2.8. El trasplante del neopositivismo a América

Desde alrededor del 1930 hasta 1938, año en que tiene lugar la anexión nazi de Austria, se puede asistir a la fase de «despegue internacional» del Círculo de Viena. Dicha fase se caracteriza por autorizadas aceptaciones y por adquisiciones doctrinales relevantes, así como por la desaparición de Schlick -fue asesinado en 1936 por un ex alumno suyo, y Hans Hahn había muerto dos años antes- y por la progresiva diáspora del grupo originario, con el consiguiente «trasplante» del movimiento de pensamiento que ya se conoce con el nombre de «neopositivismo», «positivismo lógico» o «empirismo lógico», al otro lado del Atlántico, sobre todo en los Estados Unidos. Carnap, en su Autobiografía intelectual, evoca así el oportuno crédito concedido en América al neopositivismo, por parte de algunos jóvenes estudiosos, tanto filósofos como científicos: «En 1934 conocí a dos filósofos norteamericanos que, después de visitar a mis amigos en Viena, vinieron a verme a Praga: C.W. Morris, de la universidad de Chicago, y W.V.O. Quine, de la universidad de Harvard. Atraídos desde hacía tiempo por nuestro modo de filosofar, contribuyeron a darlo a conocer en los Estados Unidos, esforzándose para que yo pudiese desplazarme allí. Fui entonces invitado por la universidad de Harvard a participar en las celebraciones de su tercer centenariq, en septiembre de 1936, al tiempo que la universidad de Chicago me ofreció un cargo docente a partir de ese mismo año, encargo que ocupé ininterrumpidamente hasta 1952 [...]. De este modo, no sólo tuve la alegría de sustraerme a la sofocante atmósfera político-cultural europea y al íncubo de la guerra, sino también de constatar que en América, sobre todo entre los pensadores más jóvenes, existía un vivo interés, que se acentuaba con el paso de los años, por el desarrollo de la filosofía sobre la base del método científico y de la lógica moderna.»

El balance referente a la acogida que tuvo el neopositivismo en los Estados Unidos, esbozado por Herbert Feigl poco después de 1940, es sin duda atractivo, ya que en él se incluyen los nombres de muchos protagonistas de la cultura norteamericana, «filósofos, lógicos y metodólogos»como A. Cornelius Benjamin, Nelson Goodman, Sidney Hook, Henry Margenau, Charles W. Morris, Ernst Nagel; «científicos» como L. Bloomfield, Percy S. Bridgman, Haskell B. Curry, Stefen C. Kleene, Carrol C. Pratt, Burrhus F. Skinner o Stanley S. Stevens. -Por una parte, la entrada del neopositivismo en América permitió que los filósofos estadounidenses afinasen analíticamente su propia orientación científica, concen-trándose en problemas metodológicos delimitados con precisión. Por otra parte, indujo a los pensadores de origen europeo a enriquecer su perspectiva filosófica con consideraciones de carácter semántico-pragmático, moderando su inicial énfasis formalista en materia de lenguaje.

Como conclusión, hay que mencionar una empresa que representa el documento más significativo de la colaboración entre los estudiosos antes citados: la lnternational Encyclopedia of Unified Science (Enciclopedia internacional de la ciencia unificada). La idea de una antología enciclopédica de las ciencias fue de atto Neurath, quien a partir de 1920 la cultivó con tenacidad. El encuentro de algunos representantes del Círculo de Viena con pensadores norteamericanos, como por ejemplo Morris, Nagel, Lenzen o Bloomfield, permitió a Neurath preparar un programa válido de trabajo y, a partir de 1938, dar comienzo a su realización, bajo la dirección de Carnap, Morris y suya propia. El estallido de la guerra y la disminución -sobre todo después de la muerte de Neurath en 1945- del impulso unitario de los diversos colaboradores, obstaculizaron el pleno desarrollo de la iniciativa.

2.9. Liberalización y superación de las tesis neopositivistas

Las dificultades con las que habían tropezado las tesis neopositivistas, y sobre todo el principio de verificación, no fueron ocultadas en absoluto. Al contrario, se formularon con toda claridad, y el esfuerzo por superadas condujo, por un lado, a la nueva filosofía de Wittgenstein (a la filosofía del llamado «segundo» Wittgenstein), por el otro, a la epistemología falsacionista de Kad Popper, y por un tercero, a la liberalización del neopositivismo efectuada por Rudolf Carnap.

En enero de 1929 Wittgenstein vuelve a Cambridge, re emprende su labor filosófica y redacta gran cantidad de observaciones. Las notas escritas desde enero de 1929 hasta septiembre de 1930 se recogen en un manuscrito titulado Observaciones filosóficas y constituyen el documento que permite constatar- su alejamiento de las concepciones filosóficas del Tractatus, en el que se había ipspirado el Círculo de Viena, y su apertura hacia perspectivas más liberales. Para el «primer» Wittgenstein «el sentido de una proposición es el método de su verificación», pero ahora -en las Observaciones filosóficas- afirma que «lo que una palabra significa se aprehende al ver cómo se utiliza. Y si una ha conocido utilización, entonces también se ha aprehendido qué es lo que significa». Si la filosofía del primer Wittgenstein había espoleado a los miembros del Círculo en la construcción de un lenguaje perfecto, la introducción ahora por parte del mismo Wittgenstein del «principio de uso» (según el cual el significado de una palabra consiste en su uso dentro de

la lengua) empuja a los seguidores del neopositivismo a reexaminar su actitud intransigente y, sobre todo, su programa de construcción de un lenguaje privilegiado.

Al paso de Wittgenstein desde la fase rígida del Tractatus hasta la fase liberal de las Observaciones filosóficas hay que añadir las críticas que K. Popper, a partir de la Lógica del descubrimiento científico, formuló al principio de verificación. Consideraba que éste era autocontradictorio, criptometafísico e incapaz de explicar las leyes universales de las ciencias empíricas. En su autobiografía Búsqueda sin término, a propósito de la disolución del Círculo, Popper se pregunta: «¿Quién es el responsable de ello?», y contesta: «Creo que tengo que admitir mi responsabilidad.»

Carnap, a partir de la década de 1930, mientras enseñaba en Praga, fue el que primero -y en mayor medida que los demás miembros del Círculoinició la liberalización del empirismo. En su Autobiografía reconstruye las etapas por las que pasó: «La simplicidad y la coherencia del sistema de los conocimientos, tal como lo concebía la mayoría de nosotros en el Círculo de Viena, le proporcionaba un cierto atractivo y un vigor ante las críticas; por otra parte, estas características provocaban una cierta rigidez, por lo cual nos vimos obligados a realizar algunas modificaciones radicales para hacer justicia al carácter abierto a la inevitable falta de certeza en todo conocimiento fáctico.»

Según la concepción originaria del Wiener Kreis, el sistema de conocimiento, aunque se transformaba de modo constante en más comprensivo, era considerado como un sistema cerrado en el sentido siguiente: en opinión de los miembros del Círculo -por lo menos al principio de su actividad- existía un mínimo de conocimiento, el conocimiento de lo inmediatamente dado, que era indudable. Suponían que todos los demás tipos de conocimiento se apoyaban sólidamente sobre esta base y que por lo tanto se podían establecer con una certidumbre igual. Esta era la imagen que el propio Carnap había ofrecido en su Construcción lógica del mundo, bajo el influjo de la doctrina de Mach sobre las sensaciones como elementos de todo el conocimiento, del atomismo lógico de Russell y de la tesis de Wittgenstein según la cual todas las proposiciones son funciones de verdad de las proposiciones elementales. Esta concepción, estrechamente vinculada con el principio wittgensteiniano de la verificabilidad, implicaba al mismo tiempo una (no demasiado sostenible) imagen justificacionista de la ciencia.

En efecto, el principio de verificación (por lo menos, tal como había sido formulado en los primeros tiempos del Círculo) es incapaz de dar razón de la ciencia por dos motivos fundamentales: en primer lugar, los asertos protocolarios (de base o de observación) no son en absoluto incontrovertibles, y además -cosa que posee un carácter central- una serie de observaciones análogas y reiteradas, por numerosas que sean, no logran fundamentar lógicamente las leyes universales de la ciencia. Por todo ello, en Controlabilidad y significado (1936), Carnap no hablará de verificabilidad sino de «controlabilidad» y de «confirmabilidad». «Diremos que una proposición es controlable si es que, de hecho, conocemos un método para proceder a su eventual confirmación; en cambio, diremos que es confirmable cuando sepamos bajo qué condiciones queda confirmada por principio.» Además, Carnap distingue entre confirmabilidad completa y confirmabilidad incompleta: la primera se produce cuando una proposición puede reducirse a una clase finita de proposiciones que contienen predicados observables (por ejemplo, «todas las manzanas de esta cesta son rojas»). En cambio, una proposición es confirmable de manera incompleta cuando existe una clase infinita de proposiciones que contienen predicados observables y son una consecuencia de la proposición dada. (Tal es el caso, por ejemplo, de la proposición universal «todos los metales se dilatan al calentarlos», que es confirmable de manera incompleta.) La exigencia de confirmabilidad incompleta es, según Carnap, una formulación suficiente del principio empirista: una formulación capaz de explicar el conocimiento científico, que puede distinguir ente éste y las aserciones metafísicas, y que carece de los defectos que aquejaban al principio de verificación.

3. EL OPERACIONISMO DE P. W. BRIDGMAN

3.1. Los conceptos reducidos a operaciones

La teoría o imagen de la ciencia que recibió el nombre de operacionismo (y también de operacionalismo u operativismo) se debe al físico (y premio Nobel) estadounidense Percy William Bridgman (1882-1961), que la expuso mediante dos volúmenes (La lógica de la física moderna, 1927, Y La naturaleza de la teoría física, 1936), y más tarde la fue especificando gradualmente a través de una serie de ensayos escritos entre 1934 y 1959.

Ante los revolucionarios avances de la física contemporánea, Bridgman -en La lógica de la física moderna- sostiene que «la primera lección de nuestra reciente experiencia con la relatividad consiste sencillamente en una acentuación de todo lo que nos había enseñado el conjunto de las experiencias precedentes: cuando la indagación experimental afecta a nuevos campos, hemos de esperar que aparezcan hechos nuevos, de un carácter totalmente diferentes a los ya conocidos por nosotros. Esto se aprecia no sólo en el descubrimiento de aquellas propiedades insospechadas de la materia en movimiento a velocidades elevadas, que han servido de inspiración a la teoría de la relatividad, sino también, y de un modo aún más evidente, en los nuevos fenómenos en el terreno de los cuantos. Hasta cierto punto, como es natural, el reconocimiento de todo esto no implica un cambio de actitud: el hecho siempre ha sido para el físico el

argumento decisivo contra el cual no hay apelación y ante el cual la única actitud posible es una.humildad casi religiosa. La nueva característica de la situación actual es una convicción más profunda en la existencia real de nuevos géneros de experiencia y en la posibilidad de hallar continuamente otros nuevos». Si se acepta esto, queda implícito que «ningún elemento de una situación física, por irrelevante o banal que parezca, puede ser dejado a un lado como carente de consecuencias para el resultado final, hasta que los experimentos no comprueben efectivamente esta falta de consecuencias». Por todo ello, «la actitud del físico debe [...] ser una actitud de puro empirismo. No debe admitir ningún principio a priori que determine o limite las posibilidades de nuevas experiencias. La experiencia sólo está determinada por la experiencia. Esto significa prácticamente que debemos renunciar a la pretensión de abarcar toda la naturaleza en una sola fórmula, sencilla o complicada». El aceptarla «esencial imposibilidad de extrapolar el significado de los experimentos más allá de sus actuales límites» hará que «nuestra experiencia de cada momento no hipoteque el futuro», cosa que ha ocurrido por ejemplo con la física newtoniana, que obligó a Einstein a revisar una actitud de fondo. En consecuencia, la experiencia sólo está determinada por la experiencia. Y para que sólo la experiencia sea guía de sí misma, Bridgman defiende que hay que hacer lo que en su opinión hizo Einstein (que Einstein haya hecho realmente tal cosa resulta discutible): reducir el significado de los conceptos científicos a una operación empírica o a un conjunto de operaciones. Según Bridgman, podemos ilustrar esta nueva actitud hacia los conceptos tomando en consideración el concepto de longitud.

¿Qué entendemos por longitud de un objeto? Evidentemente, sabremos qué entendemos por longitud si podemos decir cuál es la longitud de cualquier objeto, y al físico no le hace falta nada más. Para hallar la longitud de un objeto, debemos realizar determinadas operaciones físicas. Por lo tanto, el concepto de longitud queda fijado cuando se fijan las operaciones que sirven para medir la longitud; en otras palabras, el concepto de longitud implica, ni más ni menos, que el grupo de operaciones mediante las cuales se determina la longitud. En general, por «concepto» no entendemos otra cosa que un grupo de operaciones, el concepto es sinónimo al correspondiente grupo de operaciones. Si el concepto es físico, como en el caso de la longitud, las operaciones son efectivamente operaciones físicas, aquellas mediante las cuales se mide la longitud; si el concepto es mental, como en el caso de la continuidad matemática, las operaciones son operaciones mentales, aquellas mediante las cuales determinamos si un conjunto dado de magnitudes es continuo o no. Con esto no pretendemos que exista una divisoria tajante y rígida entre conceptos mentales y conceptos físicos, o que una especie de conceptos no contenga siempre algún elemento de la otra; esta clasificación carece de importancia en relación con nuestras futuras consideraciones.

3.2. Contemplar todo lo que hace la teoría

Para Bridgman la crítica epistemológica es una actividad -leemos en La naturaleza de la teoría física- que él se vio casi obligado a practicar, impulsado «por los muchos fracasos que las teorías formuladas encuentran al enfrentarse con situaciones reales.» El método propuesto por Bridgman, traducir conceptos en operaciones, «se fundamenta en el convencimiento de que el aspecto más importante de una teoría es lo que ésta realiza efectivamente, no lo que dice que hace ni lo que su autor considera que hace, cosas todas ellas que a menudo resultan muy distintas. Desde el punto de vista crítico, la técnica más importante consiste en entender claramente y referir con igual claridad aquello que uno hace efectivamente y aquello que sucede efectivamente en una situación determinada; se trata de una técnica que no se adquiere con demasiada facilidad y en la cual uno se vuelve experto sólo si la practica de manera continuada». Con tal premisa se vuelve evidente -escribe Bridgman en La lógica de la física moderna- que si definimos un concepto no ya en términos de propiedades sino en términos de operaciones efectivas, «evitaremos el peligro de tener que revisar nuestra actitud hacia la naturaleza. En efecto, si la experiencia siempre se describe en términos de experiencia, siempre habrá una correspondencia entre la experiencia y nuestra descripción de ésta, y por lo tanto nunca nos veremos obstaculizados como ocurre cuando tratamos de hallar en la naturaleza el prototipo del tiempo absoluto de Newton [...]. Einstein sometió el concepto de simultaneidad a una crítica coherente, en esencia, al mostrar que las operaciones mediante las cuales pueden describirse como simultáneos dos acontecimientos, implican que un observador efectúe mediciones sobre dos acontecimientos; de manera que ser simultáneos no es una propiedad absoluta referente sólo a dos acontecimientos, sino que también implica la relación de éstos con el observador [...]. Prescindiendo de las relaciones cuantitativas concretas de la teoría de Einstein, para nosotros lo importante es que si adoptamos el punto de vista operativo veremos -antes incluso del descubrimiento de los fenómenos físicos efectivos- que la simultaneidad es esencialmente un concepto relativo y habremos dejado abierta en nuestro pensamiento la posibilidad de descubrir aquellas consecuencias que más tarde se descubrirán». En esencia, éstos son los núcleos teóricos fundamentales de la concepción operativista de la ciencia. Una primera e inmediata consecuencia es que, cuando se ha adoptado el punto de vista operativo, toda una serie de problemas y de conceptos aparecen como carentes de significado. «Si una cuestión específica tiene sentido, debe ser posible hallar operaciones mediante las cuales se le puede dar respuesta. En muchos casos se verá que tales operaciones no pueden existir y que por lo tanto la cuestión no tiene sentido. Por ejemplo, no significa nada preguntarse si una estrella está en reposo o no. Otro ejemplo surge de una cuestión propuesta por Clifford, sobre si no sería posible que al moverse el sistema solar de una a otra parte de espacio, cambie la escala absoluta de las magnitudes, pero de una manera, que influya igualmente a todos los objetos, de modo que el cambio de

escala jamás llegue a revelarse.» Igualmente, en la perspectiva operacionista «muchas de las cuestiones planteadas en torno a objetos sociales y filosóficos resultan carente s de significado, una vez que han sido examinadas desde el punto de vista de las operaciones». Bridgman aspiraba a que el pensar operativo (por un lado, más fácil debido a que en él no eran utilizables las antiguas idealizaciones y generalizaciones, y por el otro, más difícil porque a menudo las implicaciones operativas de un concepto se hallan bastante ocultas) reformase «el arte social de la conversación», y su consecuencia final consistiese en un «ahorro de las energías individuales en favor de intercambios de ideas más estimulantes e interesantes».

3.3. El debate sobre el operacionismo

En La lógica de la física moderna Bridgman analizó de modo operativista conceptos como longitud, tiempo, energía o campo, que se encuentran en la base de las modernas teorías de la relatividad y de los cuantos. En La naturaleza de la teoría física indaga sobre el concepto mismo de operación, sobre los principios elementales de la lógica, sobre las relaciones entre pensamiento y lenguaje y entre matemática y experiencia, investigaciones que le permitirán plantear sus ulteriores reflexiones sobre la relatividad y la mecánica ondulatoria. En los ensayos incluidos en el volumen La crítica operacional de la ciencia Bridgman vuelve sobre puntos concretos de naturaleza general y específica, y trata de responder a las diversas críticas que su enfoque había suscitado mientras tanto, la primera de las cuales era el solipsismo. En La crítica operacional de la ciencia Bridgman afirma: «No conozco el significado de un término si no estoy en condiciones de ofrecer una explicación operacional del mismo.» Empero, ¿dichas operaciones son operaciones de un sujeto y, en ese caso, cómo se evita el solipsismo? Bridgman no parece temer la objeción: «Muchos [...] se han referido a la ciencia como algo esencial e indiscutiblemente público; en cambio, creo que un sencillo examen de lo que se realiza en toda investigación científica demuestra que la parte más importante de la ciencia posee un carácter privado.» Para Bridgman el punto de vista solipsista «no es más que reconocer francamente aquello que me brinda la experiencia directa; no podemos hacer otra cosa que tratar de adecuar nuestra mentalidad, de manera que este punto de vista no nos parezca algo rechazable». «La ciencia sólo es mi ciencia privada», si bien «al decidir lo que debe ser mi ciencia privada considero que es útil tener en cuenta sólo aquellos aspectos de mi experiencia en los cuales mis semejantes actúan de un modo particular», y aunque «toda la historia lingüística de la raza humana sea una historia de la deliberada supresión de las evidentes diferencias operacionales que hay entre mis sensaciones y tus sensaciones, entre mi pensamiento y tu pensamiento».

Otro punto muy debatido de la epistemología operacionista es el siguiente. Cuando se afirma que un concepto es equivalente al grupo de operaciones que le corresponde, hay que ser consecuentes en el sentido de que, «si tenemos más de un grupo de operaciones, tendremos más de un concepto, y en rigor deberíamos darle un nombre distinto a cada grupo diferente de operaciones». Por ello, si medimos una distancia primero con varas rígidas y luego mediante triangulaciones ópticas, tendremos dos conceptos; de igual manera, tendremos dos conceptos si medimos la tem-peratura con un termómetro de mercurio y luego con uno de alcohol. De este modo, señala C.G. Hempel en Filosofía de las ciencias naturales, «la máxima operativa [...] nos obligaría a fomentar una proliferación de conceptos de longitud, de temperatura y de todos los demás conceptos científicos, que no sólo resultaría poco manejable en la práctica, sino teóricamente inacabable. Lo cual destruiría uno de los principales objetivos de la ciencia: el logro de una explicación sencilla y sistemáticamente unificada de los fenómenos empíricos». En realidad, «en la teorización científica no encontramos la distinción entre numerosos conceptos diferentes de longitud (por ejemplo), cada uno de ellos caracterizado mediante su propia definición operativa. Al contrario, la teoría física toma en consideración un solo concepto de longitud y varios modos más o menos precisos de medir las longitudes en diversas circunstancias». Además, hay que advertir que a menudo el análisis teórico y el desarrollo del sistema de leyes introducen modificaciones en los criterios operativos adoptados originariamente; que las operaciones, como escribe V. Mathieu, son instrumentos de prueba de las teorías, mientras que las teorías no son instrumentos de las operaciones; que -en palabras de Popper- los operacionistas «no pueden eliminar el hecho de que en sus definiciones o descripciones operacionales tienen la necesidad de utilizar términos universales que hay que tomar como términos indefinidos»; que no hay que mostrarse demasiado expeditivo con las cuestiones y los conceptos que se suponen carentes de sentido, puesto que no parece haber sinonimia entre «ámbito de lo verdadero» y «ámbito de lo operativamente comparable»: una teoría puede ser verdadera aunque no la podamos comprobar, de manera que, «no comprobable operativamente» no equivale a «carente de sentido». Por último, no hay que olvidar el influjo que ha tenido el operativismo -sobre todo en América- en lo referente a la metodología de las ciencias sociales y psicológicas.

4. LA EPISTEMOLOGÍA DE GASTÓN BACHELARD

4.1. La ciencia no tiene la filosofía que se merece

Gaston Bachelard nació en Bar-sur-Aube, Francia meridional, en 1884. A los 28 años se doctoró en matemática; a los 36 en filosofía; movilizado por el ejército en agosto de 1914, fue licenciado en 1919. Entre 1919 y 1928 enseña física y ciencias naturales en el College de Bar-sur-Aube. En 1928 se le encarga un curso complementario de filosofía en la universidad de Dijon, donde enseña hasta 1940, año en el que sucede a Abel Rey en la Sorbona, en la cátedra de historia y de filosofía de la ciencia. Allí enseña hasta 1954. Muere en París en 1962.

Las obras epistemológicas de Bachelard (El pluralismo coherente de la química moderna, 1932; Las intuiciones atomistas; ensayo de clasificación, 1933; El nuevo espíritu científico, 1934; La dialéctica de la duración, 1936; La formación del espíritu científico: contribución a un psicoanálisis del conocimiento objetivo, 1938; La filosofía del no, 1940) aparecen en un período en el que la filosofía de la ciencia (pensamos precisamente en el neopositivismo vienés o incluso en el operacionismo norteamericano) se presenta por un lado como una concepción antimetafísica y, por el otro, como esencialmente ahistórica. Es cierto que Bachelard proseguiría su trabajo de epistemólogo e historiador de la ciencia después de la segunda guerra mundial (El racionalismo aplicado, 1949; La actividad racionalista de la física contemporánea, 1951; El materialismo racional, 1953). Sin embargo, puede afirmarse que en aquellos años, al no haberse difundido el pensamiento de Popper y de su escuela, la filosofía científica -la que estaba vinculada con la ciencia y pretendía dar razón de ella- continuaba siendo el neopositivismo.

La epistemología de Bachelard (seguida más adelante, de un modo diverso, por Canguilhem, Foucault y Althusser), debido a la época en que surgió y se desarrolló, representa el pensamiento cargado de novedades de un filósofo solitario (aunque no aislado) que, en el seno de la tradición francesa de reflexión sobre la ciencia (Meyerson, Poincaré, Duhem), supera la filosofía «oficial» de la ciencia de su tiempo (el neopositivismo) y propone -como escribió Althusser- un «no-positivismo radical y deliberado».

Una vez dicho esto, hay que señalar de inmediato que (dejando a un lado en este lugar los estudios que Bachelard dedicó a la actividad de la fantasía, la réverie: Psicoanálisis del fuego, 1938; La poética del espacio, 1957; La poética de la «réverie», 1960) los rasgos de fondo del pensamiento de Bachelard pueden reducirse a los cuatro siguientes: 1) el filósofo debe ser contemporáneo de la ciencia de su propia época; 2) tanto el empirismo de tradición baconiana como el racionalismo idealista son incapaces de explicar la real y efectiva práctica científica; 3) la ciencia es un acontecimiento esencialmente histórico; 4) la ciencia posee un «ineluctable carácter social».

En El materialismo racional Bachelard constata con amargura que «la ciencia no tiene la filosofía que se merece». La filosofía siempre va retrasada con respecto a los cambios en el saber científico. A la «filosofía de los filósofos» Bachelard trata de oponer «la filosofía producida por la ciencia». La filosofía de los filósofos se caracteriza por atributos como la unidad, la clausura y la inmovilidad, mientras que los rasgos distintivos de la «filosofía científica» (o filosofía creada por la ciencia) son la falta de una unidad o de un centro, la apertura y la historicidad. En La filosofía del no Bachelard sostiene: «Pediremos [...] a los filósofos que rompan con la ambición de hallar un solo punto de vista fijo, para juzgar una ciencia tan amplia y tan mudable como la física.» Para Bachelard, la filosofía de las ciencias es una filosofía de carácter dispersivo, distribuida: «habría que fundar una filosofía del detalle epistemológico, una filosofía "diferencial" para contraponer a la filosofía "integral" de los filósofos. Esta filosofía integral sería la encargada de medir el devenir de un pensamiento.» Este tipo de filosofía diferencial «es la única filosofía abierta. Todas las demás filosofías consideran sus principios como intangible s y sus verdades primeras como algo total y adquirido. Todas las demás filosofías se vanaglorian de su clausura»

4.2. La ciencia es la que instruye a la razón

En El racionalismo aplicado Bachelard afirma que «la epistemología debe ser tan móvil como la ciencia». Sin embargo, como resulta obvio, para que exista una filosofía dispersiva, distribuida, abierta, diferencial y móvil, es preciso entrar dentro de las prácticas científicas y no limitarse a juzgarlas desde fuera. Es necesario que el filósofo tenga confianza en el científico, que sea él mismo científico (savant) antes que philosophe. En opinión de Bachelard, existen pocos pensamientos filosóficamente más variados que el pensamiento científico. «La función de la filosofía de la ciencia consiste en registrar tal variedad y mostrar cuánto aprenderían los filósofos si quisieran meditar sobre el pensamiento científico contemporáneo.» Los neopositivistas iban en busca de un principio rígido (el principio de verificación) que dividiese nítidamente la ciencia y la no-ciencia, mientras que Bachelard no acepta un criterio a priori que se jacte de captar la esencia de la cientificidad. No es la razón filosófica la que enseña a la ciencia, sino que es «la ciencia la que

instruye a la razón». Por consiguiente, leemos en La filosofía del no, «la razón debe obedecer a la ciencia, a la ciencia más evolucionada, a la ciencia que evoluciona [...]. La aritmética no se fundamenta en la razón. Es la doctrina de la razón la que se fundamenta sobre la aritmética elemental. Antes de saber contar, yo no sabía en absoluto qué era la razón. En general, el espíritu debe acomodarse a las condiciones del saber [...]. La razón, una vez más, debe obedecer a la ciencia. La geometría, la física, la aritmética son ciencias; la doctrina tradicional de una razón absoluta e inmutable no es más que una filosofía. Es una filosofía cuya hora ya ha pasado». Por lo tanto, escribe nuestro autor en El nuevo espíritu científico, «el espíritu posee una estructura variable puesto que el conocimiento tiene una historia». Y si el conocimiento tiene una historia, entonces el instrumento privilegiado para las investigaciones de filosofía de la ciencia no es -como en el caso de los neopositivistas- la lógica, sino la historia de la ciencia, concebida como identificación de las fases efectivamente atravesadas por el desarrollo del saber científico.

A diferencia de los neopositivistas, Bachelard no acepta un principio que establezca a priori la cientificidad de las ciencias, ni el rechazo de la historia que llevan a cabo los propios neopositivistas. Por otro lado, Bachelard combate contra la filosofía de los filósofos, pero no considera -como hicieron los filósofos del Círculo de Viena- que la metafísica sea insensata o indiferente para la ciencia. Bachelard escribe: «El espíritu puede cambiar de metafísica; no puede ignorar la metafísica.» Y si bien es cierto que «un poco de metafísica nos aleja de la naturaleza, mucha metafísica nos acerca a ella». Esto nos indica que Bachelard no abriga prejuicios antifilosóficos o antimetafísicos en nombre de la ciencia. Se opone a la filosofía que no sea contemporánea de la ciencia; se burla de los filósofos que «piensan antes de estudiar» y en cuya pluma «la relatividad degenera en relativismo, la hipótesis en suposición y el axioma en verdad primera». Estos juicios peyorativos sobre la «filosofía de los filósofos» surgen de la decidida voluntad de Bachelard «de dar a la filosofía la opción de transformarse en contemporánea de la ciencia», como ha escrito Canguilhem.

4.3. Las «rupturas epistemológicas»

Ni el empirismo tradicional ni el racionalismo idealista están en condiciones -a criterio de Bachelard- de dar cuenta de la efectiva práctica científica. En el ejercicio de la investigación científica y en la historia de la ciencia no se encuentra el absoluto constituido por el dato inmediato, del que habla el empirismo, y Bachelard tampoco acepta el prejuicio racionalista, no menos grave, que prentende «imponer al científico un marco a priori en el que se halle lo que hay de esencial en la función científica». Bachelard proclama: «Razón absoluta y realidad absoluta son dos conceptos filosóficamente inútiles.»

Según Bachelard, no podemos considerar la ciencia con independencia de su devenir. Lo «real científico» no es inmediato ni primario: «tiene necesidad de recibir un valor convencional. Necesita integrarse en un sistema teórico. Aquí, como en todas partes, la objetivación domina a la objetividad». Por lo tanto, el dato científico siempre es algo relacionado con sistemas teóricos. El científico nunca parte de la pura experiencia. A este propósito, en La formación del espíritu científico Bachelard escribe: «Se conoce contra un conocimiento anterior, destruyendo conocimientos mal hechos, superando aquello que en el interior del espíritu mismo obstaculiza la espiritualización [...]. La noción de partir desde cero para fundar y acrecentar el propio patrimonio cultural es algo característico de las culturas de simple yuxtaposición, en las cuales un hecho conocido es de inmediato una riqueza. Sin embargo, ante el misterio de lo real el alma no puede volverse ingenua por decreto. Resulta imposible anular de un solo trazo todos los conocimientos habituales. Ante lo real, lo que se cree con claridad ofusca aquello que se debería saber. Cuando se presenta ante la cultura científica, el espíritu nunca es joven. Al contrario, es muy viejo, porque tiene la edad de sus prejuicios. Tener acceso a la ciencia quiere decir, desde el punto de vista espiritual, rejuvenecer, quiere decir aceptar una brusca mutación que debe contradecir a un pasado.»

Estas sucesivas contradicciones del pasado, en opinión de Bachelard, son auténticas rupturas (coupures) epistemológicas, que comportan en cada caso la negación de algo fundamental (supuestos, categorías centrales, métodos) que regía la investigación durante la fase precedente. Tanto la teoría de la relatividad como la teoría de los cuantos, al poner en discusión los conceptos de espacio, tiempo y causalidad, representan notables confirmaciones de la noción de ruptura epistemológica. La historia de la ciencia avanza a través de sucesivas rupturas epistemológicas. Sin embargo, también hay ruptura entre saber común y conocimiento científico, sostiene Bachelard en oposición a muchos otros, entre los cuales se cuenta Popper. «El conocimiento vulgar tiene siempre más respuestas que preguntas. Tiene respuestas para todo.» En cambio, el espíritu científico «nos prohíbe tener opiniones sobre cuestiones que no comprendamos, sobre cuestiones que no sepamos formular claramente. Antes que nada, es preciso saber plantear los problemas». Para un espíritu científico, toda teoría es la respuesta a una pregunta. El sentido y la construcción del problema son las características primordiales del espíritu científico: el conocimiento vulgar está formado por respuestas, mientras que el conocimiento científico vive agitado por los problemas. «El "yo" científico es programa de experiencias, el "no-yo" científico -en cambio- es problemática ya constituida.»

4.4. No hay verdad si no se rectifica el error

Más aún, a diferencia de las rutinas incorregibles de la experiencia común, el conocimiento científico avanza mediante sucesivas rectificaciones de las teorías precedentes: «Una verdad sólo cobra pleno sentido al final de una polémica. No existe una verdad primera. Sólo hay primeros errores.» Para avanzar, es preciso tener la valentía de equivocarse. Psico-lógicamente, «no hay verdad sin error rectificado». Más allá del sentimiento psicológico, empero, Bachelard afirma en El nuevo espíritu científico que «el espíritu científico es esencialmente una rectificación del saber, una ampliación de los esquemas del conocimiento. Este juzga su pasado histórico, condenándolo. Su estructura es la conciencia de sus históricos errores. Desde el punto de vista científico, lo verdadero es pensado en cuanto rectificación histórica de un largo error, y la experiencia, como rectificación de la ilusión común y primitiva». Una verdad sobre el trasfondo de un error: tal es la forma del pensamiento científico cuyo método «es un método que busca el riesgo [...]. La duda se encuentra ante el método y no detrás, como en Descartes. Este es el motivo por el cual puedo afirmar sin grandilocuencia -señala Bachelard- que el pensamiento científico es un pensamiento comprometido. Pone continuamente en juego su organización misma. Más todavía: paradójicamente, parecería que el espíritu científico viva con la extraña esperanza de que el mismo método tropiece en un jaque mate decisivo. Y ello se explica porque un jaque mate tiene como consecuencia el nuevo hecho y la idea nueva». Las hipótesis científicas pueden verse sometidas a un jaque mate; el espíritu no científico, en cambio, es aquel qu,e se convierte en «impermeable ante los desmentidos de la experiencia». Esta es la razón por la cual las rutinas se vuelven incorregibles, mientras que las ideas vagas siempre son verificables; y ésta es la razón por la cual es anticientífica la actitud de aquel que siempre halla la primera manera de verificar su propia teoría, en vez de mostrar su error y en consecuencia rectificada.

Por lo tanto, existe una ruptura entre el conocimiento sensible y el conocimiento científico. No es sorprendente, pues, que Bachelard se oponga a las pretensiones y a la práctica de la divulgación científica. Dichas pretensiones y dicha práctica se fundamentan en la incomprensión de la ruptura epistemológica existente entre la experiencia común y la experiencia científica «cada experiencia nueva nace a pesar de la experiencia inmediata», y sus respectivos lenguajes (el del conocimiento común es genérico, y el del conocimiento científico, especializado). Por otra parte, la ruptura epistemológica entre conocimiento científico y conocimiento vulgar plantea serios problemas en la dialéctica de las ciencias, cuya esperanza implica nociones y conceptos que no pueden remitirse a los conceptos y a las nociones espontáneas e intuitivas de la experiencia común. Al contrario, las nociones y los conceptos de la ciencia son tales en la medida en que se opongan a los del conocimiento vulgar. El conocimiento científico no es algo inmediato: todo dato científico y toda idea científica son el resultado de un largo trabajo (de construcción y de rectificación) racional. En la ciencia «nada aparece por su cuenta. Nada hay dado. Todo es construido», afirma Bachelard en La formación del espíritu científico.

4.5. El «obstáculo epistemológico»

El conocimiento científico avanza mediante sucesivas rupturas epistemológicas; de este modo se va aproximando a la verdad. «No hemos encontrado ninguna solución posible al problema de la verdad, que no sea ir descartando gradualmente los errores, cada vez más finos.» Sin embargo, el progreso de la ciencia, esta continua rectificación de los errores previos y en especial aquellas rectificaciones que constituyen auténticos coupures, no son pasos que se puedan dar con facilidad, debido a su choque con lo que Bachelard llama «obstáculos epistemológicos». «Cuando se buscan las condiciones psicológicas del progreso científico, pronto se llega a la convicción de que el problema del conocimiento científico hay que planteado en términos de obstáculos. Y no se trata de tomar en consideración obstáculos externos como por ejemplo la complejidad y la fugacidad de los fenómenos, ni de culpar a la debilidad de los sentidos y del espíritu humano: las lentitudes y las disfunciones aparecen, por una especie de necesidad funcional, en el interior del mismo acto cognoscitivo. Es aquí donde mostraremos las causas del estancamiento e incluso del retroceso, es aquí donde descubriremos aquellas causas de inercia que llamaremos obstáculos epistemológicos. El conocimiento de lo real es una luz que siempre proyecta sombras hacia algún lugar.» Podemos afirmar que el obstáculo epistemológico es una idea que prohíbe y bloquea otras ideas: hábitos intelectuales solidificados, la inercia que obliga al estancamiento de las culturas, teorías científicas enseñadas como si fuesen dogmas, los dogmas ideológicos que dominan las diferentes ciencias, he aquíalgunos de los obstáculos epistemológicos. El primer obstáculo que hay que superar es la opinión: «La opinión, por principio, siempre se equivoca. La opinión piensa mal; no piensa; traduce necesidades a conocimientos. Al descifrar los objetos según su utilidad, se impide a sí misma conocerlos. No se puede fundamentar nada sobre la opinión: antes que nada hay que destruirla.» Otro obstáculo es la falta de un genuino sentido de los problemas, sentido que se pierde cuando la investigación queda paralizada en el interior del caparazón de los conocimientos que se dan por sentados y ya no se problematizan. Mediante el uso, las ideas se valorizan indebidamente, dice Bachelard. Y esto constituye un factor de inercia -en el más estricto sentido del término- para el espíritu. Llega a darse el caso de que una

idea dominante polarice a un espíritu en su totalidad. «Cierto epistemológo irreverente, hace una veintena de años, afirmaba que los grandes hombres son útiles a la ciencia durante la primera mitad de su vida y nocivos durante la segunda mitad.» Obstáculos de gran relevancia y difíciles de suprimir son los de la experiencia primera, la experiencia que pretende colocarse más allá de la crítica; el que puede calificarse de obstáculo realista, consistente en la seducción ejercida por la noción de substancia, y el obstáculo animista «La palabra "vida" es una palabra mágica. Es una palabra valorizada». Ante las realidades representadas por los obstáculos epistemológicos, Bachelard propone un «psicoanálisis del conocimiento objetivo», que se proponga identificar y anular aquellos obstáculos que bloquean el desarrollo del espíritu científico. Una catarsis de esta clase se hace necesaria cuando queremos posibilitar el avance de la ciencia, puesto que siempre se conoce contra un conocimiento anterior.

4.6. Ciencia e historia de la ciencia

Todo esto nos muestra asimismo la función de la negación en el interior de nuestra actividad cognoscitiva y en el interior de la filosofía misma, que -en opinión de Bachelard- ha de configurarse como una «filosofía del no», decidida a rechazar las pretensiones de los viejos sistemas, que aspiran a presentarse como concepciones absolutas y totalizantes de la reali-dad, y a imponer principios intocables a la ciencia. La tesis de Bachelard sostiene que la evolución del conocimiento no tiene fin y que la filosofía debe ser instruida por la ciencia. Esto quizás turbe al filósofo, «pero es preciso llegar a una conclusión de este tipo si queremos definir la filosofía del conocimiento científico como una "filosofía abierta" , como la conciencia de un espíritu que se fundamente trabajando sobre lo ignorado, buscando en lo real aquello que contradice conocimientos anteriores. Antes de cualquier otra cosa, hay que tomar conciencia del hecho de que la nueva experiencia dice "no" a la experiencia vieja, o sería del todo evidente que no se trata de una experiencia nueva. Sin embargo, este no jamás es definitivo para un espíritu que sabe entrar en una relación dialéctica con sus propios principios, constituir en sí mismo nuevas clases de evidencia, enriquecer su propio patrimonio de explicaciones sin conceder ningún privilegio a lo que sería un patrimonio de explicaciones naturales que sirven para explicarlo todo». No existe una razón por encima y en el exterior de la práctica científica y de la historia de la ciencia. La ciencia encuentra sus fundamentos en la historia. Y esta historia, fruto de un trabajo colectivo (ya que «el trabajador aislado debe admitir que solo no habría encontrado nada»), se reescribe y se vuelve a profundizar siempre de un modo distinto cada vez que la «ciudad científica» se ve sometida a alguna de sus transformaciones. En efecto, la ciencia de hoy es la única que nos permite leer e interpretar la ciencia de ayer.

CAPÍTULO XXXVII

EL RACIONALISMO CRÍTICO DE KARL R. POPPER

1. SU VIDA Y SUS OBRAS

Karl Raimund Popper nació en Viena en 1902. Allí estudió filosofía, matemática y física (con estudiosos como los físicos Wirtinger y Furtwangler y el matemático Hans Hahn). Trabajó durante un tiempo en la clínica de terapia infantil de Alfred Adler; se interesó por la música y la historia de la música. En 1928 se doctoró en filosofía, discutiendo su tesis de doctorado (Sobre la cuestión del método de la psicología del pensamiento) con el psicólogo Karl Bühler. En 1929 obtiene la cátedra de matemática y de física en enseñanza secundaria. Para las pruebas de acceso a dicha cátedra escribe una tesis sobre los problemas de la axiomática en geometría, tesis que también contenía un capítulo acerca de la geometría no euclidiana. En 1934.(pero con fecha de 1935) se publica su obra fundamental: La lógica del descubrimiento científico. Al ser de origen judío, emigró en 1937 a Nueva Zelanda, donde enseñó en el Canterbury University College de Christchurch. Allí, como «esfuerzo de guerra», escribió La miseria del historicismo y los dos volúmenes de La sociedad abierta y sus enemigos, publicados en 1945. A principios de 1946, Popper es llamado para que ocupe una cátedra en la London School of Economics y se traslada a Inglaterra. Aquí prosigue su labor filosófica y sus estudios de filosofía de la ciencia. Los resultados de este trabajo se recogen básicamente en los dos volúmenes Conjeturas y refutaciones, 1963, y Conocimiento objetivo, de 1972. De 1974 son su Búsqueda sin término. Una autobiografía intelectual y las Réplicas a mis críticos. En colaboración con J.c. Eccles, publicóen 1977 El «yo» y su cerebro. Sus comunicaciones en las actas de numerosos congresos y simposios siempre resultan destacadas y muy brillantes. Popper es en la actualidad profesor emérito de la London School of Economics, miembro de la Royal Society, y en 1965 le fue otorgado el título de Sir. Ha enseñado en calidad de Visiting Professor en muchas universidades extranjeras, y sus obras se han traducido a más de veinte lenguas.

2. POPPER, EL NEO POSITIVISMO Y LA FILOSOFÍA ANALÍTICA

Durante mucho tiempo Popper había sido vinculado, en la bibliografía filosófica, al neopositivismo. Se ha dicho también que fue miembro del Círculo de Viena. Sin embargo, igual que Wittgenstein, Popper nunca fue miembro del Círculo. El mismo, en sus Réplicas a mis críticos, afirma que esta historia no es más que una leyenda (el que haya sido miembro de Círculo); y en su Autobiografía acepta su responsabilidad con respecto a la muerte del neopositivismo. En efecto, Popper no es un neopositivista. Y Otto Neurath, con mucha razón, le calificó de «oposición oficial» del Círculo. Popper sacudió todas las cartas con las que los neopositivistas estaban jugando su partida: substituyó el principio de verificación (que es el principio de significación) por el criterio de falsación (que es un criterio de demarcación entre ciencia y no-ciencia). Reemplazó la antigua y venerable pero, en su opinión, impotente teoría de la inducción por el método deductivo de la prueba. Ofreció una interpretación de los fundamentos empíricos de la ciencia diferente a la defendida por algunos miembros del Kreis, afirmando que los protocolos no son de naturaleza absoluta y definitiva. Reinterpretó la probabilidad y sostuvo que las mejores teorías científicas (en la medida en que explican más y pueden controlarse mejor) son las menos probables. Rechazó, considerándola como una simple exclamación, la antimetafísica de los miembros del Círculo de Viena y, entre otras cosas, defendió que la metafísica engendraba teorías científicas. Rechazó asimismo el desinterés que demostraban numerosos miembros del Círculo con respecto a la tradición y releyó en nueva clave a filósofos como Kant, Hegel, Marx, Stuart MilI, Berkeley, Bacon, Aristóteles, Platón y Sócrates, para llegar hasta una estimulante relectura en clave epistemológica de los presocráticos, considerados como creadores de la tradición de la discusión crítica. Afrontó con seriedad problemas clásicos como por ejemplo la relación entre cuerpo y mente, o el sentido o la falta de sentido de la historia humana. Se interesó por el recurrente drama de la violencia, y es uno de los más encarnizados adversarios teóricos del totalitarismo. Se opuso a la distinción entre términos teóricos y términos de observación. En contra del convencionalismo de Carnap y Neurath, es decir, la llamada «fase sintáctica» del Kreis, defendió la noción reguladora de verdad, en la línea de Tarski. En resumen, no hubo cuestión que tocase el Círculo de Viena que Popper no pensase de modo diferente. Por todo ello, Neurath acertaba al llamar a Popper «la oposición oficial del Círculo» .

Popper no sólo se ha mostrado crítico con respecto al Círculo de Viena. En época más reciente, en 1961, atacó -en nombre de la unidad del método-Ias pretensiones de la escuela de Francfort referentes a una razón distinta a la de la ciencia y superior a ella. Tampoco se presenta como partidario de la Cambridge-Oxford Philosophy. Prescindiendo de distintas menciones que aparecen en diversos lugares de sus obras, Popper manifestó su actitud básicamente opuesta al movimiento analítico en el prólogo a la primera edición inglesa (1959) de La lógica del descubrimiento científico. Popper escribe: «Tanto hoy como entonces [en los tiempos del Kreis], los analistas del lenguaje son importantes para mí, no sólo como opositores, sino también como aliados, porque al parecer son los únicos filósofos que pueden mantener con vida algunas tradiciones de la filosofía racional. Los analistas del lenguaje creen que no existen auténticos problemas filo-sóficos o que los problemas de la filosofía -en el supuesto de que existan son problemas concernientes al uso lingüístico o al significado de las palabras.» Sin embargo, Popper no está en absoluto de acuerdo con este programa, hasta el punto de que en el prólogo a la edición italiana (1970) de la obra antes citada afirma con carácter perentorio que «debemos dejar de preocupamos por las palabras y por sus significados, para preocuparnos en cambio por las teorías criticables, los razonamientos y su validez».

3. LA INDUCCIÓN NO EXISTE

«Pienso haber solucionado un problema filosófico fundamental: el problema de la inducción [...]. Esta solución ha sido extremadamente fecunda y me ha permitido solucionar gran cantidad de problemas filosóficos diferentes», escribe Popper. Y éste solucionó el problema de la inducción a través de su disolución: «la inducción no existe y la concepción contraria es un craso error.»

En el pasado el término «inducción» se había utilizado sobre todo en dos sentidos: a) inducción repetitiva o por enumeración; y b) inducción por eliminación. Popper está convencido de que ambos tipos de inducción fallan por la base. Escribe: «La primera es la inducción repetitiva (o inducción por enumeración), que consiste en observaciones repetidas a menudo, observaciones que servirían para fundamentar una generalización efectuada por la teoría. La carencia de validez de este género de razonamiento resulta obvia: ninguna cantidad de observaciones de cisnes blancos permite establecer que todos los cisnes son blancos (o que es reducida la posibilidad de hallar un cisne que no sea blanco). Del mismo modo, por muchos espectros de átomos de hidrógeno que podamos observar, jamás podremos establecer que todos los átomos de hidrógeno emiten espectros del mismo género [...]. En consecuencia, la inducción por enumeración se halla fuera de discusión: no puede fundamentar nada.» Por otro lado, la inducción eliminatoria se basa en el método de la eliminación o refutación de las teorías falsas. «A primera vista -dice Popper este tipo de inducción puede parecer muy semejante al método de la discusión crítica que yo defiendo, pero en realidad es muy diferente. En efecto, Bacon y MilI, junto con los demás propagadores de este método de inducción, creían que si se

eliminaban todas las teorías falsas prevalecería la teoría verdadera. En otras palabras, no se daban cuenta de que la cantidad de teorías rivales es siempre infinita, aunque por lo general en cada momento específico sólo podamos tomar en consideración un número finito de teorías [...]. El hecho de que para cada problema siempre exista una infinidad de soluciones lógicamente posibles es uno de los hechos decisivos de toda la ciencia; es una de las cosas que convierten la ciencia en una aventura tan excitante. En efecto, vuelve ineficaces todos los métodos basados en la simple rutina. Ello significa que en la ciencia debemos utilizar la imaginación y las ideas audaces, aunque aquélla y éstas siempre deben estar moderadas por la crítica y por los controles más rigurosos. »

En consecuencia: la inducción no existe; por lo tanto, no puede fundamentar nada, y no existen métodos basados en la simple rutina. Es erróneo pensar que la ciencia empírica procede mediante métodos inductivos. Se suele afirmar que una inferencia es inductiva cuando proviene de aserciones singulares, como los informes sobre resultados de observaciones o experimentos, y llega hasta aserciones universales, por ejemplo, hipótesis o teorías. Ya en 1934, Popper escribía: «Desde un punto de vista lógico, no es en absoluto obvio que se esté justificando al inferir aserciones uni-versales desde aserciones singulares, por numerosas que sean las últimas; cualquier discusión extraída de este modo puede siempre revelar su falsedad: por numerosos que sean los casos de cisnes blancos que podamos haber observado, esto no justifica la conclusión de que todos los cisnes son blancos.» La inferencia inductiva, por lo tanto, no se encuentra lógicamente justificada. La historia del «pavo inductivista» mencionado por Bertrand Russell puede servir para ilustrar la cuestión. Desde el primer día dicho pavo observó que en el criadero al cual se le había llevado se le daba comida a las 9 de la mañana. Como buen inductivista, no se apresuró a extraer conclusiones de sus observaciones, y llevó a cabo otras cosas, en una amplia gama de circunstancias: los miércoles y los jueves, en días calurosos y días fríos, con lluvia o con un sol resplandeciente. De este modo, cada día enriquecía su elenco con una proposición observacional en las más diversas condiciones. Por último, su conciencia inductivista quedó satisfecha y elaboró una inferencia inductiva como la siguiente: «Siempre me dan la comida a las 9 de la mañana.» Sin embargo, esta conclusión se mostró indiscutiblemente falsa la víspera de Navidad, cuando en vez de ser alimentado fue degollado.

También se podría abordar el problema de la inducción desde otra perspectiva. El principio de inducción es una proposición analítica (es decir, tautológica) o bien es una aserción sintética (es decir, empírica). Sin embargo, «si existiese algo que fuese un principio de inducción puramente lógico, la inducción no plantearía ningún problema, porque en este caso todas las inferencias inductivas habrían de considerarse como transformaciones puramente lógicas o tautológicas, igual que las inferencias de la lógica deductiva». Por lo tanto, el principio de inducción debe ser una aserción universal sintética. Empero, «si tratamos de considerar su verdad como algo conocido por experiencia, vuelven a surgir exactamente los mismos problemas que provocaron su empleo. Para justificarlo, debemos apelar a inferencias inductivas; y para justificar estas útimas hemos de suponer un principio inductivo de orden superior, y así sucesivamente. De este modo, fracasa el intento de basar el principio de inducción en la experiencia, porque conduce necesariamente a un retroceso hasta el infinito» .

4. LA MENTE NO ES UNA «TABULA RASA»

Vinculada con la teoría de la inducción, encontramos otra idea según la cual la mente del investigador debe carecer de supuestos previos, de hipótesis, de sospechas y de problemas. En definitiva, debe ser una tabula rasa en la que más tarde se refleje el libro de la naturaleza. Popper llama «observativismo» a esta noción y considera que es un mito. El observativismo es un mito filosófico porque en realidad nosotros somos una tabula plena, una pizarra llena con los signos que la tradición o evolución cultural ha dejado en su superficie. La observación siempre está orientada por expectativas teóricas y Popper afirma que ese hecho «se puede ilustrar mediante un sencillo experimento que deseo llevar a cabo, con el permiso de ustedes, utilizándoles a ustedes mismos como conejillos de Indias. Mi experimento consiste en pedirles que observen, aquí y ahora. Espero que todos colaboren y que observen. Sin embargo, temo que alguno de ustedes, en vez de observar, experimentará un fuerte impulso a preguntarme: "¿Qué quiere que observe?" Si tal es su pregunta, mi experimento habrá tenido éxito. Lo que intento poner en evidencia es que, si nos proponemos observar, hemos de tener in mente una cuestión definida, que estemos en condiciones de decidir mediante la observación. Charles Darwin lo sabía bien, cuando escribió "¡Qué extraño es que nadie vea que toda observación no puede dejar de mostrarse a favor o en contra de una teoría!"». Un experimento o prueba presupone siempre algo que hay que experimentar o probar. Y este algo son las hipótesis (conjeturas, ideas o teorías) que se inventan para solucionar los problemas. Tampoco observamos al azar ni podemos observarlo todo. Nadie pesa, describe su forma o calcula la distancia a que están del centro de la Luna todos los granos de arena de todos los desiertos y de todas las playas. Y nadie lleva a cabo estas u otras infinitas observaciones posibles, porque no son importantes, porque son irrelevantes. Irrelevantes para nuestros intereses y problemas, o mejor dicho, para aquellas hipótesis o conjeturas inventadas precisamente para solucionar los problemas con que tropezamos a cada momento, debido a nuestra memoria cultural.

Según Popper, la mente carente de juicios previos no es una mente pura, sino únicamente una mente vacía. Siempre operamos mediante teorías aunque a menudo no seamos conscientes de ello. «La observación pura, la observación carente de un componente teórico, no existe. Todas las observaciones -y en especial todas las observaciones experimentales son observaciones de hechos realizadas a la luz de esta o de aquella teoría.» Con este enfoque Popper invierte la postura de aquellos que han defendido y defienden que la observación debe preceder a las expectativas (o hipótesis) y a los problemas, y asimismo afirma que «todo animal nace con numerosas expectativas, generalmente inconscientes, o en otras palabras, se halla dotado desde el nacimiento de algo que se corresponde muy de cerca con las hipótesis, y por lo tanto al conocimiento hipotético. Afirmo que siempre tenemos un conocimiento innato -innato en este sentidodesde el cual partimos, aunque bien puede suceder que no podamos fiarnos en absoluto de este conocimiento innato. Tal conocimiento innato, tales expectativas innatas, si se ven defraudados, crearán nuestros primeros problemas, y el aumento de conocimiento que se sigue de ello puede ser descrito como un aumento consistente únicamente en correcciones y modificaciones del conocimiento anterior».

5. PROBLEMAS Y CREATIVIDAD; GÉNESIS Y COMPROBACIÓN DE LAS IDEAS

Según Popper, no existe el procedimiento inductivo y la noción de mente como tabula rasa es un mito. Popper piensa que la investigación no toma como punto de partida observaciones, sino problemas: «problemas prácticos o una teoría que ha tropezado con dificultades, es decir, que ha hecho nacer expectativas y luego las ha defraudado.» Un problema es una expectativa defraudada. Si consideramos su naturaleza, un problema es una contradicción entre asertos establecidos. La sorpresa y el interés son los ropajes psicológicos de aquel hecho lógico que es la contradicción entre dos teorías o entre una consecuencia de una teoría y una proposición que presumible mente describe un hecho. Los problemas se plantean necesariamente porque somos una memoria biológico-cultural, fruto de una evolución biológica primero y luego eminentemente cultural. Cuando un trozo de memoria -una expectativa (una hipótesis o un supuesto previo)choca contra otra expectativa o con un trozo de realidad (con los hechos), tenemos un problema. Popper describe en estos términos la correlación entre aquel conjunto de expectativas que es nuestra memoria cultural, y los poblemas: «A veces, cuando bajamos una escalera, ocurre que descubrimos de modo repentino que esperábamos otro escalón (que no existe), o por el contrario, no esperábamos ningún otro y nos encontramos con uno. El desagradable descubrimiento de habernos equivocado nos hace caer en la cuenta de que teníamos determinadas expectativas inconscientes. Y muestra que existen miles de tales expectativas inconscientes.»

La investigación, por lo tanto, se inicia partiendo de los problemas: justamente investigamos la solución.de problemas. Y para solucionar los problemas se hace necesaria la imaginación creadora de hipótesis o conjeturas; se necesita creatividad, creación de ideas «nuevas y buenas», buenas para solucionar el problema. Aquí es preciso efectuar una distinción -sobre la cual Popper insiste con frecuencia- entre el contexto del descubrimiento y el contexto de la justificación. Una cosa es el proceso biológico o la génesis de las ideas; otra muy distinta, la comprobación de las ideas. Las ideas científicas no tienen orígenes privilegiados: pueden surgir del mito, de las metafísicas, del sueño, de la ebriedad, etc. Lo que importa, sin embargo, es que sean probadas de hecho. Y es obvio que, para que sean probadas de hecho, las teorías científicas deben ser comprobables o controlables por principio.

6. EL CRITERIO DE FALSACIÓN

La investigación toma como punto de partida los problemas. Para resolverlos, hay que inventar hipótesis que sirvan como intentos de solución. Una vez formuladas, hay que comprobar dichas hipótesis. y éstas se prueban extrayendo consecuencias de ellas y viendo si se cumplen o no. Si se cumplen, decimos que la hipótesis de momento se confirma; en cambio, si por lo menos una de las consecuencias no se cumple, diremos que la hipótesis se ve falsada. En otros términos, dados un problema P y una teoría T que se propone como solución a él decimos: si T es verdadera, entonces habrán de darse las consecuencias PI, P2, P3, ..., Pn, que si se cumplen confirman la teoría, y si no se cumplen la desmienten o falsan, es decir, demuestran que es falsa. Se aprecia así que una teoría, para que se compruebe de hecho, tiene que ser comproblable o controlable de principio, en otras palabras, tiene que ser falsable, tienen que poder extraerse de ella consecuencias que puedan refutarse, es decir, que puedan ser falsadas por los hechos. Si de una teoría no se pueden extraer consecuencias susceptibles de un control fáctico, no es una teoría científica. Aquí, no obstante, hay que recordar que una hipótesis metafísica de hoy puede convertirse mañana en científica (como ocurrió con la antigua teoría atomista, que era metafísica en los tiempos de Demócrito y se transformó en científica en la época de Fermi).

El método deductivo de los controles consiste en esta extracción de consecuencias de la teoría bajo control, y en su comparación con las aserciones de base (o protocolos), que de acuerdo con nuestros conocimientos describen los hechos. Estos controles, desde el punto de vista lógico, nunca hallan un final definitivo, dado que por muchas confirmaciones que haya tenido una teoría nunca es algo cierto del todo, en la medida en que el próximo control puede desmentirla. Este hecho lógico explica la historia de la ciencia, donde vemos teorías que habían resistido durante mu-chas décadas hundirse bajo el peso de los hechos que se les oponen.

En realidad, existe una asimetría lógica entre verificación y falsación: billones y billones de confirmaciones no convierten en cierta una teoría (por ejemplo, «todos los trozos de madera flotan en el agua») mientras que un solo hecho negativo «este trozo de ébano no flota» falsa la teoría, desde un punto de vista 1ógico. Popper inserta en esta simetría el mandato metodológico de falsación: puesto que toda teoría, aunque esté confirmada, siempre puede desmentirse, hay que tratar de falsarla, porque cuanto antes se encuentre un error, antes se le podrá eliminar con la invención y la prueba de una teoría mejor que la anterior. De este modo, la epistemología de Popper reconoce la fuerza que caracteriza el error. Como decía Oscar Wilde, «experiencia es el nombre que cada uno de nosotros da a sus propios errores».

Esto nos permite comprender el lugar central de la noción de falsación en la epistemología de Popper: «A un sistema científico no le exigiré que sea capaz de ser escogido, en sentido positivo, de una vez para siempre; pero le exigiré que su forma lógica sea tal que pueda ser puesto en evidencia, mediante controles empíricos, en sentido negativo: un sistema empírico debe poder ser refutado por la experiencia.» La corrección de este criterio puede constatarse cuando pensamos en aquellos sistemas metafísicos siempre verificables (¿qué hecho no confirma ninguna de las muchas filosofías de la historia?) y jamás desmentibles (¿qué hecho podrá jamás desmentir una filosofía de la historia o una visión religiosa del mundo?).

7. LA VEROSIMILITUD Y LA PROBABILIDAD DE LAS TEORÍAS SON OBJETIVOS INCOMPATIBLES ENTRE SI

El objetivo de la ciencia, según Popper, es la obtención de teorías cada vez más verosímiles, cada vez más cercanas a la verdad. Una teoría T2 es mejor o más verosímil que T1 cuando todas las consecuencias verdaderas de T1 son consecuencias verdaderas de T2, cuando las consecuencias falsas de T1 son consecuencias verdaderas de T2, y cuando pueden deducirse de T2 consecuencias que no se pueden extraer de T1, Por lo tanto, suponiendo que se puedan confrontar el contenido de verdad (las consecuencias verdaderas) y el contenido de falsedad (las consecuencias falsas) de las dos teorías TI y T2, cabe decir que T2 es más semejante a la verdad o se corresponde mejor con los hechos que T1 si y sólo si:

a) el contenido de verdad de T2 -pero no su contenido de falsedad supera el de TI, o bien

b) el contenido de falsedad de TI-pero no su contenido de verdad supera el de T2.

Esta noción de mayor verosimilitud de T2 en comparación con T1 hace que Popper afirme que la teoría más verosímil (es decir, con mayor contenido informativo, con mayor potencia explicativa y de previsión) es también la teoría menos probable. En otros términos, si preferimos la teoría más verosímil, ésta es la teoría que posee un mayor contenido informativo. Empero, puesto que si dice más cosas también puede equivocarse más, entonces la teoría más comprobable (o controlable) es también la hipótesis más improbable. En efecto, substituyendo «el contenido de la aserción a» por Ct( a), «el contenido de la aserción b» por Ct(b), y «el contenido de la conjunción a y b» por Ct(ab), tenemos

1) Ct(a) Ct(ab) Ct(b)

que contrasta con la correspondiente ley del cálculo de probabilidades:

2) pea) p(ab) p(b)

. donde se invierten los signos de desigualdad de 1). Para explicitar 1) y 2), consideramos la aserción a: «El viernes lloverá»; la aserción b: «El sábado hará buen tiempo»; y ab, la aserción «El viernes lloverá y el sábado hará buen tiempo». Es evidente que el contenido informativo de esta última aserción (ab) supera al de su componente a y también al de su componente b. Y es también obvio que la probabilidad de ab (o lo que es lo mismo, la probabilidad de que ab sea verdadera) será menor que la de cada uno de sus componentes. Por lo tanto -escribe Popper- «si nos proponemos como objetivo el progreso o el aumento del conocimiento, no podemos proponemos el logro de una elevada probabilidad (en el sentido del cálculo de probabilidades): estos dos objetivos son incompatibles».

8. EL PROGRESO DE LA CIENCIA

Mediante la ciencia buscamos la verdad. Ésta no se predica de los hechos, sino de las teorías. Y una teoría, tanto para Tarski como para Popper, es verdadera cuando se corresponde con los hechos. Ahora bien, ésta es una definición de verdad, pero no tenemos un criterio de verdad: aunque hallásemos una teoría verdadera, nunca podríamos llegar a saberlo, porque las consecuencias de una teoría son infinitas y no podemos controlarlas todas. En tales circunstancias, según Popper la verdad es un ideal regulador. Nos acercamos a la verdad eliminando los errores de las teorías precedentes y substituyéndolas por teorías más verosímiles. En esto consiste, para Popper, el progreso de la ciencia, y esto es lo que ha ocurrido, por ejemplo, con el paso desde Copérnico a Galileo, desde Galileo a Kepler, desde Kepler a Newton, desde Newton a Einstein, que ha permitido avanzar hacia teorías cada vez más verdaderas.

Esto no debe hacemos pensar que exista en la ciencia una ley del progreso. La ciencia puede estancarse. El avance de la ciencia ha conocido obstáculos (epistemológicos, ideológicos, económicos, etc.) y quizás seguirá conociéndolos. No existe una ley del progreso en la ciencia. Sin embargo, dice Popper, tenemos un criterio de progreso: una teoría puede acercarse a la verdad más que otra. Y esta idea de mayor aproximación a la verdad o de grados diversos de verosimilitud es expuesta por Popper de un modo específico mediante un elenco asistemático de seis tipos de casos en los que estaremos dispuestos a afirmar que una teoría t1 ha sido remplazada por t2, en el sentido de que -en el estado actual de nuestros conocimientos- t2 parece corresponderse mejor que tI con los hechos, en uno u otro sentido.

1) t2 realiza aserciones más precisas que t¡, y estas aserciones más precisas superan controles también más precisos.

2) t2 tiene en cuenta más hechos y explica más hechos que tI (lo cual abarca, por ejemplo, el caso antes citado, en el que, manteniéndose iguales todas las demás cosas, las aserciones de t2 son más precisas).

3) t2 describe o explica los hechos con más detalle que t1,

4) t2 ha superado controles que t1 no ha logrado superar.

5) t2 ha sugerido nuevos controles experimentales, que no se habían tomado en consideración antes de formular t2 (y que no habían sido sugeridos por ti, Y que quizás no se le pueden aplicar); t2 ha superado estos controles.

6) t2 ha unificado, o puesto en conexión, diversos problemas que antes no habían sido unificados entre sí.

9. FALSACIÓN LÓGICA Y FALSACIÓN METODOLÓGlCA; SABER DE TRASFONDO Y «NUEVOS PROBLEMAS»

Popper es un falsacionista ingenuo desde el punto de vista lógico, porque si se acepta una hipótesis (de bajo nivel) falsadora, entonces la teoría que contradice dicha hipótesis se ve falsada lógicamente, debido al modus tollens [es decir, con base en el siguiente tipo de argumentación: si t es verdad, entonces será verdad también p; pero p es falsa; entonces también t es falsa. En notación simbólica, (t - p) /\ 1 p) 1 t]. No obstante, aunque la falsación lógica sea un proceso simple (desde la falsedad de una consecuencia se pasa lógicamente a la falsedad de por lo menos una de las premisas), Popper resulta un falsacionista muy sofisticado desde el punto de vista metodológico. En efecto, para extraer consecuencias observables de una hipótesis, tenemos necesidad de hipótesis auxiliares (hipótesis que, colocadas al lado de la hipótesis que hay que controlar, permiten extraer consecuencias observables de ésta). Dichas hipótesis auxiliares, aunque aceptadas en determinado momento, más adelante podrían provocar la falsación de la hipótesis sometida a control, por ser erróneas. Además, para falsar una teoría se necesitan aserciones de base aceptadas como verdaderas; pero que se acepten como verdaderas no quiere decir que lo sean, ya que tampoco los protocolos están inmunes ante el error. Por eso, podría suceder que la hipótesis sometida a control no fuese falsa, sino que lo fuese la aserción utilizada para falsaria. Todo esto nos indica que la falsación lógica resulta concluyente, pero la falsación meto do lógica no lo es.

Y cuando se haya puesto en claro que nunca podremos justificar empíricamente -es decir, mediante proposiciones de control- la pretensión de que una teoría científica sea verdadera, advertiremos de inmediato que en el mejor de los casos siempre nos hallamos ante el problema de preferir, a título de intento o de conjetura, una teoría más bien que otra. Entonces, estaremos en condiciones de traducir la problemática sobre los grados de verosimilitud a interrogantes como los siguientes: ¿Qué principios de preferencia debemos aplicar? ¿Algunas teorías son mejores que otras?

Tales interrogantes dan lugar a consideraciones como las que formulamos a continuación. Ante todo, es evidente que la cuestión de la preferencia surge de modo exclusivo cuando se tienen teorías que compiten entre sí para solucionar los mismos problemas. Entre estas soluciones en competencia, el teórico elegirá la teoría más semejante a la verdad, la más verdadera. Sin embargo, aunque se proponga llegar a la verdad, al teórico también le interesará la falsedad, porque descubrir que una proposición es falsa equivale a descubrir que su negación es verdadera. Popper, en Conocimiento objetivo, escribe: «Si el teórico fomenta este interés suyo, entonces el descubrir dónde falla una teoría, además de proporcionarle informaciones teóricamente interesantes, plantea un importante problema nuevo para toda nueva teoría explicativa. Toda nueva teoría no sólo habrá de servir allí donde servía su predecesora, sino que tendrá que funcionar correctamente allí donde su predecesora fracasaba; esto es, donde había sido refutada. Si la nueva teoría logra ambas cosas, tendrá más éxito y por lo tanto será mejor que la vieja.»

Es evidente que el que una teoría t2 sea mejor en comparación con otra teoría t1 implica también el saber de trasfondo y, por lo tanto, el factor tiempo. Una teoría es mejor que otra, en relación con el saber que se posee en el tiempo T y con los medios de control disponibles también en ese tiempo T. Es mejor que otra porque esta otra teoría ha sido falsada y aquélla -en cambio- en el momento T aún no se ha visto falsada, por lo cual podría ser verdadera, a la altura de nuestros conocimientos en el tiempo T.

No obstante, si una teoría puede ser verdadera, también puede ser falsa. Y por eso el teórico, empleando su propia habilidad e imaginación, la someterá a controles severos y a situaciones críticas de control. «Mediante este método de eliminación, podemos topar con una teoría verdadera. Pero en ningún caso el método podrá establecer su verdad, aunque sea verdadera; ello se debe a que la cantidad de teorías que pueden ser verdaderas sigue siendo infinita, en todo y después de efectuar la cantidad de controles críticos que se desee.» Si en el tiempo T hubiese diversas teorías no refutadas, el teórico tratará entonces de descubrir cómo pueden diseñarse experimentos que permitan falsar y, por lo tanto, eliminar alguna de las teorías que compiten entre sí o todas ellas.

La falsación de una teoría supone un enriquecimiento en los problemas. En efecto, ante toda teoría falsada, en lugar de introducir hipótesis ad hoc, podemos preguntarnos: ¿por qué sucede esto?" La respuesta, si logramos hallarla, constituirá una teoría mejor que la teoría falsada. Mejor, porque estará en condiciones de explicar también aquellos hechos u observaciones que han falsado la teoría precedente. Sin embargo, «no hay nada, naturalmente, que pueda garantizar que encontraremos un sucesor mejor para cada teoría falsada o una mejor aproximación que satisfaga estos requisitos. No tenemos la seguridad de que seremos capaces de realizar un progreso hacia teorías mejores». Estas argumentaciones se proponen aclarar la preferencia teórica entre diversas teorías. En el momento T, es preferible aquella teoría que, a la luz de todos los posibles controles que cabe efectuar en el tiempo T, explica más, posee mayor contenido informativo y, a igualdad de contenido informativo, es más exacta. La preferencia pragmática es una consecuencia de la preferibilidad teórica: no podemos fiarnos de ninguna teoría, porque ninguna teoría se ha demostrado como verdadera; pero debemos preferir como base para la acción aquella teoría mejor controlada.

10. SIGNIFICACIÓN Y CRITICABILIDAD DE LAS TEORÍAS METAFÍSICAS

El criterio de falsación, a diferencia del principio de verificación, no es un criterio de significación sino de demarcación entre asertos empíricos y otros que no lo son. No obstante, decir de un aserto o de un conjunto de asertos que no es científico no implica para nada que carezca de sentido. Por esta razón, en 1933 Popper escribió una carta al director de la revista «Erkenntnis», en la cual -entre otras cosas- le decía: «Apenas oí hablar del nuevo criterio de verificabilidad del significado elaborado por el Círculo (de Viena), le contrapuse mi criterio de falsación: un criterio de demarcación destinado a establecer una frontera entre sistemas de aserciones científicas y sistemas perfectamente significantes de aserciones metafísicas.» En efecto, comprendemos a la perfección lo que quieren decir los realistas, los idealistas, los solipsistas o los dialécticos. En realidad, afirma Popper, los neopositivistas trataron de eliminar la metafísica lanzándole improperios, pero a través de su principio de verificación la reintrodujeron en la ciencia (en la medida en que las leyes mismas de la naturaleza no son verificables). Lo cierto es que «no puede negarse que, junto a las ideas metafísicas que han obstaculizado el camino de la ciencia, ha habido otras -como por ejemplo el ato mismo especulativo- que la han ayudado a progresar. Contemplando la cuestión desde un punto de vista psicológico, me siento dispuesto a considerar que el descubrimiento científico se vuelve imposible sin la fe en las ideas que tengan una naturaleza puramente especulativa y que a veces resultan más bien nebulosas; fe, ésta, que se halla completamente desprovista de garantías

desde el punto de vista de la ciencia y que por lo tanto, dentro de estos límites, es "metafísica"». En consecuencia, desde el punto de vista psicológico, la investigación es imposible sin ideas metafísicas, como podrían ser por ejemplo, las ideas del realismo, de orden del universo o de causalidad. Luego, desde el punto de vista histórico vemos «que a veces ideas que antes flotaban en las más elevadas regiones metafísicas pueden ser alcanzadas cuando se incrementa la ciencia, y al entrar en contacto con ésta, se convierten en realidad. Ejemplos de ideas de este tipo son el atomismo; la noción de un "principio" físico único o elemento último (del que se derivan todos los demás); la teoría del movimiento de la Tierra (al que Bacon se oponía, considerándolo ficticio); la venerable teoría corpuscular de la luz; la teoría de la electricidad como fluido (que ha cobrado nueva vida con la hipótesis según la cual la conductividad de los metales se debe a un gas formado por electrones). Todos estos conceptos y todas estas ideas metafísicas han servido -incluso en sus formas más primitivas- para poner orden en la imagen que el hombre se forma del mundo, y en algunos casos pueden haber llevado también a efectuar predicciones con éxito. Sin embargo, una idea de esta clase sólo adquiere status científico cuando se presenta de forma que pueda ser falsada, es decir, únicamente cuando se ha hecho posible decidir empíricamente entre ella y una teoría rival». Popper escribía esto en 1934. En su Postscript (en preparación desde 1957), con respecto a los programas de investigación metafísica, afirma:

El atomismo es [...] un excelente ejemplo de teoría metafísica no controlable cuyo influjo sobre la ciencia supera el ejercido por muchas teorías controlables [...]. El último y más grandioso ha sido hasta ahora el programa de Faraday, Maxwell, Einstein, De Broglie y Schrodinger, que se propone concebir el mundo [...] en términos de campos continuos [...]. Cada una de estas teorías metafísicas ha funcionado como un programa para la ciencia. Ha indicado la dirección en la que podían hallarse teorías de la ciencia adecuadamente explicativas y ha hecho posible una evaluación de la profundidad de una teoría. En biología, la teoría de la evolución, la teoría de la célula y la teoría de la infección bacteriana han desempeñado un papel similar, al menos durante cierto tiempo. En psicología, el sensismo, el atomismo (la teoría según la cual todas las experiencias están compuestas por elementos últimos, por ejemplo, los datos sensoríales) y el psicoanálisis habrían de recordarse como programas de investigación metafísicos [...]. Incluso aserciones puramente existenciales se han mostrado en ocasiones como inspiradoras y fructíferas para la historia de la ciencia, aunque no hayan llegado a formar parte de ésta. Pocas teorías metafísicas han influido más sobre el desarrollo de la ciencia que aquel puramente metafísico que afirma: «Existe una substancia que puede convertir en oro los metales viles (la piedra filosofaI), aunque no sea falsable, nunca se haya verificado y nadie crea en ella.

En conclusión, desde el punto de vista psicológico, sin ideas metafísicas se hace imposible la investigación científica; desde el punto de vista histórico constituye un dato de hecho el que, junto a aquellas ideas metafísicas que han obstaculizado la ciencia, ha habido otras que representaron fecundos programas de investigación; y ha habido metafísicas que, al aumentar el saber de trasfondo, se han transformado en teorías controlables. Este hecho histórico nos indica con elocuencia que, desde el punto de vista lógico, el ámbito de lo verdadero no se identifica con el de lo controlable.

La cuestión no se limita a esto, porque si bien es cierto que existen teorías metafísicas sensatas, eventualmente verdaderas, y sin embargo empíricamente incontrolables (y por ello metafísicas), hemos de tener en cuenta que tales teorías -aunque empíricamente irrefutables- sean criticables. Criticables, porque no se trata de aserciones aisladas acerca del mundo, que se presenten a través de un perentorio «todo o nada»; están vinculadas con otras teorías, con otras situaciones problemáticas objetivas, o se basan en ellas, se entrelazan con ellas, las presuponen o son incompatibles con ellas. Con base en estas consideraciones es fácil comprobar cómo teorías empíricamente irrefutables son criticables. Así, por ejemplo, si el determinismo kantiano es fruto de la ciencia de aquella época (el mundo-reloj de Newton), y si la ciencia posterior transforma el mundo-reloj en un mundo-nube, entonces se derrumba aquel saber de trasfondo sobre el cual se alzaba el determinismo de Kant, y este hundimiento arrastra consigo a la teoría filosófica del determinismo

11. CONTRA LA DlALÉCTICA; LA «MISERIA DEL HISTORICISMO»

Los primeros elementos de la teoría social de Popper se encuentran in luce en el ensayo ¿Qué es la dialéctica? Este escrito señala el momento en el que Popper empieza a interesarse por los problemas de metodología de las ciencias sociales. Basándose en su concepción del método científico, Popper afirma: entre otras cosas que por una parte la contradicción lógica y la dialéctica no tienen nada en común, mientras que por otra el método dialéctico constituye una mala interpretación y una absolutización del método científico. En este último -como pretenden los dialécticos- no existe una producción necesaria de la síntesis, ni tampoco se da en ésta el necesario mantenimiento de la tesis y de la antítesis. La dialéctica, continúa diciendo Popper, en cuanto teoría descriptiva, se disuelve en la banalidad de lo tautológico o bien se constituye como teoría que permite justificarlo todo, en la medida en que escapa de la prueba de la experiencia, puesto que no es falsable. La dialéctica, en esencia, aunque parezca omnipotente, en realidad no puede nada.

Una vez establecido esto, veamos los núcleos fundamentales de la conocida obra de Popper que se titula La miseria del historicismo. Este ensayo se centra en la crítica al historicismo y al «holismo», en la defensa de la básica unidad del método científico en las ciencias naturales y en las ciencias sociales, y en la consiguiente propuesta de una tecnología social racional, es decir, gradualista.

Segun los historicistas, la tarea de las ciencias sociales consistiría en captar las leyes de desarrollo de la evolución histórica del hombre, de modo que podamos prever sus avances siguientes. Sin embargo, Popper sostiene que tales profecías no tienen nada que ver con las predicciones de la ciencia. El historicismo sólo es capaz de formular jactanciosas profecías políticas y no se da cuenta de que:

a) los desarrollos imprevistos de la ciencia vuelven imposible tal actividad profética;

b) la vieja creencia según la cual se puede captar la ley del desarrollo de la historia humana se basa en una considerable equivocación metodológica que confunde leyes con tendencias (en la medida en que una tendencia no es una ley, sino una aserción singular, histórica, explicable mediante leyes);

e) la historia humana no tiene ningún sentido, salvo el que le demos nosotros;

d) por consiguiente, la historia no nos justifica, sino que nos juzga. Por otro lado, el «holismo» es la concepción según la cual sería posible captar intelectualmente la totalidad de un objeto, un acontecimiento, un grupo o una sociedad, y de transformar al mismo tiempo dichas totalidades, desde un punto de vista práctico o, mejor dicho, político. En contra de tal concepción holista, Popper hace notar que:

a) constituye un grave error metodológico pensar que podamos entender la totalidad, ni siquiera del trozo más pequeño e insignificante del mundo, en la medida en que todas las teorías captan únicamente aspectos selectivos de la realidad, son por principio siempre falsables, y también por principio son infinitas en número;

b) desde el punto de vista práctico y operativo, el holismo se resuelve en un utopismo, por lo que respecta a la tecnología social, y en el totalitarismo por lo que respecta a la práctica política.

Como puede apreciarse, Popper lleva a cabo su crítica al historicismo y al holismo en nombre de la fundamental unidad del método científico que debe existir tanto en las ciencias naturales como en las ciencias sociales. En opinión de este autor, dichas ciencias actúan de acuerdo con el modelo diseñado en La lógica del descubrimiento científico. Funcionan mediante la elaboración de hipótesis que llevamos a cabo para resolver los problemas que más nos interesan y que hay que someter a la prueba de la experiencia. La contraposición entre ciencias sociales y ciencias naturales únicamente tiene lugar porque a menudo se mal interpretan el método y el procedimiento que siguen las ciencias naturales. El hecho de que las ciencias sociales posean la misma naturaleza que las ciencias físicas implica que, sobre el plano de la tecnología social, se proceda a solucionar los problemas más urgentes mediante una serie de experimentos, adecuada-mente planteados con el propósito de corregir objetivos y medios, basándose en los resultados obtenidos

12. LA SOCIEDAD ABIERTA

En consecuencia, afirma Popper, las tesis metodológicas del historicismo constituyen el soporte teórico más válido para las ideologías totalitarias, como demuestra en los dos volúmenes de La sociedad abierta y sus enemigos. Con esta obra su autor pasa desde la crítica metodológica a un ataque ideológico contra el historicismo, considerado como filosofía reaccionaria y como defensa de la «sociedad cerrada» en contra de la «sociedad abierta», como defensa de una sociedad totalitaria concebida de manera organicista y organizada tribalmente de acuerdo con normas no modificables. Al contrario, la sociedad abierta se configura en su pensamiento como una sociedad basada en el ejercicio crítico de la razón humana, como una sociedad que no sólo tolera sino que estimula -en el interior de las instituciones democráticas y a través de éstas- la libertad de los individuos y de los grupos, en vista de la solución de los problemas sociales, es decir, de las continuas reformas. De un modo más preciso, Popper concibe la democracia como el mantenimiento y el continuo perfeccionamiento de determinadas instituciones, y en particular de aquellas que ofrecen a los gobernados la posibilidad efectiva de criticar a sus propios gobernantes y de substituidos sin derramamiento de sangre. Con esto Popper no quiere decir, sin embargo, que el demócrata, precisamente por serlo, deba aceptar que los totalitarios se hagan con el poder. En el segundo volumen de La sociedad abierta y sus enemigos podemos leer:

No soy contrario en todos los casos y en todas las circunstancias a la revolución violenta. Como algunos pensadores cristianos de la edad media y del renacimiento que admitían el recurso al tiranicidio, creo que bajo una tiranía puede no haber en realidad ninguna otra posibilidad, y que una. revolución violenta podría justificarse. Pero creo también que cualquier revolución de esta clase debe tener como objetivo únicamente la instauración de una democracia; y por democracia no entiendo en absoluto algo tan vago como el gobierno del pueblo o el gobierno de la mayoría, sino un conjunto de instituciones (entre las que se cuentan especialmente las elecciones generales, el derecho del pueblo a destituir al gobierno) que permitan el control público de los gobernantes y su destitución por parte de los gobernados, y que permitan que éstos consigan reformas sin recurrir a la violencia e incluso en contra de la voluntad de los gobernantes. En otras palabras, la utilización de la violencia sólo se justifica bajo una tiranía que vuelva imposible las reformas sin violencia, y debe tener un único objetivo: lograr un estado de cosas que haga posible las reformas sin violencia.

Para Popper, por lo tanto, el recurso de la violencia sólo se justifica para derrocar la tiranía, y una vez instaurada la democracia, contra los intentos de subvertirla. Para exponer con claridad la teoría de la democracia, Popper establece los puntos siguientes:

1) La democracia no puede caracterizarse de forma completa únicamente como gobierno de la mayoría, aunque la institución de las elecciones generales posea la máxima importancia. En efecto, una mayoría puede gobernar de manera tiránica. (La mayoría formada por aquellos que tienen una estatura inferior a un metro ochenta y cinco puede decidir que sea la minoría formada por aquellos que tienen una estatura superior a un metro ochenta y cinco la que pague todos los impuestos.) En una democracia, los poderes de los gobernantes deben ser limitados, y el criterio de la democracia es éste: en una democracia los gobernantes -el gobierno- pueden ser destituidos por los gobernados sin derramamiento de sangre. Por lo tanto, si los hombres que ocupan el poder no salvaguardan aquellas instituciones que aseguran a la minoría la posibilidad de trabajar a favor de un cambio pacífico, su gobierno es una tiranía.

2) Debemos distinguir solamente entre dos formas de gobierno: el que posee instituciones de esta clase y todos los demás, es decir, entre democracia y tiranía.

3) Una constitución democrática coherente debe excluir únicamente un tipo de cambio en el sistema legal: aquel tipo de cambio que pueda poner en peligro su carácter democrático.

4) En una democracia, la protección integral de las minorías no debe extenderse a aquellos que violan las leyes, y sobre todo a aquellos que incitan a los demás a derrocar violentamente la democracia.

5) Una línea política dedicada a la instauración de instituciones que salvaguarden la democracia siempre debe actuar basada en el supuesto de que pueden existir tendencias antidemocráticas latentes, tanto entre los gobernados como entre los gobernantes.

6) Si se destruye la democracia, quedan destruidos todos los derechos; aunque se conserven determinadas ventajas económicas que disfruten los gobernados, sólo se basarían en la resignación.

7) La democracia ofrece un valioso campo de batalla para cualquier reforma razonable, al permitir que se lleven a cabo reformas sin violencia. Empero, si la defensa de la democracia no se convierte en la preocupación preeminente de toda batalla específica que se realice en este campo de lucha, las tendencias antidemocráticas latentes que siempre están presentes -y que apelan a aquellos que sufren los efectos angustiosos de la civilización- pueden provocar el hundimiento de la democracia. Si la comprensión de estos principios todavía no se ha desarrollado lo suficiente, hay que fomentarla. La línea política contraria puede resultar fatal; puede llevar a la derrota en la batalla más importante, la que se libra a favor de la democracia misma.

Popper escribía esto en 1945. En un momento más reciente ha reiterado que la sociedad abierta posee al menos dos características: «En primer lugar, en una sociedad abierta es posible la libre discusión, y esta discusión ejerce un influjo sobre la política. En segundo lugar, existen instituciones para la protección de la libertad y de los menos privilegiados.» Popper dice: «Creo que [la sociedad abierta] es al mismo tiempo una realidad y un ideal. En una democracia la sociedad será más madura, más desarrollada, más abierta que en otra democracia. En qué medida es buena o mala, depende de múltiples factores: de sus precedentes históricos, su tradición, sus instituciones políticas, sus métodos educativos y, por último, de los hombres que confieren a estas instituciones su contenido vital. Propongo que se trace una línea fronteriza bastante precisa entre democracia y dictadura. Se vive en una democracia cuando existen instituciones que permiten echar abajo al gobierno sin recurrir a la violencia, sin llegar a la represión física de sus miembros. Pero cuando existe la democracia, abre el camino que permite llegar a una sociedad realmente abierta. Se trata de algo gradual. Creo en la razón, creo que todos debemos esforzarnos por garantizar una actitud como la que he descrito. Como es natural, no creo que sea fácil o que todos los hombres sean siempre razonables: sólo lo son a veces. Tampoco creo en el poder de la

razón o en la fuerza de la razón. Creo más bien que podemos elegir entre la razón y la violencia, que la razón es la única alternativa al empleo de la violencia y que es un delito el empleo de la violencia evitable.»

Popper añade: «La violencia siempre engendra una violencia mayor. y las revoluciones violentas matan a los revolucionarios y corrompen sus ideales. Los únicos supervivientes son los especialistas más habilidosos en el arte de sobrevivir [...]. Sostengo que sólo en una democracia, en una sociedad abierta, tenemos la posibilidad de eliminar todos los inconvenientes. Si destruimos este ordenamiento social a través de una revolución violenta, no sólo seremos responsables de los pesados sacrificios que comporta la revolución misma, sino que crearemos una situación que imposibilita la eliminación de los infortunios sociales, la injusticia y la opresión. Estoy a favor de la libertad individual y odio como el que más la prepotencia del Estado y la arrogancia de las burocracias. Sin embargo, el Estado es un mal necesario; resulta imposible eliminarlo del todo. Y también es verdad que, cuantos más hombres haya, más necesario será el Estado. A través de la violencia se puede aniquilar fácilmente a la humanidad. Es necesario trabajar en favor de una sociedad más racional, en la que cada vez en mayor proporción los conflictos se solucionen racionalmente. Digo "más racional", y en realidad, ninguna sociedad es racional, pero hay una más racional que la que ahora existe, y hacia ella tenemos el deber de encaminamos. ¡Esto constituye una aspiración realista, y no una utopía!»

Para Popper, en definitiva, es democrática aquella sociedad que posee instituciones democráticas. Hay que estar atentos, advierte Popper, porque las instituciones son como una fortaleza: resisten si la guarnición es buena. Además, Popper considera que la justicia y la libertad constituyen los mayores ideales humanitarios. Sin embargo, construye una jerarquía en la que la libertad está antes que la justicia, porque en una sociedad libre, a través de una crítica adecuada y de las oportunas reformas, se podrá tender hacia la justicia. En cambio, en una sociedad cerrada, en una tiranía o en una dictadura, donde la crítica no es posible, ni siquiera se podrá alcanzar la justicia: siempre existirá la clase privilegiada de los siervos del tirano. Como conclusión hay que decir que en el trasfondo de todo, en el trasfondo de esta racional y apasionada defensa de las instituciones democráticas se encuentra lo que Popper llama «la fe en la razón».

El racionalismo atribuye valor a la argumentación razonada y a la teoría, y al control basado en la experiencia. Sin embargo, esta decisión en favor del racionalismo no puede a su vez demostrarse mediante una argumentación razonada o una experiencia. Aunque se la someta a discusión, en último término descansa sobre una decisión irracional, en la fe en la razón. Esta opción en favor de la razón no es de un orden puramente intelectual, sino de orden moral. Condiciona toda nuestra actitud hacia los demás hombres y hacia los problemas de la vida social. Y se halla estrechamente vinculada a una fe en la racionalidad del hombre, en el valor de cada hombre. El racionalismo puede estar acompañado de una actitud humanitaria con más motivos que el irracionalismo, con su rechazo de la igualdad de derechos. Sin duda alguna, los individuos humanos son desiguales en muchos aspectos. Pero esto no se opone a la exigencia de que todos sean tratados del mismo modo, de que todos posean iguales derechos. La igualdad ante la ley no es un hecho, es una instancia política que descansa sobre una opción moral. La fe en la razón, también en la razón de los demás, implica la idea de imparcialidad, de tolerancia, de rechazo a toda pretensión totalitaria.

13. LOS ENEMIGOS DE LA SOCIEDAD ABIERTA

Al caracterizar el historicismo como una concepción centrada en la fe en que la historia humana se desarrolla en su integridad mediante leyes férreas, que no le permiten al hombre sueños utópicos o planes racionales de reconstrucción social, Popper ve surgir la conjunción entre historicismo y rebelión en contra de la sociedad abierta ya en Heráclito y, más en particular, en su noción de un destino despiadado. Según Heráclito, aristócrata desencantado, todas las cosas se parecen a las llamas: éstas no son cosas, sino procesos. Sin embargo, después de haber reducido todas las cosas a llamas, a procesos (como la combustión), Heráclito descubre en ellas una ley, una medida; y vuelve a introducir, en el proceso del mundo, un orden predeterminado de los acontecimientos, la férrea ley del destino oculto bajo la aparente contingencia.

En cualquier caso, la expresión más relevante del historicismo en el pensamiento antiguo consiste -según Popper- en la doctrina políticosocial de Platón. Platón es el corifeo de la reacción contra la sociedad abierta formada por la democracia ateniense. Es el teórico de un estado ideal que habría de significar la detención de todo cambio sociopolítico. Es el teóri-co de un estado petrificado, estructurado sobre una rígidé! división de las clases y sobre el dominio exclusivo de los filósofos-reyes. Estos, educados institucionalmente por el Estado, protegen de la decadencia al Estado mismo, en el sentido de que impiden los movimientos políticos. En opinión de Platón, un movimiento político lleva necesariamente al hundimiento y a la degeneración, con base en la ley del desarrollo histórico.

Por eso, según Popper, en Platón aparecen con toda claridad el tribalismo y el totalitarismo. Son el aspecto político de la fe historicista en una ley histórica de decadencia, la cual se halla vinculada a su vez con la concepción esencialista en el ámbito de la metodología cognoscitiva. Esto pone de manifiesto la distancia que separa a Platón de Sócrates. En efecto,

el filósofo de Platón no es el modesto buscador socrático de la verdad (y por lo tanto, el demócrata que piensa y actúa críticamente en la polis para mejorar sus leyes, y que también sabe morir por ella), sino su orgulloso poseedor. Utilizando una expresión de G. Ryle, puede concluirse que Platón -a criterio de Popper- fue el Judas de Sócrates y que la República fue para Platón no sólo El Capital sino también el Mein Kampf.

Desde la antigüedad hasta nuestros días, Popper advierte que se reitera la ideología historicista y sus nefastos efectos en Hegel y Marx. Con

Hegel, escribe Popper, se inicia en la filosofía la fase de la falta de honradez, y toda la filosofía hegeliana -centrada en la noción de un desarrollo dialéctico inexorable y en la premisa de la identidad entre lo real y lo racional- no es más que la justificación y la apología del Estado prusiano y del mito de la horda. Sin duda Hegel nos ha permitido entender, dice Popper, que los hombres no comienzan su vida como si ésta fuese una hoja en blanco, que a los hombres no les es posible crear un mundo de pensamiento desd la nada y que en gran medida sus pensamientos son producto de la herencia. A pesar de ello, su filosofía es una de las mayores falsedades que se hayan formulado en contra de la sociedad abierta. Es el arsenal de los movimientos totalitarios modernos. Es el arsenal del nazismo y de la lamentable fe fascista, doctrina materialista y al mismo tiempo mística, totalitaria a la vez que tribal. Popper afirma que también surgen de la filosofía hegeliana los peores aspectos del marxismo: su historicismo y su totalitarismo.

A propósito de Marx hay que señalar, sin embargo, que Popper se encuentra escindido por un profundo odi et amo. En efecto, escribe que Marx fue un leal, auténtico y realista buscador de la verdad. Realizó un intento leal de aplicar los métodos racionales a los problemas más urgentes de la vida social. Marx nos abrió los ojos y afinó nuestra mirada con respecto a muchas cuestiones nuevas. Resulta imposible un retorno a la ciencia social premarxista, puesto que todos los estudiosos modernos (incluido Popper) son deudores de Marx, aunque no se den cuenta de ello. No se puede dudar en lo más mínimo del impulso humanitario del marxismo y del hecho de que Marx deseaba acudir en socorro de los explotados. Además, Popper se muestra de acuerdo con la crítica que Marx dirige en El Capital al laissez faire capitalista, y también con la desconfianza de Marx con respecto a la retórica moralizante y al fariseísmo.

A pesar de ello, Popper acusa a Marx de ser un falso profeta. El historicismo dialéctico hegeliano, sobre todo en el Marx de El Capital, se cambia en la afirmación de un metafísico determinismo ecónomico que, tomando en préstamos los prejuicios cientificistas de la cultura de la época, fundamenta la profecía marxista sobre la futura sociedad comunista, y con ésta, la actitud utópico-profética y la consiguiente ideología totalitaria. Una vez más, vemos que los elementos del marxismo a los que se opone Popper son el historicismo y el totalitarismo, la fe en leyes ineluctables y absolutas de la historia humana, y la creencia escatológica y pseudoreligiosa en un advenimiento necesario e inminente del paraíso en esta tierra.

Según Popper, los análisis sociológicos y económicos que fueron efectuados por Marx sobre la sociedad de su época fueron excelentes, aunque un tanto unilaterales. Marx, en esencia, logró un gran éxito en sus análisis, en la medida en que examinó las instituciones y sus funciones. Sin embargo, fracasó apenas se convirtió en profeta. Su fracaso depende de la miseria del historicismo, y éste no es más que una superstición.

El marxismo «científico», afirma Popper -que revela mucha más simpatía por el activismo del joven Marx que por el determinismo cientificista y profético del Marx de El Capital- está muerto. Sin embargo, «su radicalismo moral continúa estando vivo, y es tarea nuestra el conservado con vida, apartándolo de la senda por la que avanza, en cambio, su radicalismo político. El marxismo "científico" está muerto. Pero su sentido de la responsabilidad social y su amor por la libertad deben seguir viviendo».

CAPÍTULO XXXVIII

LA EPISTEMOLOGÍA POSTPOPPERIANA

1. THOMAS S. KUHN y LA ESTRUCTURA DE LAS REVOLUCIONES CIENTÍFICAS

1.1. Paradigmas, ciencia normal y anomalías

Junto con Imre Lakatos, Paul K. Feyerabend y Larry Laudan, Thomas S. Kuhn forma parte de aquel grupo de conocidos epistemólogos postpopperianos que han desarrollado sus teorías epistemológicas en un contacto cada vez más estrecho con la historia de la ciencia. En 1963 Kuhn publicó el libro La estructura de las revoluciones científicas, donde afirma que la «comunidad científica» se construye a través de la aceptación de teorías que Kuhn denomina «paradigmas». Escribe: «Con este término quiero indicar conquistas científicas universalmente aceptadas, que durante un tiempo determinado brindan un modelo de problemas y soluciones aceptables a aquellos que trabajan en un campo de investigaciones.» Kuhn, en realidad, utiliza el término «paradigma» en más de un sentido. Sin embargo, él mismo se encarga de especificar que la función del paradigma -que hoy asumen los manuales científicos, por medio de los cuales se inicia al

joven estudiante en la comunidad científica- en el pasado era asumida por los clásicos de la ciencia, por ejemplo, !a Física de Aristóteles, el Almagesto de Ptolomeo, los Principia y la Optica de Newton, la Electricidad de Franklin, la Química de Lavoisier o la Geología de Lyell. Por eso, la astronomía ptolemaica (o la copernicana), la dinámica aristotélica (o la newtoniana) constituyen paradigmas, al igual que el fijismo de Linneo, la teoría de la evolución de Darwin o la teoría de la relatividad de Einstein.

Una comunidad religiosa se reconoce a través de los dogmas específicos en los que cree, y un partido político reúne a sus miembros en torno a finalidades y valores específicos. Del mismo modo, una teoría paradigmática es la que instituye una determinada comunidad científica, que en virtud de los supuestos paradigmáticos -y, en su interior-llevará a cabo lo que Kuhn denomina «ciencia normal». Esta representa «un laborioso y dedicado intento de obligar a que la naturaleza entre dentro de las casillas conceptuales suministradas por la educación profesional». La ciencia normal significa «una investigación fundamentada de manera estable sobre uno o más resultados alcanzados por la ciencia del pasado, a los cuales, durante determinado período de tiempo, una comunidad científica en particular reconoce la capacidad de constituir el fundamento de su praxis ulterior». Esta praxis ulterior -la ciencia normal- consiste en tratar de llevar a cabo las promesas del paradigma, determinando cuáles son los hechos relevantes (para el paradigma), confrontando por ejemplo, a través de mediciones cada vez más exactas los hechos con la teoría, articulando los conceptos de éstas y extendiendo sus campos de aplicación. Hacer ciencia normal quiere decir resolver rompecabezas (puzzles), es decir, problemas definidos por el paradigma, que surgen y regresan a él. Por eso, el fracaso en la solución de un rompecabezas no se considera como un fracaso del paragigma, sino más bien como un fracaso del investigador, que no ha sabido resolver una cuestión para la cual el paradigma afirma (y promete) que hay una solución. Es una situación análoga a la del jugador de ajedrez: cuando éste no sabe resolver un problema y pierde la partida, la causa es que no ha jugado bien y no que las reglas del ajedrez no funcionen.

Por lo tanto, la ciencia normal es acumulativa (se construyen instrumentos más potentes, se efectúan mediciones más exactas, se amplía la teoría a otros terrenos, etc.) y el científico normal no busca la novedad. Sin embargo, la novedad tendrá que aparecer necesariamente. El motivo es que la articulación teórica y empírica del paradigma aumenta el contenido informativo de la teoría y, por lo tanto, le expone al riesgo de verse desmentida (cuanto más se diga, más riesgo hay de equivocarse; quien no dice nada, nunca se equivoca; si se dice poco, hay poco riesgo de cometer errores). Todo esto explica aquellas anomalías que, en un momento determinado, debe afrontar la. comunidad científica y que, resistiéndose a los asaltos reiterados de las suposiciones paradigmáticas, provocan la crisis del paradigma. Junto con ésta da comienzo un período de ciencia extraordinaria: el paradigma queda sometido a un proceso de desenfoque, se ponen en tela de juicio los dogmas, y por consiguiente, pierden rigor las reglas que gobiernan la investigación normal. En resumen, ante las anomalías, los científicos pierden la confianza en aquella teoría que antes habían abrazado. La pérdida de un sólido punto de partida se pone de manifiesto en el rec rso a la discusión filosófica sobre los fundamentos y sobre metodología. Estos son los síntomas de la crisis, que deja de existir cuando del crisol representado por aquel período desenfrenado de búsqueda que es la ciencia extraordinaria logra surgir un nuevo paradigma sobre el cual volverá a articularse la ciencia normal, la cual a su vez y después de un período de tiempo que quizás resulte bastante largo, llevará a nuevas anomalías, y así sucesivamente.

1.2. Las revoluciones científicas

Kuhn describe el pasaje a un nuevo paradigma (desde la astronomía ptolemaica a la copernicana, por ejemplo) como una reorientación «gestáltica»: al abrazar un nuevo paradigma, la comunidad científica maneja la misma cantidad de datos que antes, pero los coloca en una relación diferente a la anterior. Además, según Kuhn, el pasaje de uno a otro paradigma es lo que caracteriza a una revolución científica. Sin embargo, uno de los problemas más acuciantes planteados por Kuhn es el siguiente: ¿cómo sucede el pasaje de un paradigma a otro? ¿Se produce por motivos racio-nales, o no?

Kuhn sostiene que «paradigmas sucesivos nos dicen cosas diferentes sobre los objetos que pueblan el universo y sobre el comportamiento de tales objetos». «Justamente porque se trata de un pasaje entre factores inconmensurables, el pasaje de un paradigma a otro opuesto no puede efectuarse paso a paso ni ser impuesto por la lógica o por una experiencia neutral. Al igual que la reorientación "gestáltica", debe realizarse de una sola vez (aunque no en un instante) o no se realizará en absoluto.» Quizás tenga razón Max Planck, que en su Autobiografía observó con tristeza que «una nueva verdad científica no triunfa convenciendo a sus opositores y haciéndoles ver la luz, sino más bien porque sus opositores acaban por morir, y crece una nueva generación habituada a aquélla». En realidad, Kuhn afirma que «el traspaso de una confianza de un paradigma a otro es una experiencia de conversión que no puede ser impuesta por la fuerza». Pero entonces, ¿por qué tiene lugar esta experiencia de conversión y sobre qué fundamentos? «Los científicos individuales aceptan un nuevo paradigma por toda clase de razones y con frecuencia por muchas razones al mismo tiempo. Algunas de estas razones -por ejemplo, el culto al Sol que contribuyó a convertir a Kepler al copernicanismo- se hallan fuera por completo de la esfera de la ciencia. Otras razones pueden depender de ideosincrasias autobiográficas y

personales. Incluso la nacionalidad o la reputación previa del innovador y de sus maestros puede a veces desempeñar una importante función [...]. Probablemente la pretensión más importante que formulan los defensores de un nuevo paradigma es la de que puede resolver aquellos problemas que han puesto en crisis el viejo paradigma. Tal pretensión, cuando puede formularse de modo legítimo, a menudo constituye el más eficaz de los argumentos a su favor.» Además, hay que tener en cuenta que a veces la aceptación de un nuevo paradigma no se debe al hecho de que resuelva los problemas que el viejo paradigma no logra solucionar, sino a promesas que se realizan en otros campos. Puede haber incluso razones estéticas que induzcan a que un científico o un grupo de científicos acepte un paradigma. Sin embargo, afirma Kuhn, «en los debates sobre los paradigmas no se discuten en realidad las capacidades relativas para solucionar los problemas, aunque hayan buenas razones para emplear por lo general términos que se refieren a ellas. En cambio, el punto que se discute consiste en decidir cuál es el paradigma que debe guiar la investigación en el futuro, acerca de problemas muchos de los cuales ninguno de los dos competidores pueden aspirar a solucionar por completo. Es preciso decidirse entre formas alternativas de llevar a cabo la actividad científica y, en tales circunstancias, una decisión de este tipo debe basarse más en las promesas de futuro que en las conquistas pasadas. Quien abraza un nuevo paradigma desde el comienzo, a menudo lo hace dejando a un lado las pruebas proporcionadas por la solución de problemas. Debe confiar en que el nuevo paradigma logrará resolver en el futuro los muchos y vastos problemas que se le planteen, sabiendo únicamente que el viejo paradigma no ha logrado solucionar algunos. Una decisión de este género sólo puede tomarse con base en la fe». Por eso, para que un paradigma pueda triunfar, debe conquistar primero (a veces gracias a consideraciones personales o a consideraciones estéticas tácitas) «a algunos defensores que lo desarrollen hasta que llegue a un punto en el que lleguen a producirse y multiplicarse numerosas y sólidas argumentaciones. Pero incluso éstas, cuando existen, no son individualmente decisivas. Puesto que los científicos son hombres razonables, una u otra argumentación acabará por persuadir a muchos. Pero no existe argumentación alguna que, por su cuenta, pueda o deba persuadirlos a todos. Lo que ocurre no es una única conversión en grupo, sino un desplazamiento progresivo en la distribución de la confianza de los especialistas».

1.3. El desarrollo ateleológico de la ciencia

Ahora bien ¿el pasaje de un paradigma a otro implica un progreso? El problema es complejo. De todas maneras «es únicamente durante los períodos de ciencia "normal" cuando el progreso parece evidente y seguro». En cambio «durante los períodos de revolución, cuando las doctrinas fundamentales de un ámbito se hallan todavía en discusión con frecuencia se exponen dudas sobre la posibilidad de que continúe el progreso si se adopta uno u otro de los paradigmas que se enfrentan». Sin duda, una vez que se haya afirmado un paradigma, sus defensores lo considerarán como un progreso. Kuhn empero, se pregunta: ¿progreso hacia qué? Según él, el proceso que tiene lugar al evolucionar la ciencia es un proceso de evolución a partir de estadios primitivos, pero esto no significa que dicho proceso lleve la búsqueda cada vez más cerca de la verdad, o al menos hacia algún sitio. «¿Es necesario -se pregunta Kuhn- que exista tal objetivo? ¿No será posible acaso dar cuenta de la existencia de la ciencia y de su éxito en términos de evolución a partir de un estado de los conocimientos poseídos por la comunidad en cada período determinado de tiempo? ¿Sirve realmente de ayuda el imaginar que existe una completa, objetiva y verdadera explicación de la naturaleza, y que la medida adecuada de la conquista científica es la medida en que ésta se aproxima a aquel objetivo final? Si aprendemos a substituir la evolución hacia aquello que queremos conocer por la evolución a partir de lo que ya conocemos, en el transcurso de dicho proceso pueden desaparecer gran número de problemas inquietantes.» Al igual que en la evolución biológica, en la evolución de la ciencia nos hallamos ante un proceso que se desarrolla de manera constante a partir de estadios primitivos, pero que no tiende hacia ningún objetivo.

2. IMRE LAKATOS Y LA METODOLOGÍA DE LOS PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA

2.1. Tres tipos de [alsacionismo

Las ideas de Kuhn sobre el desarrollo de la ciencia han sido objeto de numerosas críticas. Popper, por ejemplo, en el escrito La ciencia normal y sus peligros (1966) ha puesto de relieve que la ciencia normal, en el sentido de Kuhn, existe realmente, pero «es la actividad del profesional no revolucionario o, con más precisión, no demasiado crítico: del cultivador de disciplinas científicas que acepta el dogma predominante en su época, no quiere ponerlo en discusión y acepta una nueva teoría revolucionaria sólo si casi todos los demás se hallan dispuestos a admitirla, es decir, si se convierte en moda por una especie de arrebatador consenso universal». Debido a ello, en opinión de Popper el científico normal está mal educado: ha sido educado en un espíritu dogmático, es víctima del adoctrinamiento; «es una persona a la que habría que compadecer». Además, según Popper la tesis de la imposibilidad de comparar entre los paradigmas es un mito que en nuestro tiempo constituye «el baluarte del irracionalismo». Popper, ante la tesis de la incomparabilidad de Kuhn, afirma que «ésta exagera una dificultad transformándola en una imposibilidad». Por último, siempre a criterio de Popper, el esquema propuesto por Kuhn puede servir para desarrollar la astronomía, pero no se ajusta a la evolución de la teoría de la materia o de la ciencia biológica, por ejemplo a partir de Darwin y de Pasteur. En relación con el problema de la materia, más en particular, ha habido según Popper «por lo menos tres teorías dominantes que han

estado en competencia desde la antigüedad: las teorías de la continuidad, las atomistas y las que trataban de conciliar ambas tendencias».

Otra crítica a las ideas de Kuhn es la que formula el epistemólogo John Watkins -sucesor de Popper en la London School of Economics and Political Science- quien reprocha a Kuhn que conciba la comunidad de los científicos como una secta religiosa y no como una vivaz aunque ordenada (por las reglas del método) república de hombres de ciencia. También Imre Lakatos se declara en contra de la idea de un paradigma que domine de manera casi teológica la comunidad científica, y en contra de la idea de que el desarrollo de la ciencia debería avanzar mediante sucesivas catástrofes.

La noción fundamental en la imagen de la ciencia que propone Lakatos es que la ciencia es, ha sido y tiene que ser una competencia entre programas rivales de investigación. Según Lakatos, esta idea caracteriza el falsacionismo metodológico sofisticado, concepción que Lakatos desarrolla siguiendo las huellas de Popper. El falsacionismo metodológico sofisticado se distingue del falsacionismo dogmático y del falsacionismo meto dológico ingenuo. El falsacionismo dogmático consiste en la idea según la cual la ciencia se desarrolla a través de conjeturas audaces y de falsaciones infalibles. Sin embargo, señala Lakatos, tal idea -que algunos científicos han tomado como propia y que ha sido propagada por determinados filósofos, como por ejemplo A.J. Ayer- no es la idea de Popper, y estáequivocada. Está equivocada porque la base empírica de la ciencia (es decir, los protocolos, las proposiciones de observación) no es algo cierto, que permita falsaciones infalibles o incontrovertibles: nuestras falsaciones también pueden estar equivocadas. Esto lo atestiguan tanto la lógica como la historia de la ciencia. Por su parte, el falsacionismo meto do lógico ingenuo corrige el error de los falsacionistas dogmáticos y sostiene (como Popper ya había puesto de manifiesto en la lógica del descubrimiento científico) que la base empírica de la ciencia no es infalible, y que tampoco son incontrovertibles aquellas hipótesis auxiliares que sirven para controlar la hipótesis que hayamos propuesto como intento de solución del problema que deseamos resolver. Sin embargo, dice Lakatos, a pesar de su valor, también el falsacionismo metodológico ingenuo es insatisfactorio. y lo es porque concibe el desarrollo de la ciencia como una serie de duelos sucesivos entre una teoría y los hechos. Para Lakatos, en cambio, las cosas no funcionan así, puesto que la lucha entre lo teórico y lo fáctico siempre ocurre entre tres: entre las dos teorías en competencia y los hechos. Todo esto explica que se descarte una teoría no cuando un hecho la contradice, sino únicamente cuando la comunidad científica tiene a su disposición una teoría mejor que la anterior. Así, por ejemplo, la mecánica de Newton fue rechazada después de haber entrado en posesión de la teoría de Einstein.

2.2. Los programas científicos de investigación

Hasta ahora nos hemos referido a teorías en competencia recíproca. Lakatos, en realidad, habla de «programas científicos de investigación». Para comprender qué es un programa científico de investigación es suficiente con recordar el mecanicismo de Descartes o de Newton, la teoría de la evolución de Darwin o, antes que estas teorías, el copernicanismo. Un programa de investigación es una sucesión de teorías, TI, T2, T3, T4, que se desarrollan desde un núcleo central que, por decisión metodológica se mantiene infalsable. De este modo, un programa puede mostrar su valor, su fecundidad y su carácter progresivo en comparación con otro programa. No es lícito provocar la muerte de una teoría durante su infancia. Una buena teoría necesita tiempo para desarrollarse.

La historia de la ciencia es y debería ser una historia de programas investigadores en competencia. Tal es el núcleo de la concepción de ciencia y de historia de la ciencia que defiende Lakatos, concepción que -por lo demás- acentúa la interrelación entre las diversas epistemologías y la historia de la ciencia, en el sentido de que esta última puede actuar retrospectivamente como arma crítica aplicada a las diversas nociones de ciencia o epistemologías.

El núcleo central de la reflexión epistemológica de Lakatos, centrada sobre el evolucionar de las ciencias naturales, está constituido por la noción de «programa científico de investigación». Esta noción es la que distingue su pensamiento con respecto a las posturas de Kuhn y de Popper. En opinión de Lakatos (véase al respecto su ensayo La historia de la ciencia y sus reconstrucciones racionales), «la Logik der Forschung, en su conjunto, resulta áridamente abstracta y notablemente ahistórica. Siempre que Popper se arriesga a efectuar observaciones sobre la falsabilidad de las principales teorías científicas, cae en garrafales errores lógicos o distorsiona la historia para que se adapte a su teoría de la racionalidad». Por otro lado -escribe Lakatos en La falsación y la metodología de los programas científicos de investigación (1970)- «de acuerdo con la concepción de Kuhn, la revolución científica es irracional, es un-material adecuado para una psicología de masas». En opinión de Kuhn, escribe Lakatos, «el cambio científico -de un "paradigma" a otro- es una conversión mística que no está, ni puede estar, gobernada por reglas racionales y que entra totalmente en el ámbito de la psicología (social) del descubrimiento. El cambio científico es una especie de conversión religiosa». Lakatos, por su parte, se mueve dentro de la problemática y de la atmósfera del falsacionismo de Popper, y además se encuentra influido también por Kuhn (por ejemplo, por la idea de la «función del dogma en la investigación científica» o del «progreso mediante las revoluciones»). Sin embargo, desarrolla sus argumentos sin dejarse encapsular por uno u otro pensador, y actúa con agilidad y carencia de prejuicios.

2.3. Cómo avanza la ciencia

Para Lakatos «es una sucesión de teorías y no una única teoría lo que hay que evaluar como científica o como pseudocientífica». Una serie de teorías es progresiva teóricamente (o constituye un «deslizamiento de problema» progresivo teóricamente) «si cada nueva teoría posee un contenido empírico mayor que el de las teorías que la preceden, es decir, si predice algún hecho nuevo, inesperado hasta aquel momento». Además, hay que decir, que «una serie de teorías que sea progresiva teóricamente también es progresiva empíricamente (o que constituye un "deslizamiento de problema" progresivo empíricamente) si parte de este contenido empírico excedente se halla también corroborado en cierta medida, es decir, si cada teoría nueva conduce al descubrimento real de algún hecho nuevo». Ahora bien, esta serie de teorías, esta continuidad «se desarrolla desde un auténtico programa de investigación bosquejado al principio. Este programa consiste en reglas metodológicas: algunas indican qué caminos hay que evitar (heurística negativa), y otras, qué caminos seguir (heurística positiva»>. Un programa de investigación parte desde decisiones metodológicas como «no falsables» algunas hipótesis, justamente con base en un decreto metodológico. Las hipótesis no falsables constituyen el núcleo (hardcore) del programa, y «todos los programas científicos de investigación pueden caracterizarse mediante su núcleo». «La heurística negativa del programa nos impide aplicar el modus tollens contra este núcleo. En cambio, hemos de utilizar nuestro ingenio para formular o incluso inventar hipótesis auxiliares que formen un cinturón de protección alrededor del núcleo, y debemos dirigir el modus tollens contra este último nuevo objetivo. Este cinturón protector de hipótesis auxiliares debe resistir el ataque de los controles, adaptarse y readaptarse o incluso ser substituido por completo, para defender el núcleo así consolidado. Un programa de investigación tiene éxito si todo esto conduce a un deslizamiento progresivo del problema; no tiene éxito cuando conduce a un deslizamiento regresivo del problema.» Por ello, un programa de investigación (piénsese en el de Newton) puede desarrollarse «en un mar de anomalías» (lo cual ocurre en el programa de Prout) o, como en el caso de Bohr, avanzar «sobre fundamentos incoherentes». Cuando las sucesivas modificaciones del cinturón de protección ya no logran predecir nuevos hechos, el programa entonces se muestra regresivo. «Todo esto nos sugiere que no hay que descartar un programa de investigación en el momento en que surge únicamente porque todavía no haya logrado superar un poderoso programa rival. No habría que abandonado si, en el supuesto de que no tenga rivales poderosos, constituye un "deslizamiento de problema" progresivo [...]. Hasta que un programa de investigación en estado naciente pueda ser reconstruido racionalmente en calidad de "deslizamiento de problema" progresivo, tendría que estar protegido durante un cierto tiempo con respecto a un rival poderoso que ya esté estabilizado.»

Por lo tanto, en opinión de Lakatos, la ciencia es «un campo de batalla para programas de investigación más bien que para teorías aisladas». y «la ciencia madura consiste en programas de investigación en los que no sólo se anticipan hechos nuevos, sino en un sentido importante, también nuevas teorías auxiliares; la ciencia madura -a diferencia del burdo esquema mediante "ensayo y error"- tiene poder heurístico». En este sentido se comprueba, para Lakatos, la debilidad de programas como el marxismo o la teoría freudiana, que «inevitablemente modelan sus teorías auxiliares reales siguiendo las huellas de algunos hechos, sin que al mismo tiempo anticipen otros (¿qué nuevo hecho ha predicho el marxismo, a partir de 1917, por ejemplo?».

3. LA EPISTEMOLOGÍA ANARQUISTA DE PAUL K. FEYERABEND

3.1. La anarquía epistemológica en función del progreso

El libro de Feyerabend Contra el método (2.' ed. 1975) ha sido escrito con la convicción de que «el anarquismo, aunque quizás no sea la filosofía política más atrayente, resulta sin duda una excelente medicina para la epistemología y para la filosofía de la ciencia». En esencia, según Feyerabend, hay que abandpnar la quimera según la cual las reglas ingenuas y simplistas propuestas por los epistemólogos pueden dar razón de aquel laberinto de interacciones que nos muestra la historia real: «la historia real, y en particular la historia de las revoluciones, siempre es más rica de contenido, más variada, más pluridimensional, más viva y más astuta de lo que puedan llegar a imaginar el mejor historiador y el mejor metodólogo.»

Por consiguiente, el anarquismo epistemológico de Feyerabend consiste en la tesis según la cual «la noción de un método que contenga principios firmes, inmutables, y absolutamente vinculantes, en calidad de guía de la actividad científica, choca con dificultades notables cuando se enfrenta con los resultados de la investigación histórica. En efecto, nos encontramos con que no existe una sola norma -por plausible que sea y por sólidamente arraigada que se encuentre en la epistemología- que no haya sido violada en alguna circunstancia. Se hace evidente también que tales violaciones no son acontecimientos accidentales, y tampoco son el resultado de un saber insuficiente o de faltas de atención que hayan podido evitarse. Al contrario, vemos que dichas violaciones son necesarias para el avance científico. En efecto,

uno de los rasgos que más llaman la atención en las recientes discusiones sobre historia y sobre filosofía de la ciencia es el tema de conciencia del hecho de que acontecimientos y avances como la creación del atomismo en la antigüedad, la revolución copernicana, la aparición de la teoría atómica moderna (teoría cibernética; teoría de la dispersión; esteroquímica; teoría de los cuantos), o el gradual surgimiento de la teoría ondulatoria de la luz sólo se llevaron a cabo porque algunos pensadores decidieron no dejarse atar por determinadas normas metodológicas obvias, o porque involuntariamente las violaron».

Una libertad de acción de esta clase no es, en opinión de Feyerabend, un mero hecho en la historia de la ciencia. «Es algo razonable y absolutamente necesario para el crecimiento del saber. Más específicamente, se puede demostrar lo siguiente: dada una norma cualquiera, por fundamentalo necesaria que resulte para la ciencia, siempre existen circunstancias en las cuales es oportuno no sólo ignorar la norma, sino también adoptar su contrario. Por ejemplo, hay circunstancias en las cuales es aconsejable introducir, elaborar y defender hipótesis ad hoc, hipótesis que contradigan resultados experimentales bien establecidos y universalmente aceptados, o hipótesis cuyo contenido sea menor con respecto al de las hipótesis alternativas existentes y empíricamente adecuadas, o incluso hipótesis autocontradictorias, etc. Asimismo hay circunstancias, que se producen con bastante frecuencia, en las cuales el razonamiento pierde su aspecto de orientación hacia el futuro, convirtiéndose en un bloqueo al progreso.»

3.2. El anarquismo epistemológico y la historia de la ciencia

Feyeraband aduce un caso histórico en apoyo de su metodología anarquista.

El desarrollo del punto de vista copemicano, desde Galileo hasta el siglo xx, es un ejemplo perfecto de la situación que me propongo describir. El punto de partida está constituido por un fuerte convencimiento, que contrasta con la razón y la experiencia contemporáneas. El convencimiento se propaga y encuentra apoyo en otras convicciones, que son tan poco razonables como aquél, o incluso menos (la ley de la inercia, el telescopio). Ahora la investigación se desvía en otras direcciones, se construyen nuevos instrumentos, los datos de la observación y de la experiencia entran en conexión con las teorías de un modo nuevo, hasta que surge una ideología lo bastante rica como para proporcionar argumentaciones independientes para cada dato individual, y lo bastante ágil como para hallar argumentaciones de la misma clase cada vez que parezcan necesitarse. Hoy podemos decir que Galileo se hallaba en la senda adecuada, porque su tenaz investigación sobre lo que en un tiempo pareció una cosmología extravagante ha creado en la actualidad los materiales necesarios para defenderla contra todos aquellos que sólo estén dipuestos a aceptar una opinión cuando se expresa de un modo determinado, y que le dan fe sólo si contiene ciertas frases mágicas, que se designan como protocolos o informes de observación. Esto no constituye una excepción, sino el caso normal: las teorías se convierten en claras y razonables únicamente después de que partes incoherentes de ellas hayan sido utilizadas durante mucho tiempo. Una anticipación de esta clase, parcial, no razonable, absurda, que viole todos los métodos, resulta un supuesto previo inevitable para la claridad y el éxito empírico.

En suma: Feyerabend propone la tesis según la cual las violaciones de las normas del método no sólo son un dato de hecho, «sino que resultan necesarias para el progreso científico»; trata de avalar su tesis mediante el caso histórico del copernicanismo que se desarrolla desde Galileo hasta el siglo xx, que expone en su libro con mucha amplitud. Como conclusión, afirma que «se hace evidente que la noción de un método fijo o de una teoría fija de la racionalidad, se apoya en una visión demasiado ingenua del hombre y de su ambiente social. Para aquellos que no quieren ignorar el rico material que proporciona la historia, y que no pretenden empobrecerlo para complacer sus instintos más bajos, su ansia de seguridad intelectual en forma de claridad, de precisión, de objetividad, de verdad, estará muy claro que hay un solo principio que puede defenderse en todas las circunstancias y en todas las fases del desarrollo humano. Se trata del principio siguiente: cualquier cosa puede servir».

3.3. La provocación de «Contra el método»

El libro de Feyerabend se propone ser deliberadamente provocador, con respecto a los esfuerzos de Lakatos y sobre todo de Popper para construir un aparato ordenado de reglas que permita guiar los procedimientos y las decisiones del científico militante. Sin embargo, no estaría fuera de lugar señalar que Fayerabend critica a un Lakatos y en especial a un Popper construidos con frecuencia a la medida de sus necesidades polémicas. Por ejemplo, Feyerabend dice que si queremos que la ciencia progrese es preciso a veces no cumplir o incluso ir contra la propia regla por la cual «no hay que introducir la hipótesis ad hoc. Sin embargo Popper no es tan ingenuo como piensa Feyerabend, porque se muestra muy claro acerca del hecho de que hipótesis que sean hoy ad hoc pueden convertirse en controlables (y por lo tanto, no ad

hoc) mañana, como sucedió con la hipótesis del neutrino de Pauli, hasta el punto de que -escribe Popper- no debemos «pronunciar un juicio excesivamente severo contra las hipótesis ad hoc».

Feyerabend sostiene que «hay circunstancias en las cuales resulta aconsejable introducir, elaborar y defender [...] hipótesis que contradigan resultados experimentales perfectamente establecidos y universalmente aceptados». Esta contrarregla de Feyerabend se dirige contra la regla popperiana según la cual una teoría tendría que considerarse refutada si existen datos experimentales perfectamente establecidos que la contradigan. Pero ha sido el mismo Popper quien puso el acento sobre el hecho de que no se debe confudir la refutación de una teoría con su rechazo, «con la necesidad que experimenten las personas de abandonar la teoría, y más en particular, de dejar de trabajar con ella. En efecto, la primera -la refutación- debido a la aceptación de un estado refutante, es una cuestión lógica, mientras que el rechazo es una cuestión metodológica, y depende entre otras cosas de cuáles son las teorías alternativas disponibles. (A menudo ha subrayado la urgencia de trabajar con más de una hipótesis, ya sea en relación con la falsación -hipótesis falsadoras- o con el crecimiento de la ciencia en general)».

Además, Feyerabend ha defendido la no comparabilidad (y por lo tanto, la no aplicabilidad de la teoría de la verosimilitud de Popper) entre teorías o enfoques cosmológicos muy generales, de modo que, por ejemplo, la mecánica de Newton y la teoría de la relatividad de Einstein no podrían compararse entre sí, ya que en la mecánica newtoniana las formas, las masas, los volúmenes y los intervalos de tiempo serían propiedades fundamentales de los objetos físicos, mientras que para la teoría de la relatividad «formas, masas, volúmenes e intervalos de tiempo son relaciones entre objetos físicos y sistemas de coordenadas que pueden cambiar, sin ninguna interferencia física, cuando substituimos un sistema de coordenadas por otro». A este propósito, Popper ha hecho notar que, si bien es imposible comparar entre sí dos visiones religiosas o filosóficas del mundo, en cambio dos teorías que traten de resolver la misma familia de problemas sí pueden compararse, como sucede en el caso de las teorías de Newton y de Einstein.

4. LARRY LAUDAN Y LA METODOLOGÍA DE LAS TRADICIONES DE INVESTIGACIÓN

4.1. El objetivo de la ciencia consiste en resolver problemas

La idea central de Larry Laudan afirma que «la ciencia se propone de manera fundamental la solución de problemas». En El progreso científico (1977) Laudan expuso «las implicaciones -para la historia y la filosofía de la ciencia- del punto de vista que concibe la ciencia sobre todo como una actividad dedicada a la solución de problemas». Por esto, los supuestos básicos del modelo de desarrollo de la ciencia propuesto por Laudan son bastante sencillos: 1) El problema resuelto, empírico o conceptual, es la unidad básica del progreso científico; 2) el propósito de la ciencia consiste en maximizar el alcance de los problemas empíricos resueltos y reducir el alcance de los problemas empíricos anómalos, y de los conceptuales no resueltos. De esto se deduce que «cada vez que modificamos una teoría o la substituimos por otra, esta innovación constituye un progreso si y sólo si la teoría modificada o la nueva teoría es más eficiente para resolver problemas [...] que la doctrina anterior».

El control cognoscitivo fundamental para toda teoría consiste en determinar su aptitud para solucionar problemas empíricos y conceptuales. Al hablar de teorías, Laudan señala de inmediato dos cosas: a) la evaluación de las teorías es un proceso comparativo, ya que «carecen de significado las mediciones en términos absolutos de las credenciales empíricas o conceptuales de una teoría»; b) las teorías no viven de manera aislada, y hemos de considerar todo un espectro de teorías individuales. Así, por ejemplo, la teoría de la evolución «no se refiere a una única teoría, sino a toda una familia de doctrinas vinculadas histórica y conceptual mente entre sí, que funcionan en todos los casos partiendo del supuesto de que las especies orgánicas poseen una ascendencia común. De manera semejante, el término «teoría atómica» se refiere por lo general a las teorías de un amplio conjunto, que se apoyan en el supuesto de que la materia es discontinua».

Laudan nos lleva de nuevo, por este camino, hasta los «paradigmas» de Thomas Kuhn y los «programas científicos de investigación» de Imre Lakatos, convencido de que las teorías más generales -y no las más específicas- son el instrumento primordial para la comprensión y la evaluación del progreso científico.

Sin embargo, Laudan manifiesta su insatisfacción ante los modelos de Kuhn y de Lakatos. Por lo que respecta a Kuhn, es muy difícil -escribe Laudan- que la inflexibilidad de sus paradigmas cuadre con el hecho de que a lo largo del tiempo han ido creándose numerosas maxiteorías. Por otro lado, la historia de la ciencia no nos ofrece casos en los que pueda aplicarse con precisión la definición de Lakatos de progreso (basada en la verosimilitud de Popper). «La pretensión de Lakatos según la cual la acumulación de anomalías no tiene consecuencias sobre la evaluación de un programa de investigación se ve refutada de modo radical por la historia de la ciencia.» En opinión de Laudan, «tanto los programas

de investigación de Lakatos como los paradigmas de Kuhn tienen en su estructura central tanta rigidez que no admiten ninguna transformación fundamental». La historia de la ciencia contradice esta rigidez.

4.2. Qué son las tradiciones de investigación

En tales circunstancias, Laudan propone la teoría de las tradiciones de investigación para comprender el progreso científico. El darwinismo, la teoría de los cuantos o la teoría electromagnética de la luz constituyen ejemplos de tradiciones de investigación. En realidad, añade Laudan, «toda disciplina intelectual, científica y no científica, posee una historia rica en tradiciones de investigación: empirismo y nominalismo en filosofía, voluntarismo y necesitarismo en teología, conductismo y freudismo en psicología, utilitarismo e intuicionismo en ética, marxismo y capitalismo en economía, mecanicismo y vitalismo en fisiología». Con el propósito de identificar, por lo menos a primera vista, una tradición de investigación, Laudan señala algunos rasgos comunes de las diversas tradiciones: «1. Toda tradición de investigación posee una cierta cantidad de teorías específicas, que la ejemplifican y en parte la constituyen; algunas de estas teorías son contemporáneas entre sí, mientras que otras se suceden a lo largo del tiempo. 2. Cada tradición de investigación. se muestra caracterizada por algunos esfuerzos metafísicos y metodológicos que, en su conjunto, individualizan dicha tradición y la distinguen de las demás. 3. Cada tradición de investigación (a diferencia de las teorías específicas aisladas) pasa por un determinado número de formulaciones distintas y detalladas (y a menudo recíprocamente contradictorias); en general, tiene una larga historia, que se desarrolla a través de un extenso período de tiempo (a diferencia de las teorías, que con frecuencia tienen una vida reducida).»

Una tradición de investigación proporciona un conjunto de directrices para construir teorías específicas. Una parte de estas directrices son metodológicas: por ejemplo, «el pensamiento metodológico de los científicos que seguían la tradición estricta de investigación del pensamiento newtoniano es inevitablemente inductivista, y sólo admite aquellas teorías que hayan sido inferidas inductivamente desde los datos. Los métodos de procedimiento fijados por un psicólogo conductista son los que se suelen calificar de "operacionistas". Otra parte de las directrices proporcionadas por una tradición de investigación son ontológicas. La ontología de la tradición de investigación es la «que especifica de manera general los tipos de entidades fundamentales, que existen en el ámbito o en los ámbitos en cuyo interior actúa la tradición de investigación de la que se trate. Por ejemplo, si la tradición de investigación es el conductismo, nos indica que las únicas entidades legítimas postulables por las teorías conductistas son signos físicos y fisiológicos directa y públicamente observables. Si la tradición de investigación es la de la física cartesiana, especifica que existen sólo materia y pensamiento, y que las teorías que hablen de otros tipos de substancias (o de mezclas entre pesamiento y materia) resultan inaceptables. Además, esta tradición de investigación establece los distintos modos en que pueden interactuar estas entidades. Así, los corpúsculos cartesi anos pueden interactuar sólo por contacto, no por acción a distancia. En la tradición de investigación constituida por el marxismo las entidades sólo pueden actuar en virtud de las fuerzas económicas que ejercen influencia sobre ellas».

De esta forma Laudan está en condiciones de definir una tradición de investigación como «un conjunto de supuestos generales que hacen referencia a las entidades y a los procesos presentes en determinado ámbito de estudios, ya los métodos más apropiados que hay que utilizar para investigar acerca de problemas o para construir teorías en dicho ámbito». Como resulta obvio, atreverse a aquello que está prohibido por la metafísica y por la metodología de una tradición de investigación significa colocarse fuera de dicha tradición y repudiada: si un físico cartesiano comienza a hablar de fuerzas que actúan a distancia, si un conductivista habla de impulsos inconscientes, si un marxista especula sobre las ideas que no surjan como respuesta a estructuras económicas, «en cada uno de estos casos el científico se coloca fuera del terreno de juego [...], viola las fronteras de la tradición y se vuelve un extraño para ella».

Una vez especificados estos puntos, queda por señalar que -para Laudan- una tradición de investigación tiene éxito cuando, a través de sus componentes, lleva a la solución adecuada de una cantidad cada vez mayor de problemas empíricos y conceptuales. Por eso, resulta preferible la tradición que esté en condiciones de solucionar más problemas y problemas más importantes. Además, no hemos de olvidar el hecho de que Laudan concibe las tradiciones de investigación de un modo más flexible que los paradigmas de Kuhn y los programas de investigación de Lakatos, porque el desarrollo histórico de las tradiciones de investigación muestra que no sólo cambian las teorías auxiliares sino también, a lo largo del tiempo, los supuestos centrales. De este modo, en cualquier momento dado, algunos elementos de una tradición de investigación son para ella más centrales y más íntimos que otros: «Lo que en la mecánica del siglo XVIII fue tomado como propio del núcleo intocable de la tradición newtoniana (por ejemplo, el espacio y el tiempo absolutos), ya no fue considerado como tal por los newtonianos del siglo XIX [...]. Lakatos y Kuhn -afirma Laudan- tenían razón al pensar que un programa de investigación o un paradigma siempre estaba ligado a algunos elementos no prescindibles. Se equivocaban, sin embargo, cuando no se daban cuenta de que los elementos que constituyen esta clase pueden desplazarse con el tiempo.»

5. LA CUESTIÓN DEL PROGRESO EN LA CIENCIA

5.1. Críticas a la teoría de la verosimilitud de Popper

La epistemología de Popper y de los postpopperianos es una epistemología que ha puesto más énfasis sobre el desarrollo y sobre el progreso de la ciencia que sobre su estructura. Para decidir entre teorías que compiten entre sí es preciso tener un criterio de preferencia que nos indique cuál de estas teorías es progresiva en comparación con las otras. Todos, intuitivamente, afirmamos que la teoría copernicana es mejor que la ptolomeica, la teoría de Kepler es preferible a la de Copérnico, la teoría newtoniana es mejor que la de Kepler, y que la teoría de la relatividad de Einstein es progresiva en comparación con la de Newton. Ahora bien, si se nos pregunta por qué cada una de estas teorías es mejor que la precedente, la respuesta es que cada teoría sucesiva explica más cosas y mejor que la anterior. A esta altura, empero, nos hemos de preguntar: ¿qué quiere decir que una teoría T2 explica más y mejor que la anterior teoría TI? Popper respondió a este interrogante proponiendo la teoría de la «verosimilitud», según la cual una teoría T 2 es más verosímil que la teoría TI si todas las consecuencias verdaderas de TI son consecuencias verdaderas de T2, si todas las consecuencias falsas de TI son consecuencias verdaderas de T2, y si -además- se pueden extraer de T 2 consecuencias que no se pueden extraer de TI, Provisto de este criterio, el científico profesional debe conjeturar caso por caso cuál es la teoría más verosímil entre las que entran en competencia, cuál es la más semejante a la verdad, la más rica en conte-nido informativo y por lo tanto la que resulta preferible.

Naturalmente, en opinión de Popper este criterio permitiría decidir cuál de dos teorías falsas posee mayor verosimilitud, es decir, qué doctrina falsa habría que elegir porque se encuentra más próxima a la verdad que otra teoría. Este sería el caso de la teoría de Newton (falsa en comparación con la teoría de la relatividad, pero progresiva en comparación con la de Copérnico). A pesar de todo, las definiciones de Popper, que parecían en condiciones de justificar los desarrollos históricos de la ciencia, se han revelado como escasamente consistentes. En efecto, la verosimilitud de una teoría falsa A (por ejemplo, la de Newton) aumenta -en opinión de Popper- en cada uno d estos dos casos:

1° cuando aumenta su contenido de verdad Ay (sus consecuencias verdaderas), y al mismo tiempo, no aumenta su contenido de falsedad AF (sus consecuencias falsas);

2 ° cuando disminuye su contenido de falsedad AF y al mismo tiempo disminuye su contenido de verdad Ay.

Pensadores como David Miller, Pavel Tichy, John Harris y Adolf Grünbaum han demostrado que las definiciones de verosimilitud que ofrece Popper no tienen validez. En efecto, aumentemos (véase figura 14)-de acuerdo con la definición l-la verosimilitud de A añadiéndole a Ay un enunciado p tomado de V.

Ahora bien, si A es falsa, tendrá por lo menos un enunciado falso f en AF, de modo que la conjunción p 1\ f es un enunciado falso (al ser falso f), que pertenece a AF. Por consiguiente, se hace evidente que, añadiendo a Ay un enunciado verdadero p, añadimos al mismo tiempo un enunciado falso p 1\ f a AF, lo cual es contradictorio con la definición 1.

Aumentemos (véase figura 15) en cambio la verosimilitud de A quitando de AF un enunciado falso q. Entonces, si A es falsa, en AF habrá un enunciado falso f por el cual f q es un enunciado verdadero (al ser falsos tanto f como q). Por lo tanto, se aprecia que, al quitar de AF un enunciado falso q, al mismo tiempo quitamos de Ay el enunciado verdadero f q, lo cual entra en contradicción con la definición 2.

Estos resultados (que pueden demostrarse también por otros caminos) indican con elocuencia que la propuesta de Popper de establecer un criterio de progreso a través de rigurosas definiciones lógicas ha fracasado. Nos señalan que, dadas las definiciones de verosimilitud de Popper, entre dos teorías falsas no puede haber una que sea más verosímil que la otra, porque cuando aumenta la verdad en una teoría (falsa) también aumenta simultáneamente su falsedad, y si disminuye su falsedad, también disminuirá su verdad. En resumen, y para manifestarlo de un modo incluso más explícito, si aceptamos la noción de verosimilitud de Popper, entonces los resultados de los argumentos de Tichy, Miller, etc., muestran que Einstein debería valer lo mismo que Newton, y Newton lo mismo que Copérnico. Y esto ninguno está dispuesto a admitirlo.

5.2. El progreso de la ciencia en la perspectiva de Larry Laudan

Tarski formuló una definición de verdad, recuperando la definición aristotélica, según la cual un aserto es verdadero si y sólo si se corresponde con los hechos. Sin embargo, tener una definición de verdad no significa poseer un criterio de verdad: nunca podremos estar seguros de nuestras teorías; una teoría, por muchas y por cualificadas que sean las confirmaciones que haya obtenido, puede resultar falsa en el próximo control; toda teoría tiene infinitas consecuencias, y sólo podremos controlar un número finito de consecuencias. Por lo tanto, aunque tengamos una definiciÓn de verdad,

no poseemos un criterio infalible de verdad que nos permita emitir decretos definitivos sobre la verdad o no de las teorías.

En tales circunstancias, Popper había intentado llevar al interior de la lógica la noción intuitiva de una mayor verosimilitud en las teorías. Las definiciones de Popper habían de constituir un modelo ideal típico por medio del cual se pudiese conjeturar la progresividad de una teoría con respecto a las otras, a lo largo del desarrollo efectivo de la historia de la ciencia y en el ejercicio de la investigación. Lo cierto es que la historia de la ciencia constituye un extenso cementerio de teorías equivocadas, y que los científicos, por su parte, se mueven cada día entre teorías falsas. Por ello, es muy deseable la posesión de un criterio que permita establecer la preferibilidad o la mayor aproximación a la verdad de una teoría falsa en comparación con otras teorías, que también son falsas. Popper trató justamente de fijar, mediante sus definiciones de verosimilitud, un criterio de este tipo, pero no lo logró; de momento, su estándar ha resultado demasiado elevado.

Asumiendo con valentía los resultados de las demostraciones de Tichy, Miller y Harris, Larry Laudan ha tratado de reconducir el estándar de preferibilidad y progresividad de una teoría en comparación con las otras, desde los aspectos lógicos de Popper hasta aspectos pragmáticos. No tenemos un criterio de verdad; no hemos logrado formular un criterio consistente de verosimilitud. Entonces ¿cuándo es mejor, preferible y progresiva una teoría, en comparación con otra? Laudan responde a este interrogante afirmando que es racional escoger aquella teoría que en determinado momento resuelve más problemas, y problemas que en ese momento sean más importantes.

Sin duda, de este modo se aprecia que la lógica no logra dominar la historia (de la ciencia), a menos que los esfuerzos de pensadores como Mott, Hilpinen, Tuomela, el mismo Miller u otros nos ofrezcan una definición de verosimilitud que sea consistente y que nos permita dominar la historia efectiva de la ciencia y orientar el ejercicio de la investigación. A pesar de todo, ¿sería irracional que un médico, entre dos teorías terapéuticas que son ambas falaces, elija aquella que soluciona más casos y salva a más enfermos?

6. EPISTEMOLOGÍA Y METAFÍSICA

6.1. Cómo y por qué los epistemólogos contemporáneos defienden la metafísica

Los neopositivistas vieneses, basándose en el principio de verificación, sostuvieron la carencia de sentido de cualquier aserción metafísica. Al contrario de los neopositivistas, los filósofos analíticos -a través del principio de uso- hicieron ver los usos o funciones (morales, políticas, religiosas o antirreligiosas) de las teorías metafísicas. Entre estas funciones mencionaron el hecho de que «lo que comienza como metafísica puede acabar siendo ciencia». En esta última función -en el hecho de que algunas teorías metafísicas constituyen una aurora para la ciencia- han insistido particularmente aquellos epistemólogos que, de un modo u otro, están ligados con el racionalismo crítico de Karl Popper o se ,relacionan con él. Popper, como ya sabemos, basándose en el criterio de demarcación entre ciencia y nesciencia, representado por la falsación, sostuvo las tesis siguientes: a) las metafísicas tienen sentido; b) algunas de ellas han constituido históricamente programas de investigación y, al crecer el saber de trasfondo, se han transformado (como en el caso del ato mismo antiguo) en teorías controlables; c) desde el punto de vista psicológico, la investigación se vuelve imposible sin la fe en ideas de naturaleza metafísica; d) las metafísicas son criticables, aunque no sean falsables.

Después de Popper, tanto Kuhn como Lakatos han vuelto sobre las relaciones entre ciencia y metafísica. Para Kuhn, entre los diversos tipos de paradigmas, también se cuentan los metafísicos. Y son justamente los paradigmas metafísicos (por ejemplo, el mecanicismo cartesiano) los que «informan al científico sobre las entidades que la naturaleza contiene o no, y sobre cómo se comportan tales entidades». Por su parte, Lakatos elaboró su metodología de los programas científicos de investigación, centrándose en la noción de «núcleo teórico convertido en irrefutable por decretos metodológicos». En esencia, para Lakatos la ciencia no avanza mediante un duelo con dos contendientes -una teoría y los hechos- sino a través de un desafío entre por lo menos dos programas de investigación y los hechos. Lo que importa es la progre si vi dad de un programa en comparación con los demás, programa que se desarrolla en torno a un núcleo teórico irrefutable no sintácticamente (como supone Popper) sino por razones metodológicas: protegemos la refutación al núcleo teórico hasta que éste se muestra progresivo tanto teórica como empíricamente, es decir, hasta que se muestra más fecundo que los demás programas.

En resumen, esto es lo que han venido a decir Kuhn y Lakatos acerca de la metafísica. Sin embargo, loseph Agassi y lohn Watkins han querido examinar mejor el tema. En su ensayo La naturaleza de los problemas científicos y sus raíces en la metafísica (1975), Agassi se propone exaltar toda metafísica como física del futuro, contra aquellos que hablan de la metafísica como si fuese una física del pasado. En contra de Popper, que afirma que se investiga para hallar y controlar hipótesis muy controlables, señala que a menudo la investigación se dirige hacia el control de hipótesis poco controlables o casi del todo incontrolables, es decir, hipótesis relevantes metafísicamente. Ademas, no está de acuerdo con incluir la metafísica dentro de la nesciencia junto con la pseudociencia y la superstición, y dice que estas últimas son

distintas de la «metafísica» y no se les puede dar este nombre. Subraya que «la metafísica puede ser considerada como un programa de investigación, mientras que las falsas pretensiones de la pseudociencia son el producto acabado». Para Agassi, «las ideas metafísicas pertenecen a la investigación científica en cuanto ideas reguladoras de una importancia decisiva» y, más importante aún, las metafísicas no se encuentran más allá de la crítica. Escribe: «Las teorías metafísicas son visiones acerca de la naturaleza de las cosas (al igual que la teoría de Faraday sobre el universo como un campo de fuerzas) [...]. Las doctrinas metafísicas no suelen ser criticables como lo son las teorías científicas; por general, en metafísica no hay ninguna refutación, y por lo tanto, ningún experimento decisivo. Sin embargo, en un procedimiento de esta clase puede haber algo parecido a un experimento crucial. Dos visiones metafísicas diferentes brindan dos interpretaciones diversas de un conjunto de hechos conocidos. Cada una de estas interpretaciones se desarrolla me-diante una teoría científica, y una de ellas se ve derrotada en un experimento crítico. La metafísica que se halle detrás de la teoría científica derrotada pierde su poder interpretativo y es abandonada. De este modo, hay algunos problemas científicos que resultan relevantes para la metafísica; por lo común, se elige para estudiar la clase de problemas científicos que manifiesta tal relevancia.» En efecto, hay problemas más o menos interesantes. Y en general, el interés de un problema justamente se halla determinado por su relevancia metafísica.

Acabamos de efectuar una sucinta reseña de algunas de las consideraciones básicas de Joseph Agassi sobre la metafísica en sus relaciones con la ciencia. W.W. Bartley III también ha insistido (en Teorías de la demarcación entre ciencia y metafísica, 1968) sobre el hecho de -que no habría que considerar como un vicio la irrefutabilidad de una teoría, como pretende Popper.. Bartley escribe: «Quisiera explicar esta idea e insistir en ella haciendo notar que hay diferentes contextos en los que resultan muy deseables las teorías irrefutables desde el punto de vista empírico, incluso más deseables que las comprobaciones empíricas. Si nuestro objetivo consiste en maximizar la crítica a las concepciones existentes, es mucho más importante poseer una teoría o explicación alternativa, científica o no, que contradiga (conflicts) las versiones corrientes y más difundidas acerca de la cuestión que hay que explicar, que tener lo que parezca ser una refutación empírica o un contraejemplo de la teoría en auge.» Esta concepción de Bartley, también fue defendida por Agassi, fue acentuada por Paul K. Feyerabend, para quien el pluralismo teórico (la construcción de teorías alternativas a la teoría en auge) puede ejercer la función de recuperar hechos capaces de poner en dificultades o incluso en crisis la teoría vigente. Si tales alternativas desapareciesen, esos hechos no estarían disponibles. Además, las alternativas a la teoría vigente sirven precisamente para maximizar el contenido de una teoría, que siempre es evaluada en comparación con otras teorías. Por todo ello «la creación de alternativas a la opinión que se examine constituye una parte esencial del método empírico». Por lo tanto, para ser buenos empiristas -escribe Feyerabend en Cómo ser un buen empirista- es preciso producir diversas teorías metafísicas, para recuperar hechos que puedan contradecir a una teoría imperante (hechos que, de otro modo, sería imposible hallar) para maximizar el contenido de una teoría.

6.2. John Watkins y la metafísica confirmable e influyente

Mencionábamos antes que Agassi y Watkins han profundizado en el tema de las relaciones entre metafísica y ciencia. Ya hemos expuesto algunos elementos del pensamiento de Agassi. Por lo que respecta a John Watkins (véase su escrito Metafísica confirmable e influyente, 1957), cabe resumir en los siguientes puntos los resultados de su reflexión sobre el tema: 1) la clásica dicotomía empirista entre lo analítico y lo sintético constituye una simplificación exagerada o infecunda; 2) es erróneo interpretar un juicio a priori como necesariamente verdadero; podemos tener juicios a priori (independientes de la experiencia, en la medida en que son irrefutables por hechos empíricos) y que sin embargo no sean necesariamente verdaderos; 3) los asertos metafísicos que expresan el determinismo, el mecanicismo, las teorías de la conservación, etc., constituyen ejemplos de tales juicios a priori y no necesarios: se trata de juicios a priori en el sentido de que son empíricamente irrefutables, y sin embargo no son necesarios desde el punto de vista lógico; 4) genéticamente (y por lo tanto, históricamente) existen metafísicas que prescriben programas de investigación científica, y también existen metafísicas que son justificaciones post hoc de teorías metafísicas consolidadas; el pensamiento científico ha influido sobre todo en la metafísica durante los períodos de consolidación de la ciencia, mientras que «las ideas metafísicas han influido sobre todo en la especulación científica durante los períodos de cambios y de tensiones en la ciencia»; 5) debemos substituir la dicotomía analítico-sintético por la tricotomía analítico-sintético-a priori no necesario; los juicios a priori no necesarios son los juicios fácticos metafísicos; 6) estos juicios metafísicos a priori y no necesarios pueden tener instancias confirmadoras (así ocurre en el determinismo, por ejemplo: encontramos leyes causales), pero no pueden ser falsados, y al no ser falsables, sus confirmaciones no logran transformarlos en teorías de naturaleza empírica; 7) las ideas metafísicas a priori y no necesarias pueden ser interpretadas como mandatos metodológicos (el determinismo equivaldría a una prescripción como ésta: «Nunca hay que abandonar la búsqueda de leyes naturales»; el mecanicismo consistirá en afirmar: «Nunca hay que permitir que entre las premisas utilizadas se cuenten las cualidades ocult s, las acciones a distancia, la transmisión instantánea o cualquier otra esviación del principio de acción por contacto»; etc.). Sin embargo, hay que insistir en el hecho de que, aunque desde el punto de vista formal no se puedan deducir prescripciones metodo lógicas desde las descripciones metafísicas, esto no significa en absoluto que éstas no ejerzan su papel regulador. Pueden ejercerlo porque una doctrina metafísica puede entrar en colisión con determinados, tipos de hipótesis falsables, prohibiendo así que se lleguen a construir. Este es el caso del cartesianismo

frente a la teoría de Torricelli o la teoría newtoniana de la acción a distancia; 8) en esencia, las doctrinas metafísicas «regulan la construcción de las teorías empíricas, no de una manera positiva, implicando una teoría empírica específica, sino negativamente, prohibiendo determinados tipos de teoría empírica»; esto también sucede en las relaciones entre la metafísica por un lado y la moral y la política por otro: una doctrina metafísica «no implica ninguna concepción moral o política, únicamente limita las concepciones morales y políticas que se abren ante un hombre que contemple el mundo desde esa perspectiva»; 9) en lo concerniente a la evaluación de las teorías metafísicas hay que señalar que: a) debemos esforzamos por transformar en controlable una teoría incontrolable e interesante; b) no hay que transformar una teoría controlable pero en dificultades en una teoría desvirtuada e irrefutable; e) es cierto que una teoría metafísica que haya engendrado ciencia queda reforzada por la ciencia que ha generado, pero también es cierto que un mismo conjunto de hechos y de leyes científicas puede tener diversas interpretaciones metafísicas; por ello, la ciencia de una metafísica no otorga a ésta una autoridad indiscutida; d) no hay que olvidar que «históricamente, las doctrinas metafísicas han desempeñado un papel en el interior de la ciencia cuando han desafiado la teoría existente y han prefigurado un nuevo tipo de teoría». Esto nos permite apreciar que «la conformidad con la ciencia existente es un factor favorable [para una metafísica], pero este factor puede verse superado en valor por una evaluación pragmática del posible influjo de la doctrina metafísica sobre la ciencia futura. Además, están sus relaciones con la psicología, la historia, la ciencia social, la moral y la política, que hay que explorar de manera sistemática y sopesar en conjunto. Una vez que tengamos ante nosotros una defensa coherente de una doctrina [... metafísica] su crítica se vuelve más fácil».

7. EPISTEMOLOGÍA Y MARXISMO

7.1. Lakatos y el marxismo como programa de investigación degenerativo

Por lo general, los epistemólogos contemporáneos se muestran decididamente opuestos a los rasgos teóricos totalizantes y absolutistas del marxismo. No vamos a exponer las críticas al marxismo que han formulado Weber, Vailati o Calderoni. Sin embargo, hay que decir de inmediato que Bertrand Rusell, en Ensayos impopulares (1950), escribió que la dialéctica es «una de las creencias más fantásticas que Marx haya tomado de Hegel». Por otra parte, en su Autobiografía, Rudolf Carnap nos informa que la mayoría de los filósofos científicos del Círculo de Viena «no podía aceptar determinados puntos, en particular la dialéctica en su forma marxista, que rechazábamos al igual que la dialéctica hegeliana, cuando afirmaba que realizaba las funciones de la lógica».

De todas maneras, como ya hemos dicho, fue Popper quien efectuó las críticas más decisivas al pensamiento materialista dialéctico. Siguiendo las huellas de Popper, Hans Albert, dentro del ámbito cultural alemán, ha continuado la ofensiva contra el pensamiento materialista dialéctico, atacando a Adorno y sobre todo a Habermas, quienes en nombre de la dialéctica y de la totalidad habían reclamado una racionalidad diferente y superior a la de los positivistas como Popper y Albert. Apelando a teorías y categorías como «totalidad» y «dialéctica» se cree estar informando, y utilizando eslóganes e intimidaciones verbales se aspira a hacer creer que informan. Sin embargo, señala Albert, en el fondo esas categorías no tienen ninguna fuerza teórica, sino únicamente fuerza pragmática, como los mitos. Por esto, sostiene Albert en El mito de la razón total, «me parece que existe una estrecha conexión entre el hecho de que los intentos de interpretar la realidad que contrastan con el positivismo criticado por Habermas a menudo no son impopulares en las sociedades totalitarias, y el peculiar carácter del pensamiento dialéctico».

Para Thomas Kuhn, en su ensayo ¿Lógica del descubrimiento o psicología de la investigación? (1969), el marxismo -al igual que la astrología- es pseudociencia porque al no tener que resolver rompecabezas no da lugar al ejercicio de la ciencia. Para Imre Lakatos, el marxismo es un programa de investigación degenerativo. «¿Qué hecho nuevo ha predicho el marxismo desde 1917, por ejemplo?», tal es la pregunta retórica que se plantea Lakatos. Además de esto, Lakatos ha insistido en la actitud anticientífica que asumen los marxistas ante las refutaciones que han sufrido las predicciones hechas por el marxismo en sus comienzos. En la Introducción a sus Escritos filosóficos (1978), Lakatos recuerda que el marxismo efectuó algunas predicciones famosas, sin el menor éxito. Predijo el empobrecimiento absoluto de la clase obrera. Predijo que la primera revolución socialista tendría lugar en la sociedad industrial más avanzada. Predijo que las sociedades socialistas se verían libres de revoluciones. Que no habría ningún conflicto de intereses entre países socialistas. Las primeras predicciones del marxismo fueron osadas y se proclamaron a los cuatro vientos, pero no se cumplieron. «Los marxistas han explicado todos sus fracasos: explicaron el creciente nivel de vida de la clase obrera inventando una teoría del imperialismo; explicaron por qué tuvo lugar la primera revolución socialista en la Rusia industrialmente atrasada. "Explicaron" Berlín 1953, Budapest 1956, Praga 1968. "Explicaron" el conflicto rusochino. Sin embargo, sus hipótesis auxiliares fueron en todos los casos construidas después de los acontecimientos, con el fin de proteger la teoría marxista ante los hechos. El programa de Newton llevó a hechos nuevos; el programa de Marx se quedó atrás con relación a los hechos y ha tenido que correr para alcanzarlos.» Cuando la teoría permanece por detrás de los hechos, nos encontramos ante programas que se estancan lamentablemente en la degeneración: tal es, según Lakatos, el caso del marxismo.

John Worrall ha vuelto en época muy reciente a analizar la diferencia existente entre el programa de inVestigación de Newton y el de Marx. En el ensayo Cómo la metodología de los programas de investigación mejora la metodología de Popper (1979), Worrall sostiene que «la diferencia entre el marxismo y el pensamiento newtoniano es la misma diferencia que existe entre un programa degenerativo y un programa (dinámico) progresivo». La ciencia es constitutivamente dinámica: crece y continúa siendo ciencia, o bien se halla destinada a desaparecer como ciencia. Y los marxistas han prohibido al marxismo que crezca como ciencia.

7.2. Feyerabend: la «sociedad libre» y el marxismo

Si desde las consideraciones de Lakatos y de Worrall sobre el marxismo, pasamos a las de Feyerabend, vemos entonces que la cuestión se agrava aún más. Tanto en Contra el método e1975) como en La ciencia en una sociedad libre (1978), Feyerabend se declara en contra de la postura autoritaria y totalitaria de la ideología científica. A Feyerabend no le parece suficiente con la sociedad abierta. Defiende una sociedad libre. Y «una sociedad libre es una sociedad en la cual todas las tradiciones tienen iguales derechos e igual acceso a los centros de poder (una definición de este tipo se distingue de la definición acostumbrada, según la cual son los individuos quienen tienen igual derecho de acceso a las posiciones definidas por una tradición especial: la tradición de la ciencia y del racionalismo occidental)». La sociedad libre, por lo tanto, surgirá gracias a la actividad de las personas que, en el interior de la sociedad, viven en las diversas tradiciones y «no de ambiciosos sistemas teóricos. No se da ninguna necesidad de guiar su desarrollo por medio de ideas abstractas o de una filosofía, como es el caso del marxismo».

Obviamente, en esta «sociedad libre» las pretensiones omnívoras de la ideología marxista quedan claramente redimensionadas. El relativismo protagórico de Feyerabend es incompatible con la pretensión de la ideología marxista-leninista de presentarse como la verdad única y absoluta, y de representar siempre y en todo lugar el único instrumento válido de liberación. En realidad, el liberador de ayer puede convertirse en el tirano de mañana. Feyerabend está convencido, en efecto, de que en la ciencia o en cualquier otra ideología no hay nada que las convierta en intrínsecamente liberadoras. Las ideologías pueden deteriorarse y convertirse en religiones dogmáticas (por ejemplo, el marxismo). Comienzan a deteriorarse cuando consiguen el éxito, se transforman en dogmas desde el momento en que la oposición es aplastada, y su triunfo es su ruina». El relativismo, dice Feyerabend, da miedo. «Los intelectuales le tienen miedo porque el relativismo amenaza su papel en la sociedad, igual que la ilustración amenazó en un momento la existencia de los sacerdotes y de los teólogos. Y el público más amplio que se ve educado, explotado y tiranizado por los intelectuales ha aprendido hace muel}o tiempo a identificar el relativismo con la decadencia cultural (social). Este fue el modo en que se atacó el relativismo durante el Tercer Reich alemán, el modo en que hoy lo atacan los fascistas, los marxistas y los racionalistas críticos. Ni siquiera las personas más tolerantes se atreven a decir que rechazan una idea o un modo de vida porque no les gusta, lo cual les daría una vergüenza absoluta. Dichas personas tienen que añadir que hay razones objetivas para sus acciones, lo cual provocaría un descrédito, al menos parcial, sobre el objeto rechazado y sobre todos los que se encuentren prendados de él.»

Feyerabend afirma que hay pocas personas que se contenten con ser capaces de pensar y de vivir de un modo que les guste a ellos, y que no sueñen con transformar su tradición en obligatoria para alguien. Entre esas pocas personas no se cuentan por cierto los marxistas: para ellos «existe una sola verdad y ésta debe prevalecer». Y si existe una sola verdad, entonces no se.puede ser tolerante con la falsedad. Para ellos, la tolerancia «significa tratar humanamente a cuantos son por desgracia prisioneros de la falsedad». Por todo ello, se comprende perfectamente por qué se tiene miedo a la idea de una sociedad libre o -lo que es igual- al relativismo: éste «pondría fin a este agradable ejercicio de superioridad: de aquí proviene la aversión que se le tiene». A él se oponen todos aquellos -y son muchos- que se sienten maestros del mundo, que contemplan el mundo como si fuese una clase escolar y al pueblo como si fuesen dóciles alumnos. En opinión de Feyerabend los adversarios del relativismo se cuentan en gran número: desde Platón hasta los marxistas. A propósito de estos últimos, Feyerabend señala que «ya no buscan aprender de aquellos a los que quieren liberar. Los marxistas se atacan unos a otros con respecto a interpretaciones, puntos de vista y evidencia, y dan por sentado que el resultante plato intelectual cocinado y recocinado es un alimento exquisito para la gente del lugar (Bakunin era consciente de las tendencias doctrinarias del marxismo contemporáneo y pretendía devolver todo el poder -incluido el poder sobre las ideas- a las personas directamente interesadas)». En conclusión, para Feyerabend «algunas modernas escuelas de filosofía, de sociología (conductismo, marxismo: con respecto al nivel intelectual entre éstos no hay ninguna diferencia notable) e incluso física, parecen manicomios en los que los locos bulliciosos se dedican a sus extravagantes actividades sin sentido, sin entusiasmo, sin vínculos con la realidad».

8. EPISTEMOLOGÍA E HISTORIOGRAFÍA DE LA CIENCIA

8.1. El «porqué» y el «cómo» de la historia de la ciencia

El desarrollo de la epistemología contemporánea ha colocado en primer plano la cuestión de las funciones de la historiografía de la ciencia y algunos problemas teóricos relativos a ella. En lo que concierne a las funciones de la historia de la ciencia digamos en resumen que: 1) puesto que la ciencia es un factor de la historia, no podemos entender el desarrollo en especial de la era moderna y, sobre todo, de la contemporánea, sino conocemos la historia de la ciencia y de la tecnología; 2) la ciencia, además de ser factor de historia, es factor de cultura: por lo tanto, nos está vedada la comprensión del desarrollo de la cultura más amplia sino comprendemos la historia de la ciencia y su entrelazarse y condicionarse recíproco con la historia de la filosofía, de las concepciones morales y políticas o incluso de la teología; 3) como han reiterado Mach, Duhem y Feyerabend, entre otros, el conocimiento de la historia de la ciencia es necesario para la labor del científico en ejercicio, puesto que la maximización del contenido de una teoría se obtiene mediante la confrontación de esta teoría con otras: estas otras teorías se toman de donde estén disponibles, tanto del presente como del pasado; 4) la historia de la ciencia se revela cada vez más como un ingrediente indispensable para la didáctica de las ciencias, en lo que se refiere a la motivación en el aprendizaje, en lo que concierne al antidogmatismo y a la aceptación de la función del error, y con respecto a una mayor conciencia de las reglas meto do lógicas necesarias para la labor investigadora. Sin embargo, prescindiendo de estas (y de otras) funciones puestas de manifiesto por la historia de la ciencia, lo que aquí más nos interesa son justamente los problemas específicos de la teoría de la historia de la ciencia.

Es vasta y compleja la problemática acerca de cómo hacer historia de la ciencia, problemática que la epistemología de hoy -como ya se ha dicho antes- ha colocado en primer plano: Popper, Kuhn, Lakatos, Feyerabend, Laudan y otros. En cualquier caso, sin embargo, del actual debate epistemológico han ido emergiendo de forma paulatina teorías que proponen una historia de la ciencia que vaya mucho más allá de la anécdota o de los irrelevantes productos conmemorativos. En realidad, el historiador de la ciencia, empleando un nuevo aparato historiográfico (nuevos conceptos historiográficos) busca nuevo material histórico y plantea -tanto a éste como al antiguo, aunque a veces se ha convertido en irrelevante, por lo menos en parte, o se lo contemple desde otra perspectiva- interrogantes que esperan respuestas interesantes.

En efecto, se trata de buscar paradigmas y programas de investigación que compitan entre sí, metafísicas influyentes; se centra la atención en los períodos de ciencia normal y en los de ciencia revolucionaria; no se descartarán las fantasías que no hayan tenido éxito; los fracasos forman parte de la historia de la evolución. Se prestará atención a la imagen de la ciencia que posean los científicos en ejercicio, o la que influya sobre ellos más o menos; se examinarán los obstáculos económicos, sociales o políticos, y también -y sobre todo-los epistemológicos; se intentará reconstruir estados problemáticos objetivos; se tendrán en cuenta las técnicas de prueba de la época en cuestión, y por lo tanto la instrumentación disponible entonces, y así sucesivamente.

Plantearse preguntas de este género significa esperar respuestas diferentes a las de la antigua historiografía, quiere decir resolver problemas específicos para afrontar los cuales es preciso un estudioso en particular que en cada caso, según el problema que se estudie, se provea de los instrumentos (tomados de la filología, la epistemología, la lógica, la física, la biología, etc.) necesarios para solucionar dichos problemas. Como es natural, un adecuado conocimiento de la ciencia contemporánea no permitirá que el historiador tergiverse los hechos del pasado en función de la ciencia de hoy (con lo cual no sería un historiador). Este conocimiento de la ciencia contemporánea será para el historiador uno de sus instrumentos de comprensión del pasado, en la medida en que «la historia de sus efectos» permite comprender mejor (que el autor mismo de la teoría) el valor, el sentido, la fecundidad, etc., de ésta. (Se vuelve evidente en este caso la relación con la teoría de la «historia de los efectos» de Gadamer.) Así es cómo, en opinión de Vailati, la historia de la ciencia se dispone a convertirse ella misma en ciencia.

8.2. Historia interna e historia externa

Más en particular, puesto que no existe la observación pura -ya que toda observación se halla teñida de teoría- del mismo modo toda historia de la ciencia presupone una imagen de 1ft ciencia o una epistemología. Hacer historia de la cieI?-cia presupone qué se sepa previamente qué es la ciencia, presupone ante todo unos criterios selectivos a través de los cuales descubrir en el maremágnum de las actividades humanas y de los productos de estas actividades aquellas actividades y aquellos productos que se llaman (o se llamaban) científicos. Es en este sentido como debemos afirmar que una imagen de la ciencia constituye el presupuesto primero y fundamental de la historia de la ciencia. Se puede ser inductivista, convencionalista, operacionista, falsacionista (dogmático, metodológicamente ingenuo o sofisticado), partidario de Kuhn con su teoría «paradigma - largo período de ciencia normal - aparición de las anomalías - breve

período de ciencia extraordinaria - nuevo paradigma - ciencia normal y así sucesivamente», o se puede ser partidario de los programas de investigación (Lakatos) o epistemólogo anarquista (Feyerabend). Pues bien, según se tenga una u otra imagen (o teoría) de la ciencia, tendremos también una diferente (al menos en parte) historia de la ciencia: serán distintos (al menos en parte) los problemas tratados, y habrá una línea de demarcación diferente entre historia interna e historia externa. La historia interna es la reconstrucción racional del desarrollo de la ciencia: es racional en el sentido de que la reconstrucción se efectúa únicamente con los ingredientes indicados por la imagen ideal típica de la ciencia que suministra una epistemología, y racional también en el sentido de que la evolución cronológica muestra básicamente la evolución de la ciencia. Por ejemplo, un falsacionista centrará su atención en los estados problemáticos objetivos, las teorías en competencia, las falsaciones, y contemplará el avance efectuado hacia teorías más verosímiles

Una vez delimitada esta historia interna, contemplará la historia externa: las instituciones, las ideologías, las metafísicas, etc., que han favorecido u obstaculizado (o condicionado de cualquier forma) el progreso de la historia interna. Un partidario de los programas de investigación, por su parte, se dedicará a examinar dichos programas cuando compiten entre sí, su progresividad o regresividad, e incluirá en la reconstrucción interna también aquellas metafísicas fecundas que el popperiano colocaría en la historia externa. Un convencionalista considerará como factor de progreso las teorías más sencillas. Un inductivista buscará asertos que describan hechos puros y generalizaciones de estos hechos, excluyendo de la historia interna aquellos errores, fantasías o metafísicas que -en cambio- un partidario de Kuhn o de los programas de investigación colocarían en la historia interna. Un partidario de Kuhn colocará en primer plano los períodos de ciencia normal y de ciencia extraordinaria, los paradigmas que resultan vinculantes para la comunidad científica y el desvirtuamiento de dichos paradigmas debido a la acción de las anomalías. Un operacionista pondrá en la historia interna todos aquellos conceptos y teorías que pueden reducirse a operaciones de medida. Y el historiador pragmatista actuará de modo diferente a todos los anteriores.

En esencia: el historiador de la ciencia siempre presupone una idea de ciencia, esto es, una epistemología. Historiadores con epistemologías diferentes nos ofrecerán historias distintas (al menos en parte), porque serán distintas las preguntas que permitirán plantear las diferentes epistemologías ante el vasto material constituido por la actividad y los resultados de estas actividades, que llevan a cabo las llamadas comunidades científicas. Son justamente las distintas epistemologías las que demarcan -siempre de un modo diferente- el límite entre historia interna y la externa. En La historia de la ciencia y sus reconstrucciones racionales, Lakatos escribe: «La decisiva demarcación entre interno-normativo y externo-empírico es diferente para cada metodología. Unidas entre sí, las teorías de la historiografía interna y externa determinan en amplia medida la elección de los problemas que aborde el historiador. Sin embargo, algunos de los problemas más importantes de la historia externa sólo pueden ser formulados eI!J los términos de una única metodología; de modo que la historia interna, definida de este modo, resulta primaria, mientras que la historia externa es sólo secundaria.»

8.3. Los problemas de la historia popperiana de la ciencia

Únicamente para ejemplificar el modo en que una epistemología determina la historia de la ciencia, veamos el caso de un historiador de la ciencia que considera válida la epistemología popperiana. Para esta epistemología: a) existe una asimetría lógica entre confirmación y desmentido; b) la falsación lógica es diferente de la metodología, en el sentido de que aquélla (una vez que se aceptan las premisas) es concluyente, mientras que la segunda no lo es (porque puede estar equivocada una hipótesis auxiliar o, por ejemplo, el protocolo falsador); c) falsar una teoría no significa abandonarla, sobre todo si no tenemos otra mejor; d) el objetivo de la ciencia es el de alcanzar teorías cada vez más verosímiles; e) por motivos lógicos, toda conjetura puede ser desmentible; f) por lo tanto, si queremos lograr un objetivo prefijado no debemos tratar de salvar teorías en peligro mediante hipótesis ad hoc que, vaciando la teoría de contenido informativo, la expongan cada vez menos a una falsación; g) tampoco debemos confiar en las hipótesis auxiliares, la instrumentación y los protocolos; h) la metafísica, de acuerdo con el criterio demarcador de la falsación, tiene sentido y puede demostrarse fecunda para las teorías científicas; i) tenemos un criterio de progreso (referente a las teorías más verosí-miles, en la medida en que son más ricas en contenido informativo), pero no tenemos una ley de progreso: ante el avance de la ciencia se alzan obstáculos sociales, económicos, psicológicos, epistemológicos, etc.; j) los problemas son contradicciones lógicas entre asertos establecidos, y son precisamente los problemas lo que el científico quiere resolver desencadenando la creatividad de las hipótesis y poniéndolas luego a prueba para elegir -entre las eventualmente numerosas ideas- las que sean nuevas y buenas, buenas para solucionar los problemas.

Ahora bien, un historiador que haya asumido una epistemología como la que acabamos de mencionar, se planteará preguntas como las siguientes. ¿Qué problemas trataron de resolver Redi, Vallisneri o Fermi, por ejemplo? ¿Por qué el científico escogió estos problemas y no otros? ¿Qué fue lo que determinó su elección? ¿Cuáles eran las teorías dominantes en su época? ¿Qué novedades teóricas produjo este o aquel científico? Con respecto a las teorías, ¿actuó como un verificacionista o como un falsacionista? ¿Sometió las teorías a las pruebas más rigurosas existentes en su época o pretendió salvadas con estratagemas ad hoc? El investigador ¿introdujo novedades técnicas para probar las

teorías o bien aceptó pasivamente la instrumentación vigente? ¿Cuáles eran los supuestos filosóficos del científico y de la comunidad científica más amplia? ¿Cuál era, en cambio, la imagen de la ciencia? ¿Estos supuestos filosóficos y esta imagen de la ciencia influyeron sobre su trabajo, y en caso afirmativo, en quéforma? ¿Cón qué obstáculos tuvo que enfrentarse este o aquel científico? ¿Cómo actuó al respecto? Más aún: ¿las instituciones científicas (academias, centros docentes, congresos, etc.) ayudaron al progreso de la ciencia? En suma, nos hallamos ante preguntas de historia interna y de historia externa. Las primeras delimitan también el ámbito de las segundas. y a su vez, las primeras se encuentran determinadas por la imagen falsacionista de la ciencia.

Por lo tanto, no resulta difícil comprender a Lakatos cuando escribe: «La historia interna de los inductivistas consiste en pretendidos descubrimientos de hechos puros y de las llamadas generalizaciones inductivas. La historia interna de los convencionalistas consiste en descubrimientos fácticos y en construir sistemas de redes, substituyéndolos más tarde por sistemas considerados más sencillos. La historia interna de los falsacionistas otorgan gran relevancia a las conjeturas audaces, a las rectificaciones, que se considera que siempre aumentan el contenido y, sobre todo, a los experimentos críticos negativos que tengan éxito. Finalmente, la metodología de los programas de investigación coloca en primer plano la notable rivalidad teórica y empírica de los principales programas de investigación, los cambios progresivos y regresivos, y la victoria -que surge lentamentede un programa sobre otro.» Hay que hacer notar que algunos de los problemas internos de una historiografía resultan externos para otra, y viceversa. Hay que reiterar que la historia interna es tal a la luz de una epistemología específica y que es ella la que determina el ámbito de la historia externa. También es preciso subrayar que, aunque la historiografía presuponga necesariamente una epistemología, ésta (cualquiera que sea) no puede resultar falsada o confirmada por aquélla, puesto que la epistemología (toda epistemología) es prescriptiva, mientras que la historiografía es descriptiva. La crítica a las diferentes epistemologías sólo se puede llevar a cabo a niveles lógicos y epistemológicos. Lakatos se muestra en desacuerdo con esta última idea.

COMPLEMENTO

LOS FILÓSOFOS ESPAÑOLES

1. SIGLO XIX

Jaime Balmes (1810-1848)

Es el filósofo de mayor envergadura de la primera mitad del siglo XIX. Vivió la general decadencia escolástica, el empuje irresistible de la filosofía moderna, el furor empirista psicológico francés e inglés de comienzos de siglo, y los brotes kantianos. El espíritu dinámico y apologético que atraviesa toda su existencia le impulsa a emprender una renovación de la filosofía. «Me ha impulsado... el deseo de contribuir a que los estudios filosóficos adquieran en España mayor amplitud de la que tienen en la actualidad» (Fil. Fund. 1, .13).

Ideal constructivo. La apologética de Balmes en filosofía quiere ser más positiva que represiva; «en nuestra época el mal no se contiene con sola represión; es necesario ahogarle con la abundancia del bien» (Fil. Fund. 1, 13).

El ideal constructivo tiene en Balmes una realización eminentemente humana y moderna. Comprende, ante todo, las limitaciones de la razón; la historia de la Filosofía «engendra en el alma una convicción profunda de la escasez de nuestro saber... un conocimiento científico de nuestra ignorancia» (Fil. El. III, 249); pero esta primera impresión pesimista se supera aceptando esa misma insuficiencia y contentándonos modestamente con «el grado que ocupamos en la escala de los seres» (1. c.).

El problema de la verdad es un problema en que está comprometido el hombre con todo su complejo de facultades; «una buena lógica debiera comprender al hombre entero, porque la verdad está en relación con todas las facultades del hombre» (Crit. 349). La primera manifestación deslumbrante de este sentido integralmente humano del pensamiento de

Balmes está contenida en el Criterio (1845), fórmula de esa lógica ideal, guía del sentido común, obra comparable a los tratados morales de Séneca y a los Pensamientos de Pascal.

El Criterio es la portada humana de la filosofía de Balmes. Más tarde se aplica a levantar de nueva planta su edificio filosófico en las dos obras principales: Filosofía Fundamental (4 tomos, 1846) y Filosofía Elemental (3 tomos, 1847). La primera se inserta en su ideal apologético y tiene como premisa histórica inmediata las Cartas a un escéptico en materia de Religión (1846). La segunda, complementaria de la primera, viene requerida por un interés más práctico y didáctico. La más célebre obra apologética de Balmes, El Protestantismo comparado con el Catolicismo en sus relaciones con la civilización europea (1842-44), es al mismo tiempo una filosofía de la historia, con una visión católica de la cultura de Occidente en sus más variados aspectos.

Modernidad. Conoce a fondo los filósofos europeos, desde Descartes hasta Kant y Hegel.

El primer y angular estudio es sobre la certeza y la evidencia, que ocupa todo el primer tomo de la Filosofía Fundamental, y que lejos de ser una disertación aérea e intemporal, contiene una analítica sutil y comprensiva de Descartes, Malebranche, Leibniz, Condillac, Kant, Fichte, Vico, Lamennais y otros. Con ello crea Balmes la primera gran epistemología católica moderna. El mismo contacto histórico-doctrinal llena y anima las páginas de los restantes tratados: sobre las sensaciones; sobre la extensión y el espacio, magnífico estudio sintético de la cosmología tradicional y de las modernas concepciones físico-matemáticas; sobre las ideas, en diálogo con Condillac, Locke y Kant; sobre la idea del ente, donde se considera la concepción de Rosmini; sobre las ideas de unidad y número; sobre la idea de tiempo; sobre el infinito; sobre la substancia; sobre la necesidad y causalidad.

Sentido común o instinto intelectual. La solución del tema fundamental epistemológico gravita hacia la filosofía del sentido común, traducido de un modo muy personal por Balmes, del que es muestra calificada el Criterio, con una inicial fe en el hombre.

No siempre ha sido adecuada la expresión; a veces se acentúa en demasía la necesidad impulsiva de la naturaleza; «yo creo que la expresión sentido común significa una ley de nuestro espíritu... y consiste en una inclinación natural... a dar su asenso a ciertas verdades no atestiguadas por la conciencia ni demostradas por la razón; y que todos los hombres han menester para satisfacer las necesidades de la vida sensitiva, intelectual o moral» (Fil. Fund. 1, 316; cfr. Fil. El. 1, 138-9).

Concepto de evidencia. Es preciso reconocer que el concepto que tiene Balmes de evidencia está muy influido por Locke y por el empirismo en general. La concibe de un modo analítico e ideal, no subjetivo. «La evidencia debe definirse: la percepción de la identidad o repugnancia de las ideas» (Fil. El. 1, 132).

Valoración e influjo. Balmes, filósofo y apologeta, trascendió las fronteras patrias y pareció por un momento que en Italia, en Alemania y en la misma Francia iba a ser un adalid del pensamiento católico renovado. Comenzaron con avidez las traducciones. La temprana muerte, a los 38 años, cortó en flor estas esperanzas.

Krausismo

El krausismo ocupa el centro de la vida académica desde 1850 al 1875. Cuando en Europa no hay apenas más que positivismo y náusea de toda especulación abstracta, aquí en España prende el panteísmo de Krause como fórmula resumen del idealismo alemán con ribetes de misticismo pietista. Quisieron, y éste fue en principio el ideal de Sanz del Río, armonizar krausismo y religión, ciencia y fe. De hecho, vino a ser una forma total de vida suplantadora del catolicismo, del catolicismo exangüe que se vivía entonces. La filosofía se erige de este modo, por primera vez aquí, en directora de la vida, en suprema instancia de la vida espiritual del hombre. En este sentido es la primera manifestación plena entre nosotros del espíritu secularizado de la filosofía moderna.

Julián Sanz del Río (1814-1869) es el patriarca de esta escuela filosófica. En su trato con Ahrens en Bruselas, y con los discípulos de Krause (t 1832) en Heidelberg, se confirma en su krausismo y torna a España convertido en su apologista.

En la primera carta desde Heidelberg en 1844 a su amigo y protector José de la Revilla, de interesante contenido autobiográfico, confiesa haberle fascinado la rotundidad armónica y sintética de Krause. Conoce e interpreta a su manera la filosofía de Kant y de los tres grandes idealistas siguientes; cree incompleta la construcción de todos ellos, detenidos, según él, en el pensamiento subjetivo; sólo Krause junta con la sistemática conceptual la salida sintética a la realidad. Krause es para Sanz del Río una insospechada síntesis de idealismo alemán y cristianismo, comprensividad, armonía, calor religioso. Sanz del Río está convencido de ello y tomará desde primera hora la «resolución inconmovible

de consagrar todas mis fuerzas durante mi vida al estudio, explicación y propagación de esta doctrina» (Carta 1, ed. Jobit, 74), con la persuasión de que este sistema tiene aplicaciones inmediatas a la vida práctica, individual y pública.

El sistema. El núcleo doctrinal de este sistema se resume en un panteísmo a la vez científico y religioso-místico, inspirado en el panenteísmo de Krause, que viene a su vez a recoger las tendencias del idealismo alemán y de la unidad espinoziana. Recorre dos fases, análisis y síntesis. En la primera, el espíritu conoce lo múltiple inmediato, diferente, parcial. De ahí se eleva gradualmente a lo simple, a lo idéntico, a lo total, hasta terminar en el conocimiento intuitivo racional del Ser absoluto. El ascenso se verifica a través de intuiciones graduales, de sucesión dialéctica tricotómica, en las que ciertas anticipaciones racionales se presentan como categorías del ser. De ahí bajamos, deductiva, sintéticamente, a la multiplicidad. Si en la primera marcha, analítica, ascensional, todo se veía desligado, en el descenso sintético desde el Ser, todo lo vemos articulado en la unidad, en Dios; el hombre se reencuentra en su puesto, y dentro de esa síntesis se desarrolla el panorama armónico de la ciencia.

Los krausistas y la opinión. Los principales discípulos de Sanz del Río son Francisco de Paula Canalejas (t 1883), a quien se debe un interesante y brioso estudio sobre Llull, Las doctrinas del Doctor iluminado Raimundo Lulio (1870); Manuel de la Revilla; Federico de Castro; Nicolás Salmerón (t 1908), político y filósofo, pasado en sus últimos años al monismo evolucionista; Fernando de Castro y Pajares, jefe de la escuela a la muerte de Sanz del Río; Urbano González Serrano (t 1904); Francisco Giner de los Ríos (t 1915); Gumersindo de Azcárate (t 1918); Manuel Sales y Ferré (t 1910); los cuatro últimos especializados en cuestiones jurídicas y sociológicas.

Frente a este grupo compacto se alzó una viva reacción del pensamiento tradicional, ya en campañas de prensa, ya en la pluma de profesores y hombres de ciencia. Figuras destacadas de esta contienda son Francisco Navarro Villoslada (t 1895) Y Juan Manuel Ortí y Lara (t 1890). En los días de la Restauración, 1874-75, cuando los krausistas son desalojados de sus cátedras, el grupo se disgrega; el krausismo, como sistema, puede decirse que tiene su fin.

Pero el krausismo, como institución, resurge gracias a la tenaz labor de Francisco Giner de los Ríos, que funda en 1876 la «Institución Libre de Enseñanza», originariamente organismo independiente, fuera de todo marco y compromiso oficial, convertida luego de hecho en árbitro de una situación cultural, cuyo influjo decisivo en la universidad se prolongará hasta bien entrado el siglo xx. El secreto de esta eficacia ha de ponerse en lo que fue el sello uniforme del krausismo como comportamiento humano, serio, laborioso, proselitista y hermético, ávido de instrucción y de europeidad, correcto de formas en el trato de personas y creencias, de un sentido ético natural elevado casi a religión; como una nueva fórmula de humanismo religioso no cristiano, por ello en fuerte contraste con un ambiente sociológicamente cargado de religiosidad católica.

Menéndez Pelayo

Contienda en torno a la filosofía española. Ante el afán de europeización y de crítica de lo específicamente español y católico de los krausistas y otros pensadores afines nació la obra apologética de Marcelino Menéndez Pelayo (1856-1912) en pro de la ciencia española. Es el gran apologista y redescubridor del pensamiento tradicional y español. La polémica en pro de la ciencia española le llevó a una labor de investigación y rebusca que logró iluminar muchos sectores obscuros de nuestro pasado filosófico. Con la filosofía inicia propiamente su empresa apologética.

En la inabarcable producción literaria de Menéndez Pelayo son de especial interés para la historia de la filosofía patria los siguientes trabajos: Humanistas del siglo XVI (1878), Arnaldo de Vilanova, médico catalán del siglo XIII (1879), San Isidoro. Su importancia en la historia intelectual de España (1881), Historia de las Ideas Estéticas en España (1883),

Ensayos de crítica filosófica (1892), Juan Ginés de Sepúlveda; Diálogo sobre las justas causas de la guerra (el Democrates alter, trad. publicada en el «Boletín de la Real Acad. de la Hist.», oct. 1892) y, sobre todo, la original empresa de la Historia de los Heterodoxos españoles (La ed., 3 tomos, 1880-82), la obra histórica de ideas más madura de Menéndez Pelayo, que a vuelta de la heterodoxia persigue en ella casi ininterrumpidamente el hilo de las ideas patrias desde los orígenes del Cristianismo hasta el siglo XIX.

La inmensa obra histórica de Menéndez Pelayo debería culminar en una gran historia de la filosofía española. Desgraciadamente, este remate fundamental falló en la gran empresa. No fue Menéndez Pelayo precisamente un espíritu nacido para la especulación filosófica; personalmente vivió una equilibrada síntesis del pensamiento filosófico tradicional, y aun escolástico, con un conocimiento objetivo y asimilación de lo moderno; postura de síntesis que defendió, llegado el caso, con gran vigor frente a otras interpretaciones más estrechas del pensamiento tradicional; pero en él dominó, en definitiva, el amor e interés por las bellas letras; en este campo, como historiador y fino esteta, tiene, sin duda, sus mayores méritos. La magna obra de una historia objetiva y documentada de la filosofía española la encomendaba Menéndez Pelayo al final de su vida a su discípulo Adolfo Bonilla y San Martín. Esta historia está aún por hacer.

Para la caracterización del momento espiritual español de fin de siglo es interesante notar una mitigación de las estridencias que reviste la contienda en sus primeras fases. Menéndez Pelayo impone su indiscutible autoridad histórica y científica, conquista un clima de respeto para lo español y, a su vez, hace justicia a la parte buena existente en sus primeros adversarios, que llegarán todos a ser después sus amigos (cf. Prólogo a la 3.. ed. de la Ciencia Española); será sintomática a este respecto su amistad con Pérez Galdós. No ha cedido de sus posiciones, ni se han mellado sus aceros; más bien ha comprendido, al final, que no todo en los otros era malo, y, por lo demás, él mismo había contribuido a despertar en muchos de ellos fondos latentes de «conciencia religiosa... ráfagas de cristianismo positivo» (Est. y Disc. CrÍ!. hist. y lit., Ed. Nac. 10, 96).

No faltaron colaboradores y continuadores de la obra histórica de Menéndez Pelayo. Sin embargo, no puede hablarse propiamente de una escuela.

Hoy podemos corregir, con un sentido crítico más depurado, muchas de sus afirmaciones y apreciaciones históricas, y mitigar el tono retóricoapologético que anima con frecuencia su pluma, tono propio del tiempo que vivió.

Restauración escolástica

No es despreciable el papel desempeñado por España en el general resur ;[ escolástico de la segunda mitad del siglo XIX. Antes de la Encíclica Aeterni Patris (1879) de León XIII, momento central del nuevo movimiento, hemos de señalar la labor precursora y preparatoria de ciertos jesuitas expulso s en Italia, el más destacado Baltasar Masdeu, maestros de los restauradores del tomismo italiano; el ideal de una filosofía «antiquonova» de la escuela cerveriense deja aquí sentir su efecto; será fundamentalmente el lema de la gran Encíclica, «vetera novis augere et perficere», que se impone como consigna para los nuevos tiempos. Balmes, sin ser propiamente un restaurador de la Escolástica, contribuye poderosamente a reanimar el pensamiento que él no vio ni quizá creyó posible.

En la misma línea, el jesuita José Fernández Cuevas (t 1864) representa en sus obras, particularmente en los Philosophiae rudimenta, 3 vols. (1856-59) y en la Historia Philosophiae (1858), un tono brioso de novedad hermanado con la firmeza en lo antiguo.

Señalemos otros autores de tendencia tomista, tales como José María Quadrado y Nieto (t 1896), Alejandro Pidal y Mon (t 1913), Antonio Hernández Fajarnés (t 1909) Y el principal de todos, el patriarca del neoescolasticismo español, el cardenal Ceferino González y Díaz Tuñón (1831-1894), dominico, que en sus obras doctrinales Estudios sobre la filosofía de Santo Tomás (3 tomos, 1864), Philosophia elementaria (3 tomos, 1868; luego Filosofía Elemental 1873), propugna un tomismo abierto, al estilo de la primera escuela de Salamanca, conciliador dentro de la escuela y atento a las doctrinas modernas.

Dentro del tomismo se mueve también el gran debelador del krausismo Juan Manuel Ortí y Lara (t 1904), que, con sus escritos polémicos y sus tratados didácticos, llegó a ser el adalid del pensamiento tradicional, más rígido en su actitud que el cardenal Ceferino.

Después de la Encíclica, a la que es anterior, en su mayor parte, la obra de los autores reseñados, la Escolástica española no ofrece grandes figuras sistemáticas, ni avanza al paso de la investigación medievalista de otros países, ni conoce movimientos de doctrina de empuje renovador como Lovaina y Milán. La Escolástica se cultiva con fervor nuevo, pero con escasas novedades de fondo y método. Entre los frutos maduros de este renacer escolástico podemos señalar a Juan José Urráburu (t 1904), quien, en sus conocidas lnstitutiones Philosophicae (8 gruesos volúmenes, 1890-1900), crea el mayor monumento moderno levantado a la pura tradición escolástica, arsenal inagotable de todo el saber de la escuela, antigua y reciente.

2. SIGLO XX

La filosofía española en el primer tercio del siglo xx está condicionada, en sus líneas salientes, por la pervivencia del espíritu krausista, como voluntad de europeización y, al mismo tiempo, por la superación de la estrechez dogmática y estilo sombrío del primitivo krausismo. La voluntad de europeización se conjuga con la reflexión sobre la propia historia patria, en trance de derrota, y produce el fenómeno espiritual de la llamada generación del 98. Al hermetismo doctrinal y obscuridad de lenguaje del krausismo sucede, como reacción, el ensayismo literario-filosófico, suelto y elegante, que se impone como cauce del pensar filosófico en todo este período.

A) Pensamiento español y pensamiento europeo

Generación del 98

Bajo esta expresión, ya admitida, entendemos un grupo de escritores que se hacen eco de la conciencia nacional herida de golpe por el fatal acontecimiento sellado con esa fecha, y junto con una visión amarga, pero aceptadora, de la realidad, vuelven la vista a lo que quedaba en el fondo de aquella ruina, aquello que era como la esencia y substancia que había pasado en aquel momento de la cualidad de vencedora a la cualidad de derrotada, la que no había muerto con la derrota, el alma nacional, la genuina España, anterior a las gloriosas y suicidas empresas europeas y americanas del Siglo de Oro. La preocupación por España, la angustia nacional, lleva a una interiorización del espíritu, siempre fecunda, a reflexiones de alto sentido interpretativo de la historia y de la cultura. Tres hombres principalmente interesa registrar aquí: Ganivet, Maeztu y Unamuno.

Angel Ganivet (t 1898) acaba trágicamente sus días en el mismo año fatídico con la conciencia clara del desastre. Su ldearium español (1897) encierra una visión en extremo pesimista de la historia española pero señala como vía de esperanza un repliegue a la propia interioridad.

Ramiro de Maeztu (t 1936) forma, con Pío Baroja y Azorín, el trío más representativo de la generación del 98. A una etapa europeizante de su espíritu, insatisfecho de lo español y admirador del modelo inglés (la madre de Maeztu es inglesa), con su expresión en el escrito Hacia otra España (1899), sucede una revalorización de lo español, Defensa de la Hispanidad (1934).

Unamuno

Miguel de Unamuno Jugo (1864-1936) es el escritor más vigoroso y personal de la generación del 98, en la que viene comúnmente incluido. Tiene de común con ella una honda preocupación por lo español; pero por su estilo y por su pensamiento es autor enteramente aparte, curiosa y contradictoria síntesis de influjos extranjeros y fondos temperamentales españoles.

El factor unitario que enlaza toda la variedad espiritual de Unamuno es su vida, un vitalismo individual, presto a desbordarse con cualquier motivo circunstancial. Su expresión es también varia: la poesía, el artículo de periódico, la novela, el ensayo filosófico-literario. Vida, estilo y doctrina forman una unidad indivisa; toda la producción de Unamuno es autobiográfica; autorrevelación espontánea, sincera, en que se derrama todo su interior rico, atormentado, ingenuo y siempre honesto; he ahí el secreto de su éxito literario.

En la dirección de un vitalismo personal y sentimental, Kierkegaard, Pascal y Schleiermacher han ejercido particular influjo en Unamuno. Se puede considerar a Unamuno como el descubridor de Kierkegaard, cuando éste era todavía un desconocido en Europa, y por ello ha de verse en él también un precursor de los movimientos filosóficos, particularmente del existencialismo, vinculados en la actualidad al pensador danés. Las etapas de formación o expresión literaria del vitalismo unamuniano corresponden a sus tres principales ensayos filosóficos: Vida de Don Quijote y Sancho, según Miguel de Cervantes Saavedra, explicada y comentada (1905), exaltación de Don Quijote, loco y trascendido de este mundo real, fantasía y fe, como ejemplar necesario para Unamuno de una vida digna de vivirse; Del sentimiento trágico de la vida en los hombres y en los pueblos (1912-1913), «la obra más definitiva y de más arrestos metafísicos que escribió Unamuno» (Gonz. Caminero), plenitud de la teoría de la inmortalidad como trágico encuentro entre la fe y la razón, y La agonía del Cristianismo (1925), escrita en Francia y publicada primero en francés (en español en 1931), versión nueva, más floja, de la obra anterior, donde se erige la duda religiosa, torturante, «agónica», en pábulo del genuino vivir cristiano.

El conflicto de fe y razón, ciencia y vida, intelecto y voluntad o sentimiento es el tema que se repite monótonamente en Unamuno; en la segunda obra indicada se viste de una teoría de los dos instintos en lucha dentro de nosotros: el de conservación, individual, lógico, técnico; y el de perpetuación, voluntarista, irracional, social, con socialidad tendente a la participación en la unidad del universo, de Dios, indefectible e inmortal. Unamuno concibe estos dos instintos antagónicos como dos fuerzas colosales en colisión permanente, eternamente equilibrada, en lucha feroz que no mata ni elimina a ninguna de ellas con la victoria definitiva de una, sino que gravita con peso de «agonía» (lucha) sobre el sujeto, el hombre que soporta en sus carnes aquel tremendo conflicto. El punto de encuentro es la inmortalidad personal; la razón no la demuestra, más bien demuestra lo contrario; la fe la desea, la cree, la crea; creer es crear para Unamuno. y en función de la inmortalidad personal se alarga el encuentro agónico al concepto de Dios, que igualmente se cree y se crea, porque lo necesita el hombre, como prolongación de su propio yo hasta el infinito, y como garantía y esperanza de esa perpetuación personal; las expresiones de Unamuno oscilan entre una visión panteísta y una plenitud de la propia personalidad bajo la recapitulante paternidad de Dios.

Así, el vivir del individuo es un morir, desgarrado por las dos fuerzas; la fe es una batalla de duda intelectual, siempre combatida por el corazón, por la fe irracional, «luterana», pero siempre avivada de nuevo. Si cesara la lucha, cesaría la vida; de ahí las amonestaciones y las prédicas ardientes de Unamuno para espolear en sí y en los demás ese vivir desgarrado y paradójico. Para Unamuno, la filosofía tiene sentido como ciencia de esta tragedia dialéctica de la vida; «es, pues, la filosofía también ciencia de la tragedia de la vida, reflexión del sentimiento trágico de ella... con sus inevitables contradicciones o antinomias íntimas... He estado operando sobre mí mismo... trabajo de autocirugía, y sin más anestésico que el trabajo mismo» (Sent. Trág., edic. Afrodisio Aguado, IV, 712).

Filosóficamente encontramos en Unamuno lo más alejado de un cuerpo sistemático de doctrina y tenemos, al leerle, frecuentemente la sensación de que están brotando de su pluma, a impulsos de su libérrima vitalidad, las más audaces genialidades.

Ortega

En José Ortega y Gasset (1883-1955) vuelve a primer plano el ideal de «europeización» que fue característico de las generaciones krausista e institucionista, frente al retroceso que en esta línea significan los hombres del 98, Y en particular Unamuno. Con todo, lo mismo que este último, Ortega ha de ser considerado como un pensador independiente, de rasgos personales muy acentuados.

Ningún escritor español del siglo xx ha alcanzado tal renombre en los círculos cultos nacionales y extranjeros. Este éxito se debe al modo humano de enfrentarse con la cultura en sus varias manifestaciones actuales e históricas, a la fina penetración de su espíritu para revelar los fondos íntimos de las situaciones humanas individuales y sociales, y en muy importante medida al arte exquisito de su estilo, a la par «seductor y persuasivo», en que ha dado cauce popular a su pensamiento.

Como más interesantes para la historia de la Filosofía pueden señalarse las siguientes obras: Meditaciones del Quijote (1914), El tema de nuestro tiempo (1923), Kant. Reflexiones de Centenario (1924), Las Atlántidas (1924), La «Filosofía de la Historia» de Hegel y la historiología (1928), Filosofía pura Anejo a mi folleto «Kant» (1929), Pidiendo un Goethe desde dentro (1932), Guillermo Dilthey y la idea de la vida (1933-34), Historia como sistema (ed. inglesa 1935, esp. 1941), los Prólogos a las traducciones de Vorlander (1921) y Bréhier (1942), El hombre y la gente (1957, edic. póstuma, como las siguientes), Qué es filosofía (1958), La idea de principio en Leibniz y la evolución de la teoría deductiva (1958), Origen y

epílogo de la filosofía (México 1960); para la Filosofía de la Historia y concepción de la política son de especial valor: Vieja y nueva política (1914), España invertebrada (1921), Mirabeau o el Político (1927), La rebelión de las masas (1930) y Rectificación de la República (1931); Meditación de Europa (1960), Una interpretación de la Historia Universal en torno a Toynbee (1960). Aparte de esto es preciso señalar la extensa labor de la «Revista de Occidente» (1923-36), fundada y dirigida por Ortega, con todo el fondo de publicaciones afines, que ha sido en este espacio de tiempo el instrumento más eficaz para el conocimiento y difusión en España del pensamiento europeo.

Raciovitalismo. Doctrinalmente, Ortega se independiza pronto del idealismo neokantiano recibido en Marburgo bajo el magisterio de H. Cohen. «La misión del intelecto no es proyectar su forma sobre el caos de datos recibidos, sino precisamente lo contrario. La característica del pensamiento... consiste en adoptar la forma de los objetos, hacer de éstos su principio y norma» (La «Filosofía de la Historia» de Hegel y la historiología; Obras IV, 538). Es ésta una confesión clara de realismo, en consciente oposición al logicismo formalista de la escuela. En esta primera formación, sin embargo, Ortega conoce a Kant y adquiere un contacto inmediato con todo el pensamiento filosófico moderno, que queda defini-tivamente adherido a su substancia espiritual. Además, la escuela de Marburgo, lo mismo que la de Heidelberg y Friburgo (esc. badense), incorpora al kantismo la dimensión histórica que a éste le falta. Aquí se desarrolla en Ortega un fino sentido para los problemas de la historia y de la cultura; en este terreno se va a mover su espíritu con insaciable curiosidad y con irrefrenable afán teorizador.

La realidad humana, en su concreto vivir histórico, será el centro de su atención. Puede decirse que el signo del tiempo, a comienzos del siglo xx, es dar entrada en un sistema filosófico al lado individual y «circunstancial» de la vida, al sujeto concreto, absorbido por los excesos lógicos del formalismo neokantiano y por los cánones universalistas del cientificismo del siglo XIX. Tal es el sentido de Kierkegaard, Nietzsche y Bergson, sentido que desembocará en el posterior existencialismo. Desde las Meditaciones del Quijote luce ya, con tono reivindicador, la valoración de la «circunstancia». En la fórmula orteguiana de primera hora «Yo soy yo y mi circunstancia» (Obras 1, 332) hay una voluntad de expresar la interpretación necesitada de yo y mundo, como un todo concreto, indiviso, irrepetible, del que es preciso partir para entender al hombre y al mundo.

El núcleo o realidad radical de ese todo unitario circunstanciado es la vida del hombre. En la interpretación de esta vida puede señalarse, en la producción orteguiana, una línea de evolución que va desde una postura acentuadamente vitalista, hasta una versión de tipo ontológico existencial.

El tema de nuestro tiempo, no obstante su intención pro gramática de integrar razón y vida, sumándose ambos sin deshacerse, raciovitalismo, equidistante del unilateral relativismo y racionalismo, contiene anhelos de clara impronta nietzscheana: «El tema de nuestro tiempo consiste en someter la razón a la vitalidad» (Obras 111, 178). El sentido histórico, espontáneo y variable de esta razón vital es desarrollado particularmente en Las Atlántidas, en La «Filosofía de la Historia» de Hegel... y en Dilthey y la idea de la vida. Las sorprendentes coincidencias con Dilthey determinan en Ortega una curiosa reacción tendente a destacarse del pensador alemán, para lo cual fuerza él un poco la interpretación psicológico-empirista, y, por tanto, irracional, de la vida en aquél, y subraya, por su parte, el carácter «también» racional de la vida y de la historia. Quiere a todo trance salvar la razón en la historia, como procuró antes salvar la razón en la vida. A partir del escrito Pidiendo un Goethe desde dentro, y particularmente en Historia como sistema, el acento incide en el carácter dinámico de la existencia humana, como un «quehacer», no cosa, ni materia, ni espíritu, es decir, substancia hecha, sino un «drama» individual, un drama inevitable, como naufragio en lucha con las cosas para sostener el vivir: «vivir es ser fuera de sí -realizarse-; el programa vitaL.. oprime la circunstancia para alojarse en ella; esta unidad de dinamismo dramático entre ambos elementos -yo y el mundo- es la vida» (Pidiendo un Goethe... Obras IV, 400). Este dinamismo es necesitado y fatalmente libre. Se puede aceptar la propia circunstancia y vocación, «autenticidad», o puede uno falsificarse a sí mismo; el hombre es libre «a la fuerza»; en todo momento se le abren diversas posibilidades y tiene él que determinar la que va a ser (Hist. como sistema, Obras VI, 33). Parecidos conceptos se expresan en La rebelión de las masas (Obras IV, 170s).

Ortega desarrolla en estos escritos, en gran consonancia con Heidegger, toda la temática existencialista del hombre individuo, persona y Íibertad.

Perspectivismo. La visión radicalmente histórica de la vida y existencia humana se corona con la teoría epistemológica del perspectivismo o punto de vista. En esto Ortega sigue puntualmente a Dilthey, y, como él, intenta con dudoso éxito coordinar la relatividad de todos los puntos de vista parciales con la unidad de la verdad total.

En definitiva, la razón aparece (Prólogo a Bréhier) como una función de la vida histórica y esa función consiste literalmente en una conciencia de sí, «autognosis», último sentido «racional» asignado a la vida, que es rebasado por las fases venideras de la misma vida.

Dios. Sobre Dios, Ortega se ha pronunciado pocas veces. En el «pathos» vitalista del Tema de nuestro tiempo, Dios es descrito como «el símbolo de torrente vital, a través de cuyas infinitas retículas va pasando poco a poco el universo» (Obras 111, 202-203). En el ensayo posterior Dios a la vista (1926, Obras 11, 493ss), se insinúa el tema de Dios como una necesidad de la ciencia, empujada a pasar la linde de sus últimos problemas, para arribar a la gran ciencia de Dios, más acá de todo «gnosticismo»soñador y de todo «agnosticismo» positivista.

De un modo aún más directo aborda Ortega el tema de Dios y de la trascendencia en el curso libre de conferencias pronunciadas en 1929 sobre el tema Qué es la filosofía (véase el tomo póstumo Qué es filosofía), donde, a vuelta de una dura crítica del positivismo y del agnosticismo, asienta la necesidad de la metafísica, de la trascendencia y del Ser ab-soluto.

Ese interés por lo trascendente y teológico no es constante, y lo más habitual en Ortega es «callar sobre Dios»; es éste el más visible contraste con el pensamiento de Unamuno, que esencialmente es todo él problema y angustia religiosa.

Visión política e histórica. Si en el enfrentamiento teórico con la vida se sitúa sensiblemente en el apartado diltheyano del idealismo objetivo, actitud estética reconciliada con la complejidad y contradicciones de la vida, al modo de Goethe, en política se alinea más bien con los representantes del llamado por el mismo Dilthey idealismo de la libertad.

Concibe la vida social como un quehacer comunitario, en el que se desarrollan al máximum, de modo espontáneo, las virtualidades humanas en la realización de una empresa nacional, con conciencia de «actitud histórica» y vital, bajo la rectoría intelectual de los mejores y dentro de un Estado reducido al mínimum de intervención coercitiva; «liberalismo y nacionalización» es la suma de su programa político (Obras 1, 299). La clave de este ideal aristocrático-espiritual es la prestancia intelectual de las minorías selectas y la docilidad de las masas para dejarse regir por aquéllas. La pérdida de la conciencia de ejemplaridad rectora de los primeros y la indocilidad o emancipación espiritual de los segundos, la rebelión de las masas, es la mayor amenaza que se cierne sobre los destinos de Occidente.

G. Morente

En la misma línea de «europeización» que Ortega está Manuel García Morente (1886-1942), si bien al final de su vida, desde su conversión, 1937, supera aquel ideal «europeizante» con una vuelta decidida a los valores históricos nacionales, y emprende la tarea de rehacer una Filosofía cristiana dentro del pensamiento contemporáneo. Su primera

formación intelectual es típicamente europea, recibida en Francia y en Alemania; en Marburgo oye a los mismos maestros que Ortega.

Morente se destaca sobre todo como gran maestro, con raras dotes de claridad para iluminar el pensamiento ajeno e iniciar al discípulo en la temática filosófica. Manifestación de este alto sentido pedagógico son sus numerosas traducciones de filósofos y pensadores alemanes de máximo prestigio y actualidad: las tres Investigaciones lógicas, de Husserl; la Fenomenología de la voluntad, de Pfander; el Diario de viaje de un filósofo, de Keyserling; la Decadencia de Occidente, de Spengler, etc. Dentro de este mismo espíritu de interpretación e introducción están sus obras originales: La filosofía de H. Bergson (1917) y La filosofía de Kant (1917) y sus Lecciones preliminares de filosofía (curso de Tucumán 1937-38, revisado y completado por J. Zaragüeta bajo el título Introducción a la Filosofía, 1943). Aparte de ello, tiene Morente otros ensayos y discursos de varia índole; entre los últimos merece destacarse, como revelador de su último viraje espiritual, el discurso inaugural sobre Una filosofía de la historia de España (curso 1942-43), total cambio de perspectiva en la valoración de la realidad histórica española, desde su unidad católica, en agudo contraste con la apreciación krausistainstitucionista.

En su primer período, Morente, a diferencia de Ortega, continúa fiel a la tradición neokantiana; subscribe el criticismo de Kant, en la interpretación idealista-lógica de Marburgo (lo que habrá que tener en cuenta al buscar en Morente una exposición de la doctrina kantiana); llena, no obstante, el formalismo práctico kantiano con elementos de la teoría de los valores, que ponen al hombre, portador y realizador de aquellos valores, en el centro de un avance progresivo a lo largo de la historia. Igualmente incorpora Morente a su pensamiento múltiples ideas de las filosofías de Bergson, de Husserl y de Heidegger. Sin embargo, en la última fase de su vida considera toda filosofía fundada en Kant como filosofía «cerrada», por oposición a una filosofía «abierta» como la de santo Tomás, con la que caen las barreras artificialmente levantadas por el prejuicio inmanentista del pensamiento moderno, y se abre el espíritu a la realidad trascendente, a la verdadera metafísica, a Dios.

En todo caso fue mérito de Morente, en uno y otro período, el sentido de seriedad con que fue aceptada por él la función de la filosofía, sin hacerla descender, ni siquiera a título de exigencias didácticas y pedagógicas, del nivel riguroso de la ciencia; es significativo, a este respecto, el gozo con que saluda el método fenomenológico de Husserl, con cuya aplicación la filosofía se apresta a ser de nuevo «ontología, teoría del ser, y no primero lógica ni psicología» (La vocación de nuestro tiempo para la filosofía. Ensayos, p. 30).

Zubiri

Xavier Zubiri (1898-1983), pensador independiente, sintetiza de modo singular las dos tendencias generalmente enfrentadas en España, saber antiguo y pensamiento moderno. Zubiri aporta a la filosofía una preparación personal excepcionalmente rica; por un lado, un conocimiento profundo de las ciencias naturales en su progreso actual, y por otro, un sentido tradicional emanado de su primera formación. Sobre estas bases, su asimilación del pensamiento moderno es al mismo tiempo segura y abierta y de arrestos creadores.

Frente a tanta angustiosa inseguridad circundante, Zubiri aborda con optimismo y con singular lozanía mental los más hondos y espinosos problemas, convencido de que los caminos de la filosofía no son caminos cerrados para el hombre. Ninguna pieza del saber tradicional y escolástico, ni del pensamiento moderno, hasta lo más actual, queda desaprove-chada para la propia síntesis, siempre original, algo complicada y siempre constructiva. Toda consideración de antiguo o moderno carece de sentido para él ante la única y eterna vigencia de las cuestiones fundamentales, en cualquier signo histórico.

Desde su tesis doctoral Ensayo de una teoría fenomenológica del juicio (1923), Zubiri publicó una serie de ensayos de gran vigor filosófico, reunidos casi todos en el volumen Naturaleza, Historia, Dios (1944); de ellos los más importantes son: Sobre el problema de la filosofía (1933, 51963); Qué es saber (1935); Ciencia y realidad; Nuestra situación intelectual; Sócrates y la sabiduría griega; El acontecer humano; Grecia y la pervivencia del pasado filosófico; Hegel y el problema metafísico, y En torno al problema de Dios. A la obra escrita habrá que añadir la serie de cursos orales desarrollados a partir de 1945 sobre los más variados temas de la filosofía.

Concepto de filosofía. Su preparación científica llevó a deslindar con precisión los campos afines de filosofía y ciencias, salvando los derechos y exigencias de ambos. A toda especulación sobre el ser particular de las cosas ha de preceder un contacto experimental, positivo, científico; es intolerable, dice Zubiri, suplantar las realidades. En la filosofía halla el hombre la ocupación específica de su ingeligencia. Frente a un saber enciclopédico (positivismo), o un saber técnico (pragmatismo) o de pura erudición histórica (historicismo), que son una degradación del específico saber humano, está el puro y desinteresado entender la verdad de las cosas, en cuanto seres. La filosofía se definirá como «saber trascendental»; auténtica función intelectual, de la inteligencia, «en soledad», en repliegue sobre sí misma, para desde ese reducto mirar las cosas, no como útiles de la vida, ni como meros hechos, sino como «cosas», entes.

Antropología. Con especial atención ha estudiado Zubiri al hombre, y se ha podido decir que «su radical humanismo... ha cuajado... en una prodigiosa antropología» (E. Gómez Arboleya, Homenaje..., p. 128). La analítica sutil llevada a cabo sobre la realidad humana, en contraste con la realidad física del animal y del vegetal, articula una serie de consideracio-nes de tipo biológico y psicológico con las teorías metafísicas de la psicología escolástica. Zubiri arriesga nuevos esquemas y nuevos términos para sus conceptos. El ser vivo se caracteriza por la «substantividad» (unidad orgánica de estructuras y funciones) y la conducta, o respuesta vital a su ambiente; el modo de esa conducta, «habitud», se estratifica en las funciones elementales de nutrirse (vegetal), sentir (animal) e «intellegir» (el hombre). Función esencial del sistema nervioso es crear situaciones nuevas al organismo. Es lo que llama Zubiri «formalización», función de formalización, con tres empleos: organizar el cuadro perceptivo, crear el repertorio de respuestas motivas del animal y organizar sus estratos afectivos, su tono vital. En el hombre, la substantividad asciende a «personalidad», o personificación inteligente de la vida; es «inteligencia senciente».

Metafísica. La antropología de Zubiri desemboca en una metafísica del ser. El hombre es «un ser abierto a las cosas», como realidades. Es animal de realidades, capaz de ser, de prevenir su posibilidad, de realizar esas posibilidades y a su vez de crear nuevas posibilidades. El hombre es capaz de proyectos; el sistema de esos proyectos es su mundo». La afinidad, el parentesco originario del hombre con el ser, con la verdad, la describe Zubiri en términos parecidos a Heidegger (cL Naturaleza, Historia, Dios, p. 39). Toda la temática del ser, mirado desde la persona humana, ha sido considerada por Zubiri en un denso tratado Sobre la esencia e1963); los conceptos y términos del saber escolástico y de la problemática moderna le ofrecen materiales para una construcción propia que acentúa el carácter concreto, mundano y respectivo de lo real, en torno al núcleo constitutivo, perfectamene substantivado e individuado de la esencia.

La «abertura a las cosas» se cierra con una relación fundamental, religante, a Dios; «religación» , que es una dimensión constitutiva de la existencia del hombre.

D´ Ors

Un estilo aparte en el cuadro cultural español está representado por Eugenio d'Ors (1882-1954). Su producción literaria es discontinua más que dispersa y, entre otras obras de pluriforme estructura, ha tenido una expresión típica en sus glosas periodísticas, Glosari (1906-20), Nuevo Glosario (1920-43) y Novísimo Glosario (B 21950 Y M 1946-49). Son trozos de quintaesenciado clasicismo y sutilísima trama conceptual, en torno a los más variados temas: política, literatura, arte, ciencia, filosofía. Otros títulos de interés filosófico son: Las aporías de Zenón de Elea y la moderna noción del espacio-tiempo (1913), tesis doctoral; La filosofía del hombre que trabaja y que juega (1914), selección de trozos filosóficos en parte extraídos del Glosario; Religio est libertas (publicada en 1925); Una primera lección de filosofía (1927) y El secreto de la filosofía (1947); La civilización en la historia, M. 1935; La ciencia de la cultura, edic. de E. Rojo Pérez, M. 1964.

D'Ors es propiamente un crítico estético y culturalista, apasionado de la claridad intelectual, del verbo como encarnación del concepto, con su ritmo y su figura. Postulada por esta preparación estilística y humana, ha formulado D'Ors su teoría del pensamiento figurativo, medio entre el pensamiento abstracto y el pensamiento concreto o fenomenista; lo universal en lo concreto, ni intelectualismo ni intuicionismo irracional; pensar con los «ojos», según esquemas intuitivos, pero geométricos, es decir, elevados a racionalidad, lo «anecdótico» elevado a «categoría».

Desde un terreno artístico ha llevado D'Ors, con esto, a la filosofía una de las exigencias del tiempo, integración existencia de lo abstracto y lo concreto. Propugna con ello una revolución «kepleriana» de la filosofía, con un eje elíptico, bifocal, más elástico, para coordinar, no eliminar ni identificar, los contrarios, razón, vida racionalismo, pragmatismo; razónintuición vienen a articularse en el «seny» catalán. Entre la continuidad física, que hace insolubles los argumentos de Zenón de Elea, y la eliminación del espacio por el tiempo, bergsoniano discontinuo y cualitativo, D'Ors elige el esquema espacio-tiempo de la teoría de la relatividad; «ni intuición pura ni inteligencia abstracta, ni ciencia eleática ni irracionalismo bergsoniano, sino matemática pitagórica» (Aranguren, La filosofía de Eugenio D'Ors, p. 137). Este conato de integrar, aun doblegando un poco la rigidez técnica de los enunciados filosóficos, culmina en la substitución de los principios de contradicción y de razón suficiente por el principio de «participación» (todo contradictorio es también algo su opuesto) y el de «función exigida» (todo fenómeno está en relación con otro anterior, concomitante o posterior); el segundo va derechamente contra la rigidez cósmica del mecanicismo introduciendo el orden, la concordancia y la finalidad.

En el terreno antropológico, D'Ors ha desarrollado su tesis característica de la angelología. El hombre es cuerpo, alma y «ángel»; vivir es «gestar un ángel para alumbrado en la eternidad». El «ángel» es «figurativamente» el núcleo personal de cada hombre, símbolo de su destino, inspiración de su vida y empleo de su libertad.

Son especialmente valiosas las aportaciones de E. D'Ors a la filosofía de la cultura y del arte, con su morfología de la naturaleza y de la cultura, con sus ideas sobre las constantes (no leyes) históricas y sobre la política como pedagogía y misión.

Pedro Laín Entralgo

Nació en 1908. A parte de los estudios de su especialidad médica, cabe destacar su aportación a la cultura y a la reflexión filosófica. Recibió influencias de Ortega y ZubirÍ. En su filosofía acentúa el sentido de la historia de carácter integrador. Su antropología está marcada por las ciencias biológicas o fisiológicas. Desarrolla la filosofía del «encuentro con el otro» como un encuentro personal, en el que la persona se halla inmersa en una realidad total (sentido de armonía), dentro de lo intramundano con sentido trascendente a lo transmundano, Dios. He aquí algunas de sus obras: La generación del 98 (1945), Cajal y el problema del saber (1956), Hombre y cultura en el siglo XX (1957), Teoría y realidad del otro (1961), Historia de la medicina moderna y contemporánea (1970), Antropología de la esperanza (1978), Santiago Ramón y Cajal (1978).

José Luis L. Aranguren

Nació en 1909. Filósofo. Su filosofía ha profundizado especialmente en la vertiente de la ética; ha mostrado asimismo una actitud de atención a las aportaciones de la ciencia positiva. Es un intelectual con una gran sensibilidad de comprensión del presente histórico como realidad que comprender y que explicar. Prestigioso maestro de las juventudes de nuestro tiempo. Pensador taml?ién de talante religioso independiente. He aquí algunas qe sus obras: Etica (1958), La juventud europea y otros ensayos (1961), Etica y política (1963), Moral y sociedad (1966), El marxismo como moral (1967), La crisis del catolicismo (1969), La cultura española y la cultura establecida (1975), La filosofía de Eugenio d'Ors (1981), Propuestas morales (1983), El buen talante (1985), La comunicación humana (1986).

Julián Marías

Nació en 1914. Filósofo, discípulo de Zubiri, García Morente y Ortega. Ha desarrollado a la luz de su propia teoría de la «razón vital»muchos de los temas iniciados por su maestro Ortega, con el que fundó el Instituto de Humanidades de Madrid. Afirma la tesis de que la filosofía es un saber radical: «La filosofía tiene la exigencia de justificarse a sí misma, de no apoyarse en ninguna otra certidumbre, sino, por el contrario, dar razón de la realidad misma, por debajo de sus interpretaciones y, por tanto, también de las presuntas certidumbres que encuentra.» Otro pensamiento suyo se refiere a la «estructura empírica de la vida humana», cuya misión consiste en examinar aquellos elementos a la vez variables y permanentes, es decir, aquellos elementos que no son ni los constitutivos a priori de la vida ni los detalles biográficos coyunturales de un momento, sino aquellos que pertenecen a la vida concreta de una forma estructural y estable. Finalmente, para Marías, la metafísica no es un conjunto de ideas, que ejerce como punto de partida, ni tampoco una verdad a la que se llega, sino más bien un esfuerzo para salir de la incertidumbre. He aquí algunas de sus obras: Historia de la filosofía (1941), Miguel de Unamuno (1943), Introducción a la filosofía (1947), Antropología metafísica (1970), Imagen de la vida humana (1971), La justicia social y otras injusticias (1974), La España real (1976), La devolución de España (1977), España en nuestras manos (1978), Cinco años de España (1981), Biografía de la filosofía (1986).

José Ferrater Mora

José Ferrater (1912-1991) recibió influencia de Ortega, Zubiri y Sartre. Su obra más conocida ha sido su Diccionario de filosofía. Después de una etapa existencialista, se dedicó a la lógica matemática y a la filosofía del lenguaje, de la que dan muestra sus obras: Indagaciones sobre el lenguaje (1970) y Las palabras y los hombres (1972).

Manuel Sacristán

El centro del pensamiento filosófico de Manuel Sacristán (1925-1985) está en la relación entre ciencias positivas y filosofía. Las ideas de Lukács hicieron eco en Sacristán. En su obra Las ideas gnoseológicas de Heidegger (1958) critica el antirracionalismo de Martin Heidegger. En Introducción a la lógica y al análisis formal (1964) busca las bases científicas y lógicas de la racionalidad. En La formación del marxismo en Gramsci (1967) plantea la delimitación de la idea de dialéctica. Desarrolló un notable influjo en los intelectuales y en los universitarios durante algunas generaciones.

B) Pensamiento escolástico

Amor Ruibal

Dentro del pensamiento escolástico del siglo xx, Ángel Amor Rubial (1869-1930) es el ejemplar típico de ese género de hombres, no infrecuente en nuestra historia, de genio solitario, sin escuela y casi sin continuidad.

Amor Ruibal se reveló primero como filólogo de primera línea a comienzos de siglo, con sus dos obras Introducción al estudio de la Lingüística indo-europea (1900) y Los Problemas fundamentales de la filología comparada (2 volúmenes, 1904-05), que tuvieron resonancia fuera de España.

La obra pincipal de Amor Ruibal, Los Problemas fundamentales de la Filosofía y del Dogma (1914-36), resulta una revisión a fondo de las teorías filosóficas, sobre todo escolásticas. Vuelve en Amor Ruibal a ser realidad la concepción unitaria de la ciencia, sin división temática entre filosofía y teología, si bien el lado filosófico es el centro de gravedad.

Escolástico crítico. Aun siendo especialmente dura la crítica de la Escolástica, y aun aportando soluciones nuevas muchas veces a la luz de filosofías más modernas, Amor Ruibal ha de ser considerado fundamentalmente como escolástico y medieval; dentro de ese marco han de encontrar, a su juicio, solución los grandes problemas. Conoce y analiza con soltura de estilo las filosofías modernas; se muestra muy al día en el conocimiento de autores del tiempo: Cohen, Cassirer, Baldwin, Bradley, Bodin, Eucken, Croce, Boutroux, Bergson..., pero su desdén por la filosofía moderna en su conjunto es sintomático: «ese universal desconcierto entre sus filósofos..., deseo desorientado de novedades..., incapacidad para una labor constructiva...» (Carta a Emilio Silva, 30-VII-1929).

A diferencia de otras actitudes modernas frente a la Escolástica, Amor Ruibal sostiene la excelencia y necesidad de su método, analítico, discursivo y sobrio, pero encuentra graves deficiencias en las bases mismas de su contenido doctrinal. Esta crítica de fondo incide particularmente en el residuo platónico que, no obstante las enmiendas de Aristóteles, ha pasado a través de éste a las grandes escuelas: tomismo, escotismo y suarismo. Este platonismo, que a juicio de Amor Ruibal ha determinado un planteamiento deficiente de los grandes problemas, en el terreno gnoseológico, metafísico y ético, se resume en la constitución de un mundo de esencias inmóviles y eternas, base de partida en todos los órdenes. De ahí la prioridad del universal sobre el singular, del posible sobre el existente, de la idea sobre el juicio, del acto respecto de la potencia...

Pensador original. Amor Ruibal desarrolla teorías originales, como la del juicio anterior a la idea, que es justamente el fruto de aquél, en esto muy cerca de Kant: el juicio es la operación primaria del entendimiento ejercida sobre un material imprecisamente «aprehendido», «nocional», anterior al análisis y síntesis que necesariamente envuelve todo juicio.

La contingencia radical del ser finito, ser-devenir, dato evidente de la experiencia, es el punto donde se insertan las pruebas de la existencia de Dios, más que el «motus» y «potencia» de las vías aristotélico-escolásticas; hacia Dios se orienta todo el conjunto originariamente trabado de las cosas; sin Él no sólo cae el ser finito, sino que es también inexplicable el sistema de relaciones que traba a los entes entre sí y les da sentido ontológico y teológico.

La solidaridad orgánica y jerárquica de la totalidad del universo, motivo favorito de Amor Ruibal y de la más pura tradición cristianoneoplatónica, tiene una expresión singular en el compuesto humano, cuya radical integración y unidad se describe con trazos especialmente enérgicos. «El hombre es algo así como una pirámide construida con elementos diversos que se compenetran, cuya base es de substancia corpórea, de vida vegetativa y de vida sensitiva, en cuya cúspide está el espíritu que se apoya, informa y es informado por los elementos inferiores» (Probl. Fund. Fil. Dogm. VIII, 141).

Amor Ruibal y Heidegger. De particular interés y modernidad es la relación establecida por Amor Ruibal entre el ser ontológico y el conocimiento humano. A todas las determinaciones conscientes del espíritu precede un momento «prelógico», por el que se fija una relación trascendente del ser cognoscitivo con lo cognoscible; este momento prelógico responde «a una posición directa del ser ante el espíritu, no como algo absoluto e infinito, o algo finito y condicionado, sino con objetividad pura, universalísima e incondicionada, que se proyecta ante la inteligencia, actuándola para la ulterior determinación de lo real concreto» (Probl. Fund. Fil. Dogm. IX, 18). Por eso el ser no se presenta como «idea», de extensión y comprensión determinadas (fijadas en un juicio), sino como «noción», o forma inmediata que se impone al cognoscente como principio de actuación subjetiva en el mundo objetivo. En esta forma «nocional» no puede referirse al ser univocidad ni la analogía. Sólo en esta pureza «prelógica», anterior a toda comparación abstractiva (desemejanzas o analogías) del concepto humano del ser, tiene aplicación universal y absoluta, aun para Dios, el principio de no contradicción y parecidamente las otras verdades axiomáticas fundadas en la «noción» de ser.

Son sorprendentes aquí los puntos de coincidencia de Amor Ruibal con la ontología fundamental de Heidegger, afinidad «pre-ontológica» del espíritu humano con el «ser», ni infinito ni determinado, pero condición de su conocimiento de los «seres». Esta íntima relación del entendimiento humano con el ser ontológico y viceversa, es el núcleo de toda la especulación metafísica de Amor Ruibal.

Escolástica renovada

Especiales propagadores en España del movimiento neoescolástico de Lovaina fueron Alberto Gómez Izquierdo y Juan Zaragüeta. Impulsaron el espíritu renovador de aquella escuela con su dilatada producción filosófica. Zaragüeta, con marcada tendencia a la fenomenología y teoría de los valores, publicó, entre otras cosas: Contribución de la filosofía dellenguaje a la filosofía de los valores; asimismo El lenguaje y la filosofta; Filosofía y vida; Estudios filosóficos. .

En el ámbito de la historia de la filosofía podemos citar, sin ánimo de ser exhaustivos, los siguientes autores. Adolfo Bonilla y San Martín, autor de Luis Vives y la filosofía del Renacimiento; Erasmo en España. Un interés particular por los filósofos catalanes y baleares,especialmente Llull, Balmes, Amaldo de Vilanova y otros medievales ha producido una brillante literatura histórica, en la que cabe destacar a G. Maura Gelabert, Ignacio Casanovas, Miguel Batllori y los dos hermanos Tomás y Joaquín Carreras Artau. La ingente obra investigadora de Miguel Asín Palacios, centrada sobre todo en los musulmanes españoles y orientales, coloca a su autor entre los escritores más representativos de este siglo.

Entre los estudiosos del tomismo y de la escuela de Salamanca cabe destacar: Marcelino Sánchez, Santiago Ramírez, Pedro Lumbreras, Venancio D. Carro, Raimundo Suárez, Francisco Muñiz, Manuel Cuervo, Jesús Valbuena, Emilio Sauras... .

Asimismo no se podrá hablar de un suarismo histórico-sistemático hasta los trabajos de José Hellín.

Finalmente revistas como «Razón y fe», por poner un ejemplo, de pensamiento neoescolástico ensayan un mayor ensanchamiento de horizontes, con la sensibilidad cada vez mayor para la problemática moderna. y autores como Eusebio Colomer, por poner otro ejemplo, saben tratar con cordialidad y establecer plataformas de diálogo con filósofos considerados antes como abominables.