Toda la documentación que encontrarás en Oposinet la puedes tener en tu ordenador en formato word. De esta forma podrás modificarla y trabajar con ella con más comodidad.


Ponte en contacto con nosotros a la dirección y te la enviaremos. A cambio te pedimos que compartas tu información, enviándonos documentos interesantes para la preparación de estas oposiciones: temas, programaciones didácticas, exámenes... Es imprescindible que estos documentos no posean derechos de autor, que no existan ya en la web y que sean realmente interesantes para la preparación de las oposiciones.


Otra opción para conseguir los documentos en formato word es realizar un pago de 19,5 euros, con la cual mantendremos esta web y compraremos nuevos materiales para ponerlos al alcance del resto de la comunidad. Importante: con el pago te proporcionaremos TODOS los documentos que hayamos publicado de una de las especialidades de oposiciones. Los documentos publicados en formato pdf no te los proporcionamos en formato Word sino en pdf.




Tema 9. Naturaleza de las leyes, las teorías y los modelos científicos. El contexto de la justificación científica y el contexto del descubrimiento científico

1. Introducción

Explicar algo es haber llegado a entenderlo de tal manera que sea uno capaz de hacer que otro lo entienda. Así, el que pide “explícame esto” supone que aquel a quien hace la petición le entiende de manera distinta que él y que este entendimiento es comunicable.

Aprender algo significa conseguir uno u otro tipo de actuación aprobada, o llegar a entender el marco cuyas razones permiten comprender la aprobación. Llegar a entender significa, en este sentido, adquirir cierta destreza perceptivomotora o hábito, y pudiera significar adquirir todo lo que se requiera para la justificación teorética o conceptual de determinada cosa. Cabe distinguir, por tanto, entre el tipo de aprendizaje que implica la formación de hábitos, en los términos perceptivomotores más sencillos, y el tipo de aprendizaje que implica la formación de conceptos y la utilización de la inferencia en alguna de sus formas. Se trata de la distinción que Aristóteles hacía entre aquel conocimiento que versa sobre la destreza aplicada a casos particulares y aquel otro que versa sobre principios y causas. Aristóteles consideraba al segundo de ellos como un conocimiento científico.

Podría decirse que el científico aprende como actúa la naturaleza observando lo que él considera como casos ejemplares, lo cual no quiere decir que la naturaleza imparta al observador los principios de la actividad natural. La naturaleza no explica las leyes mediante las que funciona, es el hombre el que lo hace, porque, si la naturaleza pone de manifiesto leyes de funcionamiento, lo hace en casos particulares, y un caso no es una ley, ni tampoco lo es una colección de casos: no cabrá decir, por tanto, que la observación de casos revele las leyes que los gobiernan. Lo que cabe decir es que la relación entre estos casos, cuando es invariante, pone de manifiesto una ley, pero al conocimiento de esta invarianza se llega sólo mediante una actividad intelectual que entraña generalizaciones, y éstas implican la elaboración de hipótesis o enunciados universales legaliformes, cuyo alcance es tal que postulan invarianzas más allá de lo que cabe presentar a modo de resumen de los casos observados. Las hipótesis son saltos conceptuales que van más allá de las “lecciones de la naturaleza”: son formulaciones generales ligadas a casos observados en el marco de un sistema en el que los enunciados que se refieren a observaciones pueden deducirse de las hipótesis y de la información que exprese las condiciones bajo las cuales tenga lugar la observación. Una hipótesis es la conjetura de que el orden descubierto en las observaciones muestra de hecho una ley de la naturaleza.

En los tipos precientíficos de explicación cabe hacer las distinciones siguientes:

1. Reglas. Las reglas son instrucciones prescriptivas o reguladoras en cuanto a la acción correcta a desarrollar; surgen de la práctica técnica, de la organización social, etc., y pueden darse:

a. Mediante ejemplos. Se da la regla en forma particular.

b. Mediante preceptos. Se da la regla en forma general

2. Leyes. Las leyes se aplican a los casos en que hay una invarianza. Una ley afirma que se conoce una cuestión de hecho.

3. Teorías. Proporcionar normas para realizar las observaciones adecuadas, reunir las pruebas adecuadas, emplear las técnicas experimentales adecuadas, realizar las inferencias inductivas adecuadas, dar la forma adecuada a las representaciones deductivas o formales de las relaciones entre los hechos, hacer las hipótesis adecuadas, etc. No explican los procesos naturales ni las cuestiones de hecho, pero explican por qué debe uno admitir o aprobar las conclusiones de la investigación científica, y sirven de guía de conducta en cuanto a tales investigaciones. Proporcionan los criterios de lo que se considera explicación adecuada.

Las teorías explican en virtud de postular o afirmar la existencia de unas “entidades teoréticas” cuyas propiedades son tales que, a partir de ellas, se pueden inferir sus leyes de actuación; y conociendo qué leyes son las que describen las relaciones de invarianza entre unas propiedades o sucesos naturales, se puede construir una entidad hipotética cuya existencia explique las leyes.

Por una parte, las teorías pueden concebirse como leyes de gran generalidad, de las que pueden deducirse leyes de menor generalidad por un método de inferencia; por otro lado, pueden distinguirse las teorías de las leyes en virtud de las aseveraciones existenciales de las primeras.

2. Las leyes

En la ciencia el lenguaje se usa primariamente para realizar aserciones, para decir que ciertas cosas son de cierto modo. Para este uso los conceptos son esenciales, pero no bastan considerados aisladamente; los conceptos por sí solos no constituyen unidades asertivas. Las unidades aseverativas deben ser necesariamente complejas o articuladas, no hay aserción sin articulación, y la complejidad no es en general esencial a los conceptos. Las unidades aseverativas mínimas son las proposiciones o, en términos lingüísticos, los enunciados, entidades que sí son esencialmente complejas o articuladas. En el discurso científico, un tipo especialmente importante de unidades proposicionales son las leyes, que se pueden articular a su vez entre ellas conformando unidades más amplias, las teorías.

Las leyes son las unidades aseverativas mínimas que no son informes sobre acaecimientos particulares, esto es, las leyes son (un tipo de) aseveraciones generales, expresan regularidades.

El concepto científico de “leyes de la naturaleza” parece ser que nació de una peculiar interacción entre las ideas religiosas, filosóficas y legalistas del mundo europeo de la Edad Media. Aparentemente está relacionado con el concepto de la ley natural en el sentido social y moral conocida por los juristas medievales y significa una notable desviación de la actitud griega ante la naturaleza. El empleo de la palabra “ley” en semejantes contextos habría resultado ininteligible en la antigüedad, mientras que la creencia habraica y cristiana en una deidad que era a la vez Creador y Legislador la hacía válida. La existencia de leyes de la naturaleza era una consecuencia necesaria del designio en ella, ya que, de no ser por tales leyes, ¿cómo podría perpetuarse la integridad del designio? Sólo el hombre gozaba de libre albedrío, la facultad de transgredir las leyes que debía observar; a los planetas no se les había otorgado la facultad de desviarse de sus órbitas. De aquí que la regularidad de los movimientos planetarios, por ejemplo, que Aristóteles atribuyó a la vigilancia de unas inteligencias, pudiera explicarse como obediencia a los decretos divinos. El Creador había dotado la materia, las plantas y los animales de ciertas propiedades y características inalterables, y las más universales de éstas constituían las leyes de la naturaleza, discernibles por la razón humana. En palabras de Boyle:

Dios estableció esas reglas del movimiento y ese orden entre las cosas corpóreas que denominamos leyes de la naturaleza. [Así] siendo el universo obra de Dios, y establecidas las leyes del movimiento, y todo sostenido por su concurso y su providencia incesante, la filosofía mecanicista enseña que los fenómenos del mundo son producidos físicamente por las propiedades mecánicas de las partes de la materia (Robert Boyle, Of the excellency and grounds of the mechanical hipótesis, 1674)

2.1 Concepciones de las leyes científicas

2.1.1 Punto de vista realista

El objeto de la investigación científica parece ser, en gran medida, la formulación de enunciados de alcance universal que expresen alguna invarianza entre propiedades o sucesos. La ley no es mas que un enunciado en el que se resumen no sólo todos los casos observados de x, sino todos los posibles casos observados de x. La condición para que un enunciado legaliforme sea verdadero es que para cada caso de x, lo que se afirma sea cierto, y no podremos saber si el enunciado es una ley a no ser que sepamos si es o no verdadero.

Para que una ley sea tal, ha de enunciar algo verdadero, sin restricciones en todos los casos posibles, pues la ley es una generalización que va más allá de los datos de que momentáneamente se dispone. Pero, si esto es así, no podremos saber si una ley es verdadera en todos los casos, y nos encontramos, por tanto, en la posición de tener que decir que si una ley es verdadera no podemos saberlo, y que si sabemos que un enunciado universal es verdadero en todos sus casos particulares, no es una ley.

Se puede distinguir entre leyes de la naturaleza y leyes de la ciencia. Las leyes de la naturaleza lo son tanto si alguien lo sabe como si no lo sabe; por el contrario, las leyes de la ciencia sólo se convierten en tales cuando alguien las conoce. Si una ley es una ley de la naturaleza esta se cumple tanto en los casos observados como en los no observados, tanto si estos casos no observados llegan a observarse alguna vez, como si no.

Una ley de la naturaleza se cumple independientemente de si alguien la conoce o no e, incluso, independientemente de si es posible conocerla; con ello lo que se quiere decir es que las leyes de la naturaleza son objetivas. Es por ello que las leyes de la naturaleza han de expresarse en términos de observabilidad, pero no de observables de hecho. Las leyes de la naturaleza se expresan en forma de condicionales contrafácticos, cuya forma es: “si x (hubiera)… entonces y“. Estos condicionales son aplicables a hechos que han ocurrido como a hechos que no han ocurrido, pero que si hubieran ocurrido se habrían atenido necesariamente a la ley, si es que ésta es tal.

Las leyes de la naturaleza son reales, están ahí fuera en el mundo o la naturaleza, con o sin mi consentimiento e independientemente de la posibilidad de que yo observe los casos particulares y, por tanto, la aseveración de la ley constituye una inferencia, ya sea a partir de ciertos datos o a partir de otras leyes de las cuales pueda deducirse. Si es una inferencia a partir de ciertos elementos de juicio, parece que habrá de ser inductiva y, concretamente, una que, si está de acuerdo con ciertas normas, se considere como base para una creencia racional o justificada; si se deduce de otras leyes de mayor generalidad, su fuerza no será mayor que la de la más débil de las premisas a partir de la cual se haya deducido, y se obtiene deductivamente a partir de premisas que se consideren como necesariamente verdaderas, se podrá sostener que también la ley es necesariamente verdadera, pero entonces la observación no desempeñaría papel alguno en su confirmación, porque sería verdadera independientemente de toda observación y, en consecuencia, una ley a priori, no una ley empírica.

Las leyes de la naturaleza son hipótesis o postulados que son objeto de creencia racional basándose en pruebas, y si, de hecho, las leyes de la ciencia son ciertas, entonces son expresión de leyes de la naturaleza.

A este modo de ver las cosas cabría llamarlo punto de vista realista acerca de la naturaleza de las leyes de la naturaleza, punto de vista que podría resumirse en:

1. Toda ley expresa una relación de invarianza entre todos los miembros de una clase dada, y esta relación puede darse en forma de condicional universal: (x)(Fx®Gx), bicondicional: (x)(Fx«Gx), o en forma de condicional contrafáctico: para cualquier x, si ocurriera que Fx, ocurriría que Gx. Toda ley de la naturaleza se cumple para una clase infinitamente grande de sucesos y es independiente del tiempo.

2. Un enunciado legaliforme es la expresión de una ley de la naturaleza si es cierto en cualesquiera casos subsumidos por la ley y, por tanto, el dominio de la ley es tal que sirve de base a una generalización genuina. Las condiciones bajo las cuales puede afirmarse que la ley es cierta se expresan en forma subjuntivo-condicional: “Si para cualquier x ocurriera que Fx, ocurriría que Gx”. El condicional subjuntivo deja abierta la posibilidad de que, de hecho, algo haya ocurrido, ocurra o vaya a ocurrir, pero entraña nuestro desconocimiento acerca de si nada de esto es cierto. La condición epistemológica que consiste en saber que, de hecho, algo no ha sucedido o no sucede, junto con la afirmación de que, si hubiera sucedido, la ley sería cierta, expresa la creencia de que la ley es cierta sin restricciones, que adopta la forma de un condicional contrafáctico.

3. Toda ley científica es un enunciado del que no se sabe si es cierto en todos los casos, pero tal que haya motivos para creerlo racional o justificadamente.

Según el punto de vista realista toda ley es universal, y las relaciones de invarianza que expresa existen en la naturaleza, independientemente de si se conocen o no y de las condiciones en que se conozcan. Según otra interpretación de este punto de vista, cualquier ley científica es una verdad parcial o en perspectiva, relativa a los elementos de juicio y al marco conceptual en el que éstos sean significativos y, así, las proposiciones verdaderas con las que se expresan las leyes de la naturaleza serían objetivamente ciertas, pero nuestro conocimiento de ellas en cualquier instante sería relativo, y la falibilidad de las leyes de la ciencia residiría, por tanto, en su relatividad.

La postura realista acerca de las leyes supone, pues, que hay enunciados objetivamente ciertos que son expresión suya, y que las leyes científicas se aproximan constantemente a ellas, conforme van eliminándose posibles hipótesis o conforme aumenta el número de elementos de juicio y progresan la crítica y el refinamiento de métodos.

2.1.2 Nominalismo

Mientras que el realista supone que las leyes de la naturaleza existen en realidad, el nominalista impugna la opinión de que los universales existan en absoluto. Según el nominalista, con nuestra experiencia no alcanzamos a conocer universales, sino solo singulares; después, agrupamos tales casos con arreglo a los rasgos comunes que apreciamos en ellos, y los universales “existen” sólo en los nombres que utilizamos para señalar tales rasgos. Los rasgos comunes no existen aparte de los casos singulares que experimentamos o tienen lugar. El único rango que poseen los universales es el de los nombres, y estos nombres existen sólo como marcas singulares empleadas en ocasiones singulares: los universales, por tanto, no existen. Con respecto a las leyes, esta postura mantendría que existen en la naturaleza sólo en los casos en que aparezcan ciertos rasgos, y que no hay ligazón universal entre éstos, excepto en el sentido de que pueden unirse todos bajo una única expresión, que sirve cómodamente para agruparlos y referirse a ellos.

El nominalismo se presta a interpretar cualquier ley de la ciencia como nada más que una marca conveniente, que sirve a la comunidad lingüística de medio para denotar o seleccionar un conjunto de casos. La descripción abreviada conveniente o económica que tales enunciados legaliformes dan es la única función que éstos desempeñan y, de este modo, el nominalista tiende a apoyar un enfoque instrumentalista de las leyes y las teorías, considerándolas sencillamente como adecuadas de ocuparse de la naturaleza, y no verdaderas ni falsas, como hace el realista.

2.1.3 Conceptualismo

Esta postura es un intento de superar las dificultades de los enfoques realista y nominalista. Si el nominalista dice que las leyes no son realmente universales, sino sólo “universales” con respecto a la colección de casos señalados mediante un nombre o descripción común, y si el realista mantiene que los universales existen o que no son reales, el conceptualista pone en cuestión ambos punto de vista: ¿quiere decir el realista que los universales existen aparte de los casos en que se encarnan?. Si es así, habrá un reino de universales aparte del mundo de hechos particulares, y la relación entre aquellos y éstos presenta dificultades insuperables. Si, por otra parte, lo único que existen son hechos singulares, el hecho de su relación pasa a ser un hecho incomprensible, pues una colección no es mas que una colección, a no ser que haya alguna relación legaliforme que realmente se cumpla por los singulares. Si el nominalista mantiene que lo que hace es ordenar los hechos bajo un nombre o marca convencional, la aportación que lleva a cabo al hacerlo queda encubierta por él mismo cuando mantiene que esto no es mas que dar nombres, pues, efectivamente, todo enunciado de relaciones aporta algo que no figura en una simple lista de singulares acumulados: el descubrimiento de un orden o una relación entre los singulares, o de aquello en virtud de lo cual se presten a ser agrupados. Esto no se encuentra explícito en los hechos singulares, no es un universal real que lo ligue, sino que es más bien la inteligencia, al descubrir la relación, la que efectúa las conexiones, haciendo explícito lo que estaba implícito en los hechos singulares. El universal se construye en la inteligencia, o se conceptualiza en calidad de orden revelado por la indagación. El universal o ley no subsiste independientemente de forma ideal, pero por encontrarse implícito en las relaciones reales entre los sucesos que constituyen los procesos naturales, la inteligencia podrá hacer explícitamente consciente esta forma u orden, emulando o creando una imitación ideal de la naturaleza. La ley representa los procesos naturales en la forma en que éstos son conocidos por una inteligencia racional, y las leyes de la ciencia serán, por tanto, la forma en que las leyes de la naturaleza pasan a ser objetos de la razón o del juicio conceptual. Las leyes de la naturaleza se realizan en esta actividad conceptual, pero son verdaderas (o falsas) porque representan (o no representan) adecuadamente las relaciones legaliformes de la naturaleza y, en consecuencia, no son convenciones, aunque la forma en que se expresan pueda ser convencional.

De acuerdo con el enfoque realista, un suceso singular se explica mediante una ley en el sentido de que tal hecho será un caso particular de ella, y podrá demostrarse que “se sigue” de ella, es decir, el hecho singular posee un lugar en la relación sistemática expresada por la ley.

Para el nominalista, dado que no hay realidad subyacente tras los hechos, la “ley” es sólo una descripción abreviada cómoda o un sumario de hechos singulares y, por tanto, no puede decirse en absoluto que las leyes expliquen.

Para el conceptualista, una ley explica en el sentido de que lo que está implícito en la experiencia queda en forma consciente y explícita como objeto del entendimiento. La ley científica explica porque hace darse cuenta o muestra al pensamiento consciente lo que antes estaba implícito en la experiencia o “en la naturaleza”.

2.2 ¿Cómo se expresan las leyes?

2.2.1 Las leyes numéricas

Podemos distinguir, por un lado, las leyes que enuncian relaciones invariantes entre números, en cuanto propiedades físicas de conjuntos de cosas y, por otro, las relaciones formales del lenguaje matemático, cuya sintaxis atañe a las relaciones entre los numerales en su calidad de nombres de los números. De acuerdo con la interpretación formalista de este lenguaje matemático, se puede construir esta sintaxis numérica libremente, utilizando cualesquiera juntores (bien definidos) que se quiera utilizar, con tal que se cumplan ciertas condiciones lógicas, entre las que se encuentran:

1. Las reglas que delimitan la ambigüedad, para que no se confundan los numerales unos con otros

2. Las reglas (o normas) de coherencia, para que lo que se construya no conduzca a teoremas contradictorios

3. Las reglas de formación y transformación, es decir, las reglas para formar las expresiones significativas y las reglas de inferencia para pasar de un enunciado a otro.

Suponiendo que la sintaxis sea la del sistema formal de la aritmética, puede decirse que toda ley numérica es un enunciado universal acerca de una relación de invarianza entre numerales, enunciado que constará de variables individuales, constantes y algunos juntores aritméticos. Las leyes numéricas, si se construyen formalmente, en el sistema formas de los numerales, son fácticamente vacías.

La ley numérica sirve de representación de cualquier número de relaciones entre cualquier número de entidades que se hayan postulado, con tal que las relaciones muestren la mínima invarianza. La forma de la ley numérica es tal que a todo valor de una variable independiente se encuentra asociado un valor (o valores) de una variable dependiente, de acuerdo con una relación de invarianza que se pone de manifiesto con la ley.

El empleo de los números en la ciencia se encuentra relacionado con la interpretación de los numerales como números concretos, es decir, con las propiedades numéricas de las magnitudes físicas. Cuando se encuentra tal interpretación, cabe esperar que si se deducen consecuencias numéricas de acuerdo con la ley (que da los valores de las variables dependientes correspondientes a los valores de las variables independientes), esto de lugar a hipótesis o predicciones que admitan una interpretación física, y que puedan, por tanto, comprobarse para ver si las consecuencias deductivas están de acuerdo con las medidas empíricas.

2.2.2 Las leyes físicas

Si consideramos la ciencia como una ciencia cuantitativa o matemática, cuyos enunciados de observación son enunciados de medida, la forma de las leyes numéricas nos dará la forma de las leyes físicas, con la diferencia de que, en éstas, se considera que los numerales representan propiedades numéricas de magnitudes físicas tales como la longitud, la carga, la masa, etc.; y, de hecho, lo que consigue la cuantificación de la ciencia física es precisamente esto, y se gana con ello que, con la corroboración de las leyes numéricas mediante las interpretaciones físicas, o con la posibilidad de formalizar las relaciones físicas en términos matemáticos, el inmenso poder de la inferencia formal y del cálculo matemático queda a disposición del pensamiento físico, pero el isomorfismo entre las leyes numéricas y las relaciones numéricas que se descubran entre las magnitudes físicas no está asegurado a priori, sino que es cuestión que la física ha de descubrir y comprobar constantemente.

2.2.3 Las leyes de la biología y las ciencias humanas

En la biología y las ciencias humanas aparece un tipo distinto de ley que no adopta la forma de ley numérica y, de hecho, en muchos casos no está claro que la explicación tenga lugar en forma de “ley” que comprenda casos particulares.

Lo distintivo de las explicaciones biológicas es que son con frecuencia funcionales, en el sentido de que explican algo sobre la base de las funciones que desempeñe dentro de un organismo complejo. Las explicaciones biológicas se apoyan en funciones que son con vistas a un fin, que, a su vez se relaciona con un fin más amplio, y así sucesivamente; explicación que sólo se obtiene ante el organismo completo, o que prosigue para estudiar sistemas vivos o sociedades de organismos. Semejantes explicaciones parecen contestar a la pregunta “¿Para qué sirve x?”, o, refiriéndose a un proceso, “¿Porqué funciona así?”; pero el porqué de las explicaciones biológicas suele ser un para qué, y es por esto por lo que estas explicaciones han sido llamadas teleológicas.

Para Lundbberg

El término ley científica puede y debería significar en las ciencias sociales exactamente lo que significa en cualquiera de las restantes ciencias.

Lundberg define así el concepto de ley científica:

Una ley es: 1) un grupo de símbolos verbales o matemáticos que, 2) designan un número ilimitado de eventos definidos desde el punto de vista de un número limitado de reacciones, 3) de tal manera que la realización de las operaciones especificadas siempre conlleve resultados predecibles dentro de límites mensurables (Lundberg, G.A., “The Concept of Law in the Social Science”, Philosophy of Science, V, 1983, 189-203, p. 189)

Lundberg precisa que: (1) se refiere a enunciados generales sobre alguna secuencia conductual, que (2) requiere que dichas generalizaciones deben ser verificables y verdaderas, mientras que (3) admite la existencia de grados de verificación. Tras reconocer que la mayoría de las generalizaciones usadas en las ciencias sociales sólo satisfacen el primer requisito, el programa de reducción fisicalista de las ciencias sociales es propuesto:

Todos los fenómenos humanos y culturales están enteramente contenidos en el cosmos físico y dependen enteramente de transformaciones de energía dentro del cosmos (ibid., 192)

El objetivo de las ciencias sociales consiste en controlar y medir los factores que influyen en la conducta social. Y concluye:

Sólo cuando dichas condiciones son conocidas y medidas tenemos una ley científica tal y como aquí está definida (ibid., 196)

Dray, por su parte, afirma la inadecuación del modelo hempeliano para la explicación de los hechos históricos, ni aunque fuera en el supuesto de que el recurso a leyes explicativas fuese únicamente implícito, como sugirió Popper. La propia noción de explicación es para Dray un concepto pragmático, que no puede ser caracterizado simplemente sobre la base de propiedades lógico-sintácticas: por eso propuso el concepto de explicación racional como el adecuado para el caso de la historia. Dicho tipo de explicación siempre tiene en cuenta la intencionalidad de las acciones humanas, que implica la necesidad de una comprensión por parte del historiador del sentido de cada hecho histórico.

La noción de explicación racional ha sido sistematizada ulteriormente por von Wright, para quien la historia, al igual que otras muchas ciencias sociales y humanas, versa sobre acciones ineludiblemente intencionales. El análisis del explanandum debe ser llevado a cabo conforme a reglas diferentes, basadas en una lógica de la acción, y más concretamente en los silogismos prácticos. Un ejemplo típico de dicho silogismo sería el siguiente:

A se propone dar lugar a p
A considera que no puede dar lugar a p a menos de hacer a
Por consiguiente, A se dispone a hacer a.

Sobre la base de este esquema es posible explicar la racionalidad de las acciones humanas; sin embargo, no resulta claro que este tipo de racionalidad involucre algún tipo de ley científica que la sustente. A lo sumo, cabe hablar de una explicación teleológica, sobre la base del logro de los objetivos propuestos.

Por su parte, Malinowski, en el campo de la antropología, propuso denominar “funcionales” a las relaciones entre las necesidades humanas (principio regulador de todas las acciones) y las formas culturales que se desarrollan para satisfacerlos:

La función no puede ser definida de ninguna otra manera más que por la satisfacción de una necesidad mediante una actividad en la que cooperan seres humanos, usan artefactos y consumen bienes (Malinowski, B., A Scientific Theory of Culture and Other Essays, Chapel Hill, 1944, p. 38)

Para lograr objetivos de cualquier tipo, y, por tanto, por razones puramente funcionales, los seres humanos tienen a organizarse. El concepto explicativo fundamental pasa a ser el de organización, debido a la radical dependencia de los individuos respecto de los grupos a los que pertenecen. La noción de institución, y las leyes que la regulan (caso de haberlas), sería la base de toda explicación racional de las acciones humanas. Una institución, según Malinowski, tiene seis componentes: su estatuto fundacional (o propósito), su personal, sus normas, su aparataje material, sus actividades y su función.

2.2.4 Las leyes históricas

Pueden concebirse de dos maneras:

1. Cabe la posibilidad de decir que una ley es histórica si describe algún proceso o secuencia de acontecimientos que dependa del tiempo; es decir, si los sucesos o estados que la ley describe guardan, uno respecto a otro, la relación anterior a o posterior a, cabe decir que la ley es temporalmente asimétrica o direccional y, de este modo, todas las leyes cronológicas que sirvan para caracterizas variaciones ordenadas e irreversibles podrán considerarse como históricas.

2. Puede uno, por otra parte, referirse solo a aquellas leyes que atañen a la historia como registro de las acciones e instituciones humanas. En este caso, la historia propiamente dicha se distingue de la mera cronología porque atañe a modo especial a las acciones humanas, es decir, a aquellas que se distinguen por su internacionalidad y son acciones de individuos únicos. Aun cuando los procesos o sucesos que tales leyes históricas describan sean sociales o institucionales más que personales y biográficos, no son, desde este punto de vista, reducibles a las leyes históricas que describen la cronología natural, ni siquiera análogos a ellas.

2.3 La naturaleza de las leyes

Todo análisis satisfactorio de las leyes debe satisfacer dos requisitos. En primer lugar, el análisis debe mostrar cómo las leyes implican regularidades factuales (IRF); esto es, el análisis debe tener como consecuencia que de “A implica-nómicamente B” se derive “”x(Ax ® Bx)”. En segundo lugar, el análisis debe mostrar cómo las leyes se distinguen de las meras regularidades factuales (DRF); esto es, el análisis debe tener como consecuencia que las leyes, y no cualquier generalización verdadera, tienen las propiedades que distinguen a las regularidades nómicas de las accidentales. Todo análisis ha de mostrar que no toda regularidad factual es una ley, pero toda ley implica una regularidad factual.

Las concepciones regularitivistas analizan las leyes como regularidades de cierto tipo. Una ley es una regularidad verdadera que satisface ciertas condiciones adicionales:

[Reg] A implica-nómicamente B syssdef “x(Ax ® Bx) y g(“x(Ax ® Bx)).

g expresa la condición adicional que debe satisfacer la regularidad para ser ley (condición que a veces se formula como condición sobre el enunciado “”x(Ax ® Bx)”). La idea es sencilla: el análisis satisface (IRF) pues según él toda ley es una generalización material verdadera, y además puede satisfacer (DRF) pues no toda generalización material verdadera es una ley, sólo lo son las que satisfacen g. Que se satisfaga o no efectivamente (DRF) dependerá de que se deriven o no las propiedades en cuestión (explicatividad, apoyo a contrafácticos, intensionalidad, etc.).

Es común caracterizar los análisis regularitivistas de humeanos, pues Hume fue el primer defensor explícito de esta concepción. Pero eso es parcialmente confundente pues la teoría de Hume se caracteriza además, y fundamentalmente, por la tesis según la cual no hay necesidades en la naturaleza. Dentro de los regularitivistas distinguiremos, entonces, los que están de acuerdo con esa tesis y los que no. La diferencia tiene que ver con la condición g. Si la condición g supone la aceptación de algún tipo de necesidad o modalidad en la naturaleza independiente de nuestro conocimiento, calificaremos dicho análisis regularitivista de realista. Si, contrariamente, la condición se da en términos que suponen la tesis antirrealista de Hume, si la única necesidad a que se apela es una necesidad proyectada por nosotros (nuestro conocimiento, la ciencia, etc.), lo calificaremos de humeano.

2.3.1 Regularitivismo humeano

Para Hume, g es una condición “epistémico-psicológica”, grosso modo: que los casos pasados observados están de acuerdo con la regularidad y que tengamos la tendencia de proyectarlos hacia el futuro. Una ley es una regularidad observada que, por hábito y otros mecanismos psicológicos, proyectamos hacia el futuro, esperamos que continúe igual.

Un intento de defender esta posición sin apelar tan inmediatamente a elementos psicológicos o epistémicos es el de Hempel. Hempel pretende dar una caracterización de las leyes como cierto tipo de regularidades sin recurrir a una supuesta necesidad en la naturaleza, pero sin recurrir tampoco explícitamente a condiciones epistémicas. Este autor considera leyes los enunciados generales mismos y no lo que ellos expresan.

La idea de Hempel es que g imponga constricciones sintácticas y semánticas, aproximadamente las siguientes: que el enunciado general no contenga esencialmente términos singulares y que los predicados sean predicados cualitativos puros, esto es, que no encubran referencias implícitas a particulares. El problema de esta estrategia es que no da cuenta de la diferencia entre pares de regularidades como las ejemplificadas por

  1. Todas las esferas de uranio tienen menos de 1 km de radio
  2. Todas las esferas de oro tienen menos de 1 km de radio

Estas dos regularidades no se diferencian por ningún hecho sintáctico ni semántico y sin embargo una es accidental (2) y la otra nómica (1). Por tanto, ninguna caracterización de g en términos exclusivamente sintácticos y semánticos sirve para la distinción.

En la línea humeana, si no se quiere apelar a necesidades naturales parece que no hay más alternativa que recurrir a condiciones epistémicas de aceptación e integración teórica. En este caso, g contiene sólo referencias al uso que hace la comunidad científica; es dicho uso el que constituye la regularidad en ley. La idea básica es que la diferencia entre generalizaciones nómicas y accidentales no reside en los hechos sino en la actitud de quienes las exponen o en el modo en que se utilizan; no es que usemos una regularidad para explicar y predecir por qué es una ley, sino que la regularidad es una ley porque la usamos para explicar y predecir. Una ley es, pues, una regularidad (presuntamente verdadera) que forma parte del corpus científico, que pertenece a alguna de las teorías con las que explicamos y predecimos.

La principal dificultad de los humeanos es la objetividad. Si por objetividad se entiende que la diferencia entre leyes y regularidades meramente fácticas es independiente de nuestro sistema de conocimiento, obviamente no pueden explicar la objetividad de las leyes. Su tesis central es justamente que no son objetivas en ese sentido, y acusarles de ello es, en su opinión, viciar la cuestión pues es precisamente eso lo que está en juego. Pero esto no quiere decir que las leyes sean “inventadas” o que no se “descubran”. En tanto que regularidades, son verdaderas o falsas dependiendo del mundo, independientemente de nuestro conocimiento. En este sentido son descubribles y objetivas. Lo que no es objetivo, lo que depende de nuestro conocimiento, es qué regularidades verdaderas son leyes.

En su versión más simple esta concepción tiene una consecuencia que parece claramente contraintuitiva. Si

a. las leyes son las regularidades articuladas entre sí dentro del sistema teórico y

b. el sistema teórico es el conjunto de teorías actualmente aceptadas por la comunidad científica, entonces

c. la diferencia entre leyes y regularidades puede variar de una comunidad a otra o, dentro de una misma comunidad, variar con el tiempo. Las leyes naturales serían mutables. No se trata de nuestras creencias sobre ellas, que son indudablemente cambiantes, sino que las leyes mismas serían cambiantes. Hoy la naturaleza estaría regida por una ley y quizá mañana no. Los humeanos que no están dispuestos a aceptar esta consecuencia rechazan (b). El sistema teórico en relación al cual algunas regularidades se constituyen en leyes no es el actual, sino “el” sistema teórico ideal, el correspondiente al estado de la ciencia en condiciones epistémicas ideales o, como se suele decir, a “la ciencia del Séptimo Día”. Las leyes son las regularidades que pertenecen al mejor conjunto de teorías, al sistema epistémicamente ideal, y por tanto no cambian con el tiempo, siempre han sido, son y serán las mismas.

Casi todos los que apelan al sistema teórico ideal coinciden en entender por tal “el” sistema que mejor combina simplicidad y fuerza (adecuativa). Para hacer precisa esta idea, y que sirva a la función para la que se recurre a ella, se requieren dos condiciones. En primer lugar, fijado un lenguaje, dar criterios de simplicidad y fuerza que sean aplicables y que no varíen de una comunidad a otra o, en una misma comunidad, de un momento a otro. En segundo lugar, dar un criterio para sopesar simplicidad y fuerza que permita, en la comparación de cualesquiera dos sistemas por su “simplicidad + fuerza”, determinar cuál es el mejor, un criterio que además no varíe.

2.3.2 Regularitivismo realista

El anterior programa se encuentra con una dificultad aparentemente insalvable si permanece fiel al principio humeano de no recurrir a constricciones externas al conocimiento. La dificultad se deriva de la relatividad de los criterios a un lenguaje dado, pues afecta esencialmente la evaluación de la simplicidad comparada. Si en lugar de usar unos predicados (por ejemplo “verde” y “azul”) usamos otros (por ejemplo “verdul” y “acerde”), un sistema muy simple se puede convertir en uno muy complejo y viceversa. Supuesto que se dé con un criterio universal de simplicidad, al comparar dos sistemas, el criterio puede dar resultados opuestos según formulemos los sistemas en un lenguaje u otro. Por tanto, caso de que existan tales criterios, sólo se garantiza que seleccionan un único sistema si se fija un lenguaje. Un modo de solventar esta dificultad es abandonar el humeanismo y aceptar constricciones externas al conocimiento, esto es, aceptar algún tipo de necesidad o distinciones objetivas en la naturaleza en relación a las cuales fijar el lenguaje. Esto es lo que hace D. Lewis.

Lewis analiza la causalidad en términos de contrafácticos, éstos en términos de leyes (y de historias parciales de mundos posibles) y define las leyes como las regularidades verdaderas que pertenecen al sistema que mejor maximiza simplicidad y fuerza. Pero para resolver la crítica mencionada termina aceptando una constricción externa: la comparación de sistemas es relativa “al” lenguaje cuyos predicados son “naturales”, esto es, predicados que denotan propiedades (clases, géneros) naturales; y acepta la distinción entre propiedades naturales y no naturales como una distinción primitiva y objetiva por completo independiente de nuestro conocimiento, es una distinción que radica exclusivamente en la naturaleza. En este sentido, Lewis ya no es humeano pues acepta que la distinción entre regularidades nómicas y meramente fácticas descansa en última instancia, a través de las clases naturales objetivas, en la naturaleza; la necesidad natural no es algo proyectado por nuestro conocimiento.

2.3.3 Necesitativismo

Según esta concepción, la necesidad nómica descansa en algún tipo de distinción objetiva que “está en la naturaleza”. Para el necesitativista las leyes no son generalizaciones, las leyes consisten en relaciones singulares entre universales o propiedades naturales.

Los particulares son susceptibles de estar en ciertas relaciones, unas independientes de nosotros y otras no. Según esta concepción, los universales, que existen independientemente de nosotros, también pueden estar en ciertas relaciones. Para el necesitativista cada ley natural es un caso concreto de cierta relación objetiva que se da entre algunos universales independiente de nuestro conocimiento. Si usamos “Þ” para denotar esta relación, podemos expresar este análisis del siguiente modo:

[Nec] A implica nómicamente B syssdef A Þ B

Todo análisis ha de partir de algunos primitivos y la cuestión es si su articulación con el resto de las nociones logra la finalidad pretendida. En este caso, la cuestión es si este análisis satisface, al menos, IRF y DRF. En cuanto a DRF, es sencillo ver que efectivamente se obtienen las propiedades deseadas en las leyes. La relación Þ es objetiva e intensional: se da o no entre ciertos universales independientemente de nuestro conocimiento; y si se da entre universales concretos A y B no tiene por qué darse también entre otros coextensivos con ellos. El resto de las propiedades se obtienen inmediatamente pues contrafácticos, explicación, confirmación y predicción se suelen caracterizar en esta concepción en términos de leyes. La dificultad mayor radica en IRF, en explicar por qué el que se dé la relación entre el universal A y el universal B tiene como consecuencia que todo particular que ejemplifica A también ejemplifica B.

Tras esta acusación se encuentra la vieja crítica de Hume según la cual ese tipo de entidades (supuestas causas o necesitaciones “en la naturaleza”) son empíricamente incontrastables y, con ello, inútiles para explicar el desarrollo de nuestro conocimiento y en ese sentido superfluas. La idea es que los enunciados “”x(Ax ® Bs)” y “A Þ B” (suponiendo que se satisface IRF y por tanto que el segundo implica el primero) son empírica o contrastacionalmente equivalentes. Toda experiencia que confirma uno confirma el otro y viceversa. Por tanto, lo que de más contiene el segundo, a saber, referencias a supuestas necesidades en la naturaleza, es empíricamente incontrastable; la supuesta necesitación no se manifiesta en la experiencia más que como regularidad funcional. Apelar a cosas del segundo tipo no ayuda en absoluto a la hora de dar cuenta de la práctica científica. Por tanto, por lo menos desde el punto de vista del análisis de la práctica científica, esas supuestas entidades son para el humeano perfectamente prescindibles.

2.4 Características de las leyes científicas

2.4.1 Generalidad pura e irrestricción

A veces se ha propuesto que las leyes, a diferencia de las generalizaciones accidentales, no pueden contener referencia alguna (ni implícita ni explícita) a objetos particulares, lugares o momentos específicos, esto es, deber ser puramente generales. Si embargo, esta condición es excesiva, pues excluye leyes claramente aceptadas como tales, por ejemplo, las de Kepler, que hacen referencia al Sol. La respuesta es aceptar algunas de estas generalizaciones no puras como leyes si son derivables de otras puras; a éstas se las considera las leyes fundamentales y a aquéllas leyes derivadas. Pero esta estrategia no es viable por dos motivos, uno histórico y otro lógico: primero, las leyes de Kepler eran consideradas leyes genuinas antes de la existencia de las leyes fundamentales de las que se derivan (las leyes de Newton); y segundo, es obvio que de generalizaciones puras solas no se pueden derivar generalizaciones no puras, hacen falta además afirmaciones particulares pues las generalizaciones no puras hablan implícitamente de objetos particulares.

Una condición con espíritu semejante, pero más débil, es que la generalización sea irrestricta. Tanto las leyes de Kepler como por ejemplo la generalización accidental “Todos los tornillos del auto de Pedro, a mediodía del Año Nuevo de 1990, están oxidados” contienen referencia a particulares. La diferencia radica en que el ámbito de aplicación de la segunda está restringido a una región espaciotemporal y el de la primera no, pues aunque los planetas estén de hecho en determinada región ello no está presupuesto por la ley. Pero esta condición sigue siendo parcialmente insatisfactoria. En primer lugar, es discutible que no pueda haber leyes genuinas que involucren esencialmente regiones espaciotemporales particulares. Y, en segundo lugar, muchas generalizaciones accidentales satisfacen esa condición.

2.4.2 No vacuidad

Las leyes, a diferencia de las generalizaciones accidentales, no pueden ser vacuamente verdaderas. Ahora bien, tampoco esta condición es clara, pues las leyes genuinas contienen a menudo idealizaciones; por ejemplo, superficies sin fricción o espacio vacío, que pueden no ser nunca satisfechas. Por otro lado, tampoco es plausible aceptar como ley cualquier generalización vacuamente verdadera consecuencia de una ley.

2.4.3 Confirmación

Las regularidades nómicas (leyes) se consideran confirmadas por sus instancias, las accidentales no. Si la regularidad es una ley, la constatación de instancias particulares se acepta como confirmación de la ley; eso sí, conformación parcial, y tanto mayor cuanto mayor sea el número de instancias constatadas.

En la medida en que una generalización se considere nómica, se estará dispuesto a considerarla confirmada (en cierto grado) a través de sus instancias concretas. Si la generalización es considerada accidental, “hasta la última instancia” no podemos decir nada, ni siquiera de grado (por ello, si hay generalizaciones accidentales cuyo antecedente se aplica a un número infinito de objetos, tales regularidades son inconfirmables por principio).

2.4.4 Explicación

Las leyes son explicativas, las regularidades accidentales no.

2.4.5 Causalidad

A veces se ha sugerido que la legalidad-nomicidad descansa en la causalidad. En las regularidades nómicas hay una relación causal entre las condiciones antecedentes y consecuentes. Esta condición tiene una interpretación débil y otra fuerte. La interpretación fuerte es que toda ley contiene explícitamente elementos causales. Así interpretada es claramente incorrecta. Hay leyes genuinas que no son causales en este sentido fuerte. En su interpretación débil, afirma que toda ley que no sea directamente causal se subsume en, o deriva de, otras que sí lo son. Si ello significa que no se consideran leyes sin disponer de tal derivación, sigue siendo incorrecto, pues aunque, por ejemplo, las leyes de Kepler recibieron un fuerte respaldo al derivarlas Newton de su sistema, fueron consideradas leyes perfectamente legítimas antes de que Newton desarrollara su mecánica. Se puede debilitar todavía más y decir que las leyes no causales son “en principio” o “en última instancia” derivables de leyes causales. Pero esto sólo se puede defender proporcionando una teoría sustantiva y muy específica de la causalidad, discutible filosóficamente.

2.4.6 Apoyo a contrafácticos

Si bien es dudoso que las leyes son siempre causales, no lo es que siempre suponen cierto tipo de necesidad entre las propiedades involucradas. Este elemento de necesidad es sobre el que descansa un tipo específico de modalidad, la nómica. Las leyes son esencialmente modales. Una de las manifestaciones de su naturaleza modal es que soportan o apoyan cierto tipo específico de afirmaciones modales, las afirmaciones condicionales contrafácticas.

Un condicional contrafáctico, o subjuntivo, es una afirmación del tipo “si hubiera ocurrido a, habría ocurrido b”, o “si ocurriera a, ocurriría b”. Las leyes dan apoyo a este tipo de expresiones.

Es este hecho de afirmar situaciones contrafácticas el que está detrás de las diferencias entre la predicción y la explicación. La predicción no es más que la aplicación de un contrafáctico en el que el antecedente puede no haberse dado todavía pero se dará. Si una ley explica es justamente porque contiene el elemento de modalidad expresado en el contrafáctico que apoya. Incluso si una ley “todos los A son B” es tal que la condición antecedente nunca se da de hecho, sigue siendo cierto que si se diera tal condición, se daría también la condición consecuente.

Según esto, no hay especial problema en que una ley sea vacuamente verdadera contemplada como generalización condicional material, pues lo que importa es su aspecto modal, que no queda explícito si se la contempla así. En realidad, es inadecuado contemplar las leyes como siendo sólo generalizaciones materiales. Lo correcto es decir que implican generalizaciones materiales, pero entonces es claro que el que la generalización material implicada sea vacuamente verdadera no tiene por qué afectar a la ley. El núcleo de la cuestión es que si “Todos los A son B” es una ley, entonces esta generalización contiene esencialmente un elemento modal; es una generalización material “con algo más” y ese algo más es de carácter modal.

2.4.7 Intensionalidad

La capacidad de las leyes de apoyar contrafácticos es la expresión más manifiesta de su carácter modal. Otra manifestación especialmente clara de la modalidad de las leyes es su intensionalidad. Cierta característica aplicable a afirmaciones es extensional si siempre se preserva al sustituir un atributo por otro coextensional; si alguna de estas sustituciones coextensionales modifica la característica entonces decimos de ella que es intensional. En términos lingüísticos: el operador correspondiente a dicha característica es extensional si el enunciado que contiene dicho operador preserva el valor veritativo tras una sustitución tal; es intensional en caso contrario, esto es, si no vale la sustitutividad salva veritate de expresiones coextensionales.

La nomicidad (legalidad) es una característica intensional. El operador de modalidad genera contextos intensionales: en los enunciados del tipo “es una ley que todos los A son B” no rige la sustitutividad salva veritate de expresiones coextensionales: la sustitución, por ejemplo, de ‘A’ por otro predicado coextensional ‘C’ puede modificar su valor veritativo (entiéndase bien, puede variar el valor veritativo del enunciado “es una ley que todos los A son B”, no el del enunciado “todos los A son B”). El valor veritativo se altera justamente cuando la coextensionalidad de los atributos no es nómica sino accidental, esto es, cuando la regularidad bicondicional “Todo es A si y sólo si es C” es meramente fáctica.

2.4.8 Proyectabilidad y clases naturales

Una regularidad observada es proyectable si estamos justificados a proyectarla hacia el futuro. Así, por ejemplo, todas las esmeraldas observadas hasta la fecha son verdes y parece que podemos proyectar esta regularidad: las futuras esmeraldas que se observen serán verdes. Goodman mostró que esta cuestión es más complicada de lo que parece. Digamos que algo es “verdul” syss es observado antes del año 2000 y verde, u observado después del año 2000 y azul. Tenemos entonces otra regularidad observada, a saber, que todas las esmeraldas observadas hasta la fecha son verdules, y sin embargo parece que ésta no se puede proyectar. O, en otros términos, parece que la experiencia observada permite confirmar la regularidad “Toda esmeralda es verde” pero no “Toda esmeralda es verdul”. La cuestión es por qué.

Una posible respuesta a este problema es decir que verde es proyectable y verdul no porque verde interviene en leyes mientras que verdul no. Pero si definimos los atributos proyectables como aquellos que intervienen en leyes, entonces el problema es especificar qué distingue a las leyes. Una posibilidad a la que se suele recurrir es distinguir entre clases (géneros, atributos, propiedades) naturales y clases no naturales. Podemos agrupar las cosas en las clases que queramos, pero no todas esas agrupaciones corresponden a divisiones en la naturaleza. Podemos formar una clase con los objetos verdules, o quizá otra con objetos que son caballos o pinos, pero estas colecciones no corresponden a divisiones objetivas en la naturaleza. Contrariamente, y según los defensores de las clases naturales, la clase de los objetos verdules, o la de los caballos, o la de las moléculas de agua, sí son clases naturales. Pues bien, la idea es entonces que las leyes sólo deben involucrar clases naturales, con lo que se termina identificando las propiedades proyectables con las naturales. Sin embargo, esta condición parte de nociones, como la de clase natural, que requieren tanta elucidación como la noción misma de ley, por lo que no se puede tomar como condición intuitivamente exigible a las leyes sino como alternativa (debatible) para un análisis filosófico sustantivo de las leyes. Una de sus principales dificultades es afrontar el problema de la implicación lógica: si las consecuencias lógicas de leyes son leyes, entonces dadas dos leyes “Todo A es B” y “Todo C es D” también será una ley “Todo A o C es B o D”, pero no siempre que A y C (o B y D) son clases naturales su unión también lo es.

3. Teorías

El objeto de la ciencia es penetrar más allá de lo inmediato y lo visible, establecer relaciones para colocar los fenómenos observables en un nuevo y más amplio contexto, pues sólo una pequeña parte del mundo físico se revela ante nosotros de modo directo. La suprema función de una teoría es ayudarnos a captar la imagen completa de este mundo físico. En su nivel más simple una teoría nos ayuda a interpretar lo desconocido en términos de lo ya conocido. Es un esquema conceptual que inventamos o postulamos para explicarnos a nosotros mismos, y a los otros, los fenómenos que observamos, y las relaciones que existen entre ellos, para reunir de este modo, en una estructura única, conceptos, leyes, principios, hipótesis, y observaciones provenientes a menudo de campos muy diversos.

Las teorías y las hipótesis difieren solamente en el grado de generalidad. Así, tenemos por un lado la hipótesis de trabajo limitada, por la cual nos guiamos en una experiencia determinada, y por otro, con teoría general, que nos guía en el diseño e interpretación de toda clase de experiencia de aquel campo de estudio.

Para que una teoría sea considerada como tal, ha de cumplir al menos tres funciones.

1. Una teoría sirve, generalmente, para relacionar hechos independientes en un esquema mental lógico y fácilmente asequible. Una teoría fructífera no sólo explicará las leyes que abarca dentro de su marco de acción, sino que también mostrará donde y porqué estas leyes no son válidas en la práctica.
Además, una buena teoría nos permite captar, recordar y deducir un gran número de hechos que de otro modo resultan evasivos.
Las teorías simples de la física están, a menudo, basadas en modelos mecánicos; pero no por ello todos los esquemas conceptuales de la ciencia han de reducirse a tales modelos; es más, una fe demasiado firme en un modelo mecánico puede ser un obstáculo serio para el progreso de la ciencia.

2. Una teoría, o hipótesis, sea general o limitada, debe sugerir nuevas relaciones que presenten a la imaginación la trabazón hasta entonces insospechada, entre hechos antiguos y nuevos, y que extiendan los antiguos horizontes. Con respecto a este punto, Popper afirmaba que lo verdaderamente interesante de una teoría científica no es que sea verdadera o falsa, aunque esto también sea importante, sino que lo verdaderamente importante es que plantee problemas nuevos y desconocidos, pues la resolución de estos problemas nuevos redundará en un aumento de nuestro conocimiento de la naturaleza, y toda teoría científica a lo que en definitiva tiende es a aumentar nuestro conocimiento de la naturaleza. Una teoría falaz, si se sigue amplia y activamente, puede conducir a observaciones claves necesarias para una teoría mejor, pues, como decía Bacon, «la verdad surge más fácilmente del error que de la confusión».

3. Una teoría que se precie de tal debe predecir nuevos fenómenos observables y solucionar problemas de carácter práctico. Este tercer punto es esencial por dos razones:

a. El que la teoría prediga hechos observables nos da un método efectivo para comprobarla en la práctica; en efecto, al contrastar experimentalmente los hechos predichos por la teoría, si estos se ven confirmados, la teoría queda corroborada, mientras que si no es tal el caso, la teoría queda, o al menos una parte de ella, refutada.

b. b) Las teorías científicas pretenden ser omniabarcantes, lo cual quiere decir que intentan explicar una parcela de la realidad lo más amplia posible, y una teoría será tanto más completa cuanta más parcela de la realidad explique. Ahora bien, hay dos tipos de explicación, una explicación a priori y una explicación a posteriori. Cuando un hecho experimental observado es explicado a priori ello nos indica que la teoría era lo suficientemente completa como para incluirlo dentro de sí antes incluso de haberlo observado, mientras que si este mismo hecho es explicado a posteriori esto nos indica que la teoría en su primitiva formulación no era lo suficientemente completa, y que es necesario ir retocándola poco a poco según avanza nuestro conocimiento experimental de la realidad.

4. Otro requisito básico de una teoría científica es el de la simplicidad; en efecto, la mejor entre dos teorías rivales resulta ser la más simple en el sentido de que requiere menos hipótesis o supuestos básicos. Tales teorías sobreviven a causa de la economía de pensamiento que supone su adopción. Una teoría que requiera hipótesis o mecanismos distintos para explicar cada hecho, no es sino una tautología elaborada y estéril.

5. Idealmente, las hipótesis deben ser plausibles, incluso aunque no estén sujetas inmediatamente a ensayo; y la teoría en conjunto no debe estar en conflicto con las ideas en boga. Si esto no ocurre así, la teoría puede enfrentarse, frecuentemente, con una recepción tormentosa y hostil y ha de someterse a un largo y cuidadoso escrutinio antes de su general aceptación.
¿Porqué una teoría ha de ser razonable y estar de acuerdo con las ideas en boga de la época en que surge? Porque las grandes ideas revolucionarias (Copérnico, Darwin, Einstein) surgen raras veces comparadas con el gran número de ideas fructíferas y aptas para trabajar, concebidas dentro de un marco tradicional.
Además, cuando una teoría revolucionaria surge, raramente tiene demasiados hechos empíricos a su favor y, además, suele tener algunos hechos, empíricos y de sentido común, en su contra, de modo que si esta nueva teoría triunfa es por culpa de la constante propaganda que de ella hacen sus nuevos – pocos al principio, y más a medida que pasa el tiempo – partidarios, y porque sus enemigos van muriendo poco a poco. Max Planck escribió: «Una innovación científica importante raramente se desarrolla gradualmente venciendo y convirtiendo a sus oponentes: raramente sucede que Saulo se convierta en Pablo. Lo que sucede es que los oponentes van muriendo y la nueva generación ya está, desde el principio, habituada a las nuevas ideas: otro ejemplo de que el futuro pertenece a la juventud» (Max Planck: La filosofía de la física)

6. Una buena teoría ha de ser lo suficientemente flexible para desarrollarse y sufrir las modificaciones precisas.

3.1 La concepción axiomática de las teorías

3.1.1 Teorías axiomáticas

Según cierta noción de teoría, una teoría es un conjunto de afirmaciones sobre un determinado ámbito de la realidad. Concebidas de este modo, las teorías se analizan o reconstruyen como teniendo cierta estructura que expresa las relaciones que mantienen entre sí las diversas afirmaciones y los diversos términos o conceptos con los que se realizan tales afirmaciones. La noción formal que expresa esa estructura es la de cálculo axiomático o, simplemente, teoría axiomática, y se aplica por igual a teorías empíricas y a teorías puramente formales.

3.1.1.1 Cálculos y teorías axiomáticas: términos primitivos, axiomas y teoremas; definiciones y términos derivados

La idea básica es que una teoría o conjunto de afirmaciones se puede “resumir” o “concentrar” en algunas de sus afirmaciones, de las que se derivan todas las restantes mediante un proceso de inferencia inductiva. A las afirmaciones que forman parte de ese “conjunto-resumen”, consideradas primitivas, se las denomina “axiomas”, y a las afirmaciones que se deducen de los axiomas, consideradas derivadas, se las denomina “teoremas”. Si llamamos contenido de una teoría al conjunto de todas sus afirmaciones, entonces tal contenido se encuentra ya completo, aunque implícito, en los axiomas. El contenido de la teoría, la información que da, es por tanto el conjunto de consecuencias lógicas de los axiomas. Los teoremas no contienen información nueva, sólo hacen explícita la información contenida implícitamente en los axiomas. Para que esto sea así es preciso que de los axiomas en cuestión se sigan efectivamente todas las afirmaciones de la teoría, o sea, que el conjunto de axiomas sea suficiente, o completo. Al axiomatizar una teoría se pretende dar con un conjunto de axiomas para ella. Ésta es pues una condición necesaria para una buena axiomatización.

La anterior condición, aunque necesaria, no es suficiente. Que de los axiomas se obtengan todas las afirmaciones no basta para una buena axiomatización, pues de lo contrario el simple conjunto de todas las afirmaciones sería ya un buen conjunto de axiomas. De tal conjunto se obtienen efectivamente todas las afirmaciones; es, si se quiere, un conjunto de axiomas, pero no es un buen conjunto de axiomas pues viola el espíritu que inspira la axiomatización, a saber, dar una versión lo más “resumida” o “concentrada” posible de la teoría. Así pues, es un principio metodológico general que los axiomas han de constituir un conjunto mínimo de afirmaciones primitivas, ningún axioma debe ser deducible de los restantes; los axiomas deben ser independientes entre sí. Un buen conjunto de axiomas para una teoría es un subconjunto de sus afirmaciones que sea completo y cuyos miembros sean independientes entre sí. Estas condiciones no determinan un único subconjunto de tales afirmaciones. Dada una teoría (en sentido intuitivo), siempre hay más de un subconjunto completo e independiente de afirmaciones, siempre hay axiomatizaciones alternativas.

Los términos de una teoría, los constituyentes de sus afirmaciones, expresan el aparato conceptualizador de la teoría, esto es, el aparato con el que se pretenden capturar las entidades de diverso tipo que conforman el ámbito de la realidad del que se ocupa la teoría. La introducción de nuevos términos a partir de otros anteriores supone la entrada en juego de otro tipo de “afirmaciones” o enunciados, las definiciones, pues sólo mediante enunciados (o esquemas de tales) es posible explicitar el modo en que se introduce un término nuevo a partir de otros anteriores. Las definiciones siempre tienen la forma de una equivalencia del tipo:

(1)

“a(t(x1, …, xn)) syssdef b(t1, …, tk, x1, …, xn)” (n ³ 0, k ³ 1)

Aquí t es el nuevo término y t1, …, tk, son términos ya disponibles, esto es, términos primitivos o ya definidos con anterioridad a t; n indica el número de variables a las que se aplica el término, esto es, su aridad; a y b son funciones proposicionales. Hay también términos singulares y functores que nombran, respectivamente, a individuos y a funciones-operaciones entre individuos. Las definiciones de términos singulares y de functores no se ajustan a la forma (1) sino a estas otras:

(2)

“t =def g(t1, …, tk)” para términos singulares, y

(3)

“t(x1, …, xn) =def g(t1, …, tk, x1, …, xn)” para functores (n-ádicos),

donde en ambos casos la parte derecha “g(…)” es una descripción que usa otros términos ya disponibles. Sin embargo, estas definiciones se pueden expresar también mediante una equivalencia de la forma (1), esto es, respectivamente, mediante:

(2′)

“para todo z: z = t syssdef z= g(t1, …, tk)”,

(3′)

“para todo z: z = t(x1, …, xn) syssdefinición z= g(t1, …, tk, x1, …, xn)”.

Las definiciones no son afirmaciones del mismo tipo que los axiomas y los teoremas, no son afirmaciones sustantivas de la teoría sino que expresan meras abreviaturas notacionales. Esto se expresa diciendo que las definiciones deben cumplir dos requisitos: han de ser

a. Eliminables. Cualquier afirmación que contenga un término definido ha de poder eliminarse usando la definición que introduce dicho signo; esto es, con ayuda de la definición se debe poder probar que tal afirmación es equivalente a otra que no contenga dicho signo, y en última instancia, si eliminamos los otros signos definidos previamente, equivalente a otra afirmación que contenga sólo signos primitivos.

b. No creativas o inocuas. Si tenemos una afirmación que involucra el término definido t cuya prueba recurre, además de a los axiomas y otras definiciones previas, a la definición de t, su afirmación equivalente resultante de eliminar t ha de poder probarse sin recurrir a la definición de t, y si se han eliminado todos los términos definidos, ha de probarse a partir de los axiomas solos. En caso contrario la presunta definición contendría subrepticiamente información sustantiva, no sería una mera abreviatura terminológica. Las definiciones son pues prescindibles, todo lo que se dice con su ayuda puede decirse sin ella. Ahora bien, aunque las definiciones son teóricamente superfluas, no lo son en la práctica de la construcción y aplicación de una teoría; para teorías de un mínimo de complejidad conceptual y fuerza expresiva, el prescindir totalmente de definiciones haría a éstas inmanejables y prácticamente incomprensibles. Las definiciones poseen un gran valor de “economía intelectual” en la construcción de las teorías.

3.1.2 Caracterización general de las teorías empíricas como cálculos interpretados

Según los primeros análisis que se hicieron del concepto de teoría empírica, una teoría empírica es un cálculo interpretado, donde por “cálculo” se entiende un cálculo o teoría axiomática.

3.1.2.1 Teorías formales y teorías empíricas

Según la posición dominante en filosofía de las ciencias formales, los axiomas del formalismo abstracto son lo único que interviene en la caracterización de las entidades “de las que habla” una teoría matemática; qué cosas son esas de las que pretendemos hablar al usar los términos de la teoría es algo que depende únicamente de los axiomas, las entidades en cuestión son cualesquiera de las que los axiomas sean verdaderos. A veces se expresa esto diciendo que los axiomas caracterizan las entidades de la teoría o, también, que definen implícitamente los términos primitivos. Los axiomas “definen” implícitamente los términos primitivos en el sentido de que ellos son los únicos elementos constitutivos del significado de los términos; cualquier estructura que sea modelo de los axiomas es una interpretación admisible de los mismos; esto es, los constituyentes de cualquiera de tales estructuras son interpretaciones admisibles de los términos con que se formulan los axiomas.

Mientras que en las ciencias formales parece razonable, o al menos defendible, la tesis de que las entidades a las que la teoría se refiere son cualesquiera de las que sean verdaderas los axiomas, ella es totalmente inaceptable aplicada a las ciencias empíricas. Por ejemplo, si los principios de la mecánica newtoniana, formulados con términos como “partícula”, “masa” y “fuerza”, fuesen por causalidad verdaderos de los ángeles, su “cantidad de espiritualidad” y sus “afinidades”, no por ello diríamos que ésas son cosas de las que habla la teoría mecánica, no diríamos que son sistemas mecánicos. La idea de que los términos de la mecánica se refieren a cualesquiera entidades que satisfagan el formalismo abstracto es claramente inaceptable. El motivo es que, a diferencia de las ciencias formales donde esa idea es cuando menos discutible, las teorías empíricas tienen, además de las constricciones derivadas del sistema axiomático abstracto, otras constricciones derivadas de su vinculación con el mundo físico-natural, o mejor dicho, con algún aspecto científico del mismo del que pretenden dar cuenta.

Aceptando esta peculiaridad de las teorías empíricas, ¿cómo se debe recoger este hecho específico en el análisis de las mismas? La respuesta parece inmediata: incluyendo, junto con el sistema axiomático abstracto, otro elemento que exprese la conexión de dicho formalismo con “situaciones de la experiencia” en las que interactuamos o “contactamos” con el mundo físico. La articulación específica de esta respuesta que se impondrá en la Concepción Heredada es que esas situaciones de experiencia en las que se da el contacto básico con el mundo físico son situaciones de observación directa de fenómenos físicos.

3.1.2.2 Cálculos interpretados: vocabulario; axiomas y reglas de correspondencia

Cada teoría científica está conformada por un cálculo axiomático abstracto y otro componente que conecta las expresiones de dicho cálculo abstracto con situaciones de la experiencia entendidas como situaciones de observación directa. Este segundo elemento está conformado por enunciados que vinculan los términos del sistema axiomático con términos observacionales que refieren a objetos, propiedades o relaciones directamente observables. A esos “enunciados conectores” se les ha denominado de varios modos: reglas de correspondencia, definiciones coordinativas, enunciados interpretativos, postulados de significación, diccionario o definiciones operacionales. Su función es proporcionar interpretación empírica al cálculo axiomático que por sí mismo está vacío de contenido empírico. Las teorías empíricas son pues cálculos axiomáticos interpretados empíricamente a través de esos enunciados que conectan los términos del formalismo con situaciones de observación directa.

Las teorías empíricas dan cuenta de fenómenos empíricos postulando ciertas entidades o procesos gobernados por ciertas leyes; esas entidades postuladas no están directamente dadas en la observación, están “alejadas” de la experiencia observable, contrariamente a los fenómenos de los que pretenden dar cuenta, directamente accesibles a la observación. La teoría introduce nuevos términos para referirse a esas entidades y procesos no observables. Diremos de esas entidades que son entidades teóricas y de los términos introducidos para referirnos a ellas que son términos teóricos.

Podemos dividir el conjunto de expresiones o vocabulario V de una teoría en tres partes.

1. Términos puramente lógico-matemáticos. Éste es el vocabulario formal VF de la teoría

2. Términos observacionales. Éste es el vocabulario observacional VO de la teoría, esto es, el vocabulario que se refiere a entidades directamente observables y a propiedades y relaciones entre ellas directamente observables.

3. Términos teóricos. Éste es el vocabulario teórico VT de la teoría, esto es, el vocabulario que se refiere a entidades, propiedades y relaciones no directamente observables postuladas para dar cuenta de los fenómenos.

Si llamamos vocabulario descriptivo VD al vocabulario no meramente formal de apoyo, tenemos V = VF È VD, VD = VO È VT, VF Ç VD = Æ y VT Ç VO =Æ.

Toda afirmación de la teoría contiene vocabulario formal, pero no sólo vocabulario formal, también contiene términos descriptivos. Por tanto, los enunciados de las teorías científicas pueden ser de tres clases:

1. Enunciados (puramente) teóricos. Contienen como vocabulario descriptivo únicamente términos teóricos. De entre ellos se seleccionan algunos como axiomas o postulados primitivos: A1, …, An; el resto se deriva de ellos como teoremas. Son los enunciados que expresan el comportamiento de las entidades teóricas. Ej.: “la fuerza eléctrica es directamente proporcional al producto de las cargas”).

2. Enunciados (puramente) observacionales. Contienen como vocabulario descriptivo únicamente términos observacionales. Algunos describen situaciones observables particulares y otros son afirmaciones general, esto es, expresan generalizaciones o leyes puramente empíricas-observacionales. Ej.: “Esta porción de agua se ha solidificado”.

3. Reglas de correspondencia. Contienen tanto términos teóricos como términos observacionales. En la medida en que unas se puedan derivar de otras, también se pueden escoger de entre ellas unas que hagan de primitivas: R1, …, Rm. Son los enunciados que conectan los términos teóricos con la experiencia observable cargando así de interpretación empírica los axiomas puramente teóricos. Ej.: “A presión constante, el volumen aumenta con la temperatura”. Estos enunciados son el puente que permite pasar de lo observacional a lo teórico y viceversa.

Esta clasificación de los términos y los enunciados permite expresar de un modo simple la estructura de las teorías en tanto que cálculos interpretados: una teoría T es un par T = <A,R>, donde A es el conjunto (o la conjunción) de todos los axiomas y R es el conjunto (o la conjunción) de todas las reglas de correspondencia. Las teorías empíricas son cálculos interpretados: A es el cálculo axiomático, R proporciona la interpretación empírica.

3.1.3 La distinción teórico/observacional y la naturaleza de la base empírica
3.1.3.1 Entidades observables y distinción teórico/observacional

Para muchos empiristas y positivistas lógicos del período de entreguerras, la fundamentación del conocimiento en la experiencia se entendía en términos fenomenalistas: los primeros datos sobre los que se construye todo conocimiento, que justifican nuestras creencias, son datos de la experiencia fenoménica. Esta posición extrema plantea múltiples dificultades, y el fenomenalismo termina por ser abandonado. Las entidades fenoménicas (qualia, datos sensoriales) son entonces sustituidas por entidades que se caracterizan simplemente como “directamente presentes a la observación”. Sin embargo, esta nueva versión tiene sus propios problemas, el principal de ellos es su vaguedad. Las entidades fenoménicas son claramente distinguibles de las no fenoménicas, pero por su “privacidad” o subjetividad son poco plausibles como constituyentes de la base de experiencia para la ciencia. Las entidades observables, públicas, parecen en primera instancia poder desempeñar más plausiblemente tal función, pero ahora el problema es la dificultad para distinguir nítidamente entre entidades observables y no observables (teóricas).

Carnap intentó una caracterización precisa de los términos observacionales como aquellas expresiones del lenguaje tales que, en condiciones normales, un observador puede determinar a través de una serie de observaciones, y con un alto grado de confirmación, si el término se aplica o no en una situación dada. Esta caracterización es inadecuada, pues se aplica también a predicados pretendidamente no observacionales. En escritos posteriores, Carnap se limitó a caracterizar el vocabulario observacional como aquel que se refiere a entidades observables: los términos observacionales son predicados que denotan propiedades observables de acontecimientos o cosas, o relaciones observables entre ellos. Pero es claro que si no se especifica lo que caracteriza las entidades observables, simplemente se desplaza el problema.

El primer exponente de la doctrina oficial en reconocer el carácter fluido de la distinción fue Nagel, quien afirma:

Es dudoso que haya un sentido riguroso que pueda ser asignado con utilidad a la palabra “observable”; y en la medida en que la distinción [entre leyes empíricas y axiomas teóricos] se base en el contraste entre lo que es observable y lo que no, la distinción patentemente no es nítida (Nagel, E., The Structure of Science, Harcourt, Nueva York, 1961, cap. 5, § 1)

A pesar de la fluidez o vaguedad de la distinción, tanto Nagel como Carnap insisten en su utilidad para la caracterización de la naturaleza y estructura de las teorías. Así, por ejemplo, Carnap insiste en que las leyes empíricas son las que contienen términos que refieren a entidades “directamente observables por los sentidos o medibles mediante técnicas relativamente simples”.

3.1.3.1.1 Neutralidad teórica de los términos observacionales y carga teórica de los hechos

El principal motivo de la introducción de la distinción teórico/observacional era proporcionar legitimidad semántica, según los criterios empiristas, a los términos “sin conexión empírica inmediata” que las teorías científicas introducen a través de sus leyes para dar cuenta de los fenómenos. Esta finalidad semántica va acompañada de otra metodológica, pues se pretende que la base observacional es la que proporciona la experiencia “neutra” con la cual contrastar las afirmaciones de la teoría. Esta neutralidad teórica de la base de contrastación parece en primera instancia fundamental, pues de lo contrario parecería que la teoría resulta autojustificativa. Si la experiencia observacional que se usa para contrastar la validez de una teoría fuese dependiente de la teoría en cuestión, esto es, si la elaboración de los informes observacionales que sirven de base de contrastación presupusiera la validez de la teoría, entonces tendríamos un círculo autojustificativo. Por tanto, la base observacional, si ha de servir para la contrastación, debe ser teóricamente neutral.

Ya antes de la formulación explícita de la Concepción Heredada, Duhem rechazó que la observación esté libre de conceptualización teórica, aunque usualmente sí lo está respecto de algunas teorías, esto es, puede ser que las observaciones no presupongan una teoría que usa de ellas en su contrastación. Lo que constató Duhem es que toda observación, o mejor dicho todo informe observacional, supone una interpretación de los datos de los sentidos, y una interpretación no es más que una conceptualización teórica, sea explícita o implícita. Quizá el aparato conceptual interpretador que genera la base observacional no corresponde a cierta teoría que usa dicha base en la contrastación, pero en cualquier caso corresponderá a otro “constructo teórico”; este constructo presupondrá a su vez otro en la descripción de sus propios fenómenos empíricos y así sucesivamente. No hay (en general) una autojustificación inmediata de cada teoría, pero sí un círculo global autojustificativo en el conjunto de la ciencia.

Fue Popper quien primero expresó de forma explícita el componente teórico de la base empírica de contrastación, lo que después se denominará carga teórica de los hechos. Popper es uno de los mayores críticos de las tesis centrales del Círculo de Viena, pero comparte en general la caracterización de las teorías como cálculos interpretados. El principal punto de desacuerdo tiene que ver con la epistemología de la contrastación; frente al confirmacionismo y la lógica inductiva de Carnap, de los que Popper fue el primer y más severo crítico, él defiende una lógica de la falsación. Pero otro de los puntos de disensión tiene que ver con nuestra actual cuestión. Declaró abiertamente que en la determinación de la base de contrastación, de “los hechos”, interviene un conocimiento de fondo necesitado de aceptación previa. Al someter a prueba una teoría, señala, no sólo intervienen en ellas las condiciones iniciales y los supuestos auxiliares sino también cierto conocimiento de fondo sobre los hechos singulares. Este conocimiento de fondo, que “contiene” lo que se acepta como hechos, se puede considerar constituido por teorías de bajo nivel que se aceptan como altamente corroboradas y que no entran en el juego de la contrastación. Y no entran en el juego por decisión (no necesariamente consciente):

Siempre que una teoría se somete a contrastación […] hay que detenerse en algún enunciado básico que decidimos aceptar: si no llegamos a decisión alguna a este respecto, […] la contrastación no lleva a ninguna parte (Popper, K.R., The Logic of Scientific Discovery, Hutchinson, Londres, 1958, § 29)

Esta idea pone de manifiesto lo que se denomina la carga teórica de los hechos. Hanson fue el primero en hacer de este fenómeno algo esencial para el análisis de la ciencia y en defender la opinión de que ello modifica dramáticamente la visión tradicional de la misma. Siguiendo a la psicología de la Gestalt, destacó la importancia del contexto y los elementos organizativos ya en la percepción.

Al contemplarlas figuras 1 y 3, se ven en los extremos inferiores derechos dos animales diferentes a pesar de que son “la misma cosa” (figura 2); además, cuando contemplamos el dibujo aislado podemos ver una cosa u otra, pero no las dos a la vez. En parte se ve lo mismo (hay una excitación similar del córtex) y en parte no, y el sentido interesante de “ver” relevante para la ciencia es el segundo. No se trata de interpretaciones diferentes a partir de una misma visión; eso, afirma, no tiene sentido, pues “interpretar”, si se quiere llamar así, es parte constitutiva de “ver”. Además, el contexto puede no darse explícitamente, no es esencial al hecho que el ejemplo pretende mostrar que en él el contexto esté manifiesto; piénsese, afirma Hanson, en lo que ven un físico y un profano ante los rastros de una cámara de niebla. Este fenómeno, que salvo radicales diferencias culturales tiene en la vida cotidiana escasa trascendencia, es determinante en la ciencia, donde la dependencia del contexto es altamente teórica y, en momentos de cambio conceptual en los que se contraponen diferentes contextos de fondo, deviene crucial. Cuando Tycho y Kepler ven el So al amanecer, dice Hanson, en parte ven lo mismo y en parte no: Tycho ve un astro móvil, Kepler uno estático, “y es el sentido en que no ven la misma cosa el que debe tomarse en cuenta para entender los desacuerdos que existen dentro de la física”.

Toulmin afirma que los fenómenos no sólo son seleccionados por la actividad teórica sino que incluso están definidos por la misma: hay una

continua interacción entre teoría y hecho […], las teorías se construyen sobre la base de los hechos, a la vez que les dan significación y aun determinan lo que son “hechos” para nosotros (Toulmin, S., An Inquiry into the Aims of Science, Indiana U.P., Bloomington, 1961, p. 95)

Feyerabend sostiene que la descripción de los hechos depende siempre de una teoría (aunque en general no de la que se contrasta) y que hay hechos que sólo pueden salir a la luz con ayuda de teorías alternativas incompatibles. Rechaza, por tanto, la tesis de que “los hechos existen y están disponibles independientemente de la consideración de alternativas a la teoría que se contrasta”. La consecuencia de ello es lo que él caracteriza como la inversión de la relación tradicional entre teoría y observación. El significado de las oraciones de observación está determinado por las teorías con las que están relacionadas, no son significativas a menos que se hayan relacionado con las teorías:

La interpretación de un lenguaje de observación está determinada por las teorías que usamos para explicar lo que observamos, y cambia tan pronto como estas teorías cambian (Feyerabend, P.K., “An Attempt at a Realistic Interpretation of Experience”, en Feyerabend, Realism, Rationalism and Scientific Method, Cambridge U.P., Nueva York, 1981, 17-36, § 6)

Kuhn sostuvo por su parte que las teorías contienen elementos que determinan el contenido de la experiencia y que defensores de teorías diferentes viven en mundos experienciales diferentes. También Lakatos apuntaba en la misma dirección cuando afirmaba que en la contrastación no comparamos la teoría con hechos neutros, sino con otras teorías más básicas presupuestas por los hechos.

3.1.3.2 Observación y base empírica

Las teorías empíricas se generan a partir de una serie de fenómenos de los que, tras la elaboración teórica, se pretende dar cuenta; esos mismos fenómenos, u otros nuevos del mismo tipo, constituyen el ámbito de experiencia sobre el que la teoría hace predicciones y se somete a contrastación. Llamemos a estos datos, fenómenos o hechos que constituyen el ámbito de experiencia y contrastación de una teoría, la base empírica o base de contrastación de la teoría en cuestión.

Por otro lado, aceptemos, como demuestran múltiples estudios tanto empíricos como teóricos, que la observación “directa” incluye conceptualización. A pesar de ello, cabe suponer que algunos aspectos de esta conceptualización, los cognitivamente más básicos, serán generales, comunes a todo sistema cognitivo (o al menos, en su dimensión biológica-evolutiva, comunes a todos los seres humanos). Si eso es así, del hecho de que la observación presuponga cierta conceptualización no se sigue que dicha conceptualización dependa siempre esencialmente de las teorías científicas. Por tanto, si la base de contrastación fuese observacional, ello no implicaría que lo que cuenta como base empírica depende esencialmente de las teorías científicas. En realidad, pues, lo que hay implícitamente detrás de las consideraciones críticas sobre la carga teórica (científicamente teórica) de todo dato de contrastación es una puesta en cuestión del supuesto de la Concepción Heredada de que la base de contrastación es en general de naturaleza observacional. Tras muchas de las críticas a la supuesta neutralidad de las observaciones, lo que hay en realidad es un rechazo a la identificación entre base empírica de contrastación y experiencia directamente observable. El principal motivo para identificar la base empírica con la experiencia observable directa es el viejo anhelo empirista de fundamentar y justificar todo nuestro conocimiento en la experiencia sensorial. Todo conocimiento (empírico) empieza con las afecciones de nuestro entorno sobre nuestro aparato sensorial y toda justificación del mismo debe apelar en última instancia a esa “observación directa” del entorno. Pero, de este supuesto razonable no se sigue que la justificación de cada pieza de nuestro conocimiento deba proceder del mismo modo, que esta tesis global sea también válida localmente. Puede ocurrir que, como organismos vivos, la interacción más básica con nuestro entorno la realicemos en términos globales perceptualmente mediante observación directa, pero que en algunas partes de nuestro sistema cognitivo, especialmente en las muy complejas que dan lugar a las teorías científicas, la base de experiencia no se dé a través de observación directa inmediata. Puede que todo empiece por la observación pero, si el sistema cognitivo es modular y jerárquico, no en todas partes. Si eso es así. La base de contrastación de muchas, o (casi) todas, las teorías científicas puede estar constituida por datos o fenómenos que no sean de observación directa; y, por tanto, alternativamente, lo distintivo de los términos teóricos no será que denotan entidades inobservables.

Putnam se opuso a identificar la distinción “inobservable/observable” con “teórico/no teórico”. Afirmaba, por un lado, que hay teorías cuyo aparato teórico se refiere a entidades observables, y, por otro, que casi nunca los fenómenos a explicar son accesibles mediante observación directa. Se trata de dos dicotomías diferentes. Un término teórico es un término que proviene de una teoría científica y “el problema apenas tocado en treinta años que se lleva escribiendo acerca de ‘términos teóricos’ es qué es lo realmente distintivo de dichos términos”. Poco antes, Ryle había distinguido entre expresiones de una teoría que están cargadas con el peso de esa teoría particular y expresiones que no lo están. Estas consideraciones apuntan a la idea de que un término es teórico o no en relación con una teoría en función de si depende o no de la teoría en cuestión.

El primero en dar una caracterización mínimamente articulada y elaborada de la nueva distinción que se está gestando fue Hempel, el cual divide el vocabulario básico de cada teoría en dos clases que se pretenden nítidamente separadas y relativizadas a una teoría específica. Una clase está formada por los términos con los que se describen los fenómenos a explicar, la base empírica. Estos términos constituyen el vocabulario preteórico. Estos términos preteóricos no corresponden en general a situaciones observables en sentido estricto, sino que a menudo se introducen en la ciencia en el contexto de una teoría anterior. Los otros términos descriptivos usados en la teoría son los que ella introduce para llevara cabo la elaboración teórica que da cuenta de los fenómenos preteóricamente descritos; ellos constituyen el vocabulario teórico de dicha teoría. Dos puntos importantes hay en esta nueva distinción: a) es una distinción relativizada a las teorías, un término no es teórico o preteórico sin más, sino respecto de una teoría específica, y, por tanto, un término puede ser preteórico en una teoría y teórico en otra; aunque no lo afirma explícitamente, de su caracterización informal parece seguirse que un término puede ser preteórico en varias teorías, aunque normalmente será teórico sólo en una; b) el criterio para la distinción es el uso o no del término en la descripción de los fenómenos empíricos a explicar; por tanto, la distinción será precisa en la medida en que se dé un criterio preciso para determinar qué enunciados son los que describen los fenómenos a explicar.

Junto con esta nueva caracterización del vocabulario básico de una teoría, Hempel introduce otra para los enunciados. Además de enunciados puramente empíricos, la teoría contiene: (i) principios internos, que son los que especifican “el escenario teórico”, los que sistematizan el nuevo aparato conceptual introducido por la teoría; (ii) principios puente, que indican la forma en que “se relaciona lo que ocurre a nivel del escenario teórico con los fenómenos que la teoría debe explicar”.

En cuanto a la presunta función de los enunciados en la fijación del significado de los términos, Hempel sostiene ahora que el significado de los términos teóricos no está totalmente determinado por los principios internos más los principios-puente. Ambos tipos de enunciados ofrecen al aprendiz de la teoría el acceso principal a la comprensión de las expresiones, pero no determinan completamente su significado. La idea clásica de que el significado de los términos se fija completamente mediante enunciados que los conectan con otros términos es errónea; y, el problema del significado de los términos teóricos planteado en ese esquema no existe, es un pseudo-problema. El motivo es que los términos científicos adquieren su significado por vías diversas, quizá en algunos casos (parcialmente) mediante enunciados, pero usualmente de otros modos.

Hempel considera ahora que la pretensión de la Concepción Heredada de caracterizar una teoría empírica a través de su reconstrucción axiomática es inadecuada, pues siempre hay varias axiomatizaciones posibles, ninguna de las cuales expresa mejor que las otras la naturaleza de la teoría; una teoría no se puede identificar pues con un sistema específico de enunciados dotados de cierta estructura o sistematización.

3.2 La concepción historicista de las teorías

3.2.1 Los paradigmas-matrices disciplinares de Kuhn
3.2.1.1 Ciencia normal y ciencia revolucionaria

En las ciencias maduras, Kuhn distingue dos modos de “hacer ciencia” que, además, se suceden históricamente. Al primero lo llama normal pues es el modo usual en que opera la ciencia, la manera en que ésta se desarrolla la mayor parte del tiempo. Al segundo lo denomina no-normal o extraordinario y, a veces, revolucionario.

Los períodos de ciencia normal se caracterizan por el hecho de que la comunidad de científicos que trabaja en un determinado ámbito comparten ciertos presupuestos de muy diverso tipo (teóricos, experimentales, metodológicos y otros) que son los que les permiten ir haciendo ciencia. Estos elementos compartidos se encuentran, implícitamente unos, explícitamente otros, en los canales usuales de enseñanza y transmisión de una disciplina (principalmente los libros de texto) y el futuro científico los adquiere por regla general en su período de aprendizaje. En ciencia normal la tarea casi exclusiva consiste en lo que Kuhn llama trabajo de resolución de enigmas o rompecabezas. Esta tarea consiste, grosso modo, en ir ampliando y perfeccionando la aplicación del aparato teórico-conceptual a la experiencia, y a la vez y como consecuencia de ello, en ir ajustando y puliendo la base teórico-conceptual. Algunas de las tareas típicas de la investigación normal son la precisión de constantes ya conocidas, la determinación de otras nuevas, encontrar formas específicas de leyes generales y aplicar las ya disponibles a nuevos fenómenos. Para llevar a cabo este trabajo es esencial que el científico no cuestiones los supuestos compartidos, pues son precisamente ellos los que guían su investigación y les permiten abrigar esperanzas de éxito. La ciencia normal no discute sobre fundamentos ni “tiende hacia novedades fácticas o teóricas y, cuando tiene éxito, no descubre ninguna”.

Ahora bien, la ciencia normal es sólo un modo en que se desarrolla la empresa científica. La ciencia (madura) no discurre siempre de este modo. Un tipo importante de enigmas tiene que ver con la presencia de anomalías, experiencias que “no encajan” en el aparato teórico. Aunque a menudo se resuelven con éxito, a veces algunas anomalías (o, más raramente, algún otro tipo de enigma) se muestran recalcitrantes. Si ello ocurre con varias, o con alguna considerada especialmente importante, puede ocurrir que, tras cierto tiempo, algunos miembros de la comunidad desesperen de encontrar una solución, o que, aunque la encuentren, consideren excesivas las modificaciones normales a que obliga. Cuando este sentimiento se generaliza en la comunidad científica sobreviene una crisis: se comienzan a cuestionar los supuestos que guiaban la investigación, se pierde la confianza en ellos y se empieza a revisar y a discutir los fundamentos. En estos períodos de crisis se suceden propuestas alternativas hasta que en torno a alguna de ellas se comienza a organizar un nuevo cuerpo de supuestos desde los que mirar las viejas cosas de un modo nuevo y más prometedor. Con el tiempo, y si el trabajo basado en los nuevos supuestos permite abrigar esperanzas de éxito, reciben la confianza de los especialistas de la comunidad y acaban suplantando a los antiguos como guía para la investigación. Los viejos supuestos son desplazados por los nuevos consumándose lo que Kuhn llama una revolución científica, tras la cual se inicia un nuevo período de ciencia normal.

El paso de un período normal a otro no viene obligado por necesidad lógica. Se trata de un desplazamiento de confianza y, en ausencia de un nuevo programa, el antiguo puede mantenerse largo tiempo aunque haya entrado en crisis.

3.2.1.2 Paradigmas qua matrices disciplinares

Para Kuhn un paradigma es el conjunto de supuestos compartidos por una comunidad que guían su investigación normal. La ciencia normal es ciencia-basada-en-(un)-paradigma y la ciencia extraordinaria o revolucionaria es el paso de un paradigma a otro. En esta última, al igual que en la fase inmadura o preparadigmática de una disciplina, se trabaja (sin el dominio de un) paradigma, hay una proliferación de hipótesis diferentes. Las disciplinas maduras, aquellas en que ha surgido ya un primer paradigma, se desarrollan de paradigma en paradigma a través de revoluciones. Sin embargo, el término paradigma es enormemente ambiguo; por ello, en trabajos posteriores a La estructura de las revoluciones científicas, Kuhn intenta distinguir y precisar los diferentes sentidos con que introdujo el término paradigma en esta obra. Los diversos usos que de él hacía en su primera obra los reagrupa ahora en dos sentidos principales. El primero es global y comprende todos los compromisos compartidos por un grupo científico, la completa constelación de creencias, valores, técnicas y demás elementos compartidos por los miembros de una comunidad científica dada. El segundo denota un componente específico de lo anterior, un tipo especialmente importante de tales compromisos. Kuhn denomina en estos trabajos “matriz disciplinar” a lo primero y “ejemplar” a lo segundo.

Un paradigma qua matriz disciplinar es lo compartido por una comunidad científica, lo que guía en un momento dado su investigación normal.

3.2.2 Los programas de investigación de Lakatos

Lakatos parte de las observaciones de Popper sobre el conocimiento de fondo y la contrastación y las lleva a sus últimas consecuencias. Lo que se evalúa en la contrastación, dice, no es una teoría comparada con los hechos sino un conjunto de (mini)teorías, de diferente estatus metodológico, comparadas entre sí:

El conflicto no sucede “entre teorías y hechos”, sino entre dos teorías de nivel elevado; entre una teoría interpretativa que suministra los hechos, y una teoría explicativa que los explica […], no es de que nosotros propongamos una teoría y la Naturaleza pueda gritar NO; se trata, más bien, de que proponemos un conjunto de teorías y la Naturaleza puede gritar INCONSISTENTES” (Lakatos, I., “La falsación y la metodología de los programas de investigación científica”, en Lakatos, I., La metodología de los programas de investgigación científica, Madrid, Alianza, 1982, p. 62)

Este conflicto se intenta resolver modificando algunos elementos de la red y se genera así una sucesión de teorías-redes ligadas por “una notable continuidad”. Esta serie o sucesión de teoría es lo que Lakatos llama un “programa de investigación”.

Todos los programas tienen un núcleo que los vertebra y les confiere unidad. Este núcleo lleva asociada una heurística que determina dos tipos de reglas metodológicas: unas nos dicen qué senderos de investigación hemos de evitar, heurística negativa, y otras qué senderos hemos de seguir, heurística positiva. La heurística negativa prohibe, por decisión, aplicar la refutación al núcleo, para lo cual se debe articular un cinturón protector de hipótesis auxiliares o complementarias que sí se consideran modificables. La heurística positiva sugiere cómo modificar y desarrollar esta parte “refutable” del programa.

Todos los programas de investigación científica pueden ser caracterizados por su “núcleo firme”. La heurística negativa del programa impide que apliquemos el modus tollens a este “núcleo firme”. Por el contrario, debemos utilizar nuestra inteligencia para incorporar e incluso inventar hipótesis auxiliares que formen un cinturón protector en torno a ese centro, y contra ellas debemos dirigir el modus tollens. El cinturón de hipótesis auxiliares debe recibir los impactos de las contrastaciones y para defender al núcleo firme, será ajustado y reajustado e incluso completamente sustituido […] Este “núcleo” es “irrefutable” por decisión metodológica de sus defensores […] La heurística negativa especifica el núcleo firme del programa que es “irrefutable” por decisión metodológica de sus defensores; la heurística positiva consta de un conjunto, parcialmente estructurado, de sugerencias o pistas sobre cómo cambiar y desarrollar las “versiones refutables” del programa de investigación, sobre cómo modificar y complicar el cinturón protector “refutable” (ibid., pp. 66, 67 y 68-69)

El resultado de aplicar esta metodología constituye la evolución de una teoría científica; en términos de Lakatos, se trata de una sucesión de diferentes versiones del mismo programa, esto es, en torno a un mismo núcleo. Un programa es progresivo si predice hechos que se constatan después, y es, o está, estancado si sólo “postdice”, esto es, si sólo ofrece explicaciones ad hoc de hechos (para él) inesperados. Esto exige dos cualificaciones. En primer lugar, el juicio requiere cierta perspectiva histórica, esto es, a los programas incipientes es racional “concederles cierto tiempo”. Por otro lado, e incluso garantizada la perspectiva histórica, las cosas no siempre están tan claras, los casos mencionados son más bien idealizaciones y hay numerosos casos intermedios. Esta tipología idealizada de programas no debe tomarse como un criterio cuasiformal de sustitución: nada obliga, y por supuesto la lógica más “los hechos” tampoco, a abandonar un programa estancado, aunque sólo sea porque siempre es posible su “resurrección”, esto es, de todo programa estancado siempre es en principio posible que se convierta de nuevo en uno progresivo.

3.2.3 Las tradiciones de investigación de Laudan

Laudan comienza distinguiendo dos sentidos del término “teoría científica”, dos tipos de “redes proposicionales”. En primer lugar, el término puede denotar un conjunto relativamente específico de doctrinas, leyes, hipótesis o principios relacionados, que se usan para hacer predicciones experimentales y ofrecer explicaciones de fenómenos naturales. Ejemplos de ello son la teoría newtoniana de la luz, el electromagnetismo de Maxwell, la teoría atómica de Bohr. Además, el término se usa también para referirse a conjuntos de doctrinas o supuestos “mucho más generales y muchos menos fácilmente corroborables empíricamente”. Ejemplos de ello son la teoría de la evolución, la teoría atómica o la teoría cinética de los gases. Las teorías en este segundo sentido consisten, al menos, en familias enteras de teorías en el primer sentido vinculadas por principios metodológicos u ontológicos muy generales. De estas teorías generales, en el segundo sentido del término, es de lo que pretende dar cuenta su noción de tradición de investigación. Los principales elementos que caracterizan a estas tradiciones de investigación son:

· Supuestos compartidos. Las tradiciones constan de dos tipos de supuestos generales, que individualizan una tradición dada y la distingue de otras:</

i. Compromisos metafísicos. Conjunto de creencias acerca de qué tipo de entidades y procesos constituyen el dominio de investigación

ii. Normas epistémicas y metodológicas. Normas acerca de cómo tiene que investigarse el dominio, cuál es el conocimiento de fondo intocable, cómo han de someterse a prueba las hipótesis, cómo han de recogerse los datos, cómo han de evaluarse la solución a los problemas, etc.
Conjuntamente, los compromisos metafísicos y las normas epistémicas y metodológicas proporcionan a la tradición una heurística, orientaciones para la investigación, y una axiología, normas de evaluación.

· Articulación teórica. Las tradiciones poseen un cierto número de teorías específicas asociadas que las ejemplifican y las constituyen parcialmente. Son los elementos empíricamente contrastables de la tradición, el “lugar” donde se contrasta la tradición con la experiencia.

· Resolución de problemas. La finalidad de las tradiciones, con relación a la cual se evalúan globalmente, es la resolución de problemas. Los problemas son de dos tipos:

i. Problemas empíricos. Derivados de la aplicación de las teorías específicas al dominio empírico de investigación. Estos problemas pueden ser (estar): resueltos, los casos de aplicación al dominio empírico exitosos según los estándares de la tradición; potenciales, los casos de aplicación que la tradición considera que deben resolverse, pero todavía no resueltos por la tradición en cuestión ni por ninguna otra; anómalos, los casos de aplicación que la tradición considera que deben resolverse, que ella todavía no ha resuelto y que han sido resueltos en otra tradición alternativa.

ii. Problemas conceptuales. Relativos a la estructuración conceptual de alguna teoría específica. Se dan en los siguientes casos: cuando la teoría es inconsistente; cuando contiene supuestos inaceptablemente ambiguos; cuando algunas de sus hipótesis contravienen otras teorías específicas, o los supuestos metafísicos predominantes; cuando sus afirmaciones no proceden según las doctrinas metodológicas y epistemológicas; cuando no acierta a integrar conceptos y principios de teorías más generales a las que está subordinada.

Desarrollo histórico. Las tradiciones discurren en el tiempo a través de un cierto número de formulaciones. Estas formulaciones son la respuesta en un momento específico a la evaluación negativa sobre la solución dada a alguno o varios de los problemas. El modo más usual en que cambia una tradición es modificando sus teorías específicas, pero ocasionalmente puede cambiar alguno de sus elementos nucleares más básicos.

· Coexistencia. Las tradiciones no son “dominantes”, no se imponen por períodos. En cierto momento dado, en contra de lo que sugiere Kuhn, la coexistencia de tradiciones de investigación rivales es la regla, y no la excepción.

3.3 La concepción estructuralista de las teorías

Una teoría tiene, una parte formal y otra aplicativa. Pero ambas partes se articulan a su vez, en diversos niveles de especificidad. Esta idea de los diversos niveles de especificidad se expresa mediante la noción de red teórica, que describe en toda su riqueza la estructura sincrónica de las teorías, su imagen “congelada” en un momento dado de su evolución. Las redes están formadas por diversos elementos estratificados según su especificidad. Cada uno de estos elementos tiene una parte formal y otra aplicativa. La parte formal global de la teoría-red queda expresada por el conjunto de las partes formales de los elementos constituyentes; su parte aplicativa global por el conjunto de las partes aplicativas de sus constituyentes. A estos elementos constituyentes se les denomina elementos teóricos. La parte formal de los elementos teóricos se denomina núcleo y su parte aplicativa, dominio de aplicaciones pretendidas (o intencionales).

3.3.1 El núcleo K

El núcleo expresa la parte formal de la teoría, las tradicionales leyes. Las leyes no se expresan en términos lingüísticos sino modelísticos, entendiendo los modelos como estructuras conjuntistas definidas mediante la introducción de cierto predicado. El núcleo K contiene entonces una serie de modelos, las estructuras que satisfacen los axiomas del predicado. Sin embargo, para el estructuralismo no es adecuado identificar el núcleo con un único conjunto de modelos. Es conveniente que la expresión modelística de la parte formal de la teoría recoja y haga explícitos los diversos elementos distintivos.

3.3.1.1 Modelos potenciales y modelos actuales

Se denominan modelos potenciales (de la teoría en cuestión), Mp, a las estructuras que satisfacen los axiomas impropios o tipificaciones, y modelos actuales (de la teoría en cuestión), M, a las estructuras que satisfacen, además, los axiomas propios que expresan constricciones no meramente lógicas. Los modelos potenciales son potenciales porque pueden ser modelos efectivos de la teoría, porque son las entidades de las que tiene sentido preguntarse si satisfacen o no las leyes propiamente dichas. Aquellos modelos potenciales que, además de las tipificaciones, satisfacen las leyes propiamente dichas son los modelos actuales o efectivos. Es inmediato, por tanto, que M Í Mp.

3.3.1.2 Condiciones de ligadura

Las leyes usuales no son las únicas que imponen condiciones adicionales efectivas a los modelos potenciales. Por ejemplo, según la mecánica clásica no puede ser que una partícula p tenga una masa en un modelo x y otra masa diferente en otro modelo y. La teoría tampoco permite que si un modelo x contiene una partícula p1, que es la combinación de dos partículas p2 y p3, haya modelos que asignen a p2 y p3 masas cuya suma no coincida con a asignada a p1 en x. La primera condición expresa simplemente que la masa de una partícula es constante, y la segunda que la masa es aditiva, esto es, la masa de un compuesto es la suma de las masas de sus componentes. Este tipo de condiciones intermodélicas son las que permiten “transportar la información” de unos modelos a otros.

No hay manera de expresar este tipo de constricciones mediante los axiomas usuales, pues éstos se aplican a modelos sueltos. La condición que define la ligadura de identidad para la masa es la siguiente: “para toda partícula p, y modelos potenciales x, y (que tengan a p en su dominio): mx(p) = my(p)”. Esta condición no es satisfecha o insatisfecha por modelos potenciales sueltos sino por grupos de ellos: si un conjunto tiene dos modelos con una partícula común a ambos dominios y en cada uno la función m asigna a esa partícula valores diferentes, no satisface la condición; si todos los modelos del conjunto asignan a las partículas comunes de sus dominios la misma masa, sí las satisface. El efecto que tiene esta condición, por tanto, no es determinar un conjunto de modelos, sino un conjunto de conjunto de modelos; esto es, agrupa los modelos en grupos, grupos tales que, en cada uno, sus modelos asignan a una misma partícula una misma masa; cada grupo se caracteriza porque en él los modelos asignan a cada partícula determinada masa. Una condición que es satisfecha o no por modelos sueltos define un conjunto de modelos, el conjunto de los modelos que la satisfacen. Una condición que es satisfecha o no por un conjunto de modelos, define un conjunto de conjuntos de modelos, el conjunto de los conjuntos de modelos que la satisface.

Puede haber varias ligaduras en una misma teoría, y lo que interesa es tener identificado el efecto combinado de todas ellas. A este efecto combinado o suma de las ligaduras se la denomina ligadura global y se denota mediante “GC”. Puesto que cada ligadura es determinado subconjunto {{x1, y1, z1, …}, {x2, y2, …}, …} de Pot(Mp), la ligadura global se identifica con su interpretación conjuntista, pues los elementos de dicha intersección satisfarán a la vez todas las condiciones de la ligadura.

3.3.1.3 T-teoricidad y modelos parciales

El estructuralismo rechaza la distinción “teórico/observacional” por ambigua. Esta distinción esconde en realidad dos: “observable/inobservable” de un lado, y “no teórico/teórico” de otro. Ambas distinciones no coinciden intensionalmente ni extensionalmente. La primera distinción no tiene relevancia alguna para el análisis local de la estructura de las teorías. Para el análisis local de la estructura de las teorías la distinción relevante es la segunda, pero en este caso no se trata ya de una distinción absoluta, sino que está relativizada a las teorías. Un término, o un concepto, o una entidad, no es teórico o no teórico sin más, sino relativamente a una teoría dada. Por eso no se debe hablar de teoricidad cuanto de T-teoricidad, teoricidad relativamente a una teoría T. La idea es que un concepto es T-teórico si es un concepto propio de la teoría T, “introducido” por ella, y es T-no teórico si es un concepto disponible previamente a T. La cuestión es precisar esta intuición.

La formulación precisa del criterio de T-teoricidad usa de la noción técnica de procedimiento de determinación. Determinar un concepto es determinar si se aplica o no a un objeto particular dado, o si es cuantitativo, determinar el valor de la magnitud para el objeto. Los modos para proceder a ello son los procedimientos de determinación de los conceptos. Puedo determinar la distancia entre la Tierra y la Luna haciendo ciertos cálculos a partir del período de rotación y las masas correspondientes. Puedo determinarlo también mediante ciertos procedimientos óptico-geométricos. Pues bien, si un concepto es T-no teórico, si es “anterior” a T, entonces tendrá al menos algunos procedimientos de determinación independientes de T; en cambio, si es T-teórico, si es propio de T, su determinación depende siempre de T. Un procedimiento de determinación se considera dependiente de la teoría T si presupone la aplicabilidad de T, la validez de sus leyes, esto es, si usa o presupone modelos actuales de T. La idea es que un concepto es T-teórico si no se puede determinar sin presuponer la aplicabilidad de T, si todo procedimiento para su determinación la presupone; y es T-no teórico si tiene algún procedimiento de determinación T-independiente, si es posible determinarlo sin suponer la aplicación de la teoría, por más que también tenga otros T-dependientes.

La noción de T-teoricidad permite precisar el último componente del núcleo. Hemos visto que los modelos potenciales expresan el aparato conceptual de la teoría. Es conveniente ahora distinguir en el núcleo entre el aparato conceptual global de la teoría y el aparato conceptual específico de ella. Esto es, distinguir los modelos que usan todo el aparato conceptual de la teoría de aquellos que usan sólo conceptos previamente disponibles, en esa diferencia radica la contribución conceptual específica de la teoría. La determinación de esos modelos que no contienen el aparato específico de la teoría es sencilla una vez se dispone de la noción de T-teoricidad, pues tales modelos contienen como constituyentes exclusivamente las entidades correspondientes a los conceptos T-no teóricos; esto es, estos modelos se obtienen a partir de los modelos potenciales “recortando” de ellos las entidades T-teóricas. A estos modelos se les denomina modelos (potenciales) parciales, y se denota su conjunto mediante “Mpp”. Así, en general, se puede definir una función recorte r que genera los modelos parciales a partir de los potenciales. Si los modelos potenciales de T son estructuras del tipo x = <D1, …, Dk, …, R1, …, Rn, …, Rm> y Rn+1, …, Rm son T-teóricos, entonces r(x) = <D1, …, Dk, …, R1, …, Rn>. El conjunto Mpp de los modelos parciales es entonces simplemente el conjunto de los modelos potenciales una vez que hemos recortado de ellos las funciones T-teóricas: Mpp =def{y / $ x Î Mp : y = r(x)} o, abreviadamente, Mpp =def r[Mp], donde “r[…]” denota la función recorte aplicada a conjuntos de modelos.

3.3.2 Aplicaciones intencionales

El núcleo K es el componente formal de la teoría, pero no el único. En las concepciones semánticas, las teorías empíricas pretenden que las constricciones de K lo son de ciertas partes de la realidad física, los sistemas empíricos a los que se pretende aplicar el núcleo. Estos sistemas empíricos se denominan en el estructuralismo aplicaciones pretendidas o intencionales, y se denota su conjunto mediante “I”.

La caracterización estructuralista de los dominios de aplicaciones contiene los siguientes elementos. En primer lugar, las aplicaciones pretendidas de una teoría t se individualizan y describen mediante el vocabulario previo a T, esto es, mediante el aparato conceptual T-no teórico. Por tanto, las aplicaciones pretendidas que conforman la base empírica de la teoría, los “datos” de la teoría, ciertamente están cargados de teoría, pero no de la teoría para la que son datos sino de otra previa o antecedente. Formalmente, ello se traduce en que cada aplicación pretendida es un determinado sistema que contiene exclusivamente entidades T-no teóricas. Cada aplicación pretendida es entonces un determinado modelo parcial y el conjunto I de todas ellas es, por tanto, cierto subconjunto de Mpp: I Í Mpp.

El segundo hecho a destacar es que la selección de las aplicaciones, la determinación de I, contiene elementos pragmáticos ineliminables, pues tal determinación es esencialmente intencional y paradigmática. La determinación es intencional porque lo que hace de un sistema específico que sea una aplicación pretendida es que sea un objeto intencional de los usuarios de la teoría, que la comunidad científica pretenda que las constricciones-leyes se aplican a tal sistema. Y es paradigmática porque el conjunto I no se presenta “listando” todos y cada uno de los sistemas físicos que son aplicaciones pretendidas, sino “paradigmáticamente”.

3.3.3 Las teorías como elementos teóricos. Contenido y aserción empírica
3.3.3.1 Elementos teóricos

Un elemento teórico, una teoría en sentido mínimo, está constituido por (1) una parte formal que expresa los recursos conceptuales a diferentes niveles y las constricciones-leyes que según la teoría rigen su ámbito de estudio, y (2) una parte aplicativa que especifica en términos preteóricos los sistemas físicos a los que la teoría pretende aplicarse, de los que pretende que son regidos por sus constricciones-leyes. Un elemento teórico T se identifica entonces con el par formado por el núcleo K, la parte formal, y el dominio de aplicaciones I, la parte aplicativa: T = <K,I>.

3.3.3.2 Contenido teórico y contenido empírico

El núcleo K expresa la parte matemático-formal de la teoría. Es en ella donde se presentan las condiciones que, según la teoría, rigen las “partes de la realidad” de que ella trata. Estas condiciones consisten básicamente en las leyes propiamente dichas de un lado, y las condiciones de ligadura de otro, que en el núcleo se corresponden, respectivamente, con los conjuntos M y GC. Sin embargo, la teoría, al aplicarse, no pretende que estas condiciones rigen aisladamente o separadas, sino que las aplicaciones satisfacen todas las restricciones a la vez, tanto las leyes como las ligaduras. Es conveniente entonces “juntar” ambos tipos de restricciones, presentar su efecto restrictivo conjunto. Esto se expresa mediante la noción de contenido teórico, “Cont“. El contenido teórico, esto es, el efecto combinado de leyes y ligaduras, queda representado mediante la apropiada intersección conjuntista de los conjuntos M y GC. Como M es un conjunto {x1, x2, x3, …, x9, …, x15, …}de determinados modelos potenciales (M Í Mp) y GC es un conjunto {{x1, x2, x5, …}, {x4, x7, x9, …}, …, {…, x15, …}} de conjuntos de modelos potenciales (GC Í Pot(Mp)), la intersección apropiada correspondiente a la combinación de ambos tipos de condiciones no es la de GC con M, sino la de GC con Pot(M), esto es: Cont =def Pot(M) Ç GC. Es inmediato que Cont Í Pot(Mp), el contenido teórico de T, es un conjunto de conjuntos de modelos potenciales, el conjunto cuyos elementos son conjuntos tales que: (1) satisfacen las ligaduras; y (2) están formados por modelos que satisfacen las leyes de la teoría, los axiomas propios del predicado conjuntista.

La noción central para expresar la aserción empírica es la de contenido empírico, que se deriva de la de contenido teórico. El contenido empírico es el “contenido contrastacional”; en la versión tradicional, las consecuencias empíricas de la teoría. El contenido empírico recoge los (conjuntos de) modelos parciales que resultan de recortar los componentes T-teóricos de los modelos potenciales que satisfacen las restricciones. O de otro modo, los modelos parciales que es posible aumentar con componentes T-teóricos de forma que se cumplan las restricciones (y si las restricciones son efectivamente tales, no todo modelo parcial es aumentable de esta forma). Así, si denotamos mediante “Con” el conjunto que expresa el contenido empírico, dicho conjunto es el resultado de recortar los componentes T-teóricos en los modelos que aparecen en Cont, abreviadamente: Con = r[[Cont]] (r(…) se aplica a modelos sueltos, r[…] se aplica a conjuntos de modelos, r[[…]] es la función recorte aplicada a conjuntos de conjuntos de modelos, como Cont.

3.3.3.3 Aserción empírica

La teoría pretende que ciertos sistemas físico, T-no teóricamente descritos, satisfacen las condiciones impuestas por la teoría en el sentido siguiente: ésos son los datos de experiencia que se deberían obtener si la realidad operase como la teoría dice. Esta pretensión se expresa en la aserción empírica de la teoría. Por todo lo anterior debe ser claro que la forma lógica que corresponde a la aserción es “I Î Con”, esto es, el dominio de aplicaciones pretendidas I es uno de los conjuntos de modelos parciales, T-no teóricos, que las constricciones del núcleo K determinan a nivel empírico.

La aserción afirma que ciertos sistemas empíricos concretos, descritos T-no teóricamente, tienen el comportamiento que las restricciones legales determinan a nivel T-no teórico. Tomemos un sistema empírico que se comporta de cierto modo según ciertos parámetros T-no teóricos. Que la aserción sea cierta significa que ése es justamente el modo en que le corresponde comportarse si están presentes en él los parámetros T-teóricos que la teoría postula y éstos se relacionan con los T-no teóricos de la forma que establecen las leyes. Es decir, los sistemas de I son modelos parciales que pueden ampliarse con funciones T-teóricas de modo que se obtengan modelos que satisfacen aisladamente las leyes y conjuntamente las ligaduras. En este sentido, la aserción afirma que la experiencia es subsumible o encaja en la teoría.

Aunque la experiencia o los datos están “cargados de teoría”, eso no tiene consecuencias autojustificativas para la aserción. Se seleccionan intencionalmente ciertos sistemas físicos. Primero, se hacen ciertos cálculos suponiendo que en los sistemas está actuando todo lo que postula la teoría y del modo como ella establece. Segundo, e independientemente, se determinan en los sistemas los valores de ciertas magnitudes cuya medición no presupone la aplicación o validez de la teoría. Por último, se comprueba si esos valores coinciden con los calculados. No hay autojustificación en absoluto (al menos en sentido local). La aserción puede ser perfectamente falsa, lo es si los valores simplemente no coinciden.

3.3.4 Vínculos interteóricos y holones

Las teorías no son entidades aisladas, sino que mantienen estrechas relaciones entre sí. Algunas de esas relaciones se expresan mediante “leyes mixtas” o “leyes puente”, miente postulados que involucran conceptos de diversas teorías. Las teorías mantienen pues vínculos interteóricos. En principio los vínculos pueden relacionar varias teorías a la vez, pero lo usual parece ser que relacionen dos teorías.

Los vínculos interteóricos tienen, como las leyes propias de la teoría, efectos restrictivos sobre los modelos, pero a diferencia de ellas no son satisfechas o insatisfechas por modelos potenciales de una única teoría sino por pares (en el caso de los vínculos binarios) de modelos potenciales de teorías diferentes. Las leyes propias determinan un subconjunto de modelos potenciales, aquellos que las satisfacen (e.e. los modelos actuales). Los vínculos interteóricos no determinan directamente un subconjunto de modelos potenciales de una teoría. Si Mp y Mp’ son respectivamente los conjuntos de modelos potenciales de dos teorías T y T’, entonces el producto cartesiano Mp ´ Mp’ contiene todos los pares posibles de modelos de ambas. Pues bien, dado un determinado principio puente entre T y T’, sólo algunos de esos pares satisfarán dicho principio, por lo que se puede considerar que el principio en cuestión determina o define cierto subconjunto L de Mp ´ Mp’, el conjunto de pares de modelos que lo satisfacen. Por tanto, los principios puente determinan primariamente conjuntos de pares de modelos.

4. Modelos

Se puede llamar teorías a las leyes de nivel superior, que sólo se pueden someter a contrastación en forma indirecta, valiéndose de las consecuencias de las leyes de nivel inferior que se deduzcan de ellas, lo cual indicaría que están menos atadas por un vínculo directo a la observación y la experimentación.

Leyes y teorías son de igual género y forma, aunque difieren en cuanto a generalidad, abstracción o grado de confirmación.

Las teorías se ocupan de los modelos, y por ello son distintas de las leyes, ya que cada teoría afirma explícitamente que existe algo de tal o cual tipo, cuyas operaciones y relaciones se describen mediante unas leyes. En este sentido, toda teoría explica estas últimas, al pintarlas como descripciones del comportamiento de ciertas entidades caracterizadas por ella misma o de las relaciones que existan entre tales entidades.

Un modelo de una teoría puede definirse como una realización posible en la cual se satisfacen todos los enunciados válidos de la teoría, y una realización posible de una teoría es una entidad con la estructura conjuntista apropiada. Por ejemplo, podemos caracterizar una realización posible de la teoría matemática de grupos como una par ordenado cuyo primer miembro es un conjunto no vacío y cuyo segundo miembro es una operación binaria sobre ese conjunto. Una realización posible de la teoría de grupos es un modelo de la teoría si los axiomas de la teoría son satisfechos en la realización, ya que en este caso los enunciados válidos de la teoría son definidos como aquellos enunciados que son consecuencias lógicas de los axiomas.

Cabe distinguir hasta cinco sentidos diferentes en el uso del concepto “modelo” en relación con las teorías:

1. Modelos lógicos. Son las interpretaciones semánticas de un sistema de axiomas (por ejemplo, del cálculo de una teoría) tales que los axiomas son verdaderos para dichas interpretaciones. Los modelos no tienen por qué ser entidades lingüísticas, pero sí han de ser isomorfos en su estructura lógica a la de la teoría.

2. Modelos matemáticos. Son representaciones aritméticas de una teoría empírica; es decir, un conjunto de proposiciones matemáticas que tienen la misma forma que las leyes de la teoría. También hay isomorfismo estructural.

3. Modelos analógicos. Son representaciones físicas tridimensionales de un objeto o de un sistema, como por ejemplo un planetario, o los modelos mecánicos del éter de Kelvin, o en general los gráficos. También hay isomorfismo.

4. Modelos teóricos. Conjunto de asunciones sobre un objeto que permiten atribuirle una estructura interna, como por ejemplo el modelo atómico de Bohr, o el modelo de la mesa de billar para la teoría cinética de los gases. Suelen identificarse con la teoría, recibiendo una interpretación realista.

5. Modelos imaginarios. Conjunto de asunciones sobre un objeto que muestran lo que debería ser si satisficiese determinadas condiciones que, de hecho, no satisface. Ejemplos: el modelo de Poincaré para una geometría de Lobatchevski, o el modelo de campo magnético propuesto por Maxwell. Estudian los objetos y los sistemas como si fuesen conforme al modelo y desempeñan una importante función heurística.</

En el modelo deductivo (lógico) las teorías son leyes de nivel superior, y los términos que aparecen en ellas son teoréticos, pero estos son reductibles a términos empíricos cuando se reducen las teorías a sus consecuencias empíricas que son las que contienen los términos de observación directos o términos básicos merced a los cuales, por indirectamente que sea, la teoría hace referencia a la experiencia, o a la experimentación.

Las leyes científicas pueden interpretarse mediante dos modelos distintos posibles (realista y fenomenista), pero de esto hecho surgen dos conclusiones: 1) que la ley, en sí misma, no determina un modelo único, sino que la interpretación de los términos y las relaciones que aparezcan en ella dentro de uno u otro marco conceptual constituye el modelo del dominio, cuyas propiedades y relaciones se describan por la ley; y 2) que las leyes, en sí mismas, no son la totalidad de lo que entendemos por explicación, ya que la función de los modelos es darnos cierta comprensión de aquello de lo que se ocupan las leyes, y de porqué funciona del modo que lo hace.

Los modelos no son simplemente imágenes literales ni juguetes mecánicos que nos ayuden a palpar el sentido de las descripciones legaliformes, sino que pueden ser sumamente abstractos e involucrar relaciones no representables en una imagen: en este sentido, un modelo puede ser una “imagen” teorética, no simplemente mecánica. Lo que los distingue netamente de las leyes es que éstas, en sí mismas, sólo sirven como marco para efectuar interpretaciones, sin conllevar su propia interpretación.

Los modelos poseen la característica de que se gastan y de que podemos adoptarlos cuando los necesitemos y tirarlos por la borda cuando dejen de explicar.

4.1 Los cuatro modelos de explicación científica según Nagel

4.1.1 El modelo nomológico-deductivo de explicación

Este modelo es un modelo formal que intenta estudiar las relaciones entre enunciados dentro de la estructura que se considera como característica de las explicaciones científicas. La teoría formal de tal modelo es un sistema lógico de inferencia deductiva que consiste en obtener, mediante una regla de inferencia, un enunciado particular a partir de una premisa mayor y otra menor, de las cuales la primera contiene un enunciado universal y la segunda uno particular. La regla de inferencia que se emplea en este modelo es el modus ponendo ponens, que presenta la forma

(1) P ® Q

(2) P

—————-

(3) Q

La interpretación que se da a esta regla es: (1) es un enunciado condicional universal; (2) es la afirmación de que las condiciones expresadas en el antecedente se dan en la realidad; (3) es la consecuencia deductiva de que si hay casos particulares del antecedente que son ciertos, habrá casos particulares del consecuente que también lo son.

Esta regla ejemplifica el tipo de regla que constituye la norma en las explicaciones científicas, se considera de hecho que una hipótesis fáctica se confirma en un caso particular si, al cumplirse las condiciones del antecedente, se observa la consecuencia prevista.

Según esto, explicar consiste en demostrar que un enunciado acerca de un suceso singular puede presentarse como consecuencia deductiva de una ley y unas condiciones universales. Este modelo recibe por ello el nombre de nomológico.

Este modelo exige que se disponga de un enunciado universal como premisa y de unos enunciados singulares verdaderos o presuntamente verdaderos; en él la predicción y la explicación son simétricas: cuando se sabe que (3) es cierto, se aducen (1) y (2) para explicitarlo, y cuando se afirman (1) y (2), (3) puede servir de predicción. La dificultad aquí estriba en afirmar (1), pues si es un enunciado universal, no podrá saberse si es cierto, sino sólo que constituye objeto de creencia justificada o racional; al ser (1) una ley científica, será hipotética, es decir, falible o posiblemente falsa; mas, siendo (1) falso, puede conducir con todo a una inferencia válida, pues el criterio para determinar si una inferencia es válida es que las premisas verdaderas no pueden dar una conclusión falsa, mientras que las falsas pueden conducir a verdades mediante tal inferencia.

El modelo deductivo sirve para generar predicciones que puedan falsas la hipótesis, porque si (3), que es una predicción deducida del explicador resultase falsa, el explicador no podría ser cierto; la regla de inferencia indica que las verdades no pueden dar falsedades mediante una inferencia válida.

A partir de aquí Popper concluye que las leyes de la ciencia no pueden confirmarse mediante casos singulares positivos, sino sólo falsarse mediante casos negativos; y la utilidad de las hipótesis en forma de generalizaciones legaliformes estribaría en que generan enunciados falsables acerca de casos singulares que serían los únicos que permitirían contrastar tales generalizaciones mediante el hecho de su falsabilidad. Popper sostiene que una hipótesis se corrobora en el grado en que tales contrastaciones sean severas, y en el mejor de los casos podrá decirse que tal hipótesis corroborada ha soportado hasta ahora las pruebas sin que haya habido que descartarla, pero las pruebas no confirman su verdad. Popper no indica que un caso de falsación pueda falsar una hipótesis: lo que se precisa es una hipótesis falsadora que pueda a su vez comprobarse y sea, por tanto, falsable.

Según Hempel, para que una explicación científica sea adecuada, el explicador ha de poseer contenido empírico, es decir, no ha de ser considerado como verdadero a priori o analítico. En el explicador pueden existir elementos a priori, pero tiene que haber algunos elementos que posean contenido empírico o descriptivo y sean, por tanto, leyes empíricas, y en el mejor de los casos, una ley de este tipo se encontrará ampliamente confirmada.

Según el modelo deductivo, una ley quedaría explicada cuando pudiera demostrarse que es la consecuencia deductiva de otros enunciados universales, enunciados que constituirían el explicador de la ley, que, a su vez, sería lo explicado. De acuerdo con esta interpretación, el poder explicativo del sistema científico reside en las relaciones deductivas o formales que puedan establecerse entre las diversas leyes, y lo que entonces tenemos es una red de leyes, de mayor a menor generalidad, todas ellas ligadas entre sí mediante pautas de inferencia deductiva. De este modo, a partir de leyes de gran generalidad podría llegarse, como consecuencia suya, a leyes de menor generalidad, que a su vez podrían relacionarse en último extremo con leyes de las que fuera posible deducir enunciados singulares referentes a sucesos particulares.

4.1.1.1 Forma general de la explicación mediante cobertura legal inferencial

Una explicación constituye una respuesta o solución a cierta situación de perplejidad. Lo que reclama explicación son hechos que en algún sentido nos causan perplejidad o sorpresa, por ello preguntamos el porqué de los mismos; nos preguntamos por la explicación de cosas en cierto sentido inesperadas. Por supuesto que podemos buscar explicación de hechos perfectamente cotidianos que en ese sentido no son inesperados sino todo lo contrario. Por ejemplo, queremos explicar por qué el Sol aparece todos los días en el horizonte. En un sentido, este hecho no es inesperado, no nos causa sorpresa; más bien lo sorprendente sería que el Sol no apareciera una mañana en el horizonte. Pero hay otro sentido en el que sí es “sorprendente” o “inesperado”, a saber, mientras no tenemos explicación del mismo, sabemos que pasa y creemos que seguirá pasando, pero no tenemos motivo para justificar nuestra creencia.

Esta es la idea que inspira el análisis de Hempel. Si una explicación es una respuesta a una situación de este tipo, entonces la explicación de cierto hecho, “inesperado”, consiste en mostrar que se dan otros hechos que hacen esperable la ocurrencia del primero. La intuición que quiere recoger Hempel es que en una explicación el explanans hace esperable el explanandum. Para hacer precisa esta intuición se debe especificar el sentido exacto en que el explanans hace esperable el explanandum y el candidato más inmediato para la relación de “esperabilidad” es la relación de inferencia lógica: ciertos estados de cosas hacen esperable otro si el segundo “está contenido” en los primeros considerados conjuntamente. Explicar el segundo consiste en mostrar que efectivamente está contenido en los primeros. Así, el explanans hace esperable el explanandum en el sentido preciso de que del explanans se infiere el explanandum. Las explicaciones son argumentos en los que se infiere el hecho a explicar de los otros hechos que lo explican.

Hempel añade una condición general para poder considerar un argumento como explicación. No toda inferencia constituye una explicación. La condición adicional es que en el explanans intervenga al menos un hecho general de cierto tipo. La esperabilidad del explanandum dado el explanans no es por tanto mera inferencia, sino inferencia de cierto tipo: el explanans debe incluir al menos un hecho general. Pero, además, tampoco vale cualquier hecho general, los hechos generales relevantes para las explicaciones han de ser de cierto tipo. Los hechos generales que incluye el explanans no pueden ser cualquier regularidad, han de ser regularidades nómicas, leyes naturales.

La condición adicional que exige Hempel para que una inferencia constituya una explicación es que el explanans contenga al menos un enunciado general que sea una ley. La exigencia es que el explanans contenga esencialmente al menos una ley, esto es, la ley ha de ser necesaria para la inferencia, el explanandum no se puede seguir del resto de las premisas solas. La idea central es que la esperabilidad siempre ha de ser nómica. Las regularidades meramente accidentales no hacen esperable nada pues son justamente eso, accidentales. Por esto toda regularidad que intervenga esencialmente en el explanans ha de ser nómica; si en la inferencia interviene esencialmente una regularidad accidental, eso “contamina” de accidentalidad toda la inferencia y la deslegitima como explicación. Explicatividad y accidentalidad son conceptos excluyentes. Estamos dispuestos a considerar una inferencia como explicativa, esto es, como “haciendo al explanandum esperable”, en la medida en que consideremos que las generalidades que intervienen son nómicas. El patrón general del análisis de Hempel es el siguiente:

1. El explanans contiene esencialmente al menos una ley, y todos los hechos generales que contenga esencialmente deben ser leyes.

2. Si el explanandum es un hecho particular, el explanans contiene también esencialmente al menos un hecho particular. Los hechos particulares que contiene el explanans son las condiciones antecedentes.

3. La relación de explicación es una relación de inferencia lógica, el explanandum se infiere del explanans.

Las condiciones (1) – (3) caracterizan sólo lo que es una explicación potencial o posible. En las explicaciones correctas ha de ocurrir, además, que el explanandum sea verdadero, que lo que explicamos sea algo que efectivamente ocurre. Eso hace a la explicación real, esto es, que no sea un mero ejercicio conceptual. Pero para que, además de ser real, sea fácticamente correcta es preciso algo más, a saber, que el explanans sea también verdadero. Para tener una explicación correcta, el hecho que ocurre y que queremos explicar debe explicarse mediante hechos que también ocurren.

Las diversas combinaciones posibles dan lugar a cuatro tipos de explicación: el nomológico deductivo particular, el nomológico deductivo general, el deductivo estadístico y el inductivo estadístico.

4.1.1.2 Explicación nomológica deductiva particular (NDP)

Se caracteriza por satisfacer, además de (1)-(3), estas tres condiciones adicionales:

4. El explanandum es un hecho particular

5. Las leyes del explanans son estrictamente generales, e.e. no son estadístico-probabilistas. Por (2) y (4), el explanans incluye también como condiciones antecedentes determinados hechos particulares, las condiciones antecedentes.

6. La relación de explicación es la de inferencia lógica deductiva

Se puede esquematizar este tipo de explicación del siguiente modo:

NDP

L1, …, Ln
c1, …, cm
————–
e

Las leyes no probabilistas Li y las condiciones antecedentes cj constituyen conjuntamente el explanans; el explanandum e se deduce lógicamente de estas leyes y de esas condiciones antecedentes.

El esquema NDP es, según Hempel, aquel al que se ajustan todas las explicaciones de hechos particulares mediante teorías no estadístico-probabilistas.

En este esquema se da una simetría entre explicación y predicción. Según Hempel, la explicación de hechos particulares y la predicción tienen la misma estructura lógica, la única diferencia entre ambas es pragmática y tiene que ver con la relación temporal entre la ocurrencia del hecho particular y la construcción del argumento:

En un caso, se sabe que ya se ha producido el suceso descrito en la conclusión, y se buscan enunciados adecuados que expresen leyes generales y hechos particulares para explicarlo; en el otro, se dispone ya de estos enunciados y de ellos se deduce el correspondiente al suceso en cuestión antes del momento de su presunta aparición. [… Ésta es] la tesis de la identidad estructural (o simetría) de la explicación y de la predicción (Hempel, Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, Free Press, Nueva York, 1965, § 2.4)

Este esquema se encuentra con seis grandes tipos de objeciones:

1. Generalizaciones “esenciales” inesenciales. Tal como se ha expresado, NDP tiene una consecuencia claramente indeseable: se puede explicar cualquier hecho particular mediante una ley completamente independiente del hecho, esto es, una ley sin relación alguna con las entidades involucradas en el hecho. Por ejemplo, sea el explanandum Pa y una ley cualquiera “x(Ax ® Bx) en la que no intervienen ni el individuo a ni la propiedad P. El siguiente argumento satisface NDP:

“x(Ax ® Bx)
(Ac ® Bc) ® Pa
————————
Pa

Es deductivamente válido, la ley ocurre esencialmente, etc. No sólo eso, sino que también es materialmente adecuado, pues si el explanandum es verdadero también lo es la segunda premisa. Pero es obvio que no se puede considerar una explicación de que a es P, pues la ley no tiene nada que ver con esas entidades.

2. Precedencia temporal de las condiciones antecedentes. Explicamos la no ocurrencia de un eclipse de Luna deduciéndolo de leyes mecánicas celestes y de determinadas posiciones del Sol, la Luna y la Tierra antes del eclipse. Pero el eclipse se deduce igualmente de las mismas leyes y de posiciones de esos cuerpos después del eclipse, y no consideraríamos que eso constituiría una buena explicación. Para que la inferencia sea explicativa parece que las condiciones antecedentes han de ser anteriores en el tiempo al hecho a explicar.

3. Simetría. Hay pares simétricos de argumentos en los que lo que en uno hace de conclusión en otro hace de premisa, y viceversa, y ambos satisfacen NDP, pero sólo uno, y no el otro, se puede considerar explicativo. Así, explicamos la longitud de la sombra de un mástil en un momento dado deduciéndola de la óptica física y de la posición del Sol y la altura del mástil. Pero también podemos proceder a la inversa en la deducción, inferir la altura del mástil de esas leyes, la posición del Sol y la longitud de la sombra, y no parece que en ese caso estemos dando una explicación de la altura del mástil.

4. Efectos de causa común. Es una regularidad no accidental, nómica, que poco tiempo después de que un barómetro registre una caída extremadamente brusca, se sucede una tormenta en las proximidades. Podemos entonces inferir la tormenta de la brusca caída del barómetro, junto con esa regularidad, pero ello no se puede considerar una explicación de la ocurrencia de la tormenta. Esta regularidad correlaciona dos efectos diferentes de una causa común, a saber, el brusco descenso de la presión atmosférica. Lo que proporciona la explicación de cierta tormenta particular es cierto descenso particular de la presión, no la bajada del barómetro. Este tipo de casos se suelen presentar además como contraejemplos a la tesis de Hempel sobre la simetría entre explicación y predicción; podemos predecir la tormenta mediante el barómetro, pero se trata de predicción sin explicación.

5. Irrelevancia. Supongamos que embrujamos terrones de azúcar profiriendo ciertas palabras mágicas en su presencia. Es un hecho general que los terrones embrujados se disuelven cuando se sumergen en agua, por tanto podemos inferir la disolución de cierto terrón embrujado particular a partir de su inmersión en agua y de ese hecho general. Pero esta inferencia no explica la disolución del terrón. En estos casos la inferencia no es explicativa pues parte de las condiciones antecedentes, y con ello “parte” del hecho general, son intuitivamente irrelevantes para la ocurrencia del explanandum. Sin embargo, satisfacen plenamente NDP. Estos hechos son regularidades nómicas, no es en absoluto accidental que los terrones embrujados se disuelvan. Lo que de raro tienen estas “leyes” es que son en cierto sentido simplificables, alguna propiedad contenida en el antecedente es innecesaria, irrelevante a efectos explicativos, pues el resultado de “suprimirla” es un hecho general que también es una ley. También estos casos son un contraejemplo a la identidad entre explicación y predicción, tenemos predicción pero no explicación.

6. Explicaciones teleológicas y funcionales. Las explicaciones teleológicas y funcionales parece que son explicaciones genuinas y que (en la medida en que explican hechos particulares) no satisfacen NDP. No lo satisfacen pues, aparentemente al menos, no se infiere el explanandum del explanans, sino que (parte de) el explanans se infiere del explanandum (y del resto del explanans). Explicamos el latido del corazón por su función en la circulación de la sangre. En esto casos parece que, si es que se pueden considerar inferencias, no sucede que el hecho explicado se infiere de las condiciones antecedentes, sino más bien lo contrario. Explicamos un hecho mediante otro que es su función o finalidad, pero parece que es éste el que se sigue de aquél y no al revés.

4.1.1.3 Explicación nomológica deductiva general (NDG)

A veces aquello de lo que se da explicación no es un hecho particular sino uno general. Explicamos determinadas leyes derivándolas de otras más generales. Cuando la ley explicada es una generalización estricta, no estadístico-probabilista, Hempel denomina también estas explicaciones nomológico-deductivas. Aunque Hempel utiliza la misma denominación para ambas, hay que diferenciar estas explicaciones de las anteriores; las diferencias entre ellas se derivan del hecho de que en aquéllas el explanandum es particular y en éstas general (no probabilista). Es inmediato constatar entonces que las explicaciones nomológico-deductivas generales se caracterizan, además de por (1)-(3), por las siguientes condiciones adicionales:

7. El explanandum es un echo general nómico, una ley, no estadístico-probabilista

8. El explanans contiene esencialmente sólo leyes no estadístico-probabilistas. Ninguna de las leyes del explanans es el explanandum mismo

9. La relación de explicación es la de inferencia lógica deductiva.

Este tipo de explicación se puede esquematizar del siguiente modo:

NDG

L1, …, Lm
—————
E

E es la ley (no probabilista) que se deriva de las leyes explicativas. (7) excluye la posibilidad de explicar hechos generales que no sean leyes. ¿No pueden explicarse regularidades accidentales? No, pues por ser accidentales no son “esperables”, esto es, explicables. Si se aceptaran como explanandum regularidades accidentales entonces podrían aceptarse también en el explanans; por tanto, en la medida en que haya buenas razones para exigir que todos los hechos generales que intervienen esencialmente en el explanans de una explicación sean regularidades nómicas, en esa misma medida se excluyen como explanandum hechos generales accidentales.

El principal problema para un análisis satisfactorio de las explicaciones NDG es el de ofrecer una noción precisa y adecuada de inclusividad que excluya los casos de autoexplicación. En efecto, en (8) se exige, además del carácter nómico del explanans, que el explanandum mismo no sea una de las leyes del explanans. De otro modo contarían como explicaciones inferencias de una ley a partir de sí misma, lo que evidentemente es inaceptable; por supuesto que es una inferencia válida deducir cierta ley L de ella misma, pero eso no es una explicación de la ley. En efecto, si el explanans contiene una ley que es la conjunción del explanandum con cualquier otra, se da también el tipo de autoderivación que no se puede considerar inferencia explicativa; por ejemplo, de la ley K Ù B que es la conjunción de las leyes de Kepler, K, con la de Boyle, B, se infiere deductivamente K, pero ello no explica las leyes de Kepler.

4.1.1.4 Explicación deductivo estadística (DE)

En la explicación NDG el explanandum es una ley que es una regularidad estrictamente general, en el sentido de no ser una ley estadístico-probabilista. Cuando el explanandum es una regularidad nómica, pero no estrictamente general sino una ley estadística, tenemos una explicación que Hempel denomina explicación deductivo estadística. Estas explicaciones se caracterizan porque en ellas se deduce una ley estadística a partir de une explanans que contiene indispensablemente al menos una ley también estadística, realizándose la deducción mediante la teoría de la probabilidad. Ello hay que entenderlo en el sentido de que en la deducción, y por tanto en la explicación, se usan como premisas ocultas adicionales determinados principios del cálculo de probabilidades. Hay que considerarlos incluidos en el explanans, pues (salvo que se considere, implausiblemente, que son parte del cálculo deductivo) de lo contrario no se puede completar la deducción y la inferencia sería deductivamente inválida.

Esto muestra que a veces el explanans puede incluir (quizá elípticamente) leyes matemáticas. Pero algunas de esas leyes no pueden ser calificadas de regularidades nómicas, pues se estaría incumpliendo la condición de que todos los hechos generales que intervienen esencialmente en el explanans sean regularidades nómicas. Hay que matizar pues esa exigencia y limitarla a los hechos empíricos. La condición es pues que todo hecho general empírico que intervenga esencialmente en el explanans debe ser nómico. La idea es que el explanans no puede contener esencialmente ninguna regularidad empírica accidental, pues ella contaminaría de accidentalidad el resto y arruinaría su pretendido carácter explicativo.

De lo dicho se desprende que las explicaciones deductivo-estadísticas se caracterizan por satisfacer, además de (1)-(3), las siguientes condiciones adicionales:

10. El explanandum es una ley estadística.

11. El explanans contiene esencialmente sólo hechos generales. Estas regularidades (cuando no sean puramente matemáticas) son todas nómicas, y al menos una de ellas es una ley estadística (diferente del explanandum mismo).

12. La relación de explicación es la de inferencia lógica deductiva.

Podemos esquematizar este tipo de explicación del siguiente modo:

DE

L1, …, Ln
P1, …, Pk
—————
E

4.1.1.5 Explicación inductivo estadística (IE)

En la explicación NDP explicamos un hecho particular subsumiéndolo bajo ciertas leyes, donde por subsunción se entiende la derivación deductiva del hecho a partir de las leyes y de determinadas condiciones antecedentes. En ese sentido la ocurrencia del hecho particular se muestra (nómicamente), o se hubiera podido predecir (si ya se ha producido), a partir del explanans. Ésta es la razón de la identificación entre explicación y predicción. En las explicaciones NDP la esperabilidad es total, pero el núcleo de esta idea, la explicación de hechos particulares como esperabilidad nómica, se puede aplicar también según Hempel a casos en los que la esperabilidad no es total.

Hempel denomina inductivo-estadística este tipo de explicación. Las explicaciones de hechos particulares IE son, como las NDP, argumentos o inferencias mediante cobertura legal, sólo que ahora la inferencia es inductiva, y entre las leyes del explanans hay al menos una probabilista. Las condiciones adicionales a (1)-(3) que las caracterizan son las siguientes:

13. El explanandum es un hecho particular

14. El explanans contiene esencialmente al menos una ley estadística, y todas las regularidades (empíricas) que contiene esencialmente son leyes. Por (2) y (13), el explanans incluye también como condiciones antecedentes determinados hechos particulares, las condiciones antecedentes

15. La relación de explicación es la de inferencia lógica inductiva

El explanandum es un hecho particular sin más, no es un hecho particular probabilista. Como siempre, todas las generalizaciones que contiene el explanans han de ser nómicas, pero ahora al menos una debe ser probabilista, de otro modo no se podría inferir deductivamente el explanandum (por supuesto el explanans puede incluir además otras leyes no estadísticas).

Este tipo de explicaciones se pueden esquematizar del siguiente modo:

L1, …, Ln
P1, …, Pk
c1, …, cm
————– [r]
e

Aquí “[r]” denota el grado de soporte inductivo que el explanans confiere al explanandum. En estos casos n puede ser 0, esto es, el explanans puede contener quizá sólo leyes estadístico-probabilistas.

4.1.2 El modelo probabilístico

Es la explicación propia de aquellas ciencias que recurren a hipótesis probabilísticas o estadísticas. Las explicaciones probabilísticas suelen presentarse cuando las premisas explicativas contienen una suposición estadística sobre alguna clase de elementos, mientras que el explicandum es un enunciado singular sobre un determinado individuo de esta clase. En aquellos casos en que la premisa que tiene forma de ley es de carácter estadístico, la conclusión, el explicandum, no se deduce necesariamente y tiene sólo un valor de probabilidad (estadística); o lo que es lo mismo, el explanans implica al explanandum sólo con un cierto grado de probabilidad. Se trata, por consiguiente, de un razonamiento inductivo y la clase de explicaciones que siguen este modelo se denominan explicaciones probabilísticas o inductivo-estadísticas, que gozan de probabilidad inductiva, por lo que sólo confieren verosimilitud. Hempel precisó que una explicación de este tipo es buena sólo si muestra que su explanandum tiene una alta probabilidad de ocurrir.

4.1.3 El modelo funcional o teleológico

Explica su objeto propio (explanandum propio de la biología, psicología, antropología y ciencias sociales humanas) en términos de acción, función o fin (telos). Es distintivo de los sistemas a los que, de algún modo, se atribuye “finalidad” o “intencionalidad”. Se caracteriza por utilizar expresiones como: “con la finalidad de…”, “para que…”, etc. Lo que debe explicarse (explanandum), en una explicación de tipo funcional es una acción, según aquella expresión: “la función de x es hacer y”. Se suele distinguir entre la explicación funcional y la explicación teleológica.

La explicación funcional considera hechos generales del mundo animal que se refieren a la acción de una parte con miras al funcionamiento del todo, mientras que la explicación teleológica trata de hechos particulares de individuos dotados de la conciencia de fin (finalidad propia) o de conductas “activiformes” (que parecen tender a un fin). Una y otra suelen oponerse a las explicaciones causales.

4.1.4 El modelo genético

Propio de las ciencias humanas de ámbito histórico, describe la manera como ha evolucionado o variado a lo largo de la historia el explanandum, u objeto que debe explicarse, a partir de otro anterior. En las premisas deberá incluirse un gran número de sucesos o hechos particulares, que resulten pertinentes con el explanandum y que mantengan con él una supuesta relación de causa y efecto. Como toda explicación, hecha según el modelo deductivo, las premisas han de incluir también alguna ley general (fertes tendencias). Estas leyes generales serán normalmente suposiciones generales sobre relaciones causales entre sucesos.

5. El contexto de la justificación y el contexto del descubrimiento

En Experience and Prediction, Hans Reichenbach propone distinguir entre la tarea de la epistemología y la de la psicología. La última se ocupa de cómo tienen lugar los procesos del pensar; la primera, “trata de construir los procesos del pensar del modo como deberían ocurrir si hubieran de ser dispuestos en un sistema consistente. Por tanto, “la epistemología considera un sustituto lógico más bien que los procesos reales”. Se trata de una reconstrucción racional, pero, agrega Reichenbach, no arbitraria, ya que “se halla ligada al pensamiento efectivo mediante el postulado de correspondencia”; sin embargo, “en cierto sentido es un modo de pensar mejor que el que tiene efectivamente lugar”.

Para distinguir entre la tarea de la psicología y la de la epistemología, Reichenbach propone dos expresiones que han hecho fortuna: “el contexto de descubrimiento” y el “contexto de justificación”. Sólo el contexto de justificación – que a veces se llama asimismo de “validación” – es de incumbencia del epistemólogo.

Reichenbach reconoce que hay una “correspondencia” entre el pensar construido (o reconstruido) lógicamente y el pensar efectivo, y admite, además, que las teorías científicas son sólo aproximaciones a lo que entiende por “contexto de justificación”. Los que han admitido la distinción propuesta por Reichenbach, o distinciones similares han alegado a menudo, contra quienes han atacado la distinción, que ésta no se propone describir los modos como se desarrolla la ciencia, y específicamente las teorías científicas. El análisis de la ciencia – que en tal caso es a menudo el análisis lógico de lenguajes científicos suficientemente maduros y desarrollados como para poder axiomatizarse – es una reconstrucción lógica de teorías científicas, o “una reconstrucción racional del pensamiento”. En esta reconstrucción no desempeñan, según Reichenbach, ningún papel las consideraciones psicológicas, las cuales se hallan dentro del contexto del descubrimiento, pero no de la justificación o validación.

La idea central de Reichenbach consistía en prescindir de los procesos científicos reales, tomando como objeto de la filosofía de la ciencia una reconstrucción lógica de las teorías: “la epistemología considera un sustituto lógico, más bien que los procesos reales”. Reichenbach aceptó la propuesta de Carnap y utilizó la denominación de reconstrucción lógica para nombrar la tarea que habían de lleva a cabo previamente los epistemólogos:

Podríamos decir que una reconstrucción lógica se corresponde con la forma en que los procesos de pensamiento son comunicados a otras personas, en lugar de la forma en que son subjetivamente conformados … Introduciré los términos contexto de descubrimiento y contexto de justificación para hacer esta distinción. Por tanto, tenemos que decir que la epistemología sólo se ocupa de construir el contexto de justificación.

Los filósofos no tienen por qué ocuparse de cómo se llega a producir un descubrimiento científico. Un científico puede estar guiado en sus investigaciones por hipótesis metafísicas, creencias religiosas, convicciones personales o intereses políticos y económicos. Para los defensores del empirismo lógico, todos estos aspectos de la actividad científica no debían ser estudiados por los epistemólogos. Lo esencial eran los resultados finales de la investigación científica: los hechos descubiertos, las teorías elaboradas, los métodos lógicos utilizados y la justificación empírica de las consecuencias y predicciones que se derivan de las teorías. De ahí que el contexto de descubrimiento no fuera objeto de la epistemología ni de la filosofía de la ciencia, sino de la psicología, de la historia y de la sociología. La génesis de las teorías no tenía interés alguno para los defensores de la epistemología científica en los años 30.

No sólo había que partir de las teorías tal y como habían quedado finalmente articuladas por sus descubridores o divulgadores, tomando como referencia principal los libros de texto o las grandes obras de los científicos, sino que incluso había que dar un paso más, analizándolas, reconstruyéndolas y reduciéndolas a sistemas formales.

La idea fundamental, aceptada tanto por el positivismo lógico como por el racionalismo crítico de Popper, es que es necesario conseguir un criterio que nos permita distinguir la ciencia de la no ciencia. Se trata de buscar un algoritmo que permita decidir cuándo una decisión “adoptada” por los científicos sigue los “cánones de la racionalidad” y cuando no los sigue. Si este algoritmo es encontrado, habremos encontrado un método para distinguir la buena ciencia de la mala ciencia, lo que es ciencia de lo que no lo es y, además, sin recurrir para nada a lo que hacen los científicos. Lo que un científico hace en el laboratorio o en su estudio no es importante, lo importante es que sus decisiones puedan ser justificadas racionalmente, de acuerdo a ciertos criterios lógicos.

Lo que los positivistas lógicos y Popper comparten es la idea de que las reglas metodológicas -aquellas que garantizan la correcta práctica científica y el auténtico conocimiento- conduce a los cánones universales de la racionalidad. Esto es, se parte de la idea de que en la situación de evaluación, todos los sujetos que poseen la misma evidencia (información) deben llegar a la misma decisión, cuando proceden racionalmente. La racionalidad se concibe, entonces, como enclavada en reglas de carácter universal que determinan las decisiones científicas; el énfasis se pone en las relaciones lógicas que conectan una creencia con la evidencia, y se minimiza el papel de los sujetos.

Sin embargo, no todo son semejanzas; también hay diferencias entre ellos. Así, para los positivistas -representados principalmente por Carnap- el algoritmo buscado sería una especie de inducción; mientras que para Popper el algoritmo es el modus tollens. Veámoslo más detenidamente.

5.1 Carnap y la justificación de la inducción

Según los empiristas lógicos, en el estudio de la ciencia es preciso distinguir dos tipos de cuestiones: las que se refieren al origen de las hipótesis y las teorías, al modo y circunstancias en que se formularon, etc.; y las relativas al análisis de tales productos una vez formulados y expuestos. Las primeras serían cuestiones pertenecientes a la historia o la psicología, mientras que las segundas configuran el ámbito propio de la filosofía de la ciencia. Reichenbach expresó de forma definitiva esta idea distinguiendo entre el “contexto de descubrimiento” y el “contexto de justificación” de las teorías y afirmando que el objetivo de la filosofía de la ciencia consiste en la justificación lógica y empírica de éstas. Por otra parte, uno de los proyectos fundamentales del empirismo lógico consistía en establecer una clara diferencia entre la ciencia y otras disciplinas. En la búsqueda de un criterio sintético, contingente, con un “significado empírico”; de modo que el problema se centraba en encontrar un criterio preciso y eficaz de significado empírico. El primer criterio de este tipo que se adoptó fue el principio de verificabilidad completa en principio, según el cual un enunciado sintético S tiene significado empírico sólo si es posible especificar un conjunto finito y consistente de enunciados observacionales del que S es deducible. Lo cual implica que comprender el significado de un enunciado sintético equivale a conocer los hechos que determinarían su verdad o su falsedad, pero no ser requiere que tales hechos se hayan observado efectivamente sino que basta con que sean lógicamente posibles.

Entre los inconvenientes de este criterio se encontraba el que no tendrían significado empírico ni, por tanto, cabida en la ciencia las hipótesis universales, como es el caso de las leyes, ya que, al carecer de restricciones espaciotemporales, no son deducibles de un conjunto finito de enunciados observacionales. Esta dificultad obligó a revisar el principio de verificabilidad con el fin de hacerlo más permisivo, postulando que para que un enunciado sintético tenga significado empírico, es suficiente con que goce de un cierto apoyo evidencial. Carnap representó el “grado de conformación” de una hipótesis en relación a un conjunto de datos observables como la probabilidad lógica que los datos confieren a la hipótesis. La lógica inductiva era para Carnap la “fundamentación del razonamiento inductivo”, pero entendiendo tal razonamiento no en el sentido clásico, y definitivamente desacreditado por Hume, sino como el que atribuye a la conclusión un grado de confirmación, una cierta probabilidad, y permite así adoptar “decisiones racionales”. De este modo la inducción volvía a ser el método fundamental en las ciencias empíricas y la clave de su racionalidad, aunque no como un procedimiento heurístico sino como método para la aceptación y elección racionales de hipótesis, leyes y teorías científicas ya propuestas.

Sin embargo, este nuevo criterio de significado empírico, con sus implicaciones metodológicas, no estaba libre de inconvenientes. Si se considera que una hipótesis científica debe tener un algo contenido informativo y, por tanto, gran capacidad predictiva, el grado de probabilidad lógica de una hipótesis no es un síntoma de su “bondad”, sino que puede serlo de todo lo contrario, ya que cualquier enunciado es tanto más probable cuanto menor es su contenido. De ahí que una hipótesis universal o una ley sea absolutamente improbable, porque, si se admite la definición clásica de probabilidad como el número de casos favorables dividido por el de casos posibles, una hipótesis de este tipo, que se refiere a infinitos casos posibles, tendría una probabilidad nula por amplia que sea la evidencia disponible a su favor. Un modo de salvar esta dificultad sería suponer que los casos posibles deben ser similares a los conocidos y favorables, pero tal extrapolación supone admitir un principio de inducción que carece de fundamentación lógica y empírica.

Carnap propuso una solución a este problema según la cual, cuando se utiliza una ley general, no se atiende a todas sus implicaciones sino sólo a un reducido número de predicciones concretas, cuyo grado de confirmación incrementa el apoyo evidencial, inductivo, de la ley y justifica la confianza en ella. Por tanto, la fiabilidad de una ley “no se mide por el grado de confirmación de la ley misma sino por el de una o varias de sus instancias”. Sin embargo, esta solución es marginal respecto a su lógica inductiva y supone el reconocimiento implícito por parte de Carnap de su fracaso al intentar mejorar el criterio verificacionista de significado empírico para dar cabida en la ciencia a los enunciados universales.

5.2 El falsacionismo de Popper

El criterio de cientificidad que propone Popper no pretende ser un criterio de significado empírico sino únicamente de “demarcación” y afirma que un enunciado o conjunto de enunciados es científico sólo si es susceptible de contrastaciones experimentales que determinen su falsedad, es decir, sólo si es falsable en principio. Un enunciado científico es para Popper un enunciado prohibitivo, un enunciado que, por su precisión y/o carácter universal, excluye la ocurrencia de determinados hechos y situaciones observables incompatibles con él y que constituyen el dominio de sus “falsadores posibles”, ya que de ocurrir determinarían su refutación. Y cuanto más prohibitivo es un enunciado, más nos dice acerca del mundo, esto es, mayor es su contenido empírico y menor su probabilidad. En suma, según el criterio de cientificidad popperiano, los enunciados o sistemas de enunciados de una ciencia empírica han de ser inevitablemente arriesgados e improbables.

Popper defiende que el método científico consiste fundamentalmente en proponer hipótesis y teorías explicativas audaces y en contrastarlas, a través de sus consecuencias observacionales, no para verificarlas o confirmarlas, sino para intentar falsarlas y proponer otras mejores. La opción por esta metodología tiene para él una justificación lógica en la asimetría entre verificación y falsación, según la cual, si un enunciado universal no puede ser verificado concluyentemente por numerosos que sean los casos particulares a su favor, basta un solo caso desfavorable para que podamos concluir, mediante la aplicación del modus tollens, su falsedad. Al mismo tiempo, Popper afirma que no hay en la ciencia “procedimiento más racional que el método del ensayo y del error, de la conjetura y la refutación”. No obstante, admite que es explicable que el científico, ante determinadas refutaciones de su teoría, no la rechace de forma inmediata sino que introduzca alguna hipótesis auxiliar que restituya el acuerdo entre la teoría y los hechos. Pero sólo son admisibles en la ciencia hipótesis auxiliares que puedan ser contrastadas aisladamente, de modo que su inclusión en la teoría en cuestión aumente el contenido empírico de ésta y, por tanto, su grado de falsabilidad. Las hipótesis que no cumplen este requisito son meras hipótesis ad hoc, típicas de las disciplinas pseudocientíficas y a las que no se debe recurrir en la investigación científica.

Si en un momento determinado una teoría ha resistido las pruebas experimentales a que ha sido sometida, la teoría ha “demostrado su temple” y se la considerará “corroborada”. Pero el número de contrastaciones superadas por una teoría no basta para evaluar su grado de corroboración; para esto es preciso atender, además, a la severidad de dichas pruebas. Y cuanto mayor es el contenido empírico de una teoría y menor, por tanto, su probabilidad, más rigurosas son las pruebas experimentales a que debe hacer frente. Para Popper el grado de corroboración de una teoría se encuentra en relación inversa a su probabilidad lógica. De todos modos, aceptar una teoría o una hipótesis corroborada no equivale a considerarla verdadera o definitivamente establecida, sino simplemente merecedora de ser sometida a nuevas contrastaciones.

Los elementos falsadores o corroboradores de una hipótesis o teoría no son hechos concretos, sino los enunciados singulares que los describen: enunciados a los que Popper llama “enunciados básicos”. Sin embargo, un enunciado de esta clase carece de una justificación última. Nuestra experiencia sensorial puede motivar nuestra aceptación de un enunciado básico, pero no puede probarlo lógicamente porque las relaciones lógicas se dan entre enunciados y no entre enunciados y sensaciones, que son fenómenos psicológicos. Por otra parte, los enunciados básicos han de ser científicos, aunque de bajo nivel, y esto significa que han de ser falsables. La aceptación de un enunciado básico en el curso de una contrastación es el resultado de una “decisión” de los científicos, que, aunque libre, no es meramente convencional o dogmática.

Por otra parte, no se trata de una decisión dogmática, porque da por válido un enunciado básico refutador al contrastar una teoría no implica considerarlo verdadero sino tan sólo lo suficientemente firme como para falsar dicha teoría; no es, por tanto, una decisión epistemológica, sino metodológica. Pero dado que los hechos aislados e irreproducibles carecen de interés en la investigación científica, sería insensato rechazar una teoría a partir de uno o unos pocos enunciados básicos esporádicos, que podrían ser casuales. Por tanto, lo que realmente refuta una teoría es una hipótesis de bajo nivel relativa al carácter no excepcional de los enunciados básicos; una hipótesis falsable, pero suficientemente corroborada. Esto significa que un experimento falsador tiene la estructura de un experimento crucial entre la teoría en cuestión y una hipótesis falsadora, en el que los enunciados básicos aceptados se convierten en corroboradores de esta hipótesis.

En sus consideraciones sobre la naturaleza de la metodología, Popper se muestra contrario al enfoque según el cual el estudio del método científico consiste fundamentalmente en la descripción de los procedimientos que han utilizado y utilizan los científicos y tiene, por tanto, un carácter meramente empírico. Insiste en que este enfoque, al que califica de “naturalista”, es incapaz de conducir al descubrimiento de un patrón unificador de la multiforme práctica científica y defiende que la metodología es una disciplina claramente filosófica, cuyo interés es mucho más normativo que descriptivo. Por ello dice que no pretende afirmar que los científicos no han utilizado jamás el método inductivo, sino que este método es inútil e incluso origina incoherencias y que sólo una actitud falsacionista por parte de los científicos garantiza el aumento de conocimiento en la ciencia.

5.3 La nueva filosofía de la ciencia

La “nueva filosofía de la ciencia” se caracteriza por un intento por reivindicar la dimensión histórica, social y pragmática de la compleja empresa científica. Es, en cualquier caso, una crítica a la concepción de la ciencia de los positivistas lógicos y del racionalismo crítico popperiano. Del mismo modo que Popper sometió a una crítica implacable los resultados del positivismo lógico, Lakatos, Kuhn y Feyerabend someterán a crítica los presupuestos del racionalismo crítico popperiano.

El núcleo fundamental de la crítica de estos filósofos consiste en afirmar que los científicos no hacen lo que Popper y los positivistas afirman que hacen y que, por tanto, si queremos dar una descripción real del procedimiento científico debemos buscar por otro camino. Este camino requiere prestar una atención más detallada a los estudios históricos sobre la ciencia y a lo que los científicos hacen realmente, lo que quiere decir, en términos del problema que estamos tratando, prestar mayor atención al “contexto de descubrimiento” y menor atención al “contexto de justificación”. Esta afirmación está más matizada en Lakatos y es mucho más radical en Kuhn y Feyerabend.

5.3.1 Lakatos

La ingenuidad del falsacionismo popperiano consiste, según Lakatos, en el supuesto de que una teoría queda falsada por un enunciado básico que entre en conflicto con ella. Este supuesto ni siquiera encuentra justificación en la filosofía de Popper, porque éste admite que un enunciado básico nunca puede considerarse probado por la experiencia y es posible, en muchas circunstancias, recurrir a hipótesis auxiliares que inmunicen a la teoría frente a los hechos. Además, la historia de la ciencia nos enseña que ningún experimento, por crucial que parezca, ningún enunciado básico y ninguna hipótesis falsadora son suficientes para falsar una teoría importante; para ello es indispensable que haya surgido otra teoría alternativa que se considere mejor que la anterior. De ahí que el falsacionismo popperiano sea para Lakatos una metodología apriorística, elaborada de espaldas a la práctica científica real e inaplicable a ella.

Teniendo en cuenta la función que Popper atribuye a las hipótesis auxiliares y el incremento de contenido empírico que éstas deben aportar, más que de una teoría aislada habría que hablar de una sucesión de teorías T1, T2, T3, ¼, cuyos miembros, a partir de T1, resultan de la introducción de hipótesis y cláusulas auxiliares. Estas series dinámicas de teorías, a las que Lakatos llama programas de investigación científicos, constituyen las unidades básicas de su metodología. En cualquier momento de la evolución de un programa de investigación es posible distinguir en su estructura un centro firme y un cinturón protector. El centro firme está formado por un reducido número de enunciados teóricos de alto nivel (postulados o principios de una teoría). Y al cinturón protector pertenecen, junto a las hipótesis auxiliares que permiten la continuidad del programa, teorías de nivel inferior, leyes particulares, estipulaciones acerca de la aplicación de los principios y las leyes, etc. Sin embargo, los aspectos estructurales de un programa son insuficientes para caracterizarlo plenamente, dado que se trata de una entidad dinámica. De ahí que conceda una especial importancia a su heurística, es decir, a las normas metodológicas, explícitas o implícitas, que los científicos comparten y que explican la evolución de un programa. Parte de estas normas tienen por objeto mantener al centro firme lejos del alcance de toda falsación y dirigir la flecha del modus tollens hacia el cinturón. Existe también en todo programa una heurística positiva, que orienta al científico respecto a lo que debe hacer. Se trata de una serie de normas referidas no sólo al modo de introducir o modificar hipótesis auxiliares sino también a la forma de mejorar el programa, reformulando el centro firme, desarrollando teorías complementarias, técnicas matemáticas y experimentales, etc. En este aspecto, la heurística de un programa permite al científico prescindir de ciertas “anomalías perturbadoras” de éste confiando en su futura solución.

Pero no todas las hipótesis auxiliares son igualmente aceptables y, por tanto, un programa puede evolucionar de forma incorrecta. Un programa es progresivo, o experimenta cambios progresivos de problemas, cuando cada nueva teoría en la serie T1, T2, T3, ¼, incrementa su contenido, es decir, predice hechos nuevos e incluso sorprendentes, y además tales predicciones se corroboran, al menos parcialmente. Un programa progresivo es aquel que conduce al descubrimiento de hechos nuevos e inesperados. Un programa es regresivo cuando no aporta nuevos descubrimientos, cuando se limita a dar explicaciones post hoc de hechos nuevos, conocidos casualmente. En este contexto introduce Lakatos su criterio de demarcación, según el cual una teoría o un cambio de problemas sólo puede ser considerado científico si, al menos, aventura nuevas predicciones. Es explicable, no obstante, que un programa de investigación que empieza siendo progresivo deje de serlo más adelante. De hecho todo programa acaba siendo, tarde o temprano, regresivo. Sin embargo, el carácter regresivo de un programa no obliga a los científicos a abandonarlo, sino que seguirá vigente hasta que surja un programa alternativo mejor, es decir, un programa que explique sus éxitos y muestre además mayor capacidad heurística.

No obstante, es posible que un programa, considerado regresivo durante una etapa, deje de serlo cuando algunas de sus predicciones obtienen una confirmación de la que antes carecían. Por ello Lakatos reconoce que no hay nada de irracional en que se siga defendiendo un programa de investigación incluso después de haber sido sustituido por otro. Y afirma que este tipo de indeterminación es inevitable en cualquier metodología. Insiste en que es preciso abandonar la antigua ilusión racionalista de establecer un método preciso, de aplicación fácil e instantánea que permita al científico tomar decisiones casi mecánicas. La investigación científica no está regida sólo por criterios lógicos y empíricos y en las decisiones de los científicos influyen factores difíciles de analizar.

Pero si no es posible establecer normas precisas que garanticen la racionalidad de las decisiones de los científicos, sí se pueden evaluar tales decisiones una vez que han sido tomadas: “sólo ex post podemos ser ‘sabios'”.

5.3.2 Kuhn

El modelo kuhniano surge básicamente de la investigación histórica, la cual muestra, a juicio de Kuhn, que gran parte del proceder científico viola las reglas metodológicas propuestas tanto por los empiristas lógicos como por los racionalistas críticos, y que ello no ha impedido el éxito de la empresa científica. Esta objeción de falta de adecuación histórica implica un profundo desacuerdo con el carácter normativo de las metodologías clásicas; el objetivo, para Kuhn, es dar cuenta del desarrollo efectivo de las creencias y prácticas científicas, tomando en consideración los estudios sobre su historia.

Kuhn encuentra que los métodos también evolucionan y cambian con el desarrollo de las distintas tradiciones de investigación. Pero entonces, si los métodos no son fijos ni universalizables, una teoría de la ciencia (una metodología) tiene que poder dar cuenta de su evolución. De aquí que la tarea de las metodologías se conciba ahora como la de ofrecer modelos del desarrollo y el cambio científicos, que permitan entender la dinámica de la ciencia no sólo en el nivel de las hipótesis y teorías, sino también en el nivel de los procedimientos de prueba y los criterios de evaluación.

La vía para abordar el problema de la racionalidad en la ciencia es la investigación empírica de sus mecanismos y resultados a través del tiempo. Los principios formativos y evaluativos se deben extraer del registro histórico de la ciencia exitosa, en lugar de importarlos de algún paradigma epistemológico preferido y tomarlos como la base de “La reconstrucción racional”, a priori, de la ciencia.

Una tesis central del modelo de Kuhn es que la investigación científica que se realiza la mayor parte del tiempo (ciencia normal) es la investigación organizada bajo un mismo marco de supuestos básicos (paradigma). La investigación de este tipo se caracteriza por ser básicamente una actividad de resolución de problemas (enigmas), la cual está encaminada a lograr el acuerdo entre la teoría vigente y los hechos. El objetivo de esa actividad es resolver enigmas suponiendo la validez de una teoría (de las leyes fundamentales que la definen), ya que sin esa suposición ni siquiera se podrían plantear los enigmas.

Los filósofos clásicos, al no distinguir entre dos tipos básicamente distintos de investigación científica, la normal y la extraordinaria, fundieron y confundieron los procesos de evaluación que ocurren en cada una de ellas. Sin embargo, estos procesos presentan características notablemente diferentes, pues tanto aquello que se pone a prueba (lo que se contrasta), como la forma de evaluar los resultados, varían radicalmente en uno y otro caso. Durante los períodos de ciencia normal, se someten a prueba las hipótesis que permiten aplicar las leyes fundamentales de una teoría a situaciones específicas, es decir, se contrastan las conjeturas que permiten resolver problemas concretos, tomando como base la teoría establecida. Si una hipótesis o conjetura logra pasar suficientes pruebas, o pruebas suficientemente severas, de acuerdo con los criterios del paradigma vigente, la comunidad considerará que se ha resuelto el problema.

Tales contrastaciones no tienen por objeto la teoría establecida. Por el contrario, cuando el científico está ocupado en un problema de ciencia normal, debe contar con una teoría establecida que tiene como misión sentar las reglas del juego (Kuhn, T., “Lógica del descubrimiento o psicología de la investigación” en I. Lakatos y A. Musgrave (eds.), La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 175, pp. 81-111)

En las teorías maduras o establecidas, en aquellas que han generado tradiciones fecundas de investigación se distinguen dos tipos de leyes: fundamentales y especiales. Las primeras son esquemas muy generales con escaso contenido empírica; más que leyes sean esquemas de leyes que orienta al crítico sobre gustar cuando quiere resolver un problema.

Las leyes fundamentales no se puede contrastar directamente con la experiencia sólo dan lugar a leyes especiales, es decir, leyes con un contenido empírico más definido, una vez que ha sido complementado con supuestos adicionales. Estos supuestos -que no se deduce de dichas leyes- son justamente los que especifica las distintas posibilidades de aplicación de una teoría.

El fracaso de una conjetura, al ser contrastada empíricamente, no implica el fracaso de la teoría (de sus leyes fundamentales), sólo indica que algo anda mal en la forma en que se intentó aplicar la teoría, o sea, en los supuestos adicionales. Y si bien puede ocurrir que se abandonen algunas de las leyes especiales y se siga manteniendo con toda confianza la matriz que la generó -la teoría-, nunca puede darse el caso inverso. Por tanto, las teorías no se ponen a prueba de la misma manera que sus aplicaciones.

El error de los filósofos clásicos ha sido suponer que “una teoría puede juzgarse globalmente mediante el mismo tipo de criterios que se emplean al juzgar las aplicaciones de una investigación particular dentro de una teoría”. Sin embargo, una vez que una teoría ha alcanzado el estatus de paradigmática, deja de tener un papel hipotético y se convierte en la base de toda una serie de procedimientos explicativos, predictivos, e incluso instrumentales, que la presuponen.

Esto muestra que no existen las instancias refutadoras en sentido popperiano, es decir, resultados que por sí mismos impliquen el abandono de la teoría. Para que una anomalía pueda ser considerada como un auténtico contraejemplo, con la capacidad de refutar una teoría, se requiere que la existencia de una perspectiva teórica alternativa desde la cual se pueda emitir ese juicio.

El carácter de contraejemplo es por tanto relativo, pues el cuestionamiento global de una teoría sólo se da en la competencia con otra teoría rival que parece resolver las anomalías, y esto sólo ocurre en los poco frecuentes períodos de ciencia extraordinaria.

Los filósofos de la tradición, al suponer sólo un tipo posible de desarrollo científico -ignorando la distinción entre ciencia normal y extraordinaria-, extrapolaron a la totalidad de la investigación científica lo que sólo sucede en ciertos periodos. Los empiristas lógicos generalizaron el patrón de investigación normal, interpretándolo como una búsqueda de confirmación de las teorías. Los racionalistas críticos caracterizaron toda la actividad científica en términos que sólo se aplican a la investigación extraordinaria.

Del modelo de Kuhn no se desprende un rechazo de los métodos de confirmación y refutación, sino un esclarecimiento de sus límites y condiciones de aplicación. Sólo son aplicables al evaluar conjeturas con un contenido empírico definido (que no tienen las teorías), y en el marco de un conjunto de presupuestos o compromisos establecidos (paradigma). Esto no sólo significa que las teorías no se abandonan por refutación ni se aceptan por confirmación, sino también que estos métodos son insuficientes, por sí solos, para decidir sobre el éxito o el fracaso de las hipótesis más específicas. Sólo en el contexto de un paradigma está claro qué cuenta como evidencia, qué problemas son legítimos, qué soluciones son aceptables, etc.

Toda tradición de investigación normal se enfrenta, tarde o temprano, con anomalías que se muestran lo suficientemente reacias a solución como para minar la confianza de la comunidad en su enfoque teórico, provocando la búsqueda de posibles sustitutos. Entonces se inicia un período de ciencia extraordinaria, el cual eventualmente desemboca en una revolución, es decir, en el desplazamiento de un enfoque teórico por otro, y por tanto, en un cambio de paradigma.

En este período de investigación extraordinaria, los acuerdos básicos se resquebrajan, las “reglas del juego” de la ciencia normal pierden fuerza y su aplicación se vuelve cada vez menos uniforme. Como los científicos en esta situación “tienen la disposición para ensayarlo todo”, proliferan los intentos de articulación de estructuras teóricas alternativas que permitan resolver las anomalías, hasta que una de ellas logra perfilarse como el candidato rival del enfoque anterior. Cuando esto ocurre, se inicia la competencia por lograr la aceptación de la comunidad pertinente.

¿Cómo eligen los científicos entre teorías en competencia?, ¿cómo se comparan teorías integradas en paradigmas rivales? Éste no es el tipo de competencia que se puede resolver por medio de pruebas. Esto es, resulta imposible encontrar procedimientos de decisión que se apliquen de manera uniforme y con total acuerdo a la manera como en las ciencias formales existen procedimientos que, aplicados paso a paso, permiten identificar los errores de una demostración o aprobarla como correcta.

No hay ningún algoritmo neutral para la elección de teorías, ningún procedimiento sistemático de decisión que, aplicado adecuadamente, deba conducir a cada individuo del grupo a la misma decisión (Kuhn, T.S., “Postscript-1969” a La estructura de las revoluciones científicas)

La elección entre teorías rivales no se puede resolver apelando a la lógica y la experiencia neutral -como pretenden los empiristas lógicos-, ni mediante decisiones claramente gobernadas por reglas metodológicas -como proponen los racionalistas críticos-, porque las diferencias que separan a las teorías rivales las hacen inconmensurables.

5.3.2.1 La tesis de inconmensurabilidad

Las revoluciones científicas no sólo muestran el reemplazo de principios teóricos fundamentales. También muestran el cuestionamiento y eventual modificación de otros componentes de la empresa científica que hasta ese momento se habían considerado evidentes o seguros: datos, objetivos, normas, procedimientos, técnicas, etc. Al examinar las diferencias que pueden surgir entre los defensores de teorías rivales, Kuhn encuentra el siguiente repertorio:

Cuando cambian los paradigmas, hay normalmente transformaciones importantes en los criterios que determinan la legitimidad tanto de los problemas como de las soluciones propuestas (Kuhn, T.S., La estructura de las revoluciones científicas, p. 109)

Por otra parte, “en el nuevo paradigma, los términos, los conceptos y los experimentos anteriores entran en relaciones diferentes entre sí”.

Esta tesos kuhniana de que un cambio de paradigma lleva consigo cambios cruciales de significado -cambios en la red conceptual a través de la cual los científicos estructuran su campo de estudio- se refiere no sólo a ciertas variaciones en los términos teóricos, sino también en los términos de observación. Kuhn emprende una crítica de fondo a la tesis empirista de la existencia de una base observacional neutral y de su lenguaje correspondiente. Kuhn afirma que no hay observaciones puras, no contaminadas por nuestros sistemas de creencias, ni datos absolutamente estables. No sólo la interpretación de las observaciones depende del marco conceptual en el que se esté inmerso, sino también las mismas posibilidades perceptuales. “Lo que un hombre ve depende tanto de lo que mira como de lo que su experiencia visual y conceptual previa lo ha enseñado a ver”. La “carga teórica” de la observación impide, por tanto, contar con un lenguaje completamente neutral en el cual se puedan expresar todas las consecuencias contrastables de dos teorías rivales.

Por otra parte,

los paradigmas sucesivos nos dicen cosas diferentes acerca de la población del universo y acerca del comportamiento de esa población. (ibid., p. 103)

Con esto Kuhn está apuntando a las diferencias en los compromisos ontológicos, en los supuestos sobre la existencia de entidades y procesos, y sobre su naturaleza. Estos compromisos inciden en la clasificación de los objetos, y repercuten en el tipo de experimentos que se diseñan y de observaciones que se realizan.

Kuhn concluye que los paradigmas rivales, junto con sus tradiciones de investigación normal, son inconmensurables. Por tanto, la inconmensurabilidad es una relación compleja entre paradigmas sucesivos, que abarca las diferencias en las normas de procedimiento y evaluación (diferencias metodológicas), en las estructuras conceptuales (diferencias semánticas), así como en la percepción del mundo y en los supuestos ontológicos.

Estas diferencias impiden que quienes entran en debate partan de las mismas premisas -y establezcan una comunicación completa-, por tanto no se puede probar, con base en una argumentación que todos acepten, que una teoría es mejor que otra. No se puede apelar a una experiencia (observación) neutral, ni a criterios de evaluación que sean universalmente aceptables. No existe una instancia de evaluación por encima de los paradigmas a la cual poder apelar en los períodos revolucionarios. Precisamente por eso son revolucionarios. La existencia de una instancia semejante significaría que, a fin de cuentas, no hay más que una única manera correcta de hacer ciencia, como han supuesto los filósofos que defienden la concepción clásica de la racionalidad científica.

Si no hubiera más que un conjunto de problemas científicos, un mundo en el que poder ocuparse de ellos y un conjunto de normas para su solución, la competencia entre paradigmas podría resolverse por medio de algún proceso más o menos rutinario, como contar el número de problemas resueltos por cada uno de ellos (ibid., pp. 147-148)

En los años setenta Kuhn restringe la inconmensurabilidad a la divergencia semántica entre teorías: dos teorías son inconmensurables cuando están articuladas en lenguajes que no son mutuamente traducibles. Esto es, la diferencia semántica entre teorías rivales es de tal naturaleza que impide que todos sus términos básicos sean interdefinibles y, en consecuencia, que sus enunciados sean intertraducibles. En el desarrollo de esta versión semántica se destacan las siguientes tesis: 1) “La comparación punto por punto de dos teorías sucesivas exige un lenguaje al cual puedan traducirse, sin pérdidas ni residuos, por lo menos las consecuencias empíricas de ambas”. 2) En el caso de teorías inconmensurables, “no existe un lenguaje común en el cual se puedan expresar completamente ambas teorías, y al que por tanto se pudiera recurrir en una comparación punto por punto entre ellas”.

De esta manera, la inconmensurabilidad queda ligada al fracaso de traducción completa entre teorías, fracaso que repercute en el tipo de comparación que se puede establecer entre ellas. Y queda claro que lo que la inconmensurabilidad impide es un tipo determinado de comparación, la “comparación punto por punto”. También se infiere que la clave para llegar a esta situación hay que buscarla en un tipo peculiar de cambio semántico (un vocabulario puede sufrir diversos cambios de significado sin que ello conduzca a un fracaso de traducción, como sucede en los períodos de investigación normal).

Las teorías inconmensurables son teorías que entran en una competencia genuina porque pretenden “hablar de lo mismo”, aunque utilizando algunos términos que no son mutuamente traducibles (fenómeno que había pasado totalmente desapercibido en la filosofía tradicional de la ciencia). Se trata, por tanto, de teorías que invitan a un juicio comparativo. La teoría de Ptolomeo y la de Copérnico se refieren a movimientos planetarios. Y es precisamente el que tengan un ámbito común de referencia lo que vuelve tan sorprendente el hecho de que sean inconmensurables.

Ahora bien, desde un punto de vista meramente histórico, el que “planeta” en la teoría de Ptolomeo no signifique lo mismo que “planeta” en la teoría de Copérnico puede ser considerado como un indicador más de lo que sucede en el avance científico. Sin embargo, este tipo de cambio semántico se vuelve un serio problema cuando se reflexiona sobre la comparación de teorías. A pesar de sus notables diferencias, se puede afirmar que estos modelos -tanto los que surgen del empirismo lógico como del racionalismo crítico- presentan una estructura básica común: primero se enuncian las consecuencias contrastables de las teorías en un lenguaje básico común, y después mediante algún algoritmo que establezca una medida de comparación de su verdad/falsedad -de sus grados de confirmación o de sus grados de verosimilitud, según la corriente filosófica-, se elige entre ellas con total acuerdo. Pero éste es justamente el tipo de comparación punto por punto que la inconmensurabilidad impide, lo cual revela que en la concepción tradicional se parte del supuesto de que “el problema de la elección de teorías se puede resolver empleando técnicas que sean semánticamente neutrales”.

5.3.2.2 Taxonomías, traducción y aprendizaje

La clave del tipo de cambio semántico que conduce al fracaso de traducción completa entre teorías está en las relaciones básicas de semejanza y diferencia -que se adquieren durante la educación profesional- de acuerdo con las cuales se identifican y distinguen entre sí, se clasifican, los objetos del dominio de investigación:

Uno de los aspectos de toda revolución es que algunas de las relaciones de semejanza cambian. Objetos que antes estaban agrupados en el mismo conjunto son agrupados después en conjuntos diferentes, y viceversa. Piénsese en el Sol, la Luna, Marte y la Tierra, antes y después de Copérnico; en la caída libre, el movimiento pendular y el movimiento planetario, antes y después de Galileo; o en las sales, las aleaciones y las mezclas de azufre y limaduras de hierro, antes y después de Dalton. Como la mayoría de los objetos, incluso dentro de los conjuntos que se alteran, continúan agrupados igual, los nombres de los conjuntos generalmente se conservan (“Reflections on my Critics”, en I. Lakatos y a. Musgrave (eds.), o.c., 391-454)

Este cambio en los esquemas clasificatorios supone un cambio en las categorías taxonómicas básicas. Se trata, por tanto, de un cambio de significado que no se restringe al modo como las teorías rivales caracterizan su ámbito de referencia, sino que también implica una modificación en la estructura de dicho ámbito. De esta manera, no sólo varía el sentido (la intensión) de ciertos términos, sino también su referencia (su extensión). Esto se puede apreciar fácilmente en el caso de la transición de la astronomía ptolemaica a la copernicana. Antes de esta transición, la Luna era un caso paradigmático de planeta, el Sol también era un planeta y la Tierra estaba fuera de la discusión; después, la Tierra pasó a ser un planeta como Marte y Júpiter, el Sol pasó a ser una estrella, y la Luna se catalogó como un nuevo tipo de objeto, un satélite. Es claro que la extensión del término “planeta”, su referencia, se alteró de manera drástica, alteración que no se puede interpretar como una mera corrección puntual en el sistema ptolemaico. Se trata de un cambio que involucra una modificación de las supuestas leyes de la naturaleza junto con una manera diferente de asociar los términos con los objetos del dominio. Y cuando ocurre un cambio de este tipo, tienen que surgir problemas serios de traducción: “¿Por qué es tan difícil la traducción, ya sea entre teorías o entre lenguajes? Porque, como se ha señalado con frecuencia, los lenguajes recortan el mundo de maneras diferentes” (ibid.).

Por contraste, la mayoría de los cambios de significado, aquellos que ocurren en la ciencia normal, no implican alteraciones de la estructura taxonómica del dominio de investigación. No todo desarrollo semántico está ligado con cambios en la taxonomía ni, por tanto, genera inconmensurabilidad.

Un cambio de taxonomía tiene siempre un carácter holista, es decir, nunca se da como una modificación puntual en categorías aisladas. Por ejemplo, cuando se aprende mecánica newtoniana, los términos “masa” y “fuerza” deben aprenderse a la vez, y la segunda ley de Newton debe desempeñar un papel en dicho aprendizaje”. También la manera como se identifican las fuerzas y masas en situaciones concretas pone de relieve su dependencia mutua, dependencia cuya forma está dada por la segunda ley. Por esto los términos newtonianos “fuerza” y “masa” no son traducibles al lenguaje de una teoría física, como la aristotélica o la einsteiniana, donde no se asume la versión de Newton de la segunda ley.

Ahora bien, el cambio en la estructura taxonómica, si bien tiene un crucial efecto holista, sólo se refleja en un subconjunto de términos básicos:

La mayoría de los términos comunes a las dos teorías [inconmensurables] funciona de la misma forma en ambas; sus significados […] se preservan; su traducción es simplemente homófona. Surgen problemas de traducción únicamente con un pequeño subgrupo de términos (que usualmente se interdefinen), y con los enunciados que los contienen. La afirmación de que dos teorías son inconmensurables es más modesta de lo que la mayor parte de sus críticos ha supuesto (“Conmensurabilidad, comparabilidad y comunicabilidad”, en T. S. Kuhn, ¿Qué son las revoluciones científicas? y otros ensayos, Barcelona, Paidós-ICE de la Universidad Autónoma de Barcelona, 1989, 91-135)

Es aquí cuando Kuhn pone en claro el carácter local de la inconmensurabilidad, haciendo explícito el supuesto de una considerable base semántica común entre las teorías rivales. Esta base común permitiría que al menos una parte de su contenido se comparara directamente:

Los términos que preservan su significado a través de un cambio de teoría proporcionan una base suficiente para la discusión de las diferencias, y para las comparaciones que son relevantes en la elección de teorías. Proporcionan incluso […] una base para poder explorar los significados de los términos inconmensurables (ibid.)

Frente a la siguiente pregunta: ¿cómo pueden tener éxito los historiadores al interpretar teorías del pasado cuanto éstas no son completamente traducibles al lenguaje de las teorías actuales?, ¿acaso ese éxito no es una prueba de que tales teorías no son realmente inconmensurables?, la respuesta de Kuhn es que esta línea de crítica parte de un supuesto equivocado, que es la ecuación entre interpretación y traducción. El trabajo de un historiador de la ciencia exige básicamente procesos de interpretación, no de traducción. El historiador se topa con textos aparentemente sin sentido, cuya comprensión exige la construcción de una forma de lectura alternativa, donde se detecten los conjuntos de términos que han cambiado de significado, y donde se descubra, vía la propuesta de hipótesis interpretativas, el uso que tenían dichos términos en el texto original.

Si tiene éxito, al final habrá logrado aprender una nueva lengua. Pero “aprender” un nuevo lenguaje no es lo mismo que traducir ese lenguaje al propio. Tener éxito en lo primero no implica que se vaya a tener éxito en lo segundo. El caso crucial para el científico que intenta comprender una teoría inconmensurable con la propia, es cuando se topa con términos en relación con los cuales no hay en su lenguaje (o teoría) un término o conjunto de términos que tenga la misma referencia. Éste es el caso, justamente, en que el investigador se encuentra con una estructura taxonómica que no es homologable a la suya. En estas circunstancias, el aprendizaje del nuevo lenguaje (teoría) implica aprender a reconocer los referentes de ciertos términos que no son traducibles al propio lenguaje.

La diferencia entre Kuhn y Quine radica en que, mientras Quine supone la universalidad del lenguaje, en el sentido de que cualquier cosa que pueda ser expresada en un lenguaje puede también ser expresada en cualquier otro lenguaje, Kuhn supone la capacidad, en principio, de aprender cualquier lenguaje:

Cualquier cosa que se puede decir en un lenguaje puede, con suficiente imaginación y esfuerzo, ser comprendida por un hablante de otro lenguaje. El requisito previo para tal comprensión, sin embargo, no es la traducción sino el aprendizaje del lenguaje (“Dubbing and Redubbing: the Vulnerability of Rigid Designation”, en C.W. Savage (ed.), Scientific Theories. Minnesota Studies in the Philosophy of Science, vol. XVI, 298-318, University of Minnesota Press, Minneapolis)

Este aprendizaje no garantiza la traducción completa porque un léxico limita el rango de mundos, o formas de ver el mundo, que son accesibles. Y aunque los conjuntos de mundos que son accesibles desde dos léxicos diferentes se pueden traslapar, quedará en cada caso un subconjunto que no se puede describir en el otro léxico, el que corresponde a las diferencias locales en las taxonomías. De aquí que cuando se aprende un lenguaje, se aprende a categorizar y estructurar el mundo de una determinada manera, es decir, se adquiere una ontología.

5.3.2.3 Desacuerdos racionales y elección de teorías

Si comparamos los valores a los que Kuhn alude con los que se han propuesto en la tradición, no encontramos nada novedoso. Sin embargo, la novedad está en afirmar que los valores epistémicos condicionan pero no determinan las decisiones de los científicos, lo cual significa que no dan lugar a reglas capaces de generar un algoritmo de decisión.

Estos valores, que son la fuente de las “buenas razones” en la elección de teorías, no dan lugar a argumentos concluyentes por dos razones. La primera es que en los períodos de crisis cada uno de ellos puede ser interpretado de manera diferente por diferentes miembros de la misma comunidad científica. Por ejemplo, qué significa que una teoría sea más simple que otra, y a qué aspectos se refiere la simplicidad, es algo que no queda fijado de manera unívoca por el compromiso de una comunidad con este valor. La segunda razón es que los valores cognitivos pueden entrar en conflicto en su aplicación concreta; por ejemplo, una teoría puede dar predicciones más exactas que otra, pero ser menos fecunda. Esto hace necesaria una jerarquización donde se asigne un peso relativo a los distintos valores.

Pero si los valores epistémicos o metodológicos no determinan las decisiones individuales, ¿cómo llega cada científico a tomar una decisión en la situación de tener que elegir entre teorías rivales? La respuesta es que se requiere que intervengan factores adicionales, los cuales pueden variar fuertemente de un científico a otro; y es aquí donde pueden intervenir factores no estrictamente científicos o incluso extra-científicos. Por tanto, el análisis de la elección de teorías, en el nivel de las decisiones individuales, muestra la confluencia de dos tipos de componentes: los valores epistémicos compartidos y las valoraciones o motivaciones personales.

Otros de los factores pertinentes en la elección se hallan fuera de las ciencias. La elección que hizo Kepler del copernicanismo obedeció, en parte, a su inmersión en el movimiento neoplatónico y el movimiento hermético de su época; el romanticismo alemán predispuso a quienes afectó hacia el reconocimiento y la aceptación del a conservación de la energía; el pensamiento social de la Inglaterra del siglo XIX ejerció una influencia similar en la disposición y aceptación del concepto darwiniano de lucha por la existencia. Otras diferencias, también importantes, son función de la personalidad. Algunos científicos valoran más que otros la originalidad y, por tanto, están más dispuestos a correr riesgos; otros prefieren teorías amplias y unificadoras en lugar de soluciones precisas y detalladas de los problemas, que tengan menor alcance (“Objetividad, juicios de valor y elección de teorías” en T. S. Kuhn, La tensión esencial, México, CONACYT-FCE, 1982, 344-364)

Este tipo de factores, que Kuhn llama ideológicos, conforma la manera particular en que cada científico aplica los valores epistémicos compartidos, la manera en que los interpreta y los jerarquiza en las situaciones donde deja de haber lineamientos claros.

El desacuerdo permitido por el carácter no determinante de la base epistémica compartida cumple una función vital para el desarrollo científico: la distribución de riesgos en los períodos críticos de una disciplina. La existencia de un algoritmo que prescribiera decisiones uniformes podría resultar contraproducente. La situación de elección de teorías es casi siempre una situación de riesgo, pues los científicos tienen que optar entre teorías que no están totalmente desarrolladas, por una parte, y teorías que no es evidente que estén agotadas, por otra. Por tanto, resulta más que conveniente que haya quienes emprendan el desarrollo de las nuevas teorías, y quienes continúen trabajando en las teorías en crisis con la mira de lograr una estimación más o menos confiable de su potencial. Sin el desacuerdo, la investigación correría el peligro de atrofiarse dentro de un enfoque teórico, o de cambiar de enfoque antes de haberlo explotado lo suficiente.

Si hubiera un algoritmo de decisión, los desacuerdos se deberían a que la menos una de las partes en conflicto está procediendo de manera irracional; pero en ese caso las reglas del método permitirían una solución, pues indicarían qué pruebas habría que realizar para obtener la evidencia decisiva. Por lo tanto, todo desacuerdo sería decidible en principio. Sin embargo, los juicios que en un momento dado expresan opiniones encontradas pueden tener ambos razones de peso a su favor, sin que ninguno viole los estándares aceptados o vaya en contra de la evidencia disponible. Pero, sobre todo, en ciertos cortes sincrónicos se puede observar que los científicos no tienen claro cómo se podría decidir su desacuerdo.

Para entender la noción de racionalidad que emerge del modelo de Kuhn, debemos comenzar con el fenómeno de la variabilidad individual. La afirmación de que dos sujetos, en la misma situación de elección de teorías, pueden divergir en su decisión sin que ninguno esté procediendo de manera irracional, va en contra de un principio de racionalidad muy arraigado, que está en la base del modelo clásico: si es racional para un sujeto elegir A en cierta situación, no puede ser racional para otro sujeto elegir B en esa misma situación. Sin embargo, lo que la afirmación de Kuhn revela es que la racionalidad tiene que ver, sobre todo, con aquello que está permitido, más que con lo que es obligatorio.

Para Kuhn: 1) el principal agente de la ciencia, su sujeto, no es el individuo, sino la comunidad; y 2) la elección de teorías no es un suceso que ocurre en un momento determinado, sino un proceso que comienza con un desacuerdo y termina con un nuevo acuerdo.

El considerar a la comunidad como el sujeto que tiene le papel decisivo en el desarrollo científico introduce una dimensión social, imprescindible, en la racionalidad científica. Esto marca otro fuerte contraste con la concepción tradicional donde la ciencia es esencialmente una empresa desarrollada por individuos, que incluso podría trabajar aislados, dado que las supuestas reglas que gobiernan su actividad constituyen un control suficiente para garantizar el acuerdo intersubjetivo sobre sus creencias y decisiones individuales. En la concepción de Kuhn, por el contrario, la ciencia no se puede entender como un juego de una sola persona. Como en los juicios y propuestas de los científicos individuales intervienen preferencias subjetivas, que generan los desacuerdos, y como no hay cánones de evaluación fijos y universales, toda la responsabilidad de resolver los desacuerdos recae en la comunidad de expertos.

Una vez que están planteadas las alternativas rivales, éstas se vuelven objeto de un debate abierto entre los miembros de la comunidad profesional, y sólo las decisiones que resultan del proceso de evaluación y crítica comunitaria pueden calificarse como científicamente racionales. La comunidad es la instancia que controla las propuestas y juicios individuales; al filtrar a través del debate las valoraciones meramente subjetivas -aquellas que no logran reunir el acuerdo de otros especialistas-, la comunidad limita la dependencia de la empresa científica respecto de los sujetos individuales. De esta manera, la comunidad es el tribunal que tiene la última palabra en las situaciones de conflicto.

5.3.3 Feyerabend

Existen teorías científicas sobre un mismo dominio de fenómenos que son inconmensurables. Una teoría científica general incorpora una determinada concepción del mundo y un marco conceptual y un lenguaje propios, de ahí que no se limite a representar o describir objetivamente fenómenos naturales sino que configure objetos, conforme los hechos y, en definitiva, constituya un determinado modo de percepción del mundo. No existen observaciones ni experimentos neutros, sino que éstos sólo son posibles en un determinado marco teórico. Por tanto, dos teorías generales cuyas leyes fundamentales sean incompatibles son, en algunas de sus interpretaciones, tan inconmensurables como pueden serlo dos ideologías diferentes y no pueden existir entre ellas relaciones de inclusión, exclusión o solapamiento.

Según Feyerabend, no existe un conjunto de reglas o criterios metodológicos fijos e invariables que puedan servir de guía al científico en la formulación de nuevas hipótesis y teorías, en la aceptación de teorías ya formuladas o en la elección entre dos teorías alternativas. Y, en este sentido, carece de relevancia metodológica la distinción entre contexto de descubrimiento y contexto de justificación que se había defendido en el empirismo lógico. La historia de la ciencia nos muestra que no hay regla, por incontestable que parezca, que no haya sido, afortunadamente, desobedecida en algún momento, de ahí que reconstruir la historia de la ciencia pretendiendo haber descubierto en ella una racionalidad invariable equivale a empobrecerla en la mezquina búsqueda de claridad, precisión y “seguridad intelectual”. Una regla metodológica ampliamente aceptada es aquella que, partiendo de la idea de que los hechos y los experimentos constituyen la base para la aceptación o el rechazo de teorías científicas, aconseja desarrollar sólo hipótesis que sean consistentes con teorías ya admitidas y bien confirmadas y/o con los hechos establecidos; una regla metodológica que, para él, carece de justificación y cuya desobediencia sistemática es incluso beneficiosa para el desarrollo de la ciencia. La adopción de tal regla supone dar por válido el “principio de autonomía de los hechos”, esto es, la tesis según la cual “los hechos existen y están disponibles independientemente de que se consideren o no alternativas a la teoría que ha de ser contrastada“. Sin embargo, frecuentemente, la evidencia que puede provocar el rechazo de una teoría o, por el contrario, incrementar su corroboración sólo surge cuando se adopta un punto de vista totalmente distinto, porque hay hechos que sólo pueden ser formulados por hipótesis y teorías alternativas. El conocimiento no avanza mediante una sucesión de teorías consistentes entre sí sino a través del contraste entre perspectivas diferentes e incluso incompatibles, de modo que exigir a una nueva hipótesis consistencia con las teorías aceptadas equivale a favorecer a éstas por el simple hecho de ser más antiguas y familiares. Tampoco estaría justificado exigir a las nuevas hipótesis que concuerden con los hechos establecidos, en primer lugar, porque, en realidad ninguna teoría científica cumple cabalmente este requisito y, en segundo lugar, porque, dado que ningún experimento o informe de observación es neutro teóricamente, tal exigencia supondría aceptar acríticamente una determinada “ideología observacional”. En consecuencia, lo más aconsejable es desobedecer esta regla metodológica y actuar contrainductivamente, desarrollando hipótesis incompatibles con las teorías y la base observacional establecidas, sin descartar para ello teorías científicas ya rechazadas o ideas provenientes de fuera de la ciencia: de la metafísica, la mitología o la religión. Por tanto, todo vale en la ciencia.

5.3.4 Hanson

Hanson critica la idea de la concepción heredada según la cual lo fundamental en el estudio de la ciencia es el contexto de la justificación. Hanson se queja de que los filósofos desfiguren las teorías físicas, aludiendo muy pocas veces a los conceptos que de verdad utilizan los científicos:

La razón es simple. Ellos han considerado como paradigmas de la investigación física sistemas completamente desarrollados como la mecánica celeste, la óptica, el electromagnetismo y la termodinámica clásica y no ciencias no acabadas, dinámicas y en proceso de búsqueda, como la microfísica (Hanson, N.R., Patrones de descubrimiento. Observación y explicación, Madrid, Alianza, 1977, p. 73)

Este error básico arrastra consigo otros, en cadena. Las nociones de ‘observación’, ‘hecho’, ‘hipótesis’, ‘ley’, e incluso ‘teoría’, están fosilizadas a fortiori por esta falta de contacto de los filósofos de la ciencia con la investigación real, al centrarse exclusivamente en las venerables teorías históricas, y entre ellas, sólo en las más respaldadas y acreditadas.

Las observaciones que se efectúan en los laboratorios nunca son triviales ni inmediatas: requieren unos conocimientos previos. El neófito es incapaz de percibir lo que capta un especialista al estudiar los resultados de un análisis o de un experimento. Hay que conocer la jerga correspondiente, a saber por qué cada instrumento está dispuesto como está, tener idea de lo que es significativo y lo que no en los resultados obtenidos, etc.

Si contraponemos a dos científicos que defienden teorías contrapuestas sobre los mismos fenómenos, ¿perciben ambos lo mismo al observar un experimento?

Pensemos en Johannes Kepler. Imaginémoslo en una colina mirando el amanecer. Con él está Tycho Brahe. Kepler considera que el Sol está fijo; es la Tierra la que se mueve. Pero Tycho, siguiendo a Aristóteles, al menos en esto, sostiene que la Tierra está fija y que los demás cuerpos celestes se mueven alrededor de ella. ¿Ven Kepler y Tycho la misma cosa en el Este, al amanecer? (ibíd., p. 79)

Para responder a la pregunta no vale investigar sus respectivas imágenes retinianas: «La visión es una experiencia. Una reacción de la retina es solamente un estado físico, una excitación fotoquímica» (ibíd., p. 81). Tycho y Kepler están viendo el mismo objeto físico: un disco luminoso y brillante, de un color blanquecino amarillo, situado en un espacio azul sobre una zona verde. Pero no observan lo mismo.

La psicología de la Gestalt ha mostrado, con múltiples experimentos, que sobre una misma imagen se pueden ver objetos diferentes:

Decir que Kepler y Tycho ven la misma cosa al amanecer sólo porque sus ojos son afectados de un modo similar es un error elemental. Existe una gran diferencia entre un estado físico y una experiencia visual (op. cit., p. 84)

Es demasiado fácil decir que Tycho y Kepler, Simplicio y Galileo, Hooke y Newton, Priestley y Lavoisier, Soddy e Einstein, De Broglie y Born, Heisenberg y Bohm hacen las mismas observaciones pero las utilizan de forma diferente. Esto no explica las controversias existentes en las ciencias en proceso de búsqueda. Si no hubiera ningún sentido en el que las observaciones fueran distintas, no podrían ser usadas de forma diferente (Ibíd., p. 99)

Hanson está atacando uno de los pivotes más firmes de la concepción heredada y del neopositivismo: la común base sensorial y observacional de las percepciones. Esa tesis sólo puede ser mantenida cuando el filósofo de la ciencia ha estudiado las teorías ya constituidas y aceptadas, en el marco de las cuales sus cultivadores efectivamente ven igual los fenómenos. Pero en las fases de descubrimiento, con las controversias entre teorías que suelen acompañarlas, la cuestión debe ser planteada en otros términos. Investigar la lógica del descubrimiento implica elaborar una nueva teoría sobre la observación científica, para lo cual Hanson aporta la siguiente tesis:

La visión es una acción que lleva una carga teórica. La observación de x está moldeada por un conocimiento previo de x. El lenguaje o las notaciones usados para expresar lo que conocemos, y sin los cuales habría muy poco que pudiera reconocerse como conocimiento, ejercen también influencias sobre las observaciones (Ibíd.)

Si volvemos al ejemplo imaginario de Kepler y Brahe viendo el Sol, Hanson concluyó que los campos visuales respectivos tienen una organización diferente, desde un punto de vista conceptual. Por tanto, la observación científica no es inmediata ni ingenua. Está cargada conceptualmente y determina el contexto en el cual tiene lugar. En la configuración de dicho contexto influyen las teorías científicas.

Entre las imágenes y el lenguaje hay un abismo, afirma Hanson. El lenguaje observacional, caso de mantenerse esa noción, no se reduce a imágenes ni a sensaciones: cada uno de sus términos posee una componente teórica y conceptual.

Explicar un fenómeno x no consiste en buscar su causa antecedente, sino en insertarlo en un sistema conceptual, en una teoría, en cuyo marco cobra sentido y significado; mientras que en otra teoría puede resultar irrelevante.

Galileo estudió la Luna frecuentemente. Está surcada de agujeros y discontinuidades; pero decir de éstos que son cráteres -decir que la superficie lunar está llena de cráteres- es insertar astronomía teórica en las observaciones personales. ¿Un valle natural profundo es un cráter? Los mineros excavan abrupta y profundamente, pero su resultado ¿es más que un agujero? No; no es un cráter. Un pozo abandonado no es un cráter; tampoco lo es el vórtice de un torbellino. Decir que una concavidad es un cráter equivale a comprometerse con su origen, decir que su origen fue violento, rápido, explosivo. Las explosiones de artillería producen cráteres, e igualmente los hacen los meteoritos y los volcanes. Los dibujos de la superficie de la Luna serían simplemente dibujos de una esfera marcada con hoyos, pero Galileo vio cráteres (Hanson, Patrones de descubrimiento. Observación y explicación, Madrid, Alianza, 1975, p. 145)

Hanson llama así la atención sobre un aspecto de la lógica del descubrimiento que no había sido advertido: no ya sólo la observación o la explicación científica están influidas por las teorías, es decir, por sistemas conceptuales sin los cuales ni se ve, ni se entiende, ni se puede llegara explicar ningún fenómeno, sino que la propia elección de los términos del lenguaje observacional orienta luego la investigación en una dirección o en otra y, por lo tanto, puede ser heurísticamente más o menos afortunada. La historia de la ciencia está llena de ejemplos en los que una inadecuada elección de las denominaciones dio lugar a que los planteamientos teóricos que se desarrollaban por medio de ese vocabulario fuesen mal recibidos por la comunidad científica, dando lugar a que dichas teorías no llegaran a ser aceptadas, teniendo que ser redescubiertas mucho tiempo después.

5.3.5 Otros críticos de la concepción heredada

Muchos de los autores que se han opuesto a la “concepción heredada” niegan que haya la supuesta dicotomía entre los dos contextos. Esta negación puede asumir varias formas; la más conocida, representada, entre otros, por Hanson, va acompañada de esfuerzos para constituir lo que se ha llamado una “lógica del descubrimiento”. Los procesos de descubrimiento no siguen necesariamente vías azarosas ni están condicionados y, con ello, validados por circunstancias “externas”; hay formas y modelos o patrones de descubrimiento. La “lógica de la ciencia” es una “lógica del producto terminado”, en tanto que una “lógica del descubrimiento” es una lógica que, aun si parte del producto terminado, sigue los pasos que llevaron lógicamente a tal producto. Los modos de desarrollar la “lógica del descubrimiento” varían dependiendo de lo que se entienda por ‘contexto’ en la expresión ‘contexto de descubrimiento’. Cabe entender tal contexto de un modo “máximo”, en cuyo caso la lógica del descubrimiento se “disuelve”, en efecto, en psicología o en sociología de la ciencia, perdiéndose entonces toda estructura lógica o fiándose en “estructuras lógicas” del contexto al que se recurra en cada caso. Puede entenderse de un modo “mínimo” o, cuando menos, “moderado, como lo hace Hanson al hablar de la lógica del descubrimiento “filosóficamente respetable”, la cual incluye, entre otros elementos, estudios de pasos inferenciales a partir del reconocimiento de anomalías y determinación de tipos de hipótesis que puedan servir para “explicar” las anomalías, y la cual constituye, en sus palabras, “un área de investigación, no un manual de conclusiones” (o de recetas). Aun en el sentido “mínimo” o “moderado”, sin embargo, se postula que una “lógica del descubrimiento” tiene que distinguirse de una “lógica de los métodos de inducción”, que Reichenbach y otros autores “ortodoxos” estiman ser la metodología apropiada para el estudio del procedimiento científico.

Para Toulmin, la filosofía de la ciencia debe dejar de interesarse por las teorías científicas consolidadas, para investigar las teorías en su proceso de construcción y desarrollo:

Ha llegado la hora de ir más allá de la imagen estática, “instantánea”, de las teorías cientificas a la que los filósofos de la ciencia se han autolimitado durante tanto tiempo y de desarrollar una “imagen móvil” de los problemas y procedimientos científicos, en cuyos términos la dinámica intelectual del cambio conceptual en la ciencia llegue a ser inteligible, y transparente la naturaleza de su racionalidad

A lo largo de los años sesenta, se han hicieron diversas críticas a la distinción entre contexto de justificación y contexto de descubrimiento, mostrando que está conectada con distinciones tan relevantes para la filosofía de la ciencia como la que hay entre lo factual y lo normativo o entre la lógica y lo empírico, o incluso entre la historia de la ciencia internalista y externalista. Hubo autores que afirmaron la existencia de componentes lógicas y reglas heurísticas en los procesos de descubrimiento científico. Por influencia de Kuhn, numerosos autores han optado por añadir un tercer término a la distinción, e incluso un cuarto. Así, para Goldman, la actividad de resolver problemas científicos incluye la generación o propuesta de los mismos, su indagación, testar las soluciones posibles y, finalmente, la toma de una decisión: el descubrimiento y la justificación no serían, por lo tanto, pasos consecutivos, sino interactivos; asimismo, no cabe adscribir una fase de la resolución de problemas científicos a la lógica y el resto a la historia, a la psicología o a la sociología de la ciencia.

Los filósofos de la ciencia de tendencia historicista reivindican la conveniencia de ocuparse también del contexto de descubrimiento, en colaboración con los historiadores, psicólogos y sociólogos de la ciencia.

No obstante, a pesar de todas estas críticas, autores tan influyentes actualmente como Giere o Laudan han seguido manteniendo la idea básica de la distinción de Reichenbach. Así, Giere afirma explícitamente que:

Para nosotros, el razonamiento científico no es el razonamiento del laboratorio sino el del informe de investigación, una vez terminada ésta. La mayor parte de lo que sucede de hecho durante la investigación nunca aparece en el informe final

Para Laudan, la ciencia es, en esencia, “una actividad de resolución de problemas”, pero los filósofos de la ciencia deben ocuparse sobre todo de la racionalidad científica, y ésta se restringe a

la evaluación cognoscitivamente racional de los problemas científicos. Hay muchos casos en que, sobre bases no racionales o irracionales, un problema llega a tener gran importancia para una comunidad de científicos. Así, determinados problemas pueden adquirir una relativa importancia porque la Agencia Estatal para la investigación científica paga a los científicos para que trabajen en ellos, o, como en el caso de la investigación del cáncer, porque hay presiones morales, sociales y financieras que pueden “elevar” tales problemas a un lugar quizá más alto del que merecen desde un punto de vista cognoscitivo. No es mi propósito adentrarme en las dimensiones no racionales de la evaluación de problemas

De acuerdo con estas posturas, la filosofía de la ciencia no tiene como objeto de estudio la actividad real de los científicos, con sus diversas mediaciones y complejidades, sino que debe ocuparse de reflexionar exclusivamente sobre las exposiciones finales de los resultados de la investigación científica. Los sociólogos de la ciencia sociólogos de la ciencia se han opuesto a este reduccionismo epistemológico, argumentando que la construcción de los hechos en el laboratorio y los procesos de consenso entre científicos en la fase de investigación son determinantes de los resultados finales

6. Bibliografía

· Alvarez, S., “Racionalidad y método científico”, en Olivé, L. (ed.), Racionalidad epistémica, Madrid, Trotta/CSIC, 1995, pp. 147-169

· Brown, H.I.: La nueva filosofía de la ciencia, Madrid, Tecnos, 1994

· Carnap, R., Autobiografía intelectual, Paidós

· —-, Fundamentación lógica de la física, Orbis

· Chalmers, A.F.: ¿Qué es esa cosa llamada ciencia?, Madrid, Siglo XXI, 1989

· Diéguez Lucena, A., Realismo científico. Una introducción al debate actual en filosofía de la ciencia, Málaga, Universidad de Málaga, 1998

· Díez, J.A., Fundamentos de filosofía de la ciencia, Barcelona, Ariel, 1997

· Echevarría, J.: Filosofía de la ciencia, Madrid, Akal, 1995

· —-, Introducción a la metodología de la ciencia. La filosofía de la ciencia en el siglo XX, Madrid, Cátedra, 1999

· Elster, J., Tuercas y tornillos. Una introducción a los conceptos básicos de las ciencias sociales, Barcelona, Gedisa, 1996

· Feyerabend, P.K., Tratado contra el método, Madrid, Tecnos, 1981

· —-, Diálogo sobre el método, Madrid, Cátedra, 1989

· —-, Límites de la ciencia, Barcelona, Paidós, 1989

· Feynman, R.: El carácter de la ley física, Barcelona, Orbis, 1986

· Hanson, N.R., Constelaciones y conjeturas, Madrid, Alianza, 1985

· —-, Patrones de descubrimiento. Observación y explicación, Madrid, Alianza, 1977

· Hempel, C.G.: La explicación científica. Estudios sobre filosofía de la ciencia, Buenos Aires, Paidós, 1979

· — Filosofía de la ciencia natural, Madrid, Alianza, 1995

· Kuhn, T.S., La estructura de las revoluciones científicas, México, FCE, 1975

· —-, ¿Qué son las revoluciones científicas? y otros ensayos, Barcelona, Paidós, 1989

· —-, La revolución copernicana, Barcelona, Orbis, 1984

· Lakatos, I., Pruebas y refutaciones, Madrid, Alianza, 1978

· —-, La metodología de los programas de investigación científica, Madrid, Alianza, 1982

· —-, Matemáticas, ciencia y epistemología, Madrid, Alianza, 1987

· Lakatos, I., y Musgrave, A. (eds.), La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 1975

· Laudan, L.: El progreso y sus problemas, Madrid, Encuentro, 1986

· —- La ciencia y el relativismo, Madrid, Alianza, 1990

· Losee, J., Introducción histórica a la filosofía de la ciencia, Madrid, Alianza, 1976

· Mosterín, J.: Conceptos y teorías en la ciencia, Madrid, Alianza, 1984

· Moulines, C.U. (ed.): La ciencia: estructura y desarrollo, Madrid, Trotta, 1993

· Moulines, C. U., y Díez, J. A., Fundamentos de Filosofía de la Ciencia, Barcelona, Ariel, 1997

· Nagel, E., Simbolismo y ciencia, Buenos Aires, Nueva Visión, 1972

· Pérez Ransanz, A.R., “Racionalidad y desarrollo científico” en Olivé, L.(ed.), Racionalidad epistémica, Madrid, Trotta/CSIC, 1995, pp. 171-201

· Popper, K.: El desarrollo del conocimiento científico. Conjeturas y refutaciones, Buenos Aires, Paidós, 1967

· —-, Los dos problemas fundamentales de la epistemología, Madrid, Tecnos, 1998

· Rivadulla, A.: Filosofía actual de la ciencia, Madrid, Tecnos, 1986

· Rupert Hall, A., La revolución científica. 1500-1750, Barcelona, Crítica, 1985

· Russell, B., La perspectiva científica, Barcelona, Planeta, 1986

· Solís, C., Alta tensión: filosofía, sociología e historia de la ciencia, Barcelona, Paidós, 1998

· Stegmüller, W., La concepción estructuralista de las teorías, Madrid, Alianza, 1981

· Suppe, F.: La estructura de las teorías científicas, Madrid, UNED, 1991

· Suppes, P.: Estudios de filosofía y metodología de la ciencia, Madrid, Alianza, 1988

· VV.AA., Perspectivas actuales de lógica y filosofía de la ciencia, Madrid, Siglo XXI, 1994

· Wartofsky, M.W.: Introducción a la filosofía de la ciencia, Madrid, Alianza, 1973


Oposinet es una plataforma de consulta e intercambio de documentos relacionados con las Oposiciones a la Enseñanza. La condición fundamental e imprescindible para la aceptación de documentos es que no posean derechos de autor. Por favor, no nos envíes documentos con Copyright.