LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

FILOSOFÍA DE LA CIENCIA
Tema 1: Estructura de la Ciencia
Dentro de una perspectiva histórica, la visión clásica de la ciencia es la del empirismo lógico. Pero a finales de los años 50 y principios de los 60 se presentan dos críticas fundamentales al empirismo lógico, y Kuhn proporciona una alternativa en la contemplación de la ciencia con la obra “La estructura de las revoluciones científicas” de 1962, trabajo con el que nace el discurso sobre revoluciones y cambios abruptos. Con la muerte de Carnap, Kuhn se derrumba y fallece. Cerezo cree que todavía hay personas que siguen sintiéndose cercanas al empirismo lógico, pero formalmente se considera que éste está muerto. Los empiristas lógicos habían idealizado la ciencia en el intento de tratar de explicarla mediante la lógica matemática, es decir, los empiristas lógicos trataron de desvelar el patrón de la racionalidad científica a través de la lógica matemática, mientras que Kuhn afirma que esto proporciona una visión distorsionada. Tras Khun se comienza siempre por el estudio de la historia, pues sobre la base del estudio de la historia se nos presenta una imagen de la ciencia más rica, con más elementos de inicio, con más variables que no son susceptibles de análisis lógico. Por ejemplo, el concepto de comunidad científica, aplicación paradigmática, factores psicológicos (tienen que ver con la motivación, persuasión, etc). Con esto, la imagen dinámica que aparece en la ciencia, para Khun no tiene nada que ver con la imagen dinámica del empirismo lógico, sino que es una imagen que no tiene nada que ver con la acumulación y el progreso, pues se produce un cambio abrupto. Con esa historia se ve que se producen discontinuidades que impiden hablar de un crecimiento del conocimiento científico lineal, progresivo y acumulativo. Esto parece una forma de relativismo y muchos filósofos vieron en Khun una amenaza relativista, pero esto es algo que él se apresura a desmentir. El problema es que Khun ataca la visión tradicional del conocimiento científico como paradigma del conocimiento humano. Así, en la interpretación de Khun encontramos dos posturas que forman las dos grandes escuelas: Interpretación moderada Interpretación radical La interpretación moderada o conservadora está representada por nostálgicos que no pueden ignorar a Khun a la hora de desarrollar su filosofía de la ciencia, y entre ellos tenemos básicamente a Popper y sus seguidores. Popper vivió y trabajó en el mismo tiempo que los empiristas lógicos, en los años 30, antes de la diáspora,. No pertenecía al Círculo de Viena, pero mantenía un diálogo constante con alguno de sus componentes. Las ideas de Popper no casaban bien con las del Círculo de Viena, tenía una visión dinámica de la ciencia y no sincrónica, como es el caso del Círculo. En el año 59 se tradujo al inglés su “Lógica de la investigación científica”, obra con la que Popper alcanzó gran resonancia internacional, porque fue el interlocutor crítico de Khun en los años 60. Fue visto como el flotador que permitía hacer frente al desafío kuhniano sin perder la racionalidad científica tradicional. La interpretación conservadora consistió en esto: una relectura de Khun a través de la filosofía de Popper. Esto fue lo que hizo, por ejemplo, Lakatos, Feyerabend, Laudan, Holton, Cohen, etc., y a veces a estos autores se les llama “filosofía historicista de la ciencia”. 1

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Además de todos estos, hay otros autores que también, sobre la base de una lectura conservadora de Khun, trataron de rescatar el enfoque formalista del empirismo lógico en el diseño de un nuevo lenguaje de filosofía de la ciencia. Se trata de los enfoques semánticos, conectados con la visión historicista porque introducen un componente dinámico, y con el empirismo lógico porque introducen el formalismo. En España, dentro de las visiones semánticas, tenemos el estructuralismo. Por otro lado, la interpretación radical es un cajón de-sastre, se trata de ir más allá. Aquí están el filósofo D. Bloor, el sociólogo D. Barnes, el historiador Shapin, el economista C. Freman, realizando estudios sobre ciencia y género, sobre innovación. Tomando elementos de las dos interpretaciones, también hay un amplio espectro de posiciones, y aquí es imposible ser más preciso, es donde está lo que se conoce como la historia naturalizada de la ciencia, que para D. Hull es hacer un estudio de la ciencia desde la propia ciencia. El empirismo lógico consideraba que la ciencia era saber metódico, tienen una concepción ahistórica, alejada de la pragmática y de lo humano. Para ellos, podemos analizar lo que se llama ciencia en distintas disciplinas formadas por teorías científicas que están constituidas por un conjunto de enunciados, con lo que el cuerpo teórico de esas teorías puede establecerse axiomáticamente, es decir, hay una reconstrucción axiomática de la teoría. Pensaban que todas las ciencias descansaban sobre los contenidos de la física matemática. Ahora bien, ¿qué clase de críticas podrían hacer más daño a esta visión de la ciencia? Hay que tener en cuenta que la clave está en la relación entre el suelo de la experiencia y el cuerpo teórico. Hay que dudar del respaldo concluyente de los sentidos y de cualquier generalización teórica que proyecte hacia el futuro. Los empiristas lógicos afirman que no pueden tener garantías no significativas susceptibles de justificación. Así, cambiaron el discurso matemático riguroso por otro basado en la probabilidad. Pero, si no sólo ponemos en duda la posibilidad del respaldo lógico concluyente, sino también el respaldo metodológico concluyente, el empirismo lógico tiene muchas dificultades, y por esta línea va la crítica de Khun con el denominado “argumento de la infradeterminación”. También hay que tener en cuenta el dudar de las fronteras entre lo teórico y lo observable, algo que forma parte de la crítica de Khun mediante el “argumento de la carga teórica de la observación”. Estos dos argumentos son ataques al modo en que el empirismo lógico entiende la relación entre los dos mundos, el teórico y el experiencial, atacan al desarrollo de la ciencia moderna. El argumento de la carga teórica de la observación, junto con el de la infradeterminación, será la base de lo que vayamos viendo a partir de ahora. El autor que hace uso de este argumento contra la vieja ciencia es N. R. Hanson, autor de “Patrones de descubrimiento” y cuya fuente de inspiración inmediata es una serie de filósofos analíticos británicos, en especial el segundo Wittgenstein y Ryle. Lo que Hanson afirma en su obra es que hay que distinguir entre “ver qué” y “ver cómo”, y afirma que lo que perciben los individuos es “ver cómo” (psicología de la percepción), no “ver qué”. Percibir es ver algo que está ocurriendo, ver cómo ocurre; mientras que el “ver qué” o ver los átomos sensoriales no sería una actividad primaria. En general, este argumento se aplica a percepción, y no sólo a la observación, es el argumento de la carga teórica de la percepción. Este es un argumento que tuvo mucha importancia a finales de los años 50, ya que amenazó a algunos de los presupuestos más importantes de la visión de la ciencia del empirismo lógico. Por ejemplo, la imagen acumulativa de la ciencia, imagen en la cual las teorías sucesoras engullen a las anteriores, es decir, la ciencia se construye sobre lo construido y, así, se 2

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

muestra una historia de progreso basado en la acumulación. La imagen acumulativa de la ciencia depende de ciertos presupuestos, siendo uno de ellos que el suelo sobre el que se aumenta la edificación sigue siendo el mismo, que las bases no cambian. Por ejemplo, tenemos dos teorías T1 y T2 que se suceden en el tiempo de forma que T2 explica lo que explica T1 y algo más, y podemos decir que T2 es una mejora de T1 siempre que T1 ⊂ T2 y que T2 explique más que T1. Para poder decir esto, hay que decir con respecto a qué, esto es, hace falta un asidero externo, y esto es el suelo de la experiencia o base observacional. Si la base observacional T1 es diferente de la de T2, porque los términos observacionales en T1 tienen una carga teórica característica de T1 y porque T2 tiene una carga teórica característica de T2, entonces se habla de cosas distintas y se crean dificultades graves para la imagen acumulativa de la ciencia. Lo que vemos depende de lo que esperamos ver, es decir, de las expectativas en las que son manejados los términos observacionales, y esto puede hacer que se vean cosas que no existen. Por ejemplo, el descubrimiento de los rayos-n: estos rayos tuvieron una existencia de unos años hasta que se descubrió que eran producto de las expectativas teóricas de los físicos franceses que los estaban investigando, por lo que hubo que buscar a físicos de otro continente para que probaran que no existían. El problema de los rayos-n era que se movían en los umbrales de la percepción humana. Otro ejemplo se da en biología con las diferencias raciales: se consideraba que los negros eran inferiores, y esto es producto de un filtro cultural. Otro ejemplo es la teoría de la violencia como clave para la evolución humana. De este modo, podemos decir que no hay un mundo sólido de hechos que no esté filtrado por nuestras teorías, y esto es lo que expresa el argumento de la carga teórica, lo que tampoco significa que valga cualquier cosa. Si no hay términos observacionales sin carga teórica, no hay un asidero externo que sirva para valorar comparativamente dos teorías y, entonces, no podemos decir de un modo no trivial que una teoría es mejor que otra. Esto es algo que dificulta la defensa de la carga acumulativa de la ciencia presupuesta por el empirismo. Una conclusión que podemos derivar de esto es el presupuesto papel causal de la racionalidad para resolver cuestiones científicas. Se carece del más importante de los elementos de juicio que se supone considerado en ciencia para valorar los méritos epistémicos de una teoría, a saber, su valor empírico, es decir, su potencia explicatoria o predictiva. En ciencia, ser racional consiste en prestar atención en su justa medida a la evidencia empírica y, además, respetar las leyes de la lógica. Cuando se comparan dos teorías, el elemento más importante es saber cuál es el alcance predictivo y su precisión, y todo esto tiene que ver con la base observacional. Si no tenemos esta base observacional común, vamos mal. La defensa de esta tesis se asocia con una especie de relativismo o de contextualismo en tanto que hay que tener en cuenta la diversidad de formas en que la teoría puede canalizar la experiencia. T. Nicles mantiene que la teoría canaliza la experiencia en el sentido en que determina lo que pueda medirse como datos, es decir, la propia teoría determina cuáles son las características relevantes de los objetos. Lo que se defiende aquí es que hacer ciencia no es tan sencillo como edificar una teoría sobre la base de la observación, sino que supone establecer una especie de sistema en el que hay un movimiento de la teoría a la observación y de la observación a la teoría. Esto es lo que defiende el argumento de la carga teórica de la observación. Incluso a nivel corporal. Somos el resultado de apuestas teóricas. Sobre este argumento se suele presentar otro conocido como “argumento de la inconmensurabilidad”, que también aparece en la obra de Khun. La definición más clásica y 3

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

difundida es la que habla de dos teorías que cubren un mismo dominio de experiencia y son lógicamente inconexas. Por ejemplo, Feyerabend habla de incomparabilidad afirmando que, para que esto sea el caso, no deben cumplirse las relaciones conjuntistas de inclusión, exclusión y solapamiento. Esta definición está cercana al positivismo, aunque sea para ir contra él, y lo hace en términos positivistas. Khun da una definición que va más allá de la diferencia lingüística de las teorías y habla de métodos. Hanson utiliza una visión también más fuerte, no limitándola al contenido proposicional de las teorías, sino incluyendo percepciones diferentes además de conceptos distintos. La inconmensurabilidad está haciendo referencia a nuestra incapacidad para comparar teorías de acuerdo con ciertos criterios epistémicos comunes. Esto es, dadas dos teorías T1 y T2, no podemos encontrar un criterio que nos permita compararlas y decir que una es epistémicamente superior a la otra. Para ello, habría que echar mano de la lógica y comparar los axiomas, o bien encontrar un terreno observacional común que nos permita decir que una teoría es explicativamente más potente que la otra, lo cual no es posible debido a la carga teórica de la observación. Esto no quiere decir que las teorías no sean comparables, sino que hay muchas formas de comparar teorías. Lo que necesitamos es un patrón de comparación: se puede decir que una teoría es más elegante que la otra, pero la elegancia no nos dice nada acerca de la potencia o valor epistémico de una teoría. Sin podemos hablar de una observación libre de toda teoría, no hay ningún lenguaje para describir los hechos que son independientes de las teorías puestas a prueba y, por tanto, será inviable la valoración comparativa. La tesis de la inconmensurabilidad todavía hoy es intensamente discutida, pudiendo encontrar opiniones a favor y en contra. Si esta tesis fuera cierta, la historia de la ciencias sería caleidoscópica, no habría continuidad porque no habría un mundo de hechos que permita comparar las teorías. La inconmensurabilidad se puede entender de dos modos: Débil: hablaría de diferentes significados para los términos descriptivos de las teorías. Fuerte: hablaríamos de diferentes visiones del mundo, además de los diferentes significados. Hay una autora, Mary Hesse, que plantea el problema del siguiente modo: la carga teórica de la observación puede dar lugar a una inconmensurabilidad débil o fuerte. En el caso débil, el tipo de compromiso metodológico sería el de un relativismo débil; mientras que en el otro se trataría de un relativismo fuerte. Para explicar esto, Mary Hesse propone que analicemos dos teorías del universo; por ejemplo, la de Anaxímenes y la de Aristóteles. En este caso, el comportamiento de los cuerpos confirma las teorías de ambos, pero son teorías inconmensurables porque los términos descriptivos son diferentes: el término “caída” no es el mismo. Mary Hesse se pregunta si se puede diseñar un experimento crucial que nos permita decidir qué teoría es adecuada: según la interpretación débil, sí, aunque no sería fácil; pero según la fuerte, no, porque hablan de mundos distintos. Mary Hesse propone un experimento crucial: supongamos que contratamos a un tipo con una alfombra mágica, subimos en ella a Anaxímenes y a Aristóteles y los trasladamos a las Antípodas, al otro lado de la tierra; supongamos que los dos están de acuerdo en que se hallan en las Antípodas debido a la posición de las estrellas fijas; supongamos que allí cada filósofo deja caer un cuerpo. Bien, Aristóteles diría que cae, por lo que su teoría es cierta, mientas que Anaxímenes diría que sube, por lo que su teoría es falsa; esto es, tienen diferente concepción del movimiento. Por tanto, según Mary Hesse, a pesar de la inconmensurabilidad de las teorías, hay modo de diseñar experimentos cruciales que nos permitan distinguir justificadamente entre teorías.

4

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Las condiciones de posibilidad del experimento de Mary Hesse suponen que tiene que haber puntos en común entre la teoría de Anaxímenes y la de Aristóteles para poder realizar un experimento crucial que tenga valor en ambos casos. Se está presuponiendo que hay un conocimiento teórico común que, por ejemplo, nos permite localizar la posición de ambos según las estrellas fijas. Además, tienen otro punto en común, la experiencia fenomenológica, pues ambos observan lo mismo, ambos ven cómo el cuerpo se desplaza desde el lugar en que lo sueltan hacia sus pies, aunque después, en virtud de las distintas visiones del mundo, uno lo llame caída y otro subida, pero su referente es el mismo. Así que el experimento de Hesse no se puede utilizar, porque presupone un cierto conocimiento. No obstante, a favor de este ejemplo podemos decir que muestra que los términos descriptivos, aunque sean los mismos, con significados diferentes, es posible encontrar criterios epistemológicos para la valoración comparativa de esas teorías. La inconmensurabilidad no es sí o no, sino que hay una gradación que depende de la radicalidad en la diferencia de la nueva teoría con la anterior. Esto lo deja claro Kuhn cuando dice que ptolemaicos vivían en un mundo diferente al de los copernicanos. La versión fuerte puede mantenerse cuando el cambio es muy radical, pero hay otros tipos de cambios que no son tan bruscos y en los que puede haber cierta continuidad. La inconmensurabilidad admite distintas interpretaciones y es un tema complejo en el que hay debate. El “argumento de la infradeterminación” supone que, sobre la base de unos datos de observación, podemos proponer en principio un conjunto abierto de hipótesis que den cuenta igualmente bien de esos datos; esto es, dado un problema en ciencia, es posible un número abierto, indeterminado, quizá infinito, de soluciones. El problema del ajuste de curvas es una variación del problema de la infradeterminación. Hay que tener en cuenta que las teorías científicas no son infalibles, y se ha demostrado que con el tiempo pueden llegar a ser falsas, por lo que una ley o una hipótesis no tiene por qué ser definitiva o la única posibilidad. En todas las ciencias hay controversias y disputas que marcan la vanguardia de lo que es conocimiento. Por ejemplo, S. Cole distingue entre lo que él llama conocimiento nuclear y conocimiento de frontera. La imagen que se nos presenta de la ciencia es que es algo exacto sobre lo que hay consenso, y esto es así en lo que Cole denomina el conocimiento nuclear. Hay leyes y principios que en su momento fueron disputas, pero que ahora son principios fuertes de la ciencia a la que pertenecen, son lo que se llaman hechos. Ahora bien, hay más cosas: hay disputas acerca de la correcta interpretación de unos datos que suelen ser finitos, y esto último es el conocimiento fronterizo. Por ejemplo, la física que encontramos en los libros de texto es física ya discutida, la controversia es el núcleo de la actividad científica real y aparece, entre otros lugares, en las revistas. Otra forma de presentar el argumento de la infradeterminación (o subdeterminación) es decir que hay incompatibilidad teórica pese a haber equivalencia empírica. Si tenemos una teoría T0, puede haber alternativas que cumplan: Que sean individualmente consistentes y lógicamente incompatibles, es decir, que no se puedan reducir ni derivar y sean incompatibles. Esas alternativas teóricas están igualmente confirmadas por la evidencia empírica disponible. No hay nada en T0 epistemológicamente relevante que determine qué alternativa es más adecuada desde el punto de vista del éxito pasado de T0.

5

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Hay algo en la segunda condición que vincula este argumento con la carga teórica de la observación. Aquí se dice que la evidencia empírica debe ser equivalente, y hay que preguntarse qué evidencia empírica es la adecuada, pues si se tiene en cuenta la evidencia empírica desde el punto de vista de las teorías alternativas, el argumento de la carga teórica de la observación podría aplicarse. No sólo el problema de la infradeterminación se presenta en episodios particulares de la historia de la ciencia, sino que puede aparecer en conjunción con el argumento de la carga teórica de la observación: cuando los términos descriptivos de las teorías alternativas no son compatibles, no se habla de lo mismo. La forma tradicional de entender el conocimiento científico es verlo como la aplicación de un método, método que tiene dos partes fundamentales: el razonamiento deductivo y la inferencia inductiva. Si tenemos varias alternativas, ¿qué hacer para elegir una?, pues hay que elegir una sobre la base de un cuerpo de evidencia finito. Desde la visión tradicional, si nuestra decisión es racional, se utiliza el razonamiento deductivo o la inferencia inductiva. Pero puede ser que necesitemos otros elementos de juicio. Si la experiencia no nos basta y tampoco la lógica, puesto que las teorías no son contradictorias, estamos rebasando el ámbito de los elementos de juicio de naturaleza epistémica que nos permitirían dar una explicación racional. La lógica y la experiencia son insuficientes para determinar un curso de acción, por eso se dice que está infradeterminado. El problema de la infradeterminación es lógico y epistemológico; en la práctica, los científicos manejan un conjunto finito de evidencia, pero el problema surge con las teorías. Kuhn dirá que lo que determina un curso de acción u otro es un factor social, no epistémico. Hay muchos autores que dicen que hay que repensar el concepto de conducta racional. En el contexto de crítica al positivismo lógico, el autor más conocido es Kuhn ensombreciendo la labro de otros autores como puede ser, por ejemplo, Quine, cuya labor se desarrolla a mediados del s.20. A Quine se debe que la ciencia comience a ser estudiada en contexto, estudiando los factores externos a la propia comunidad científica. Quine rechaza la distinción entre verdades analíticas y verdades sintéticas. En su artículo “Dos dogmas del empirismo”, sin abandonar el empirismo, muestra la oscuridad de la distinción anterior, cuya raíz se remonta a Kant y su diferenciación entre proposiciones analíticas y sintéticas. En segundo lugar, Quine se desmarca del dogma verificacionista en su versión atomista, según el cual las proposiciones particulares y de forma aislada son las que se confrontan con la experiencia, que se convierte en juez de las mismas. En su obra “Palabra y objeto” expone su tesis de la indeterminación de la traducción, tesis que guarda estrecha relación con la tesis de la infradeterminación de la teoría. Aunque Quine aplica en principio esta tesis a un contexto lingüístico, más tarde la amplía, y su reconocimiento supuso un duro golpe para la mentalidad racionalista de los empiristas lógicos. Según la tesis de la infradeterminación de las teorías por la experiencia, para cualquier teoría o hipótesis propuesta a fin de explicar un determinado fenómeno, es posible producir un número indefinido de teorías o hipótesis alternativas que sean empíricamente equivalentes con la primera, pero que, sin embargo, propongan explicaciones incompatibles del fenómeno en cuestión. Además, virtudes cognitivas tradicionales (a las que los positivistas lógicos acudían, como la simplicidad, potencial explicativo, capacidad predictiva, etc) no son suficiente para decir qué hipótesis es adecuada. Ejemplos de la infradeterminación son los proporcionados por las controversias científicas. Posteriormente autores como Feyerabend o Kuhn utilizarán con una misma intención la expresión de inconmensurabilidad en lugar de infradeterminación, aunque la idea sigue siendo la misma. 6

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

El ejemplo favorito de Kuhn lo representaría el encuentro entre un defensor de la mecánica cuántica (relativista) y uno de la mecánica newtoniana (determinista), pues aún cuando ambos puedan expresar sus teorías usando las mismas palabras, de ello no se sigue que tales palabras quieran decir lo mismo. Según Kuhn, el cambio de significado ha sido tan grande que los conceptos de una teoría no se pueden expresar en la otra, aunque los términos usados sean los mismos, pues la referencia en uno u otro marco conceptual es diferente. Esta tesis de la infradeterminación de las teorías, aunque se asocie a Kuhn y Feyerabend, fue anticipada por Quine a través de la tesis de la indeterminación de la traducción, según la cual es posible elaborar dos o más manuales de traducción de un mismo lenguaje que sean incompatibles entre sí y que, sin embargo, cumplan satisfactoriamente las condiciones que garanticen su eficacia. La conclusión es que no hay una base objetiva para hacer la traducción de una manera u otra. Esto, dicho en términos científicos, viene a ser lo siguiente: ante un mismo campo de evidencias, resulta posible elaborar teorías científicas que son equivalentes con la experiencia pero incompatibles entre sí. Esta tesis es una de las tendencias fundamentales en la filosofía de la ciencia actual. La idea es mostrar a Quine como un autor revolucionario y precursor en lo que serán las tendencias fundamentales en la filosofía de la ciencia posterior y actual. Tomando como referencias bibliográficas “La relatividad ontológica y otros ensayos” y “Del estímulo en la ciencia”, en las que se muestra la teoría de la naturalización de la filosofía, vamos a centrarnos en las reflexiones de Quine sobre la comunidad científica: la crítica al concepto tradicional de ciencia. La concepción tradicional de la ciencia tiene como objetivo diferenciar el conocimiento legítimo del que no lo es, y esto lo hace según un criterio de racionalidad: el principio de verificación, que supone que un enunciado o proposición es científico si y sólo si puede ser empíricamente verificada, siendo en caso contrario una pseudo-proposición. Del principio de verificación se deduce que, para los positivistas lógicos, el único conocimiento legítimo es el fundamentado en la experiencia, y, más concretamente, admiten dos tipos de proposiciones: las analíticas y las sintéticas. Las proposiciones analíticas son puramente formales (tautologías y contradicciones), se pueden verificar en virtud de su forma lógica y no en virtud de la experiencia. Las proposiciones sintéticas pueden ser atómicas y moleculares. Las atómicas se pueden verificar experiencialmente comprobando si hay hechos, o no, que le correspondan. Las moleculares determinan su valor de verdad a partir de los valores de verdad de las proposiciones constituyentes y la aplicación sobre éstas de las constantes lógicas. Los empiristas lógicos, aplicando el método de la verificación, distinguen las pseudoproposiciones, en tanto que son meras combinaciones de signos o sonidos sin contenido cognitivo, no se pueden verificar y no pueden ser ni verdaderas ni falsas. Con las pseudoproposiciones no se puede aprender porque carecen de contenido cognitivo. Así, la ecuación lógica + experiencia nos permite distinguir el conocimiento científico del que no lo es. El conocimiento científico se dividiría en enunciados analíticos (verdaderos por su forma lógica) y enunciados sintéticos (verdaderos en función de su correspondencia con los hechos empíricos o experiencia). Esta distinción entre enunciados analíticos y sintéticos constituye el primero de los dogmas criticado por Quine y, en consecuencia, el objeto de sus críticas.

7

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Quine es un ejemplo de crítica a la concepción tradicional de la ciencia, es un empirista pero con matices, pues el suyo pretende ser un empirismo sin dogmas. Mantiene una vinculación ambivalente porque, al tiempo que hereda y comparte muchas de las tesis del empirismo, estamos ante el pionero de la crítica interna y la heterodoxia dentro de este movimiento. En el artículo “Dos dogmas del empirismo”, Quine en ningún momento desarrolla críticas contundentes y definitivas, sino que su estrategia consiste en mostrar que ninguna de las propuestas que se han efectuado para justificar esas tesis es aceptable. A partir de aquí, quiere decir que sus partidarios las creen como un acto de fe, pero no por tener buenas razones para ello. La distinción analítico/sintético tiene su antecedente en Hume (relaciones de ideas/cuestiones de hecho), Leibniz (verdades de razón/verdades de hecho) y Kant (enunciados analíticos/enunciados sintéticos). Para poder justificar que existe tal distinción entre verdades analíticas y sintéticas, se requiere por lo menos ofrecer una caracterización precisa entre unas y otras, y lo que Quine muestra a lo largo de su ensayo es que ninguna de las caracterizaciones que se ofrecen de esos conceptos es adecuada. Quine ve el problema en la definición de verdad analítica, en las verdades en virtud de su forma lógica, independientemente de los hechos. Quine en ningún momento desarrolla argumentos definitivos, no prueba que no pueda haber definiciones satisfactorias de verdad analítica, sino que dice que las que hay hasta ahora no sirven, pues “ofrecen ilusión de que explican, pero no lo hacen porque los términos que emplean están tan requeridos de explicación como aquello que se intenta explicar”. Autores que han intentado explicar la noción de analítico han recurrido a términos que también requieren explicación; por ejemplo, significado, sinonimia, reglas semánticas, necesidad, mundo posible, etc., son términos que necesitan de tanta explicación o más que aquél que tratan de explicar. Para Quine, hay que tener en cuenta los factores que determinan la analiticidad porque de otro modo esta distinción analítico/sintético será un dogma metafísico. Por tanto, el principio de verificación no tiene unas consecuencias tan obvias como los positivistas consideraron en su momento. El segundo de los dogmas sería el del reductivismo: todos los enunciados con sentido son, en último término, reductibles a la experiencia; esto es, todos los enunciados se refieren a la experiencia sensible o, cuando menos, son reductibles a términos que se refieren a la experiencia. Lo que es dogmático no es el verificacionismo, sino que esto es la afirmación de que todo enunciado con sentido es reductible a la experiencia. Quine estaría de acuerdo con esto, pero lo que no acepta es el reductivismo, es decir, la afirmación de que todos los enunciados de forma aislada se llevan al tribunal de la experiencia. Frente a este reductivismo, Quine adopta otra forma de reductivismo, aunque de carácter holista: el holismo de Quine. Según la teoría verificacionista, todo enunciado aislado posee un ámbito de experiencias que lo confirman o lo invalidan. Quine estaría de acuerdo con esto, pero con un matiz: no acepta esta visión molecular del verificacionismo y apuesta por una versión holista. Su opinión es que los enunciados no se someten al tribunal de la experiencia individualmente, sino de forma corporativa. Frente al verificacionismo molecular de los positivistas, tenemos el verificacionismo holista de Quine, el cual cree que son los conjuntos de hipótesis, no las hipótesis aisladas, lo que contrastamos empíricamente. El holismo sostiene que los objetos de contrastación empírica no son las hipótesis teóricas aisladas, sino amplios cuerpos de teoría. Lo que Quine está haciendo es poner en duda uno de los pilares del positivismo lógico, el conocimiento inductivo. 8

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

De acuerdo con el problema de la inducción (Hume), ningún número finito de enunciados singulares puede justificar un enunciado universal de forma concluyente. Las leyes científicas (enunciados universales que afirman algo acerca de todo objeto en todo tiempo y lugar) tienen universos abiertos de aplicación. Después del problema de la inducción, se había llegado a la conclusión de que el conocimiento científico parece estar obligado a resignarse con la mera confianza razonable y el acuerdo intersubjetivo, es decir, todos confiamos en que la naturaleza sigua comportándose como hasta ahora, pero no tenemos garantías para afirmar de forma justificada que esto es así. Versiones holistas contemporáneas que recogen esta cuestión de Hume han insistido en este hecho destacado por Hume: un número finito de observaciones no puede servir de base suficiente para probar una hipótesis general. La dificultad señalada por la tradición holista radica en que las hipótesis no se llevan aisladamente al tribunal de la experiencia, sino en relación con una regla. Esto es, un conjunto de hipótesis entre las que se encontrarían las hipótesis auxiliares, los aparatos de medida, etc. El primer autor que habla del holismo es Duhem, físico francés a partir del cual desarrolla Quine la tesis del holismo, la cual pretende hacer frente a las dificultades que surgen a partir del problema de la inducción. Esto se conoce como la tesis de Duhem-Quine: no es una hipótesis la que se lleva al tribunal de la experiencia, sino un conjunto de hipótesis. Según esta tesis, la conclusión o predicción no se deriva de forma aislada de P, sino de P en conjunción con un conjunto de hipótesis: P∧ r ∧ s ∧ t ... Por tanto, para que la conjunción sea verdadera, todos los términos de la conjunción deben serlo, y basta con la falsedad de una de las hipótesis para que el resultado sea desfavorable. De este modo, la conclusión de Quine es que no podemos aspirar a tener garantías concluyentes con respecto a la verdad o falsedad de una hipótesis ante el tribunal de la experiencia. En este punto, retomando la idea de Hume, Quine se constituye como uno de los principales críticos a la visión de la ciencia de los positivistas lógicos afirmando que no se puede someter a verificación hipótesis aisladas, sino grupos de hipótesis, a las que hay que añadir el funcionamiento de los propios aparatos de medida. El holismo fue formulado inicialmente por Duhem, aunque Quine añade ciertas peculiaridades, de las cuales la más importante es la que hace referencia a las posibilidades de revisión de las teorías. Lo normal es que se comience por las hipótesis menos importantes. Para Duhem, en caso de que la revisión sea necesaria, debe comenzarse por hipótesis de economía, psicología, historia, etc., y dejar intactas las hipótesis nucleares (matemáticas, física, etc.). Por tanto, Duhem considera que las teorías tienen un carácter monista aunque con matices, y en caso de revisión iríamos a las hipótesis menos importantes. Pero Quine no estaría de acuerdo con esto, sino que revisaría todas las hipótesis sin hacer distinción. Además, Quine no distingue entre contexto de descubrimiento y contexto de justificación, mientras que Duhem sí lo hace. El holismo de Quine es de las pocas cosas que rectificó acercándose, con el paso de los años, a la posición de Duhem. Con el tiempo, apela a la máxima de la mutilación mínima: vayamos primero a las hipótesis de la historia, economía, etc., y, si algo va mal, es cuando podemos utilizar el núcleo teórico. La posición de Quine es vista por muchos autores como el inicio del giro naturalista. En el tratamiento de los dogmas se ve su carácter revolucionario, y en el naturalismo se aprecia su carácter anticipador. El naturalismo supone que todo lo que existe y sucede en el mundo es susceptible de ser explicado por la ciencia, por los conocimientos de que disponemos aquí y ahora sin necesidad de métodos trascendentales o a priori. La naturalización de la 9

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

epistemología propuesta por Quine es la consecuencia más importante de sus tesis, es el punto en el que convergen sus principales líneas argumentativas. Se trata de reconocer que la fórmula lógica+experiencia es insuficiente para responder a la pregunta por la naturaleza de la ciencia. El argumento de la indeterminación (infradeterminación de la traducción), la imposibilidad de distinguir entre enunciados analíticos y sintéticos, y la afirmación de la necesidad de comprobar de forma aislada la verdad o falsedad de las hipótesis, prepara el terreno para lo que será la idea básica de la epistemología naturalizada de Quine: el reconocimiento de que no existe una filosofía primera, unos principios absolutos e inmutables verdaderos en todo tiempo y lugar o, lo que es lo mismo, que no existe un marco de referencia absoluto desde el cual juzgar nuestro conocimiento de las cosas. Por naturalización de los estudiosos de la ciencia se entiende el estudio empírico del conocimiento humano y sus productos, esto es, la cientifización del estudio de la ciencia. Ronald Gilre es uno de los máximos representantes actuales del giro naturalista. La filosofía naturalizada se opone a la epistemología tradicional que solía defender la existencia de métodos lógicos científicos universales cuya utilización y aplicación rigurosa permitía discernir la ciencia genuina de otras actividades humanas; sin embargo, desde los presupuestos del naturalismo, no se ve necesario apelar a un método trascendental y a priori, sino que se trata de asumir el carácter evolutivo del conocimiento científico incluyendo sus métodos y sus principios epistemológicos. La propuesta de Quine a favor de este naturalismo surge cuando la concepción heredada de la ciencia, caracterizada por su carácter fundamentalista, entra en crisis. Se trataba de hallar un fundamento seguro para las teorías científicas y, de esa manera, diferenciarlas de aquellas que no lo eran. La filosofía naturalizada de Quine surge por oposición directa a este tipo de planteamientos, en tanto que niega que haya criterios absolutos, inteporales, ahistóricos y omniaplicables de cientificidad. Problemas como los detectados por Quine y otros autores, como pueden ser el de la infradeterminación y el de la carga teórica de la observación, entre otros, constituyen una prueba contundente y definitiva respecto a la necesidad de contar con otros factores de tipo social, pragmático cultural, histórico, valorativo, etc., a la hora de describir y estudiar la naturaleza de la ciencia, y si algo tiene este tipo de factores es su carácter evolutivo y cambiante. A partir de este momento, es como si se iniciase un estudio de la ciencia en contexto. El giro naturalista es una de las corrientes fundamentales en la ciencia actual, aunque recibe críticas como afirmar que el naturalismo llevado al extremo nos lleva al relativismo. Relativista se consideraba a Feyerabend porque reconoce que la única verdad que se puede admitir en ciencia es que todo vale, y no tenemos por qué esperar que la ciencia haya de actuar con reglas fijas y generales. Ante esta acusación de relativismo, los naturalistas dirían que ellos están en contra de criterios objetivos intemporales, es decir, que los criterios normativos estarían sujetos a cambio y evolución. En Quine hay un tema recurrente: cómo conocemos. La epistemología naturalizada es, en su opinión, el modo como conocemos la realidad que nos rodea. Por tanto, el suyo es un intento por responder al problema del conocimiento dentro de los márgenes de la propia ciencia haciendo uso de los conocimientos que ya tenemos. Quine admite la primacía de los problemas epistemológicos y, para él, la primera labor del epistemólogo es arbitrar criterios de certeza o justificación. Ahora bien, estos criterios de certeza o justificación no pueden dictarse desde fuera y al margen de nuestro conocimiento, y esto es así porque no existe un conocimiento a priori, una filosofía primera o un marco de referencia firme y absoluto. En consonancia con esto, Quine utiliza una metáfora: filósofos y científicos son navegantes del 10

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

mismo mar al que no pueden convertir en tierra firme y deben estudiar sobre la marcha. Al decir esto, entre otras cosas, apuesta por una interdisciplinariedad del conocimiento. Así, se deja de soñar con una filosofía primera más firme que la propia ciencia y en la cual la ciencia pudiera basarse. La idea es defender la ciencia desde dentro, además de los frutos que el conocimiento científico nos ha dado hasta el momento. Desde el año 1968, Quine usa de forma recurrente el eslogan de que no hay lugar para una filosofía primera. Este rechazo de Quine va asociado a su defensa de una filosofía naturalizada y a la idea de que la ciencia es continua con la filosofía natural. Esta continuidad entre filosofía y ciencia es opuesta a la apreciación de los positivistas lógicos, los cuales establecen una distinción tajante entre ciencia y filosofía. Para los positivistas, la filosofía es una actividad para reflexionar sobre la ciencia, pero en ningún caso está a la par de la ciencia, sino que su tarea es aclarar las proposiciones que se utilizan en ciencia. Por el contrario, para la perspectiva continuista expresada por Quine, entre ciencia y filosofía puede haber una diferencia de grado, pero no de género. En esta apuesta por la continuidad, en esta concepción global del conocimiento, con la ruptura de barreras entre conocimientos, pueden verse reflejadas las tesis de Quine que hemos considerado. Esto abre el camino a una visión contextualizada e interdisciplinar de la ciencia. El naturalismo de Quine y su holismo contribuyen a minar la fuerza de las características tradicionalmente aplicadas a la ciencia arrojando dudas sobre la posibilidad de explicar lógica o racionalmente el contenido de la ciencia sobre la base única de la evidencia empírica. De este modo, se abre la puerta a tendencias habituales, como el relativismo, pragmatismo, etc. Las tesis de Quine marcan un punto de inflexión respecto a la concepción racionalista anterior: el abandono de los puntos de referencia absolutos, de filosofías primeras, de métodos a priori, etc., para responder a la pregunta sobre qué es la ciencia o qué es lo característico de la racionalidad científica; el mantenerse dentro de los márgenes de la propia ciencia para tratar de resolver los problemas que se plantean y el recurso a orientaciones pragmatistas que ven la base de la ciencia en su capacidad para resolver problemas, constituye los pilares del panorama actual de filosofía de la ciencia, los cuales tienen en Quine un punto de referencia central.

11

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Tema 2: Dinámica de la Ciencia
Una de las cosas que se han dicho de Kuhn es que era un relativista, ante lo cual él mismo reacciona con mucho vigor. El lugar clásico para introducir el tema del relativismo es en el “Protágoras” de Platón, cuando afirma que “el hombre es la medida de todas las cosas”, y añade en el “Teeteto” “porque para mí la verdad es tal como la escribo: cada uno de nosotros es medida tanto de lo que es como de lo que no es...”. Aquí se hace referencia al relativismo epistémico. Si disponemos de un método que regula el aparato cognitivo de los científicos y un método que establezca normas que regulen la forma de actuar de los científicos, podríamos saber el porqué de muchas cosas; es decir, cuando se decide tomar una hipótesis, y no otra, es importante el método y las normas. Para poder llegar a una conclusión, el científico utiliza determinadas utilidades epistémicas, que son los elementos de juicio que el científico acoge al tener que elegir entre hipótesis. Estas utilidades científicas son: razonamiento deductivo inferencia inductiva simplicidad poder predictivo. Ante la pregunta por el consenso, el método es el que explica los consensos que se establecen en ciencia, y esto se da porque se dice que la naturaleza es de una determinada forma, que es así. Este no es el sentido relativista, no tiene cabida. Pero, ¿en qué medida abre Kuhn el relativismo? Kuhn dice que hay distintas formas de desarrollo temporal de la ciencia: Acumulativo: a través de pequeños pasos de aumento del conocimiento. Por revolución: el conocimiento avanza de forma abrupta. Debemos tener en cuenta que Kuhn tiene en cuenta determinados factores psico-sociales como son el factor político, económico, etc., que tienen una eficacia increíble a la hora de elegir hipótesis por parte del científico. Afirma que no hay un conjunto de valores compartidos que puedan tener los científicos, y esto puede llevar a un relativismo. Ahora bien, hay distintos tipos de relativismo: Relativismo débil: afirma el carácter convencional de los valores epistémicos (verdaderofalso, correcto-incorrecto, etc.) para teorías dadas con respecto a contextos culturales determinados. Relativismo fuerte: añade que tales juicios convencionales son arbitrarios con respecto a cualesquiera utilidades epistémicas o virtudes cognitivas. En el relativismo débil podemos decir que la conducta del científico en determinado contexto cultural propio de una tradición de investigación es racional, y se llama así porque se pone en un contexto cultural particular en el cual se comparten unos criterios epistémicos. Pero en el relativismo fuerte esto no se da, pues negaría incluso la posibilidad de justificación local. Mientras que el relativismo débil afirma la necesidad de contextualizar los modelos de justificación (disciplina histórica y/o social), el relativismo fuerte niega siquiera la posibilidad de justificación local. El contexto cultural puede tener muchos formatos: laboratorio, línea de investigación, conjunto de disciplinas, cultura occidental, etc., es un 12

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

concepto difuso y es necesariamente así porque, dependiendo de un autor, podemos hablar de un contexto y no otro. El relativismo débil es el que cubre la mayor parte del espectro de los autores contemporáneos, como son W. Newton-Smith, Helen Longino e Ian Halkins. Los relativistas débiles niegan ser relativistas, mientras que los relativistas fuertes no sólo lo niegan, sino que niegan el propio relativismo. La mayoría de los autores que vamos a ver en filosofía de la ciencia son relativistas débiles, y sólo hay unos pocos que puedan ser considerados relativistas fuertes, como podría ser el caso de Feyerabend, aunque se trata de un caso un poco dudoso. Otros autores que sí parecen encajar en un relativismo fuerte son, por ejemplo, los antropólogos Bruno, Latour, Michel Collan y Karin Knorr-Cetina. Dentro del relativismo fuerte encontramos al empirismo lógico y los enfoques semánticos. Hechos y valores en Ciencia Al tratar de la concepción heredada de la ciencia o positivismo lógico hay que explicar diferentes cuestiones: contexto de descubrimiento/justificación método científico el progreso acumulativo de la ciencia valores y ciencia en la concepción heredada ciencia y política pública El contexto de descubrimiento cubre el proceso que lleva hasta un descubrimiento, mientras que el contexto de justificación encubre el proceso de estudio de hipótesis y cómo éstas, una vez comprobadas, se incorporan a la ciencia. Otro aspecto fundamental del positivismo lógico es el método científico. La ciencia se reducía a un proceso en el que los aspectos políticos, sociales, etc., son rechazados, y los positivistas lógicos negarán que estén influidos por valores: la ciencia es una empresa objetiva, y los únicos valores que admiten son la simplicidad, el poder predictivo, el poder explicativo y la fertilidad teórica. Vannevar Bush, en un informe de 1945, considera que la ciencia es una empresa de acercamiento progresivo a la verdad; y, cuando la ciencia pura se lleva a cabo de forma autónoma, trae consigo las técnicas. Este modelo es conocido como “modelo lineal de innovación”, según el cual de la investigación básica se deriva la investigación aplicada, y de aquí se obtiene un desarrollo tecnológico del que se deriva una tecnología aplicada, al tiempo que de la tecnología aplicada se deriva un progreso social. La ciencia no debe ser presionada desde fuera. Sarewitz, en “Frontiers of illusion”, estudia todos los mitos de Bush y lo denomina el mito de la investigación sin trabas. Las instituciones públicas deben subvencionar el gasto, puesto que supondrá un progreso social: cuanto mayor sea el gasto, mayor será el progreso social, algo que es llamado mito del beneficio infinito. Lo único que se le puede exigir al científico es que siga el método científico. La obra de Khun supuso un revulsivo para este modelo. Kuhn no era filósofo de formación, sino un químico que se dedicó a la historia de la ciencia rechazando su imagen idealizada en busca de una ciencia real. La historia científica no se ha realizado mediante un proceso acumulativo de la ciencia, sino mediante cambios bruscos. De este modo, la historia de la ciencia tendría el siguiente esquema: Ciencia normal→ revolución científica→ ciencia normal

13

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

La ciencia normal debe buscar la estabilidad, y la comunidad científica admite los paradigmas o modelos de investigación: predicciones aplicaciones extensión de aplicaciones Se desafía el paradigma dominante en la primera etapa de ciencia normal y se adopta otro, con lo que, al final, se acaba alcanzando el nuevo paradigma. Por ejemplo, la revolución copernicana supone el paso del paradigma geocéntrico al paradigma heliocéntrico de Copérnico. Un cambio de paradigma no es sólo un cambio del método científico, sino también un cambio de visión del mundo. El proceso social será fruto de una serie de factores como la persuasión, valores que defienda cada uno, etc. Kuhn llega a afirmar que un cambio de paradigma es un proceso de conversión, y en un artículo de 1972 se ve obligado a establecer cinco criterios que establecen el cambio de paradigma: precisión coherencia amplitud simplicidad fertilidad El artículo de Ayer titulado “¿Qué es una ley de la naturaleza?” se divide en dos partes. En la primera parte habla de lo que no es una ley de la naturaleza, y pone varios ejemplos de lo que se consideran leyes de la naturaleza, como por ejemplo que la órbita de un planeta alrededor del Sol es una elipse. Las leyes de la naturaleza no son: preceptos imperativos, esto es, no pueden ser desobedecidos. leyes lógicas: hace dos críticas, trivial y Hume. Hume expone que no podemos conocer lo que hay entre dos elementos si no conocemos antes estos objetos. Lo que ocurre con las leyes de la naturaleza es que no vinculan dos objetos independientes; por ejemplo, “la magnetita (elemento) atrae al hierro y al acero”, donde hierro y acero son propiedades a=a. Otro ejemplo es “la aceleración de un cuerpo es igual a la fuerza que actúa sobre él por su masa”, donde si sustituimos fuerza por su definición estaríamos ante una tautología. Las leyes científicas se caracterizan por: Deben tener contenido empírico. Son generalizaciones universales, es decir, son enunciados que declaran la existencia de constantes en la naturaleza. ∀x (Px → Qx) “Todos los planetas tienen órbitas elípticas”. Pero tendríamos que aceptar por verdaderas oraciones del tipo “Todos los caballos alados son mansos”. Tienen que tener esta estructura: ∀x (Px → Qx) ∧ ∃x Px. Pero Ayer afirma que debemos tener leyes sobre cosas que no existen, por lo que no podemos aceptar esta estructura. Toda ley científica tiene que aceptar casos posibles, generalización de hecho: “Todos los presidentes de la tercera República francesa son varones” ∀x (Px →Vx). 14

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Hay que distinguir las generalizaciones de hecho de las generalizaciones de la ley. Ante esto, Ayer afirma que el radio de acción de las leyes científicas es infinito, y decir esto implica los subjuntivos condicionales, por ejemplo, en “todos los planetas tienen órbitas elípticas”, lo que implica decir que cualquier cosa que sea un planeta tendría órbitas elípticas. Hasta aquí llegan todas las explicaciones positivistas clásicas, pero Ayer va más allá afirmando que lo que diferencia las generalizaciones de ley de las de hecho es la actitud de la persona que las enuncia. Por ejemplo, “todos los planetas tienen nombres latinos”, si esto es verdadero, no estamos dispuestos a admitir que cualquier ejemplar que x=a y Pa tuviera una propiedad. Si admitimos que tiene una proposición característica R (x =a = Marte; Pa = ser un planeta; R = tener un nombre que aparece en un escrito del s.7 a. de n.e. Si admitimos lo que hay entre (), no podemos admitir la propiedad L (ser latino), con lo que sería falso. Así, el poder tener R es lo que diferencia a las generalizaciones de hecho de las generalizaciones de ley. Por ejemplo, una generalización de ley sería “el agua hierve a 100ºC” o ∀x (Ax → Hx). Ayer, al final hace una conclusión muy complicada: Para que alguien tome una proposición de la forma “si algún objeto es P también es Q” como una ley natural es suficiente: que, suponiéndole dispuesto a explicar satisfactoriamente las posibles excepciones, crea que, en sentido no trivial, todo aquello que de hecho posee P posee también Q. que su convicción de que el objeto que posea P también posee Q no esté dispuesta a ser debilitada por el descubrimiento de que aquél posee igualmente alguna otra propiedad R, con tal de que: R no implique lógicamente la existencia de Q R no sea una manifestación de “no-Q” el descubrimiento de la presencia de R en sí misma no debilite seriamente su fe en la presencia de Q no considere la afirmación “ si un objeto posee P y no-R, posee Q” como una formulación más exacta de la generalización que se proponía expresar. Hempel viene a decir más o menos lo que Ayer, pero la definición es más clara. Para Hempel, las leyes científicas son enunciados de forma universal ∀x (Px → Qx) que afirman la existencia de una conexión uniforme entre hechos empíricos, y afirma que hay razones para pensar que es verdadero. Hempel llama a las generalizaciones de hecho generalizaciones accidentales, y una de las características que las separan de las leyes científicas es que sirven para justificar condiciones catastróficas. Por ejemplo, “si hubiéramos puesto una vela, se habría fundido”. Podemos también justificar condicionales subjuntivos: dejamos en supuesto si un hecho se ha dado o no. En contrafácticos nos encontramos con hechos que no han ocurrido. Otra característica más de las leyes universales es que se refieren a un conjunto potencialmente infinito de casos. Además, se pueden considerar como ley incluso si es una expresión de hechos que no se cumplen. Por último, la característica principal de las leyes universales es que pueden servir de base para explicaciones científicas, y aquí encontramos el modelo nomológico-deductivo. El modelo nomológico-deductivo se explica mediante su constitución: el explanans aúna leyes científicas y condicionales antecedentes, mientras que el explanandum es la conclusión: 15

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

hecho que ha tenido lugar: explicación científica hecho que no ha ocurrido aún: predicción. El tema de la naturaleza de las leyes científicas es fundamental en el positivismo. Presupuestos principales de la visión clásica de la ciencia del empirismo lógico La visión clásica de la ciencia del empirismo lógico trataba de comprender la naturaleza de la ciencia entendida como saber metódico. Es importante saber por qué entendía la ciencia de un modo intelectualista, como una forma específica de conocimiento que tenía una cierta estructura y un cierto patrón de relaciones con el mundo externo. A su vez, era un conocimiento porque era resultado de un método. Lo concerniente a la estructura del método del que resulta el conocimiento específico es lo que ya se ha visto en metodología de la ciencia. Un lugar común de la reflexión clásica sobre la ciencia era el método H-D para el desarrollo del conocimiento: comprobación de hipótesis y derivación de hipótesis contrastadoras. Nos vamos a centrar en la parte de la naturaleza de la ciencia, de acuerdo con el empirismo lógico. Ante la pregunta por la racionalidad de la ciencia, los empiristas lógicos como Carnap, Hahn, Neurath, Hempel, Reichenbach, etc., entendían que una respuesta a esta pregunta debía contener información no sólo sobre el método, sino sobre la estructura o característica específica del saber científico. Los empiristas lógicos tomaron como instrumento la lógica simbólica, como modelo la física matemática, y como marco filosófico el empirismo de Hume así como el “Tractatus” de Wittgenstein”. Respecto a su visión de la estructura específica de la ciencia, entendían la ciencia como un campo de conocimiento que tenía una particular relación con la realidad o el mundo geométrico; para ellos, la ciencia ideal es la física matemática. Estas disciplinas, la física matemática, la química, etc., están constituidas por teorías: la teoría newtoniana, la teoría mecánica, la teoría de caída de los cuerpos de Galileo, la teoría de Kepler, la teoría cuántica, etc., y cada una de estas teorías está constituida por conjuntos de enunciados: las leyes del movimiento, la ley universal de gravitación, etc., y otras leyes derivadas de éstas. Los enunciados poseían unas ciertas características formales: contenían constantes y términos descriptivos. La interpretación empírica de los términos descriptivos es desempeñada por lo que ellos llaman principios-puente o reglas de correspondencia, las cuales conectan los dos vocabularios, el teórico y el observacional (Vo y Vt). De este modo, los enunciados característicos de las teorías científicas podían pertenecer, en virtud de sus componentes, a uno de estos dos niveles lingüísticos (Vo y Vt). La conexión está en los principios puente o reglas de correspondencia. En el empirismo lógico se da una definición de los términos teóricos, en tanto aquellos no observacionales. Además, las teorías científicas tenían también una cierta estructura general, la de un sistema axiomático, en el que existe una conexión deductiva desde los enunciados o leyes más generales a los más específicos. También tenían una visión axiomática, ordenada y jerárquica del edificio de la ciencia: el conocimiento de las disciplinas científicas podía ser visto como un gran sistema axiomático en el que a partir de la física matemática se podría derivar el resto. El punto de apoyo de la matemática sería la lógica simbólica. Esta es una visión ideal. Los empiristas lógicos se dan cuenta de que es imposible derivar los enunciados generales de la biología a partir de los de la física matemática, pero entendían que esto se debía a limitaciones del conocimiento humano, y que con el desarrollo de las ciencias 16

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

se van acercando cada vez más a este ideal. Esta tendencia aún existe hoy día. Para los empiristas lógicos, la matemática y las pruebas concluyentes de la matemática son el paradigma del conocimiento. De este modo, uno de los presupuestos del empirismo lógico es el carácter ideal de la física matemática como modelo de la ciencia madura. Hay muchos comentarios críticos que se pueden hacer al respecto: primeramente, esto puede ser denominado reduccionismo fisicalista, aunque para ellos supondría un logro, un paso adelante; además, la matemática no es el instrumento base a partir del cual se desarrolla el conocimiento físico, sino que hay una relación bidireccional, es decir, no hay una matemática ya dada que se complementa con la física, sino que se complementan una a la otra. Para dar una versión madura del empirismo lógico, vamos a acudir a F. Suppe, a R. Brainthwaite y, por supuesto, a Carnap. Suppe es uno de esos autores que han intentado establecer un carácter semántico para la estructura de la ciencia. De acuerdo con él, lo que podemos llamar la versión inicial de la doctrina del empirismo lógico es como sigue: las teorías científicas son entendidas como teorías axiomáticas fundamentalmente en una lógica L que cumple las siguientes condiciones: La teoría se formula en una lógica de primer orden con identidad. Los términos constantes de L se dividen en tres clases disjuntas llamadas vocabularios, que son como siguen: b1: vocabulario lógico que contiene constantes lógicas, incluidos términos matemáticos. b2: vocabulario observacional Vo que contiene términos observacionales. b3: vocabulario teórico Vt que contiene términos teóricos. Los términos de Vo se interpretan como referidos a objetos físicos directamente observacionales. Hay un conjunto de postulados teóricos T cuyos únicos términos no lógicos pertenecen al vocabulario teórico Vt. Se da una definición explícita de los términos de Vt en función de términos de Vo mediante reglas de correspondencia C. Esto es, para cada término F de Vt, deberá darse la definición de la fórmula Λx (Fx ≡ Ox)  función lógica, donde O es una expresión de L que contiene símbolos de Vo y posiblemente de vocabulario lógico. Esta distinción de Suppe no tiene ningún misterio, es sencilla: lo que hace es marcar el lenguaje, cuál va a ser el lenguaje de la reconstrucción. Aquí, distingue los recursos con los que va a trabajar este lenguaje, lo que se especifica en (c). Es importante contrastar cómo se define Vt como algo negativo, como lo no observable. En (d) se habla de postulados que están relacionados, además, con fenómenos observables, como se ve en (e). Esta es la versión inicial del empirismo lógico, que está realizando la versión verificacionista del significado. Estas reglas realizan un enlace con el mundo observacional y el de la experiencia. Su consecuencia es que todos los términos teóricos son cognitivamente significativos en la medida en que satisfagan el criterio verificacionista. El conjunto de postulados teóricos, un subconjunto impropio que podría coincidir con todos los postulados teóricos, serán los de la teoría. Las reglas de correspondencia estipulan el rango de aplicación 17

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

de la teoría, como también estipulan el significado, de modo que, a través de definiciones explícitas, establecen condiciones necesarias y suficientes para la aplicabilidad de los términos teóricos. Por ejemplo, una versión especial de este requisito es la versión de Bridgman del operacionismo: conceptos son sinónimos de sus medidas correspondientes, y lo que hade es introducir una versión particular de definición. La teoría se identifica con la conjunción de T y C, y se expresa TC. Dilema del teórico Este dilema es popularizado en filosofía de la ciencia por Hempel en “La explicación científica”, obra que recoge el dilema del teórico basándose en Skinner. El dilema del teórico plantea lo siguiente: si tomamos en serio el requisito anterior, para qué queremos términos teóricos. Podemos eliminar los términos teóricos. Skinner dice que, a menos que haya un punto débil en nuestra cadena causal (E→O→R: conecta estímulos, estados internos del organismo y respuesta, que es algo observable; es decir, quiere conectar lo observable con lo observable prescindiendo de factores internos), de forma que el segundo eslabón no esté nomológicamente determinado por el primero (derivado deductivamente), o el tercero por el segundo; entonces, el primer y el tercer eslabón deben estar nomológicamente relacionados. Skinner afirma que nos hallamos frente a un dilema, el dilema del teórico, que está en dos alternativas: o bien hay enlace nomológico a través de O entre eventos ambientales y conducta observable (E y R), en cuyo caso no hay necesidad de hablar de O. o bien no hay enlace nomológico a través de O entre E y R, en cuyo caso no deberíamos hablar de ellos porque no añaden nada, y lo que hay que buscar son enlaces nomológicos entre E y R (él dice que elaboremos leyes sobre cosas que sólo podemos observar). Esto se puede aplicar a cualquier uso de términos teóricos. Se critica el dilema del teórico en tanto que la visión de Skinner supone una postura del empirismo radical, hay que darse cuenta. Se critica, por ejemplo, el por qué debe darse una relación transitiva; o por qué la relación debe darse entre E y R, y no entre E y O, etc. Esto es porque hay presupuestos psicologistas detrás de todo ello. El dilema del teórico es convincente sólo si mantenemos una actitud empírica muy puritana, entendiendo lo observacional como algo ................... Si esto es así, es convincente, pero nunca concluyente. Este dilema pone en entredicho la visión naturalista del conocimiento humano. Una dificultad que tuvo que afrontar el empirismo lógico, señalada por Carnap en un artículo de año 36 planteando el problema para este requisito en términos disposicionales (frágil, soluble e inteligente son términos teóricos porque la fragilidad no se ve, sólo sus consecuencias) es el siguiente: para definir un término como frágil debemos proceder de forma que, por ejemplo, consideremos Fx, donde x es frágil, y consideremos también que definimos la fragilidad Rx donde x se rompe fácilmente. Así, Λx (Fx ≡ Rx). Esta definición explícita plantea el problema de que nunca podremos decir que algo es frágil si no se ha roto, porque estos términos acuden a disposiciones. Para afrontar el problema, podemos establecer una reconstrucción: Λx Fx ≡ Λx Λt (Sxt→ Rx)

18

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Esto es, algo es frágil si y sólo si algo que recibe un golpe seco se rompe. De este modo, parece que hemos resuelto el problema, que es que cualquier objeto que nunca haya sido golpeado sea considerado frágil. Pero así tampoco sirve. El problema es grave porque depende del lenguaje utilizado, que es el lenguaje de la lógica, y es un problema que afecta a muchísimos términos utilizados en física, ciencias naturales y, sobre todo, cuando nos referimos a términos acabados en –ble, -idad, -ente, pues la mayor parte de ellos son términos disposicionales. La solución que proponen los empiristas lógicos viene dada por los enunciados de reducción: Λx Λt [Sxt → (Fx ≡ Rxt)] Pero aparecen nuevos problemas: que el definiendum forma parte del definiens; y que ya no definen lo que es ser frágil para un objeto, sino que lo que hacen es estipular una condición de verificación aplicable en determinadas circunstancias. Λx Λt [Sxt → (Fxt ≡ Rxt)] ∨ Λx Λt → (Fxt ≡ Rxt) ∨.... Si los enunciados de reducción son el instrumento que utilizamos para dar cuenta del significado de los conceptos teóricos, entonces sólo podemos aspirar a una definición parcial de los mismos; es decir, hay una parte del concepto “frágil” que queda sin explicar. Este problema produjo la evolución dentro del empirismo lógico hacia lo que F. Suppe llama la versión final de la doctrina del empirismo lógico sobre la estructura de las teorías. El postulado (e) diría que las reglas de correspondencia C constituyen un sistema interpretativo que satisface las siguientes condiciones: El conjunto de reglas C debe ser finito: C< Xo. El conjunto de reglas C debe ser lógicamente compatible con los postulados teóricos, es decir, con los axiomas de la teoría. C no contiene términos lógicos que no pertenezcan al vocabulario observacional o al vocabulario teórico. Cada regla de C debe contener esencial o no vacuamente al menos un término del vocabulario observacional y otro término del vocabulario teórico. Las reglas de C deben ser tales que TC (combinación de postulados y reglas de correspondencia) sea cognitivamente significativa. Así, (e) sí nos obliga al uso de enunciados de reducción. Las reglas C, conjuntamente con los postulados teóricos, interpretaban las reglas del vocabulario teórico Vt especificando su contenido observacional. Hemos de renunciar a las definiciones explícitas. La postura de H. Feigl aporta una visión que explica la del empirismo lógico ante la pregunta por la ciencia, lo explica por reglas de correspondencia: T → leyes teóricas (explican el por qué) ↓ C ↓ O → leyes empíricas (explican el cómo) 19

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Por ejemplo, la masa molecular (T) puesta en relación o en red con otros conceptos, de modo que estos últimos conceptos pueden estar relacionados con leyes empíricas que, a su vez, poseen el suelo de la experiencia para establecer si se dan o no. Otro ejemplo lo pone Carnap: si se da una oscilación electromagnética, se dará un color verdoso de un determinado matiz (aquí se vincula observables a procesos inobservables). Otro ejemplo más: la Tº de un gas es proporcional a la Ec media de sus moléculas (dentro de los conceptos teóricos estaría el concepto “molecular”, “velocidad molecular”, etc., que no se pueden observar). Una característica de estas teorías es que nos permiten justificar la derivación de leyes o regularidades observables a través de la descripción de microprocesos inobservables. Así, por ejemplo, al hablar de la presión y la temperatura de los gases, debemos tener en cuenta que tanto la P como la Tº están en el nivel de las leyes empíricas. Sabemos que la P y la Tº están en relación, pero, para hacerlo, dan un rodeo por el nivel teórico, el cual es dado por el principio de la Ec que lo define como 1/1 mv². Así, a mayor Tº, mayor P, debido a que aumenta la velocidad de las partículas (utilizando el principio de la Ec). En este ejemplo, las leyes teóricas importan porque explican de una forma más clara y eficaz la relación que se dan en el nivel de las leyes empíricas; y, si no existiera, las relaciones serían mucho más pobres. Esta teoría molecular de los gases fue postulada por Clausius en 1857, el cual aportó la parte teórica, pues hasta entonces la teoría de los gases estaba restringida al nivel de las leyes empíricas. Pero, ¿qué elemento encontró Clausius en la parte fenoménica de la teoría de los gases? Encontró que puede aumentar la velocidad de las moléculas aumentando la P de las moléculas en un recipiente. También encontró la ley de Boyle, que establecía que el volumen de un gas es inversamente proporcional a la P del mismo (V x 1/P) para Tº constante. Asimismo, encontró la ley de Charles, que especifica que el V es directamente proporcional a la Tº (V x Tº) para P constante. Y, finalmente, encontró la ley de Avogadro, que dice que el V es directamente proporcional al número de moles (V x n) para T y P constantes. Todas las leyes anteriores son leyes empíricas, describen correlaciones que tienen lugar entre variables que están empíricamente establecidas. Reagrupando estas leyes, podemos determinar: P•V x n•T PV = n R T ] ecuación del gas ideal A partir de esto, podemos derivar leyes más específicas, como la de Graham: Va/Vb = √Mb/Ma O también se puede derivar la de Van der Waals, una ley que es un mero ajuste de la ecuación del gas ideal que permite predecir el comportamiento de un gas cuando las condiciones de ese gas están muy lejos para ser un gas ideal: (P+ n²a/V²) (V- nb) = n RT En este ejemplo hemos partido de leyes empíricas, las de Boyle, Charles y Avogadro, y hemos derivado la ley de la ecuación del gas ideal, que es una ley teórica a partir de la cual se han derivado las leyes de Graham y Van der Waals. Estas leyes teóricas tienen la estructura de un sistema deductivo, sistemático. Al introducir la ley de Graham, hemos introducido 20

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

conceptos teóricos, que es la aportación que Clausius dio para dar lugar a un sistema coherente y ordenado de lo que se llamó teoría molecular cinética de los gases. Pero Clausius aporto el relato teórico, está describiendo cosas que no podemos observar, esto es, que: Los gases están formados por moléculas individuales, separadas, que ejercen poca influencia entre sí, excepto cuando ese gas está a punto de convertirse en líquido (punto de licuefacción). Las moléculas gaseosas están siempre moviéndose en línea recta, al azar y con movimientos variables. Las colisiones entre moléculas, y de éstas con las paredes del recipiente, son elásticas, es decir, que no hay transferencia de E. Ec = ½ nv² Todos los gases poseen la misma Ec total a una Tº dada. Estos son los postulados teóricos que permiten enlazar las leyes empíricas. Conociendo la cuarta y quinta descripción, es fácil derivar deductivamente que las moléculas de gases que tengan peso pequeño (H, Hc) tendrán una velocidad mucho mayor que las moléculas de gases con un peso mayor, siempre a un Tº dada, porque, si la masa desciende, la velocidad aumenta para mantener constante la Ec molecular media. Así, lo que hace Clausius e mejorar el poder predictivo de las teorías dadas, da coherencia y organización a lo que estaba dado en el nivel empírico. Lo que dicen los empiristas lógicos es que la superestructura teórica nos ayuda a entender las leyes empíricas y nos aporta conocimiento acerca de este nivel empírico. “La explicación científica” de R. Braithwaite es una obra que contiene la explicación de las hipótesis en ciencia, como “todo P es Q” o “ si A, entonces B”. Esto puede ser reconstruido mediante una fórmula de la siguiente estructura: Λx (Px → Qx) y, además, él ve las leyes como hipótesis científicas verdaderas. Sobre esta base, Braithwaite afirma lo siguiente: un sistema científico consiste en un conjunto de hipótesis que forman un sistema deductivo (P → C). Podemos considerar que las proposiciones de todo sistema deductivo están colocadas en un sistema de niveles de suerte que las de nivel supremo aparecerían exclusivamente como premisas del sistema; las de nivel ínfimo sólo como conclusiones del mismo; y las de niveles intermedios podrían proceder como conclusiones de deducciones de hipótesis de nivel más elevado y servir como premisas para conclusiones que conduzcan a hipótesis de nivel inferior. De acuerdo con esto, la teoría de gases, por ejemplo, sería un sistema deductivo. El propio Braithwaite pone un ejemplo muy ilustrativo con la caída de los cuerpos de Galileo: la hipótesis de nivel superior sería “todo cuerpo en las proximidades de la Tierra y en caída libre hacia ésta cae con una aceleración de 9´8 m/s”; de aquí podríamos derivar toda una serie de hipótesis, con lo que podemos derivar “todo cuerpo que, partiendo del reposo, cae libremente hacia la Tierra, recorre 4´9 t² m en t segundos, cualquiera que sea el valor de t”. Esta hipótesis se deriva teniendo en cuenta el cálculo integral: d² /dt² = 9´8 t = O; s = O; ds/dt = O

21

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Así, la segunda se deriva deductivamente de la primera, a partir de cálculo integral. Así, en la segunda ya no encontramos el carácter general de la primera; a partir de la segunda podemos llegar a otro nivel inferior aplicando el principio lógico de la particularización, que supone que “todo cuerpo que partiendo del reposo cae libremente hacia la Tierra durante 1s. Recorre una distancia de 4´9 m”. Podemos derivar también de aquí que “todo cuerpo que partiendo del reposo hacia la tierra recorre, durante 2 s., una distancia de 19´6 m., que es el resultado de multiplicar 4´9 por 2²,...,”, y así sucesivamente. De acuerdo con Braithwaite, son las hipótesis de menor generalidad las que nos permiten poner a prueba la plausibilidad empírica de estos sistemas deductivos, y él afirma que las hipótesis tienen carácter transitivo. Braithwaite afirma que una hipótesis de un sistema deductivo que no sea de nivel supremo no sólo está apoyada por la observación de sus ejemplos o ejemplos de hipótesis apoyadas en el sistema, sino que también por observables de otras hipótesis del sistema. Con esto, quiere decir que el respaldo empírico se transmite a corriente y a contracorriente de los vínculos empíricos. Proceder a analizar (3a) en la experiencia supone un respaldo empírico no sólo para sí mismo, sino también para (2), para (1), e incluso también para (3b) y (3c). Ese respaldo que proporciona la experiencia se transmite a contracorriente y corriente de los vínculos deductivos que forman las hipótesis de estos sistemas. Un problema que considera Braithwaite es el hecho de que con esta visión de la ciencia podemos obtener respaldo confirmatorio para una hipótesis por el mero hecho de adjuntarla a un sistema deductivo, con un alto grado de confirmación. Por ejemplo, imaginemos que Newton haya adjuntado las tres leyes de la mecánica con la hipótesis de que “todos los cuerpos celestes son verdes”. Pero, ¿cómo prevenir esto? Braithwaite afirma que debemos exigir que las hipótesis de niveles superiores sean necesarias para las hipótesis de niveles inferiores. Otra dificultad que Braithwaite considera en su libro es la introducida por la tesis DuhemQuine, esto es, “ante un resultado desfavorable, el problema es discriminar el resultado desfavorable de las hipótesis que han tenido lugar en la derivación de la conclusión”. Ante este problema, afirma: supongamos que nos estamos ocupando de un sistema deductivo en el que no se tenga en cuenta una hipótesis de nivel supremo, sino que sean varias las hipótesis de nivel superior; entonces, lo que refutarían las hipótesis de nivel ínfimo sería la conjunción de estas varias hipótesis de nivel máximo. ¿Dónde está el fallo? ¿A qué hipótesis hay que remitirse? Braithwaite dice que la experiencia nos puede decir que en alguna parte del sistema hay algo equivocado, y afirma que este es un problema que no tiene solución. Problema de los términos teóricos Las referencias básicas de este tema las encontramos en la obra de Carnap. Este tema es un racimo de problemas que ponen de manifiesto que los términos teóricos son problemáticos para los empiristas. Este es un problema que está emparentado con el de la significación cognitiva o significación empírica, que es, a su vez, una versión del problema de la demarcación. Estas son tres formas de enmarcar la ciencia frente a todo tipo de cultura. Los términos teóricos sólo plantean problemas si se mira desde un empirismo radical. A partir de Kuhn, esto deja de ser el centro de atención filosófica de la ciencia. 22

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA El análisis filosófico de la ciencia depende de dos cosas: El marco conceptual desde el que se parte. La herramienta utilizada.

José Antonio López Cerezo Curso 2006-2007

Así, si (a) es el empirismo lógico y (b) es la lógica formal, aparece el problema de los términos teóricos, que resulta un problema central, de modo que si siguiésemos su evolución sobre el ámbito de discusión de este punto, tendríamos la evolución del Círculo de Viena y del empirismo lógico. En esta evolución del empirismo lógico, tenemos tres criterios: criterios centrados en oraciones criterios centrados en términos, en tanto que componentes de oraciones criterios para sistemas teóricos La evolución última de estos tres criterios daría el criterio más tardío dentro ya del empirismo lótgico: criterios para términos (relevancia prognóstica) En (a) hay una serie de autores como Ayer; en (b) están los del Círculo de Viena y, sobre todo, Carnap y Popper; en (c) destaca Hempel; y en (d) volvemos a tener a Carnap. Aquí tenemos la identificación de distintas unidades de análisis (oraciones, términos, etc.), tenemos una evolución en el cambio de la centralidad de las unidades de análisis (en primer lugar están las oraciones, en segundo lugar los términos, etc.). Así, vamos a ver algunos ejemplos de estos criterios. En (a), en tanto criterio centrado en oraciones, tenemos como ejemplo: (a1) o criterio de verificabilidad en principio: este criterio diría que una oración tiene significado empírico si y sólo si no es analítica y se deduce lógicamente de alguna clase finita y consistente de oraciones observacionales. Este criterio es una reformulación de la tesis verificacionista del significado. (a2) o criterio de refutabilidad en principio: es la variante popperiana que supone que una oración tiene significado empírico si y sólo si su negación no es analítica y se deduce lógicamente de alguna clase finita y consistente de oraciones observacionales. Estos criterios acabaron siendo abandonados históricamente, y el abandono tuvo lugar por refutación, mostrando que tenía consecuencias inasumibles desde la corrección formal (que genere una contradicción o que sea inconsistente, por otros postulados asumidos) y la adecuación matemática (que no muestre bien el método de la ciencia). (a1) se abandonó por el problema de Hume. (a2) nos pide que derivemos la negación de una oración por modus tollens, y este criterio se abandona porque la práctica real de la ciencia es mucho más compleja que la que nos muestra el esqueleto lógico del modus tollens. Esto hace que los empiristas lógicos se centren en otros criterios, de modo que en los años 30 pasan a centrarse en los términos, en vez de en oraciones. Se acoge (b) para ver si esos términos tienen anclaje en la experiencia; si no tienen ese anclaje, rechazan la oración entera, porque los términos son las unidades últimas de las oraciones:

23

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

(b1) o criterio de definición explícita: es el ejemplo más clásico de (b) en el que podemos hablar de Suppe, el cual dice que todo término con significado empírico debe poder ser definible explícitamente por medio de términos observacionales. El problema de esta definición explícita es el de los términos disposicionales, problema tras el cual se adopta la versión (b2). (b2) o criterio de reductibilidad: versión final del empirismo lógico que supone que todo término con significado empírico debe poder ser introducido sobre la base de términos observacionales a través de cadenas de oraciones de reducción. El tipo de crítica a (b2) es de carácter formal y también matemática, es decir, que las oraciones de reducción no son definiciones genuinas porque el definiendum está contenido en el definiens. Otra crítica es en las teorías científicas es muy raro que los términos y oraciones aislados impliquen consecuencias observacionales, sino que normalmente se acude a conjuntos de hipótesis o conjuntos de enunciado, esto es, que la atribución empírica no puede atribuirse a hipótesis aisladas, sino a conjuntos de enunciados. Así, llegamos a (c), que sería un criterio llamado sistemas teóricos para la interpretación parcial para teorías. Este criterio supone que un sistema teórico es empíricamente significativo si y sólo si es interpretado parcialmente en una medida tal que en ningún sistema equivalente a él al menos una oración primitiva esté aislada, es decir, alguna oración que contenga un término teórico. Lo que se dice aquí es que los términos teóricos que poseen las oraciones deben estar interconectados con oraciones que contengan términos que se refieran a la experiencia y, con esto, la significación empírica pasa a ser una cuestión importante y a ser una cuestión de grados, no de todo o nada. Ya en el año 52, Carnap volvió a proponer los términos como criterio en la mejor tradición clásica del empirismo, pero este criterio será muy discutido después, y posteriormente abandonado más por desinterés que por lo que se abandonaron los anteriores. Dice Carnap que un término teórico t es empíricamente significativo si y sólo si el término es prognósticamente relevante, es decir, hay al menos una oración St que involucra a t y que produce una diferencia en la predicción de un suceso observable. Carnap lo que está diciendo es que una teoría tiene oraciones que tienen términos, y con esto predecimos el futuro en ciencia: podemos evaluar esta teoría por la capacidad para predecir el futuro. Este es un criterio instrumental-pragmático que él aporta al significado.

24

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Tema 3: Kuhn. Ciencia normal y ciencia revolucionaria
Thomas Samuel Kuhn (1922-96) es de formación física, y la teoría del cambio científico que presenta está respaldada por su historia de la ciencia, cuyo interés comienza en el año 49, a partir de una conferencia. En el año 62 publica “La estructura de las revoluciones científicas”, y en el 73 publica otra obra importante, un artículo que lleva por título “Objetividad, juicios de valor y elección de teorías”. Un año más tarde, en el 74 saca al público “Segundos pensamientos sobre paradigmas”, y en el 77 “La tesis esencial”. En el momento en el que Kuhn publica “La estructura de las revoluciones científicas”, se dan tres vertientes en filosofía de la ciencia: tradicional, sociológica de la ciencia e historiográfica clásica de la ciencia. Lo que hace Kuhn es reaccionar ante estas tres: La filosofía de la ciencia tradicional se centra en el método científico, son filósofos que se dedican a codificar de una forma el método dentro de una filosofía que establecía que hay una base empírica natural a partir de la cual se dan las leyes científicas. Kuhn reacciona contra esto estableciendo lo que ocurre en los laboratorios científicos y, así, explicaría el cambio científico. Afirma que el estudio de la ciencia debe tener en cuenta el contexto. Respecto a la distinción entre contexto de descubrimiento y contexto de justificación, propone un estudio de la ciencia interdisciplinario que tenga en cuenta los resultados de otras ciencias y conocimientos (historia, sociología, etc.) La sociología de la ciencia estudia las instituciones científicas sin meterse en la ciencia. Respecto a esto, Kuhn dice que la ciencia en sí es un producto social. La historia clásica de la ciencia ve la ciencia como presentista, habla de una teoría universal final que lo explique todo; ven la ciencia como acumulativa y lineal, es decir, las teorías contienen las teorías anteriores y no se producen cambios. Tenían en cuenta los resultados del presente. Kuhn, en cambio, se preocupa por la ciencia pasada pero en contexto, es decir, en el momento en que se da esa teoría, no desde el presente. Además, habla también de las revoluciones científicas. De este modo, Kuhn pretende estudiar la historia real de la ciencia desarrollando una historia de la ciencia interdisciplinar. La idea principal de “La estructura de las revoluciones científicas” es que todas las disciplinas científicas deben ser estudiadas en su contexto, en su momento. Afirma Kuhn que hay una etapa de ciencia normal, luego una revolución científica y, finalmente, una ciencia normal distinta de la anterior. Además, considera una etapa paradigmática anterior a la primera etapa de la ciencia en la que los datos se recogen de forma fortuita y se dan experimentaciones causales, tiene una serie de reglas rudimentarias para operar con instrumentos y obtener los datos, pero en esta etapa aún no se ha constituido la ciencia. Este primer periodo concluye cuando se unifica el marco de investigación científica, lo que llama “paradigma” (marco de supuestos básicos); pues, una vez que se abraza el paradigma, la ciencia no vuelve a este estado paradigmático, que sólo se produce una vez en cada una de las disciplinas. Kuhn elabora la concepción del paradigma porque considera que debe establecer algo más básico y complejo que la teoría y, así, la noción de paradigma le permite analizar la historia de esta disciplina. Pero esta es una noción problemática, y podemos decir que hay tres grupos de sentidos de esta noción: 25

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Sentido filosófico o metafísico: la imagen del mundo y las creencias básicas que comparten los científicos acerca de lo que es la realidad. Sentido sociológico: estructura y conjunto de relaciones internas y externas que es dan en las comunidades científicas. Sentido científico: conjunto de problemas modelo que utiliza una determinada comunidad científica para definir la disciplina en la que se encuentra. Pero, para definirlo, podemos tomar otra agrupación: Paradigma (a): ejemplo de solución exitosa de problemas. Paradigma (b): conjunto de compromisos compartidos, que sería el marco de supuestos que toda la comunidad científica adopta sin discusión, es decir, las líneas básicas de investigación, el tipo de problemas que merecen estudio y el tipo de soluciones que se da a esos problemas. Lo que hace Kuhn es añadir otra nueva definición de paradigma, sustituye el término “paradigma” por “matriz institucional” en la post-data del 69 definiéndola como la constelación de compromisos del grupo. Es aquí donde distingue cuatro elementos: Generalizaciones simbólicas: el conjunto de caracteres distintivos del lenguaje (por ejemplo, ecuaciones) que funcionan como herramientas conceptuales de cada disciplina; vienen a ser los principios fundamentales de una teoría, las leyes científicas, que son formalizables. Modelos: pueden suponer un compromiso ontológico con la existencia de un determinado tipo de entidades, en cuyo caso se da la estructura de la realidad; o pueden utilizarse sólo en el sentido de orientar la investigación, en cuyo caso se dan las hipótesis o líneas de investigación. Ejemplares o problemas-modelo: marcan la forma en la que se resuelven los problemas en este tipo de paradigma. Valores metodológicos: son el conjunto normativo del paradigma y dan cohesión a la comunidad científica; permiten los criterios de evaluación de las soluciones a los problemas. El paradigma da las herramientas para solucionar problemas que son siempre como en el caso (c), es decir, problemas-modelo. Esta ciencia normal es como un puzzle, porque ya se sabe el estilo de los investigadores, el estilo de la solución, y lo único que se hace es buscar el camino. Esta ciencia normal, para Kuhn, amplía el alcance y las aplicaciones, da lugar a una mayor precisión, mejora el ajuste entre la teoría y la experiencia, elimina los conflictos entre las teorías y, por último, también elimina conflictos entre las aplicaciones. Como podemos ver, la ciencia normal es bastante conservadora, pero el cambio fundamental en ciencia, para Kuhn, es el cambio revolucionario que intercala etapas de ciencia normal. Ciencia normal -→ cambio revolucionario científico -→ ciencia normal Así, no ve la ciencia como acumulativa, no ve que las leyes, teorías, se establezcan por acumulación de otras anteriores. Pero, ¿qué pasa cuando hay cosas que no se pueden explicar en la teoría, cosas que crean conflictos? Suele solucionarlo con hipótesis “ad hoc”, es decir, introduce hipótesis que solucionan esos problemas. Se va intentando modificar esta teoría, este paradigma, y esto es lo que se llama etapa extraordinaria, momento en que la crisis del paradigma es enorme y ya no hay hipótesis que lo respalden, por lo que se abandona este paradigma de tal forma que es en este momento cuando se produce la revolución, el cambio. 26

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

La revolución se produce en tanto que va cambiando todo a nivel institucional, como las revistas donde aparecía, etc., hasta que la comunidad científica acoge el nuevo paradigma y se olvida ya del otro. Etapa paradigmática → cc. normal → cc. extraordinaria → revolución científica → cc. Normal (a) (b) (c) (d) (a): no hay criterios de selección y se producen experimentaciones causales. (b): se adopta un solo paradigma, se investiga para aumentar el alcance y la precisión, y la investigación es conservadora. (c): ante las anomalías se introducen hipótesis “ad hoc” y proliferan más alternativas. (d): se adopta un nuevo paradigma. Para Kuhn, cambian los criterios de evaluación, las formas de investigar y los datos observacionales, porque cambia el paradigma. Esto es, no existen unos fundamentos últimos de conocimiento que nos permitan dibujar la historia de la ciencia de forma lineal. Las cosas que cambian cuando cambia el paradigma son de tres tipos: Cambios metodológicos: cambian los criterios que determinan lo que es un problema y su solución. Por ejemplo, la atracción de partículas era un problema para la física aristotélica y dejó de serlo con Newton. Cambian también las normas de procedimiento y la concepción de la disciplina. Cambios conceptuales: cambia el significado de los conceptos y de los experimentos. Por ejemplo, la teoría de la relatividad cambió el concepto de espacio con respecto a la física tradicional. Esto supone problemas de comunicación entre los científicos, y otra consecuencia es que no cabe hablar de cambio acumulativo en la ciencia, ya que no estamos tratando con las mimas cosas. Asimismo, cambian los datos observados, esto debido a la carga teórica, ya que cambia el marco teórico. Así, el lenguaje observacional no es neutral, sino que depende del marco conceptual o teórico del momento. Cambios ontológicos: cambian los supuestos de existencia del tipo de cosas que pueblan el universo y el tipo de relaciones que hay entre ellas. Por ejemplo, al defender una teoría atómica de la materia, se supone la existencia de electrones, etc. Con la revolución científica cambia el paradigma, con lo que cambia la realidad, y esto se debe a que lo que vemos depende de lo que miramos y lo que hemos aprendido a mirar. Kuhn afirma que los paradigmas son formas de entender el mundo, por lo que no se pueden aceptar varios, y quienes proponen paradigmas distintos viven en mundos diferentes. El cambio de paradigma es una cuestión de fe, pues se cree en otra cosa distinta de la que se creía antes, y a veces este cambio no tiene base racional. Además, Kuhn ve componentes políticos dentro de este cambio que supone el cambio en el modo de ver la historia de la ciencia. En dos paradigmas hay una base empírica común, con lo que un paradigma, en el momento del cambio, puede comprender al otro, porque hay una base común. Así, nosotros podemos entender el paradigma newtoniano. En Kuhn, la noción de inconmensurabilidad es la más importante: no hay un criterio en virtud del cual se pueda decidir qué paradigma es mejor; es decir, no se pueden comparar los paradigmas. La noción de inconmensurabilidad aparece en “La estructura de las revoluciones científicas”. Ya no vale un método científico para ver la teoría más adecuada, pues no hay 27

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

escala adecuada que nos permita decidir el mejor paradigma; la razón no está presente en los cambios de paradigma, pero tampoco se puede negar que haya una razón adecuada en la ciencia. La noción de inconmensurabilidad en Kuhn recibe muchas críticas, por lo que él decide modificarla y verla en términos de intraductibilidad: inconmensurabilidad local. La inconmensurabilidad local supone que no hay un lenguaje común en el cual dos teorías puedan ser expresadas por completo. De este modo, deja la noción de inconmensurabilidad en términos del lenguaje acudiendo al relativismo lingüístico. Lo que Kuhn quiere decir es que no hay lenguaje universal para la ciencia, sino que cada una tiene su propio lenguaje. Entre dos paradigmas no puede haber una evaluación interna (utilizar los conceptos de uno para evaluar el otro, porque los conceptos son diferentes en cada paradigma) y tampoco se puede hacer una evaluación externa. Así, Kuhn viene a decir que el método científico no puede utilizarse como evaluación. En 1973, debido a las críticas que recibe, se ve obligado a realizar una modificación. En “Objetividad, juicios de valor y elección de teorías” quita importancia a la noción de inconmensurabilidad y revolución científica, y afirma que hay cinco criterios denominados supra-paradigmáticos que son criterios objetivos y racionales. Con esto cede un poco dando cierta razón a los científicos tradicionales aceptando que sí existe un criterio de racionalidad en el cambio científico. Los criterios son los siguientes: Precisión: acuerdo entre teorías y resultados. Coherencia: interna o externa. La coherencia interna supone que el conjunto de enunciados deducibles de una teoría debe ser lógicamente consistente, no puede haber contradicción entre dos enunciados que se deriven de una misma teoría. La coherencia externa supone que no puede haber contradicción entre una consecuencia deducible de otra teoría establecida y aceptada con anterioridad. Amplitud o alcance: exige que debe ser posible deducir consecuencias de una teoría que se apliquen a otros sistemas empíricos fuera del alcance inicial de la teoría. Simplicidad: capacidad de sistematizar y ordenar los conjuntos dados desordenados. Fecundidad: capacidad que tiene una teoría para descubrir nuevos fenómenos y soluciones al problema distintos a los que se conocían en un principio. Estos son los cinco criterios presentes en el momento del cambio de teoría, siendo para Kuhn, el criterio de precisión el más importante. Afirma que estos criterios no pertenecen a ninguna teoría, por lo que podemos aplicarlos desde fuera para ver si una teoría es mejor que otra. Sin embargo, también afirma que hay muchos problemas para poder admitir que hay un método racional aplicable. Por ejemplo, dos científicos pueden tener opiniones distintas en cuanto a qué teoría es mejor, y también puede suceder que cada científico ponga como importantes unas cosas y no otras sin que ambos coincidan. Además, estos criterios no son retrospectivos, es decir, no se pueden aplicar a paradigmas y teorías pasadas. Por lo tanto, estos criterios no son un método infalible que nos permita establecer qué teoría es mejor.

28

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Kuhn afirma que, además de estos criterios, hay factores subjetivos que son también muy importantes y que modulan los criterios objetivos viendo por qué se da uno y no otro, con lo que los factores subjetivos tienen más importancia. El debate entre Galileo y sus contemporáneos aristotélicos dura casi un siglo y medio dándose a partir del “De revolutionibus” de Copérnico. Esto supuso un cambio en la física y astronomía, entre otras disciplinas. Así, entre los dos paradigmas, el de Galileo y el de los aristotélicos, hay cuatro tipos de diferencias básicas: categorías básicas y estructuras conceptuales principios teóricos fundamentales, pero también tienen creencias comparativas aplicación y jerarquización de los criterios de evaluación observación relevante Galileo defiende la teoría copernicana, pero se encuentra que esto refuta toda la teoría anterior, por lo que quiere desarrollar un sistema compatible con el de Copérnico enfrentándose con todo el ámbito aristotélico. De este modo, la primera diferencia básica es la barra de distinción de los ámbitos celeste y terrestre; además Galileo está alterando la teoría de los “lugares naturales” defendida por los aristotélicos, ya que éste admite el movimiento de la Tierra, al igual que Copérnico. Galileo defiende una nueva física en “Diálogo sobre los dos grandes sistemas del mundo”, siendo el punto principal de esta nueva física la cuestión sobre la noción de movimiento. Para Galileo, sólo hay un ámbito de movimiento, mientras que los aristotélicos hablan del ámbito celeste (astronomía) y del ámbito celeste (lugar natural: hacia el centro del universo). Así, Galileo considera que sólo hay movimiento circular y, además, establece que el movimiento de rotación y el de traslación de la Tierra comparten su movimiento con las cosas de la Tierra. Asimismo, se producen rupturas metodológicas, en tanto que Galileo formula unas leyes cuantitativas del movimiento y las demuestra experimentalmente. Lo que hace es dar a la experiencia y a las matemáticas un papel central, papel que antes no tenían porque, para los aristotélicos, las matemáticas eran algo útil, sólo una herramienta, y la experiencia era algo que podía cambiar la cualidad de los cuerpos, por lo que tendían a observar y no actuar. Galileo rechaza también la búsqueda de causas. Otra cosa que cambia en la metodología es la introducción del telescopio, instrumento con el que Galileo acerca la teoría copernicana, y que le vale la oposición de la Iglesia Católica. Los adversarios que le aportó el telescopio eran de tres tipos: los que no miraban, los que miraban y reconocían los fenómenos aunque decían que éstos estaban en el telescopio, y los que admitían lo que veían y afirmaba Galileo pero no lo admitían como demostración de las palabras de Copérnico. Con el telescopio se dan características epistémicas que llevan a admitir una observación y los problemas de las instituciones. Pero también hay más cuestiones que sirven de eje para los dos paradigmas: los elementos compartidos son los ejes que permiten la transición, permiten el entendimiento entre el primer paradigma y el nuevo, y además son la base del aprendizaje, es decir, permiten que las nuevas razones del paradigma nuevo sean comprendidas por los científicos del viejo, con lo que es la base del convencimiento. Entre ellos había acuerdo en determinados datos observacionales, en observaciones básicas, y están de acuerdo en que las observaciones básicas son relevantes para el debate, por lo que una teoría debe admitirlas y no contradecirlas. Otro punto de reunión lo encontramos en las cuestiones lógicas, por ejemplo, que no se pueden concluir cosas falsas de una teoría verdadera; en el sistema de conceptos; en los criterios de evaluación de teorías, por ejemplo, en la precisión en tanto que los dos 29

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

paradigmas consideran que no es importante porque la teoría puede ser precisa y no ser válida; y en que la teoría tiene que estar en concordancia con los pasajes de la Biblia. Una de las consecuencias fundamentales de Kuhn es el naturalismo. El nombre “epistemología naturalizada” se instaura con Quine, y hasta Kuhn se habían estado buscando los principios epistemológicos que rigen la actividad científica. Estos principios debían ser autónomos e independientes de la propia ciencia, criterios que han de servir para la evaluación de teorías siendo éstos la base de una racionalidad científica autónoma e incondicionada que estaría más allá de los resultados de las ciencias concretas. La filosofía de la ciencia naturalizada busca eliminar que estos criterios sean independientes de las propias ciencias, por lo que comienza negando que la epistemología sea independiente de la propia ciencia, lo cual implicaría que la evaluación de la ciencia se debe contextualizar teniendo en cuenta lo que los propios científicos dicen sobre lo que es hacer ciencia. Por tanto, un análisis adecuado de la ciencia debe tener en cuenta lo que las teorías científicas dicen sobre el mundo. Kuhn utiliza la propia dinámica de la ciencia para explicar los cambios y las diferencias de los valores y estándares epistémicos. A partir de un cambio en la teoría, pueden darse los cambios epistémicos, y de este modo Kuhn naturaliza la epistemología, la analiza. Esta característica es lo que sirve de detonante para que el análisis filosófico de la ciencia se naturalizara. La epistemología naturalizada es el intento de resolver, mediante la ciencia, las cuestiones filosóficas tradicionales sobre el descubrimiento, desarrollo y justificación de las ideas científicas. El análisis filosófico comienza a utilizar los resultados de otros ámbitos que también reflexionan sobre la ciencia, y lo que va a ocurrir es que se intentará definir la relación dada entre todas las disciplinas, aunque muchos van a intentar reducir todas estas disciplinas a una sola ciencia. Por ejemplo, Quine la reduce a la psicología, Bloor la reduce a la sociología, y otros a la biología. A partir de la obra de Kuhn, se han dado dos escuelas que le interpretan: Interpretación conservadora: también se les ha denominado kuhnianos de derechas, compuesta por filósofos; y autores racionalistas. Se centran en las revoluciones científicas, buscan criterios metacientíficos que estén presentes en el cierre de las controversias y que aseguren que se conserva la racionalidad de la ciencia en las revoluciones científicas. Se niegan a aceptar que la ciencia sea un proceso en el que no esté presente la racionalidad. En las revoluciones científicas se dan lagunas de racionalidad, y éstas son llevadas de dos maneras con criterios metacientíficos: rebajan la importancia de las revoluciones científicas (Cohen y Kuhn) buscan criterios epistémicos que permanezcan en el cambio (Laudan y Shapere) Interpretación radical: también se llaman kuhnianos de izquierdas y son, sobre todo, sociólogos. Se centran en el estudio de la ciencia normal y en el consenso entre científicos, siendo la principal obra de esta interpretación es “Kuhn y el cambio científico”. Buscan el consenso en que los científicos llegan a un acuerdo, porque todos están socializados en el mismo contexto, es decir, buscan una explicación social del consenso, no en los criterios epistémicos, sino en la socialización del consenso científico. Así, tienen una concepción social del conocimiento, y niegan que haya un método científico que sea preservador de la racionalidad de la ciencia, ya que ésta llega por costumbre y aprendizaje. Personajes importantes de esta interpretación son Collins, Latour, Barnes, Bloor, e incluso algunos llegan a decir que la ciencia normal es ciencia extraordinaria. 30

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Tema 4: Popper. Conjeturas y refutaciones

Karl R. Popper nace en Viena (1902-94), siendo el personaje que más prestigio dio a la London School of Economics (LSE). Popper es uno de los grandes autores, se le suele considerar como uno de los grandes padres de la social-democracia. En el año 63 publica “Conjeturas y refutaciones”, importante en cuanto que en él introduce la temática de la verosimilitud, algo que más adelante inaugurará el campo de discusiones científicas en la filosofía poskuhniana. En el 72 publica “Conocimiento objetivo”, que es la obra más adecuada para seguir su pensamiento y en la que Popper aplica el marco de su pensamiento al marco de la reflexión sobre la epistemología. En el 74 sale “La filosofía de K. Popper”, importante porque en él podemos encontrar la autobiografía intelectual de este autor. En el 77 publica “El yo y su cerebro”, donde Popper se ocupa de la relación entre la actividad mental y el cerebro. A partir de aquí se han publicado muchos libros sobre Popper, pero son como apéndices de su obra del año 34, donde había dejado fuera determinadas cosas; no obstante, uno de los apéndices más importantes es “Realismo y filosofía de la ciencia”. Su obra más importante, “Lógica de la investigación científica”, se publicó en el año 1934, fecha de mayor apogeo positivista. Popper tuvo una influencia muy grande en el propio Círculo de Viena, pero no fue nunca miembro del mismo, ni fue invitado ni hizo lo posible para ser invitado. Hay diferencias contrapuestas entre el pensamiento positivista y el popperiano, que puede venir e ilustrarse del pensamiento de Lamarck y Darwin sobre los seres vivos, pero la diferencia más importante es el enfoque dinámico del pensamiento popperiano y la influencia que tiene del darwinismo. Lamarck considera que la función crea el órgano, mientras que para Darwin es justo al contrario, es decir, que el órgano crea la función. En términos cognitivos, podemos decir que, para Lamarck, se produce una instrucción por el ambiente; mientras que, para Darwin, se produce una selección por el ambiente. El pensamiento positivista acerca de la ciencia ve la base en la inducción (pensamiento lamarckiano), pero no tiene carácter genético. Popper critica la inducción y rechaza la instrucción por el ambiente, lo que lleva a su doctrina: el falsacionismo. Este falsacionismo tiene un enfoque dinámico, y es este enfoque el que hace de Popper un autor importante para imponerse al enfoque kuhniano. En “La miseria del historicismo”, obra del año 34, extiende su postura falsacionista al ámbito político desarrollando una crítica a las sociedades cerradas, como él las denomina, como el marxismo. Al comienzo de “Conocimiento objetivo”, Popper comienza citando unas palabras de Russell y, a continuación, afirma que ha resuelto el problema de la inducción que se había planteado Hume y que ha llevado de cabeza a muchos. El problema de la inducción es clave y tiene gran importancia en el desarrollo de la filosofía de la ciencia, es el que lleva a debilitar la tesis del verificacionismo. Popper afirma que la cuestión de la inducción tiene dos problemas: Problema lógico: preguntaría cómo podemos construir una inferencia deductiva válida desde el hecho de que todos los A observados sean B hasta la necesidad de que 31

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

todo A sea B. Aquí está interpretada la exigencia de la verificación como la exigencia de respaldo deductivo. Popper dice que no se puede, que no puede ni siquiera producirse que A sea B. Problema psicológico: pregunta por qué confiamos en nuestra experiencia pasada. Para entender mejor la respuesta que Popper da a ambos problemas (lógico y psicológico), hay que tener en cuenta la respuesta de otros anteriores a la fecha en la que escribe, es decir, hay que tener en cuenta, por ejemplo, la respuesta de Hume. Popper se aparta de todas las anteriores respuestas para solucionar el problema psicológico, porque la pregunta de por qué confiamos en nuestra experiencia no tiene respuesta si no respondemos primero al problema lógico. Así, da a entender que los autores están errando el tiro, porque se ocupan de resolver el problema psicológico independientemente del problema lógico. Para Popper, en la mediad en que no encuentra respuesta al problema lógico, afirma que estamos abocados a una fe irracional, y la actividad de la ciencia se convertiría en una cuestión de fe a no ser que encontremos solución a este problema. Asimismo, la salida probabilística del Círculo de Viena no sirve, pues siguen descansando sobre la posición inductiva y siguen planteando el inductivismo. La solución que ofrece Popper es el falsacionismo, afirma que no debemos preguntar si de ciertos enunciados puede seguirse la verdad, sino si de ciertos enunciados puede seguirse la falsedad. p→q ¬q . ¬p Intenta aseverar la falsedad del antecedente a partir de un cuerpo de evidencia finito y limitado observado en la experiencia y una ley general que garantice la verdad (algo que ya decía Hume). Así, Popper ve que no hay que buscar tanto la verdad de la ley, sino que hay que acudir a qué leyes son falsas, y esto se puede hacer concluyentemente, algo que no ocurre con la verdad. Popper también introducirá una terminología nueva en filosofía de la ciencia: el antónimo de verificación es refutación, pero Popper introduce la corroboración en vez de la verificación (distinguiéndola de confirmación, cuyo antónimo es disconfirmación) y falsación en vez de refutación. Estos términos hacen referencia a la relación entre enunciados singulares y enunciados generales, y Popper afirma que la relación que media entre un enunciado y una ley no tiene por qué tenerse en cuenta en relación con estos contrarios anteriores, es decir, un enunciado no tiene que falsar una hipótesis, no tiene por qué. Estos contrarios no nos indican cómo debemos comportarnos en la práctica: refutación, falsación o disconfirmación no son igual al rechazo. El concepto de corroboración depende del de falsación. Para Popper, el concepto central es el de falsación, y esto revierte la tradición de la filosofía de la ciencia anterior, porque, para los anteriores, lo central era la verificación o la confirmación, mientras que la refutación y la disconfirmación eran la consecuencia de que los términos de verificación y confirmación no se dieran. Pero Popper no habla de hipótesis verificadas o confirmadas, sino que habla de teorías corroboradas. Estos conceptos describen resultados en tanto que procesos de contrastación a partir de la observación. Las contrastaciones deben ser audaces y rigurosas atendiendo a consideraciones de cantidad y calidad, y toda instancia corroboradora debe ser resultado de un proceso de 32

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

contrastación que tenga estas características. Popper considera que hay que poner a prueba la hipótesis, hacer que corra un enorme riesgo de ser falsada. Por ejemplo, el mar de aire de Torricelli explicando la presión atmosférica que Galileo no pudo explicar en su momento. Torricelli diseñó experimentos para explicar el mar de aire, siendo el más famoso el de la cubeta, en el que experimentó con varios líquidos.Fue el experimento de Pascal el corroborador del de Torricelli. Para Popper, la corroboración se expresará en grados, y esta gradación puede ser: cuantitativa: hay una escala proporcional (son, por ejemplo, los grados centígrados o la escala de dureza de los minerales) comparativa: no hay la escala anterior (es, por ejemplo, la fuerza del viento) El grado de corroboración es temporalmente dependiente; en un cierto momento, da cuenta del estado de discusión crítica de un enunciado teórico. Popper considera que el grado de corroboración es siempre un informe evaluativo sobre un enunciado pasado. Sobre esta base, Popper elabora un consejo metodológico básico: elaborar contrastaciones audaces y rigurosas tratando de falsar nuestras teorías. Esta falsación es la respuesta a la pregunta por la racionalidad de la ciencia; la falsación es la que marca el criterio de demarcación popperiano. Por tanto, este criterio de demarcación supone que una proposición será científica si puede ser falsada por la experiencia, y, asimismo, supone una diferencia porque no es tanto la falsación como la posibilidad de falsación, es decir, la falsabilidad para establecer el criterio de la ciencia es la no-ciencia. Para Popper, la ciencia nunca llegará a la verdad, pero podemos ir acercándonos cada vez más en virtud de que vamos falsando. Por eso, los enunciados que han sido falsados son científicos, porque parten de la base de la ciencia. Por ejemplo, “la Tierra está en el centro del sistema solar” es una hipótesis científica porque puede ser falsada. Popper afirma que una teoría es falsable si la clase de sus posibles falsadores no es una clase vacía. Otra expresión que utiliza es la del no metafísico: el empírico es el no metafísico, pero esto no quiere decir que Popper considere la metafísica como lo que no tiene sentido, sino que lo importante es que Popper delimita lo que es ciencia y lo que no lo es sin delimitar lo que tiene sentido o lo que no lo tiene. Ciencia/no ciencia Empírico/no empírico No metafísica/metafísica Así, el criterio de falsación realiza un corte entre lo científico y lo que no lo es, pero no se mete para nada en lo que tiene o no sentido; no se mete en estas cuestiones y no dice que la no ciencia o la metafísica no sean informativas. Al contrario que sus antecesores, no se mete en este tema. Esto no es un criterio de demarcación para el sentido, sino que la regla prioritaria es la exigencia de falsabilidad, por lo que todos los principios que regulen la ciencia han de someterse a la falsabilidad. Popper nos habla de las reglas metodológicas, denominadas por él como “la discusión crítica”: el principio metafísico de la causación universal, principio metafísico de la uniformidad de la naturaleza, etc., son principios metodológicos que orientan el trabajo en la ciencia, aunque incluso éstos deben estar supeditados a la regla metodológica de la falsabilidad. A partir de este planteamiento metodológico, es obvia la crítica al Círculo de Viena. Popper afirma que hay una proporcionalidad inversa entre la probabilidad que 33

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

podemos asignar a un enunciado y, por otro lado, su falsabilidad, porque la falsabilidad es no inversamente proporcional al contenido informativo. De este modo, es una locura dirigir la ciencia hacia el aumento de probabilidad, porque esto supone dirigir la ciencia hacia la falta de información. Esta es lo que se critica al Círculo de Viena, que ve la ciencia como algo que debe ir hacia la mayor probabilidad posible. Por ejemplo, tenemos a tres personas con tres relojes; la primera dice que son entre las 10:00 y las 13:00, la segunda dice que son entre las 9:00 y las 15:00, y la tercera dice que son las 11:00 en punto; la tercera tiene mayor contenido informativo, pero es más fácilmente falsable que las dos primeras, ya que las respuestas de éstas dos es vaga, con lo que son las dos primeras las que tienen menor contenido informativo y mayor probabilidad. De este modo, Popper se preocupa por la información, y dirá que esto es lo que debe importarnos siendo éstos enunciados los que más riesgo tienen de ser falsados. Por tanto, hay que orientar la ciencia hacia la falsabilidad, hacia un mayor contenido informativo. Otro principio por el que Popper aboga es el de la sencillez, el cual él vincula a la falsabilidad. Esto es, una hipótesis será más sencilla cuanto más falta de parámetros y, por tanto, cuanto más falsable. Para Popper, la universalidad y la precisión son también importantes: cuanto mayor falsabilidad, mayor universalidad y precisión. Esto se explica en el ejemplo siguiente: Todo P es Q: aumentamos su universalidad aumentando la extensión de P, y aumentamos su precisión aumentando la restricción de Q. Todo cuervo es oscuro: aumentamos la precisión y aumentan las posibilidades de P; por ejemplo, de que sea negro. Todo córvido es negro: extendemos la clase del sujeto y, por tanto, aumentamos el grado de universalidad. También utiliza el concepto de contenido empírico de un enunciado P, que es la clave de sus posibles falsadores, y el concepto de contenido lógico de un enunciado P, que es su clase consecuencia o la clase de enunciados no tautológicos que pueden deducirse de P. Por ejemplo, si P es “todo córvido es negro”, entonces “todo cuervo es negro” pertenece a las derivaciones tautológicas, con lo que correspondería a su contenido lógico. Respecto al contenido empírico, serían los córvidos que, siendo córvidos, no sean negros, sino de cualquier otro color. Otro concepto es el de ámbito de un enunciado, que es la clase de enunciados básicos que permite. Y también define el grado de falsabilidad de un enunciado empírico a través de un enunciado abierto: la falsabilidad de un enunciado E es el grado que se aplica entre 1 (contradicción) y 0 (tautología), de modo que este concepto depende de los tres conceptos anteriores. De hecho, Popper relaciona estos conceptos afirmando que un mayor grado de contrastabilidad es proporcional a un mayor grado de falsación, que es directamente proporcional a un mayor grado de precisión, que es directamente proporcional a la universalidad y a la sencillez, y que es inversamente proporcional al ámbito y al grado de probabilidad. Una idea importante es que todo el conocimiento científico es siempre provisional, es decir, los enunciados corroborados son siempre provisionales. Popper enfatiza mucho la 34

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

provisionalidad del conocimiento científico y expresa esto a través de lo que llama su esquema evolutivo del conocimiento científico: P1 -----------------→ TP ------------------→ EE -----------------→ P2 El esquema evolutivo del conocimiento científico no es un esquema cíclico, ya que P1 y P2 difieren. Este es un esquema que viene reflejado en una frase de Popper: “mientras que la verdad hace lo objetivo, la ignorancia hace el juego”. Popper mantiene la distinción entre contexto de descubrimiento y contexto de justificación manejada en el empirismo lógico. Todo lo visto hasta aquí puede resumirse diciendo que si bien la ciencia no puede probar, sí que puede disprobar, es decir, hay una base de hechos que puede disprobar las teorías y las hipótesis con conclusividad lógica. Esta es la imagen de Popper que tiene Nagel, Ayer y Medawar, y este es el Popper no real, sino el más conocido, porque el Popper real no es tan ingenuo, sino que es diferente al que hemos establecido hasta ahora. El Popper real es el del falsacionismo ingenuo o, como lo llama Lakatos, el Popper1. Popper comienza a publicar en los años 30, y sigue publicando hasta su muerte en los 90, con lo que su obra es muy amplia. Las críticas al Popper1 son críticas que él reconoce y asume en la evolución de su tesis. Principalmente, tenemos dos líneas de crítica: la tesis Duhem-Quine y la provisionalidad del conocimiento base. La crítica más importante la que se basa en la tesis de Duhem-Quine, que suponía que es imposible falsar de un modo concluyente hipótesis aisladas porque no concurren solas al tribunal de la experiencia. La tesis de Duhem-Quine se base en la contemplación de las condiciones iniciales para respaldar el análisis empírico de una teoría; supone que, al concurrir hipótesis auxiliares y condiciones iniciales, es imposible falsar la teoría, porque en caso de fracaso de la teoría no hay forma de identificar qué es lo que falla: la hipótesis, las hipótesis auxiliares o las condiciones iniciales. Así, las hipótesis no vienen aisladas al tribunal de la experiencia, con lo que es imposible saber sobre qué debe recaer la responsabilidad del fracaso de la teoría, además también podríamos dudar del científico que realiza las experimentaciones. Esta tesis es importante en la historia de la evolución de la filosofía de la ciencia y está presente en muchos autores. Si nos fijamos en este esquema y ampliamos las perspectivas, podríamos pensar incluso que el propósito de la ciencia no es tanto poner en duda las hipótesis, arrojar duda sobre ellas, falsarlas, etc., como completar nuestras teorías a través de lo que Lakatos llamaría el desarrollo de gruesos cinturones protectores. La visión de Popper es una visión heroica de la ciencia en cuanto que un científico debe poder resolver un rompecabezas. Si nosotros utilizamos este esquema para construir la ciencia, vemos que la hipótesis debe ser abandonada si la teoría fracasa. Pero lo que se pone a prueba en la historia de la ciencia no es tanto la credibilidad de las hipótesis, sino el conjunto de condiciones iniciales que nos permiten ponerlas a prueba y las hipótesis auxiliares que nos permiten extender el rango de credibilidad de las hipótesis iniciales. Así, Popper se fija en las hipótesis, mientras que un kuhniano, por ejemplo, se fijaría en las hipótesis auxiliares y condiciones iniciales. Para Popper, la ciencia se fija en las hipótesis, mientras que Kuhn considera que se fija en los procedimientos. Otra crítica es la provisionalidad del conocimiento de base. Para Popper, el conocimiento de base se da por conceptos básicos que tienen el papel de ser enunciados de contraste. Los conceptos básicos tienen forma de enunciados y deben ser contrastables por observación. Popper dice que estos enunciados describen algo referido a la posición o movimiento de 35

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

algún cuerpo macroscópico, es decir, describen un acontecimiento, describen que un evento acontece en una región individual espacio-temporal. La crítica que se realiza al papel de estos enunciados en la metodología popperiana tiene varias partes: la primera parte diría que la verdad o falsedad de estos enunciados se decide por procesos experimentales, y, lo queramos o no, los procesos experimentales involucran teorías que son conocidas como teorías interpretativas. Por ejemplo, para poner a prueba un enunciado con la ley universal de la gravedad, tendríamos que tener enunciados básicos tales como “en el punto espacio-temporal K hay un cuerpo”; así, la verdad o falsedad de este enunciado presupone teorías de más bajo nivel, como el cálculo infinitesimal y la teoría óptica, que son las teorías que nos aseguran que la observación es fiable y que el procedimiento de cálculo de los resultados es correcto. Otro ejemplo es que, para contrastar la teoría química que supone que los pesos atómicos son números atómicos, necesitamos presuponer teorías de partículas. Al hablar de esto, el mapa teórico se complica mucho, porque la teoría ya no estaría en las hipótesis, hipótesis auxiliares, condiciones iniciales y experimentos en la experiencia, sino que también en la experiencia tenemos teorías, porque son las que nos permiten dar significado a esos experimentos. Si necesitamos teorías interpretativas, los enunciados básicos son provisionales, dado que se basan en teorías, y las teorías son igualmente provisionales. Esta crítica se enlaza con la segunda parte, concretada en el argumento de la carga teórica de la observación. La tercera parte de la crítica es la que nos dice que la actitud crítica en ciencia ha de afectar también al conocimiento base. Esto es, para que los enunciados básicos sean científicos deben ser también falsables, y si son falsables deben ser provisionales. Otra cosa importante es connotar el relativismo, ya que ¿cómo se pueden poner a prueba las afirmaciones que se realizan en ciencia? Hay dos salidas: la posición escéptica o la regresión ad infinitum, y también puede llegarse a un punto en el que hay que acudir a la admisión de un cierto grado de relativismo. Popper, para escapar del escepticismo y del regreso al infinito, afirma que en este punto hay que tomar una decisión convencional que divide a la ciencia en dos partes: problemática: teorías contrastadas no problemática: teorías interpretativas Aparentemente, esta solución que se propone parece que nos lleva al relativismo para posibilitar la contrastación en ciencia, pues se necesita acudir a factores epistémicos. Popper intenta argumentar que su posición no lleva al relativismo, y afirma que esta decisión convencional debe estar basada en el veredicto mayoritario de los científicos. Pero esta distinción popperiana también es temporalmente dependiente; por ejemplo, la tesis de la deriva continental hoy no es problemática, pero si lo fue en los años 20, lo que no quiere decir que haya vuelta atrás, aunque si la hay en muchos casos. Popper dice que esta distinción debe basarse en el veredicto mayoritario de los científicos (hasta aquí es lo mismo que en Kuhn), pero añade que no sólo hay que quedarse en ese veredicto, sino que debe basarse en lo que él llama la discusión crítica y racional encaminada a maximizar la sencillez y la contrastabilidad, es decir, que incremente la falsabilidad. De este modo, argumenta a favor de una posición no relativista, aunque es discutible que esto no sea una forma de relativismo débil. Popper reconoce que hay teoría allá donde miremos en ciencia; pero, para resolver el problema de una base firme, asume que cierta parte de la ciencia es verdadera, sólida, y es 36

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

aquella que respalda los experimentos y la observación, y sobre esta base se respaldan los resultados teóricos más nuevos. El convencionalismo de Popper afecta a los enunciados básicos, mientras que el convencionalismo tradicional afectaba a los enunciados teóricos generales, que eran asumidos como verdaderos en la práctica científica. La asimilación de esta critica por parte de Popper nos lleva al Popper2, que asume que en ciencia tampoco se puede disprobar, no se puede falsar de forma concluyente, aunque Popper2 nos dirá que la falsación debe ser metodológicamente concluyente, esto es, la falsación no significa el rechazo, pero sí debería considerarlo. Así, falsar no significa rechazar, pero sí debería incluir el rechazo. Por tanto, otra característica de Popper2 es la del falsacionismo metodológico. Popper no pretende describir cómo funciona la ciencia en su estado óptimo, sino que pretende prescribir cómo debería funcionar la ciencia. Su teoría, el falsacionismo metodológico, a veces coincide con la práctica científica real y adquiere carácter descriptivo; pero a veces no coincide y se torna a norma descriptiva. Es importante resaltar esta vertiente: la parte descriptiva y la parte normativa. Popper pretende describir la ciencia del pasado y establecer una normatividad de la ciencia, siendo este punto uno de los que ha sido objeto de crítica por parte de los autores que han escrito en contra del falsacionismo metodológico. Con esta crítica al falsacionismo metodológico pasamos al Popper3, de la misma forma que la crítica al falsacionismo ingenuo nos hizo pasar el Popper2. Se puede interpretar a Popper en cuanto falsacionismo sofisticado, denominado como Popper3, y cuya característica más importante es la de resaltar la importancia de los contextos mono-teóricos de contrastación. Esta crítica dirá que la filosofía de Popper es pura normativa descriptiva, es decir, la ciencia se ha escrito y se está escribiendo de uno modo distinto al falsacionismo metodológico. Hay tres observaciones que apoyan esta crítica: No es infrecuente que se restablezcan teorías que han sido falsadas y rechazadas en el pasado; por ejemplo, la teoría corpuscular de la luz. No es metodológicamente concluyente rechazar una teoría que ha sido repetidamente falsada si no se dispone de una teoría alternativa, y no bastan las buenas razones; por ejemplo, la anomalía en el movimiento orbital de Mercurio alrededor del Sol. Las teorías reales demuestran una notable tenacidad, es decir, se elaboran teorías sin tener demasiado en cuenta las anomalías. Si anomalía significa rechazo, tendríamos que abandonar toda ciencia, y esto no es una laguna racional de la ciencia, sino que es una característica racional de la ciencia. Esto se basa en el método de autodeterminación del campo de aplicación de una teoría: todas las teorías tienen un campo delimitado y, a la hora de trazar las fronteras, el campo de aplicación tiene un carácter autodeterminado. Para trazar el ámbito fenoménico de una teoría hay que saber lo que es una teoría, para lo cual ésta se entiende bien como una teoría matemática o bien como un conjunto de aplicaciones empíricas que son sistemas empíricos y que no son independientes de la estructura matemática. Por ejemplo, la mecánica clásica de partículas, que depende de lo que entendemos por mecánica clásica; si la entendemos como estructura teórica, será el conjunto de las tres leyes de Newton y la ley de gravitación; si la entendemos como conjunto de 37

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

aplicaciones paradigmáticas, será el cambio en las mareas, etc. Así, para determinar el campo de la mecánica clásica de partículas, son imprescindibles estos dos requisitos: teoría matemática (estructura teórica) y conjunto de aplicaciones paradigmáticas. Con esto, teoría y experiencia no son independientes. Pero Popper, al mantener el falsacionismo que establece el abandono de la teoría en el caso de que ésta fuera falsada, concibe teoría y experiencia como dependientes. Este método de autodeterminación justifica la tenacidad de las teorías frente a las anomalías. Una segunda línea de crítica, mejor asumida por Popper, es que el desarrollo de la ciencia, en contra de Popper2, no es un desarrollo lineal, sino un desarrollo pluralista; esto es, sólo puede hablarse de falsación y eventualmente de rechazo cuando existe competencia entre teorías. Esta línea recupera la de las críticas a Popper, y es una crítica asumida por Popper3 frente a Popper2: en Popper3 unas teorías se enfrentan a otras, mientras que en Popper2 se enfrentan solas e individualmente al tribunal de la experiencia. Esta visión de Popper3 la encontramos en “Conocimiento objetivo”, obra en la que distingue entre: referencia teórica y referencia pragmática, y afirma que desarrollar un criterio de preferencia entre teorías o hipótesis es algo que debe tener lugar en un contexto no monoteórico. Si esto es así, entonces el problema de igualar falsación a rechazo evoluciona en un nuevo problema, el de la referencia en un conjunto de teorías rivales. La forma más sencilla de interpretar este problema es la interpretación de las teorías a partir de la óptica y la medición. Ahora hay haces de teorías y, ante la inconsistencia, hay que abandonar alguna de ellas o reajustarlas. En “Conocimiento objetivo”, especifica un criterio pragmático de preferencia inter-teórica. Se trata de un criterio pluralista de acuerdo con el cual, dadas dos teorías rivales T1 y T2, que son alternativas respecto a la explicación de los tipos de datos empíricos, Popper dice que T1 está falsada si y sólo si: T2 predice hechos no demostrables por T1, T2 explica los aciertos previos de T1, y si parte del contenido empírico excedente de T2 respecto de T1 (que es lo que ha sido aseverado en primer lugar) está corroborada. En resumen, para el falsacionismo sofisticado, una teoría está falsada si y sólo si es sustituida por otra teoría de mayor contenido empírico corroborado. Según Lakatos, lo que sugiere Popper3 no es que propongamos una teoría a la naturaleza y que la naturaleza nos susurre un ineludible sí probabilista o que nos grite un rotundo no a lo Popper1, sino que lo que hacemos es proponer un grupo de teorías de forma que la naturaleza nos diga “inconsistente”. Para Popper3, la ciencia no evoluciona por falsación de teorías mediante hechos, sino por la solución de inconsistencias entre teorías estrechamente relacionadas. De este modo, podemos decir que a Popper, desde su punto de vista dinámico y pluralista, no le preocupa tanto encontrar criterios de justificación como el aumento de conocimiento en ciencia, de ahí que en su obra se pregunte en qué sentido podemos hablar de aumento o progreso del conocimiento. Aquí es donde Popper desarrolla su compromiso realista: la ciencia pretende describir la realidad, es decir, no pretender ser un instrumento útil para el conocimiento predictivo, sino que pretende describir la realidad a través de conjeturas y refutaciones que llevan a la verdad. Esta aseveración resume el compromiso realista de Popper, aunque él considere que el realismo no es una postura demostrable o falsable y reconozca, al tiempo, que el realismo es objeto de defensa a través de la refutación de su contrario, que él llama el idealismo. Para Popper, el realismo es la única hipótesis sensata, la única a la que no se ha puesto una alternativa sensata. 38

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Popper afirma que, como recomendación metodológica, en el campo del realismo se debería tender a describir y realizar más la realidad, es decir, debería orientarse a la verdad. La verdad, para Popper, es un principio regulativo inalcanzable, y entiende el concepto de verdad en un sentido tarskiano, como correspondencia con los hechos. Añade que la verdad o falsedad son propias de enunciados formulados sin ambigüedad en un lenguaje L sobre el que podemos hablar en un metalenguaje Lm de dos formas: Hablando sobre los hechos descritos por L Hablando sobre los propios enunciados de L La relación entre los conceptos de verdad y realidad queda clara por los comentarios que hace Popper en su obra acerca del sentido tarskiano. Afirma: si podemos definir “verdad” (entendida extensivamente como el conjunto de los enunciados verdaderos) como “correspondencia con los hechos” (con la realidad), entonces podemos definir “realidad” como “correspondencia con la verdad”. Para Popper, si bien las teorías no pueden ser verdaderas, porque no pueden ser demostrables, sí que pueden estar más o menos cerca de la verdad, es decir, ser más o menos verosímiles o tener un mayor o menor grado de verosimilitud. El concepto de verosimilitud es importante en Popper, es una noción que introduce en una época más cercana y queda recogida en “Conjeturas y refutaciones”, es una idea que quedó fuera del campo de discusión, aunque más tarde fue muy importante y discutida. Crítica a Popper2 De Popper1 y su propuesta de falsacionismo ingenuo o dogmático hemos pasado a Popper2, el cual afirma que la falsación no es lógicamente concluyente, sino metodológicamente concluyente. De Popper2, a su vez, hemos pasado a Popper3 y la defensa de un falsacionismo sofisticado que resalta la importancia de los contextos no monoteóricos de contrastación. El falsacionismo metodológico de Popper2 concluye que si bien falsar no significa rechazar, sí deberíamos hacerlo, es decir, se recomienda que la falsación sea sinónimo de rechazo. La teoría popperiana tiene carácter normativo en tanto que Popper no pretende sólo describir cómo funciona la ciencia, sino que también pretende describir cómo debería funcionar la ciencia. Su teoría coincide a veces con la práctica científica real y, entonces, tiene carácter descriptivo; pero a veces no coincide y tiene carácter prescriptivo. Es importante destacar esta doble vertiente de la teoría popperiana, la parte descriptiva y la parte normativa. Uno de los puntos que han sido objetos de crítica por parte de los autores que han escrito contra Popper es el hecho de que éste pretenda que su carácter normativo se basa en la observación de los descubrimientos relevantes de la ciencia del pasado. La crítica a esta concepción popperiana consiste en decir que ésta supone una metodología normativa, es decir, la ciencia real se ha desarrollado y se desarrolla de un modo distinto al descrito por el falsacionismo metodológico. Hay tres observaciones que apoyan esto: No es infrecuente que se restablezcan teorías que han sido falsadas y rechazadas en el pasado. Por ejemplo, la teoría corpuscular de la luz.

39

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

No es metodológicamente concluyente rechazar una teoría que ha sido repetidamente falsada si no se dispone de una teoría alternativa, y no bastan las buenas razones. Por ejemplo, la anomalía de la órbita de Mercurio alrededor del Sol. Las teorías reales demuestran una notable tenacidad, es decir, se elaboran teorías sin tener demasiado en cuenta sus anomalías. Si anomalía significase rechazo, habría que rechazar toda ciencia, pues no hay ninguna teoría que no tenga que hacer frente a alguna anomalía, y esto es una característica de racionalidad de la ciencia. Está basado en lo que se llama el método de autodeterminación del campo de aplicación de una teoría. Todas las teorías tienen un campo determinado que se delimita porque este campo de aplicación tiene un carácter auto-determinado. Vamos a ver la parte menos técnica, la que no es puro formalismo, acometiendo la cuestión de la verosimilitud, relacionada con la defensa de Popper del realismo crítico y con el desarrollo del falsacionismo sofisticado. El concepto de verosimilitud es un concepto lógico, no epistemológico, que combina los conceptos de contenido y verdad (originales de Tarski): intuitivamente, una teoría será tanto más verosímil a medida en que más consecuencias verdaderas se deduzcan de ella y, por tanto, menos consecuencias falsas. De un modo más técnico, es la diferencia entre dos contenidos de verdad y falsedad de una teoría o clase de consecuencias, entendiendo por teoría una conjunción finita de enunciados. Así, es importante distinguir los conceptos de verdad y verosimilitud, dado que, para Popper, el objetivo de la ciencia es la búsqueda de la verosimilitud, no de la verdad. Popper utiliza los conceptos de verdad y falsedad para enunciados y para conjuntos de enunciados. Sobre esta base, Popper reformula su criterio pragmático de preferencia afirmando que dadas dos teorías rivales T1 y T2, T2 es más verosímil que T1 y, por tanto, preferible a T1, cuando se dan las siguientes condiciones: T1 y T2 deben ser comparables en cuanto a las medidas de sus contenidos de verdad y falsedad. Debe darse al menos una de estas dos situaciones: o bien el contenido de verdad de T2, pero no su contenido de falsedad, es mayor que el de T1. o bien el contenido de falsedad de T2, pero no su contenido de verdad, es menor que el de T1. Este discurso popperiano acerca de teorías más o menos próximas a la verdad y alejadas de la falsedad, más o menos verdaderas o falsas, parece que rebasa el ámbito de la lógica bivalente, y esto no es así porque el tercero sigue estando excluido. Una teoría es literalmente falsa cuando tiene al menos un enunciado falso, pero una teoría es más o menos falsa según la cantidad de enunciados falsos que tenga. A partir de aquí, la cosa se complica con ejemplos de difícil elaboración y se convierte en una discusión muy técnica. El planteamiento de la discusión técnica es el siguiente: tenemos una constante (a), una variable (x) y un lenguaje artificial (L). Se utiliza (A) para hacer referencia a la clase consecuente o de consecuencia de (a), y, de este modo, la primera definición es que el contenido de (a) es: 40

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA Cn (a) = {x | a ∴ x} = A

José Antonio López Cerezo Curso 2006-2007

Si tenemos un enunciado verdadero, por ejemplo, (t), su clase de consecuencia sería (T) en (L). Así, el contenido de verdad de una clase consecuente puede definirse como la intersección entre la clase consecuente de (a) y los enunciados verdaderos en (L): Cn T (a) = A ∧ T Una primera dificultad que se plantea es si se puede definir de manera análoga el contenido de falsedad, algo que no puede ser porque a partir de un enunciado falso se puede inferir uno no falso: Cn F (a) = A ∧ F La definición más aceptada para definir el contenido de falsedad sería: Cn F (a) = Cn (a) – Cn T (a) Esta es una introducción muy general a la definición de verosimilitud en términos lógicos. Se introduce una medida del Cn definiendo, para ello, una función de probabilidad lógica que disminuye a medida que aumenta el contenido. Es necesaria la medida, puesto que la estimación de la verosimilitud es comparativa de unas teorías respecto a otras. La medida de contenido es la siguiente: Ct = medida del C Ct (a) = 1 – P (a) El contenido es un concepto contrario al de probabilidad lógica, pues el contenido de (a) y el de (t) es menor que el de (a ∧ b). Esto es lo inverso de lo que ocurre con la probabilidad: Ct (a) ≤ Ct (a∧b) ≥ Ct (b) P (a) ≥ P (a∧b) ≤ P (b) Por ejemplo, el contenido de una tautología sería: Ct (t) : tautología Ct (1): contradicción Ct (t) = 1 – P(t) = 1 – 1 = 0 Ct (1) = 1 – P (1) = 1 – 0 = 1 De aquí, Popper afirma que la medida del contenido de cualquier enunciado es un valor entre el intervalo cerrado entre 0 y 1: 0 ≤ Ct (a) ≤ 1 A partir de aquí, la verosimilitud Vs: Vs (a) = Ct T (a) – Ct F (a) Vs también es un intervalo cerrado cuyos valores extremos serían, por un lado, la verosimilitud de la tautología (-1) y, por otro, la de una contradicción (0). -1 ≤ Vs (a) ≤ 1 41

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Dados dos enunciados (a) y (b), Popper dirá que Vs (a) es menor que Vs (b) si y sólo si se da una de las siguientes situaciones: Ct T (a) < Ct T (b) y Ct F (a) ≥ Ct F (b) Ct F (b) < Ct F (a) y Ct T (b) ≥ Ct T (a) Esto es muy difícil de objetivizar. Popper no trataba de sacar adelante un marco operativo útil, sino que trataba de rehabilitar un concepto filosófico sospechoso e importante para el realismo científico: el concepto de verdad. Popper3 no se ve, tampoco, libre de críticas. Por ejemplo, se le critica al falsacionismo sofisticado que el concepto de verosimilitud no resuelve el problema de la continuidad de la ciencia. Muchos autores consideran que Popper3 no hace frente a problemas como el de la tenacidad de las teorías o el de la autodeterminación del campo de aplicación de las teorías. Problema de las unidades de selección En este tema se hace imposible no hacer referencia a Darwin, el cual no fue quien dijo por primera vez “la supervivencia del más apto”, sino que rescató esta frase de Spencer. Popper afirma que esta frase es tautológica, pero ¿a quién se refiere con “más apto”? Lo más obvio es pensar en los individuos (fenotipos), pero podrían ser los caracteres de los individuos. Otra opción sería la información genética (genotipos), y también podría pensarse que son los cromosomas individuales o, quizá, los genes. Si atendemos a un orden más complejo, diríamos que las familias, los grupos sociales o, a lo mejor, las especies. Así pues, ¿quién compite? Esta es una pregunta que Darwin dejó deliberadamente abierta conformando el problema de la unidad de la selección. No siempre lo mejor para los genes es lo mejor para la especio o para los individuos; por ejemplo, la maternidad ordinaria es buena para el individuo, pero quizá no para la familia; y una adopción de un individuo sin parentesco es buena para el individuo, mientras que no lo es para los genes en cuanto que no se transmiten los genes de la familia. Los biólogos evolucionistas tienen un consenso metodológico: no conviene asumir la adaptabilidad en un nivel superior, por lo que la explicación a nivel genético es mejor que a nivel de individuo o especie. Se ha llegado a decir, desde una interpretación radical, que el gen es la unidad básica en la lucha por la vida (una gallina es la forma que un huevo tiene para producir otro huevo). Pero nn etología/ecología, hay un hábito muy resistente al uso de unidades básicas para explicar ciertos caracteres según ciertas evidencias evidencias: En condiciones naturales, las poblaciones no presentan fluctuaciones bruscas de tamaño. Una población estable corre menos riesgo de sobreexplotar los recursos. El tamaño de la población suele estabilizarse antes de que los alimentos se agoten. Esto ocurre porque o bien el tamaño de la puesta o la comanda disminuye en poblaciones elevadas o bien porque una parte no consigue reproducirse con éxito.

42

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Parecía imposible explicar este fenómeno sobre individuos o unidades más básicas. Se denomina “selección de grupo” a la situación en la que hay un altruismo individual y un egoísmo grupal. La competición no es entre individuos, sino entre grupos de individuos: los que luchan, los más aptos, son los grupos, y sólo así se puede explicar el sacrificio del individuo por el grupo. C.Lack ha puesto en entredicho esta teoría de la selección individual, afirma que no hay que acudir al nivel del grupo y hablar de altruismo individual para explicar el control en los tamaños de población. Las poblaciones pequeñas de algunas aves pueden maximizar mejor el número de polluelos que llega a adultos en condiciones de escasez, y estas aves no son altruistas, sino egoístas individuales, siendo las aves que desarrollan este comportamiento las que más posibilidades tienen de transmitir sus genes. Estos son los contextos monoteóricos, tenemos dos teorías con explicaciones alternativas para unos mismos hechos: la regulación de la población en condiciones difíciles y el mantenimiento constante en condiciones naturales (población estable). Por tanto, necesitamos buscar un contexto de observación en el que una teoría diga A y la otra diga ¬ A, es decir, un experimento crucial. Putnam afirma que el modelo popperiano del cambio científico es un modelo heroico, siendo más realista debe explicar los hechos a partir de las leyes (cambiando hipótesis auxiliares, etc.). Necesitamos idear una observación en que se contradigan ambas teorías, y para diseñar esto se necesita un componente creativo por parte del científico. R. Alexander afirma que hay que buscar poblaciones que se reproduzcan una vez en la vida y ver si, en condiciones difíciles, disminuye su puesta o camada; en caso de que fuera así, la teoría correcta sería la selección de grupo, y el caso contrario sería la de la selección individual. El salmón sólo se reproduce una vez en la vida y, por difíciles que sean las condiciones, no reducen la puesta; y, también, hay una mosca que es devorada por sus larvas, de modo que en lo único que piensa es en la transmisión de génesis. Así, hemos obtenido una corroboración de la selección individual a costa de una falsación de la selección grupal.

43

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Tema 5: Lakatos. Programas de investigación

Imre Lakatos es un autor húngaro que desarrolló su trabajo en la London School of Economics, y, junto con Feyerabend, es uno de los popperianos más fructíferos desarrollando las ideas de Popper acerca de la naturaleza de la ciencia. Lakatos hace frente a las amenazas que plantea el relativismo tomando en serio a Kuhn y releyendo con lentes popperianas. Lakatos ha sido el popperiano más influyente de cuantos hubo. Lakatos parte del falsacionismo sofisticado llevando esta idea más allá de lo que lo hizo Popper en “Conocimiento objtivo”, donde decía que hay que pensar en series de teorías y no en teorías aisladas. Asimismo, Lakatos afirma que la unidad de análisis no pueden ser las teorías aisladas, sino las series de teorías que forman los programas de investigación. Con la evolución del positivismo al empirismo lógico, hasta las posiciones maduras de Hempel o el falsacionismo de Popper hacen que las teorías, no las oraciones, sean tomadas como elementos mínimos de análisis. Pero Lakatos propone un paso más: la unidad de análisis deben ser los conjuntos de conjuntos de enunciados, es decir, conjuntos de teorías, pues sólo de éstas puede decirse que progresan o degeneran, que son científicas o no. Para Lakatos, el problema fundamental de la filosofía de la ciencia es el problema de la demarcación, algo que él entiende como establecer condiciones necesarias para poder decir que una teoría es científica (según Popper, qué poner dentro y qué fuera). Lakatos afirma que este problema forma parte de otro más general como es la comparación de teorías. Tanto en un caso como en otro, nos preocupa la cientificidad, por lo que en “Matemáticas, ciencia y epistemología” aborda tres grandes tradiciones ante el problema de la demarcación: Demarcacionismo (Popper y Lakatos): es posible evaluar las teorías científicas con criterios objetivos y universales, criterios independientes de deseos, impresiones, etc., de modo que se presupone la existencia de normas explícitas de racionalidad intersubjetiva. Elitismo (Kuhn): coincide en gran medida con el pragmatismo y supone que las teorías sí pueden ser evaluadas, aunque no existen criterios objetivos para tal cosa, por lo que la ciencia sólo puede ser juzgada por los casos particulares siendo los únicos jueces los científicos, los cuales son la elite que decide qué teoría es mejor, qué es ciencia y qué no lo es. Escepticismo (Feyerabend): no sólo no existe tal criterio objetivo, sino que además no puede haber solución al problema de la demarcación, pues ningún criterio tiene superioridad epistemológica. Por tanto, ni siquiera los científicos tendrían por qué compartir un mismo código. Lakatos, para dar su respuesta falsacionista, toma como apoyo el falsacionismo sofisticado de Popper. Además, es un autor post-kuhniano y tiene muy presente la obra de éste. Acomete su estudio de la ciencia a partir de casos históricos particulares y ve que la ciencia real no siempre se acomoda al patrón de objetividad y racionalidad que busca en ella. Lakatos 44

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

reconoce ciertos rasgos de irracionalidad que, según él, son exagerados en Kuhn. Divide la ciencia en interna y externa afirmando que toda concepción histórica está inevitablemente distorsionada, es deformada por idealizadora. En la ciencia real hay patrones de conducta racional, pero en ella también encontramos científicos movidos por aspiraciones no tan racionales (ambición, notoriedad, convicción religiosa, etc.). Así, el papel del filósofo de la ciencia es el de la reconstrucción racional, por eso debe maximizar la historia interna (normas, objeto de estudio) minimizando su historia externa (sociología). Factores epistémicos: utilidades cognitivas. Son relevantes en el contexto de la historia interna. inferencia inductiva (experencial) razonamiento deductivo (lógica) Factores no epistémicos: factores sociales que suponen un cajón-de-sastre que Lakatos etiqueta genéricamente de socio-psicológicos (cuestiones ideológicas, políticas, económicas, expectativas profesionales, lealtad al director de la tesis, etc.) Son relevantes en el contexto de la historia externa. Lakatos reconoce la existencia de estos dos tipos de factores en la historia de la ciencia, y señala que la historia externa también está presente en el curso real de la ciencia, pero que la tarea del filósofo es maximizar la historia interna y minimizar la externa tratando de producir el mínimo de distorsión posible, el cual se asume como un mal necesario por parte de Lakatos. Según éste, la herramienta que debe seguirse para conseguir esto, para sacar adelante una reconstrucción racional de la historia de la ciencia, es la que él desarrolla en el curso de su obra y que recibe distintos nombres: metodología de los programas de investigación científica. A la hora de plantear su metodología, comienza argumentando a favor de una visión no monoteórica. Lakatos dice que si, a la hora de hablar de progreso en ciencia, es decir, de si una teoría es más o menos científica que otra, debemos abandonar una visión monoteórica, entonces también debemos hacerlo a la hora de hablar de la demarcación, que es el caso cero del progreso. Por tanto, no es de teorías aisladas de las que decimos si son científicas o no, sino de series de teorías, y el término “serie” introduce una connotación temporal en tanto que una serie es una colección ordenada temporalmente. Estas series de teorías se sueldan formando programas de investigación científica, y esta red será la unidad de análisis metodológico que utilice Lakatos. Lakatos afirma que un programa de investigación es aceptable si conduce a un cambio-deproblemas que él denomina progresivo, es decir, que su desarrollo teórico anticipe su desarrollo empírico. Ahora bien, para que esto sea así, deben darse dos condiciones: Que se de un mayor contenido empírico de cada teoría respecto a su predecesora, es decir, que se predigan nuevos hechos. Que parte de ese contenido empírico excedente esté corroborado, lo que significa que parte de esas predicciones tengan éxito. Cuando se dan estas dos condiciones, podemos decir que el desarrollo teórico va por delante del empírico y, por tanto, un programa de investigación es aceptable o progresivo. En caso contrario, se dirá que el programa de investigación es degenerativo, caso típico cuando sólo se producen explicaciones “post hoc” bien de descubrimientos casuales o de hechos 45

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

descubiertos por un programa rival. En resumen, se conciben los programas de investigación como series soldadas de teorías que tienen una evolución temporal en la que las teorías predecesoras van sustituyendo a las antecesoras, que pueden entrar en conflicto con programas rivales en los cuales cada teoría de la serie está falsada respecto a la teoría que la sucede. De cada teoría, la teoría sucesora es una especialización, una eliminación de errores de la antecesora. T1, T2, T3,..., Tn T1´, T2´, T3´,…, Tn´ Otro concepto importante de la metodología de Lakatos es el conjunto de reglas metodológicas, que son lo que nos permite identificar un programa de investigación. Lakatos afirma que de estas reglas metodológicas emana la continuidad de la serie, por lo que las reglas metodológicas son el criterio fundamental para identificar programas de investigación y, además, nos dicen dos tipos de cosas: Qué vías o caminos de investigación han de evitarse (heurística negativa) Qué vías o caminos de investigación han de seguirse (heurística positiva) La heurística negativa especifica el núcleo del programa, que es irrefutable por decisión metodológica, normalmente implícita. Lakatos prohibe al científico dirigir el modus tollens hacia las leyes fundamentales del programa. Estos núcleos de leyes fundamentales están rodeados de cinturones protectores que deben ser el objeto, según la heurística negativa, del fracaso, y contra el que dirigir el modus tollens. Las hipótesis auxiliares y las condiciones iniciales formarían parte de ese cinturón, y serían el objeto de aplicación del modus tollens; esto es, la heurística negativa nos dice que conservemos la ley fundamental, muy valiosa, y comencemos sospechando de las hipótesis auxiliares o de las condiciones iniciales. Este convencionalismo por el que aboga Lakatos está en las antípodas del convencionalismo por el que aboga Popper, pues Lakatos está más cerca del convencionalismo tradicional de Duhem o Poincaré. Ahora bien, a diferencia del convencionalismo clásico, Lakatos afirma que el suyo es una cuestión lógica y empírica, pues esa decisión convencional (la de no dirigir el modus tollens al núcleo del programa) sólo protege el núcleo en la medida en que nos encontremos frente a un cambio-de-problemas progresivo. Es decir, la refutación no debe dirigirse al núcleo mientras siga aumentando el contenido empírico corroborado del proceso. La heurística positiva consiste en un conjunto parcialmente articulado de sugerencias o indicaciones sobre cómo desarrollar variantes refutables del programa de investigación, sobre cómo modificar y sofisticar el cinturón protector. Estas sugerencias normalmente se concretan en aplicaciones ejemplares, analogías fructíferas, etc. Para Lakatos, es la heurística positiva, no las anomalías, la que dicta la elección de un programa; ésta, según un plan preconcebido, prevé las anomalías y las transformaciones en aplicaciones del núcleo. Para explicar el modo en que funciona la heurística positiva, habla de cadenas de modelos (podría identificarse como un programa de investigación o con uno de los componentes de un programa de investigación). La idea de cadena de modelos no es exclusiva de Lakatos, el cual pone un ejemplo: la identificación mecánica de los movimientos planetarios. Él se fija en un aspecto del programa de identificación de Newton. Primero, tendríamos un modelo planetario con un punto fijo, el Sol, y un solo punto como planeta, y el núcleo del programa permanece constante. Mediante este modelo, Newton fue capaz de deducir la ley del universo del 46

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

cuadrado para las órbitas elípticas de Kepler, pero este modelo constituía una excesiva simplificación del sistema estudiado. En una posterior elaboración del programa, en un segundo modelo, tenemos que tanto el Sol como el planeta giran en torno al centro de gravedad del sistema formado por ambos cuerpos. Pero este modelo continúa siendo una excesiva simplificación, por lo que habría un tercer modelo. En el tercer modelo, Newton introduce más planetas, pero sin fuerza planetaria. Sin embargo, este modelo continúa siendo de una excesiva simplificación. Así, nuevas elaboraciones del programa consistirían en nuevos modelos en los que se iría introduciendo, progresivamente que: tanto el Sol como los planetas ya no sean puntos-masa, sino esferas de masa; se introducirían esferas de rotación y oscilaciones (aún en un nivel de idealización alto); se tendrían en cuenta fuerzas interplanetarias y perturbaciones; se cualificaría esas esferas-masa y se introducirían planetas irregulares, etc. Cada uno de estos modelos está condenado a ser sustituido por otro más complejo en el desarrollo del programa, por lo que Lakatos afirma que la refutación no es importantes, porque las anomalías están previstas de antemano; pero, mientras continuemos sabiendo las anomalías que vamos a tener, nuestro programa de investigación irá por buen camino. Esto es, sólo cuando nos encontremos con hechos imprevistos presentados por un programa rival, nuestro programa de investigación entraría en una fase degenerativa. El desarrollo de una de estas cadenas de modelos puede ser entendido como un evento de la sofisticación del número de supuestos y de hipótesis auxiliares. Para Lakatos, es el éxito en desarrollar esos nuevos conjuntos de hipótesis auxiliares y condiciones iniciales para un núcleo lo que garantiza un creciente contenido empírico corroborado y, por tanto, la inmunidad del núcleo. Si la cadena se estanca, una vez falsado el último modelo de esa cadena, un modelo que nace ya falsado, entonces el modus tollens debería dirigirse contra el núcleo. Cuando la heurística positiva se estanca, comienza a prestarse más atención a las anomalías que, al irse acumulando, comienzan a hacer imposible continuar con un programa de investigación. Obviamente, incluso con un programa de investigación progresivo, hay anomalías imprevistas, pero éstas se aparcan en espera de tiempos mejores teniendo en cuenta que cuando ya no hay más sitio para aparcar se entra en la fase degenerativa. No obstante, es lógico que se haga caso omiso de las refutaciones. Otro tema que se aborda es el de los experimentos cruciales. Lakatos dice que un experimento crucial sólo lo es para una teoría en el contexto de un programa de investigación, pero esta visión contextualizada de los experimentos cruciales hace concluir que los experimentos cruciales sólo lo son de un modo retrospectivo. Así, el experimento crucial resulta negativo para una teoría y positivo para la contraria, lo cual no quiere decir que por un resultado adverso a nuestra teoría, deba abandonarse esta teoría, pues el experimento crucial no es relevante para abandonar la teoría, y sólo será relevante cuando este experimento crucial sea perjudicial para el programa haciendo que éste degenere. Para Lakatos, un programa de investigación estancado aún puede ser recuperado, y hay muchas formas de seguir sacándolo adelante; es decir, hay muchas formas de seguir sofisticando el cinturón protector que nos permite seguir hablando de una progresión teórica. Por tanto, no es irracional hablar de incongruencias y contradicciones en un programa de investigación. De este modo, no podemos decir que un programa de investigación no puede ser recuperado, sino que sólo retrospectivamente y con mucho tiempo por delante podemos decir que ese programa ya no va a salir de su estado degenerativo. Todo esto hace que Lakatos haga una petición de tolerancia. 47

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Esta reflexión de Lakatos sobre los experimentos cruciales es muy importante porque es lo que le lleva a abandonar lo que él denomina racionalidad instantánea. Afirma que, en ciencia, no hay racionalidad instantánea, del mismo modo que un experimento crucial que se considera de determinada manera produce un resultado negativo, solo en estos casos podemos decir que un resultado adverso fue decisivo o no. Esta reflexión es la que le conduce a su visión no monoteórica en filosofía de la ciencia. En un sentido lakatiano, autores como Irene Szumilewicz dice lo mismo que Lakatos de los experimentos cruciales, pero de los aportes revolucionarios, estableciendo que de un aporte revolucionario sólo se dice que lo fue retrospectivamente. También afirma que no disponemos en ciencia de racionalidad instantánea, es decir, que un aporte no es decisivo en el momento en el que se da, sino que ha de pasar mucho tiempo para que se vea si un experimento crucial o algo semejante es decisivo o no lo es. Por ejemplo, los premios Nobel se otorga a un determinado señor décadas después debido a que sus logros son importante mucho tiempo después de que se haya hecho efectivo su descubrimiento, no en el momento. Otro punto importante en la filosofía de Lakatos es un intento de autojustificación. Dice que, del mismo modo que la ciencia puede ser entendida a través de su método de programas de investigación, lo mismo podemos hacer con la filosofía de la ciencia. Lakatos se pregunta ¿qué puede decir un método a favor de mi propuesta para la filosofía de la ciencia? y, así, establece que tiene una visión filosófica diferente de la positivista, etc., de la ciencia, esto es, lo que él llama la metodología de programas de investigación científica. Ve que el progreso temporal de la ciencia es como el cambio de los problemas que se dan en la ciencia, ve un progreso en el cambio científico, que es el desarrollo de los problemas temporalmente. T1, T2, T3,..., Tn t ---→ P1, P2, P3,…, Pn t ---→ Clasifica los elementos filosóficos a través del tiempo y que su filosofía es el punto de llegada porque conduce a un cambio de problemas mejor en la filosofía de la ciencia. Así, se justifica. De un modo crítico, Lakatos utiliza sus propios cánones para establecer esto. Esta propuesta de Lakatos ha sido recogida recientemente por L. Laudan. Quiere, junto con sus colaboradores, sacar adelante una filosofía contrastable en ciencia, donde el desarrollo teórico anticipe el desarrollo empírico, es decir, lo que Lakatos llamaría un desarrollo progresivo en filosofía. Además, este debe ser un desarrollo capaz de hacer predicciones y saber si éstas tienen éxito o no lo tienen.

48

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Tema 6: Feyerabend. Anarquismo epistemológico

Paul Feyerabend fue muy amigo de Lakatos, y también pluralista teórico, aunque mucho más radical que éste último, quizás porque vivió más. Feyerabend es el autor más famoso del anarquismo metodológico (todo vale), es bastante provocador y heterodoxo. Su obra en español es abundante. Su pensamiento evoluciona y, hasta 1970, es sobre todo un crítico del empirismo lógico que sigue de cerca las ideas de Popper pero introduciendo innovaciones. Sin embargo, a partir de 1970 se aleja ya mucho de Popper y postula su propio enfoque, lo que llamó anarquismo metodológico. Así, hay dos Feyerabend: del año 58 al 70 es antipositivista y popperiano, y a partir del año 70 postula el anarquismo metodológico. Nosotros trataremos sobre el primer Feyerabend, el más gris y popperiano, mientras que el segundo es más crítico y revolucionario. Feyerabend escribía artículos muy largos que, habitualmente, desarrolla un poco más publicándolos en forma de libro. El Feyerabend antipositivista y popperiano apunta la crítica sobre la visión acumulativa del desarrollo de la ciencia, visión del empirismo lógico y también de Kuhn respecto al desarrollo de la ciencia en el tiempo. Feyerabend afirma que esta visión se establece sobre una tesis que es la del desarrollo por reducción, donde se reconstruyen las disciplinas en general (las distintas partes de la ciencia) como evoluciones teóricas. En estas evoluciones teóricas, partimos de una teoría T0 de la que, con el paso del tiempo, se van produciendo versiones cada vez más articuladas y más comprensivas hasta llegar a la teoría actual (TA). En esta serie, si tomamos de ella un elemento cualquiera (Ti), éste debe constituir siempre una extensión teórica y empírica de su correspondiente elemento antecesor (Ti-1). Esto es, esta tesis del desarrollo por reducción exige que cada una de estas evoluciones teóricas cumplan dos requisitos: Extensión empírica: toda aplicación propuesta por Ti-1 corresponde al menos a una aplicación propuesta para Ti, es decir, debe producir una extensión empírica. Extensión teórica o explicativa: todo lo que Ti-1 dice acerca de una aplicación dada puede deducirse de lo que Ti diga acerca de cualquier aplicación correspondiente. Por un lado, lo que nos dice esta tesis es que, si tomamos una serie de lo que sea y podemos fijar un punto cero (teoría de la que parte una disciplina), entonces hay un arranque convencional porque a partir de él se da la teoría. Así, lo que Feyerabend nos dice es que en la siguiente serie: 49

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA T0, T1, T2, ..., Tn Ti-1, Ti, Ti+1,…, Tn

José Antonio López Cerezo Curso 2006-2007

Ti tiene que tener la misma extensión o mayor que T0, debe haber cada vez más extensión a medida que va aumentando esta serie de teorías. Por otro lado, también nos dice que debe existir una relación de reducción en la que cada uno de estos escalones se reduzca al siguiente, es decir, se puede deducir el eslabón teórico antecesor desde el eslabón sucesor, de modo que deducimos T0 desde T1. Por ejemplo, la evolución de la física. Para Feyerabend, la evolución en ciencia significa extensión empírica y extensión teórica. Una teoría no sólo debe tener más extensión que la anterior, sino que también debe dar cuenta de determinadas cosas de las que la anterior no daba cuenta. Por ejemplo, Galileo no podía explicar las mareas, algo que sí hace la mecánica clásica de Newton. Pero Feyerabend también dice que el desarrollo de esta tesis depende de que se cumplan dos condiciones, las condiciones de E. Nagel que tienen los empiristas lógicos: Consistencia: en un dominio empírico dado, sólo son admisibles aquellas teorías que o bien contienen a las teorías ya usadas en este dominio o bien son consistentes con ellas. Invarianza del significado: en las teorías que se apliquen sobre un mismo dominio empírico, los significados de los términos descriptivos han se ser invariantes. Feyerabend dice que estas dos condiciones son necesarias para asegurar la derivabilidad que requiere la tesis del desarrollo por reducción. Aquí termina el desarrollo que lo que se propone criticar; y, a partir de aquí, ataca estos pilares, estas condiciones de la visión acumulativa de la ciencia, que él dice que son las condiciones de consistencia y de invarianza del significado. Para Feyerabend, estas condiciones no se cumplen nunca, sino que describen una ciencia fantástica que poco tiene que ver con la ciencia real, por lo que dirige su crítica a cómo, en la ciencia real, esas condiciones ni son el caso ni deberían serlo, porque no nos sirven para describir la ciencia del pasado ni para re-escribir lo que debería ser la ciencia. Feyerabend critica la condición de la consistencia afirmando que es una manifestación del empirismo radical o positivismo, y bajo esta condición subyace una convicción: una teoría, una vez que ha sido altamente confirmada en un dominio empírico, debe mantenerse hasta que hechos nuevos la refuten. El problema es que esta convicción que obliga a mantener una teoría lleva consigo la prohibición de proponer teorías alternativas nuevas en tanto se siga manteniendo la vieja teoría, y es aquí donde funciona la consistencia, pidiéndonos que cualquier propuesta teórica sea consistente con la vieja teoría en tanto la sigamos manteniendo. Por lo tanto, la condición de consistencia, al prohibir el empleo simultáneo de teorías mutuamente inconsistentes, nos fuerza a limitar la ciencia al empleo de un solo conjunto de teorías consistentes entre sí. Feyerabend dice que la ciencia no cumple la condición de consistencia y pone varios ejemplos de ello. Por ejemplo, lo que media entre la mecánica de Newton y la mecánica relativista, que son inconsistentes, y de haber sido consistentes jamás podrían haber sido propuestas. Hay teorías nuevas que son propuestas y que son inconsistentes con las teorías anteriores, y se va mostrando cómo las teorías antecesoras son falsas en relación con las teorías sucesoras, por lo que las teorías sucesoras son inconsistentes con las teorías antecesoras. Además, la noción de consistencia es imposible para recomendación metodológica, pues lo contrario sería irracional: el pretender que las teorías nuevas 50

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

concuerden con las viejas favorece lo viejo, no lo mejor, y se estaría preservando lo antiguo y familiar por el mero hecho de ser antiguo y familiar. Feyerabend se pregunta qué clase de argumentación se puede mantener para postular la recomendación metodológica de la consistencia. Cree que si se mantiene esto es porque los científicos están convencidos de lo que él denomina el principio de los hechos, es decir, postulan la consistencia de acuerdo con los hechos sin que vean necesidad en invertir esfuerzos en teorías, pues ya hay teorías, y la única razón para establecer teorías es que la teoría y los hechos no concuerden. Pero, puesto que nuestras viejas teorías no están en desacuerdo con los hechos, entonces no hay razón para entender que una nueva teoría vaya a suponer una mejora efectiva. Así, en la base de este razonamiento de coste-beneficio se encuentra el presupuesto de que esa discusión sobre hechos, no sobre hipótesis o teorías incompatibles, es lo que hace progresar a la ciencia. Es decir, en la base está lo que Feyerabend llama el principio de autonomía de los hechos, que supone que los hechos están ahí, a nuestra disposición, con independencia de nuestra disposición y teorías. De este modo, los hechos serían autónomos y nos permitirían someter a prueba nuestras teorías. Pero, si este principio no es cierto, lo que estaría en la base sería la discusión entre teorías. Para Feyerabend, este principio no se mantiene, pues los hechos no son autónomos con respecto a las teorías, y además (añade un paso obvio) hay muchos hechos que se presentan como nuevos y que sólo están disponibles a través de teorías alternativas. Feyerabend se comporta aquí como un buen popperiano afirmando que, si el progreso en ciencia se debe a la confrontación con los hechos, en la medida en que los hechos dependen de las teorías, ese progreso será maximizado y optimizado a través del pluralismo teórico, es decir, favoreciendo el pluralismo teórico alrededor de la teoría que está siendo objeto de desarrollo o contrastación. Este pluralismo teórico de Feyerabend descansa en gran parte sobre la frase: “todo vale”, que sólo es un argumento a favor del pluralismo teórico. Feyerabend extiende su crítica a la ciencia normal de Kuhn, duda que haya una ciencia normal y afirma que, si la hubiera, sería indeseable, puesto que la ciencia normal asume la consistencia. Feyerabend también critica la condición de invarianza del significado afirmando que tampoco se cumple en la ciencia real y, además, es indeseable como recomendación metodológica. Según Feyerabend, esta condición depende de un fantasma que fue puesto en circulación por el empirismo lógico y del que no se han librado muchos autores, a saber, el fantasma de la existencia de un lenguaje de observación teóricamente neutral, un lenguaje que puede ser una base para verificar o falsar nuestras teorías. La crítica a este lenguaje es también la crítica que se da al argumento de la carga teórica de la observación. De este modo, la filosofía de la ciencia del segundo Feyerabend supondrá el intento de desarrollar un análisis popperiano de la ciencia que no presuponga este lenguaje, y la dinámica de este intento le llevará a alejarse de Popper y a posicionarse en un lugar antagónico. Feyerabend dedica mucho espacio a discutir el lenguaje de la física, sobre todo con el concepto de masa: este concepto es una propiedad de los objetos en la mecánica de Newton, mientras que en la mecánica relativista deja de ser una propiedad para convertirse en un una relación (depende de la velocidad de un objeto respecto de un sistema de coordenadas dado). Feyerabend dice que, aún haciendo el esfuerzo por establecerla como relación, la masa de las dos mecánicas tampoco sería lo mismo, pues se impondrían distintas leyes de transformación para una masa y para otra. 51

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

El principal argumento crítico es que no hay un lenguaje de observación neutral, puesto que el significado de cada término descriptivo depende de cada contexto teórico en el que ocurre. Por tanto, hemos de observar que la condición de invariabilidad no se cumple y, si esto es así, la condición de consistencia tampoco, porque la condición de invariabilidad es necesaria para la condición de consistencia, es más importante y tiene un papel más fundamental. De este modo, postular como principio metodológico la invariabilidad de significado es propiciar el estancamiento de las teorías científicas. Feyerabend defiende un flujo bidireccional entre teorías y experiencia, y supone que reconocer este flujo muestra aún con más claridad la irracionalidad de la condición de invariabilidad, porque, dado que todo cambio que se da en una teoría modifica el significado de los términos, admitir la invariabilidad significa detener los cambios de las teorías. En “Problemas del empirismo” (1965), Feyerabend afirma que “todo vale” no significa que todo deba ser aceptado. En esta obra ensaya una concepción alternativa de la ciencia que le permite articular un criterio alternativo de evaluación de las teorías, es decir, una nueva filosofía de la ciencia en la que las teorías resulten también aceptadas o rechazadas sobre la base de las observaciones. Sin embargo, al final, tomará una posición escéptica. Feyerabend aborda el problema de hallar algún tipo de demarcacionismo con el que mantener la inexistencia de un lenguaje neutral, desarrollando la teoría pragmática de la observación. En esta teoría acuerda un estatus especial para los enunciados de observación en la puesta a prueba de las teorías e hipótesis, pero Feyerabend difiere en el carácter de esos enunciados de observación, porque, si fuera así, esos enunciados deberían versar sobre impresiones sensoriales y, sin embargo, lo que podemos utilizar para poner a prueba una teoría no son impresiones sensoriales, sino fenómenos. Feyerabend caracteriza a los enunciados de observación de un modo pragmático, pues no se fija en su contenido, sino en las circunstancias de su producción. Afirma que las sensaciones son indicadores de estados y de situaciones, con lo que, para puedan ser útiles en una contratación, las sensaciones deben ser interpretadas. Esta interpretación es la que llevan a cabo los enunciados de observación, que es una respuesta causal o comportamental para una sensación dada en un contexto teórico determinado. Feyerabend explica en qué consisten esos enunciados explicando el carácter empirista de la ciencia: los enunciados de observación son respuestas causales o comportamentales para esas sensaciones que son la base empírica de la ciencia, y esas sensaciones dependen de la teoría en la cual se incorporan, pues ésta determina el significado de los términos que confluyen en ella. Hay que tener en cuenta que en Feyerabend hay una relación entre teoría y experiencia; por ejemplo, el enunciado “un objeto tiene masa” supone interpretar el objeto como un objeto que se comporta de acuerdo con leyes y regularidades características de la masa en el contexto teórico en el cual aparece, que es el de la mecánica de Newton. De este modo, los enunciados de observación se extrapolan más allá de las observaciones, interpretando las sensaciones y propiedades como hechos objetivos que funcionan de acuerdo con leyes características. Por tanto, Feyerabend está caracterizando a los enunciados de observación como enunciados teóricamente dependientes, como enunciados que dependen siempre de una teoría. Estos enunciados, para Feyerabend, son la base empírica, por lo que se pregunta: si establecemos estos enunciados como base empírica, cómo podríamos desarrollar un criterio de demarcación y comparación teórica entre teorías. Dice que la forma de ver el mundo depende de cosmovisiones, visiones globales que, a su vez, se edifican sobre presupuestos 52

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

(Weltanschaung), por lo que, si esto es así, cuando tenemos que comparar teorías de bajo nivel es totalmente soluble. La carga teórica de los enunciados de observación puede ser la cosmovisión, en el seno de la cual aparecen teorías de bajo nivel que pueden ser comparadas. El problema se plantea cuando se intenta comparar cosmovisiones, teorías de alto nivel, que no poseen una globalidad mayor; es decir, cuando las teorías que tenemos que comparar son muy generales. Este es el problema de la inconmensurabilidad o falta de conexión deductiva entre las teorías. Para definir la inconmensurabilidad, Feyerabend dice que es una inconexión deductiva o que se produce cuando el significado de los principales términos teóricos depende de principios mutuamente inconsistentes. Cuando se produce la inconmensurabilidad, esas teorías que se pretende comparar no poseen ya el mismo enunciado de observación. En “Los problemas del empirismo”, Feyerabend, en cuanto a qué hacer ante este problema, establece tres posibilidades: Si T1 y T2 son las teorías inconmensurables que tratan de ser comparadas, se podría hacer una teoría más general que T1 y T2 mediante la cual podamos describir una base común, que tendría enunciados de observación aceptables por ambas partes, y que, al hacerlo, haga también posible la elección. Se podría realizar un análisis interno de T1 y T2 y elegir aquella teoría que establezca una conexión más general con la observación y una interpretación más directa de los datos observacionales. Se podría tomar en serio la teoría pragmática de la observación y aceptar la teoría cuyos enunciados de observación simulen más satisfactoriamente nuestra propia conducta. Se concluye que estas opciones son inviables por ser inconsistentes con el planteamiento propio de Feyerabend, además implican que: Necesita una teoría básica común que debería ser consistente con T1 y T2, lo cual es imposible porque T1 y T2 han sido definidas como inconmensurables. Presuponen implícitamente que T1 y T2 cuentan con informes observacionales comunes o, al menos, compatibles, lo cual es imposible de acuerdo con la caracterización amplia que Feyerabend hace de la inconmensurabilidad que se le presupone a la relación entre T1 y T2. Feyerabend, a través de este diálogo crítico, va evolucionando hasta abandonar estos intentos por acabar en el cajón demarcacionista de Lakatos. Así, Feyerabend abandona el demarcacionismo en “Contra el método”, y asume una posición escéptica que él describe como anarquismo epistemológico, resumido en su famoso “todo vale”. En 1970, en “Contra el método”, reconoce que más allá de los límites de una teoría particular, no son posibles los juicios de verosimilitud, es decir, no hay tal criterio único y objetivo. Una teoría sólo puede contradecirse por refutaciones internas, y lo que quedan son juicios estéticos, juicios de gusto y nuestros propios deseos subjetivos. Obviamente, para Feyerabend, lo que queda es el relativismo. Shapere, en 1966, abre una línea de crítica muy importante a Feyerabend, la cual ha propiciado la apertura de un gran trabajo sobre la inconmensurabilidad. M. Scriven y D. 53

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Shapere, abren esta línea de crítica dirigida contra la tesis de la inconmensurabilidad de Feyerabend, que luego será recogida por C. Kordis. Shapere afirma que esta visión escéptica del significado es estrecha: si las sensaciones no constituyen la base empírica de las teorías, sino que, como dice Feyerabend, esa base está determinada teóricamente; y si, además, no existen informes observacionales comunes para teorías mutuamente inconmensurables, entonces ¿cómo pueden ser inconmensurables dos teorías que no hablan de lo mismo? Shapere afirma que un requisito para la inconmensurabilidad es que las teorías supuestamente inconmensurables se apliquen a lo mismo con resultados inconsistentes, es decir, que esas teorías sean efectivamente alternativas. Pero, estas teorías supuestamente inconmensurables T1 y T2 no pueden ser alternativas ni rivales puesto que no hablan de lo mismo, sino que tratan de mundos diferentes en el sentido de que se asientan en clases de experiencia distintas. Feyerabend reitera la idea de que la ciencia debe separarse del estado estableciendo la ciencia como la nueva religión; es muy radical en la última parte de su obra y le gusta romper tabúes y sacar las consecuencias que le interesa sacar.

54

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Tema 7: La confirmación y sus paradojas. Lógica inductiva
Este es un campo de discusión en el que ha entrado la mayor parte de las escuelas de filosofía desde los años 50, y en el que hay que repasar, respectivamente, la importancia de Frege, Russell y Whitehead. Los positivistas lógicos, en los años 20, se encuentran una lógica muy desarrollada, deductiva, que aún no ha recibido ninguna crítica, por lo que es vista como paradigma del conocimiento riguroso y formal siendo la herramienta para la construcción formal de la ciencia. Admirando la física, los empiristas lógicos conciben la ciencia de un modo estático, sin aspectos pragmáticos, con lo que la ciencia es reducida a las esferas internas del conocimiento, es un saber metódico. En este contexto, se busca una lógica inductiva, y lo que vamos a ver son los esfuerzos de los empiristas lógicos para desarrollar la parte procedimental. El método científico era visto como una combinación de la lógica y la experiencia: la parte de la lógica era clara y transparente, no suponía ningún problema porque ya se había desarrollado la lógica simbólica; pero no existe un equivalente a la lógica deductiva para ordenar la experiencia, no existe ningún cuerpo de conocimiento para ordenar la inferencia inductiva. A esto se debe la importancia del desarrollo de la lógica inductiva, unas leyes de la inferencia inductiva que nos permitan decir si un conjunto de datos apoyan o no a una hipótesis general. En esta cuestión, diferentes autores utilizan distinto vocabulario; hay quien habla de confirmación, hay quien de corroboración, y hay quien de falsación. Son distintos vocabularios para describir cómo funciona el método científico en el avance del conocimiento, pero todos ven la necesidad de desarrollar un conjunto de reglas que regule el paso de lo particular a lo general. Esto supone una discusión muy técnica que no afecta a la comparación de teorías, sino al modo en que una teoría es construida por los científicos a partir de los datos empíricos. Esta discusión inicia su desarrollo con la cuestión sobre la teoría de la probabilidad. La forma más clara de exponer la teoría de la probabilidad la encontramos en Hempel y su obra “Estudios sobre la lógica de la confirmación”, publicado en el año 1954. Hempel afirma que los científicos razonan y, en la práctica diaria, deducen, infieren, sin justificar su conducta cognitiva por referencia a leyes de la lógica; pero esto lo pueden hacer en las inferencias deductivas, no en las inductivas. Hempel, haciendo referencia a la práctica científica y al modelo de lógica deductiva, afirma que una lógica inductiva debería satisfacer dos requisitos, son los requisitos de la corrección formal y la deducción material: Ser formalmente correcta: no contener contradicciones y no ser inconsistente. Ser materialmente adecuada: hacer justicia a la conducta de los científicos en la práctica diaria. El objetivo último del desarrollo de una lógica inductiva parece sencillo, a saber, definir criterios para decidir cuándo algo que observamos apoya una hipótesis general. Pero no es 55

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

tan sencillo. El punto de partida para ver cómo este desafío se implementa es el criterio de J. Nicort, el cual expone estas ideas en “Fundamentos de geometría”, obra rescatada más tarde por Hempel. Hempel delimita este campo de discusión siguiendo el criterio de Nicort, preguntándose cómo un enunciado que describe ese hecho afecta a la probabilidad de una ley de la forma A→B (A implica B), y responde que afecta de dos modos: Constatando que B es el caso dado A: afecta favorablemente Constatando que B no es el caso dado A: afecta desfavorablemente Esto tan sencillo es la piedra angular de la teoría de la confirmación o criterio de Nicort. Esta observación contiene dos formas de entender la relación de confirmación entre un caso particular y un enunciado general: El modo en que representamos las leyes El modo en que ordenamos la experiencia Hempel añade dos postulados más, los de la condición de equivalencia, y estos cuatro postulados son un desarrollo que hace Hempel a partir de Nicort, son la base para cualquier discusión en teoría de la confirmación. Estos postulados son los siguientes: La condición de las leyes científicas. Toda ley de la forma “P implica Q” o “todo P es Q” es representable como un condicional material de una sola variable cuantificada universalmente: Λx (Px→Qx) Si tenemos un objeto “a” del universo “x”, se pueden producir cuatro combinaciones básicas en cuanto a la experiencia posible: Pa ∧ Qa (caso favorable): confirmación Λx (Px→Qx) Pa ∧ ¬Qa (implicación material falsa): disconfirmación Λx (Px→Qx) ¬Pa ∧ Qa: neutral respecto de Λx (Px→Qx) ¬Pa ∧ ¬Qa: neutral respecto de Λx (Px→Qx) La conclusión de equivalencia para enunciados de observación, para informes. Si dos oraciones son lógicamente equivalentes, entonces confirman la misma oración. Este postulado dice que si se produce una situación en la cual una hipótesis (h) es confirmada por un informe de observación (e1), si (e1) es lógicamente equivalente a (e2), entonces (e2) también debe confirmar a (h). La condición de equivalencia para leyes o hipótesis. Si dos oraciones son lógicamente equivalentes, entonces confirman la misma oración. Este postulado dice que si tenemos una hipótesis (h1) que es confirmada por un informe de observación (e), si (h1) es lógicamente equivalente a (h2), entonces (e) también debe confirmar a (h2) Hempel considera que es necesario que el contenido de una hipótesis dependa de su forma lógica, de la forma en que está escrita, por eso ve muy importantes estos postulados. El problema es que estos cuatro postulados son inconsistentes, producen contradicciones, y este problema de incorrección formal queda reflejado en la paradoja de la confirmación: ¬Qa ∧ ¬Pa : confirmación Λx (¬Qx→¬Px) : postulado 2a Λx (¬Qx→¬Px) : equivalencia Λx (Px→Qx) : contraposición 56

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

¬Qa ∧¬Pa : confirmación Λx (Px→Qx) : postulado 4 ¬Qa ∧ ¬Pa : equivalencia ¬Px ∧ ¬Qx : conmutación de la conjunción ¬Pa ∧ ¬Qa : confirmación Λx (Px→Qx) : postulado 3 ¬Pa ∧ ¬Qa : neutral Λx (Px→Qx) : postulado 2d Las dos últimas expresiones señalan una inconsistencia en el conjunto de los cuatro postulados: los informes de tipo 2d son confirmatorios para leyes Λx (Px→Qx) y, a la vez, neutrales. Esta paradoja señala una incorrección formal. La paradoja de la confirmación es un problema de corrección formal que conlleva la necesidad de cambiar o abandonar algunos de los postulados. Respecto a esta incorrección, algunos autores han intentado resolverla cambiando el postulado 1, otros el postulado 3 y otros el 2c. El propio Hempel, en su estudio sobre la lógica de la confirmación, modifica el postulado 1, y ensaya dos consideraciones de modificación de las leyes científicas. Hempel destaca la importancia de los postulados 3 y 4, así que trata de modificar el modo en que se representa formalmente una teoría, lo hace presentando dos opciones: Formalizar los universales afirmativos al modo aristotélico, es decir, explicitando el contenido existencial: “todo P es Q”, Λx (Px→Qx) ∧ ∀xPx. En este caso, ¬Pa ∧ ¬Qa no presentaría problemas porque el objeto de “a” no satisface el predicado P como se exige. Pero el problema es que esta representación de las leyes e hipótesis invalida inferencias lógicas habituales en ciencia. La representación habitual de las hipótesis generales en ciencia normalmente no contienen ni determinan ninguna cláusula existencial. Hay muchas hipótesis generales en ciencia de las que se puede afirmar que no implican cláusula existencial alguna. Lo que nos dicen las hipótesis científicas es lo que ocurriría en determinadas circunstancias, pero hay muchas hipótesis en las que estas circunstancias no serán nunca el caso, porque se basan en sistemas idealizados; por ejemplo, la ley del gas ideal. Prescindir de la cláusula existencial, pero especificar el dominio de aplicación: {P}Λx (Px→ Qx), es decir Λx ∈ {P}: Px→Qx, siendo P un predicado tal que hay un conjunto de objetos que lo satisfacen. Aquí, como a no forma parte de esa clase de cosas que satisfacen P, ¬Pa∧¬Qa no plantea problema. La crítica a esto supone dos puntos: Esto invalida muchas inferencias lógicas y crea problemas de sintaxis. Las hipótesis generales en ciencia, normalmente, no presuponen un dominio específico de acción, sino que son universales, dicen algo y esto se aplica a todo objeto en todo tiempo y lugar. Según Hempel, una hipótesis en ciencia es estrictamente universal. De este modo, los cuatro postulados de forma conjunta plantean el problema de la incorrección formal, que debe ser resuelto modificando uno o varios postulados.

57

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Scheffler, en “Anatomía de la investigación”, lleva a cabo el intento de modificar el postulado 4 (condición de equivalencia para leyes). Modificando el postulado 4, el contenido de una hipótesis dependería de su forma lógica. El argumento de Scheffer supone que: la confirmación, con frecuencia, es confirmación selectiva; es decir, confirmar una hipótesis es contrastarla disconfirmando su hipótesis rival, siendo habitualmente ésta la contraria en un sentido lógico y dependiendo, por tanto, de lo que diga y de cómo está escrita. La contraria de “todo P es Q” es “todo P es no Q”. Por tanto, si coincidimos con Scheffler en que la confirmación es selectiva y la hipótesis normal es la contraria, entonces un informe del tipo Pa∧Qa confirma “todo P es Q” porque disconfirma “todo P es no Q”. Mientras que 2c y 2d serían necesariamente neutrales, pues no confirman ninguna de estas hipótesis en tanto que no disconfirman ninguna de ellas. Scheffler afirma que no asumamos como equivalentes, a efectos confirmatorios, enunciados que son equivalentes a efectos lógicos. Pero esta propuesta es inviable, porque no nos vemos libres de paradojas. Scheffler da un pequeño rodeo e imposibilita la paradoja al no hacer posible el tercer paso, en el cual apelamos al postulado 4, y preservar el criterio de Nicort. Esta propuesta es criticada por Swinburne critica la respuesta de Scheffler, afirmando que la primera premisa de este argumento es dudosa y la segunda es claramente incorrecta. Swinburne realiza la segunda línea de crítica afirmando que la segunda hipótesis es incorrecta, porque la rival de una hipótesis no es la contraria: la alternativa habitual a “todo P es Q” no es “todo P es no Q”, sino “todo P, excepto x, es Q” o “algún P es no Q”. De acuerdo con Swinburne, la primera premisa es dudosa porque postularla significa que el problema central que Hempel plantea en “Teoría de la confirmación” ya no es el problema tratado, sino que sería el problema de qué confirma una hipótesis en el sentido de volverla más probable de lo que lo era en términos de un conocimiento base; es decir, qué clase de información o informe puede hacer más probable una hipótesis en términos de conocimiento base (K). En “Teoría de confirmación” de Hempel, está el teorema del Bayés, el cual presenta el problema central diciéndonos a qué equivale la probabilidad de una hipótesis incrementada por un informe (e). P (h/e∧k) = [P(h/k) ⋅ P(e/h∧k)] / P(e/k) Aquí, (k) se suprime porque siempre se supone que hay un conocimiento base. Pero, ¿qué clase de (e) puede hacer que e∧k, la P(h) sea mayor de lo que era únicamente en términos del conocimiento de base (k)? ¿qué clase de (e) la puede hacer menor, igual o neutral? Este es el problema que recoge Hempel. Imaginemos el típico problema estadístico: una urna con dos bolas que pueden ser blancas o rojas. Esto sería el conocimiento de base (k), la hipótesis (h) sería “las dos bolas son blancas”, y el informe de observación (e) sería “acabo de sacar una bola blanca”. Así, ¿tiene (e) un efecto confirmatorio sobre (h)? ¿qué clase de efecto observacional tendría un efecto disconfirmatorio de (h)? La aplicación del teorema es la siguiente: P = 1/2² P(h) = ½ ⋅ ½ = ¼ P(h/e) = ¼ ⋅ [(1/1)/(1/2)] = 2/4 = ½ ; P(h) < P(h/e)

58

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

A través del teorema del Bayés podemos expresar el problema de la inducción. Si incrementamos el universo en progresión aritmética, hay un decremento geométrico de la probabilidad de la hipótesis. Goddard es un autor que propone que, aún cuando rechacemos con Scheffler el postulado 4, no nos veríamos libres de problemas. Supongamos una instancia positiva bastante confirmatoria Pa ∧ Qa que confirma la ley Λx (Px→Qx): Pa ∧ Qa equivale Qa ∧ Pa :conmutación del conjuntor Qa ∧ Pa confirma Λx (Qx→Px) :2a Qa ∧ Pa confirma Λx (Px→Qx) : 3 En los dos últimos puntos tenemos que una misma evidencia respalda dos leyes diferentes; es decir, respaldaría “todo cuervo es negro” y “toda cosa negra es un cuervo”, y aquí se dicen cosas diferentes. Si la única evidencia de que disponemos está expresada de forma conjuntiva, ninguna evidencia puede discriminar, a efectos confirmatorios, entre “todo P es Q” y “todo Q es P”, aunque digan cosas diferentes. Por tanto, la respuesta de Scheffler conduce a paradojas. En “Estudios de la lógica de la confirmación”, Hempel ensaya, propone y defiende una propuesta: abandonar el postulado 2d. Rechaza ¬Pa ∧¬Qa : neutro: Λx (Px→Qx), porque dice que el tipo de informes ¬Pa ∧¬Qa no son cofirmatorios. Esta propuesta de Hempel contiene la paradoja de los cuervos, que es una paradoja de adecuación material, es relativa a una propuesta que se considera no plausible desde el punto de vista de la realidad del mundo de la ciencia. Para confirmar “todo cuervo es negro”, bastaría con ir al armario de casa y buscar objetos que no sean negros, y no sean cuervos, con lo que obtendríamos evidencia confirmatoria de esa ley general. Aún así, Hempel defiende esta propuesta diciendo que este es el modo en que proceden los científicos. Para explicar esto, Hempel utiliza el argumento de la ilusión psicológica, el cual viene a decir que estamos engañados: hay una tendencia errónea a creer que una hipótesis como “todo P es Q” sólo dice algo acerca de la clase de cosas que son P, que sólo nos informa de {P}; y esa creencia errónea es la que está detrás de nuestra creencia de que el informe anterior ha de ser neutral. Pero, para Hempel, esto es una ilusión psicológica basada en esa creencia errónea, es confundir consideraciones lógicas con consideraciones prácticas. Desde el punto de vista del aporte lógico, Hempel afirma que la aplicabilidad de “todo P es Q”, en la práctica, puede restringirse a {P} o conjunto de todas las cosas que satisfacen a P; pero, desde el punto de vista de la lógica, esa hipótesis alude a todos los objetos, cumplan o no el predicado P, dividiendo el universo de una cierta forma: divide los objetos de modo que o bien no cumplen P o bien cumplen Q, es decir, Q: ¬P∨Q. Este es un enunciado con las mismas condiciones de verdad que P→Q, que es lo que dice “todo P es Q”. Sin hablar de Hempel, hay otros autores que apoyan este argumento: Veamos Q. Imaginamos que examinamos un objeto que cumple el predicado Q:Qa, entonces ¿qué enunciado general es confirmado por esa observación? Q es el predicado “ser negro” y confirma la hipótesis general “todo es negro”, y de aquí se puede seguir “todo cuervo es negro” (h1→h2). Es decir, “todo es negro” es condición suficiente para confirmar “todo 59

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

cuervo es negro”, e, inversamente, la condición de verdad de “todo cuervo es negro” es necesaria para la verdad de “todo es negro”. Veamos ¬P. se trataría de observar algo que no sea cuervo, ¬Pa, lo que expresaría “no hay cuervos” o “nada es un cuervo”. Ahora bien, si no hay cuervos, entonces Px es falso y, entonces Λx (Px→Qx) es verdadero, es decir, el condicional es verdadero. Así, la observación de ¬Pa, por sus condiciones de verdad también da apoyo confirmatorio a “todo cuervo es negro”. Desde el punto de vista del aporte psicológico, Hempel se pregunta por qué tendemos a ser escépticos respecto a esto. Aquí Hempel dice que nuestra tendencia a creer que ¬Pa ∧ Qa jamás puede confirmar Λx (Px→Qx) se debe a la información adicional, que viene dada de forma implícita y es la responsable de que tendamos a creer que este tipo de observaciones jamás pueden confirmar Λx (Px→Qx). La generalización no se refiere sólo a las cosas que son P, sino también a las que no son P. Hempel dice que confundimos las consideraciones lógicas con las psicológicas y, por ello, hay que abandonar 2d. Hay una serie de autores que trataron de desarrollar este argumento de la ilusión psicológica a fin de frivolizarlo, se trata de autores en los encontramos influencia popperiana y, de los cuales, el más importante es J. Mackie, aunque también está H.G. Alexander. Estos autores combinan el argumento de Hempel con algunas intuiciones popperianas: son los enfoques cuantitativos, aunque más bien son enfoques formales. Reconocen que la información adicional es siempre necesaria en un grado u otro, y necesitamos siempre una información mínima incluso para entender las hipótesis, siendo esa información adicional mínima la que nos dijera cuál es la proporción de las cosas conectadas por la hipótesis. Sobre esta base, estos autores defienden que, efectivamente, Pa∧Qa confirma Λx (Px→Qx), y que ¬Pa∧¬Qa confirma Λx (Px→Qx), pero o hacen en medidas distintas que dependen de la proporción de cosas que sean P y la proporción de cosas que sean Q. Llamando a la información adicional (K), podemos representar esto así: P ¬P x: 1-x Q¬ y: 1-y En la medida en que haya muchas más cosas que son ¬Q, y menos que son P, en esa misma medida que es en la que aumenta la diferencia de x a 1-y, Pa∧Qa confirmará mejor “todo P es Q”, que no ¬Pa∧¬Qa. Estos autores suelen argumentar que esa medida es muy fuerte, muy alta; por ejemplo, en relación a “todo cuervo es negro”, hay muchas más cosas que son no negras que cosas que son cuervos. Aquí dice que 1-y debe ser alto, y x debe ser limitada, restringida. En la medida en que x sea menor, nuestra probabilidad de encontrar un cuervo es menor, y es menor la de encontrar un cuervo negro. Complementariamente, a medida en que 1-y sea mayor, nuestra probabilidad de encontrar algo negro será menor y, por tanto, nuestra probabilidad de encontrar un cuervo negro. Este es un argumento popperiano. El principio de la diferencia o criterio de Mackie se utiliza para probar hipótesis y se basa en lo siguiente: tenemos una observación (b) y una hipótesis (h), así ¿de qué modo la observación de (b) incrementa el grado de confirmación de (h)? Es el mismo aporte de probabilidad que la presuposición de (h) concede a (b): 60

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA P (h/b) = P(h) · [P(b/n) / P(b)]

José Antonio López Cerezo Curso 2006-2007

Lo que dice el teorema de Bayés es la base intuitiva del criterio de Mackie. El principio de relevancia de Mackie o criterio inverso es: C: (b) confirma (h) en relación a K si y sólo si: C1: dados (b1) y (b2) que confirman (h) en relación a K, (b1) confirma mejor (h) en relación a K de lo que lo hace (b2) si y sólo si: C2: dadas (h1) y (h2), que son confirmación por (b) en relación a K, (h1) es mejor confirmada por (b) en relación a K de lo que lo es (h2) si y sólo si: Se pueden comparar sólo los numeradores, obviando el denominador, puesto que ambos son iguales: P (b/K) Ejercicio de probabilidad: es un retículo dado que es un conjunto parcial: Con esto se modifica el postulado 2 de Hempel. El resto de los informes, los de tipo b3 ¬Pa ∧Qa serían neutrales, y los de b2 Pa∧¬Qa serían disconfirmatorios, con respecto a leyes o hipótesis de esa forma. Pero las paradojas no terminan aquí, sino que éste es un campo de discusión aún abierto. Una paradoja que se plantea es generada por estas propuestas de modificación, afecta a los informes de tipo b3 y fue señalada por Hooker y Stove. Se trata de la paradoja de los zapatos negros. Un zapato negro es un ¬Pa∧Qa. Esta paradoja dice lo siguiente: aceptamos que un zapato blanco confirma, a efectos lógicos, una ley de tipo “todo P es Q”; pero con el hallazgo de un b3 disminuiría el grado de confirmación de “todo P es Q”. Si aplicamos el principio inverso, además de esa disminución, tendríamos el siguiente valor: Al ser menor de 0, ese informe disminuye el grado de confirmación de esa hipótesis, disminuye su credibilidad. La medida en la cual disminuiría el grado de confirmación de esa hipótesis sería: Esto sería perfecto si x=y o si y=1. Si se produjera este tipo de informes, sería neutral; si no, b3 disconfirma “todo P es Q”. Así, la extensión del denominador es mayor o igual a la del numerador. Si es mayor, tenemos el problema de que el cociente da un resultado menor que 0, y el efecto será disconfirmatorio. Hay autores que han tratado de bajar a la tierra la discusión sobre teoría de la confirmación, introduciendo cuestiones pragmáticas. Estos autores son, por ejemplo, Watkins, Stov y Agassi, los cuales afirman que hay que tener en cuenta el marco de la política de investigación que se sigue. Watkins propone que (b1) y (b4) confirman hipótesis como “todo P es Q” si son hallados en un intento de falsación de la hipótesis, siendo neutrales si se descubren casualmente. Con esto, se llega a excluir el efecto confirmatorio de b1 en caso de que se descubra casualmente, y hace referencia de modo implícito a una política de investigación. Agassi dice que encontrar un zapato blanco puede confirmar que “todo cuervo es negro” cuando lo hemos encontrado en un intento activo de refutar “todo cuervo es negro”.

61

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

Estos autores afirman que asumir una política de investigación u otra hace que incluso los informes de tipo b1 tengan un valor confirmatorio u otro. Vamos a ver el modelo en que la introducción de una política de investigación afecta al efecto confirmatorio o disconfirmatorio de una hipótesis de investigación sobre una ley. Para mostrar esto, estos autores aplican el principio inverso. Supongamos tres situaciones: Hallamos b1 sin seguir una política de investigación Política conservadora: hallamos b1 buscando instancias positivas Política arriesgada, falsacionista: hallamos b1 buscando contra-instancias, pero hallamos una instancia favorable. P(b1/K) : la desconocemos P(b1/K∧q) : es mayor P(b1/ K) < P(b1/K∧q) P(b1/K∧h) = P(b1/K∧h∧q) Según el tercer punto, es más probable encontrar cuervos negros si los estamos buscando a que si no lo estamos. Según el cuarto punto, si todos los cuervos son negros, la probabilidad de encontrarlos es la misma los busquemos o no. Así, aplicando el principio inverso: El punto central de estos autores es introducir cuestiones pragmáticas que rebasan el ámbito de la lógica. El uso del concepto “política de investigación” les permite decir que un informe de tipo b1 tendrá un importe confirmatorio u otro para una generalización dependiendo de la política de investigación seguida al recoger ese informe. Hay dos opciones: buscar instancias favorables y buscar contra-instancias, y las dos no pueden tener el mismo importe confirmatorio. Según Hempel, todo depende de la información adicional, y esa información queda expresada en el orden. Supongamos q1 y q2: Con el criterio de relevancia de Mackie: De aquí, se sigue que las instancias favorables no respaldan la hipótesis de la misma manera cuando han sido obtenidas casualmente que cuando son resultado de una política de investigación conservadora. La confirmación es mayor cuando se obtiene casualmente. Pero, para una política de investigación falsacionista, concluimos que el valor confirmatorio de un informe favorable b1 (Pa∧Qa) para una hipótesis será mayor si ha sido obtenido siguiendo una política de investigación arriesgada a que haya sido obtenido casualmente. Esto es, el valor confirmatorio de un informe favorable que haya sido obtenido siguiendo una política de investigación arriesgada será mucho mayor que en el caso de haber sido obtenido mediante una política de investigación conservadora, por lo que el valor confirmatorio de un informe depende de la política de investigación seguida. Siguiendo a Hempel, parece que hay que contar siempre con la información adicional a la hora de desarrollar una teoría de la confirmación. problemas de corrección formal: inconsistencias problemas de adecuación material: falta de ajuste entre las conclusiones obtenidas y lo que consideramos la realidad de la ciencia. 62

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA

José Antonio López Cerezo Curso 2006-2007

La información adicional es necesaria respecto al tamaño de las clases P∧Q, y también es necesaria acerca de las similitudes de los P a los ¬P y de los Q a los ¬Q para evitar nuevas paradojas al intentar resolver los problemas anteriores ajustando el nivel confirmatorio de b4. Para Hempel, tras el argumento de la ilusión psicológica, b4 también confirma, y esto nos lo cuenta en la aproximación cuantitativa. Por tanto, parece que mantenemos los cuatro postulados mediante el cambio en b4 y teniendo en cuenta la relevancia de la información adicional haciendo referencia a una política de investigación específica; seguimos manteniendo la llamada condición de las leyes científicas o primer postulado y las condiciones de equivalencia para hipótesis e informes observacionales o postulados 3 y 4. Lo que nos permite establecer la equivalencia entre confirmación y probabilidad es el criterio de relevancia de Mackie. Sin embargo, este principio es atacado desde las críticas actuales a esta concepción. Schlesinger critica tanto el principio inverso como sus dos extensiones: Schlesinger dice que cualquier conjunto finito de observaciones implica un número infinito de hipótesis. Si aceptamos C2, no podríamos mantener una hipótesis particular dada, pues cualquier hipótesis tiene innumerables hipótesis alternativas que, con base en C2, han de considerarse igualmente confirmadas por la evidencia. Por ejemplo, sea (h1) una hipótesis en la que se postula una ley que expresa la co-variación de dos parámetros físicos (p) y (q), la ley dice: q=f(p), siendo q una función de P; por ejemplo, la presión es función de la temperatura. El problema de C2 no permite distinguir entre la credibilidad sobre la base del cuerpo finito que merece la hipótesis determinada y cuya suposición hace igualmente probable el informe b. Así, volvemos al ejemplo: Pero tanto (h1) como (h2) implican b. C2 no permite discriminar en cuanto a la credibilidad de una hipótesis o de otra; es decir, no resuelve el problema de la infradeterminación. Otro ejemplo: tenemos cinco cartas numeradas del uno al cinco y sacamos tres (información adicional K): hc (compleja): las cartas extraídas tienen los números 1, 2 y 3 hs (simple): las cartas extraídas tienen los números 1 y 2 b: 1 y 2 están entre las cartas sacadas. P(b/K∧hs) = P(b/K∧hc) b→hs b→hc (solo incrementa la probabilidad de hc) Por tanto, b no puede confirmar por igual, a pesar de lo que nos diga la equivalencia (1), con lo que hay algo que no va bien en el principio inverso, el cual comparaba confirmación con probabilidad. Este ejemplo se podría extender al infinito a través de hipótesis cada vez más complejas. Schlesinger también critica C1: Aquí, Schlesinger aplica el mismo razonamiento: cualquier conjunto finito de datos observacionales es implicado por infinitas hipótesis, sin que ninguna relación de probabilidad permita la decisión. Esta crítica es llevada al propio principio inverso, a C: Para la crítica, aduce que no es un criterio adecuado, pues otorga confirmación a cualquier hipótesis sobre la base de evidencia arbitraria. Por ejemplo: 63

LICENCIATURA DE FILOSOFÍA FILOSOFÍA DE LA CIENCIA h h1 = h∧r P (b/K∧h) > P(b/K) P(b/K∧h1) = P(b/K∧h) > P(b/K)

José Antonio López Cerezo Curso 2006-2007

Así, este criterio no permite discriminar, y podría ser utilizado para otorgar confirmación a cualquier hipótesis arbitraria a la que nosotros podamos acudir. El único requisito es que (h) y (h1) sean consistentes, por lo demás tendrían el mismo grado de credibilidad, y esto es así por lo que Hempel llama consecuencia inversa: si (b) confirma (h), y (h1) se deriva de (h) [h1 ∴h], entonces (b) confirma (h1). Las teorías son sistemas deductivos que pueden organizarse jerárquicamente: el respaldo de las leyes empíricas más generales es un apoyo indirecto a las leyes más particulares. En el caso de la consecuencia especial, ocurre de abajo arriba: si (b) confirma a (h) y de (h) se deduce (h1) [h∴h1], entonces (b) confirma (h1). Nadie pone a prueba las leyes generales de la naturaleza para probar leyes específicas. Si hay fundamentos racionales, basados en la experiencia, para mantener las leyes generales, entonces el apoyo empírico que recibe una ley particular da un apoyo indirecto a las leyes generales, pero también a las leyes que se deriven de los axiomas de esa ley. En la práctica científica real es muy difícil prescindir de las hipótesis auxiliares. No sabemos, sin embargo, qué hipótesis son necesarias y cuáles innecesarias. Algunos autores dicen que estos problemas surgen debido al enfoque sintáctico de la ciencia, que hace uso de la lógica matemática que, al no atender al significado, no es válida para explicar el problema de la confirmación. Goodmant es un autor que pertenece a esta línea tratando de dar una respuesta más filosófica en “Fact, fiction and forecast”. Se pregunta qué clase de evidencias cabe hacer para el futuro. Para ello, debemos ir más allá de lo sintáctico y el marco de la lógica. Aquí se protesta contra el abuso de la lógica (paradigma deductivo), ya que el problema de la confirmación surge por la arrogancia del paradigma matemático y deductivo. El problema de Hume era el de cuadrar matemáticamente la inducción, pero hay más conocimientos que el inductivo. Hay que fijarse en la proyectabilidad y en la información adicional que dé cuenta de las predicciones pasadas con éxito o sin él.

64