You are on page 1of 35

Las dimensiones sociales del conocimiento científico

Publicado por primera vez el 12 de abril de 2002; revisión de fondo el 27 de mayo de 2019

El estudio de las dimensiones sociales del conocimiento científico abarca los efectos de la
investigación científica en la vida humana y las relaciones sociales, los efectos de las
relaciones y los valores sociales en la investigación científica y los aspectos sociales de la
propia investigación. Varios factores se han combinado para hacer que estas cuestiones
sean relevantes para la filosofía contemporánea de la ciencia. Estos factores incluyen la
aparición de movimientos sociales, como el ecologismo y el feminismo, críticos con la
ciencia dominante; la preocupación por los efectos sociales de las tecnologías basadas en la
ciencia; las cuestiones epistemológicas que ha puesto de relieve la gran ciencia; las nuevas
tendencias en la historia de la ciencia, especialmente el alejamiento de la historiografía
internalista; los enfoques antinormativos en la sociología de la ciencia; los giros en la
filosofía hacia el naturalismo y el pragmatismo. Esta entrada repasa los antecedentes
históricos de la investigación actual en este campo y las características de la ciencia
contemporánea que invitan a la atención filosófica.

El trabajo filosófico puede clasificarse a grandes rasgos en dos campos. Uno de ellos
reconoce que la investigación científica se lleva a cabo de hecho en entornos sociales y se
pregunta si la epistemología estándar debe complementarse, y cómo, para abordar esta
característica. El otro trata la socialidad como un aspecto fundamental del conocimiento y
se pregunta cómo debe modificarse o reformarse la epistemología estándar desde esta
perspectiva ampliamente social. Las preocupaciones del enfoque complementario incluyen
cuestiones como la confianza y la responsabilidad planteadas por la autoría múltiple, la
división del trabajo cognitivo, la fiabilidad de la revisión por pares, los retos de la ciencia
financiada con fondos privados, así como las preocupaciones derivadas del papel de la
investigación científica en la sociedad. El enfoque reformista subraya el reto que suponen
para la filosofía normativa los estudios sociales, culturales y feministas de la ciencia, al
tiempo que trata de desarrollar modelos filosóficos del carácter social del conocimiento y la
investigación científica. Trata las cuestiones de la división del trabajo cognitivo, la
experiencia y la autoridad, las interacciones de la ciencia y la sociedad, etc., desde la
perspectiva de los modelos filosóficos del carácter irreductiblemente social del
conocimiento científico. Los filósofos emplean tanto técnicas de modelización formal como
de análisis conceptual en sus esfuerzos por identificar y analizar los aspectos sociales
epistemológicamente relevantes de la ciencia.

1. Antecedentes históricos

Los filósofos que estudian el carácter social del conocimiento científico pueden remontar su
linaje al menos hasta John Stuart Mill. Mill, Charles Sanders Peirce y Karl Popper
consideraron que algún tipo de interacción crítica entre las personas era fundamental para la
validación de las afirmaciones sobre el conocimiento.

Los argumentos de Mill aparecen en su conocido ensayo político Sobre la libertad, (Mill
1859) más que en el contexto de sus escritos lógicos y metodológicos, pero deja claro que
deben aplicarse a cualquier tipo de conocimiento o pretensión de verdad. Mill argumenta a
partir de la falibilidad de los conocedores humanos la necesidad de una oportunidad y una
práctica sin obstáculos de la discusión crítica de las ideas. Sólo esa discusión crítica puede
asegurarnos la justificabilidad de las creencias (verdaderas) que tenemos y puede ayudarnos
a evitar la falsedad o la parcialidad de las creencias u opiniones enmarcadas en el contexto
de un solo punto de vista. La interacción crítica mantiene la frescura de nuestras razones y
contribuye a mejorar tanto el contenido como las razones de nuestras creencias. El logro del
conocimiento, por tanto, es una cuestión social o colectiva, no individual.

La contribución de Peirce a la epistemología social de la ciencia es comúnmente tomada


como su teoría consensual de la verdad: "La opinión que está destinada a ser finalmente
acordada por todos los que investigan es lo que entendemos por verdad, y el objeto
representado es lo real". (Peirce 1878, 133) Aunque a menudo se lee como que la verdad es
aquello en lo que la comunidad de investigadores converge a largo plazo, la noción puede
interpretarse como que significa más precisamente o bien que la verdad (y "lo real")
depende del acuerdo de la comunidad de investigadores o que es un efecto de lo real que al
final producirá un acuerdo entre los investigadores. Cualquiera que sea la lectura correcta
de esta afirmación en particular, Peirce deja claro en otra parte que, desde su punto de vista,
la verdad es a la vez alcanzable y está fuera del alcance de cualquier individuo.
"Individualmente no podemos esperar alcanzar la filosofía última que perseguimos; sólo
podemos buscarla para la comunidad de filósofos". (Peirce 1868, 40). Peirce da mucha
importancia a la instigación de la duda y la interacción crítica como medios para el
conocimiento. Así, tanto si su teoría de la verdad es consensualista como realista, su visión
de las prácticas por las que la alcanzamos concede un lugar central al diálogo y a la
interacción social.

Popper suele ser tratado como precursor de la epistemología social por su énfasis en la
importancia de la crítica en el desarrollo del conocimiento científico. En sus obras (Popper
1963, 1972) se encuentran dos conceptos de crítica, que pueden describirse como sentido
lógico y práctico de la falsación. El sentido lógico de la falsación no es más que la
estructura de un argumento modus tollens, en el que una hipótesis es falsada por la
demostración de que una de sus consecuencias lógicas es falsa. Esta es una noción de
crítica, pero se trata de relaciones formales entre enunciados. El sentido práctico de la
falsificación se refiere a los esfuerzos de los científicos por demostrar las insuficiencias de
las teorías de los demás demostrando las deficiencias observacionales o las incoherencias
conceptuales. Se trata de una actividad social. Para Popper, la metodología de la ciencia es
falsacionista tanto en su sentido lógico como práctico, y la ciencia progresa mediante la
demostración por falsificación de la insostenibilidad de las teorías e hipótesis. El
falsacionismo lógico de Popper forma parte de un esfuerzo por delimitar la ciencia genuina
de la pseudociencia, y ha perdido su plausibilidad como descripción de la metodología
científica a medida que el proyecto de delimitación ha sido cuestionado por los enfoques
naturalistas e historicistas de la filosofía de la ciencia. Aunque la crítica desempeña un
papel importante en algunos enfoques actuales de la epistemología social, los puntos de
vista de Popper se aproximan más a la epistemología evolutiva, especialmente a la versión
que trata el progreso cognitivo como el efecto de la selección contra teorías e hipótesis
incorrectas. En contraste con las opiniones de Mill, para Popper la función de la crítica es
eliminar las teorías falsas en lugar de mejorarlas.
La obra de Mill, Peirce y Popper es un recurso para los filósofos que actualmente exploran
las dimensiones sociales del conocimiento científico. Sin embargo, los debates actuales se
enmarcan en el contexto de la evolución tanto de la filosofía de la ciencia como de la
historia y los estudios sociales de la ciencia tras el colapso del consenso empirista lógico.
Los filósofos del Círculo de Viena se asocian convencionalmente con una forma acrítica de
positivismo y con el empirismo lógico que sustituyó al pragmatismo estadounidense en las
décadas de 1940 y 1950. Sin embargo, según algunos estudiosos recientes, veían la ciencia
natural como una potente fuerza para el cambio social progresivo. (Cartwright, Cat y Chang
1996; Giere y Richardson, eds., 1996; Uebel 2005) Con su base en la observación y en las
formas públicas de verificación, la ciencia constituía para ellos una alternativa superior a lo
que consideraban un oscurantismo metafísico, un oscurantismo que no sólo conducía a un
mal pensamiento sino a una mala política. Mientras que un desarrollo de este punto de vista
conduce al cientificismo, la opinión de que cualquier pregunta significativa puede ser
respondida por los métodos de la ciencia; otro desarrollo conduce a la investigación sobre
qué condiciones sociales promueven el crecimiento del conocimiento científico. El
empirismo lógico, la versión de la filosofía del Círculo de Viena que se desarrolló en
Estados Unidos, se centró en los aspectos lógicos e internos del conocimiento científico y
desalentó la investigación filosófica de las dimensiones sociales de la ciencia. Éstas
volvieron a cobrar importancia tras la publicación de La estructura de las revoluciones
científicas, de Thomas Kuhn (1962). Una nueva generación de sociólogos de la ciencia,
entre los que se encontraban Barry Barnes, Steven Shapin y Harry Collins, llevaron el
énfasis de Kuhn en el papel de los factores comunitarios no evidentes en el cambio
científico aún más lejos que él y argumentaron que el juicio científico estaba determinado
por factores sociales, como los intereses profesionales y las ideologías políticas (Barnes
1977, Shapin 1982, Collins 1983). Esta familia de posiciones provocó una respuesta
contraria entre los filósofos. Estas respuestas se caracterizan por un esfuerzo por reconocer
algunas dimensiones sociales al conocimiento científico y, al mismo tiempo, mantener su
legitimidad epistemológica, que consideran socavada por la nueva sociología. Al mismo
tiempo, las características de la organización de la investigación científica obligan a los
filósofos a considerar sus implicaciones para el análisis normativo de las prácticas
científicas.

2. La gran ciencia, la confianza y la autoridad

La segunda mitad del siglo XX fue testigo de la aparición de lo que ha llegado a conocerse
como Gran Ciencia: la organización de un gran número de científicos que aportan
diferentes conocimientos a un proyecto de investigación común. El modelo original fue el
Proyecto Manhattan, emprendido durante la Segunda Guerra Mundial para desarrollar un
arma atómica en Estados Unidos. Físicos teóricos y experimentales ubicados en varios
lugares del país, aunque principalmente en Los Álamos (Nuevo México), trabajaron en
subproblemas del proyecto bajo la dirección general de J. Robert Oppenheimer. Aunque la
investigación académica y la militar se han separado en cierta medida desde entonces, gran
parte de la investigación experimental en física, especialmente la de partículas de alta
energía, sigue siendo llevada a cabo por grandes equipos de investigadores. La
investigación en otras áreas de la ciencia también, por ejemplo el trabajo comprendido bajo
el paraguas del Proyecto Genoma Humano, ha tomado algunas de las propiedades de la
Gran Ciencia, requiriendo múltiples formas de experiencia. Además de la aparición de la
Gran Ciencia, la transición de la ciencia universitaria o incluso amateur a pequeña escala a
la investigación institucionalizada con importantes repercusiones económicas, apoyada por
organismos nacionales de financiación y conectada a través de las fronteras internacionales,
parece exigir una nueva reflexión ética y epistemológica. Además, la consiguiente
dependencia de la investigación de los organismos centrales de financiación y, cada vez
más, de las fundaciones privadas o las entidades comerciales, hace que se cuestione el
grado de independencia del conocimiento científico contemporáneo con respecto a su
contexto social y económico.

John Hardwig (1985) articuló un dilema filosófico que plantean los grandes equipos de
investigadores. Cada miembro o subgrupo que participa en un proyecto de este tipo es
necesario porque cada uno tiene una parte crucial de experiencia que no posee ningún otro
miembro o subgrupo. Puede ser el conocimiento de una parte de la instrumentación, la
capacidad de realizar un determinado tipo de cálculo, la capacidad de realizar un
determinado tipo de medición u observación. Los demás miembros no están en condiciones
de evaluar los resultados del trabajo de otros miembros, por lo que todos deben confiar en
los resultados de los demás. La consecuencia es un resultado experimental (por ejemplo, la
medición de una propiedad como la tasa de desintegración o el espín de una partícula
determinada) cuya evidencia no es comprendida plenamente por ninguno de los
participantes en el experimento. Esto lleva a Hardwig a plantear dos cuestiones, una sobre
el estatus probatorio del testimonio, y otra sobre la naturaleza del sujeto conocedor en estos
casos. Con respecto a esto último, Hardwig dice que, o bien el grupo en su conjunto, pero
ningún miembro por separado, sabe, o bien es posible conocer indirectamente. Ninguna de
las dos opciones le parece aceptable. Hablar de que el grupo o la comunidad conoce huele a
superorganismos y a entidades trascendentes y Hardwig rehúye esa solución. El
conocimiento vicario, el saber sin poseer uno mismo la evidencia de la verdad de lo que se
sabe, requiere, según Hardwig, apartarse demasiado de nuestros conceptos ordinarios de
conocimiento.

La primera cuestión forma parte, como señala Hardwig, de un debate más general sobre el
valor epistémico del testimonio. Gran parte de lo que pasa por conocimiento común se
adquiere de otros. Dependemos de los expertos para que nos digan lo que está mal o bien en
nuestros electrodomésticos, nuestros coches, nuestros cuerpos. De hecho, gran parte de lo
que llegamos a saber después depende de lo que aprendimos de niños de nuestros padres y
maestros. Adquirimos el conocimiento del mundo a través de las instituciones de la
educación, el periodismo y la investigación científica. Los filósofos no se ponen de acuerdo
sobre el estatus de las creencias adquiridas de este modo. Esta es la cuestión: Si A sabe que
p sobre la base de la evidencia e, B tiene razones para pensar que A es digno de confianza y
B cree que p sobre la base del testimonio de A que p, ¿también sabe B que p? Algunos
filósofos, como parece ser el caso de Locke y Hume, sostienen que sólo lo que uno mismo
ha observado puede contar como una buena razón para creer, y que, por tanto, el testimonio
de otro nunca es, por sí solo, garantía suficiente para creer. Así, B no sabe simplemente
sobre la base del testimonio de A, sino que debe tener pruebas adicionales sobre la
fiabilidad de A. Aunque este resultado es coherente con el empirismo y el racionalismo
filosóficos tradicionales, que hacían hincapié en la experiencia sensorial del individuo o en
la aprehensión racional como fundamentos del conocimiento, tiene la consecuencia de que
no sabemos la mayor parte de lo que creemos saber.

Varios filósofos han ofrecido recientemente análisis alternativos centrados en uno u otro
elemento del problema. Algunos sostienen que el testimonio de un experto cualificado es en
sí mismo probatorio, (Schmitt 1988), otros que la prueba del experto constituye una buena
razón para, pero no es en sí misma probatoria para el receptor del testimonio (Hardwig
1985, 1988), otros que lo que se transmite en el testimonio es el conocimiento y no sólo el
contenido proposicional y, por tanto, la cuestión del tipo de razón que tiene el receptor del
testimonio no es lo importante (Welbourne 1981)

Independientemente de cómo se resuelva esta disputa, las cuestiones de confianza y


autoridad se plantean de forma especialmente acusada en las ciencias, y el dilema de
Hardwig para el experimento de física es también una versión específica de un fenómeno
más general. Una concepción popular de la ciencia, alimentada en parte por el
falsacionismo de Popper, es que es epistémicamente fiable porque los resultados de los
experimentos y estudios observacionales se comprueban mediante la repetición
independiente. En la práctica, sin embargo, sólo se comprueban algunos resultados y
muchos se aceptan simplemente por confianza. No sólo hay que aceptar los resultados
positivos por confianza, sino que también hay que aceptar las afirmaciones sobre la
imposibilidad de reproducirlos, así como otras críticas. Así, al igual que en el mundo no
científico la información se acepta por confianza, en la ciencia el conocimiento crece
dependiendo del testimonio de otros. ¿Qué implicaciones tiene la aceptación de este hecho
para nuestras concepciones de la fiabilidad del conocimiento científico?

Según Hull, la comunidad científica busca teorías verdaderas o modelos adecuados. El


mérito, o el reconocimiento, corresponde a los individuos en la medida en que se percibe
que han contribuido a ese objetivo comunitario. Es decir, los científicos buscan reputación
y reconocimiento, que su trabajo sea citado como importante y necesario para el progreso
científico. El engaño, mediante la comunicación errónea de resultados experimentales u
otras conductas indebidas, se castigará con la pérdida de reputación. Pero esto depende de
fuertes garantías de detección. En ausencia de tales garantías, hay un incentivo tan fuerte
para hacer trampa, para tratar de obtener crédito sin haber hecho necesariamente el trabajo,
como para no hacer trampa.

Tanto Alvin Goldman (Goldman, 1995, 1999) como Philip Kitcher (1993) han tratado la
posibilidad de que la comunicación prematura, o de otro modo (indebidamente) interesada,
de los resultados corrompa las ciencias como una cuestión que debe responderse mediante
modelos de teoría de la decisión. El enfoque de la teoría de la decisión para los problemas
de confianza y autoridad trata tanto el crédito como la verdad como utilidades. El reto
consiste entonces en idear fórmulas que muestren que las acciones diseñadas para
maximizar el crédito también maximizan la verdad. Kitcher, en particular, desarrolla
fórmulas que pretenden mostrar que incluso en situaciones pobladas por individuos no
motivados por la episteme (es decir, individuos motivados más por el deseo de crédito que
por el deseo de verdad), la estructura de recompensa de la comunidad puede organizarse de
tal manera que maximice la verdad y fomente el progreso científico. Una consecuencia de
este enfoque es tratar el fraude científico y la ciencia infundida por valores o intereses
como el mismo problema. Una de las ventajas es que incorpora la motivación para hacer
trampas a la solución del problema del fraude. Pero cabe preguntarse hasta qué punto es
eficaz esta solución. Cada vez más, nos enteramos de comportamientos problemáticos en
industrias basadas en la ciencia, como la industria farmacéutica. Se ocultan o distorsionan
los resultados, se manipula la autoría. Áreas candentes, como la investigación con células
madre, la clonación o la modificación de genes, han sido objeto de investigaciones
fraudulentas. Así, aunque la estructura de recompensa y castigo es un incentivo en principio
para no hacer trampas, no garantiza la fiabilidad de todos los informes de investigación. El
modelo de teoría de la decisión debe incluir al menos un parámetro más, a saber, la
probabilidad prevista de detección en un plazo de tiempo relevante.

Las cuestiones comunitarias también se han abordado bajo los estandartes de la ética de la
investigación y de la revisión por pares. Se podría pensar que los únicos requisitos éticos
para los científicos son proteger a los sujetos de la investigación de cualquier daño y, como
científicos profesionales, buscar la verdad por encima de cualquier otro objetivo. Esto
presupone que la búsqueda de la verdad es una guía suficiente para la toma de decisiones
científicas. Heather Douglas, en su estudio crítico del ideal de libertad de valores (Douglas
2009), rechaza esta noción. Douglas se basa en su anterior estudio sobre el riesgo inductivo
(Douglas 2000) para insistir en que las innumerables decisiones metodológicas necesarias
en el curso de la realización de una investigación están infradeterminadas por los elementos
fácticos de la situación y deben guiarse por una evaluación de las consecuencias de
equivocarse. La ciencia no está libre de valores, pero puede protegerse de los efectos
nocivos de los mismos si los científicos toman medidas para mitigar la influencia de los
valores inapropiados. Un paso es distinguir entre el papel directo e indirecto de los valores;
otro es la articulación de directrices para los científicos individuales. Los valores
desempeñan un papel directo cuando proporcionan una motivación directa para aceptar o
rechazar una teoría; desempeñan un papel indirecto cuando intervienen en la evaluación de
las consecuencias de aceptar o rechazar una afirmación, influyendo así en lo que se
considerará evidencia suficiente para aceptar o rechazar. La responsabilidad de los
científicos es asegurarse de que los valores no desempeñen un papel directo en su trabajo y
ser transparentes sobre el papel indirecto de los valores. Varios autores han cuestionado la
sostenibilidad de la distinción de Douglas entre lo directo y lo indirecto. Steel y Whyte
(2012) examinan las directrices de ensayo elaboradas por las empresas farmacéuticas para
señalar que la misma decisión puede estar motivada por valores que desempeñan un papel
directo o un papel indirecto. Si el objetivo es prohibir prácticas como la retención de
resultados negativos, entonces no debería importar si la práctica está motivada por valores
que funcionan directa o indirectamente. Elliott (2011) cuestiona que sólo deban
considerarse las consecuencias perjudiciales. Si la ciencia ha de ser útil para los
responsables políticos, entonces debería permitirse que las cuestiones de beneficio social
relativo también desempeñen un papel. Por último, las actividades cognitivas exigidas por
las prescripciones éticas de Douglas para los científicos parecen estar más allá de las
capacidades de los científicos individuales. Este punto se tratará más adelante.

Torsten Wilholt (2013) sostiene que la situación de la investigación es más complicada que
el compromiso epistémico frente al no epistémico que implica el enfoque teórico de la
decisión. En parte debido a las dificultades para alcanzar el grado de conocimiento
necesario para realizar las prescripciones éticas de Douglas, argumenta que la confianza
que se requiere en la ciencia se extiende más allá de la veridicidad de los resultados
comunicados a los valores que guían a los investigadores que se basan en ellos. La mayor
parte de la investigación implica tanto resultados expresados estadísticamente (lo que
requiere la elección del umbral de significación y el equilibrio de las posibilidades de error
de tipo I frente a las de tipo II) como múltiples pasos que requieren decisiones
metodológicas. Estas decisiones, según Wilholt, representan compromisos entre la
fiabilidad de los resultados positivos, la fiabilidad de los resultados negativos y la potencia
de la investigación. A la hora de tomar estas decisiones, el investigador se guía, por fuerza,
por una evaluación de las consecuencias de los distintos resultados posibles del estudio.
Wilholt amplía los argumentos sobre el riesgo inductivo ofrecidos originalmente por
Richard Rudner y elaborados por Heather Douglas para proponer que, al confiar en los
resultados de otro, no sólo confío en su competencia y veracidad, sino en que tome
decisiones metodológicas informadas por las mismas valoraciones de los resultados que yo.
Esta actitud es más que una confianza epistémica, sino una actitud más profunda: la de
confiar en que nos guían los mismos valores en una empresa compartida. Para Wilholt,
pues, la investigación científica implica normas éticas además de epistémicas. Las
soluciones formales o mecánicas, como las sugeridas por la aplicación de modelos de teoría
de la decisión, no son suficientes, si la comunidad debe mantenerse unida por valores éticos
compartidos.

La revisión por pares y la replicación son métodos que la comunidad científica, y el mundo
de la investigación en general, emplean para garantizar a los consumidores de la
investigación científica que el trabajo es creíble. La revisión por pares, tanto de las
propuestas de investigación como de los informes de investigación presentados para su
publicación, examina la calidad, que incluye la competencia metodológica y la idoneidad,
así como la originalidad y la importancia, mientras que la replicación tiene por objeto
comprobar la solidez de los resultados cuando los experimentos comunicados se llevan a
cabo en diferentes laboratorios y con ligeros cambios en las condiciones experimentales.
Los estudiosos de la revisión por pares han observado varias formas de sesgo que entran en
el proceso de revisión por pares. En una revisión de la literatura, Lee, Sugimoto, Zhang y
Cronin (2013) informan de un sesgo documentado según el género, el idioma, la
nacionalidad, el prestigio y el contenido, así como de problemas como la falta de
consistencia de la fiabilidad entre revisores, el sesgo de confirmación y el conservadurismo
de los revisores. Lee (2012) sostiene que una perspectiva kuhniana sobre los valores en la
ciencia interpreta la falta de consistencia entre revisores como una variación en la
interpretación, aplicabilidad y peso asignado a los valores compartidos por los diferentes
miembros de la comunidad científica. Lee y sus colegas (2013) sostienen que los editores
de las revistas deben tomar muchas más medidas de las que se toman actualmente para
exigir que los investigadores pongan a disposición sus datos brutos y otra información
relevante del ensayo para que los revisores puedan realizar su trabajo adecuadamente.

Una cuestión que aún no ha sido abordada por los filósofos es la brecha entre el ideal de la
replicación que da lugar a la confirmación, la modificación o la retracción y la realidad.
Este ideal se encuentra detrás de los supuestos de eficacia de las estructuras de recompensa
y sanción. Sólo si los investigadores creen que sus informes de investigación serán
comprobados por los esfuerzos de replicación, la amenaza de sanciones contra la
investigación defectuosa o fraudulenta será realista. John Ioannidis y sus colaboradores
(Tatsioni, Bonitsis y Ioannidis 2007; Young, N.S. Ioannidis y Al-Ubaydli 2008) han
demostrado la escasa frecuencia con la que se realizan realmente los intentos de réplica y,
lo que es aún más sorprendente, la persistencia de resultados contradictorios en la literatura.
Se trata de un problema que va más allá de los individuos y de los grandes colaboradores de
la investigación y que afecta a la comunidad científica en general. Subraya la afirmación de
Wilholt de que la comunidad científica debe mantenerse unida por lazos de confianza, pero
se necesita mucho más trabajo empírico y filosófico para abordar cómo proceder cuando
dicha confianza no está justificada. La demostración de la falta de replicabilidad
generalizada en los estudios en psicología y en la investigación biomédica ha suscitado un
debate sobre las causas y la gravedad de la supuesta crisis (Loken y Gelman 2017;
Ioannidis 2007; Redish, Kummerfeld, Morris y Love 2018).

Winsberg, Huebner y Kukla (2013) llaman la atención sobre un tipo diferente de cuestión
ética supraempírica que plantea la situación contemporánea de la autoría múltiple. Lo que
denominan "investigación radicalmente colaborativa" implica que investigadores con
diferentes formas de experiencia, como en el ejemplo de Hardwig, y como es ahora común
en muchos campos, colaboren para generar un resultado experimental. Para Winsberg,
Huebner y Kukla, la cuestión no es simplemente la fiabilidad, sino la responsabilidad.
¿Quién puede hablar de la integridad de la investigación cuando ésta ha sido llevada a cabo
por investigadores con una variedad no sólo de intereses, sino de normas metodológicas, la
mayoría opacas entre sí? Winsberg, Huebner y Kukla sostienen que se necesita un modelo
de colaboración social tanto como un modelo de datos o de instrumentos. Sostienen además
que el modelo de laissez-faire Wisdom of Crowds (según el cual las diferencias locales en
las normas metodológicas se anulan entre sí), aunque tal vez sea adecuado si la cuestión es
la fiabilidad, no lo es para abordar estas cuestiones de responsabilidad. Sin embargo, ellos
mismos no ofrecen un modelo alternativo.

3. La ciencia en la sociedad

Los trabajos sobre el papel de la ciencia en la sociedad abarcan tanto los modelos generales
de la autoridad pública de la ciencia como el análisis de programas de investigación
concretos que influyen en la vida pública. En sus primeros trabajos, Steve Fuller y Joseph
Rouse se ocuparon de las dimensiones políticas de la autoridad cognitiva. Rouse, que en
1987 integró la filosofía analítica y continental de la ciencia y la tecnología, trató de
desarrollar lo que podría llamarse un pragmatismo crítico. Esta perspectiva facilitó un
análisis del impacto transformador de la ciencia en la vida humana y las relaciones sociales.
Rouse hizo hincapié en el mayor poder sobre las vidas individuales que posibilitan los
avances de la ciencia. Se puede decir que esto ha aumentado con el desarrollo de la
tecnología de la información. Fuller (1988) aceptó parcialmente la afirmación de los
sociólogos empíricos de que los relatos normativos tradicionales del conocimiento
científico no consiguen hacerse con las prácticas científicas reales, pero lo tomó como un
reto para reubicar las preocupaciones normativas de los filósofos. Éstas deberían incluir la
distribución y la circulación de las demandas de conocimiento. La tarea de la epistemología
social de la ciencia, según Fuller, debería ser la regulación de la producción de
conocimiento mediante la regulación de los medios retóricos, tecnológicos y
administrativos de su comunicación. Aunque las propuestas de Fuller no han tenido mucha
aceptación, el trabajo de Lee mencionado anteriormente empieza a hacer recomendaciones
detalladas que tienen en cuenta las estructuras actuales de financiación y comunicación.

Un área clave de la ciencia interdisciplinaria socialmente relevante es la evaluación de


riesgos, que implica tanto la investigación de los efectos de diversas sustancias o prácticas
como la evaluación de esos efectos una vez identificados. Se trata de comprender tanto los
efectos positivos como los negativos y de disponer de un método para evaluarlos. Se trata
de integrar el trabajo de los especialistas en el tipo de sustancia cuyos riesgos se están
evaluando (genetistas, químicos, físicos), los especialistas en biomedicina, los
epidemiólogos, los estadísticos, etc. En estos casos, se trata no sólo de los problemas de
confianza y autoridad entre especialistas de distintas disciplinas, sino también de los efectos
de la introducción de nuevas tecnologías o nuevas sustancias en el mundo. Los riesgos que
se estudian son generalmente de daños a la salud humana o al medio ambiente. El interés
por aplicar el análisis filosófico a la evaluación de riesgos surgió en respuesta a los debates
sobre el desarrollo y la expansión de las tecnologías de generación de energía nuclear.
Además, la aplicación del análisis coste-beneficio y los intentos de comprender la toma de
decisiones en condiciones de incertidumbre se convirtieron en temas de interés como
extensiones de las técnicas de modelización formal (Giere 1991). Estas discusiones se
cruzan con los debates sobre el alcance de la teoría de la decisión racional y se han
ampliado para incluir otras tecnologías, así como las aplicaciones de la investigación
científica en la agricultura y en las innumerables formas de ingeniería biológica. Los
ensayos sobre la relación entre la ciencia y los valores sociales en la investigación del
riesgo recogidos en el volumen editado por Deborah Mayo y Rachelle Hollander (1991)
intentan orientar el rumbo entre la confianza acrítica en los modelos de coste-beneficio y su
rechazo absoluto. Desde un punto de vista ligeramente diferente, el principio de precaución
representa un enfoque que desplaza la carga de la prueba en las decisiones normativas de la
demostración del daño a la demostración de la seguridad de las sustancias y las prácticas.
Carl Cranor (2004) explora versiones del principio y defiende su uso en determinados
contextos de decisión. Shrader-Frechette (2002) ha defendido modelos de análisis coste-
beneficio ponderados éticamente y una mayor participación del público en la evaluación de
riesgos. En particular, (Shrader-Frechette 1994, 2002) ha defendido la inclusión de los
miembros del público en las deliberaciones sobre los efectos en la salud y los límites
razonables de exposición a los contaminantes ambientales, especialmente los materiales
radiactivos. Los filósofos de la ciencia también han trabajado para hacer visibles las formas
en que los valores desempeñan un papel en la investigación que evalúa los efectos de las
sustancias y prácticas producidas tecnocientíficamente, a diferencia de los desafíos de
asignar valores a los riesgos y beneficios identificados.

Douglas (2000) es un influyente estudio de la investigación toxicológica sobre los efectos


de la exposición a las dioxinas. Douglas situó su análisis en el marco del riesgo inductivo
introducido por Richard Rudner (1953) y explorado también por Carl Hempel (1965). El
carácter ampliativo de la inferencia inductiva significa que las premisas pueden ser
verdaderas (e incluso fuertemente apoyadas) y la conclusión falsa. Rudner argumentó que
esta característica de la inferencia inductiva significa que los científicos deberían tener en
cuenta las consecuencias de equivocarse a la hora de determinar la solidez de las pruebas de
una hipótesis antes de aceptarla. [Douglas propone que estas consideraciones se extiendan
más allá del proceso científico, desde la aceptación de una conclusión basada en las pruebas
hasta la construcción de las propias pruebas. Los científicos deben tomar decisiones sobre
los niveles de significación estadística, cómo equilibrar la posibilidad de falsos positivos
con la de falsos negativos. Deben determinar protocolos para decidir los casos límite en sus
muestras de tejido. Deben seleccionar entre posibles modelos de dosis-respuesta. Decidir de
una manera tiene un conjunto de consecuencias sociales, y de otra manera otro conjunto de
consecuencias opuestas. Douglas afirma que los científicos deberían tener en cuenta estos
riesgos a la hora de tomar las decisiones metodológicas pertinentes. Dado que, incluso en
sus ejemplos, las consideraciones de salud pública apuntan en una dirección y las
económicas en otra, al final no está claro qué responsabilidad puede asignarse
razonablemente al científico individual.

Además de la evaluación de riesgos, los filósofos han comenzado a reflexionar sobre


diversos programas y métodos de investigación que afectan al bienestar humano. Lacey
(2005), por ejemplo, delinea los valores contrastantes que informan la agricultura industrial
y convencional, por un lado, y la agroecología a pequeña escala, por el otro. Cartwright
(2012), elaborado en Cartwright y Hardie (2012), es principalmente un análisis crítico de la
dependencia de los ensayos de control aleatorios para apoyar las decisiones políticas en el
desarrollo económico, la medicina y la educación. Estos no tienen en cuenta las variaciones
en los contextos de aplicación que afectarán al resultado. El hecho de que Cartwright se
centre en un enfoque metodológico concreto es una extensión del compromiso tradicional
de los filósofos en áreas de controversia en las que el análisis filosófico podría marcar la
diferencia. La obra de Philip Kitcher (1985), que abordó la sociobiología, y la de Elliott
Sober y David Sloan Wilson (1998), un extenso argumento a favor de la selección a nivel
de grupo, son ejemplos que se centran en el contenido y la metodología de las extensiones
de la teoría evolutiva.

La investigación sobre el cambio climático ha provocado varios tipos de análisis bastante


diferentes. Al tratarse de un campo interdisciplinar complejo, su estructura probatoria lo
hace vulnerable a los desafíos. Los que se oponen a limitar el uso de combustibles fósiles
han explotado esas vulnerabilidades para sembrar dudas en el público sobre la realidad y/o
las causas del cambio climático (Oreskes y Conway 2011). Parker 2006, Lloyd 2010,
Parker 2010, Winsberg 2012 han investigado, respectivamente, las estrategias para
conciliar las aparentes incoherencias entre los modelos climáticos, las diferencias entre las
proyecciones basadas en modelos y las estrictamente inductivas, los métodos para evaluar y
comunicar las incertidumbres inherentes a los modelos climáticos. Los filósofos también
han considerado cómo interpretar la susceptibilidad del público (estadounidense) a los
negacionistas del cambio climático. Philip Kitcher (2012) lo interpreta como falta de
información en medio de una plétora de desinformación y propone métodos para una
comunicación más eficaz de la ciencia acreditada al público. Anderson (2011), por el
contrario, sostiene que los miembros del público son perfectamente capaces de evaluar la
fiabilidad de las evaluaciones contradictorias siguiendo los rastros de las citas, etc., ya sea
en Internet o en copias impresas de las revistas. Su opinión es que la reticencia a aceptar la
realidad del cambio climático es una reticencia a abandonar los modos de vida conocidos,
que es lo que exige a todos evitar el desastre causado por el clima. Por último, una vez
aceptada la inevitabilidad del cambio climático, se plantea una cuestión ética y política:
¿cómo deben distribuirse las cargas de la acción? El Occidente industrializado es
responsable de la mayor parte de la contaminación por carbono hasta finales del siglo XX,
pero las naciones en desarrollo que intentan industrializarse han contribuido con una parte
cada vez mayor, y seguirán haciéndolo en el siglo XXI. ¿Quién soporta la carga? Y si los
efectos sólo los sentirán las generaciones del futuro, ¿por qué las generaciones actuales
deben tomar medidas cuyos daños se sentirán ahora y cuyos beneficios se encuentran en el
futuro y no serán experimentados por quienes soportan los costes? Broome (2008) explora
las cuestiones intergeneracionales, mientras que Raina (2015) explora las dimensiones
globales.

Otras dos áreas de controversia científica en curso son la realidad biológica (o no) de la
raza y la biología de las diferencias de género. Los avances en genética, y las diferencias
raciales documentadas en materia de salud, han puesto en duda las anteriores visiones
antirrealistas de la raza, como las articuladas por Stephen J. Gould (1981) y Richard
Lewontin (Lewontin, Rose y Kamin 1984). Spencer (2012, 2014) defiende una forma
sofisticada de realismo racial biológico. Gannett (2003) sostiene que las poblaciones
biológicas no son objetos independientes que puedan proporcionar datos relevantes para el
realismo racial, mientras que Kaplan y Winther (2013) sostienen que no se puede leer
ninguna afirmación sobre la raza a partir de la teoría o los datos biológicos. La realidad y la
base de las diferencias de género observadas fueron objeto de un gran debate a finales del
siglo XX (véase Fausto-Sterling 1992). Estas cuestiones han cristalizado a principios del
siglo XXI en los debates sobre el cerebro y la cognición, llamando la atención de los
filósofos de la biología y los científicos cognitivos. Rebecca Jordan-Young (2010),
Cordelia Fine (2010) y Bluhn, Jacobson y Maibom, eds. (2012) exploran, con el objetivo de
desacreditar, las afirmaciones sobre los cerebros de género.

3. Estudios sociales, culturales y feministas de la ciencia

La crítica de Kuhn al empirismo lógico incluía un fuerte naturalismo. La racionalidad


científica debía entenderse mediante el estudio de episodios reales de la historia de la
ciencia, no mediante análisis formales desarrollados a partir de conceptos a priori del
conocimiento y la razón (Kuhn 1962, 1977). Los sociólogos y los historiadores de la
ciencia con inclinación sociológica tomaron esto como un mandato para el examen de todo
el espectro de las prácticas de los científicos sin ningún prejuicio previo sobre cuáles eran
epistémicamente legítimas y cuáles no. Esa misma distinción fue objeto de sospecha por
parte de los nuevos estudiosos sociales, a menudo etiquetados como "constructivistas
sociales". Insistían en que para entender la producción de conocimiento científico era
necesario examinar todos los factores causalmente relevantes para la aceptación de una idea
científica, y no sólo los que el investigador considera que deberían ser relevantes.

Un amplio abanico de enfoques en los estudios sociales y culturales de la ciencia se ha


englobado bajo la etiqueta de "constructivismo social". Ambos términos de la etiqueta se
entienden de forma diferente en distintos programas de investigación. Mientras que los
constructivistas coinciden en sostener que los factores tratados como evidentes, o como
justificación racional de la aceptación, no deben ser privilegiados a expensas de otros
factores causalmente relevantes, difieren en su visión de qué factores son causales o
merecen ser examinados. Los enfoques macroanalíticos, como los asociados al llamado
Programa Fuerte de Sociología del Conocimiento Científico, tratan las relaciones sociales
como un factor externo e independiente y el juicio y el contenido científico como un
resultado dependiente. Los microanálisis o los estudios de laboratorio, en cambio,
renuncian a la separación implícita entre el contexto social y la práctica científica y se
centran en las relaciones sociales dentro de los programas y comunidades de investigación
científica y en las que unen a las comunidades productoras de investigación con las
receptoras de la misma.
Los investigadores también difieren en el grado en que tratan las dimensiones sociales y
cognitivas de la investigación como independientes o interactivas. Los investigadores
asociados al programa macroanalítico Strong de Sociología del Conocimiento Científico
(Barry Barnes, David Bloor, Harry Collins, Donald MacKenzie, Andrew Pickering, Steve
Shapin) se interesaron especialmente por el papel de los fenómenos sociales a gran escala,
ya sean ideologías sociales/políticas ampliamente extendidas o intereses profesionales de
grupo, en la resolución de controversias científicas. Algunos estudios emblemáticos de este
género son el estudio de Andrew Pickering (1984) sobre los intereses profesionales
contrapuestos en la interpretación de los experimentos de física de partículas de alta
energía, y el estudio de Steven Shapin y Simon Shaffer (1985) sobre la controversia entre
Robert Boyle y Thomas Hobbes acerca de la relevancia epistemológica de los experimentos
con bombas de vacío.

El enfoque microsociológico o de estudios de laboratorio se caracteriza por el estudio


etnográfico de determinados grupos de investigación, rastreando las innumerables
actividades e interacciones que desembocan en la producción y aceptación de un hecho o
dato científico. Karin Knorr Cetina (1981) relata su estudio de un año de duración sobre un
laboratorio de ciencias vegetales en la Universidad de Berkeley. El estudio de Bruno Latour
y Steven Woolgar (1986) sobre el laboratorio de neuroendocrinología de Roger Guillemin
en el Instituto Salk es otro clásico de este género. Estos académicos argumentaron en
trabajos posteriores (Knorr-Cetina 1983; Latour, 1987) que su forma de estudio mostraba
que los análisis filosóficos de la racionalidad, de la evidencia, de la verdad y del
conocimiento, eran irrelevantes para entender el conocimiento científico. El estudio
comparativo de Sharon Traweek (1988) sobre las culturas de las comunidades de física de
alta energía japonesa y norteamericana señalaba los paralelismos entre la cosmología y la
organización social, pero se abstenía de hacer afirmaciones epistemológicas extravagantes
o provocativas. Los esfuerzos de los filósofos de la ciencia por articular normas de
razonamiento y juicio científico estaban, en opinión de los estudiosos orientados tanto a lo
macro como a lo micro, mal orientados, porque los científicos reales se basaban en
consideraciones muy diferentes en la práctica de la ciencia.

Hasta hace poco, aparte de algunas figuras anómalas como Caroline Herschel, Barbara
McClintock y Marie Curie, las ciencias eran un coto masculino. Las académicas feministas
se han preguntado qué influencia ha tenido la masculinidad de la profesión científica en el
contenido de la ciencia y en las concepciones del conocimiento y la práctica científica.
Basándose tanto en el trabajo de las científicas feministas que expusieron y criticaron la
ciencia con sesgo de género como en las teorías de género, las historiadoras y filósofas de
la ciencia feministas han ofrecido una variedad de modelos de conocimiento y
razonamiento científico destinados a dar cabida a la crítica de la ciencia aceptada y a la
concomitante propuesta y defensa de alternativas. Evelyn Keller (1985) propuso un modelo
psicodinámico del conocimiento y la objetividad, argumentando que un determinado perfil
psicológico, facilitado por los patrones típicos del desarrollo psicológico masculino,
asociaba el conocimiento y la objetividad con la dominación. La asociación de
conocimiento y control sigue siendo un tema de preocupación para las pensadoras
feministas, como lo es también para los críticos de las ciencias preocupados por el medio
ambiente. A este respecto, véase especialmente el estudio de Lacey (2005) sobre la
controversia relativa a los cultivos transgénicos. Otras feministas recurrieron a los modelos
marxistas de relaciones sociales y desarrollaron versiones de la teoría del punto de vista,
que sostiene que las creencias de un grupo reflejan los intereses sociales de ese grupo. En
consecuencia, las teorías científicas aceptadas en un contexto marcado por las divisiones de
poder, como el de género, reflejarán los intereses de quienes tienen el poder. Cabe esperar
perspectivas teóricas alternativas por parte de los sistemáticamente excluidos del poder.
(Harding 1986; Rose 1983; Haraway 1978).

Otras feministas han argumentado que algunos enfoques filosóficos estándar de las ciencias
pueden utilizarse para expresar las preocupaciones feministas. Nelson (1990) adopta el
holismo y el naturalismo de Quine para analizar los debates de la biología reciente.
Elizabeth Potter (2001) adapta la teoría de redes de inferencia científica de Mary Hesse
para analizar los aspectos de género de la física del siglo XVII. Helen Longino (1990)
desarrolla un empirismo contextual para analizar la investigación en evolución humana y en
neuroendocrinología. Además del papel directo que desempeña el sesgo de género, los
estudiosos han prestado atención al modo en que los valores compartidos en el contexto de
la recepción pueden conferir una inverosimilitud a priori a ciertas ideas. Keller (1983)
argumentó que éste fue el destino de las propuestas poco ortodoxas de Barbara McClintock
sobre la transposición genética. Stephen Kellert (1993) hizo una sugerencia similar en
relación con la entonces resistencia a la llamada teoría del caos, es decir, el uso de
dinámicas no lineales para modelar procesos como el cambio climático.

Lo que tienen en común los análisis feministas y los de la sociología empírica es la opinión
de que la organización social de la comunidad científica influye en el conocimiento
producido por esa comunidad. Sin embargo, existen profundas diferencias en sus puntos de
vista sobre qué características de esa organización social se consideran relevantes y cómo
se expresan en las teorías y modelos aceptados por una comunidad determinada. Las
relaciones de género en las que se centran las feministas pasan desapercibidas para los
sociólogos que llevan a cabo programas de investigación macro o microsociológica. Las
científicas y académicas feministas se diferencian además de los estudiosos de la ciencia
social y cultural empírica en su llamamiento a teorías y enfoques alternativos en las
ciencias. Estos llamamientos implican que las preocupaciones filosóficas sobre la verdad y
la justificación no sólo son legítimas, sino que son herramientas útiles para avanzar en los
objetivos transformadores feministas de las ciencias. Sin embargo, como se puede ver en
sus diferentes tratamientos de la objetividad, los conceptos filosóficos a menudo se
reelaboran para hacerlos aplicables al contenido o a los episodios de interés (véase
Anderson 2004, Haraway 1988, Harding 1993, Keller 1985, Longino 1990, Nelson 1990,
Wylie 2005)

Además de las diferencias en el análisis de conceptos filosóficos como la objetividad, la


racionalidad o la verdad, las filósofas de la ciencia feministas también han debatido el papel
adecuado de los valores contextuales (a veces llamados "externos" o "sociales"). Algunas
feministas sostienen que, dado que los valores desempeñan un papel en la investigación
científica, los valores socialmente progresistas deberían dar forma no sólo a las decisiones
sobre qué investigar, sino también a los procesos de justificación. Los filósofos de la
ciencia deberían incorporar la ejemplificación de los valores adecuados en sus
planteamientos de confirmación o justificación. Otros están menos seguros de la
identificación de los valores que deben y no deben informar la conducta de la ciencia. Estos
filósofos dudan de que exista un consenso, o incluso de que sea posible en una sociedad
pluralista, sobre cuáles son los valores que deben guiar la investigación. En un intercambio
con Ronald Giere, Janet Kourany (2003a, 2003b) sostiene que no sólo la ciencia, sino
también la filosofía de la ciencia, debería preocuparse por la promoción de valores
socialmente progresistas. Giere (2003) replica que lo que cuenta como socialmente
progresista variará entre los filósofos, y que en una democracia, es poco probable que se
pueda lograr un consenso unánime o casi unánime respecto a los valores que deben
informar el análisis filosófico o la investigación científica, ya sea en la sociedad en general
o en el subconjunto social más pequeño de los filósofos de la ciencia.
4. Modelos del carácter social del conocimiento

Desde 1980 ha aumentado el interés por desarrollar planteamientos filosóficos del


conocimiento científico que incorporen las dimensiones sociales de la práctica científica.
Algunos filósofos ven la atención a lo social como una extensión directa de los enfoques ya
desarrollados en epistemología. Otros, que se inclinan por alguna forma de naturalismo, se
han tomado en serio el trabajo de los estudios sociales empíricos de la ciencia antes
mencionados. Sin embargo, han divergido considerablemente en su tratamiento de lo social.
Algunos entienden lo social como un sesgo o una distorsión y, por tanto, ven lo social como
algo opuesto o que compite con lo cognitivo o epistémico. Estos filósofos ven el desprecio
de los sociólogos por las preocupaciones filosóficas normativas como parte de una
desacreditación general de la ciencia que exige una respuesta y una defensa. Algunos
filósofos ven los aspectos sociales de la ciencia como incidentales a las cuestiones
profundas sobre el conocimiento, pero informativos sobre ciertas tendencias en las
comunidades científicas. Otros tratan lo social como algo constitutivo de la racionalidad.
Estas diferencias en la concepción del papel y la naturaleza de lo social informan de las
diferencias en los diversos enfoques para modelar la socialidad de la investigación y el
conocimiento que se analizan a continuación.

Los filósofos contemporáneos utilizan enfoques de modelos formales e informales para


abordar el carácter social del conocimiento. Los que persiguen modelos formales tienden a
poner entre paréntesis las cuestiones relativas a la racionalidad, la objetividad o la
justificación y se concentran en investigar matemáticamente los efectos de las estructuras
comunitarias sobre las características de la búsqueda del conocimiento y su difusión en una
comunidad. Los que persiguen modelos informales están más interesados en comprender el
papel de la comunidad en la mejora o la constitución de las características deseadas de la
investigación, como la racionalidad y la objetividad, y en pensar en las formas en que se
realiza el conocimiento.

La comunicación y la división del trabajo cognitivo.


Una de las primeras cuestiones que se investigaron con técnicas formales fue la división del
trabajo cognitivo. Mientras que los grandes proyectos científicos, como los comentados por
Hardwig, plantean el problema de integrar elementos dispares de la solución a una
pregunta, la división del trabajo cognitivo se refiere a la distribución adecuada u óptima de
los esfuerzos para resolver un problema determinado. Si todos siguen la misma estrategia
de investigación para resolver un problema o responder a una pregunta, no se alcanzará una
solución que quede fuera de esa estrategia. Si dicha solución es mejor que la que se puede
alcanzar mediante la estrategia compartida, la comunidad no logra alcanzar la mejor
solución. Pero, ¿cómo puede ser racional adoptar una estrategia de investigación distinta de
la que en ese momento se considera con más posibilidades de éxito? Philip Kitcher en su
(1993) se preocupó por ofrecer una alternativa a la propuesta del programa fuerte de que la
controversia y la persistencia de programas de investigación alternativos eran una función
de los diferentes compromisos sociales o ideológicos de los investigadores. Sin embargo,
también reconoció que si los investigadores siguieran únicamente la estrategia que en ese
momento se consideraba más probable que condujera a la verdad, no seguirían estrategias
poco ortodoxas que pudieran conducir a nuevos descubrimientos. Por ello, calificó de
división del trabajo cognitivo el hecho observado de que los investigadores aplicaran
diferentes enfoques al mismo problema y propuso un modelo de decisión que atribuía la
aplicación de una estrategia de investigación no ortodoxa (inconformista) a un cálculo
racional sobre las posibilidades de obtener un beneficio positivo. Estas posibilidades se
calculan en función de la probabilidad de que la estrategia inconformista tenga éxito (o más
éxito que el enfoque ortodoxo), el número de compañeros que persiguen estrategias
ortodoxas u otras inconformistas, y la recompensa prevista del éxito. Una comunidad puede
asignar los recursos de investigación de manera que se mantenga el equilibrio entre los
científicos ortodoxos y los inconformistas que más facilite el progreso. Así, el progreso
científico puede tolerar y, de hecho, se beneficia de una cierta cantidad de motivación
"impura". En cambio, Michael Strevens (2003) sostiene que la búsqueda de estrategias de
investigación inconformistas es una consecuencia de la regla de la prioridad. La regla de la
prioridad se refiere a la práctica de referirse a una ley u objeto con el nombre del primer
individuo que la articula o percibe y la identifica. Pensemos en la ley de Boyle, el cometa
Halley, la constante de Planck, el número de Avogadro, etc. No existe esa recompensa por
seguir una estrategia de investigación ideada por otro y "simplemente" añadir algo a lo que
ese individuo ya ha descubierto. La recompensa de la investigación es ser el primero. Y
para ser el primero hay que perseguir un problema o una estrategia novedosa. La división
del trabajo cognitivo, entendida como diferentes investigadores que persiguen diferentes
estrategias de investigación, es un simple efecto de la regla de prioridad. Muldoon y
Weisberg (2011) rechazan tanto el planteamiento de Kitcher como el de Strevens por
presuponer agentes uniformes e ideales poco realistas. En realidad, observan, los científicos
tienen, en el mejor de los casos, un conocimiento imperfecto de toda la situación de la
investigación, no conocen la totalidad del panorama de la investigación y, cuando lo saben,
saben cosas diferentes. No tienen suficiente información para emplear los métodos de
decisión que Kitcher y Strevens les atribuyen. Muldoon y Weisberg proponen el modelado
basado en agentes como medio para representar el conocimiento imperfecto, no
superpuesto y parcial de los agentes que deciden qué problemas y estrategias de
investigación seguir. La defensa de Solomon del disenso que se discute más adelante puede
entenderse como un rechazo de las premisas del problema. Desde ese punto de vista, el
objetivo de la organización científica debería ser promover el desacuerdo.
Kevin Zollman, siguiendo a Bala y Goyal (1998), utilizó la teoría de redes para modelar
diferentes estructuras de comunicación posibles. El objetivo de Zollman (2007, 2013) es
investigar qué diferencia suponen las estructuras de comunicación en las posibilidades de
que una comunidad científica se decante por una teoría o hipótesis correcta (o incorrecta) y
en la velocidad con la que se alcanza dicho consenso. Las redes están formadas por nodos y
aristas que los conectan. Los nodos pueden representar a individuos o a cualquier grupo que
tenga creencias uniformes. Los nodos pueden tener valores de creer o no creer y el
consenso consiste en que todos los nodos de la red tomen el mismo valor. Zollman
investiga tres posibles estructuras de comunicación: el ciclo, en el que cada nodo está
conectado sólo a los nodos situados a ambos lados del ciclo; la rueda, en la que hay un
nodo central al que se conectan exclusivamente todos los demás nodos; y la completa, en la
que cada nodo está conectado a todos los demás nodos. Utilizando las matemáticas de la
teoría de redes, Zollman demuestra la tesis, un tanto contraintuitiva, de que la red con
comunicación limitada, el ciclo, tiene la mayor probabilidad de consenso sobre la hipótesis
correcta, mientras que la red con la comunicación más densa, la completa, tiene una
probabilidad no despreciable de consenso (del que no es posible salirse) sobre la hipótesis
incorrecta. Zollman (2010) también utiliza este método para investigar el problema de la
división del trabajo, aunque lo aborda desde un punto de vista ligeramente diferente al de
Kitcher o Strevens. Las estructuras con una comunicación escasa o limitada tienen más
probabilidades de llegar a la hipótesis correcta, pero como tardan más en llegar a un
consenso, en esas comunidades pueden persistir diferentes enfoques de investigación. En
las circunstancias adecuadas, esto evitará que se llegue a la hipótesis incorrecta. Zollman
culpa implícitamente a una densa estructura de comunicación del abandono prematuro de la
hipótesis bacteriana de las úlceras pépticas. La diversidad es algo bueno mientras las
pruebas no sean decisivas, y si la hipótesis ácida, que se mantuvo hasta que un nuevo
método de tinción demostró la presencia de Helicobacter pylori, hubiera sido más lenta en
su difusión en la comunidad, la hipótesis bacteriana podría haberse conservado el tiempo
suficiente para estar mejor respaldada.

Aunque Zollman presenta sus resultados como un método alternativo a los mecanismos de
recompensa discutidos por Kitcher, Strevens y Muldoon y Weisberg, no incluyen un
mecanismo para establecer ninguna de las estructuras de red como el sistema de
comunicación preferido para una comunidad científica. A Kitcher y a los demás les
preocupaba cómo se podía motivar a los agentes para que siguieran una teoría o un método
cuyas posibilidades de éxito eran desconocidas o se consideraban improbables. Los
organismos de financiación, como las fundaciones científicas gubernamentales y las
privadas, proporcionan o pueden proporcionar la estructura de recompensa pertinente. Los
organismos que otorgan premios, como la Fundación Nobel o la Fundación Kavli, así como
la práctica histórica, afianzan la regla de la prioridad. Ambos son métodos comunitarios
que pueden motivar la elección de una investigación de alto riesgo y alta recompensa. No
está claro cómo las comunidades seleccionarían las estructuras de comunicación, ni qué
tipo de sistema sería capaz de imponer una estructura. Rosenstock, O'Connor y Bruner
(2017) señalan, además, que los resultados de Zollman son muy sensibles a cómo se
establecen los parámetros de los modelos. Si se ajusta el número de nodos o las
probabilidades asignadas a las estrategias/hipótesis alternativas, el efecto Zollman
desaparece. La probabilidad de consenso sobre la hipótesis incorrecta en la estructura de
comunicación densamente conectada se reduce a cerca de cero con más nodos o mayor
disparidad de probabilidades asignadas a las alternativas.

O'Connor y otros colegas han utilizado la teoría evolutiva de los juegos para modelar otros
fenómenos comunitarios como la persistencia de la desventaja de las minorías en las
comunidades científicas (Rubin & O'Connor 2018), la polarización científica (O'Connor &
Weatherall 2017), la diversidad (O'Connor & Bruner 2017), el conservadurismo en la
ciencia (O'Connor de próxima aparición). Si bien no pretenden necesariamente que estos
modelos de teoría de juegos sean totalmente descriptivos de los fenómenos que modelan,
estos teóricos afirman que, dadas ciertas condiciones iniciales, ciertas situaciones sociales
indeseables (como la desventaja que conlleva la condición de minoría) son esperables en
lugar de entenderse como perversiones de la práctica científica. Esto sugeriría que algunas
formas de abordar esos resultados sociales indeseables pueden no ser eficaces y que habría
que buscar medidas alternativas en caso de fracaso.

Socialidad, racionalidad y objetividad.

Los filósofos que tratan lo social como algo sesgado o distorsionado tienden a centrarse en
la opinión de los constructivistas de que no hay principios universales de racionalidad o
principios de evidencia que puedan utilizarse para identificar de forma independiente del
contexto qué factores son evidentes y cuáles no. Los conciliadores tienden a argumentar
que lo que es correcto en los planteamientos de los sociólogos puede tener cabida en los
planteamientos ortodoxos del conocimiento científico. La clave está en separar lo correcto
de lo exagerado o erróneo. Los integracionistas interpretan la relevancia de los
planteamientos de los sociólogos como un apoyo al desarrollo de nuevos planteamientos de
racionalidad u objetividad, más que como un motivo para rechazar la coherencia de tales
ideales normativos.

Entre los filósofos que defienden la racionalidad de la ciencia frente a las tergiversaciones
sociológicas se encuentran Larry Laudan (1984), James Brown (1989, 1994), Alvin
Goldman (1987, 1995) y Susan Haack (1996). Los detalles de los enfoques de estos
filósofos difieren, pero coinciden en sostener que los científicos son persuadidos por lo que
consideran la mejor evidencia o argumento, la evidencia más indicativa de la verdad según
sus luces, y en sostener que los argumentos y la evidencia son el foco de atención
apropiado para entender la producción del conocimiento científico. Cuando las
consideraciones probatorias no han triunfado sobre las consideraciones no probatorias,
estamos ante un caso de mala ciencia. Leen que los sociólogos argumentan que no puede
establecerse una distinción de principios entre consideraciones probatorias y no probatorias
y dedican un esfuerzo considerable a refutar esos argumentos. En sus propuestas positivas
para acomodar el carácter social de la ciencia, la socialidad se entiende como una cuestión
de agregación de individuos, no de sus interacciones, y el conocimiento público como el
simple resultado aditivo de muchos individuos que emiten juicios epistémicos sólidos. La
racionalidad individual y el conocimiento individual son, por tanto, el objetivo propio de
los filósofos de la ciencia. La exhibición de principios de racionalidad aplicables al
razonamiento individual es suficiente para demostrar la racionalidad de la ciencia, al menos
en su forma ideal.
Entre los conciliadores se encuentran Ronald Giere, Mary Hesse y Philip Kitcher. Giere
(1988) modela el juicio científico utilizando la teoría de la decisión. Esto permite
incorporar los intereses de los científicos como uno de los parámetros de la matriz de
decisión. También aboga por un enfoque de satisfacción, en lugar de optimización, para
modelar la situación de decisión, permitiendo así que diferentes intereses que interactúan
con la misma base empírica apoyen diferentes selecciones siempre que sean coherentes con
esa base. Mary Hesse (1980) emplea un modelo de red de inferencia científica que se
asemeja a la red de creencias de W.V.O. Quine en el sentido de que sus componentes son
de carácter heterogéneo, pero todos ellos están sujetos a revisión en relación con los
cambios que se producen en otros lugares de la red. Entiende los factores sociales como
condiciones de coherencia que operan junto con restricciones lógicas para determinar la
plausibilidad relativa de las creencias en la red.

La posición reconciliadora más elaborada es la desarrollada por Philip Kitcher (1993).


Además de modelar las relaciones de autoridad y la división del trabajo cognitivo como se
ha descrito anteriormente, ofrece lo que él denomina un compromiso entre los racionalistas
extremos y los desacreditadores sociológicos. El modelo de compromiso apela a un
principio de racionalidad, que Kitcher llama el Estándar Externo. Se considera externo
porque se propone que se mantiene independientemente de cualquier contexto histórico,
cultural o social particular. Por tanto, no sólo es externo, sino que también es universal. El
principio se aplica al cambio de creencia (o al paso de una práctica a otra, en la locución
más amplia de Kitcher), no a la creencia. Considera que un cambio (en la práctica o en la
creencia) es racional si y sólo "el proceso a través del cual se realizó el cambio tiene una
proporción de éxito al menos tan alta como la de cualquier otro proceso utilizado por los
seres humanos (siempre)..." (Kitcher 1993, 303). El compromiso de Kitcher propone que
las ideas científicas se desarrollen a lo largo del tiempo y se beneficien de las
contribuciones de muchos investigadores con distintas motivaciones. Esta es la concesión a
los estudiosos de orientación sociológica. Al final, sin embargo, las teorías que se aceptan
racionalmente son las que satisfacen el Estándar Externo de Kitcher. Kitcher se une así a
Goldman, Haack y Laudan en la opinión de que es posible articular condiciones a priori de
racionalidad o de garantía epistémica que operen independientemente de las relaciones
sociales de la ciencia o, tal vez, podríamos decir que de forma ortogonal.

Un tercer grupo de modelos es de carácter integracionista. Los integracionistas utilizan las


observaciones de los sociólogos de la ciencia para desarrollar planteamientos alternativos
de la racionalidad y la objetividad científicas. Nelson (1990) se centra en un aspecto del
holismo de Quine ligeramente diferente al de Hesse. Nelson utiliza los argumentos de
Quine contra el estatus fundacional independiente de los enunciados de observación como
base de lo que ella llama un empirismo feminista. Según Nelson, no se puede hacer ninguna
distinción de principio entre las teorías, las observaciones o los valores de una comunidad.
Lo que cuenta como evidencia, en su opinión, está fijado por todo el complejo de teorías,
compromisos de valores y observaciones de una comunidad. No hay conocimiento ni
pruebas fuera de ese complejo compartido. Desde este punto de vista, la comunidad es el
principal conocedor y el conocimiento individual depende del conocimiento y los valores
de la comunidad.
El empirismo social de Miriam Solomon se centra en la racionalidad científica (Solomon
2001). También implica negar una distinción universal de principios entre las causas de la
creencia. Solomon se basa en la literatura contemporánea de la ciencia cognitiva para
argumentar que lo que tradicionalmente se denomina sesgo se encuentra simplemente entre
los tipos de "vector de decisión" que influyen en la creencia. No son necesariamente
elementos indeseables de los que haya que proteger a la ciencia, y pueden ser productivos
para la comprensión y la creencia racional. La saliencia y la disponibilidad (de datos, de
tecnologías de medición), también llamadas sesgos fríos, son vectores de decisión tanto
como las ideologías sociales u otros factores de motivación, "sesgos calientes". El rasgo
distintivo del empirismo social de Solomon es su contraste entre la racionalidad individual
y la comunitaria. Su (2001) insta a la visión pluralista de que una comunidad es racional
cuando las teorías que acepta son las que tienen éxitos empíricos únicos. Los individuos
pueden persistir en creencias que están (desde una perspectiva panóptica) menos apoyadas
que otras según este punto de vista, si la totalidad de la evidencia disponible (o los datos
empíricos) no están a su alcance, o cuando su teoría favorita da cuenta de fenómenos que
no son explicados por otras teorías, incluso cuando éstas pueden tener una mayor cantidad
de éxitos empíricos. Sin embargo, lo que importa a la ciencia es que los juicios agregados
de una comunidad sean racionales. Una comunidad es racional cuando las teorías que
acepta son las que tienen todos o los únicos éxitos empíricos. Es colectivamente irracional
desechar una teoría con éxitos empíricos únicos. Por tanto, la comunidad puede ser racional
incluso cuando sus miembros son, según los criterios epistémicos tradicionales,
individualmente irracionales. De hecho, la irracionalidad individual puede contribuir a la
racionalidad de la comunidad en la medida en que los individuos comprometidos con una
teoría que da cuenta de sus datos mantienen esos datos en el rango de fenómenos que
cualquier teoría aceptada por toda la comunidad debe eventualmente explicar. Además del
éxito empírico, Solomon propone un criterio normativo adicional. Para garantizar una
distribución adecuada del esfuerzo científico, los sesgos deben estar adecuadamente
distribuidos en la comunidad. Solomon propone un esquema para determinar cuándo una
distribución es normativamente apropiada. Así, para Solomon, una comunidad científica es
racional cuando los sesgos están distribuidos adecuadamente y sólo acepta una teoría con
todos o teorías con éxitos empíricos únicos como condición epistemológica normativa. La
racionalidad sólo corresponde a una comunidad, y no a los individuos que la constituyen.
Al igual que en los modelos de red de Zollman, el consenso sólo consiste en que todos los
miembros de la comunidad asignen el mismo valor (T/F) a una hipótesis o teoría.

Por último, en el empirismo contextual crítico de Longino, los procesos cognitivos que
desembocan en el conocimiento científico son en sí mismos sociales (Longino 1990, 2002).
El punto de partida de Longino es una versión del argumento de la subdeterminación: la
brecha semántica entre los enunciados que describen datos y los enunciados que expresan
hipótesis o teorías que deben ser confirmadas o desconfirmadas por esos datos. Esta brecha,
creada por la diferencia de términos descriptivos utilizados en la descripción de los datos y
en la expresión de las hipótesis, significa que las relaciones probatorias no pueden
especificarse formalmente y que los datos no pueden apoyar una teoría o hipótesis con
exclusión de todas las alternativas. En su lugar, dichas relaciones están mediadas por
suposiciones de fondo. Finalmente, en la cadena de justificación, se llega a supuestos para
los que no se dispone de pruebas. Si éste es el contexto en el que se constituyen las
relaciones probatorias, surgen preguntas sobre cómo se puede legitimar la aceptación de
tales supuestos. Según Longino, el único control contra el dominio arbitrario de la
preferencia subjetiva (metafísica, política, estética) en tales casos es la interacción crítica
entre los miembros de la comunidad científica o entre los miembros de diferentes
comunidades. No hay una autoridad superior o una posición aperspectiva trascendente
desde la que sea posible adjudicar entre los supuestos fundacionales. Longino toma el
argumento de la subdeterminación para expresar en términos lógicos el punto planteado por
los investigadores de orientación sociológica: los individuos que participan en la
producción de conocimiento científico están situados histórica, geográfica y socialmente y
sus observaciones y razonamientos reflejan sus situaciones. Este hecho no socava la
empresa normativa de la filosofía, sino que exige su ampliación para incluir en su ámbito
las interacciones sociales dentro de las comunidades científicas y entre ellas. Lo que cuenta
como conocimiento está determinado por esas interacciones.

Longino afirma que las comunidades científicas institucionalizan algunas prácticas críticas
(por ejemplo, la revisión por pares), pero sostiene que dichas prácticas e instituciones deben
satisfacer condiciones de eficacia para poder ser calificadas como objetivas. Por lo tanto,
aboga por la ampliación de las normas científicas, como la exactitud y la coherencia, para
incluir las normas que se aplican a las comunidades. Éstas son (1) la provisión de lugares
en los que pueda tener lugar la interacción crítica, (2) la aceptación de la intervención
crítica, tal y como se demuestra en el cambio de la distribución de creencias en la
comunidad a lo largo del tiempo, de forma que sea sensible al discurso crítico que tiene
lugar dentro de esa comunidad, (3) la accesibilidad pública de las normas que regulan el
discurso, y (4) la igualdad moderada de la autoridad intelectual. Con esta última condición,
quizá la más controvertida de las normas que propone, Longino quiere decir que cualquier
perspectiva tiene una capacidad prima facie de contribuir a las interacciones críticas de una
comunidad, aunque la igualdad puede perderse por no comprometerse o no responder a las
críticas. En su 2002, Longino sostiene que los procesos cognitivos de la ciencia, como la
observación y el razonamiento, son en sí mismos procesos sociales. Por lo tanto, las
interacciones sujetas a las normas de la comunidad se extienden no sólo a la discusión de
los supuestos en la investigación terminada, sino también a los procesos constructivos de la
investigación.

Solomon y Longino difieren en cuanto a dónde sitúan la normatividad y al papel y la


eficacia de los procesos deliberativos en la investigación científica real. Solomon atiende a
las pautas de aceptación y a la distribución de los vectores de decisión, independientemente
de las interacciones entre los miembros de la comunidad, mientras que Longino atiende a
los procesos deliberativos y a las interacciones. También pueden diferir en sus puntos de
vista sobre lo que constituye el éxito científico.

Un conjunto de cuestiones que aún no ha dado lugar a una amplia reflexión filosófica es la
cuestión de cómo se expresan las diferencias de civilización en el trabajo científico (véase
Bala 2008). Aquí también hay una versión micro y otra macro. A nivel micro, uno podría
preguntarse cómo la cultura interaccional de los laboratorios individuales o las
subcomunidades teóricas se expresa o no en el resultado de su investigación. En el nivel
macro, uno podría preguntarse cómo se reflejan los rasgos culturales a gran escala en el
contenido y la práctica de la ciencia en una determinada formación cultural. Por ejemplo,
Joseph Needham argumentó que los rasgos de la cultura de la antigua China dirigían su
ingenio técnico e intelectual hacia canales que impedían el desarrollo de algo parecido a la
ciencia que se desarrolló en Europa Occidental entre los siglos XIV y XVII. Otras culturas
desarrollaron algunos aspectos de lo que hoy consideramos una cultura científica
cosmopolita o global (por ejemplo, las matemáticas y la astronomía de los eruditos
islámicos y del sur de Asia de los siglos X al XIV) independientemente de la física
moderna temprana desarrollada en Europa occidental y central. Los artículos de Habib y
Raina (2001) abordan aspectos de estas cuestiones en relación con la historia de la ciencia
en la India.

Unidad, pluralidad y objetivos de la investigación.

La variedad de puntos de vista sobre el grado de socialidad asignable a los conceptos


epistemológicos de la ciencia conduce a diferentes puntos de vista sobre el carácter último
del resultado de la investigación. Esta diferencia puede resumirse como la diferencia entre
monismo y pluralismo. El monismo, tal y como lo caracterizan Kellert, Longino y Waters
(2006), sostiene que el objetivo de la investigación es y debe ser un planteamiento
unificado, exhaustivo y completo de los fenómenos (ya sean todos los fenómenos o los
específicos de un ámbito de investigación concreto). Si esto es así, entonces las normas de
evaluación deberían estar informadas por este objetivo y debería haber un estándar por el
que se evalúen las teorías, los modelos y las hipótesis en las ciencias. La desviación de un
marco teórico aceptado es problemática y requiere una explicación, como la que se ofrece
para la división del trabajo cognitivo. El monismo, con su compromiso con la unidad
última, requiere formas de conciliar las teorías que compiten entre sí o de dirimir la
controversia para eliminar la competencia en favor de la única teoría verdadera o mejor. El
pluralismo, por su parte, sostiene que la pluralidad de enfoques observada dentro de una
ciencia no es necesariamente un defecto, sino que refleja la complejidad de los fenómenos
investigados en interacción con las limitaciones de las capacidades cognitivas humanas y la
variedad de intereses humanos, tanto cognitivos como pragmáticos, en las representaciones
de esos fenómenos.

Entre los pluralistas se encuentra una diversidad de puntos de vista. Suppes (1978) destacó
la intraducibilidad mutua de los términos descriptivos desarrollados en el curso de la
especialización científica. Esta inconmensurabilidad se resiste a la evaluación mediante una
medida común. La invocación de Cartwright (1999) de un mundo moteado subraya la
complejidad y la diversidad del mundo natural (y social). Las teorías y los modelos
científicos son representaciones de diversos grados de abstracción que, en el mejor de los
casos, logran aplicarse parcialmente a los fenómenos que pretenden representar. En la
medida en que se consideren representativos de un proceso real, deben estar protegidos por
cláusulas ceteris paribus. Las leyes y los modelos científicos se aplican a partes del mundo,
pero no a un todo gobernado por la ley sin fisuras. El pluralismo integrador de Mitchell
(2002, 2009) es un rechazo del objetivo de unificación mediante la reducción a un único
nivel (fundamental) de explicación o la abstracción a una única representación teórica, en
favor de un conjunto de estrategias explicativas más pragmáticamente influido. El éxito de
cualquier investigación particular responde a los objetivos de la misma, pero puede haber
múltiples planteamientos compatibles que reflejen tanto la contingencia y parcialidad de las
leyes/generalizaciones que pueden figurar en las explicaciones como los diferentes
objetivos que uno puede aportar a la investigación del mismo fenómeno. Las explicaciones
que se busquen en una situación explicativa concreta se basarán en estos múltiples
planteamientos según el nivel de representación adecuado para lograr sus fines
pragmáticos. La defensa que hace Mitchell del pluralismo integrador se basa tanto en la
parcialidad de la representación como en la complejidad de los fenómenos que hay que
explicar.

Kellert, Longino y Waters proponen un pluralismo que ve la multiplicidad no sólo entre los
niveles de análisis sino dentro de ellos. Además, no ven ninguna razón para exigir que los
múltiples planteamientos sean compatibles. La multiplicidad de planteamientos
empíricamente adecuados no congruentes nos ayuda a apreciar la complejidad de un
fenómeno sin estar en condiciones de generar un planteamiento único de esa complejidad.
No sostienen que todos los fenómenos admitan un pluralismo ineliminable, sino que hay
algunos fenómenos que requerirán modelos mutuamente irreductibles o incompatibles. Para
determinar cuáles son, hay que examinar los fenómenos, los modelos y la correspondencia
entre los fenómenos y los modelos. Al igual que Mitchell, Kellert, Longino y Waters
sostienen que las consideraciones pragmáticas (entendidas en sentido amplio) regirán la
elección del modelo a utilizar en circunstancias particulares. Ambas formas de pluralismo
(compatibilista y no compatibilista) abandonan la noción de que existe un conjunto de tipos
naturales cuyas interacciones causales son la base de las explicaciones fundamentales de los
procesos naturales. El no compatibilista está abierto a múltiples esquemas de clasificación
que respondan a diferentes intereses pragmáticos de clasificación. En este sentido, el
pluralista no compatibilista adopta una visión cercana al realismo promiscuo articulado por
John Dupré (1993). El compatibilista, o pluralista integrador, por otro lado, debe sostener
que hay una manera de que los diferentes esquemas de clasificación puedan reconciliarse
para apoyar la integración prevista de los modelos explicativos.

El pluralismo recibe el apoyo de varios enfoques adicionales. Giere (2006) utiliza el


fenómeno de la visión del color para apoyar una posición que denomina realismo
perspectivo. Al igual que los colores de los objetos, las representaciones científicas son el
resultado de las interacciones entre las facultades cognitivas humanas y el mundo. Otras
especies tienen equipos visuales diferentes y perciben el mundo de forma distinta. Nuestras
facultades cognitivas humanas, por tanto, constituyen perspectivas. Podríamos haber sido
construidos de forma diferente y, por tanto, percibir el mundo de forma diferente. El
realismo perspectivo conduce al pluralismo, porque las perspectivas son parciales. Aunque
van Fraassen (2008) no se posiciona sobre el pluralismo frente al monismo (y como
empirista y antirrealista no tendría por qué hacerlo), su énfasis en la parcialidad y la
dependencia de la perspectiva de la medición proporciona un punto de entrada
complementario a dicha diversidad. Solomon (2006) insta a adoptar una actitud aún más
acogedora hacia la multiplicidad. En su opinión, el disenso es un componente necesario del
buen funcionamiento de las comunidades científicas y el consenso puede ser
epistemológicamente pernicioso. Ampliando los argumentos de Solomon (2001), afirma
que los diferentes modelos y representaciones teóricas se asocian a conocimientos
particulares o datos específicos que probablemente se pierdan si el objetivo es integrar o
combinar de otro modo los modelos para lograr una comprensión consensuada. La
actividad de integrar dos o más modelos es diferente del proceso de que un modelo de un
conjunto de alternativas llegue a tener todos los éxitos empíricos distribuidos entre los
demás modelos. En su examen de las conferencias de consenso convocadas por los
Institutos Nacionales de Salud de los Estados Unidos (Solomon 2011), Solomon encuentra
que tales conferencias no resuelven el disenso existente en la comunidad científica. Por el
contrario, tienden a celebrarse después de que haya surgido un consenso en la comunidad
investigadora y se dirigen más a la comunicación de dicho consenso a comunidades
externas (como los médicos, las aseguradoras, los expertos en política sanitaria y el
público) que a la evaluación de las pruebas que podrían justificar el consenso.

Los investigadores comprometidos con una ciencia monista o unificada verán la pluralidad
como un problema a superar, mientras que los investigadores ya comprometidos con una
visión profundamente social de la ciencia verán la pluralidad como un recurso de las
comunidades más que como un problema. La diversidad y la parcialidad que caracterizan
tanto a la comunidad científica local como a la global caracterizan tanto a los productos de
esas comunidades como a sus productores. El universalismo y la unificación exigen la
eliminación de la diversidad epistemológicamente relevante, mientras que una postura
pluralista la promueve y la concepción profundamente social del conocimiento que se
deriva.

La socialidad y la estructura del conocimiento científico La atención a las dimensiones


sociales del conocimiento científico y el consiguiente potencial de pluralidad ha llevado a
los filósofos a replantearse la estructura de lo conocido. Muchos filósofos (entre ellos
Giere, Kitcher y Longino) que defienden formas de pluralismo invocan la metáfora de los
mapas para explicar cómo las representaciones científicas pueden ser tanto parciales como
adecuadas. Los mapas sólo representan aquellas características del territorio cartografiado
que son relevantes para el propósito para el que se dibuja el mapa. Algunos mapas pueden
representar el área física delimitada por las fronteras estatales, otros pueden representar el
tamaño de la población o la abundancia/pobreza relativa de los recursos naturales. Winther
(de próxima publicación) explora la variedad de tipos de mapas utilizados en la ciencia y el
uso filosófico de la metáfora del mapa. Pero la metáfora del mapa es sólo una de las
diversas formas de repensar la estructura del conocimiento científico.

Otros filósofos recurren en mayor medida a la ciencia cognitiva. Giere (2002) adopta un
enfoque naturalista para modelar, no tanto la distribución del trabajo cognitivo, sino la
distribución de la cognición. Este enfoque toma un sistema o comunidad interactiva como
el lugar de la cognición, en lugar del agente individual. Nersessian (2006) extiende la
cognición distribuida al razonamiento basado en modelos en las ciencias. Los modelos son
artefactos que concentran la actividad cognitiva de múltiples individuos en entornos
particulares. El conocimiento se distribuye entre las mentes que interactúan sobre los
artefactos en ese entorno. Paul Thagard se basa en la naturaleza cada vez más
interdisciplinaria (y por lo tanto social) de la propia ciencia cognitiva para argumentar que
no sólo la ciencia cognitiva (o ciertas líneas de análisis en la ciencia cognitiva) apoyan una
concepción de la cognición como distribuida entre agentes que interactúan, sino que esta
concepción puede volverse contra la propia ciencia cognitiva. (Thagard 2012). Por último,
Alexander Bird (2010) reflexiona sobre el sentido del conocimiento necesario para
atribuciones como: "la comunidad biomédica sabe ahora que las úlceras pépticas suelen
estar causadas por la bacteria Helicobacter pylori". O "hubo un crecimiento explosivo del
conocimiento científico en el siglo XX". Bird reprocha a otros epistemólogos sociales que
sigan haciendo depender ese conocimiento colectivo de los estados de los individuos. En su
lugar, argumenta, deberíamos entender el conocimiento social como un análogo funcional
del conocimiento individual. Ambos dependen de la existencia y el funcionamiento
adecuado de las estructuras pertinentes: el razonamiento y la percepción para los
individuos; las bibliotecas y las revistas y otras estructuras sociales, para las colectividades.
El conocimiento científico es un efecto emergente de las interacciones epistémicas
colectivas, concretado en los textos que han sido designados como vehículos para la
preservación y comunicación de ese conocimiento.

5. Dirección social de la ciencia

La ciencia moderna se ha considerado tanto un modelo de autogobierno democrático como


una actividad que requiere y facilita las prácticas democráticas en su contexto social de
apoyo (Popper 1950, Bronowski 1956). Desde esta perspectiva, la ciencia se considera
integrada en su contexto social de apoyo y dependiente de él, pero aislada en sus prácticas
de la influencia de dicho contexto. A medida que el alcance de la ciencia y de las
tecnologías basadas en la ciencia se ha ido extendiendo cada vez más en la economía y la
vida cotidiana de las sociedades industrializadas, se presta una nueva atención a la
gobernanza de la ciencia. Independientemente de la opinión que se tenga sobre el carácter
social del conocimiento, se plantean otras cuestiones relativas a qué investigación realizar,
qué recursos sociales dedicar a ella, quién debe tomar esas decisiones y cómo deben
tomarse.

Philip Kitcher (2001) ha abierto estas cuestiones al escrutinio filosófico. Aunque Kitcher
respalda en gran medida los puntos de vista epistemológicos de su (1993), en la obra
posterior sostiene que no existe ninguna norma absoluta sobre la importancia (práctica o
epistémica) de los proyectos de investigación, ni ninguna norma sobre el bien aparte de las
preferencias subjetivas. La única forma no arbitraria de defender los juicios relativos a los
programas de investigación en ausencia de normas absolutas es a través de medios
democráticos para establecer preferencias colectivas. Kitcher, por tanto, intenta explicar los
procedimientos por los que se pueden tomar decisiones sobre qué direcciones de
investigación seguir de forma democrática. El resultado, que él denomina ciencia bien
ordenada, es un sistema en el que las decisiones que se toman en la práctica se
corresponden con las que tomaría un órgano representativo adecuadamente constituido que
deliberara colectivamente con la ayuda de la información pertinente (relativa, por ejemplo,
a los costes y la viabilidad) suministrada por los expertos.

La "ciencia bien ordenada" de Kitcher ha atraído la atención de otros filósofos, de


científicos y de estudiosos de la política pública. Aunque ha sido elogiada como primer
paso, también ha suscitado diversas críticas y preguntas. Las críticas a su propuesta van
desde la preocupación por el excesivo idealismo de la concepción hasta el temor a que
consagre las preferencias de un grupo mucho más reducido que el que se verá afectado por
las decisiones de investigación. La propuesta de Kitcher funciona, en el mejor de los casos,
para un sistema en el que toda o la mayor parte de la investigación científica se financia con
fondos públicos. Pero la proporción de la financiación privada, empresarial, de la ciencia
comparada con la de la financiación pública ha ido aumentando, lo que pone en duda la
eficacia de un modelo que presupone un control mayoritariamente público (Mirowski y
Sent 2002, Krimsky 2003). Hay que señalar que el modelo de Kitcher sigue efectuando una
separación significativa entre la realización real de la investigación y las decisiones
relativas a la dirección de la misma, y los estudiosos que ven una relación más íntima entre
los procesos sociales y los valores del contexto y los de la realización de la investigación
estarán insatisfechos con él. El propio Kitcher (Kitcher 2011) parece relajar un poco la
separación.

El carácter contrafáctico de la propuesta plantea cuestiones sobre hasta qué punto la ciencia
bien ordenada es realmente democrática. Si las decisiones reales no tienen por qué ser el
resultado de procedimientos democráticos, sino sólo ser las mismas que resultarían de tales
procedimientos, ¿cómo sabemos qué decisiones son esas sin pasar realmente por el
ejercicio deliberativo? Incluso si el proceso se lleva a cabo realmente, hay lugares, por
ejemplo, en la elección de los expertos cuyo consejo se solicita, que permiten que las
preferencias individuales subviertan o sesguen las preferencias del conjunto (Roth 2003).
Además, dado que los efectos de la investigación científica son potencialmente globales,
mientras que las decisiones democráticas son, en el mejor de los casos, nacionales, las
decisiones nacionales tendrán un efecto mucho más allá de la población representada por
los responsables de la toma de decisiones. Sheila Jasanoff también ha comentado que
incluso en las democracias industrializadas contemporáneas existen regímenes de
gobernanza de la ciencia bastante diferentes. No hay un modelo de toma de decisiones
democrático, sino muchos, y las diferencias se traducen en políticas bastante diferentes
(Jasanoff 2005).

En su obra (2011), Kitcher abandona el enfoque contrafáctico al poner en contacto el ideal


del ordenamiento con los debates reales en y sobre la ciencia contemporánea. Su
preocupación aquí es la variedad de formas en que la autoridad científica ha sido
erosionada por lo que él llama "epistemologías quiméricas". No basta con decir que la
comunidad científica ha llegado a la conclusión de que, por ejemplo, la vacuna triple vírica
es segura, o que el clima está cambiando de una manera que requiere un cambio en las
actividades humanas. En una sociedad democrática, hay muchas otras voces que reclaman
autoridad, ya sea por presuntos motivos probatorios o como parte de campañas para
manipular la opinión pública. Kitcher sugiere mecanismos por los que pequeños grupos en
los que confían sus comunidades podrían desarrollar la comprensión de cuestiones técnicas
complicadas mediante la tutoría de miembros de las comunidades de investigación
pertinentes y, a continuación, trasladar esta comprensión al público. También respalda los
experimentos de James Fishkin (2009) sobre el sondeo deliberativo como medio para reunir
a miembros del público comprometidos con diferentes lados de una cuestión técnica con los
exponentes científicos de la cuestión y, en una serie de intercambios que abarcan las
pruebas, los diferentes tipos de importación que poseen las diferentes líneas de
razonamiento y los demás elementos de un debate razonado, llevar al grupo a un consenso
sobre la opinión correcta. Los filósofos pluralistas y con inclinaciones pragmáticas de los
que se ha hablado en la sección anterior podrían preocuparse de que no haya una única
opinión correcta hacia la que deba converger un encuentro de este tipo, pero que un debate
más amplio que incorpore la deliberación sobre los objetivos y los valores podría producir
una convergencia suficiente (temporal) para fundamentar la acción o la política.

6. Conclusión
El estudio filosófico de las dimensiones sociales del conocimiento científico se ha
intensificado en las décadas transcurridas desde 1970. Las controversias sociales sobre las
ciencias y las tecnologías basadas en la ciencia, así como la evolución del naturalismo
filosófico y la epistemología social, se combinan para impulsar el pensamiento en este
ámbito. Los estudiosos de varias disciplinas afines siguen investigando las múltiples
relaciones sociales dentro de las comunidades científicas y entre éstas y sus contextos
sociales, económicos e institucionales.

Aunque este ámbito cobró importancia por primera vez en las denominadas guerras de la
ciencia de la década de 1980, la atención a las dimensiones sociales de la ciencia ha atraído
la atención de los filósofos a una serie de temas. El fenómeno de la Gran Ciencia ha
animado a los filósofos a considerar el significado epistemológico de fenómenos como la
confianza y la interdependencia cognitiva y la división del trabajo cognitivo. La creciente
dependencia económica y social de las tecnologías basadas en la ciencia ha hecho que se
preste atención a cuestiones de riesgo inductivo y al papel de los valores en la evaluación
de hipótesis con consecuencias sociales. Las controversias sobre los riesgos para la salud de
ciertas vacunas, sobre la medición de la contaminación ambiental y sobre las causas del
cambio climático han ampliado la filosofía de la ciencia desde sus ámbitos más
acostumbrados de análisis lógico y epistemológico para incorporar las preocupaciones
sobre la comunicación y la asimilación del conocimiento científico y las dimensiones éticas
de los debates superficialmente factuales.

En parte como respuesta al trabajo de los estudiosos de la ciencia en el ámbito social, y en


parte como respuesta al papel cambiante de la investigación científica a lo largo del siglo
XX y en el XXI, los filósofos han buscado formas de acomodar los resultados (sostenibles)
de los sociólogos e historiadores de la cultura o de modificar los conceptos epistemológicos
tradicionales utilizados en el análisis del conocimiento científico. Estas investigaciones
conducen a su vez a una nueva reflexión sobre la estructura y la ubicación del contenido del
conocimiento. Aunque los debates dentro de la filosofía de la ciencia entre los partidarios
de uno u otro modelo de socialidad del conocimiento continuarán, un paso importante en el
futuro será un encuentro más completo entre la epistemología social basada en el individuo,
con su enfoque en el testimonio y el desacuerdo como transacciones entre individuos, y las
epistemologías más plenamente sociales que toman las relaciones o la interacción social
como parcialmente constitutivas del conocimiento empírico.

Bibliography
Works Cited
 Anderson, Elizabeth, 2004. “Uses of Value Judgments in Science” Hypatia, 19, 1–24.
 –––. 2011. “Democracy, Public Policy, and Lay Assessments of Scientific
Testimony,” Episteme, 8(2): 144–164.
 Bala, Arun, 2008. The Dialogue of Civilizations in the Birth of Modern Science, New
York, NY: Macmillan.
 Bala, Venkatesh, and Sanjeev Goyal, 1998. “Learning from Neighbors,” Review of
Economic Studies, 65: 565–621.
 Barnes, Barry, 1977. Interests and the Growth of Knowledge, New York: Routledge.
 –––, and David Bloor, 1982. “Relativism, Rationalism, and the Sociology of
Knowledge,” in Rationality and Relativism, Martin Hollis and Steven Lukes (eds.),
Oxford: Basil Blackwell, pp. 21–47.
 Bird, Alexander, 2010, “Social Knowing: The Social Sense of ‘Scientific
Knowledge’” Philosophical Perspectives, 24: 23–56.
 Bronowski, Jacob, 1956. Science and Human Values, New York: Harper and Bros.
 Brown, James, 1989. The Rational and the Social, London: Routledge.
 –––, 1994. Smoke and Mirrors: How Science Reflects Reality, New York: Routledge.
 Cartwright, Nancy, 1999, The Dappled World, Cambridge: Cambridge University
Press.
 –––, 2012, “Will This Policy Work for You?” Philosophy of Science, 79(5): 973–989.
 –––, and Jeremy Hardie, 2012. Evidence-Based Policy: A Practical Guide to Doing It
Better, New York: Oxford University Press.
 –––, and Jordi Cat, Lola Fleck, and Hasok Chang, 1996. Otto Neurath: Philosophy
Between Science and Politics, New York: Cambridge University Press.
 Collins, Harry, 1983. “An Empirical Relativist Programme in the Sociology of
Scientific Knowledge,” in Science Observed: Perspectives on the Social Study of
Science, London: Sage, pp. 115–140.
 Cranor, Carl F., 2004. “Toward Understanding Aspects of the Precautionary
Principle,” Journal of Medicine and Philosophy, 29(3): 259–79.
 Douglas, Heather, 2000. “Inductive Risk and Values in Science,” Philosophy of
Science, 67(4): 559–579>
 –––, 2009. Science, Policy, and the Value-Free Ideal, Pittsburgh, PA: University of
Pittsburgh Press.
 Dupré, John, 1993. The Disorder of Things, Cambridge, MA: Harvard University Press.
 Elliot, Kevin, 2011. “Direct and Indirect Roles for Values in Science,” Philosophy of
Science, 78(2): 303–324
 Fausto-Sterling, Anne, 1992. Myths of Gender, New York, NY: Basic Books.
 Fine, Arthur, 2007. “Relativism, Pragmatism, and the Practice of Science,” in New
Pragmatists, Cheryl Misak (ed.), Oxford: Oxford University Press, pp. 50–67.
 Fine, Cordelia, 2010, Delusions of Gender, New York, NY: W.W. Norton and
Company.
 Fuller, Steve, 1988. Social Epistemology, Bloomington, IN: Indiana University Press.
 Gannett, Lisa, 2003, “Making Populations: Bounding Genes in Space and
Time,”Philosophy of Science, 70(5): 989–1001.
 Giere, Ronald, 1988. Explaining Science: A Cognitive Approach, Chicago: University
of Chicago Press.
 –––, 1991. “Knowledge, Values, and Technological Decisions: A Decision Theoretical
Approach,” in Acceptable Evidence: Science and Values in Risk Management, Deborah
Mayo and Rachelle Hollander (eds.), pp. 183–203, New York: Oxford University Press.
 –––, 2002. “Scientific Cognition as Distributed Cognition,” in Cognitive Bases of
Science Peter Carruthers, Stephen Stitch, and Michael Siegal (eds.), Cambridge, UK:
Cambridge University Press.
 –––, 2003. “A New Program for Philosophy of Science?” Philosophy of Science, 70(1):
15–21.
 –––, 2006. Scientific Perspectivism, Chicago, IL: University of Chicago Press.
 –––, and Alan Richardson (eds.), 1996. Origins of Logical Empiricism (Minnesota
Studies in the Philosophy of Science, Vol. XVI), Minneapolis, MN: University of
Minnesota Press.
 Goldman, Alvin, 1987. “The Foundations of Social Epistemics,” Synthese, 73(1): 109–
144.
 –––, 1995. “Psychological, Social and Epistemic Factors in the Theory of Science,”
in PSA 1994: Proceedings of the 1994 Biennial Meeting of the Philosophy of Science
Association, Richard Burian, Mickey Forbes, and David Hull (eds.), East Lansing, MI:
Philosophy of Science Association, pp. 277–286.
 –––, 1999. “Science”, Knowledge in a Social World (Chapter 8), New York: Oxford
University Press, pp. 224–271, .
 Gould, Stephen J., 1981. The Mismeasure of Man, New York, NY: W.W. Norton and
Company.
 Haack, Susan, 1996. “Science as Social: Yes and No,” in Feminism, Science, and the
Philosophy of Science, Lynn Hankinson Nelson and Jack Nelson (eds.), Dordrecht:
Kluwer Academic Publishers, pp. 79–94.
 Habib, S. Irfan and Dhruv Raina, 2001. Situating the History of Science: Dialogues
with Joseph Needham, New Delhi, IN: Oxford University Press.
 Haraway, Donna, 1978. “Animal Sociology and a Natural Economy of the Body Politic
(Part II),” Signs, 4(1): 37–60.
 –––, 1988. “Situated Knowledges,” Feminist Studies, 14(3): 575–600.
 Harding, Sandra. 1986. The Science Question in Feminism, Ithaca, NY: Cornell
University Press.
 –––, 1993. “Rethinking Standpoint Epistemology,” in Feminist Epistemologies, Linda
Alcoff and Elizabeth Potter (eds.), New York: Routledge, pp. 49–82.
 Hardwig, John, 1985. “Epistemic Dependence,” Journal of Philosophy, 82(7): 335–349.
 –––, 1988. “Evidence, Testimony, and the Problem of Individualism,” Social
Epistemology, 2(4): 309–21.
 Hempel, Carl G., 1965. “Science and Human Values,” Scientific Explanation and Other
Essays, New York: The Free Press, pp. 81–96.
 Hesse, Mary, 1980. Revolutions and Reconstructions in the Philosophy of Science,
Bloomington, IN: Indiana University Press.
 Hull, David, 1988. Science As a Process: An Evolutionary Account of the Social and
Conceptual Development of Science, Chicago: University of Chicago Press.
 Ioannidis, John, 2005. “Why Most Published Research Findings are False,” PLOS
Medicine 2(8): 696–701.
 Jasanoff, Sheila, 2005. Designs on Nature: Science and Democracy in Europe and the
United States, Princeton: Princeton University Press.
 Jeffrey, Richard C., 1956. “Valuation and Acceptance of Scientific
Hypotheses,” Philosophy of Science, 23(3): 237–246.
 Jordan-Young, Rebecca, 2010. Brain Storm, Cambridge, MA: Harvard University
Press.
 Kaplan, Jonathan, and Rasmus Winther, 2013. “Prisoners of Abstraction? The Theory
and Measure of Genetic Variation, and the Very Concept of Race,” Biological Theory,
7(4): 401–12.
 Keller, Evelyn Fox, 1983. A Feeling for the Organism: The Life and Work of Barbara
McClintock, San Francisco: W.H. Freeman.
 –––, 1985. Reflections on Gender and Science, New Haven: Yale University Press.
 Kellert, Stephen, 1993. In the Wake of Chaos, Chicago: University of Chicago Press.
 Kellert, Stephen, Helen Longino, and C. Kenneth Waters (eds.), 2006. Scientific
Pluralism (Minnesota Studies in the Philosophy of Science, Vol. XIX), Minneapolis:
University of Minnesota Press.
 Kitcher, Phillip, 1985. Vaulting Ambition, Cambridge, MA: MIT Press.
 –––, 1993. The Advancement of Science: Science Without Legend, Objectivity Without
Illusions, Oxford: Oxford University Press.
 –––, 2001. Science, Truth, and Democracy, New York: Oxford University Press.
 –––, 2011. Science in a Democratic Society, Amherst, NY: Prometheus Press.
 Knorr-Cetina, Karin, 1981. The Manufacture of Knowledge, Oxford: Pergamon Press.
 –––, 1983. “The Ethnographic Study of Scientific Work: Toward a Constructivist
Interpretation of Science,” in Science Observed, Knorr-Cetina and Michael Mulkay
(eds.), London: Sage, pp. 115–177.
 Kourany, Janet, 2003a. “A Philosophy of Science for the Twenty-First
Century,” Philosophy of Science, 70(1): 1–14.
 –––, 2003b, “Reply to Giere,” Philosophy of Science, 70(1): 22–26.
 –––, 2010. Philosophy of Science After Feminism, New York, NY: Oxford University
Press.
 Krimsky, Sheldon, 2003. Science in the Private Interest, Lanham: Rowman and
Littlefield.
 Kuhn, Thomas, 1962. The Structure of Scientific Revolutions, Chicago: University of
Chicago Press.
 –––, 1977. The Essential Tension: Selected Studies in Scientific Tradition and Change,
Chicago: University of Chicago Press.
 Lacey, Hugh, 2005. Values and Objectivity: The Controversy over Transgenic Crops,
Lanham: Rowman and Littlefield.
 Latour, Bruno. 1987. Science in Action, Cambridge, MA: Harvard University Press.
 ––– and Steven Woolgar, 1986. Laboratory Life: The Construction of Scientific Facts,
2nd edition, Princeton: Princeton University Press.
 Laudan, Larry, 1984a. “The Pseudo-Science of Science?” in Scientific Rationality: The
Sociological Turn, James Brown (ed.), Dordrecht: D. Reidel, pp. 41–74.
 Lee, Carole J., 2012. “A Kuhnian Critique of Psychometric Research on Peer
Review,” Philosophy of Science, 79(5): 859–870.
 Lee, Carole J., Cassidy R. Sugimoto, Guo Zhang, and Blaise Cronin, 2013, “Bias in
Peer Review,” Journal of the American Society for Information Science and
Technology, 64(1): 2–17.
 Lewontin, Richard, Steven Rose, and Leon Kamin, 1984. Not in Our Genes, New York,
NY: Pantheon.
 Loken, Eric, and Andrew Gelman, 2017. “Measurement Error and the Replication
Crisis,” Science, 355(6325): 584–585.
 Longino, Helen E., 1990. Science as Social Knowledge: Values and Objectivity in
Scientific Inquiry, Princeton: Princeton University Press.
 –––, 2002. The Fate of Knowledge, Princeton: Princeton University Press.
 Mayo, Deborah, and Rachelle Hollander (eds.), 1991. Acceptable Evidence: Science
and Values in Risk Management, New York: Oxford University Press.
 Mill, John Stuart, 1859. On Liberty, London: John W. Parker and Son; reprinted 1974,
1982, Gertrude Himmelfarb (ed.), Harmondsworth: Penguin.
 Mirowski, Philip, and Esther-Mirjam Sent (eds.), 2002. Science Bought and Sold,
Chicago: University of Chicago Press.
 Mitchell, Sandra, 2002. “Integrative Pluralism,” Biology and Philosophy, 17: 55–70.
 Muldoon, Ryan, and Michael Weisberg, 2011. “Robustness and Idealization in Models
of Cognitive Labor,” Synthese, 183: 161–174.
 Needham, Joseph, 1954. Science and Civilization in China, Cambridge: Cambridge
University Press.
 Nersessian, Nancy J., 2006. “Model-Based Reasoning in Distributed Cognitive
Systems,” Philosophy of Science, 73(5): 699–709.
 Nelson, Lynn Hankinson, 1990. Who Knows: From Quine to Feminist Empiricism,
Philadelphia: Temple University Press.
 O’Connor, Cailin, forthcoming. “The Natural Selection of Conservative
Science,” Studies in the History and Philosophy of Science A, first online 27 September
2018. doi:10.1016/j.shpsa.2018.09.007
 –––, and Justin Bruner, 2019. “Dynamics and Diversity in Epistemic
Communities,” Erkenntnis, 84: 1: 101–119.
 –––, and James Weatherall, 2017. “Scientific Polarization,” European Journal for
Philosophy of Science, 8(3): 855–75.
 Oreskes, Naomi, and Eric Conway, 2011. Merchants of Doubt, New York, NY:
Bloomsbury Press.
 Parker, Wendy, 2006. “Understanding Pluralism in Climate Modeling,” Foundations of
Science, 11(4): 349–368.
 –––, 2010. “Predicting Weather and Climate,” Studies in History and Philosophy of
Science (Part B), 41(3): 263–272.
 Peirce, Charles S., 1868. “Some Consequences of Four Incapacities,” Journal of
Speculative Philosophy, 2: 140–157; reprinted in C.S. Peirce, Selected Writings, Philip
Wiener (ed.), New York: Dover Publications, 1958, pp. 39–72.
 –––, 1878. “How to Make Our Ideas Clear,” Popular Science Monthly, 12: 286–302;
reprinted in C.S. Peirce, Selected Writings, Philip Wiener (ed.), New York: Dover
Publications, 1958, pp. 114–136.
 Pickering, Andrew, 1984. Constructing Quarks: A Sociological History of Particle
Physics, Edinburgh: Edinburgh University Press.
 Popper, Karl, 1950. The Open Society and its Enemies, Princeton: Princeton University
Press.
 –––, 1963. Conjectures and Refutations, London: Routledge and Kegan Paul.
 –––, 1972. Objective Knowledge, Oxford: Oxford University Press.
 Potter, Elizabeth, 2001. Gender and Boyle’s Law of Gases, Bloomington: Indiana
University Press.
 Raina, Rajeswari (ed.), 2015. Science, Technology, and Development in India:
Encountering Values, New Delhi: Orient Black Swan.
 Redish, A. David, Erich Kummerfeld, Rebecca Lea Morris, and Alan C. Love, 2018.
“Opinion: Why Reproducibility Failures Are Essential to Scientific Inquiry,” PNAS,
115(20): 5042–46.
 Rose, Hilary, 1983. “Hand, Brain, and Heart,” Signs, 9(1): 73–96.
 Rosenstock, Sarita, Justin Bruner, and Cailin O’Connor, 2017. “In Epistemic Networks,
Is Less Really More?” Philosophy of Science, 84: 324–52.
 Roth, Paul, 2003. “Kitcher’s Two Cultures,” Philosophy of the Social Sciences, 33(3):
386–405.
 Rouse, Joseph, 1987. Knowledge and Power: Toward a Political Philosophy of Science,
Ithaca: Cornell University Press.
 Rubin, Hannah, and Cailin O’Connor, 2018. “Discrimination and Collaboration in
Science,” Philosophy of Science, 85: 380–402.
 Rudner, Richard, 1953. “The Scientist Qua Scientist Makes Value
Judgments,” Philosophy of Science, 20(1): 1–6.
 Schmitt, Frederick, 1988. “On the Road to Social Epistemic Interdependence,” Social
Epistemology, 2: 297–307.
 Shapin, Steven, 1982. “The History of Science and Its Sociological
Reconstruction,” History of Science, 20: 157–211.
 –––, and Simon Schaffer, 1985. Leviathan and the Air Pump, Princeton: Princeton
University Press.
 Shrader-Frechette, Kristin, 1994. “Expert Judgment and Nuclear Risks: The Case for
More Populist Policy,” Journal of Social Philosophy, 25: 45–70.
 –––, 2002. Environmental Justice: Creating Equality; Reclaiming Democracy, New
York: Oxford University Press.
 Sober, Elliott, and David Sloan Wilson, 1998. Unto Others, Cambridge, MA: Harvard
University Press
 Solomon. Miriam, 1992. “Scientific Rationality and Human Reasoning,” Philosophy of
Science, 59(3): 439–54.
 –––, 1994a. “Social Empiricism,” Noûs, 28(3): 323–343.
 –––, 1994b. “A More Social Epistemology,” in Socializing Epistemology: The Social
Dimensions of Knowledge, Frederick Schmitt (ed.), Lanham: Rowman and Littlefield
Publishers, pp. 217–233.
 –––, 2001. Social Empiricism, Cambridge, MA: MIT Press.
 –––, 2006. “Groupthink versus The Wisdom of Crowds: The Social Epistemology of
Deliberation and Dissent,” The Southern Journal of Philosophy, XLIV: 28–42.
 –––, 2011. “Group Judgment and the Medical Consensus Conference,” Handbook of
the Philosophy of Science: Philosophy of Medicine, Fred Gifford (ed.), Amsterdam:
Elsevier, pp. 239–254.
 Spencer, Quayshawn, 2012. “What Biological Racial Realism Should
Mean” Philosophical Studies, 159: 181–204.
 –––, 2014. “Biological Theory and the Metaphysics of Race; A Reply to Kaplan and
Winther,” Biological Theory, 8: 114–120.
 Steele, Daniel and Kyle Whyte, 2012. “Environmental Justice, Values, and Scientific
Expertise” Kennedy Institute of Ethics Journal, 22(2): 163–182.
 Strevens, Michael, 2003. “The Role of the Priority Rule in Science,” Journal of
Philosophy, 100: 55–79.
 Tatsioni, Athina, with Nikolaos Bonitsis, and John Ioannidis, 2007. “The Persistence of
Contradicted Claims in the Literature,” Journal of the American Medical Association,
298(21): 2517–26.
 Thagard, Paul, 2012. The Cognitive Science of Science: Explanation, Discovery, and
Conceptual Change, Cambridge, MA: MIT Press.
 Traweek, Sharon, 1988. Beamtimes and Lifetimes: The World of High Energy
Physicists, Cambridge, MA: Harvard University Press.
 Uebel, Thomas, 2004. “Political Philosophy of Science in Logical Empiricism: The Left
Vienna Circle,” Studies in History and Philosophy of Science, 36: 754–773.
 van Fraassen, Bas, 2008. Scientific Representation, New York: Oxford University
Press.
 Welbourne, Michael, 1981. “The Community of Knowledge,” Philosophical Quarterly,
31(125): 302–314.
 Wilholt, Torsten, 2013. “Epistemic Trust in Science,” British Journal for the
Philosophy of Science, 24(2): 233–253.
 Winsberg, Eric, 2012. “Values and Uncertainties in the Predictions of global Climate
Models,” Kennedy Institute of Ethics Journal, 22(2): 111–137.
 –––, Bryce Huebner, and Rebecca Kukla, 2014. “Accountability and Values in
Radically Collaborative Research,” Studies in History and Philosophy of Science (Part
A), 46: 16–23.
 Winther, Rasmus Grønfeldt, forthcoming. When Maps Become the World, Chicago, IL:
University of Chicago Press.
 Wylie, Alison, 2002. Thinking from Things, Los Angeles: University of California
Press.
 Young, N.S., with John Ioannidis, O. Al-Ubaydli, 2008. “Why Current Publication
Practices May Harm Science,” Public Library of Science Medicine, 5(10): e201,
doi:10.1371/journal.pmed.0050201
 Zollman, Kevin, 2007. “The Communication Structure of Epistemic
Communities,” Philosophy of Science, 74: 574–87.
 –––, 2010. “The Epistemic Benefit of Transient Diversity,” Erkenntnis, 72(1): 17035.
 –––, 2013. “Network Epistemology: Communication in Epistemic
Communities,” Philosophy Compass, 8(1): 15–27

Further Reading
 Daston, Lorraine, and Peter Galison, 2010. Objectivity, Cambridge, MA: MIT Press.
 Elliott, Kevin, 2017. A Tapestry of Values: An Introduction to Values in Science,
Oxford: Oxford University Press.
 Fleck, Ludwig, 1973. The Genesis and Development of a Scientific Fact, Chicago:
University of Chicago Press.
 Hacking, Ian, 1999. The Social Construction of What?, Cambridge, MA. Harvard
University Press.
 Latour, Bruno, 2004. Politics of Nature: How to Bring the Sciences into Democracy,
Cambridge, MA: Harvard University Press.
 Levi, Isaac, 1980. The Enterprise of Knowledge, Cambridge, MA: MIT Press.
 Radder, Hans (ed.), 2010. The Commodification of Scientific Research, Pittsburgh, PA:
University of Pittsburgh Press.
 McMullin, Ernan (ed.), 1992. Social Dimensions of Scientific Knowledge, South Bend:
Notre Dame University Press.
 Sismondo, Sergio, 1996. Science Without Myth, Albany: State University of New York
Press.

You might also like