You are on page 1of 34

UNIVERSIDAD NACIONAL

“HERMILIO VALDIZÁN”

FACULTAD DE CIENCIAS MÉDICAS


E.A.P.: MEDICINA HUMANA

EPIDEMIOLOGÍA
DOCENTE: Dr. Miguel Ángel, PACO FERNÁNDEZ

ALUMNOS:
Ospino Martin, Luis Pedro

Pacheco Modesto, Iván

Sánchez Beteta, Marco Antonio

Fernández Chipana, Jorge Luis

Guerra Alvarado, Liliana Jackeline

Pajuelo Vargas, Jhosef

HUÁNUCO – PERÚ
CAUSALIDAD E INFERENCIA CAUSAL
Una comprensión rudimentaria de causa y efecto parecen ser adquiridos por la mayoría de la
gente por su cuenta mucho antes de lo que podría haber sido enseñadas por alguien más.
Incluso antes de que puedan hablar, muchos jóvenes entienden la relación entre el llanto y la
apariencia de un padre u otro adulto, y la relación entre esa apariencia y el de conseguir
lugar, o alimento. Un poco más tarde, van a desarrollar teorías sobre lo que ocurre cuando un
vaso de leche es derramado o entregado, y lo que sucede cuando un interruptor en la pared
es empujada desde una de sus posiciones de reposo a otro. Mientras que las teorías de este
tipo se están formulando, una teoría causal más general también se está formando. La teoría
más general postula que algunos eventos o estados de la naturaleza son causas de efectos
específicos. Sin una teoría general de causalidad, no habría ningún esquema en que colgar la
sustancia de muchas de las teorías causales específicas que uno necesita para sobrevivir.

Sin embargo, los conceptos de causalidad que fueron establecidas de manera temprana en la
vida son demasiado primitivos como para servir de base para las teorías científicas. Esta
deficiencia puede ser especialmente cierto en la salud y ciencias sociales, en los que las causas
típicas no son ni necesarios ni suficientes para producir efectos de interés. Por lo tanto, como
ha sido reconocido en la epidemiología, existe una necesidad de desarrollar un modelo
conceptual más refinado que puede servir como punto de partida en las discusiones sobre la
relación de causalidad. En particular, dicho modelo debe abordar los problemas de la relación
de causalidad multifactorial, la confusión, la interdependencia de los efectos, los efectos
directos e indirectos, los niveles de causalidad, y los sistemas o redes de la causalidad
(MacMahon y Pugh, 1967; Susser, 1973). En este capítulo se describe un punto de partida, el
modelo de causa suficiente-componente (o modelo de causa suficiente), que han demostrado
ser útiles en la aclaración de ciertos conceptos en los mecanismos individuales de la relación
de causalidad. El Capítulo 4 presenta el amplio uso de resultados potenciales o modelos
hipotéticos de causalidad, el cual es útil para relacionar niveles individuales a niveles
poblacionales de causalidad, mientras que el capítulo 12 introduce diagramas de modelos
causales (diagramas causales), que son especialmente útiles para ejemplificar sistemas
causales.

Salvo que se especifique lo contrario, a lo largo del libro vamos a suponer que la enfermedad
se refiere a un evento no recurrente, tal como la muerte o la primera aparición de una
enfermedad, y que el resultado de cada persona o unidad de estudio (por ejemplo, un grupo
de personas) no se vean afectadas por las exposiciones y los resultados de otros individuos o
unidades. Aunque este supuesto simplificará en gran medida nuestra discusión y es
razonable en muchas aplicaciones, no se aplica a los fenómenos contagiosos, tales como los
comportamientos y las enfermedades transmisibles. Sin embargo, todas las definiciones y la
mayoría de los puntos que hacen (especialmente respecto a la validez) se aplican de manera
más general. También es esencial para comprender las situaciones más simples antes de
abordar la complejidad creada por la interdependencia causal de las personas o unidades.

Un modelo de causas suficientes y causas componentes


Para empezar, necesitamos definir causa. Una definición de causa de la aparición de una
enfermedad específica se refiere a un evento antecedente, condición o característica que
fueron necesarios para la aparición de la enfermedad en el momento en que ocurrió, dado
que otras condiciones son fijas. En otras palabras, una de las causas de aparición de la
enfermedad es un evento, condición o característica que precedió a la aparición de la
enfermedad y que, si el evento, condición o característica estuvieron en momentos diferentes,
la enfermedad o no habría ocurrido en todos o no se hubieran producido hasta algún tiempo
después.

Bajo esta definición, si alguien camina por un camino de hielo cae y se rompe la cadera,
puede haber una larga lista de causas. Estas causas pueden incluir el tiempo en el día del
incidente, el hecho de que el camino no fue autorizado para los peatones, la elección del
calzado de la víctima, la falta de una barandilla, y así sucesivamente. La constelación de
causas necesarias para que esta persona en particular pueda romperse la cadera en ese
momento puede ser representada con el diagrama de causa suficiente en la Figura 2.1.
Entendemos por causa suficiente a un mecanismo causal complejo, un conjunto mínimo de
eventos y condiciones que son suficientes para que el resultado ocurra. El círculo en la figura
consta de cinco segmentos, cada uno de los cuales representa un componente causal que
deberán estar presentes u ocurrirán en orden para que la persona rompa su cadera en ese
instante. El primer componente, la etiqueta A, representa el mal tiempo. El segundo
componente, la etiqueta B, representa un camino no autorizado para los peatones. El tercer
componente, denominado C, representa una mala elección del calzado. El cuarto
componente, con la letra D, representa la falta de una barandilla. El ultimo componente,
llamado U, representa a todos los eventos no especificados, condiciones y características que
deben de estar presentes o se han producido a instancias de la caída que dio lugar a una
fractura de cadera. Para efectos etiológicos, tales como las causas de la enfermedad, muchos
y, posiblemente, todos los componentes de una causa suficiente puede ser desconocido
(Rothman, 1976a). Por lo general, incluyen un componente de la causa, con la etiqueta de U,
para representar el conjunto de factores desconocidos.

Todas las causas componentes son necesarios en la causa suficiente y deben de estar
presentes o haberse ocurrido en los casos en que se cayó la persona para romperse una
cadera. Ninguno está de más, lo que significa que al bloquear la contribución de cualquier
causa componente impide que la causa suficiente actúe. Para muchas personas, los principios
del pensamiento causal persisten en el intento de encontrar las causas individuales como
explicaciones para los fenómenos observados. Pero la experiencia y el razonamiento
demuestran que el mecanismo causal de ningún efecto debe consistir en una constelación de
componentes que actúan en concierto (Mill, 1862; Mackie, 1965). En la etiología de la
enfermedad, una causa suficiente es un conjunto de condiciones suficientes para garantizar
que el resultado se va a producir. Por lo tanto, completar una causa suficiente es equivalente a
la aparición de la enfermedad. El inicio aquí puede referirse a la aparición de las primeras
etapas del proceso de la enfermedad o para cualquier transición de una etapa bien definida y
se caracteriza fácilmente de un escenario a la siguiente, como la aparición de signos o
síntomas.

Figura 2-1 Representación • de la constelación de causas componentes que constituyen una causa sufic

Consideremos nuevamente el papel de la barandilla como causa de fractura de cadera. La


ausencia de una barandilla puede jugar un papel causal en algunas de las causas suficientes,
pero no en otros, dependiendo de las circunstancias como el clima, el nivel de ebriedad del
peatón, y un sinnúmero de otros factores. Nuestra definición vincula la falta de una
barandilla con esta cadera rota y no implica que la falta de esta barandilla por sí sola fue
suficiente para que la fractura de cadera se produzca. Con esta definición de la causa, los
eventos no específicos, las condiciones o características son suficientes por sí mismas para
producir la enfermedad. La definición no describe un mecanismo causal complejo, pero si un
componente de la misma. Decir que la ausencia de una barra es una causa componente de
una fractura de cadera no obstante, implica que cada persona que camina por el camino se
rompe una cadera. Tampoco implica que si una barra se instale con las características
suficientes como para impedir una fractura de cadera, y que nadie podría romperse una
cadera por el mismo camino. Puede haber otras causas suficientes por el cual una persona
podría sufrir una fractura de cadera. Cada causa suficiente podría estar representada por su
propio diagrama similar a la Figura 2-1. La primera de estas causas suficientes para ser
completado por la acumulación simultanea de todas sus causas componentes será la que
representa el mecanismo por el cual la fractura de cadera se produce para una persona en
particular. Si la causa suficiente no está completa, mientras que una persona pasa a lo largo
del camino, entonces no ocurrirá fractura de cadera a lo largo de ese paseo.

Como se señaló anteriormente, una característica de la concepción ingenua de la causalidad


es la asunción de una correspondencia uno a uno entre la causa y el efecto observado. Bajo
este punto de vista, cada causa se considera "necesario" y "suficiente" en sí mismo para
producir el efecto, especialmente cuando la causa es una acción observable o un evento que
tiene lugar cerca en el tiempo para ese efecto. Así, el accionar de un interruptor parece ser la
causa singular que hace que la luz eléctrica se active. Las causas son menos evidentes, sin
embargo, esto también operan para producir el efecto: una bombilla de trabajo en el artefacto
de iluminación, cableado desde el interruptor de la lámpara, y el voltaje para producir una
corriente cuando el circuito está cerrado. Para conseguir el efecto de encender la luz, cada uno
de estos componentes es tan importante como mover el interruptor, porque el cambio de
cualquiera de estos componentes de la constelación causal evitará el efecto. El termino causa
necesaria por lo tanto es reservado para un determinado tipo de causa componente bajo el
modelo de causa suficiente. Si alguna de las causas componentes aparecen en toda causa
suficiente, entonces esa causa componente es llamado causa componente "necesario". Para
que se produzca la enfermedad, todas las causas componente necesarias deberán estar
presentes o que ya se produjo. Por ejemplo, se podría designar una causa componente con el
requisito que uno debe tener una cadera a sufrir una fractura de cadera. Cada causa suficiente
que conduce a la fractura de cadera debe tener presente esa causa componente, porque en fin
para fracturar una cadera, uno debe tener una cadera sin fractura.

El concepto de causas componentes complementarios serán de utilidad en las siguientes


aplicaciones epidemiológicas. Para cada causa componente en una causa suficiente, el
conjunto de otras causas componentes en esa causa suficiente comprende las causas
componentes complementarias. Por ejemplo, en la figura 2.1, causa componente A (mal
tiempo) tiene como causa componente complementario los componentes con la etiqueta B, C,
D y U. la causa componente B (sin despejar una ruta para peatones) tiene como causas
componentes complementarios los componentes de la etiqueta A, C, D y U.

La necesidad para una condición de referencia específica

Las causas componentes debe ser definida con respecto a una alternativa claramente
especificada o una condición de referencia (a menudo llamado referente). Considere
nuevamente la falta de una barandilla a lo largo del camino. Para Decir que esta condición es
una causa componente de la fractura de cadera, tenemos que especificar nuevamente una
condición alternativa con el cual contrastar la causa. La mera presencia de una barandilla no
sería suficiente. Después de todo, la fractura de cadera aún podría haber ocurrido en la
presencia de una barandilla, si la barandilla era demasiado corto o si era viejo y de madera
podrida. Sería necesario especificar la presencia de una barandilla lo suficientemente alta y
fuerte como para romperse al caer por la ausencia de esa barandilla para ser una causa
componente de la fractura de cadera.

Para ver la necesidad de especificar el evento, condición o característica alternativa, así como
la primera causa, considere un ejemplo de un hombre que consume altas dosis de ibuprofeno
por varios años y desarrollo una úlcera gástrica. ¿El uso de ibuprofeno causó la úlcera? Uno
podría asumir que en un primer momento la diferencia natural sería con lo que habría
sucedido si no hubiera tenido nada en lugar de ibuprofeno. Dada una fuerte razón para
tomar el ibuprofeno, sin embargo, esta alternativa puede no tener sentido. Si como alternativa
a tomar ibuprofeno podría tomar acetaminofén, un medicamento diferente que podría haber
sido indicado para su problema, y si no hubiera desarrollado la úlcera habría utilizado el
acetaminofen, entonces podemos decir que el uso de ibuprofeno causa la úlcera. Sin embargo,
el ibuprofeno no causaría

la úlcera si la alternativa hubiese sido aspirina y, de haber tomado aspirina, aún se habría
desarrollado la úlcera. La necesidad de especificar la alternativa a una prevención se ilustra
con un titulo de periódico que decía: " Rare Meat Cuts Colon Cáncer Risk" ¿Fue esto un
artículo de un estudio epidemiológico comparando la tasa de cáncer de colon de un grupo de
personas que comieron carne roja raras con la tasa en un grupo de vegetarianos? No, el
estudio comparó las personas que consumían carne roja poco común con las personas que
consumían carne roja muy cocida. La misma exposición, el consumo regular de carne roja
poco común, podría tener un efecto preventivo cuando se compara contra la carne muy
cocinada, y un efecto causal o ningún efecto en contraste con una dieta vegetariana. Un
evento, condición o característica no es una causa por sí misma como una propiedad
intrínseca que esta posee de forma aislada, sino como parte de un contraste de causalidad con
un evento alternativo, condición o característica (Lewis, 1973; Rubin, 1974; Groenlandia y
otros., 1999a; Maldonado y Groenlandia, 2002).

Aplicación del Modelo causa suficiente en epidemiología

La introducción que precede a los conceptos de causa suficiente y causa componente


proporciona el léxico para la aplicación del modelo en la epidemiología. Por ejemplo, el
consumo de tabaco es una causa de cáncer de pulmón, pero por sí mismo no es causa
suficiente, como lo demuestra el hecho de que la mayoría de los fumadores no desarrollan
cáncer de pulmón. En primer lugar, el hábito a largo plazo es demasiado impreciso para ser
útil más allá de la descripción informal. Primero se debe especificar el tipo de tabaco (por
ejemplo, cigarrillos, puros, pipa, o ambientales), ya sea con o sin filtro, la forma y frecuencia
de la inhalación, la edad de inicio, y la duración del hábito de fumar. Sin embargo el tabaco se
debe de definir adecuadamente, su alternativa de necesidad debe de ser definida como tal.
¿El que no fumar en absoluto, fumar menos, fumar algunas veces más? Es Igualmente
importante, incluso si el tabaquismo y sus alternativas son ambas definidas explícitamente,
fumar no causa cáncer en todo el mundo. Entonces, ¿quién es susceptible a este efecto de
fumar? O, para decirlo en otros términos, ¿cuáles son los otros componentes de la
constelación causales que actúan con el tabaco para producir cáncer de pulmón?

Figura 2-2 proporciona un esquema grafico de las tres causas suficientes que podrían ser
completados durante el seguimiento de un individuo. Las tres condiciones o eventos A, B y E,
se han definido como variables binarias, por lo que sólo puede tomar valores de 0 o 1. Con la
codificación de A utilizado en la figura, su nivel de referencia, A = 0, a veces es causal, pero
su nivel de índice, A = 1, nunca es causal. Esta situación surge porque dos causas suficientes
contienen una causa componente etiquetado como "A = 0," pero la causa suficiente no
contiene una causa componente etiquetado como "A = 1". Un ejemplo de una condición o
evento de este tipo podría ser A = 1 para los que toma suplemento multivitamínico diario y A
= 0 para los que no toman suplementos vitamínicos. Con la codificación de B y E utilizado en
el ejemplo representado en la figura 2-2, los niveles de índice, B = 1 y E = 1, a veces son
causales, pero sus niveles de referencia, B = 0 y C = 0, no son causales. Para cada variable, los
niveles de índice y referencia pueden representar solo dos estados alternativos o eventos
fuera de las muchas posibilidades. Por lo tanto, la codificación de B puede ser B = 1 para
fumar 20 cigarrillos por día durante 40 años y B = 0 para fumar 20 cigarrillos por día durante
20 años, seguido de 20 años de no fumar. E podría ser codificada E = 1 para vivir en un barrio
urbano con bajos ingresos promedio y la desigualdad de ingresos altos, y E = 0 para vivir en
un barrio urbano de altos ingresos promedio y la desigualdad de ingresos bajos.

A = 0, B = 1, y E = 1 son causas componentes individuales de las causas suficientes en la


Figura 2-2. U1, U2, U3 y representan conjuntos de causas componentes. U1, por ejemplo, es el
conjunto de todos los demás componentes de A = 0 y B = 1 requeridos para completar la
primera causa suficiente en la Figura 2-2. Si decidimos no especificar B = 1, entonces B = 1
pasaría a formar parte del conjunto de componentes que son causalmente complementario a
A = 0, es decir, B = 1, podrían entonces sería absorbido por U1.

Cada una de las tres causas suficientes representado en la figura 2-2 es mínimamente
suficiente para producir la enfermedad en el individuo. Es decir, sólo uno de estos
mecanismos necesitan estar presentes para que se produzca la enfermedad (suficiencia), y no
hay causa componentes superfluos en cualquier mecanismo (minimalidad), cada componente
es una parte necesaria de ese mecanismo causal específico. Una causa componente especifico
pueden desempeñar un papel en uno, varios o todos los mecanismos causales. Como se
señaló anteriormente, una causa componente que aparece en todas las causas suficientes es
llamada una causa necesaria de los resultados. A modo de ejemplo, la infección por el VIH es
un componente de cada causa suficiente del síndrome de inmunodeficiencia adquirida
(SIDA) y por lo tanto es una causa necesaria del SIDA. Se ha sugerido que tales causas se
llamen "universalmente necesario," en reconocimiento de que todos los componentes de una
causa suficiente es necesario para que una causa suficiente (mecanismo) pueda operar (Poole,
2001a).

U1 U2 U3

A=0
CAUSAS SUFICIENTESB=1 A=0 E=1 B=0 E=1

Figura 2-2 tres clases de causas suficientes de una enfermedad (causas suficientes I, II, Y III de izquierda a derecha).
Figura 2-2 no representa los aspectos del proceso causal como la secuencia o el tiempo de
acción de las causas componentes, la dosis, o de otras complejidades. Estos pueden ser
especificados en la descripción del cambio de las condiciones y el índice de referencia que
define cada causa componente. Por lo tanto, si el resultado es el cáncer de pulmón y el factor
B representa el tabaquismo, podría ser definido de manera más explícita como fumar por lo
menos 20 cigarrillos al día de cigarrillos sin filtro por lo menos 40 años a partir de los 20 años
o antes (B = 1) o fumar 20 cigarrillos al día de cigarrillos sin filtro, a partir de los 20 años o
antes, y después de no fumar cigarrillos durante los próximos 20 años (B = 0).

Al especificar una causa de componentes, los dos lados de la causal de cambio que lo
componen deben ser definidos con un ojo a las opciones realistas u opciones. Si prescribir un
placebo no es una opción realista terapéutica, un contraste de causalidad entre un nuevo
tratamiento y un placebo en un ensayo clínico puede ser cuestionado por su dudosa
relevancia para la práctica médica.

De manera similar, antes de decir que los anticonceptivos orales aumentan el riesgo de
muerte de más de 10 años (por ejemplo, a través de infarte de miocardio o accidente
cerebrovascular), debemos considerar la alternativa de tomar anticonceptivos orales.

Si se trata de quedar embarazada, entonces el riesgo de muerte a la asistencia de parto podría


ser mayor que el riesgo de los anticonceptivos orales, por lo que los anticonceptivos orales es
preventivo más que una causa. Si la alternativa es un anticonceptivo igualmente eficaz, sin
efectos secundarios graves, a continuación, los anticonceptivos orales puede ser descrito
como una de las causas de la muerte.

Para entender la prevención en el marco de una causa suficiente de componente, planteamos


que la condición alternativa (en el que una causa componente está ausente) evita los
resultados relativos a la presencia de la causa componentes. Por lo tanto, un efecto preventivo
de un factor está representado mediante la especificación de su alternativa causal como la
causa componente. Un ejemplo es la presencia de A = 0 como una causa de componentes en
las dos primeras causas suficientes muestra en la Figura 2-2. Otro ejemplo podría ser la
definición de una variable, F (no representado en la figura. 2-2), ya que "la vacunación (F = 1)
o la no vacunación, (F = 0)". La Prevención de la enfermedad por vacunarse (F = 1) se expresa
en el modelo causa suficiente de componentes, como causal de la enfermedad al no recibir la
vacuna (F = 0). Esta descripción no es problemático, porque, una vez que ambos lados de un
contraste de causalidad se han especificado, la causalidad y la prevención son simplemente
dos caras de una misma moneda.
Sheps (1958) una vez le preguntó: "¿Vamos a contar con los vivos o los muertos?" La muerte
es un acontecimiento, pero la supervivencia no lo es. Por lo tanto, utilizar el modelo de causa
suficiente de componentes, debemos contar los muertos. Esta restricción del modelo puede
tener consecuencias sustanciales. Por ejemplo, algunas medidas y otras fórmulas
aproximadas sólo se utilizan cuando los resultados son poco frecuentes. Cuando la
supervivencia es poco común, la muerte es común. En ese caso, el uso del modelo de causa
suficiente de componentes para informar el análisis nos impiden aprovechar los resultados de
las aproximaciones raras.

Del mismo modo, las etiologías de los resultados adversos para la salud que son condiciones
o estados, pero no eventos, deben de ser representados en el modelo de suficiente causa por
la inversión de la codificación de los resultados. Considerar la posibilidad de espina bífida, el
cual es un fracaso completo en el cierre del tubo neural durante la gestación. Allí no esta el
momento en el que la espina bífida pueda ser marcada para haber tenido su ocurrencia. Sería
difícil de definir el "tiempo de incidencia" de la espina bífida como la edad gestacional en la
que el cierre completo del tubo neural se produce normalmente. El modelo de causa
suficiente de componentes sería más adecuado en este caso para definir el caso de cierre total
(sin espina bífida) como el resultado y ver las condiciones, eventos, y las características que
previenen este evento benéfico como las causas de las condiciones adversas de espina bífida.

Probabilidad, Riesgo y Causas

En el lenguaje cotidiano, el "riesgo" se utiliza a menudo como sinónimo de probabilidad.


También es de uso común como sinónimo de "riesgo", como en, "Vivir cerca de una planta de
energía nuclear es un riesgo que se debería evitar."Desafortunadamente, en la jerga
epidemiológica, incluso en la literatura académica, "riesgo" se utiliza con frecuencia para
muchos conceptos distintos: tasa, tasa de proporción de la tasa, razón de riesgo, las
probabilidades de incidencia, prevalencia, etc

La definición más específicos, y por lo tanto, más útil, de riesgo es "la probabilidad de un
evento durante un período de tiempo determinado."

El término probabilidad tiene significados múltiples. Una de ellas es la relativa frecuencia de


un evento. Otra es que la probabilidad es la tendencia o propensión, de una entidad para
producir un evento. Un tercer significado es el grado de probabilidad de que alguien mida el
grado de seguridad de que ocurra un evento. Cuando uno dice "la probabilidad de muerte en
accidentes vehiculares cuando se viaja a más de 120 km / h es alta," significa que la
proporción de accidentes que terminan con muertes es mayor cuando se refieren a los
vehículos que circulen a > 120 km / h que cuando se refieren a los vehículos viajando a más
bajas velocidades (de uso de frecuencias), que los accidentes de alta velocidad tienen una
mayor tendencia que los accidentes de baja velocidad como resultado de las muertes (el uso
de tendencia), o que el altavoz es más seguro que una muerte se producirá en un accidente de
alta velocidad que en un accidente de menor velocidad (uso de certeza).
El uso de frecuencias de, probabilidad, y riesgo, a diferencia de los usos de propensión y
certeza, no admite ningún significado a la noción de, “riesgo” para un individuo más allá de
la frecuencia relativa de 100% si se produce el evento y 0% si no lo hace. Esta restricción de
los riesgos individuales a 0 o 1 sólo puede hacerse más flexible para permitir que los valores
en el medio de la reinterpretación de las declaraciones tales como la frecuencia con la que se
vería en el muestreo aleatorio de una población muy grande de individuos considerados,
“como”, la persona de alguna manera (por ejemplo, de la misma edad, sexo y antecedentes de
tabaquismo). Si se acepta esta interpretación, si cualquier muestra actual tiene una conducta
o no la noción de riesgo individual es reemplazada por la noción de frecuencia del evento in
cuestión en la gran población de la que el individuo fue muestreado. Con este punto de vista
del riesgo, un riesgo cambiará de acuerdo a como nos agrupamos para evaluar las
frecuencias. Juicio subjetivo inevitablemente entran en el cuadro para decidir qué
características utilizar para la agrupación. Por ejemplo, el consumo de tomate debe tenerse en
cuenta en la definición de la clase de hombres que son, “como”, ¿un hombre dado a los
efectos de determinar su riesgo de un diagnóstico de cáncer de próstata entre el 60 y 70 años?
Si es así, que estudio o meta-análisis se debe utilizar como factor en esta información?

A menos que hemos encontrado un conjunto de condiciones y eventos en los que la


enfermedad no se produce en todos, siempre es una hipótesis de trabajo razonable que, no
importa cuánto se sabe acerca de la etiología de una enfermedad, algunos de los componentes
causales siguen siendo desconocidos. Podemos estar dispuestos a asignar un riesgo igual a
todos los individuos cuyo estado de algunos componentes es conocido e idéntico. Podemos
decir, por ejemplo, que los hombres quienes son grandes fumadores de cigarrillos tienen
aproximadamente un 10% de riesgo de desarrollar cáncer al pulmón. Algunos interpretan
esta afirmación como que todo hombre debería tener un 10% de probabilidad de cáncer de
pulmón si ellos tuvieron el habito de fumar, como si la aparición de cáncer de pulmón,
además de fumar, son puramente una cuestión de azar. Esta opinión es insostenible. Una
probabilidad puede ser 10% condicional en una información y superior o inferior al 10%, si
nos condicionan sobre otra información pertinente. Por ejemplo, los hombres quienes son
grandes fumadores y que trabajaron durante muchos años en ocupaciones con historiales de
altos nivel de exposición a las fibras de asbesto en el aire, se podría decir que tiene un alto
riesgo de cáncer de pulmón superior al 10% durante su vida.

Independientemente, si se interpreta la probabilidad como frecuencia relativa o el grado de


certeza, la asignación de la igualdad de los riesgos simplemente refleja la agrupación en
particular. En nuestra ignorancia, lo mejor que podemos hacer en la evaluación del riesgo
consiste en clasificar a las personas de acuerdo con los indicadores de riesgo medido y luego
asignar el riesgo promedio observado dentro de una clase a las personas dentro de la clase.
Como el conocimiento o la especificación de indicadores de riesgo adicionales se expanden,
las estimaciones de riesgo asignado a la gente saldrán a la media según la presencia o
ausencia de otros factores que predicen el resultado.

La fuerza de los efectos

El modelo causal ejemplificado en la figura 2.2 puede facilitar la comprensión de algunos


conceptos clave como la fuerza del efecto y la interacción. Como ejemplo de la fuerza del
efecto, la tabla 2-1 muestra la frecuencia de los ocho posibles patrones de exposición a A, B y
E en dos poblaciones hipotéticas. Ahora los gráficos circulares en la Figura 2.2 representan las
clases de mecanismos. La primera de ellas, por ejemplo, representa a todas las causas
suficientes de que, no importa qué componente sean esas otras causas que pueden tener en
común el hecho de que contienen A = 0 y B = 1. Los componentes de U1 puede, y
normalmente, difieren de un individuo a otro. Para simplificar, vamos a suponer, más bien
poco realista, que U1, U2, U3, están siempre presentes y siempre han ocurrido por todo el
mundo y en la Figura 2.2 representa todas las causas suficientes.

Tabla 2-1 Exposición de frecuencias y riesgos individuales en dos poblaciones hipotéticas de


acuerdo a las combinaciones posibles de las tres causas componentes especificadas en la
figura 2-1

Exposición Causa suficiente Frecuencia de exposición


A B E completada Riesgo Población Población
1 2
1 1 1 III 1 900 100
1 1 0 Ninguno 0 900 100
1 0 1 Ninguno 0 100 900
1 0 0 Ninguno 0 100 900
0 1 1 I, II ó III 1 100 900
0 1 0 I 1 100 900
0 0 1 II 1 900 100
0 0 0 Ninguno 0 900 100

Tabla 2-2 Proporción de incidencia (IP) por combinaciones de causas componente B y E en la


población hipotética 1, asumiendo que la causa componente A no es medible.
B=1, E=1 B=1, E=0 B=0, E=1 B=0, E=0
Casos 1,000 100 900 0
Total 1,000 1,000 1,000 1,000
IP 1.00 0.10 0.90 0.00

Tabla 2-3 Proporción de incidencia (IP) por combinaciones de causas componente B y E en la


población hipotética 2, asumiendo que la causa componente A no es medible.

B=1, E=1 B=1, E=0 B=0, E=1 B=0, E=0


Casos 1,000 900 100 0
Total 1,000 1,000 1,000 1,000
IP 1.00 0.90 0.10 0.00

Bajo estos supuestos, la respuesta de cada individuo con el modelo de exposición en una fila
determinada se puede encontrar en la columna de respuesta. La respuesta aquí es el riesgo de
desarrollar una enfermedad durante un período de tiempo determinado que es el mismo para
todas las personas. Para simplificar, un modelo determinista de riesgo se emplea, de manera
que los riesgos individuales puede ser igual a sólo el valor 0 o 1, y no los valores en el medio.
Un modelo estocástico de riesgo individual se relajaba esta restricción y permitir que los
riesgos individuales que se encuentran entre 0 y 1.

La proporción de conseguir una enfermedad, o la proporción de incidencia, en cualquier


subpoblación en la Tabla 1.2 se puede encontrar sumando el número de personas en cada
modelo de exposición a un riesgo individual de 1 y dividiendo ese total por el tamaño de
subpoblación. Por ejemplo, si la exposición A no se considera (por ejemplo, si no se mide), el
patrón de proporciones de incidencia en la población 1 serán los que en la Tabla 2-2.

Como un ejemplo de cómo las proporciones en la Tabla 2.2 se calcularon, vamos a revisar
cómo la proporción de incidencia entre las personas en la población 1 con B = 1 y E = 0 se
calculó: Hubo 900 personas con A = 1, B = 1 , y E = 0, ninguno de los cuales se convirtió en los
casos ya que no existen causas suficientes de que puede culminar en la aparición de la
enfermedad durante el período de estudio en las personas con esta combinación de
condiciones de exposición. (Hay dos causas suficientes que contienen B = 1 como una causa
de componentes, pero uno de ellos contiene la causa componente A = 0 y la otra contiene el
componente de causa E = 1. La presencia de A = 1 o E = 0 bloquea estos mecanismos
etiológicos.) Había 100 personas con A = 0, B = 1, y E = 0, todos los cuales se convirtió en los
casos ya que todos ellos habían U1, el conjunto de complementos causales para la clase de
causas suficientes que contengan A = 0 y B = 1. Así, entre las 1.000 personas con B = 1 y E = 0,
había 100 casos, una proporción de incidencia de 0,10.
Si tuviéramos que medir la fuerza del efecto por la diferencia de las proporciones de
incidencia, se desprende de la Tabla 2.2 que para la población 1, E = 1 tiene un efecto mucho
más fuerte que B = 1, ya que E = 1 aumenta la proporción de incidencia un 0,9 (en ambos
niveles de B), mientras que B = 1 aumenta la proporción de incidencia de sólo el 0,1 (en
ambos niveles de E). Tabla 2-3 muestra los resultados análogos para la población 2. Aunque
los miembros de esta población tienen exactamente los mismos mecanismos causales que
operan dentro de ellos al igual que los miembros de la población 1, la fuerza relativa de los
factores causales E = 1 y B = 1 se invierten, de nuevo mediante la diferencia de proporción de
incidencia como la medida de fuerza . B = 1 ahora tiene un efecto mucho más fuerte en la
proporción de incidencia que E = 1, a pesar del hecho de que A, B y E no tienen ninguna
relación entre sí, ya sea en la población y sus niveles de índice (A = 1, B = 1 y E = 1) y niveles
de referencia (A = 0, B = 0, y E = 0) están presente en cada uno son cada uno presente o han
producido exactamente a la mitad de cada población.

La diferencia global de proporciones de incidencia en contraste con E = 1 E = 0 es (1,900 /


2,000) - (100 / 2,000) = 0,9 en la población 1 y (1100 / 2000) - (900 / 2,000) = 0,1 en la población
2. La diferencia clave entre las poblaciones 1 y 2 es la diferencia en la prevalencia de las
condiciones en que E = 1 actúa para aumentar el riesgo: es decir, la presencia de A = 0 o B = 1,
pero no ambas. (Si A = 0 y B = 1, E = 1 de completar las tres causas suficientes en la figura 2.2,
sino que por lo tanto no aumenta el riesgo de cualquier persona, aunque es muy posible
acortar el tiempo de los resultados.) La prevalencia de la enfermedad, "A = 0 o B = 1, pero no
tanto" es de 1.800 / 2.000 = 90% en ambos niveles de E en la población 1. En la población 2,
esta prevalencia está a sólo 200 / 2.000 = 10% en ambos niveles de E. Esta diferencia en la
prevalencia de las condiciones suficientes para E = 1 para aumentar el riesgo explica la
diferencia en la intensidad del efecto de E = 1, medida por la diferencia en las proporciones
de incidencia.

Como se señaló anteriormente, el conjunto de todas las demás causas en el cual el factor
causal que participa es el llamado complemento causal del factor. Por lo tanto, A = 0, B = 1,
U2, U3 constituyen el complemento causal de E = 1 en el ejemplo anterior. Este ejemplo
muestra que la fuerza del efecto de un factor en la aparición de una enfermedad en una
población, medida como la diferencia absoluta en las proporciones de incidencia, depende de
la prevalencia del complemento causal. Esta dependencia no tiene nada que ver con el
mecanismo etiológico de la acción del componente, ya que el componente es igual en cada
mecanismo en el que aparece. Sin embargo, un factor que parece tener un fuerte efecto, según
lo medido por la diferencia de proporciones contraer la enfermedad, si es complemento
causal es común. Por el contrario, un factor con complemento causal tato parecen tener un
efecto débil.

Si la fuerza del efecto es medida por el cociente de las proporciones que consiguen
enfermedad, en comparación con la diferencia, después la fuerza depende más que un factor
complemento causal. En particular, depende, adicionalmente en como de cómo los
componente comunes o raros son causas suficientes en el cual cada causal especifico no juega
un rol importante. En este ejemplo, dada la ubicuidad de U1, el efecto de E = 1 se mide en
términos de relación de la prevalencia de E = 1 de complemento causal y sobre la prevalencia
de la conjunción de A = 0 y B = 1. Si muchas personas tienen tanto A = 0 y B = 1, la "línea de
base" proporción de incidencia (es decir, la proporción de no-E o "no expuesto" las personas
de contraer la enfermedad) será alta y proporción de contraer la enfermedad debido a E será
comparativamente baja. Si pocas personas tienen tanto A = 0 y B = 1, la línea de incidencia
proporcional será baja y la proporción contraer enfermedad debido a E = 1 será
comparativamente alto. Así, la fuerza del efecto medida por el cociente de la proporción de la
incidencia depende de más condiciones que la fuerza del efecto medida por la diferencia de la
proporción de la incidencia.

Independientemente de cómo la fuerza del efecto de un factor causal es medido, la


importancia para la salud pública de ese efecto no implica un grado correspondiente de
significado etiológico. Cada causa componente en una suficiente causa dada tiene la misma
significación etiológica. Dado un mecanismo causal específico, alguna de las causas
componente puede tener efectos fuertes o débiles utilizando la diferencia o medida de razón.
La identidad real de los componentes de una causa suficiente forman parte de los
mecanismos de la relación de causalidad, mientras que la fuerza del efecto de un factor
depende de la distribución del tiempo específico de su complemento causal (si la fuerza se
mide en términos absolutos), además de la distribución de la componentes de todas las
causas suficientes en los que el factor no juega un papel (si la fuerza se mide en términos
relativos). Durante un lapso de tiempo, la fuerza del efecto de un factor dado en la aparición
de la enfermedad puede cambiar debido a la prevalencia de sus causales se complementan en
varios mecanismos también pueden cambiar, aunque los mecanismos causales en las que el
factor y su acto de co-factores permanecen inalterados.

La interacción entre las causas

Dos causas componentes que actúan en la misma causa suficiente se puede definir como la
interacción causal para producir la enfermedad. Esta definición deja abierta muchos
mecanismos posibles para la interacción, incluyendo aquellos en los que dos componentes
interactúan de una manera física directa (por ejemplo, dos medicamentos que reaccionan para
formar un sub-producto tóxico) y aquellos en los que un componente (el iniciador de la
pareja) altera un sustrato para que el otro componente (el promotor de la pareja) puede
actuar. No obstante, queda excluida cualquier situación en la que un componente E es más
que una causa de otro componente F, sin ningún efecto de E en la enfermedad, sino por el F
componente que causa.

Actuando en la misma causa suficiente no es lo mismo como causa de un componente que


actúa para producir una segunda causa componente, a continuación, el segundo componente
va a producir la enfermedad (Robins y Groenlandia 1992, Kaufman et al., 2004). Como
ejemplo de la distinción, en caso de consumo de cigarrillos (frente a no fumadores) es una
causa componente de la aterosclerosis, y la aterosclerosis (frente a la no aterosclerosis) causa
un infarto de miocardio, tanto fumar y aterosclerosis sería causas componentes (cofactores)
en determinadas causas suficientes de infarto de miocardio. Ellos no necesariamente aparecen
en la misma causa suficiente. Más bien, por una participación de una causa suficiente de la
aterosclerosis como causa componentes, habría otra causa suficiente en el que se sustituye la
causa componente de la aterosclerosis por todos los que componen las causas que llevaron a
la aterosclerosis, como el tabaquismo. Por lo tanto, una relación causal entre el tabaquismo
secuencial y la aterosclerosis no sería suficiente para que puedan interactuar sinérgicamente
en la etiología del infarto de miocardio, en el sentido suficiente por cualquier causa. En
cambio, la secuencia causal significa que el fumar puede actuar indirectamente, a través de la
aterosclerosis, para lograr un infarto de miocardio.

Supongamos ahora que, tal vez, además del mecanismo anterior, el tabaquismo reduce el
tiempo de coagulación y por lo tanto hace que los trombos que obstruyen las arterias
coronarias se estrecha por la aterosclerosis. Este mecanismo estaría representado por una
causa suficiente que contienen tanto el tabaquismo y la aterosclerosis como componentes y
por lo tanto constituiría una interacción sinérgica entre el tabaquismo y la aterosclerosis como
causa de infarto de miocardio. La presencia de esta causa no suficiente, sin embargo, nos
dicen si el fumar también contribuyó al infarto de miocardio, causando la aterosclerosis. Así,
el modelo básico suficiente causa no nos alertan sobre los efectos indirectos (efectos de algún
componente causas mediadas por causas otro componente en el modelo). Los capítulos 4 y 12
introducen potencial de resultados y modelos de gráfica más adecuada para mostrar los
efectos indirectos y una secuencia más general del, mientras que el capítulo 5 se analiza en
detalle la interacción tal como se define en el marco de potencial de resultados y su relación
con la interacción tal como se define en la modelo causa suficiente.

Proporción de la enfermedad debido a causas específicas

En la figura 2.2, suponiendo que las tres causas suficientes en el diagrama de funcionamiento
son los únicos, ¿qué fracción de la enfermedad es causada por E = 1? E = 1 es una causa
componente de la enfermedad en dos de los suficientes mecanismos de causa, II y III, por lo
que todas las enfermedades que surgen a través de cualquiera de estos dos mecanismos se
puede atribuir a E = 1. Tenga en cuenta que en las personas con la exposición patrón A = 0, B
= 1, E = 1, las tres causas suficientes se completaría. El primero de los tres mecanismos para
completar sería el que realmente produce un caso determinado. Si el mecanismo es el
primero en ser completada, sin embargo, E = 1 no sería parte de la causa suficiente para
producción de ese caso. Sin saber los tiempos determinados de los tres mecanismos, entre las
personas con la exposición patrones A = 0, B = 1, E = 1 nosotros no podemos decir cuántos de
los 100 casos en la población de 1 o 900 casos de la población 2 son etiológicamente atribuible
a E = 1.

Cada uno de los casos que es etiológicamente atribuibles a E = 1 también se puede atribuir a
las causas de otro componente en los mecanismos causales en la que E = 1 actúa. Cada
componente causa interacciones con sus factores complementarios para producir la
enfermedad, por lo que cada caso de enfermedad puede ser atribuido a cada componente de
la causa en la causa suficiente completado. Tenga en cuenta, sin embargo, que las fracciones
atribuibles agregado a través de causas componentes de la misma enfermedad no suman 1,
aunque existe una tendencia errónea a pensar que lo hacen. Para ilustrar el error en esta
tendencia, tenga en cuenta que una de las causas componente necesario aparece en todas las
causas suficientes completado de la enfermedad, por lo que por sí mismo tiene una fracción
atribuible de 1, sin contar las fracciones atribuibles a otra causas componente. Debido a que
todos los casos de la enfermedad pueden ser atribuidos a cada componente de la causa en su
mecanismo causal, fracciones atribuibles a diferentes causas componentes en general, se
sumarán a más de uno, y no hay límite superior de esta suma.

Un reciente debate sobre la proporción de factores de riesgo para enfermedad coronaria


atribuible a causas componente particular ilustra el tipo de errores en la inferencia que
pueden surgir cuando la suma se cree que se reduciría a 1. El debate se centra en torno a si la
proporción de la enfermedad coronaria atribuible al colesterol alto, presión arterial alta y
fumar cigarrillos es igual a 75% "sólo el 50%" (Magnus y Beaglehole, 2001). En el primer caso,
a continuación, algunos han argumentado que la búsqueda de causas adicionales serían de
utilidad limitada (Beaglehole y Magnus, 2002), ya que sólo el 25% de los casos "aún no se
explica." Si se asume que la proporción se explica por el componente aún desconocido las
causas no puede superar el 25%, los que apoyan esta afirmación no reconocen que los casos
causados por una causa suficiente que contiene un subconjunto de las tres causas nombradas
podría también contener causas componentes desconocidas. Los casos se derivan de causas
suficientes con este conjunto de superposición de causas componentes podrían prevenirse
mediante intervenciones dirigidas a las tres causas nombradas, o por las intervenciones
dirigidas a las causas aún desconocidas cuando ellas llegan a ser conocidas. Las
intervenciones de este último podría reducir la carga de enfermedad por más de 25%.

Como otro ejemplo, en una cohorte de fumadores de cigarrillos expuestos al arsénico,


trabajando en una fundición, se estima que el 75% de la tasa de cáncer de pulmón es
atribuible a su entorno de trabajo y se estima que 65% se debió a su hábito de fumar (Pinto et
al. 1978; Hertz-Picciotto et al, 1992).. No hay ningún problema con estas cifras, que se limita a
reflejar la etiología multifactorial de la enfermedad. Así, también, con enfermedad coronaria,
si el 75% de esa enfermedad es atribuible al colesterol alto, presión arterial alta y el
tabaquismo, el 100% de los que todavía pueden ser atribuibles a otras causas, se sabe,
sospecha, y aún no se descubre. Algunas de estas causas participará en los mecanismos
causales igual que el colesterol alto, presión arterial alta y el tabaquismo. Beaglehole y
Magnus eran correctos en el pensamiento de que si las tres causas componentes especificadas
se combinan para explicar el 75% de las enfermedades cardiovasculares (ECV) y que de
alguna manera los eliminó, no sería sólo el 25% de los casos de ECV restantes. Pero hasta que
el 75% se elimina cualquier componente recién descubierto podría causar hasta 100% de las
enfermedades cardiovasculares que actualmente tenemos.

La idea de que las intervenciones dirigidas a niveles altos de colesterol, presión arterial alta y
el tabaquismo podría eliminar el 75% de la enfermedad cardíaca coronaria es irreal, dado las
estrategias de intervención disponibles en la actualidad. Aunque se puede avanzar para
reducir el efecto de estos factores de riesgo, es poco probable que alguno de ellos podría ser
erradicado por completo de cualquier gran población en el corto plazo. Las estimaciones del
efecto sobre la salud pública de la eliminación de las enfermedades propias como las causas
de la muerte (Murray et al., 2002) son aún más alejada de la realidad, porque no toman en
cuenta todos los efectos de las intervenciones necesarias para lograr la eliminación de la
enfermedad, incluyendo efectos colaterales no previstos (Groenlandia, 2002a, 2005a).

El debate acerca de la atribución de enfermedades coronarias del corazón a causa de


componentes es una reminiscencia de un debate anterior sobre las causas de cáncer. En su
trabajo ampliamente citado, las causas del cáncer, Doll y Peto (1981, cuadro 20) crearon un
cuadro dando sus estimaciones de la fracción de todos los cánceres causados por diversos
agentes. Las fracciones que suman casi el 100%. Aunque los autores reconocieron que
cualquier caso podría ser causada por más de un agente (lo que significa que, dado
suficientes agentes, las fracciones atribuibles se suma a más de 100%), se refirieron a esta
situación como una "crisis" y una "anomalía "que decidió ignorar. Posteriormente, uno de los
autores reconocieron que la fracción atribuible podrían sumar más de 100% (Peto, 1985). No
es ni una crisis ni una anomalía, ni algo que nosotros podamos ignorar, sino simplemente una
consecuencia del hecho de que ningún caso tiene un agente único como causa. La fracción de
la enfermedad que pueden ser atribuidas a causas conocidas crecerá sin límite como más
causas sean descubiertas. Sólo la fracción de morbilidad atribuible a una única causa
componente no puede superar el 100%.

Refutacionismo

Russell no estaba solo en su lamento de la falta de lógica del razonamiento científico que
habitualmente practicaba. Muchos filósofos y científicos de la época de Hume hacia adelante
trataron de establecer una firme base lógica para el razonamiento científico.
En la década de 1920, lo más notable de ellos fue la escuela de los positivistas lógicos, que
buscaba una lógica para la ciencia que podría llevar inevitablemente a las correctas
conclusiones científicas, de manera muy lógica rigurosa puede conducir inevitablemente a
conclusiones correctas en matemáticas. Otros filósofos y científicos, sin embargo, habían
comenzado a sospechar que las hipótesis científicas nunca puede ser probada o establecida
como verdadera en ningún sentido lógico. Por ejemplo, una serie de filósofos señalaron que
los enunciados científicos sólo pueden ser encontrados para ser consistente con la
observación, pero no puede ser probada o refutada en cualquier "hermético" sentido lógico o
matemático. Este hecho es a veces llamado el problema de la no identificación o la
subdeterminación de las teorías por las observaciones. En particular, las observaciones
disponibles son siempre coherentes (consistentes) con varias hipótesis que se son
mutuamente incompatibles, lo que explica por qué (como señaló Hume) las teorías científicas
no pueden ser lógicamente probadas. En particular, la coherencia entre una hipótesis y
observaciones no es prueba de la hipótesis, ya que siempre se puede inventar hipótesis
alternativas que son igual de consistentes (coherentes) con las observaciones.
Por el contrario, una observación válida que sea inconsistente (incompatible) con una
hipótesis implica que la hipótesis como afirma es falso por lo que refuta la hipótesis. Si
retuercen el cuello del gallo antes de que los cuervos y el sol salgan todavía, ustedes tienen
que desmentir que el canto del gallo es una causa necesaria de la salida del sol. O considere
un programa de investigación hipotética para aprender el punto de ebullición del agua. Un
científico que hierve el agua en un recipiente abierto y varias veces las medidas del punto de
ebullición a 100 ° C nunca, no importa cuántas repeticiones confirmatorios están
involucrados, demuestran que 100 ° C es siempre el punto de ebullición. Por otra parte, se
limita a un intento de hervir el agua en un frasco cerrado o en la altura a refutar la tesis de
que el agua siempre hierve a 100 ° C. Según Popper, la ciencia avanza mediante un proceso
de eliminación que él llamó "conjeturas y refutaciones."Los científicos forman hipótesis
basadas en la intuición, conjeturas, y la experiencia previa. Los buenos científicos utilizan la
lógica deductiva para inferir predicciones de la hipótesis y luego comparar las observaciones
con las predicciones. Las hipótesis cuyas predicciones están de acuerdo con las observaciones
se confirman (Popper usó el término "corroborado") sólo en el sentido de que pueden seguir
utilizándose como explicaciones de los fenómenos naturales. En cualquier momento, sin
embargo, puede ser refutada por nuevas observaciones y podría ser sustituido por otras
hipótesis que son más coherentes con las observaciones. Este punto de vista de la inferencia
científica es a veces llamado refutacionismo o falsacionismo. Refutacionistas consideraron a la
inducción a ser una base psicológica: observaciones repetidas que en realidad no indujeron a
la formulación de una ley natural, pero sólo la creencia de que esa ley se ha encontrado. Para
un refutacionista, sólo el consuelo psicológico proporcionado por la inducción explica por
qué aún tiene defensores.

Una manera de rescatar el concepto de inducción del estigma de la pura ilusión de resucitarlo
como un fenómeno psicológico, como Hume y Popper afirmaba que era, pero que juega un
papel legítimo en la formación de hipótesis. La filosofía de la conjetura y la refutación no
impone restricciones sobre el origen de las conjeturas. Incluso ilusiones son permitidas como
hipótesis, y por lo tanto inductivo inspirada hipótesis, sin embargo psicológicos, son válidos
los puntos de partida para la evaluación científica. Esta concesión no admite una función
lógica de la inducción en la confirmación de las hipótesis científicas, sino que permite que el
proceso de inducción a desempeñar un papel, junto con la imaginación, en el ciclo científico
de conjeturas y refutaciones.

La filosofía de la conjetura y la refutación tiene profundas implicaciones para la metodología


de la ciencia. El concepto popular de un científico tenaz reuniendo evidencias para apoyar
una tesis favorita es objetable desde el punto de vista de la filosofía refutacionista porque
anima a los científicos a considerar sus propias teorías como propiedad intelectual, para ser
confirmados, demostrado, y, defendidos como ley natural. Tales actitudes dificultan la
evaluación crítica, el intercambio y el progreso. El planteamiento de conjeturas y refutaciones,
por el contrario, alienta a los científicos a considerar múltiples hipótesis y buscar pruebas
cruciales que decidir entre hipótesis en competencia por la falsificación de uno de ellos.
Debido a que la falsificación de las teorías de uno o más es el objetivo, no hay incentivo para
despersonalizar las teorías. Críticas a la teoría no tiene por qué ser visto como una crítica a la
persona que lo propuso. Se ha sugerido que la razón por la que determinados ámbitos de la
ciencia avance con rapidez, mientras que otros languidecen es que el campo que avanza
rápidamente son impulsados por los científicos que están ocupados construyendo y
probando hipótesis, los otros campos, por el contrario, "están enfermos por la comparación,
porque se han olvidado de la necesidad de hipótesis alternativas y refutación.
El modelo refutacionista de la ciencia tiene una serie de lecciones valiosas para realizar
investigaciones, sobre todo de la necesidad de buscar otras explicaciones para las
observaciones, en lugar de centrarse en la quimera de la búsqueda científica "prueba" para
alguna teoría favorecida. Sin embargo, es vulnerable a las críticas que las observaciones (o
algunos dirían sus interpretaciones) se están cargadas de teoría (a veces llamada la tesis
Duhem-Quine, cuajada y la cubierta, 1998). Por lo tanto, las observaciones no pueden
proporcionar el tipo de refutación definitiva de que son el sello de los cuentos populares de
refutacionismo. Por ejemplo, no puede ser controlada e incluso los sesgos inimaginables que
han hecho nuestras observaciones refutacionales no válido; la demanda refutación es asumir
como verdadera la teoría indemostrable de que no existe tal sesgo. En otras palabras, no sólo
son teorías indeterminadas por observaciones, por lo que son refutaciones, que a su vez están
cargados de teoría. El resultado neto es que la seguridad lógica sobre cualquiera de la verdad
o falsedad de una teoría de la coherencia interna es imposible.

Consenso y el naturalismo

Algunos filósofos de ciencia del siglo 20, sobre todo Thomas Kuhn (1962), hicieron hincapié
en el papel de la comunidad científica para juzgar la validez de las teorías científicas. Estos
críticos del modelo de conjeturas y refutaciones, sugirió que la refutación de una teoría
consiste en hacer una elección. Cada observación es en sí misma dependiente de las teorías.
Por ejemplo, la observación de las lunas de Júpiter con un telescopio nos parece como una
observación directa, pero sólo porque la teoría de la óptica en que se basa el telescopio es tan
bien aceptado. Cuando nos enfrentamos a una observación refutando, un científico se
enfrenta a la opción de rechazarla o la validez de la teoría que se investiga o la validez de la
observación de refutar, que a su vez debe basarse en las teorías científicas que no son ciertas
(Haack, 2003). Observaciones que son los casos de falsificación de las teorías a veces puede
ser tratado como "anomalías", tolerada sin falsear la teoría con la esperanza de que las
anomalías con el tiempo se pueden explicar. Un ejemplo epidemiológico es la observación de
que los fumadores que inhalan con menor profundidad presentaron mayores tasas de cáncer
de pulmón que los fumadores que inhalan profundamente. Esta anomalía fue explicado
eventualmente cuando se observó que el tejido pulmonar más alto en los pulmones es más
susceptible a los tumores de pulmón asociado con el tabaquismo, el humo y alquitrán
inhalados superficialmente tienden a depositarse más alta en los pulmones (Wald, 1985).
En otros casos, las anomalías pueden llevar eventualmente a la caída de la doctrina científica
actual, así como los mecanismos de Newton fue desplazada (quedando sólo como una
aproximación de primer orden) por la teoría de la relatividad. Kuhn afirmó que en todas las
ramas de la ciencia el punto de vista científico imperante, que calificó de "ciencia normal", de
vez en cuando sufre cambios importantes que equivalen a las revoluciones científicas. Estas
revoluciones señalan una decisión de la comunidad científica para descartar la infraestructura
científica en lugar de falsificar una nueva hipótesis que no puede ser fácilmente injertado
sobre él. Kuhn y otros han argumentado que el consenso de la comunidad científica
determina lo que se considera aceptado y lo que se considera refutado.

Los críticos de Kuhn caracterizaron esta descripción de la ciencia como uno de un proceso
irracional, "una cuestión de psicología de masas" (Lakatos, 1970). Aquellos que creen en una
estructura racional de la ciencia consideraron la visión de Kuhn como una descripción
lamentablemente real de gran parte de lo que pasa por la actividad científica, pero no
obligatoria para ningún buena ciencia. Aunque muchos filósofos modernos rechazan las
demarcaciones rígidas y formulaciones para la ciencia como refutacionismo, que sin embargo
sostienen que la ciencia se basa en la razón, aunque posiblemente sentido informal común
(Haack, 2003). Otros van más allá de Kuhn y sostienen que los intentos de imponer una
singular estructura racional o la metodología de las trabas de la ciencia a la imaginación y es
una receta para el mismo tipo de represión autoritaria de las ideas que los científicos han
tenido que enfrentar a lo largo de la historia (Feyerabend, 1975 y 1993).

El filosófico debate sobre la descripción de Kuhn de la ciencia depende de si Kuhn pretende


describir sólo lo que ha sucedido históricamente en la ciencia o en su lugar lo que debe
suceder, un tema sobre el que Kuhn (1970) no ha sido completamente claro:

Son los comentarios de Kuhn sobre el desarrollo científico… para ser leído como
descripciones o prescripciones? La respuesta, por supuesto, es que deben leerse en ambos
sentidos a la vez. Si tengo una teoría de cómo funciona la ciencia y por qué, necesariamente
debe tener repercusiones en la manera en que los científicos deberían comportarse si su
empresa está floreciendo.

La idea de que la ciencia es un proceso sociológico, si se considera descriptivo o normativo, es


una tesis interesante, ya que es la idea de que al observar cómo trabajan los científicos que
podemos aprender acerca de cómo los científicos deben trabajar. La última idea ha llevado al
desarrollo de la filosofía naturalista de la ciencia, o "estudios de la ciencia", que examina los
avances científicos en busca de pistas sobre qué tipo de métodos científicos necesitan para
descubrir y desarrollar con éxito y la invención (Callebaut, 1993; Giere, 1999).

Independientemente de la evolución filosófica, sospechamos que la mayoría de los


epidemiólogos (y la mayoría de los científicos) continuaran una función como si el punto de
vista clásico siguiente es correcto: El objetivo final de la inferencia científica es capturar
algunas verdades objetivas sobre el mundo material en que vivimos, y cualquier teoría de
inferencia idealmente deben ser evaluados por lo bien que nos lleva a estas verdades. Este
ideal es imposible llevar a la práctica, sin embargo, por si alguna vez encuentran algunas
ultimas verdades, tenemos que hay manera de saber que, para algunos. Así, los titulares de la
opinión de que la verdad científica no es arbitraria, sin embargo admitir que nuestro
conocimiento de estas verdades siempre será provisional. Para refutationistas, esta
provisionalidad tiene una calidad asimétrica, pero que la asimetría es menor para los otros.
Podemos creer que conocer una teoría es falso porque se incumple de forma reiterada las
pruebas que sometemos completamente, pero nuestras pruebas podrían ser defectuosas,
dado que impliquen un razonamiento imperfecto y la percepción sensorial. Tampoco
podemos saber que una teoría es verdadera, incluso si pasa todas las pruebas que podamos
idear, porque puede fallar una prueba que es todavía /undevised/.

Pocos, si acaso, no estaría de acuerdo que una teoría de la inferencia debe ser evaluado por lo
menos en parte por lo bien que nos lleva a detectar errores en nuestras hipótesis y
observaciones. Hay, sin embargo, muchas otras actividades inferenciales, además de la
evaluación de hipótesis, tales como la predicción o pronóstico de los acontecimientos, y los
intentos posteriores para controlar los acontecimientos (que por supuesto se requiere
información de causalidad). Estadísticos más que los filósofos han enfrentado con mayor
frecuencia estos problemas en la práctica, por lo que no debería sorprender que las filosofías
principales interesados en estos problemas surgieron a partir de las estadísticas en lugar de la
filosofía.

Bayesianismo

No hay otra filosofía de la inferencia que, como la mayoría, tiene una visión objetiva de la
verdad científica y una visión del conocimiento como provisional o incierto, pero que se
centra en la evaluación de los conocimientos en lugar de la verdad. Al igual que el
refutacionismo, la forma moderna de esta filosofía desarrollada a partir de los escritos de
pensadores del siglo 18. Los argumentos de coordinación aparecieron por primera vez en un
ensayo fundamental por el Reverendo Thomas Bayes (1764), y por lo tanto, la filosofía se
refiere generalmente como Bayesianismo (Howson y Urbach, 1993), y fue el célebre
matemático y científico francés Pierre Simon de Laplace, que primero le dio un formato de
estadística aplicada. Sin embargo, no llegó a una expresión completa hasta después de la
Primera Guerra Mundial, sobre todo en los escritos de Ramsey (1931) y DeFinetti (1937), y,
como el refutacionismo, no comienzan a aparecer en la epidemiología hasta la década de 1970
(por ejemplo, Cornfield, 1976).

El problema central abordado por el Bayesianismo es la siguiente: En la lógica clásica, un


argumento deductivo puede proporcionar ninguna información sobre la verdad o falsedad de
una hipótesis científica a menos que se puede estar 100% seguro de la verdad de las premisas
del argumento. Consideremos el argumento lógico llamado modus tollens: ". Si H implica B, y
B es falsa, entonces H debe ser falsa" Este argumento es lógicamente válido, pero la
conclusión sigue sólo en la hipótesis de que las premisas "H implica B" y " B es falso "son
afirmaciones verdaderas. Si estas premisas son afirmaciones sobre el mundo físico, no
podemos saber que son correctos con el 100% de certeza, ya que todas las observaciones están
sujetas a error. Por otra parte, la afirmación de que "H implica B" a menudo dependerá de su
propia cadena de deducciones, cada uno con sus propias deducciones de las cuales no
podemos estar seguros. Por ejemplo, si H es "las causas homicidas hacen ver la televisión" y B
es "Las tasas de homicidio son más altos que los televisores que son más comunes", la primera
premisa utilizada en modus tollens para poner a prueba la hipótesis de que los homicidios
hace ver la televisión será: "Si ver la televisión causas homicidas, las tasas de homicidio
pueden ser más altos que los televisores son más comunes. "La validez de esta premisa es
dudosa, después de todo, incluso si la televisión causa los homicidios, las tasas de homicidio
puede ser bajas en los televisores que son comunes debido a las ventajas socioeconómicas en
esas áreas.

Continuando con la razón de esta manera, podríamos llegar a un estado más pesimistas que
incluso Hume imaginado. No sólo es la inducción sin fundamento lógico, la deducción ha
limitado la utilidad científica porque no podemos garantizar la verdad de todas las premisas,
incluso si un argumento lógico es válido. La respuesta Bayesiana a este problema es parcial,
ya que pone a prueba severa sobre el científico y pone una limitación severa en los resultados.
Dice más o menos esto: Si usted puede asignar un grado de certeza o probabilidad personal, a
las premisas de su argumento válido, puede usar cualquiera y todas las reglas de la teoría de
la probabilidad de obtener una certeza para la conclusión, y esto ciertamente será lógicamente
una consecuencia válida de sus certezas originales. Un hecho ineludible es que la certeza de
concluir, o posterior probabilidad, puede depender en gran medida en lo que se utiliza como
certezas inicial, o probabilidades previas. Si las certezas iniciales no son las mismas que las de
un colega, ese colega puede muy bien asignar una certeza a la conclusión diferente de la que
deriva. Con la acumulación de pruebas consistentes, sin embargo, los datos pueden
usualmente obligar incluso extremadamente dispar antes de converger en similares
probabilidades posteriores.

Debido a que las probabilidades posteriores que emana de una inferencia bayesiana
dependerá de la persona que proporcione la certeza inicial y así puede variar entre los
individuos, las inferencias que se dice que son subjetivas. Esta subjetividad de la inferencia
bayesiana es a menudo confundido con un tratamiento subjetivo de la verdad. No sólo es un
punto de vista de Bayesianismo incorrecto, es diametralmente opuesta a la filosofía
bayesiana. El enfoque bayesiano representa un intento constructivo para hacer frente al
dilema de que las leyes científicas y los hechos no deben ser tratados como se conoce con
certeza, mientras que la lógica deductiva clásica rinda conclusiones sólo cuando una ley,
hecho, o la conexión se afirma con el 100% de certeza.

Una crítica común de la filosofía bayesiana es que distrae la atención lejos de los objetivos
clásicos de la ciencia, tales como el descubrimiento de cómo funciona el mundo, hacia los
estados psicológicos de la mente llamado "certezas", "probabilidades subjetivas", o "grados de
creencia" (Popper, 1959). Esta crítica, sin embargo, no reconoce la importancia del estado de
la mente de un científico en la determinación de lo que las teorías a la prueba y qué tipo de
pruebas aplicar, la influencia consiguiente de los estados en el almacén de datos disponibles
para la inferencia, y la influencia de los datos sobre los estados de ánimo.

Otra respuesta a esta crítica es que los científicos ya utilizan los datos para influir en sus
grados de creencia, y no se avergüenzan de expresar los grados de certeza. El problema es
que el proceso convencional es informal, intuitiva, e inefable, y por lo tanto no están sujetas a
un escrutinio crítico, en el peor de los casos, eso a menudo equivale a nada más que los
expertos anunciando que han visto las pruebas y aquí es cómo asegurarse de que estén. Cómo
llegaron a esta certeza se deja claro, o, dicho de otro modo, no es "transparente". El problema
es que nadie, ni siquiera un experto, es muy buena de manera informal e intuitiva
formulando certezas que predicen los hechos y los acontecimientos futuros (Kahneman et al,
1982;. Gilovich, 1993; Piattelli-Palmarini, 1994;. Gilovich et al, 2002). Una de las razones de
este problema es que los sesgos y prejuicios pueden fácilmente entrar en juicios de expertos.
Los métodos bayesianos fuerzan a los expertos a "poner sus cartas sobre la mesa" y especificar
de forma explícita la fuerza de sus creencias previas y por qué tienen tales creencias, defender
las especificaciones contra argumentos y pruebas, y actualizar sus grados de certeza con la
nueva evidencia de manera que no viole la lógica de la probabilidad.
En cualquier contexto de la investigación, habrá un número ilimitado de hipótesis que
podrían explicar un fenómeno observado. Algunos sostienen que el progreso es el mejor con
la ayuda de pruebas severas (empíricamente difíciles) las explicaciones que parece más
probable a la luz de investigaciones anteriores, de modo que las deficiencias de la actualidad
"recibido" las teorías pueden ser más rápidamente descubierto. De hecho, muchas
investigaciones en determinados campos toma esta forma, como cuando las predicciones
teóricas de la masa de las partículas se someten a pruebas cada vez más precisas en los
experimentos de la física. Este proceso no implica una mera repetición de los estudios sobre el
pasado. Por el contrario, se trata de pruebas de las predicciones no probado previamente,
pero importante de la teoría. Sin embargo, existe un imperativo para hacer las bases de las
creencias anteriores criticables y defendibles. Antes de que las probabilidades puedan variar
entre las personas, no significa que todas las creencias se basan en la misma información, ni
que todos son igualmente válidos.

Las probabilidades de hipótesis auxiliares también son importantes en el diseño del estudio y
la interpretación. La falta de una teoría para pasar una prueba puede conducir al rechazo de
la teoría con mayor rapidez cuando las hipótesis auxiliares en los que la prueba depende
poseen alta probabilidad. Esta observación proporciona una razón para preferir "nicho" de los
estudios de casos y controles (en el que los controles se seleccionan de una lista de la
población de origen de los casos) a "hospitalarios" estudios de casos y controles (en el que los
controles son "seleccionados" por la ocurrencia o el diagnóstico de una o más enfermedades
distintas de la enfermedad-la definición de caso), porque los primeros tienen menos
mecanismos para la selección sesgada tema y por lo tanto, se les da una mayor probabilidad
de selección de los sujetos imparciales. Incluso si se pone en duda los argumentos anteriores,
la mayoría de los epidemiólogos desean de alguna manera expresar los diferentes grados de
certeza acerca de los posibles valores de una medida de efecto a la luz de los datos
disponibles. Tales expresiones, inevitablemente, se obtendrán de la cara de una considerable
incertidumbre acerca de los detalles metodológicos y diversos eventos que llevaron a los
datos disponibles y pueden ser extremadamente sensibles a los argumentos utilizados en su
derivación. Como se señaló anteriormente, la mayoría de la gente, incluyendo científicos, la
pobre razón en la cara de incertidumbre. Por lo menos, la filosofía subjetiva Bayesiano ofrece
una metodología para el razonamiento de sonido en condiciones de incertidumbre y, en
particular, ofrece muchas advertencias en contra de ser demasiado seguro acerca de una de
las conclusiones (Groenlandia 1998a, 1988b, 2006a; véanse también los capítulos 18 y 19).
Estas advertencias se hacen eco en la filosofía refutacionista. Como Peter Medawar (1979) lo
expresó, "no puedo dar ningún científico de cualquier edad mejor que éste consejo: la
intensidad de la convicción de que una hipótesis es verdadera no tiene incidencia alguna
sobre si es cierto o no." Queremos sumar dos puntos. En primer lugar, la intensidad de la
convicción de que una hipótesis es falsa no tiene relación con si es falso o no. En segundo
lugar, los métodos bayesianos no creen en el error de las pruebas. Ellos usan pruebas para
modificar las creencias, que los científicos hacen rutinariamente en cualquier caso, pero a
menudo de manera implícita, intuitiva, e incoherente.

Imposibilidad de la prueba científica

Un fuerte debate es una característica de la filosofía científica moderna, no menos en


epidemiología que en otras áreas (Rothman, 1988). Puede filosofías divergentes de la ciencia
reconciliarse? Haack (2003) sugirió que la empresa científica es similar a la solución de un
rompecabezas enorme, crucigramas colectivos. En las zonas en las que la evidencia está
estrechamente entrelazados, hay más motivos para poner su confianza en las respuestas, pero
en zonas con escasa información, las teorías pueden ser poco más que conjeturas. Del método
científico, Haack (2003) dice que "hay menos que el" método científico "de lo que parece. ¿Es
la investigación científica categóricamente diferente de otras clases? No. La investigación
científica se continúa con la investigación empírica todos los días, pero más todavía”.

Quizás el elemento común más importante que se desprende de las filosofías debate es que la
prueba es imposible en la ciencia empírica. Este simple hecho es especialmente importante
para los epidemiólogos de observación, que a menudo se enfrentan a las críticas que la
prueba es imposible en epidemiología, con la implicación de que es posible en otras
disciplinas científicas. Estas críticas pueden provenir de un punto de vista de que los
experimentos son la fuente definitiva de los conocimientos científicos. Esa visión es errónea
en al menos dos razones. En primer lugar, la naturaleza no experimental de la ciencia no se
opone a impresionantes descubrimientos científicos, los ejemplos son innumerables las placas
tectónicas, la evolución de las especies, los planetas que orbitan otras estrellas, y los efectos
del tabaquismo sobre la salud humana. Aun cuando es posible, los experimentos (incluidos
los ensayos aleatorios) no ofrecen algo parecido a la prueba y de hecho puede ser
controvertido, contradictorio, o no reproducibles. Si los ensayos clínicos aleatorios aportado
la prueba, que nunca tendría que hacer algo más que uno de ellos en una hipótesis dada. Ni la
ciencia ni la física experimental, es inmune a estos problemas, como lo demuestran episodios
como el experimental "descubrimiento" (luego desmentido) de la fusión fría (Taubes, 1993).

Algunos científicos sostienen que las relaciones experimentales epidemiológicas son sólo
indicativas y creemos que el estudio de laboratorio detallado de los mecanismos dentro de un
solo individuo puede revelar las relaciones de causa-efecto con certeza. Este punto de vista
pasa por alto el hecho de que todas las relaciones son sugestivas exactamente de la manera
discutida por Hume. Incluso la disección mecanicista más cuidadosa y detallada de los
eventos individuales no puede proporcionar más de las asociaciones, aunque a un nivel más
fino. Los estudios de laboratorio a menudo implican un grado de control de observadores que
no se puede abordar en epidemiología, es sólo este control, no el nivel de observación, que
pueden fortalecer las inferencias de los estudios de laboratorio. Y además, ese control no es
garantía contra el error. Además, los científicos y los tomadores de decisiones están a
menudo muy convencidos de que sólo las pruebas del laboratorio de mecánica están
disponibles.

Todos los frutos del trabajo científico, en la epidemiología o de otras disciplinas, son en el
mejor de formulaciones tentativas de una descripción de la naturaleza, aun cuando la obra se
lleva a cabo sin errores. La provisionalidad de nuestro conocimiento no impide que las
aplicaciones prácticas, pero hay que mantenernos escépticos y críticos, no sólo de todos los
demás trabajos, sino de la nuestra también. A veces las hipótesis etiológicas disfrutar de un
grado extremadamente alto, universal o casi universalmente compartidos, de la seguridad. La
hipótesis de que fumar cigarrillos causa cáncer de pulmón es uno de los ejemplos más
conocidos. Estas hipótesis elevarse por encima de "tentativa" la aceptación y están más cerca
que podemos llegar a la "prueba". Pero ni siquiera estas hipótesis han “demostrado” con
grado de certeza absoluta que acompaña la prueba de un teorema matemático.

Inferencia causal en epidemiología

El conocimiento de la etiología en la hipótesis epidemiológica es a menudo escaso,


haciéndolo al mismo tiempo a la hipótesis de asociación causal entre exposición y
enfermedad, una declaración más o menos imprecisa, tal como: “fumar causa enfermedad
cardiovascular”. Estas hipótesis imprecisas tienen sólo consecuencias vagas que pueden ser
difíciles probar. Para cubrir esta imprecisión, los epidemiólogos enfocan en probar la
negación de la hipótesis causal, es decir, negar la hipótesis nula donde la exposición no tiene
relación causal con la enfermedad. Entonces, cualquiera que observa la asociación puede
refutar potencialmente la hipótesis, sujeto a asumir (hipótesis auxiliar) que la torsión y los
riegos fluctuantes no son únicamente responsables para la observación.

Pruebas teóricas de contraste epidemiológicas

Si el mecanismo causal se declara lo bastante específico, las observaciones epidemiológicas


nos pueden proporcionar las pruebas cruciales para contrastar, las hipótesis causales no
nulas. Por ejemplo, cuando el síndrome del shock tóxico fue estudiado primero, había dos
hipótesis compitiendo sobre el agente causal. Bajo una hipótesis, era una sustancia química
presente en el tampón, a la que se expusieron directamente, las mujeres que usaban los
tampones. Bajo la otra hipótesis, el tampón actuó como un medio de cultivo para
Staphylococcus que luego esta produjo una toxina. Ambas hipótesis explicaron la relación de
ocurrencia del shock tóxico al uso del tampón. Las dos hipótesis, sin embargo, llevaron a
predicciones opuestas sobre la relación entre el cambio frecuente de tampones y la
proporción de shock tóxico. Bajo la hipótesis de un agente químico, los cambios más
frecuentes del tampón llevarían a más exposición al agente y la posible absorción de una
mayor dosis total. Esta hipótesis predijo que mujeres que cambiaban frecuentemente los
tampones tendrían una incidencia más alta en comparación con las mujeres que cambiaban
los tampones infrecuentemente. La hipótesis del medio de cultivo predice que mujeres que
cambiaban frecuentemente los tampones tendrían una incidencia más baja en comparación
con aquéllos que menos frecuentemente cambiaban los tampones, porque un uso de corta
duración para cada tampón impediría al Staphylococcus multiplicarse lo bastante como para
producir una dosis de toxina perjudicial. Así, la investigación epidemiológica, demostró que
un cambio poco frecuente de tampones estaba asociado a una mayor incidencia del shock
tóxico, por lo tanto refutó la teoría química. Había, sin embargo, una tercera hipótesis que una
sustancia química en algunos tampones (por ejemplo, el volumen de oxígeno) mejoraba su
actuación como medio de cultivo. Esta hipótesis químico-promotor hizo la misma predicción
sobre la asociación del cambio frecuente de tampones con la toxina microbiana. (Lanes y
Rothman, 1990).

Otro ejemplo de una teoría que puede probarse fácilmente por datos epidemiológicos, se
revela con la observación de mujeres que tomaron estrógeno como terapia de reemplazo
hormonal que tenían una incidencia considerablemente elevada de cáncer endometrial.
Horwitz y Feinstein (1978) conjeturó una teoría de contraste para explicar la asociación: Ellos
propusieron que las mujeres que tomaban estrógeno experimentaron síntomas como sangrar
y eso los indujo a consultar a un médico. Los criterios de diagnóstico resultantes llevaron al
descubrimiento de cáncer del endometrial en una fase más temprana en estas mujeres,
comparado con mujeres que no estaban tomando estrógeno. Horwitz y Feinstein defendieron
que esta asociación descubrimiento - daño, determinó el diagnóstico temprano usando como
criterio el sangrado inducido, de otro modo muchos de estos cánceres no se habrían
descubierto en absoluto. Se usaron muchas observaciones epidemiológicas para evaluar estas
hipótesis de contraste. La teoría del descubrimiento – daño predijo que mujeres que habían
usado estrógeno sólo durante un tiempo corto tendrían mayor frecuencia de síntomas de
sangrado que los llevaría a consultar al médico, ya que inició este síntoma poco después de
que empezó en tratamiento con estrógeno. Porque la reciente asociación de uso de estrógeno
y cáncer endometrial era lo mismo en usuarios de estrógeno de largo o corto plazo. La teoría
de descubrimiento – daño fue refutado debido a que era un explicación para todos menos
para un pequeño fragmento de cáncer endometrial que ocurría después del uso de
estrógeno. La refutación de la teoría del descubrimiento – daño también dependía de muchas
otras observaciones. Especialmente importante era la implicación de la teoría, debido a que
hay cáncer endometrial no detectado en población femenina típica, pero que la incidencia es
mayor en mujeres usuarios de estrógeno, sin embargo no se confirmó esta hipótesis en
observaciones extensas.(Hutchison y Rothman, 1978).

El ejemplo de cáncer de endometrial ilustra el punto crítico entendiendo el proceso de


inferencia causal en los estudios epidemiológicos: Muchas de las hipótesis evaluándose en la
interpretación de estudios epidemiológicos son las hipótesis auxiliares en el sentido que ellos
son independientes de la presencia, ausencia, o dirección de cualquier conexión causal entre
la exposición del estudio y la enfermedad. Por ejemplo, explicaciones de cómo los tipos
específicos de prejuicio pudieran torcer una asociación entre la exposición y enfermedad es
las alternativas usuales a la hipótesis del estudio primaria. Mucha de la interpretación de
cantidades de estudios epidemiológicos es la comprobación de tales explicaciones auxiliares
para las asociaciones observadas.

Criterio causal

¿En la práctica, cómo los epidemiólogos separan la explicación causal de la no causal? A


pesar de las críticas de la filosofía de inferencia inductiva, se usan a menudo las
consideraciones inductivamente orientadas como el criterio por hacer las tales inferencias
(Weed and Gorelic, 1996). Si un juego de requisito y el criterio causal suficiente pudieran
usarse para distinguir de las relaciones causales del no causal en los estudios
epidemiológicos, el trabajo del científico se aliviaría considerablemente. Con el tal criterio,
todas las preocupaciones sobre la lógica o ausencia podrían ser de eso en la inferencia causal
los resúmenes: Sólo sería necesario consultar la lista de control de criterio para ver si una
relación era causal. Nosotros sabemos de la filosofía repasada antes que un juego de criterio
suficiente no existe. No obstante, las listas de criterio causal se han puesto populares,
posiblemente porque ellos parecen proporcionar un mapa del camino a través del territorio
complicado, y quizás porque ellos hacen pensar en hipótesis al ser evaluado un problema
dado.

Un juego normalmente usado de criterio era basado en una lista de consideraciones o “los
puntos de vista” propuesto por Sir Austin Bradford Hill (1965). La lista de Hill era una
expansión de una lista ofrecida previamente en el hito del reporte de Cirugía General
americana Smoking and Health (1964), qué a su vez se anticipó por los canon inductivos de
John Stuart Mill (1862) y las reglas dadas por Hume (1739). Como consecuencia, otros, sobre
todo Susser, han desarrollado las consideraciones causales más allá (Kaufman y Poole, 2000).

Hill sugirió las consideraciones siguientes intentando distinguir las asociaciones causales de
la no causal que ya eran “absolutamente bien definido y más allá de lo que nosotros
cuidaríamos para atribuir a la obra de oportunidad”: (1) la fuerza, (2) la consistencia, (3) la
especificidad, (4) el temporalidad, (5) la pendiente biológica, (6) la plausibilidad, (7) la
coherencia, (8) la evidencia experimental, y (9) la analogía. Hill dio énfasis que esas
inferencias causales no pueden ser basadas en un juego de reglas, enfatizando la importancia
de probar estadísticamente, y entonces pueden reconocerse la importancia de muchos otros
factores en decisión que hace (Phillips y Goodman, 2004). No obstante, los mal orientados a la
vista popular donde sus consideraciones deben usarse como el criterio para la inferencia
causal lo hacen necesario examinarlos en detalle.

La fuerza

Hill defendió que las asociaciones fuertes están compeliendo particularmente porque, para
las asociaciones más débiles, es “más fácil” para imaginar eso que hoy nosotros llamaríamos
un embrollador de desmedida que podría ser responsable para la asociación. Varios años
anteriores, Cornfield et al. (1959) dibujó conclusiones similares. Ellos se concentraron en un
solo embrollador hipotético que, solo, explicaría una asociación observada completamente.
Ellos expresaron una preferencia fuerte para que la proporción mida fuerza, como opuesto
para diferenciar las medidas, y enfocó en adelante cómo la estimación observada de una
proporción de riesgo que mantiene un mínimo la asociación que un embrollador
completamente explicativo debe tener con la exposición (en lugar de un mínimo para la
asociación de la enfermedad confusora). De importancia especial, Cornfield et al. reconoció
que teniendo sólo una asociación débil no se puede determinar una conexión causal
(Rothman y Poole, 1988). Hoy, algunas asociaciones, como aquéllos entre fumar y
enfermedad cardiovascular o entre el humo del tabaco medioambiental y el cáncer pulmonar,
es aceptado por la mayoría como causal aunque las asociaciones son consideradas débiles.

Ejemplos opuestos de fuerte son difíciles de hallar pero las asociaciones del no causal
tampoco son imposibles de encontrar; cualquier estudio con confusores muy bien ilustra el
fenómeno. Por ejemplo, considere la relación fuerte entre el síndrome de Down y línea del
nacimiento que están implicados por la relación entre del síndrome de Down y la edad
materna. Claro, una vez que el factor confunsor se identifica, la asociación se disminuye
controlando para el factor.

Estos ejemplos nos recuerdan que una asociación fuerte es necesaria " ni suficiente para la
causalidad, y esa debilidad es necesaria " ni suficiente para la ausencia de causalidad. Una
asociación fuerte sólo afecta a la hipótesis de que la asociación es completamente o
parcialmente debido a embrolladores de desmedida u otra fuente de prejuicio modesto.

La consistencia

A la mayoría de los observadores, la consistencia se refiere a la observación repetida de una


asociación en las poblaciones diferentes bajo las circunstancias diferentes. Falta de
consistencia, sin embargo, que no gobierna fuera una asociación causal, porque un poco de
efectos sólo se produce por sus causas bajo raras circunstancias. Más precisamente, el efecto
de un agente causal no puede ocurrir a menos que el componente complementario causa el
acto o ya ha actuado para completar una causa suficiente. Estas condiciones no siempre se
reunirán. Así, las transfusiones pueden causar la infección con el virus de la
inmunodeficiencia humana, pero ellos no siempre hacen porque: El virus también debe estar
presente. El uso del tampón puede causar el síndrome del shock tóxico, pero sólo raramente,
cuando cierto otro, quizás desconocido, se reúnen las condiciones. La consistencia sólo está
clara después de que se entienden todo los detalles pertinentes de un mecanismo causal que
es muy raramente decir. Además, incluso en los estudios casi exactos, los mismos fenómenos
proporcionan resultados diferentes simplemente porque pueden esperarse que ellos difieran
en sus métodos y errores del azar. La consistencia sólo sirve para controlar externamente las
hipótesis que la asociación es atribuible a algún factor que varía por los estudios.
Un error llevando a cabo el criterio de consistencia es tan común que merece una mención
especial. A veces se exige que una literatura o juego de resultados simplemente son
incoherentes porque algunos resultados son “estadísticamente significante” y algunos no son.
Esta clase de evaluación es completamente engañosa aun cuando uno acepta el uso de
importancia que prueba los métodos. Los resultados (el efecto estima) de un juego de
estudios todos pudieron sea idéntico aun cuando muchos eran significantes y muchos no era,
la diferencia en importancia que se levanta solamente debido a las diferencias en los errores
normales o tamaños de los estudios. Recíprocamente, los resultados podrían estar
significativamente en el conflicto aun cuando todos eran que todos eran individualmente los
no significantes, simplemente porque en el agregado un efecto pudiera estar claro en algún
subgrupo pero no otros. La falacia de juzgar la consistencia comparando los P-valores o la
importancia estadística no se elimina por “regularizando” estima (es decir, dividiéndolos por
la desviación normal del resultado, multiplicándolos por la desviación normal de la
exposición, o ambos); de hecho se empeora, el regularización como a tal puede crear
diferencias dónde ninguno existe, o máscara las verdaderas diferencias (Greenland et al.,
1986, 1991).

La especificidad

El criterio de especificidad tiene dos variantes. Uno es que una causa lleva a un solo efecto, no
los efectos múltiples. El otro es que un efecto tiene una causa, no las causas múltiples. Hill
mencionó los dos de ellos. El criterio anterior, la especificidad de efectos, se usó como un
argumento a favor de una interpretación causal de la asociación entre fumar y el cáncer
pulmonar y, en un acto de razonamiento redondo, a favor de las comparaciones de la
proporción y no las diferencias como las medidas apropiadas de fuerza. Cuando se
examinaron las medidas de la proporción, la asociación de fumar a las enfermedades parecía
“cuantitativamente específico” al cáncer pulmonar. Cuando se examinaron las medidas de la
diferencia, la asociación parecía ser el no específico, con varias enfermedades (otros cánceres,
la enfermedad del corazón coronaria, etc.) ser por lo menos como fuertemente asociado con
fumar como el cáncer pulmonar era. Hoy nosotros sabemos que el fumar afecta el riesgo de
muchas enfermedades y que las comparaciones de la diferencia estaban retratando esta falta
de especificidad con precisión. Desgraciadamente, sin embargo, el episodio histórico del
debate encima de fumar y se cita a menudo la salud hoy como la justificación para el criterio
de especificidad y por usar las comparaciones de la proporción para medir fuerza de
asociación. Las lecciones apropiadas para aprender de ese episodio deben ser simplemente el
contrario.

Weiss (2002) defendió esa especificidad puede usarse para distinguir algunas hipótesis
causales de las hipótesis no causal, cuando la hipótesis causal predice una relación con un
resultado pero ninguna relación con otro resultado. Su argumento es persuasivo cuando,
además de la hipótesis causal, uno tiene una hipótesis no causal alternativa que predice una
asociación del no específica. Weiss ofreció el ejemplo protector de la sigmoidocospía que era
asociado en los estudios del caso – control con una 50% a 70% reducción en la mortalidad de
los tumores del distal del recto y tumores del colon del distal dentro del alcance del
sigmoidoscopio, pero ninguna reducción en la mortalidad de los tumores en otra parte en el
colon. Si el efecto protector de la sigmoidocospía no fuera específico a los tumores de colon
de distal, no prestaría el apoyo a toda la teoría no causal para explicar la asociación, cuando
Weiss sugirió, pero sólo a esa teoría no causal que habría predicho una asociación no
específica. Así, la especificidad puede entrar en la obra cuando puede deducirse lógicamente
de la hipótesis causal en cuestión y cuando pueden deducirse los no especificidad
lógicamente de uno o más hipótesis no causal.

La temporalidad

La temporalidad se refiere a la necesidad de que la causa preceda al efecto en tiempo. Este


criterio es inarrugable, en la medida en que como cualquiera exigido por la observación de
causalidad debe involucrar la causa putativa que C que precede el efecto putativo D. Él no
hace, sin embargo, sigue que un orden de tiempo inverso es la evidencia contra la hipótesis
que C puede causar D. Rather, observó en que C siguió a D meramente la muestra que C no
pudiera causar D en estos casos; ellos no proporcionan ninguna evidencia para o contra la
hipótesis que C puede causar D en esos casos en que precede D. Sólo que si se encuentra que
C no puede preceder que D puede nosotros distribuimos con la hipótesis causal que C
pudiera causar D.

La pendiente biológica

La pendiente biológica se refiere a la presencia de un dosis – respuesta o exposición –


respuesta encorve con una forma esperada. Aunque Hill se refirió a un “lineal” la pendiente,
sin especificar la balanza, una pendiente lineal en una balanza, como el riesgo, puede ser
distintamente los no linear en otra balanza, como el riesgo de registro, las desigualdades, o las
desigualdades de registro. Nosotros podríamos relajarnos la expectativa de lineal a
estrictamente monotónico (aumentando firmemente o disminuyendo) o incluso lleva más allá
meramente al monotónico (una pendiente que nunca cambia la dirección). Por ejemplo, más
que fumar significa la exposición a los carcinógenos y cuanto más tejido dañan, de más
oportunidad para el carcinogénesis. Algunas asociaciones causales, sin embargo, muestran un
aumento rápido en la contestación (un efecto del umbral aproximado) en lugar de un
estrictamente la tendencia del monotónico. Un ejemplo es la asociación entre DES
(dietilestilbestrol) y adenocarcinoma de la vagina. Una posible explicación es que las dosis de
DES que se administró eran todos suficientemente grande producir el efecto máximo de DES.
Bajo esta hipótesis, para todos aquéllos expuestos a DES, el desarrollo de enfermedad
dependería completamente de otras causas del componente.

El tema algo polémico de consumo del alcohol y mortalidad es otro ejemplo. Las
proporciones de muerte son más altas entre los no bebedores que entre los bebedores
moderados, pero ellos ascienden a los niveles más altos para los grandes bebedores. Hay
debate considerable sobre que se relacionan partes de la curva de la dosis – respuesta J-
formada causalmente los artefactos no causal al consumo del alcohol y qué partes está
proviniendo de confusores u otros prejuicios. Algunos estudios parecen encontrar sólo una
relación creciente entre el consumo del alcohol y mortalidad, posiblemente porque las
categorías de consumo del alcohol son demasiado anchas para distinguir las proporciones
diferentes entre los bebedores moderados y no bebedores, o posiblemente porque ellos tienen
menos confusores al más bajo extremo de la balanza del consumo.

Asociaciones que muestran una tendencia monotónico en la frecuencia de la enfermedad con


los niveles crecientes de exposición no son necesariamente causales. Confundiendo pueden
producir una relación monotónico entre un factor de riesgo de no causal y enfermedad si el
propio factor confundiendo demuestra una pendiente biológica en su relación con la
enfermedad. La relación entre la línea del nacimiento y el síndrome de Down donde las
muestras más tempranas mencionaron una pendiente biológica fuerte que meramente refleja
la relación progresiva entre la edad maternal y ocurrencia del síndrome de Down.

Estos problemas implican que la existencia de una asociación monotónico es necesaria " ni
suficiente para una relación causal. Una relación del no monotónico sólo refuta esas hipótesis
causales específico bastante para predecir una curva de dosis – response monotónico.

La plausibilidad

La plausibilidad se refiere a la plausibilidad científica de una asociación. Más de cualquier


otro criterio, este uno muestra qué estrechamente se enfocan sistemas de criterio causal en la
epidemiología. El punto de arranque es una asociación epidemiológica. Preguntando si es
causal o no, una de las consideraciones que nosotros tenemos en cuenta es su plausibilidad.
De una perspectiva menos parroquial, la empresa entera de inferencia causal se vería como el
acto de determinar cómo creíble una hipótesis causal es. Una de las consideraciones que
nosotros tendríamos en cuenta sería las asociaciones epidemiológicas, si ellos están
disponibles. A menudo ellos no son, pero la inferencia causal debe hacerse no obstante, con
las entradas de la toxicología, farmacología, biología básica, y otras ciencias.

Así como la epidemiología no es esencial para la inferencia causal, la plausibilidad puede


cambiar muchas veces. Sartwell (1960) dio énfasis a este punto, mientras citando comentarios
de Cheever en 1861, quién había estado haciendo un comentario sobre la etiología de Tifus
antes de su modo de transmisión (vía los piojos del cuerpo) sea conocido:

“Nada podría ser más ridículo que el extraño que pasó la noche en la dirección de una nave
de emigrantes que atribuyó el Tifus a lo que se infestó allí, al bicho con que los cuerpos del
enfermo podría infestarse. Una causa adecuada, uno razonable en sí mismo, debe corregir las
coincidencias de experiencia simple.”
Lo que era a Cheever una explicación inverosímil resultó ser la explicación correcta, porque
era de hecho el bicho que causó la infección del tifus. Cosas así es el problema con la
plausibilidad: También no es basado a menudo en lógica o datos, pero sólo en las creencias
anteriores. Éste es no decir que el conocimiento biológico debe descontarse cuando una nueva
hipótesis está evaluándose, pero sólo para señalar la dificultad aplicando ese conocimiento.

Los Bayesianos se acercan a la inferencia intenta tratar con este problema requiriendo ese uno
cuantifique, en una probabilidad (0 a 1) la balanza, la certeza que uno tiene en las creencias
anteriores, así como en las nuevas hipótesis. Esta cuantificación despliega el dogmatismo o
imparcialidad del analista en una moda pública, con los valores de certeza acérquese
traicionando un compromiso fuerte del analista para a 1 o 0 o contra una hipótesis. También
puede proporcionar unos medios de probar esas creencias cuantificadas contra la nueva
evidencia. No obstante, ningún acercamiento puede transformar la plausibilidad en un
criterio causal objetivo.

La coherencia

Tomado del informe americano de Cirugía General Smoking and Health (1964), el término
coherencia implica que una interpretación de causa y efecto para una asociación no choca con
lo que es conocido de la historia natural y biología de la enfermedad. Hill dió ejemplos para
la coherencia, como el efecto histopatológico de fumar en el epitelio bronquial (en la
referencia a la asociación entre fumar y el cáncer pulmonar) o la diferencia en la incidencia de
cáncer pulmonar por el sexo, podría ser considerado ejemplos de plausibilidad
razonablemente, así como la coherencia; la distinción parece ser una multa. Hill dió énfasis a
que la ausencia de información coherente, como distinguido, al parecer, de la presencia de
información contradictoria, no debe tomarse como la evidencia contra una asociación a
siendo considerada causal. Por otro lado, la presencia de información contradictoria puede
refutar una hipótesis de hecho, pero uno siempre debe recordar que la información
contradictoria puede equivocarse o puede interpretarse mal. Un ejemplo mencionado antes es
el “la anomalía de la inhalación” fumar y el cáncer pulmonar, el hecho de que el exceso de
cánceres pulmonares visto entre los fumadores parecía concentrarse a los sitios en las vías
aéreas superiores del pulmón. Varios observadores interpretaron esta anomalía como la
evidencia que los cigarros no eran responsables por el exceso. Otras observaciones, sin
embargo, hicieron pensar en el cigarro lleva a que se deposite los carcinógenos
preferencialmente donde el exceso fue observado, y para que la anomalía era de hecho
consistente con un papel causal para los cigarros (Wald, 1985).

La evidencia experimental

En observadores diferentes, la evidencia experimental puede referirse a los ensayos clínicos,


a los experimentos del laboratorio con roedores u otros organismos del no humano, o a
ambos. La evidencia de los experimentos humanos, sin embargo, raramente está disponible
para que el epidemiólogo investigue las preguntas, y la evidencia animal relaciona a las
especies diferentes y normalmente a los niveles de exposición muy diferente de aquéllos que
los humanos experimentan. La incertidumbre en las extrapolaciones de los animales a los
humanos domina a menudo la incertidumbre de valoraciones de riesgo cuantitativas
(Freedman and Zeisel, 1988; Crouch et al., 1997).

Hill, sin embargo, mencionó que la evidencia experimental significó algo más: “la evidencia
experimental, o semi experimental” obtuvo de reducir o eliminar un putativamente la
exposición perjudicial y ver si la frecuencia de enfermedad declina como la consecuencia. Él
llamó a este la posible evidencia más fuerte de causalidad que puede obtenerse. Puede ser
defectuoso, sin embargo, como el “semi experimental” el acercamiento es nada más de un
“antes de y después de” análisis de tendencia de tiempo que puede confundirse o por otra
parte puede torcerse por un organizador de cambios del seglar concomitantes. Es más, aun
cuando el levantamiento de exposición reduce la frecuencia de enfermedad causalmente, no
podría ser por la razón del etiológica supuesta. El agotando de un pantano cerca de una
ciudad, por ejemplo, habría predictivamente y causalmente reducir la proporción de fiebre
amarilla o malaria en esa ciudad el verano siguiente. Pero sería un error para llamar esta
observación la posible evidencia más fuerte de un papel causal de miasmas (Poole, 1999).

Analogía

La visión de cualquiera podría derivarse de la analogía que está impedido por la imaginación
inventiva de científicos que pueden encontrar las analogías por todas partes. A mejor, la
analogía proporciona una fuente de hipótesis más detalladas sobre las asociaciones bajo el
estudio; la ausencia de tales analogías sólo refleja que falte de imaginación o experiencia, no
la falsificación de la hipótesis.

Nosotros podríamos encontrar en los ejemplos de Hill razonando por la analogía de


talidomida y tragedias de la rubéola que lo hicieron más probable que a él que a otras
medicinas e infecciones serían causa de defectos del nacimiento. Pero el tal razonamiento es
común; nosotros sospechamos la mayoría del hallazgo de las personas él más creíble ese que
fuma podría estar expuesto a concebir cáncer del estómago, debido a sus asociaciones, que
algunos aceptaron ampliamente como causal, con los cánceres en otros órganos interiores y
gastrointestinales. Aquí nosotros vemos cómo el criterio de analogía puede estar en las
desigualdades con ambos el dos criterio de especificidad. El más inclinado a la analogía, el
menos específico de los efectos de una causa o el menos específico de las causas de un efecto.

Bibliography:
Rothman, Kenneth J.; Greenland, Sander; Lash, Timothy L. Modern Epidemiology, 3rd
Edition Copyright ©2008 Lippincott Williams & Wilkins Section I: Basic Concepts Chapter 2:
Causation and Causal Inference. Page: 5 – 31

You might also like