You are on page 1of 27

Intro to Scientific Empiricism* Let's start this week off by imagining a scenario.

You're
about to travel overseas to live in a country where hepatitis B infections are common.
Your doctor recommends that you get the hepatitis B vaccine. So you get the vaccine
prior to starting your new life abroad. But less than a year later you start to feel tired
regardless of how much you've slept. You also start to experience blurred vision and
tingling in your limbs over a few more months your symptoms only get worse. So you
go to the doctor and after a number of tests your with multiple sclerosis a chronic and
potentially fatal disease and in disease with a cause currently unknown to scientists
and doctors. While researching your condition you come across articles about a
Frenchman who much like you was diagnosed with MS less than two years after
receiving this vaccine. You also read that the man's family is now suing the
manufacturer of the vaccine for causing his untimely death. So you decide to sue the
manufacturer too. What kind of evidence would you need to show that the hepatitis
vaccine caused you to develop MS? At this point all you have is circumstantial evidence
you and at least one other person were diagnosed with MS receiving the hepatitis B
vaccine. What you don't have is causal evidence, which could rule out that you
developed Ms after getting the hepatitis B vaccine coincidentally. To be clear the World
Health Organization and the United States Centers for Disease Control and prevention
argued that scientific evidence says that hepatitis B vaccine does not cause MS. But
let's just say you wanted to take a look at the evidence yourself where would you
start? The US national research council's manual on scientific evidence advises lawyers
and judges about how scientists produce evidence that shows one event likely caused
or likely didn't cause another. The manual says that the gold standard for determining
the relationship between a drug or vaccine and a negative or positive health outcome
is what scientists call a randomize or clinical trial. A randomized trial clinical trial or
true experiment is considered the gold standard for determining the relationship of an
agent to a health outcome or adverse side effect. So to make the case that the
hepatitis B vaccine cause you to develop MS. You would need to closely examine the
trials the drug manufacturer conducted, when developing its vaccine. You would do so
by scouring peer-reviewed journals for studies summarizing the methods and the
results of these trials. Now, let's take a step back here. What's a randomized trial?
Why does the national research council think it's the gold standard of evidence? And
what's peer review will talk about these topics in greater detail later. But here's the
answer in a nutshell. Randomized trial entails trying out a drug or medical treatment
on half of the experimental subjects. And which have any given person is assigned to
is chosen randomly. The best randomized trials are also double blind. This means that
neither the experimenters nor the participants know who's getting the real treatment
and who's getting the placebo only a third party or computer knows this information.
And these trials should be published in a peer-reviewed scientific journal. This means
that other scientists who don't know or have conflicts of interest with the
experimenters evaluate whether the study is soundly conducted and thus whether it's
worthy of publication. But why is this very refined set of quality control standards so
highly regarded? And why do we think this kind of scientific investigation is a good
guide for something as important as medical intervention? Randomized trials are an
expression of the scientific communities broader commitment to what I will call
scientific empiricism. This is the idea that all of our scientific knowledge should
ultimately come from unbiased observations of the world. Now the key word here is
unbiased by randomizing who gets the drug in question, who knows who's getting the
drug in question and who reviews the merit of the trial after it's over these kinds of
experiments aimed to remove bias inherent in this or any human activity. Now some
argued science isn't the only means to knowledge some say that knowledge can come
from mathematics, which is based in pure thought. Others argue that knowledge can
come from poetry art or divine intervention. But this class is in about the philosophy of
mathematics or religion or Aesthetics. So we're not going to discuss pure thinking to
find inspiration or poetry. This week instead we're going to focus on how scientists
produce knowledge through observations experiments and simulations.
*Comencemos esta semana imaginando un escenario. Estás a punto de viajar al
extranjero para vivir en un país donde las infecciones de hepatitis B son comunes. Su
médico le recomienda que se ponga la vacuna contra la hepatitis B. Así que te
vacunarás antes de empezar tu nueva vida en el extranjero. Pero menos de un año
después empiezas a sentirte cansado sin importar cuánto hayas dormido. También
empiezas a experimentar visión borrosa y hormigueo en las extremidades durante
unos meses más, y los síntomas sólo empeoran. Así que vas al médico y después de
una serie de pruebas te encuentras con la esclerosis múltiple, una enfermedad crónica
y potencialmente mortal y con una causa actualmente desconocida por los científicos y
los médicos. Al investigar su condición usted se encuentra con artículos sobre un
francés que, al igual que usted, fue diagnosticado con EM menos de dos años después
de recibir esta vacuna. También lees que la familia del hombre está demandando al
fabricante de la vacuna por causar su prematura muerte. Así que decides demandar al
fabricante también. ¿Qué tipo de pruebas necesitaría para demostrar que la vacuna
contra la hepatitis le causó la EM? En este momento todo lo que tiene es evidencia
circunstancial de que usted y al menos otra persona fueron diagnosticados con EM
recibiendo la vacuna contra la hepatitis B. Lo que no tienes es evidencia causal, lo que
podría descartar que desarrollaste la EM después de recibir la vacuna contra la
hepatitis B por casualidad. Para ser claros, la Organización Mundial de la Salud y los
Centros para el Control y la Prevención de Enfermedades de los Estados Unidos
argumentaron que la evidencia científica dice que la vacuna contra la hepatitis B no
causa EM. Pero digamos que usted mismo quiere echar un vistazo a las pruebas, ¿por
dónde empezaría? El manual del Consejo Nacional de Investigación de los Estados
Unidos sobre pruebas científicas aconseja a los abogados y jueces sobre la forma en
que los científicos producen pruebas que demuestran que un evento probablemente
causó o no causó otro. El manual dice que la norma de oro para determinar la relación
entre un fármaco o una vacuna y un resultado de salud negativo o positivo es lo que
los científicos llaman un ensayo aleatorio o clínico. Un ensayo clínico aleatorio o un
experimento real se considera el estándar de oro para determinar la relación de un
agente con un resultado de salud o un efecto secundario adverso. Así que para hacer
el caso de que la vacuna de la hepatitis B te cause EM. Necesitarías examinar de cerca
los ensayos que el fabricante del fármaco llevó a cabo, al desarrollar su vacuna. Lo
harías revisando las revistas revisadas por pares para estudios que resumen los
métodos y los resultados de estos ensayos. Ahora, demos un paso atrás. ¿Qué es un
ensayo aleatorio? ¿Por qué el Consejo Nacional de Investigación cree que es el patrón
oro de las pruebas? Y lo que es una revisión por pares hablará de estos temas con
mayor detalle más tarde. Pero aquí está la respuesta en pocas palabras. El ensayo
aleatorio implica probar un medicamento o tratamiento médico en la mitad de los
sujetos experimentales. Y a los que se les asigna una persona determinada se escoge
al azar. Los mejores ensayos aleatorios son también doble ciego. Esto significa que ni
los experimentadores ni los participantes saben quién está recibiendo el tratamiento
real y quién está recibiendo el placebo, sólo un tercero o un ordenador conoce esta
información. Y estos ensayos deben ser publicados en una revista científica revisada
por pares. Esto significa que otros científicos que no saben o tienen conflictos de
intereses con los experimentadores evalúan si el estudio está bien realizado y por lo
tanto si es digno de ser publicado. Pero, ¿por qué este conjunto tan refinado de
normas de control de calidad es tan apreciado? ¿Y por qué pensamos que este tipo de
investigación científica es una buena guía para algo tan importante como la
intervención médica? Los ensayos aleatorios son una expresión del compromiso más
amplio de las comunidades científicas con lo que llamaré empirismo científico. Esta es
la idea de que todo nuestro conocimiento científico debe provenir en última instancia
de observaciones imparciales del mundo. Ahora la palabra clave aquí es imparcial al
aleatorizar quién obtiene el fármaco en cuestión, quién sabe quién lo obtiene y quién
revisa el mérito de la prueba después de que se haya realizado este tipo de
experimentos destinados a eliminar el sesgo inherente a esta o cualquier actividad
humana. Ahora bien, algunos sostienen que la ciencia no es el único medio de
conocimiento, algunos dicen que el conocimiento puede venir de las matemáticas, que
se basa en el pensamiento puro. Otros argumentan que el conocimiento puede venir
del arte de la poesía o de la intervención divina. Pero esta clase es sobre la filosofía de
las matemáticas o la religión o la estética. Así que no vamos a discutir el pensamiento
puro para encontrar inspiración o poesía. Esta semana nos centraremos en cómo los
científicos producen conocimiento a través de observaciones, experimentos y
simulaciones. *A Grounding in Observation* When I use the term scientific
empiricism, I'm describing a fundamental scientific principle. The principle that
scientific knowledge has to be grounded in observation. This view of the sciences has
ancient roots, but in its modern form, it's associated with the Scientific Revolution,
which took place in the 16th and 17th centuries. Our earliest scientific traditions put
greater emphasis on pure thought in pure mathematics as being on par with or even
superior to observation. But during the Scientific Revolution, natural philosophers,
what we'd now call scientists, gradually came to prioritize observation and experiment
as the best means to grounding scientific knowledge. Now, you might have noticed
that I've mentioned the terms grounding or grounded a few times. What does this
mean? To say that science is grounded in experience is a metaphor, but it's a useful
one. The metaphor refers to the foundation of scientific knowledge, what this course is
all about. Just as a concrete slab might be the foundation for a house, scientific
empiricism says that scientific knowledge is built on a foundation of observation.
Ultimately, no matter how abstract, general, complex, or mathematical they are,
scientific laws, theories, and models have to ultimately be tied back to observations of
our world. If a building's foundation is faulty, it will collapse, so too with science.
Grounding scientific knowledge and observation is supposed to ensure that science is
built on a stable foundation. So why is observation thought to be this bedrock of
science? The first reason is that observations are public as opposed to the products of
pure thought. In principle, other people should be able to see the same things you see
and repeat an observation or an experiment to get the same results. The second
reason is that public observation ought to be free of bias. Although any one person
might see what they want to see, public or shared observations should cancel out a lot
of this bias. Scientists can also create controls and checks to eliminate potential
sources of bias, which is exactly what randomized trials, for example, aim to do. The
third reason is that we do science to learn about the world itself, not about the
products of our own minds. In other words, we need to observe to get knowledge
about the target domain of science itself, which is the natural observable world. Now,
in the next part we're going to dive deeper into the many ways that scientists observe.
*Un aterrizaje en observación* Cuando uso el término empirismo científico, estoy
describiendo un principio científico fundamental. El principio de que el conocimiento
científico debe basarse en la observación. Esta visión de las ciencias tiene raíces
antiguas, pero en su forma moderna, se asocia con la Revolución Científica, que tuvo
lugar en los siglos XVI y XVII. Nuestras primeras tradiciones científicas ponen mayor
énfasis en el pensamiento puro en las matemáticas puras, como si estuviera a la par o
incluso superior a la observación. Pero durante la Revolución Científica, los filósofos
naturales, lo que ahora llamaríamos científicos, gradualmente llegaron a priorizar la
observación y el experimento como el mejor medio para fundamentar el conocimiento
científico. Ahora, habrán notado que he mencionado los términos "enraizar" o
"enraizar" unas cuantas veces. ¿Qué significa esto? Decir que la ciencia se basa en la
experiencia es una metáfora, pero es útil. La metáfora se refiere al fundamento del
conocimiento científico, de lo que se trata este curso. Al igual que una losa de
hormigón podría ser el fundamento de una casa, el empirismo científico dice que el
conocimiento científico se basa en la observación. En última instancia, no importa cuán
abstractas, generales, complejas o matemáticas sean, las leyes, teorías y modelos
científicos tienen que estar vinculados en última instancia a las observaciones de
nuestro mundo. Si los cimientos de un edificio son defectuosos, se derrumbarán, así
como la ciencia. Se supone que la observación y el conocimiento científico aseguran
que la ciencia se construya sobre cimientos estables. Entonces, ¿por qué se cree que la
observación es la base de la ciencia? La primera razón es que las observaciones son
públicas en oposición a los productos del pensamiento puro. En principio, otras
personas deberían ser capaces de ver las mismas cosas que usted ve y repetir una
observación o un experimento para obtener los mismos resultados. La segunda razón
es que la observación pública debe estar libre de prejuicios. Aunque cualquier persona
pueda ver lo que quiere ver, las observaciones públicas o compartidas deben anular
gran parte de este sesgo. Los científicos también pueden crear controles y
verificaciones para eliminar las posibles fuentes de sesgo, que es exactamente lo que
los ensayos aleatorios, por ejemplo, pretenden hacer. La tercera razón es que hacemos
ciencia para aprender sobre el mundo en sí mismo, no sobre los productos de nuestras
propias mentes. En otras palabras, necesitamos observar para obtener conocimiento
sobre el dominio objetivo de la ciencia en sí, que es el mundo natural observable.
Ahora, en la siguiente parte vamos a profundizar en las muchas formas en que los
científicos observan. *Straight Observation* Scientific empiricism tells us that the
foundation of scientific knowledge is observational. So let's dig a little deeper into this
claim and look at three sources of scientific knowledge. Simple or straight observation,
experimentation, and simulation. Let's start with observation. Straight observation, or
what I will simply call observation most of the time, is the most fundamental source of
scientific knowledge. It involves using our senses, perhaps augmented with
instrumentation, to discover what happened in the past, what is happening now, and
to discover patterns and dependencies. To be a little more precise, scientists observe
single instances or snapshots of the way that the world is. Very generally, we can call
these things events. But scientists often make repeated observations or look for
patterns and distributions in their observations. These more generalized observations
are called phenomena. I've already talked about Charles Darwin's remarkable work in
the Galapagos archipelago. But we haven't yet looked at Darwin's own words. Here are
the opening words of Darwin's famous book, on the Origin of Species. When on board
H.M.S Beagle as naturalist, I was much struck with certain facts in the distribution of
the inhabitants of South America, and in the geological relations of the present to the
past inhabitants of that continent. These facts seem to me to throw some light on The
Origin of Species, that mystery of mysteries as it has been called by one of our
greatest philosophers. On my return home, it occurred to me in 1837 that something
might perhaps be made out on this question by patiently accumulating and reflecting
on all sorts of facts which could possibly have any bearing on it. Now, notice what
Darwin tells us here. The basis of his revolutionary theory was pure observation. He
was struck with certain facts and the distribution of the plants and animals in South
America. I've already talked about Darwin's observation in some detail, but let me
remind you about one of his most important observations. Darwin noticed that giant
tortoises on different islands had different shell shapes, and that mocking birds on
different islands at different beak shapes. His observations of tortoise's, mocking birds,
and later finches form the basis of his ideas about evolution. Darwin realized that the
distribution of different species on different islands reflected common ancestors and
subsequent evolutionary processes. He was able to do this by careful observation
unaided by fancy equipment, only his naked eyes. He didn't, had his observations with
collections and these can be analyzed later, and with careful notes from which he could
look for patterns. But he didn't really use any instruments in Galapagos, and his later
work, he's simply added a standard microscope to the mix. *Observación directa* El
empirismo científico nos dice que la base del conocimiento científico es la observación.
Así que profundicemos un poco más en esta afirmación y veamos tres fuentes de
conocimiento científico. Observación simple o directa, experimentación y simulación.
Empecemos con la observación. La observación directa, o lo que simplemente llamaré
observación la mayoría de las veces, es la fuente más fundamental del conocimiento
científico. Implica el uso de nuestros sentidos, tal vez aumentados con
instrumentación, para descubrir lo que sucedió en el pasado, lo que está sucediendo
ahora, y para descubrir patrones y dependencias. Para ser un poco más precisos, los
científicos observan instancias únicas o instantáneas de la forma en que está el
mundo. Muy generalmente, podemos llamar a estas cosas eventos. Pero los científicos
a menudo hacen observaciones repetidas o buscan patrones y distribuciones en sus
observaciones. Estas observaciones más generalizadas se llaman fenómenos. Ya he
hablado del notable trabajo de Charles Darwin en el archipiélago de las Galápagos.
Pero aún no hemos visto las propias palabras de Darwin. Aquí están las palabras
iniciales del famoso libro de Darwin, sobre el Origen de las Especies. Cuando estaba a
bordo del H.M.S. Beagle como naturalista, me impresionaron mucho ciertos hechos en
la distribución de los habitantes de Sudamérica, y en las relaciones geológicas del
presente con los antiguos habitantes de ese continente. Estos hechos me parecen
arrojar algo de luz sobre El Origen de las Especies, ese misterio de los misterios como
lo ha llamado uno de nuestros más grandes filósofos. A mi regreso a casa, se me
ocurrió en 1837 que tal vez se podría hacer algo sobre esta cuestión acumulando y
reflexionando pacientemente sobre todo tipo de hechos que pudieran tener alguna
relación con ella. Ahora, fíjense en lo que Darwin nos dice aquí. La base de su teoría
revolucionaria era la pura observación. Le sorprendieron ciertos hechos y la
distribución de las plantas y animales en Sudamérica. Ya he hablado de la observación
de Darwin con cierto detalle, pero permítanme recordarles una de sus observaciones
más importantes. Darwin notó que las tortugas gigantes en diferentes islas tenían
diferentes formas de caparazón, y que los pájaros burlones en diferentes islas con
diferentes formas de pico. Sus observaciones de tortugas, pájaros burlones y pinzones
posteriores forman la base de sus ideas sobre la evolución. Darwin se dio cuenta de
que la distribución de las diferentes especies en las diferentes islas reflejaba los
antepasados comunes y los procesos evolutivos posteriores. Fue capaz de hacer esto
mediante una cuidadosa observación sin ayuda de un equipo de lujo, sólo con sus ojos
desnudos. No lo hizo, hizo sus observaciones con colecciones y éstas pueden ser
analizadas más tarde, y con cuidadosas notas a partir de las cuales pudo buscar
patrones. Pero en realidad no usó ningún instrumento en Galápagos, y en su trabajo
posterior, simplemente añadió un microscopio estándar a la mezcla. *2.3b
Observation with Telescopes* Not all observations look like this, modern astronomers
rely on incredibly sophisticated instruments telescopes in order to make observations.
Let's take a look at some of the largest and most sophisticated telescopes ever built at
the Las Campanas Observatory in Chile. >> As you well know most people think of a
telescope as being something that pirates have the open it up and they're looking
through a lens and they're looking out and holding it. That has its practical limits, a
piece of glass as a magnifying lens is heavy and you have to polish both sides of it.
There's another way of focusing light and that's through a mirror and in that case you
only have to polish one side. So it's easier but you can also support it and you can
make it bigger and bigger and bigger and have a lot of structure behind it. So here we
have one,it's inside of this enclosure. And the reason that you just don't put it outside
is the you have to protect it. First of all from the heat of the Sun during the day, you
have to protect it against dusts blowing around. But at night you want to open it up
and so these telescopes have enormous areas through telescopes structures that are
open to the atmosphere. And this one in particular has louvers in it which can open up
and make the telescope dome almost transparent to wind that once you open it up
through the wind can just flow through right through the dome. So there's been a lot
of interesting technological development, as you come to understand what causes
shimmering of the light and the distortion of the images. And we can now build
telescopes that are sort of synergistic with their environment because they impact the
mountain, they block the wind. They change the the heating patterns and knowing that
you can build these telescopes in a non-intuitive way but in a way that the computers
understand what's going on, they can correct for things. And having them on the
ground is an advantage over having them in space because as technology changes, as
a new detectors are developed, you can bring them to the telescope. Ones in space
they're usually inaccessible after a certain period of time and the only way to put
something better into spaces is to put something new into space. Whereas here you
have the large telescope, which is a workhorse that you can put different and new
things on it all the time. >> Why do astronomers go through the trouble of using such
complex and expensive tools? Well, the bigger the telescope the bigger the mirror, the
bigger the mirror the fainter the light that can be detected, and the fainter of the light
the further away and further back in time we can observe. This is an example of what
philosopher Paul Humphreys calls extending ourselves. Humphreys writes, one of
sciences most important epistemological and metaphysical achievements has been its
success in enlarging the range of our natural human abilities. And while this is true
across many different sciences, it's especially true for astronomy. Few fields have
harnessed the power of technology and computational power to extend our senses
across scale and time and sensory domains as extensively as astrophysics. Why does
astronomy or astrophysics requires so much augmentation? Well, astronomical objects
are simultaneously visible but also hard to detect. Objects such as galaxies are
enormous, they're often a hundred thousand or a million light-years in diameter and
astronomical objects of interest are very very far away. For example, this Galaxy II
Zwicki 28 is more than 391 million light-years away. This distance also means that the
events we would need to observe happen to very long time ago. So astronomical
observation involves trying to get a grip on objects that are very large, very far away
and whose present state has to be inferred from events in the far far past. Even more
profound challenges stem from the fact that astronomers cannot manipulate stars and
galaxies, they only can observe what's already happened. So all scientific methods
which are observation based face this kind of challenge. The challenge's that they're
experimental subjects can't be manipulated, scientists can only see the configurations
that nature already provided, no new ones can be created. So astronomy inherits this
problem, but it's even more complicated in astronomy because in nearly every case
there's only a single vantage point on or near the Earth and from this vantage point
you have to look at what's happened at fixed time in the past. Observación con
telescopios No todas las observaciones se ven así, los astrónomos modernos dependen
de instrumentos increíblemente sofisticados, telescopios, para hacer observaciones.
Echemos un vistazo a algunos de los más grandes y sofisticados telescopios jamás
construidos en el Observatorio de Las Campanas en Chile. >> Como bien sabes, la
mayoría de la gente piensa que un telescopio es algo que los piratas lo abren y miran a
través de un lente y lo miran y lo sostienen. Eso tiene sus límites prácticos, un pedazo
de vidrio como lente de aumento es pesado y tienes que pulir ambos lados del mismo.
Hay otra forma de enfocar la luz y es a través de un espejo y en ese caso sólo tienes
que pulir un lado. Así que es más fácil, pero también puedes apoyarlo y puedes hacerlo
cada vez más grande y tener mucha estructura detrás. Así que aquí tenemos uno, está
dentro de este recinto. Y la razón por la que no lo pones fuera es que tienes que
protegerlo. Primero que nada del calor del Sol durante el día, tienes que protegerlo
contra el polvo que sopla alrededor. Pero por la noche quieres abrirlo y así estos
telescopios tienen enormes áreas a través de estructuras telescópicas que están
abiertas a la atmósfera. Y este en particular tiene persianas que pueden abrirse y
hacer que la cúpula del telescopio sea casi transparente al viento, que una vez que se
abre a través del viento puede fluir a través de la cúpula. Así que ha habido un gran
desarrollo tecnológico interesante, al entender qué causa el brillo de la luz y la
distorsión de las imágenes. Y ahora podemos construir telescopios que son una especie
de sinergia con su entorno porque impactan en la montaña, bloquean el viento.
Cambian los patrones de calentamiento y sabiendo que se pueden construir estos
telescopios de una manera no intuitiva, pero de una manera que los ordenadores
entiendan lo que está pasando, pueden corregir las cosas. Y tenerlos en la tierra es
una ventaja sobre tenerlos en el espacio porque a medida que la tecnología cambia,
como se desarrollan nuevos detectores, puedes llevarlos al telescopio. En el espacio,
normalmente son inaccesibles después de un cierto período de tiempo y la única
manera de poner algo mejor en el espacio es poner algo nuevo en el espacio. Mientras
que aquí tienes el gran telescopio, que es un caballo de batalla en el que puedes poner
cosas diferentes y nuevas todo el tiempo. >> ¿Por qué los astrónomos se toman la
molestia de usar herramientas tan complejas y costosas? Bueno, cuanto más grande
es el telescopio, más grande es el espejo, más débil es la luz que puede ser detectada,
y más débil es la luz, más lejos y más atrás en el tiempo podemos observar. Este es
un ejemplo de lo que el filósofo Paul Humphreys llama extenderse. Humphreys escribe,
uno de los logros epistemológicos y metafísicos más importantes de la ciencia ha sido
su éxito en la ampliación de la gama de nuestras capacidades humanas naturales. Y
mientras esto es cierto en muchas ciencias diferentes, es especialmente cierto para la
astronomía. Pocos campos han aprovechado el poder de la tecnología y el poder de
cómputo para extender nuestros sentidos a través de la escala y el tiempo y los
dominios sensoriales tan extensamente como la astrofísica. ¿Por qué la astronomía o la
astrofísica requieren tanto aumento? Bueno, los objetos astronómicos son
simultáneamente visibles pero también difíciles de detectar. Los objetos como las
galaxias son enormes, a menudo tienen un diámetro de cien mil o un millón de años
luz y los objetos astronómicos de interés están muy, muy lejos. Por ejemplo, esta
Galaxia II Zwicki 28 está a más de 391 millones de años-luz de distancia. Esta
distancia también significa que los eventos que tendríamos que observar suceden a
muy largo tiempo atrás. Así que la observación astronómica implica tratar de controlar
los objetos que son muy grandes, muy lejanos y cuyo estado actual debe ser inferido a
partir de eventos en el pasado lejano. Desafíos aún más profundos provienen del
hecho de que los astrónomos no pueden manipular las estrellas y galaxias, sólo
pueden observar lo que ya ha sucedido. Así que todos los métodos científicos que se
basan en la observación se enfrentan a este tipo de desafío. El desafío es que son
sujetos experimentales que no pueden ser manipulados, los científicos sólo pueden ver
las configuraciones que la naturaleza ya proporcionó, no se pueden crear nuevas. Así
que la astronomía hereda este problema, pero es aún más complicado en la
astronomía porque en casi todos los casos sólo hay un único punto de vista en o cerca
de la Tierra y desde este punto de vista tienes que mirar lo que ha sucedido en un
tiempo fijo en el pasado. *2.3c Practicing to Observe* We've talked about extending
our observations using technology, but there's also a more old-fashioned way to
extend ourselves, practice. Scientists who work in sciences that heavily rely on
observations, paleontologists, geologists, ecologists, and even those that need
complex apparatuses, astronomers, spectroscopies, particle physicists, they often
report radical and sudden changes in their observational abilities with practice. In his
wonderful book, Your Inner Fish, the paleontologist, Neil Shubin, talks about how
difficult it is for young paleontologists or even experienced ones who are working in
new places, to notice the salient features. He describes his experiences of working in
the Arctic tundra for the first time. For a long time, it all looks the same and then all of
a sudden, one day, he sees geological strata and the differences between fossils and
bare rocks. This is really similar to the experience that musicians and athletes often
report. They'll try and try to achieve something which just seems impossible day after
day. Then all of a sudden, one day, it's not only possible, but it seems totally
straightforward. So just as a telescope can enhance our ability to see, so can practice.
This is mostly good for science, but I do want to flag a philosophical issue for us to
discuss. Remember that one of the justifications for scientific empiricism is that
observations are public. We build our scientific knowledge out of something that we
can all share. At least in principle, other people can always see the same things that
we can see and anyone can always repeat the same observations or experiments that
brought us to the beliefs that we have. But if experts literally can see things that the
rest of us can't see, then this creates some tension in this view. It's still true that
anyone in principle can repeat the observation, but this might require the same
training as the initial observer. *Practicar para observar*Hemos hablado de extender
nuestras observaciones usando tecnología, pero también hay una forma más anticuada
de extendernos, la práctica. Los científicos que trabajan en ciencias que dependen en
gran medida de las observaciones, paleontólogos, geólogos, ecologistas, e incluso
aquellos que necesitan aparatos complejos, astrónomos, espectroscopios, físicos de
partículas, a menudo informan de cambios radicales y repentinos en sus capacidades
de observación con la práctica. En su maravilloso libro, Your Inner Fish, el paleontólogo
Neil Shubin, habla de lo difícil que es para los paleontólogos jóvenes o incluso los
experimentados que están trabajando en lugares nuevos, notar las características
salientes. Describe sus experiencias de trabajar en la tundra ártica por primera vez.
Durante mucho tiempo, todo parece igual y de repente, un día, ve los estratos
geológicos y las diferencias entre los fósiles y las rocas desnudas. Esto es realmente
similar a la experiencia que los músicos y los atletas a menudo reportan. Intentarán e
intentarán lograr algo que parece imposible día tras día. Entonces, de repente, un día,
no sólo es posible, sino que parece totalmente sencillo. Así como un telescopio puede
mejorar nuestra capacidad de ver, también puede practicar. Esto es mayormente
bueno para la ciencia, pero quiero señalar un tema filosófico para que lo discutamos.
Recuerden que una de las justificaciones del empirismo científico es que las
observaciones son públicas. Construimos nuestro conocimiento científico a partir de
algo que todos podemos compartir. Al menos en principio, otras personas pueden ver
siempre las mismas cosas que nosotros podemos ver y cualquiera puede repetir
siempre las mismas observaciones o experimentos que nos llevaron a las creencias
que tenemos. Pero si los expertos pueden ver literalmente cosas que el resto de
nosotros no puede ver, entonces esto crea cierta tensión en esta visión. Sigue siendo
cierto que cualquiera en principio puede repetir la observación, pero esto podría
requerir la misma formación que el observador inicial. *Making Observation More
Efficient* It's simple observation even with fancy equipment and efficient way to find
out about the world, you might think not. If what you're trying to observe is rare then
waiting for it to happen might mean waiting a very, very long time. This is, of course,
one of the primary reasons that scientists engage in experiments. But it's not always
possible to do experiments. If you want to study something that's happened in the
past or something that takes place far away, then there's really no point in even
talking about experiments. So is there a way to make simple observations more
efficient? The general answer is yes. As scientific disciplines progress, they can become
more efficient or more systematic at observing the subject matter. How does that
happen? This varies by discipline, but there are at least three common ways. First, as
scientific disciplines mature, they build up general knowledge in the forms of models
and theories. This gives scientists clues about where to look. Darwin had to practically
stumble into the evidence for evolution, but now we know that island chains are good
place to look for it. A second way that observation can be enhanced is through
coordination between large groups of scientists. We often don't think about it, but
telegraphs, telephones, and especially the internet fundamentally changed the way
that science is conducted. As soon as astronomers with less components detected the
possibility of a neutron star collision, they let their colleagues all over the world know
about it. This resulted in a collaboration of 3,674 researchers from over 900
institutions. Sometimes, just having extra eyes or in this case, hundreds of extra eyes,
improves our ability to observe. Finally, in some cases, observation can be automated,
semi-automated, or crowd-sourced. Automated image tagging is familiar to us from
Google Image search and related internet technologies. As anyone who has done in
image search knows, these can be more or less successful depending on the
complexity of the image. A good example of crowd-sourcing is a project called Galaxy
Zoo. The Sloan Digital Sky Survey systematically imaged large portions of the northern
and southern skies using relatively large telescopes. Millions of images were
generated, far too many for even a large team to examine. So interested members of
the general public can tag images of galaxies that have been collected with this project
and then researchers can look at the ones that have been tagged in the most
promising ways. *Haciendo la observación más eficiente* Es una simple observación,
incluso con un equipo de lujo y una forma eficiente de conocer el mundo, podrías
pensar que no. Si lo que estás tratando de observar es raro, entonces esperar a que
suceda podría significar esperar un tiempo muy, muy largo. Esta es, por supuesto, una
de las principales razones por las que los científicos se dedican a los experimentos.
Pero no siempre es posible hacer experimentos. Si quieres estudiar algo que ha
sucedido en el pasado o algo que tiene lugar lejos, entonces no tiene sentido hablar de
experimentos. Entonces, ¿hay alguna forma de hacer más eficientes las observaciones
simples? La respuesta general es sí. A medida que las disciplinas científicas progresan,
pueden ser más eficientes o más sistemáticas en la observación de la materia. ¿Cómo
sucede esto? Esto varía según la disciplina, pero hay al menos tres maneras comunes.
En primer lugar, a medida que las disciplinas científicas maduran, construyen un
conocimiento general en forma de modelos y teorías. Esto da a los científicos pistas
sobre dónde mirar. Darwin tuvo que prácticamente tropezar con la evidencia de la
evolución, pero ahora sabemos que las cadenas de islas son un buen lugar para
buscarla. Una segunda forma de mejorar la observación es a través de la coordinación
entre grandes grupos de científicos. A menudo no pensamos en ello, pero los
telégrafos, los teléfonos y especialmente la Internet cambiaron fundamentalmente la
forma en que se lleva a cabo la ciencia. Tan pronto como los astrónomos con menos
componentes detectaron la posibilidad de una colisión de estrellas de neutrones,
dejaron que sus colegas de todo el mundo lo supieran. Esto dio como resultado una
colaboración de 3.674 investigadores de más de 900 instituciones. A veces, sólo tener
ojos extras o en este caso, cientos de ojos extras, mejora nuestra capacidad de
observación. Finalmente, en algunos casos, la observación puede ser automatizada,
semiautomática o por medio de la multitud. El etiquetado automático de imágenes nos
es familiar por la búsqueda de imágenes de Google y las tecnologías de Internet
relacionadas. Como cualquiera que haya hecho en la búsqueda de imágenes sabe,
estas pueden ser más o menos exitosas dependiendo de la complejidad de la imagen.
Un buen ejemplo de crowdsourcing es un proyecto llamado Galaxy Zoo. El Sloan
Digital Sky Survey tomó sistemáticamente imágenes de grandes porciones de los cielos
del norte y del sur utilizando telescopios relativamente grandes. Se generaron millones
de imágenes, demasiadas para que las examine incluso un equipo grande. Así que los
miembros interesados del público en general pueden etiquetar las imágenes de las
galaxias que han sido recogidas con este proyecto y luego los investigadores pueden
mirar las que han sido etiquetadas de las maneras más prometedoras. *2.3e Mill’s
Methods* So far I've talked a lot about observations and how we can improve them,
but we often observe in order to learn something about causal relationships, what
depends on what? I'm going to finish our discussion of observations by introducing a
framework that we can use to understand how scientists make inferences based on
their observations, experiments, and simulations. The logic of observation based
inferences was described by John Stuart Mill, a philosopher best known for writing
about liberty, but who also made great contributions to how we think about science.
Mill was interested in how we can use observations and experiments to determine
causes or what depends on what. He introduced a series of methods for reasoning
about empirical data which we now call Mill's methods. I'll talk about the first two of
his methods; what we now call the method of agreement and the method of
disagreement. So to begin thinking about these methods, let's distinguish between
outcomes and conditions. Let's imagine there was an outbreak of food poisoning in a
local restaurant. The fact that people got ill is the outcome. The different foods that
people ate, the different restaurants they ate in, and the health histories of the people
are the conditions. Scientists often called the outcomes dependent variables and the
varying conditions independent variables. I'll use these terms. So Mill's method of
agreement is simple. Make a table of the dependent and independent variables, and
then see what independent variables are shared by all the cases with the same
dependent variable. If there is such a variable, Mill's method of agreement identifies
this as the costs. So let's look at a simple example with just four dependent variables
and one independent variable whether or not an individual got sick. In this case, Mill's
method of agreement would flag tofu as the likely cause of illness. It's the one food all
the people who got sick ate. Now let's look at Mill's method of disagreement. It's
closely related. We make the same table of dependent and independent variables but
in this case you look for a pattern where a difference in the dependent variable only
occurs when there is a difference in a single variable. In this case, Mill's method of
disagreement would flag noodles is the likely cause of illness because Wel was the only
person who got sick and the only person who ate noodles. Although Mill's methods
begin to give us a logic for thinking about observation systematically, there's still
based on a very simple idea. When we're interested in what causes a phenomenon to
occur, we look for other factors that occurred or didn't occur with it. This gives us
prima facie evidence about the cause, meaning it's a starting point for understanding
what depends on what. Mill's methods definitely don't settle the matter. These patterns
of observations are consistent with other scenarios including one where we haven't yet
thought of the relevant factor, so there's a hidden cause or there's some upstream
common cause. We'll return to these points later, but first let's talk in more detail
about experiments. *2.3e Los métodos de Mill* Hasta ahora he hablado mucho de
las observaciones y de cómo podemos mejorarlas, pero a menudo observamos para
aprender algo sobre las relaciones causales, ¿de qué depende? Voy a terminar nuestra
discusión sobre las observaciones introduciendo un marco de trabajo que podemos
usar para entender cómo los científicos hacen inferencias basadas en sus
observaciones, experimentos y simulaciones. La lógica de las inferencias basadas en la
observación fue descrita por John Stuart Mill, un filósofo conocido por escribir sobre la
libertad, pero que también hizo grandes contribuciones a cómo pensamos sobre la
ciencia. Mill estaba interesado en cómo podemos usar las observaciones y
experimentos para determinar las causas o lo que depende de qué. Introdujo una serie
de métodos de razonamiento sobre datos empíricos que ahora llamamos métodos de
Mill. Hablaré de los dos primeros de sus métodos; lo que ahora llamamos el método
del acuerdo y el método del desacuerdo. Así que para empezar a pensar en estos
métodos, distingamos entre resultados y condiciones. Imaginemos que hubo un brote
de intoxicación alimentaria en un restaurante local. El hecho de que la gente se
enfermara es el resultado. Los diferentes alimentos que la gente comió, los diferentes
restaurantes en los que comió, y las historias de salud de la gente son las condiciones.
Los científicos a menudo llamaron a los resultados variables dependientes y a las
diferentes condiciones variables independientes. Usaré estos términos. Así que el
método de acuerdo de Mill es simple. Hacer una tabla de las variables dependientes e
independientes, y luego ver qué variables independientes son compartidas por todos
los casos con la misma variable dependiente. Si existe tal variable, el método de
acuerdo de Mill identifica ésta como los costos. Así que veamos un ejemplo simple con
sólo cuatro variables dependientes y una independiente, independientemente de si un
individuo se enfermó o no. En este caso, el método de acuerdo de Mill señalaría al tofu
como la causa probable de la enfermedad. Es el único alimento que todas las personas
que se enfermaron comieron. Ahora veamos el método de desacuerdo de Mill. Está
estrechamente relacionado. Hacemos la misma tabla de variables dependientes e
independientes, pero en este caso se busca un patrón donde una diferencia en la
variable dependiente sólo ocurre cuando hay una diferencia en una sola variable. En
este caso, el método de desacuerdo de Mill señalaría que los fideos son la causa
probable de la enfermedad porque Wel fue la única persona que se enfermó y la única
que comió fideos. Aunque los métodos de Mill comienzan a darnos una lógica para
pensar en la observación sistemáticamente, todavía se basa en una idea muy simple.
Cuando nos interesamos en lo que causa que un fenómeno ocurra, buscamos otros
factores que ocurrieron o no con él. Esto nos da evidencia prima facie sobre la causa,
lo que significa que es un punto de partida para entender qué depende de qué. Los
métodos de Mill definitivamente no resuelven el asunto. Estos patrones de
observaciones son consistentes con otros escenarios, incluyendo uno en el que aún no
hemos pensado en el factor relevante, así que hay una causa oculta o hay alguna
causa común aguas arriba. Volveremos a estos puntos más tarde, pero primero
hablemos con más detalle sobre los experimentos. *2.4a – Isolating and Creating
Phenomena* Toward the end of my discussion of observations, I ask whether simple
observations, even with fancy equipment, is an efficient way to find out about the
world. If what you're trying to observe is rare, then waiting for it to happen might
mean waiting for a very long time. I talked about some of the ways that scientists can
make their observations more efficient, but there are always going to be intrinsic
limitations when one's methods are confined to simple observations. Think about it in
terms of Mill's methods. If there's a combination of variables that we want to consider,
but we haven't observed them and we don't know where to observe them, we're going
to have to wait a long time, maybe even a lifetime in order to get these observations.
But what if we could produce the combinations of variables that we were most
interested in? Experiments are what allow scientists to do this. They allow scientists to
generate the conditions that they want to observe by intervening on phenomena.
There are at least two reasons why experimental interventions are so important. The
first is that scientists use experiments to create new phenomena, and the second is to
use experiments to isolate existing phenomena from the rest of the world. So in the
first case, scientists sometimes literally create a phenomenon that can bring into
existence a constellation of things that they wish to study. So this can be done, lets
say, by generating a mutation, or making a new molecule. In some cases, the novel
phenomena does exist somewhere in nature, but it's so rare, it's hard to find. But
there are cases, such as when scientists synthesize completely new molecules that
something genuinely new, genuinely new to the universe is created. The second kind
of case is when we use experiments to isolate. This allows observations of nature to
take place in a highly controlled manner. Isolating the phenomenon of interests for
many other factors, especially ones it commonly co-occurs with. Now, this is a very
abstract characterization of experiments. To get clear on it, let's visit a modern
evolutionary genetics laboratory here at the University of Pennsylvania. How do we
make these flies that encode the wrong species version of only a single gene? What we
do is inject into an embryo three different components. One is called Cas9, a protein
that's effectively molecular scissors, that we're going use to cut out the native version
of this gene. Second, we have RNA's that are cognate, or they match the sequence of
the gene that we're trying to target. These RNAs guide the Cas9 molecular scissors to
the site we're trying to manipulate. Finally, we have a third component, which is DNA
derived from the wrong species, that is used effectively as a template for the repair
process. So the molecular scissors go in and cut out the gene of interest, and this third
component provides a template from the wrong species that's then copied in to that
genome. In the end, we're left with a fly that has the contemporary genes and
telomeres of Drosophila melanogaster, but only at this one gene, the wrong species
version. In this carefully engineered fly, we're able to very precisely hone in on the
biology that has changed as a consequence of the evolution since these two species
split. We learned from Professor Levine a little more about what a cutting edge
genetics laboratory looks like. In her laboratory, she studies the evolution of the
proteins attached to the end of chromosomes. In doing so, she illustrates the two
reasons for turning to experiments that I mentioned earlier. The first is isolation. She
isolates a specific phenomenon in a model species. She's looking at the behavior of
proteins on the end of laboratory fruit flies chromosomes. She also creates a
phenomena. She creates new genetic variations to study by using the technique of
CRISPR Cas9, which lets her alter the DNA sequence of the fruit flies. This is of course
just one laboratory, but we'd see the same kinds of motivations for experimentation in
labs throughout the world. *Aislando y creando fenómenos* Hacia el final de mi
discusión sobre las observaciones, me pregunto si las simples observaciones, incluso
con equipos de lujo, es una manera eficiente de conocer el mundo. Si lo que está
tratando de observar es raro, entonces esperar a que suceda podría significar esperar
mucho tiempo. Hablé sobre algunas de las formas en que los científicos pueden hacer
sus observaciones más eficientes, pero siempre habrá limitaciones intrínsecas cuando
los métodos de uno se limiten a simples observaciones. Piense en ello en términos de
los métodos de Mill. Si hay una combinación de variables que queremos considerar,
pero no las hemos observado y no sabemos dónde observarlas, vamos a tener que
esperar mucho tiempo, tal vez toda una vida, para obtener estas observaciones. ¿Pero
qué pasaría si pudiéramos producir las combinaciones de variables que más nos
interesan? Los experimentos son los que permiten a los científicos hacer esto.
Permiten a los científicos generar las condiciones que quieren observar interviniendo
en los fenómenos. Hay al menos dos razones por las que las intervenciones
experimentales son tan importantes. La primera es que los científicos utilizan los
experimentos para crear nuevos fenómenos, y la segunda es utilizar los experimentos
para aislar los fenómenos existentes del resto del mundo. Así que en el primer caso,
los científicos a veces crean literalmente un fenómeno que puede dar lugar a una
constelación de cosas que desean estudiar. Así que esto puede hacerse, digamos,
generando una mutación, o haciendo una nueva molécula. En algunos casos, el nuevo
fenómeno existe en algún lugar de la naturaleza, pero es tan raro, que es difícil de
encontrar. Pero hay casos, como cuando los científicos sintetizan moléculas
completamente nuevas, en los que se crea algo genuinamente nuevo, genuinamente
nuevo para el universo. El segundo tipo de caso es cuando usamos experimentos para
aislar. Esto permite que las observaciones de la naturaleza tengan lugar de una
manera altamente controlada. Aislando el fenómeno de interés para muchos otros
factores, especialmente aquellos con los que comúnmente co-ocurre. Ahora, esta es
una caracterización muy abstracta de los experimentos. Para aclararlo, visitemos un
moderno laboratorio de genética evolutiva aquí en la Universidad de Pennsylvania.
¿Cómo hacemos estas moscas que codifican la versión de la especie equivocada de un
solo gen? Lo que hacemos es inyectar en un embrión tres componentes diferentes.
Uno se llama Cas9, una proteína que es efectivamente tijeras moleculares, que vamos
a utilizar para cortar la versión nativa de este gen. En segundo lugar, tenemos ARN
que son afines, o que coinciden con la secuencia del gen que estamos tratando de
atacar. Estos ARNs guían a las tijeras moleculares Cas9 al sitio que estamos tratando
de manipular. Finalmente, tenemos un tercer componente, que es el ADN derivado de
la especie equivocada, que se utiliza eficazmente como plantilla para el proceso de
reparación. Así que las tijeras moleculares entran y cortan el gen de interés, y este
tercer componente proporciona una plantilla de la especie equivocada que luego se
copia en ese genoma. Al final, nos quedamos con una mosca que tiene los genes y
telómeros contemporáneos de la Drosophila melanogaster, pero sólo en este gen, la
versión de la especie equivocada. En esta mosca cuidadosamente diseñada, somos
capaces de afinar con mucha precisión la biología que ha cambiado como consecuencia
de la evolución desde que estas dos especies se separaron. Aprendimos del profesor
Levine un poco más sobre cómo es un laboratorio de genética de vanguardia. En su
laboratorio, estudia la evolución de las proteínas adheridas a los extremos de los
cromosomas. Al hacerlo, ilustra las dos razones para recurrir a los experimentos que
mencioné anteriormente. La primera es el aislamiento. Aísla un fenómeno específico en
una especie modelo. Está observando el comportamiento de las proteínas en los
cromosomas de la mosca de la fruta de laboratorio. También crea un fenómeno. Crea
nuevas variaciones genéticas para estudiarlas usando la técnica de CRISPR Cas9, que
le permite alterar la secuencia de ADN de las moscas de la fruta. Por supuesto, este es
sólo un laboratorio, pero veríamos el mismo tipo de motivaciones para la
experimentación en laboratorios de todo el mundo. *2.4b The Logic of Experiments*
I hope that our detailed look at the evolutionary genetics in the Levine lab. As well as
our discussion of theory earlier has given us some background to develop good
intuitions about the nature of experiments. But since we're doing philosophy of
science, I want to get abstract a bit and think about how we should characterize
experiments more generally. I've already explained the core of an experiment is an
intervention, in order to think about the logic of experiments, we're going to need to
make an idealization. We have to deliberately simplify something in order to
understand it better. The idealization we are going to use comes from philosopher Jim
Woodward, what he calls an ideal intervention. An ideal intervention is speaking
metaphorically a surgical intervention. We have complete control of experimental
variables and when we tend to change one of them, we only change that one and
anything else that cause Ali depends on it. With the idea of an ideal intervention in
mind, we can begin to think about the logic of experiments by returning once again to
Mills methods. In fact, we can return to the unfortunate example of everyone getting
sick from the tofu. In general tofu doesn't make people sick, in fact, it's an essential
part of many people's diets. So something obviously went wrong in this case, and one
thing we might try to do is go back to the particular situation and drive some clues.
But another thing we might do is to create an experiment and to find out under what
kinds of conditions illness causing bacteria like e-coli or listeria can grow on tofu. So
let's imagine an experiment, in this experiment we might test tofu under five different
conditions. Just taken out of the refrigerator, left on the counter for 30 minutes, left on
the counter for two hours, left on the counter for 10 hours and cook to 75 degrees C.
In principle, we could wait around to find tofu in each of these conditions, but a much
more efficient way is to create the conditions we want to investigate. So we would take
our tofu probably many pieces and subject them to the five different conditions, and
then do a test for bacteria under each condition. So we can infer from this experiment
that bacteria can grow at room temperature. And while these bacteria aren't an
immediate danger to humans, we need to be very careful about leaving tofu at room
temperature for very long. If this Were a real experiment and not just a simple
example, we'd probably go into a lot more depth trying to determine how long it takes
for bacteria to start growing. When the dangerous ones are present and what can be
done to minimize health risks. But what I hope to have shown you, is that the logic of
experiments is just like the logic of observations the application of Mills methods. Now
let's recall what happened in the Lavin lab. >> What my lab does instead is we take
versions of that gene from closely related species put it back into a drosophila
melanogaster and ask what breaks. And we think that what breaks when we put the
wrong species version of that gene into our model organism, that tells us what's the
biology that evolution has shaped in the past 500,000 to 2 million years of evolution.
And we're using this approach to study specifically the proteins that package
chromosome ends or telomeres. So we are specifically interested in genes that encode
proteins that glom on to the DNA. >> So we can see that from the simple example of
tofu to the complex example in a modern genetics laboratory, much of the logic of
experiments is the same. You might be wondering why I haven't mentioned statistics
as I've discussed the logic of experiments, a lot of modern experiments, of course do
involve statistics. And why do they? Well, some effects don't show up every time or a
hard to detect or their causal factors that are hard to control. And in all of these cases,
scientists need to use statistical methods to tease out the signal from the noise. This is
a huge topic worthy of its own discussion its own course even, and we're not going to
be able to discuss it other than to say that the basic logic remains the same even if we
need to introduce the mathematics of statistics. Before moving on, we need to talk a
little bit more about causation. I've spoken very loosely about how observational and
experimental methods help scientists find out what cause something to happen. Food
poisoning in our example or chromosome integrity and Professor Levine's lab. Mills
methods are helpful guide to finding causes, but they do break down as a guide in
certain circumstances. And one of the most well studied cases is situations where you
have a common cause, so here's an example. A lot of the time when it rains or is about
to rain I get a migraine, for some people the connection between migraines and storms
is like clockwork and I'm sorry if you're one of these people it's totally awful. So let's
say over the course of a month we made a mil style chart of migraines and storms,
and we would see on this chart a link migraines and storms are highly correlated. But
if we weren't careful we could end up inferring that migraines cause storms, just the
way we inferred that illness causing bacteria grow at room temperature. In other
words, correlations only tell us two things co-occur, they don't tell us what depends on
what or even if there is a causal relationship at all between the two variables. Now
everybody knows that migrants don't cause storms and storms don't cause migraines,
and yet they're highly correlated. But what explains this? The explanation is that they
have a common cause, sudden drops in atmospheric pressure cause both migraines
and storms. In this kind of case, where there's a common cause that hasn't been
explicitly considered, Mills methods will not uncover causes only correlations. And it's
because of this that you may have learned that correlation does not equal causation.
That statement is true although as we've seen correlation is a good guide to causation.
So before moving on I want to raise one more issue about experiments, when most of
us were in high school, we learned about what teachers called the scientific method. It
was taught in a pretty formulaic way, do some background research, formulate a
hypothesis, test the hypothesis with an experiment, and then conclude that the
hypothesis was true or false. I hope our time together so far as convince you that this
is a massively overly simplified picture of what scientific research looks like. But I do
want to briefly focus on one particular over simplification in this formula. When we're
taught the method, we're taught that the purpose of doing experiments is to always
test hypotheses, but is this true? I think the answer is simple, no, lots of experiments
to test hypotheses, but lots of other experiments as well as straight observations and
simulations are exploratory or align with theories in more complex ways. Scientific
results are often written up talking about the connection between theories or
hypotheses on the one hand, and experiments on the other. But that doesn't mean
that this is literally the method or procedure that has to be used in every case. In the
next part, we're going to talk about simulations, something you may not have learned
about at all in high school. *2.4b - La lógica de los experimentos* Espero que
nuestra mirada detallada a la genética evolutiva en el laboratorio de Levine. Así como
nuestra discusión de la teoría anterior nos ha dado algunos antecedentes para
desarrollar buenas intuiciones sobre la naturaleza de los experimentos. Pero ya que
estamos haciendo filosofía de la ciencia, quiero ser un poco más abstracto y pensar en
cómo deberíamos caracterizar los experimentos de manera más general. Ya he
explicado que el núcleo de un experimento es una intervención, para pensar en la
lógica de los experimentos, vamos a tener que hacer una idealización. Tenemos que
simplificar deliberadamente algo para entenderlo mejor. La idealización que vamos a
utilizar viene del filósofo Jim Woodward, lo que él llama una intervención ideal. Una
intervención ideal es, metafóricamente hablando, una intervención quirúrgica.
Tenemos un control completo de las variables experimentales y cuando tendemos a
cambiar una de ellas, sólo cambiamos esa y cualquier otra cosa que cause que Ali
dependa de ella. Con la idea de una intervención ideal en mente, podemos empezar a
pensar en la lógica de los experimentos volviendo una vez más a los métodos de Mills.
De hecho, podemos volver al desafortunado ejemplo de todos los que se enfermaron
por el tofu. En general el tofu no enferma a la gente, de hecho, es una parte esencial
de la dieta de muchas personas. Así que obviamente algo salió mal en este caso, y una
cosa que podríamos tratar de hacer es volver a la situación particular y dar algunas
pistas. Pero otra cosa que podríamos hacer es crear un experimento y descubrir bajo
qué condiciones las bacterias que causan enfermedades como el e-coli o la listeria
pueden crecer en el tofu. Así que imaginemos un experimento, en este experimento
podríamos probar el tofu bajo cinco condiciones diferentes. Simplemente se saca del
refrigerador, se deja en el mostrador durante 30 minutos, se deja en el mostrador
durante dos horas, se deja en el mostrador durante 10 horas y se cocina a 75 grados
C. En principio, podríamos esperar para encontrar tofu en cada una de estas
condiciones, pero una forma mucho más eficiente es crear las condiciones que
queremos investigar. Así que tomaríamos nuestro tofu probablemente muchos trozos y
los someteríamos a las cinco condiciones diferentes, y luego haríamos una prueba de
bacterias bajo cada condición. Así que podemos inferir de este experimento que las
bacterias pueden crecer a temperatura ambiente. Y aunque estas bacterias no son un
peligro inmediato para los humanos, debemos tener mucho cuidado de no dejar el tofu
a temperatura ambiente durante mucho tiempo. Si este fuera un experimento real y
no un simple ejemplo, probablemente profundizaríamos mucho más tratando de
determinar cuánto tiempo le toma a las bacterias comenzar a crecer. Cuando las
peligrosas están presentes y lo que se puede hacer para minimizar los riesgos para la
salud. Pero lo que espero haberles mostrado, es que la lógica de los experimentos es
como la lógica de las observaciones la aplicación de los métodos de Mills. Ahora
recordemos lo que pasó en el laboratorio de Lavin. >> Lo que mi laboratorio hace en
cambio es tomar versiones de ese gen de especies estrechamente relacionadas,
ponerlo de nuevo en una drosophila melanogaster y preguntar qué se rompe. Y
pensamos que lo que se rompe cuando ponemos la versión de la especie equivocada
de ese gen en nuestro organismo modelo, nos dice cuál es la biología que la evolución
ha moldeado en los últimos 500.000 a 2 millones de años de evolución. Y estamos
usando este enfoque para estudiar específicamente las proteínas que empaquetan los
extremos de los cromosomas o telómeros. Así que estamos interesados
específicamente en los genes que codifican las proteínas que se pegan al ADN. >> Así
que podemos ver que desde el simple ejemplo del tofu hasta el complejo ejemplo en
un laboratorio de genética moderno, mucha de la lógica de los experimentos es la
misma. Se preguntarán por qué no he mencionado las estadísticas, ya que he discutido
la lógica de los experimentos, muchos de los experimentos modernos, por supuesto,
involucran estadísticas. ¿Y por qué lo hacen? Bueno, algunos efectos no aparecen cada
vez o son difíciles de detectar o sus factores causales son difíciles de controlar. Y en
todos estos casos, los científicos necesitan usar métodos estadísticos para extraer la
señal del ruido. Este es un enorme tema digno de su propia discusión, incluso su
propio curso, y no vamos a ser capaces de discutirlo más que para decir que la lógica
básica sigue siendo la misma, incluso si tenemos que introducir las matemáticas de la
estadística. Antes de seguir adelante, tenemos que hablar un poco más sobre la
causalidad. He hablado muy libremente sobre cómo los métodos de observación y
experimentación ayudan a los científicos a encontrar la causa de que algo suceda. La
intoxicación alimentaria en nuestro ejemplo o la integridad de los cromosomas y el
laboratorio del profesor Levine. Los métodos de Mills son una guía útil para encontrar
las causas, pero se descomponen como guía en ciertas circunstancias. Y uno de los
casos más estudiados son las situaciones en las que se tiene una causa común, así que
aquí tenemos un ejemplo. Muchas veces cuando llueve o está a punto de llover me da
migraña, para algunas personas la conexión entre las migrañas y las tormentas es
como un reloj y lo siento si eres una de esas personas es totalmente horrible. Así que
digamos que en el transcurso de un mes hicimos un gráfico de migrañas y tormentas
al estilo de Mil, y veríamos en este gráfico un vínculo entre migrañas y tormentas
están altamente correlacionadas. Pero si no tuviéramos cuidado, podríamos terminar
deduciendo que las migrañas causan tormentas, de la misma manera que dedujimos
que las bacterias que causan enfermedades crecen a temperatura ambiente. En otras
palabras, las correlaciones sólo nos dicen que dos cosas co-ocurren, no nos dicen qué
depende de qué o incluso si hay una relación causal en absoluto entre las dos
variables. Ahora todo el mundo sabe que los migrantes no causan tormentas y las
tormentas no causan migrañas, y sin embargo están altamente correlacionadas. ¿Pero
qué explica esto? La explicación es que tienen una causa común, las caídas repentinas
de la presión atmosférica causan tanto migrañas como tormentas. En este tipo de
casos, donde hay una causa común que no ha sido explícitamente considerada, los
métodos de Mills no descubrirán causas sólo correlaciones. Y es por esto que puede
que haya aprendido que la correlación no es igual a la causalidad. Esa afirmación es
cierta, aunque como hemos visto la correlación es una buena guía para la causalidad.
Así que antes de seguir adelante quiero plantear una cuestión más sobre los
experimentos, cuando la mayoría de nosotros estábamos en la escuela secundaria,
aprendimos sobre lo que los profesores llamaban el método científico. Se enseñaba de
una manera bastante formulaica, hacer algunas investigaciones de fondo, formular una
hipótesis, probar la hipótesis con un experimento, y luego concluir que la hipótesis era
verdadera o falsa. Espero que el tiempo que pasemos juntos te convenza de que esta
es una imagen demasiado simplificada de lo que es la investigación científica. Pero
quiero centrarme brevemente en una simplificación excesiva de esta fórmula. Cuando
se nos enseña el método, se nos enseña que el propósito de hacer experimentos es
siempre probar hipótesis, pero ¿es esto cierto? Creo que la respuesta es simple, no,
muchos experimentos para probar hipótesis, pero muchos otros experimentos, así
como las observaciones directas y las simulaciones son exploratorias o se alinean con
las teorías de manera más compleja. Los resultados científicos se escriben a menudo
hablando de la conexión entre las teorías o hipótesis por un lado, y los experimentos
por el otro. Pero eso no significa que este sea literalmente el método o procedimiento
que tiene que ser usado en cada caso. En la siguiente parte, vamos a hablar de las
simulaciones, algo que tal vez no hayas aprendido en absoluto en la escuela
secundaria. Traducción realizada con la versión gratuita del traductor
www.DeepL.com/Translator *2.5 Simulations: Empirical and Reliable?* The third
source of scientific knowledge is simulation. While there are many historically
important analog simulations run on mechanical models, I'm going to focus on
computer simulations. At its core, a simulation consists of a model and initial
conditions. We can think of a model as a representation of some real or imagined part
of the world, and the initial conditions as the starting point. Let's take a simple and
famous example to begin with. The economist, Thomas Schelling, presented a very
simple model that shows how racial segregation can occur in cities even when little
racism is present. To be clear, he didn't argue that cities don't have racism, only that
extensive racial segregation can happen even when cities are very but not completely
racially tolerant. His model was agent-based, meaning that individuals are explicitly
represented in the model. The model represents a city as a grid and people as colored
dots on the grid. So let's use blue and green people. We also need to define
neighborhoods. Each individual has its neighborhood consisting of the eight adjacent
squares, what's called the more neighborhood in this literature. Every individual
prefers that at least 30% of its neighbors be of the same type. The blue ones want to
have 30% or more blue neighbors, and the green ones want to have 30% or more
green neighbors. No one particularly cares about being in a homogeneous
neighborhood or even having a majority of neighbors look alike. Now, we need to know
two more things to understand the simulation. First, how do the agents move in this
model? Remember, their preference is for having 30% or more like neighbors. In each
time step of the model, every agent considers its neighbors and decides whether or not
this threshold has been met. If it has, the agent does nothing. And if it hasn't, then the
agent moves to the nearest open space. The second thing we need are the initial
conditions. How the agents are initially distributed on the grid. The simplest way to
work with this model is to randomize the initial placement of agents. And then
repeatedly run the simulation with a different random configuration. Let's watch what
happens. As we saw in these examples, Schelling's model shows that the non-
segregated state is very unstable. Even when most agents are initially satisfied with
their neighbors, they can become disgruntled as soon as a neighbor leaves or a new
one moves in. And this leads to the new agents becoming disgruntled. So a small
patch of dissatisfaction results in widespread dissatisfaction and widespread movement
and ultimately segregation. Though there are a few grid configurations that are
integrated where every agent is happy, these are extremely rare and impossible to find
randomly. That's Schelling's major result is that small preferences for similarity can
lead to massive segregation and this result is quite robust. Meaning it occurs across
many changes to the model including different tolerance thresholds, different rules for
movement, differing neighborhood sizes, different special considerations, and so forth.
In fact, it's extremely hard to avoid segregation when agents have some preference at
all for neighbors like themselves. Now, Schelling simulation is very simple, but it
illustrates very well how simulations are put together and what we can learn from
them. All of the same principles apply to something more complex. For example, I
talked in the past about the phenomenon of global warming. And when scientists want
to make predictions about changes to future climates, they of course can't do
experiments to directly bear on the subject. So instead, they use simulations, much
more complicated than Schelling but still fundamentally the same. Specifically they
start with a model of the climate. This has to take into account all of the air in the
atmosphere, the oceans, the incoming solar radiation, the landmasses, many, many
other things that influence the weather and the climate. And then this model has to
represent how energy is transferred through the system, and how this in turn changes
climatic variables including, temperature, rainfall, and sea levels. If you follow the
discussions of climate change, you might know that there is no single simulation or
model in use. So why is that? The reason is the enormous complexity of the climate.
The climate is what scientists call a complex system which means it's composed of a
very large number of interacting parts. This means that there is no way to fully and
realistically simulate the system, so approximations have to be made. And while
there's no disagreement about the physical structure of the Earth or the physics of
energy transfer, there are different ways to make approximations. So the result is that
multiple but closely related distinct models differ in how the complexity is simplified.
And I want to come back to this point. So as we saw in the Schelling's case, we also
need to include initial conditions and other inputs to the model. Climate models are
often initialized with past climate records. But to make predictions about the future,
climate scientists need to know how much carbon will continue to burn. Since that's of
course unknown, they actually run the model with different scenarios. For example,
increased emissions over the next 50 years, steady emissions over the next 50 years,
reduction by 25%, and so forth. Like the Schelling simulation, climate simulations are
run multiple times randomizing some variables and looking for general trends in the
outputs. Moreover, since there is no one master model behind all the simulations, each
of the major models has to be tried out. This is the basis for graphs like this one that
show massive increases in the global mean temperature unless there are drastic
reductions in carbon emissions in the near future. Notice that there are multiple lines
in this graph. This corresponds to results from models that considered how much
carbon we end up emitting among other variables. Having now talked about two
simulations, a simple one and a highly complex one, let's pull back and ask some
philosophical questions about them. Specifically, are they really empirical and how can
we be sure if they're reliable? First, let's talk about the extent to which simulations are
empirical. I've argued that science gets a lot of its power from its empiricism, its
ultimate foundation in public observations of the world. But simulations look different.
They start from a model which is often represented in a computer, and they don't carry
out any conventional observation. Instead, scientists use simulations to compute what
happens in a model given some initial conditions. Ultimately, it looks like we're doing
math here, not observation. Something's clearly right about this, and there's certainly
a difference in procedure. Simulations don't require us to go out in the field to observe
or even to manipulate them in the laboratory. But there are some important
similarities between experiments and simulations. In both cases, scientists create
conditions to test what happens when one or just a few variables are manipulated.
Moreover, although experimental systems are physically in the world in the way that
most models are not, experimental manipulations happen on experimental systems,
which are often modified versions of what we'd find in the world. For example, the
Levine lab fruit flies are real fruit flies, but they've been bred for laboratory purposes.
We would never find these particular flies in nature unless one escaped. So this means
that in both experiments and simulations, we need to make an additional inferential
step about the world from what we've learned by manipulating a system. Be it an
experimental system like a laboratory fruit fly or the model at the heart of a
simulation. There's another way that many simulations are grounded in public
observations. The components of models and the initial conditions of the models are of
course based on prior observations about the world. In some cases, like in climate
simulations, the long accumulated knowledge of many different scientific fields is used
to create the model, and observations are used to give the simulation its initial
conditions. And in other kinds of models, like Schelling simulation, very simple
descriptions of how people might behave are used to construct the model. So if we
would want to draw inferences on the basis of this simulation, we'd have to investigate
whether the social and psychological assumptions in the model have any real
relationship to real communities. So in the end, despite possibly seeming not
empirical, simulations really are thoroughly empirical. We can think of simulations as a
tool for exploring the consequences effects that we have determined empirically, or
facts that we would need to further investigate empirically. One final question about
simulations, are they reliable? Can we count on them as a guide to making decisions
about the future or using them to intervene in matters of health or public policy? There
are two versions of this question. The first concerns particular simulations. It's always
a good idea to ask about the quality of a simulation. As a non-expert, usually the best
we could do is evaluate the reliability of the research team that performed the
simulation, or maybe the venue in which it's published. Do they have a track record.
Do they have an ulterior motive or agenda? But the philosophical question is a deeper
one. Simulations often take what is known about the past behavior of systems and use
them to make predictions about new scenarios, including new domains, new people, or
the future. This is definitely a real question, but it's part of a nexus of quite general
questions about scientific inference. These questions include, how do we know we
haven't neglected some important process or factor that will be important in the
future? How do we know that the future will resemble the past in the important
respects? And when we move from one system, say fruit flies in the lab to another, say
fruit flies in nature, how do we know that there isn't an additional consideration we've
neglected. These are deep and important questions the answers to which you're never
definitive. The epistemic power of science does not come and having definite ways to
deal with all these issues once and for all. Rather, it comes from a general posture of
openness. Openness to the possibility that some as-yet-undiscovered factor will prove
to be important. That the future may differ in some important respect from the past,
and so forth. And this is why scientists say that their results should always be taken to
be provisional even when they're well supported. And this is the theme that we'll
continue to return to when we discuss objectivity. 2.5 - Simulaciones: ¿Empíricas y
fiables? La tercera fuente de conocimiento científico es la simulación. Mientras que hay
muchas simulaciones analógicas históricamente importantes que se ejecutan en
modelos mecánicos, me voy a centrar en las simulaciones por ordenador. En su
núcleo, una simulación consiste en un modelo y condiciones iniciales. Podemos pensar
en un modelo como una representación de alguna parte real o imaginaria del mundo, y
las condiciones iniciales como punto de partida. Tomemos un ejemplo simple y famoso
para empezar. El economista, Thomas Schelling, presentó un modelo muy simple que
muestra cómo la segregación racial puede ocurrir en las ciudades incluso cuando hay
poco racismo. Para ser claro, no argumentó que las ciudades no tienen racismo, sólo
que la segregación racial extensa puede ocurrir incluso cuando las ciudades son muy
pero no completamente tolerantes en cuanto a la raza. Su modelo se basaba en los
agentes, lo que significa que los individuos están explícitamente representados en el
modelo. El modelo representa una ciudad como una cuadrícula y a las personas como
puntos de color en la cuadrícula. Así que usemos gente azul y verde. También
necesitamos definir los barrios. Cada individuo tiene su barrio que consiste en las ocho
plazas adyacentes, lo que se llama el más barrio en esta literatura. Cada individuo
prefiere que al menos el 30% de sus vecinos sean del mismo tipo. Los azules quieren
tener un 30% o más de vecinos azules, y los verdes quieren tener un 30% o más de
vecinos verdes. A nadie le importa particularmente estar en un vecindario homogéneo
o incluso tener una mayoría de vecinos iguales. Ahora, necesitamos saber dos cosas
más para entender la simulación. Primero, ¿cómo se mueven los agentes en este
modelo? Recuerden, su preferencia es tener un 30% o más de vecinos parecidos. En
cada paso temporal del modelo, cada agente considera a sus vecinos y decide si se ha
alcanzado o no este umbral. Si lo ha hecho, el agente no hace nada. Y si no lo ha
hecho, entonces el agente se mueve al espacio abierto más cercano. Lo segundo que
necesitamos son las condiciones iniciales. Cómo se distribuyen los agentes inicialmente
en la red. La forma más simple de trabajar con este modelo es aleatorizar la colocación
inicial de los agentes. Y luego ejecutar repetidamente la simulación con una
configuración aleatoria diferente. Veamos lo que sucede. Como vimos en estos
ejemplos, el modelo de Schelling muestra que el estado no segregado es muy
inestable. Incluso cuando la mayoría de los agentes están inicialmente satisfechos con
sus vecinos, pueden llegar a estar descontentos tan pronto como un vecino se va o
uno nuevo se muda. Y esto lleva a los nuevos agentes a estar descontentos. Así que
un pequeño parche de insatisfacción resulta en una insatisfacción generalizada y un
movimiento generalizado y, en última instancia, la segregación. Aunque hay unas
pocas configuraciones de red integradas donde cada agente está contento, estas son
extremadamente raras e imposibles de encontrar al azar. El principal resultado de
Schelling es que las pequeñas preferencias por la similitud pueden llevar a una
segregación masiva y este resultado es bastante robusto. Lo que significa que ocurre a
través de muchos cambios en el modelo, incluyendo diferentes umbrales de tolerancia,
diferentes reglas de movimiento, diferentes tamaños de vecindario, diferentes
consideraciones especiales, y así sucesivamente. De hecho, es extremadamente difícil
evitar la segregación cuando los agentes tienen alguna preferencia por vecinos como
ellos. Ahora, la simulación de Schelling es muy simple, pero ilustra muy bien cómo se
arman las simulaciones y lo que podemos aprender de ellas. Todos los mismos
principios se aplican a algo más complejo. Por ejemplo, en el pasado hablé del
fenómeno del calentamiento global. Y cuando los científicos quieren hacer predicciones
sobre los cambios en los climas futuros, por supuesto que no pueden hacer
experimentos que tengan que ver directamente con el tema. Así que en su lugar, usan
simulaciones, mucho más complicadas que las de Schelling pero fundamentalmente
iguales. Específicamente comienzan con un modelo del clima. Esto tiene que tener en
cuenta todo el aire de la atmósfera, los océanos, la radiación solar entrante, las masas
terrestres, muchas, muchas otras cosas que influyen en el tiempo y el clima. Y luego
este modelo tiene que representar cómo se transfiere la energía a través del sistema,
y cómo esto a su vez cambia las variables climáticas incluyendo, la temperatura, las
precipitaciones y el nivel del mar. Si sigues las discusiones sobre el cambio climático,
podrías saber que no hay una sola simulación o modelo en uso. Entonces, ¿por qué es
eso? La razón es la enorme complejidad del clima. El clima es lo que los científicos
llaman un sistema complejo, lo que significa que está compuesto de un gran número
de partes que interactúan. Esto significa que no hay forma de simular el sistema de
forma completa y realista, por lo que hay que hacer aproximaciones. Y aunque no hay
desacuerdo sobre la estructura física de la Tierra o la física de la transferencia de
energía, hay diferentes maneras de hacer aproximaciones. Así que el resultado es que
múltiples pero estrechamente relacionados modelos distintos difieren en la forma en
que se simplifica la complejidad. Y quiero volver a este punto. Así que como vimos en
el caso de Schelling, también tenemos que incluir las condiciones iniciales y otras
aportaciones al modelo. Los modelos climáticos a menudo se inician con los registros
climáticos del pasado. Pero para hacer predicciones sobre el futuro, los científicos del
clima necesitan saber cuánto carbono seguirá quemándose. Dado que eso es por
supuesto desconocido, en realidad ejecutan el modelo con diferentes escenarios. Por
ejemplo, aumento de las emisiones en los próximos 50 años, emisiones constantes en
los próximos 50 años, reducción del 25%, y así sucesivamente. Al igual que la
simulación de Schelling, las simulaciones climáticas se ejecutan varias veces al azar de
algunas variables y buscando tendencias generales en los resultados. Además, como
no hay un modelo maestro detrás de todas las simulaciones, hay que probar cada uno
de los modelos principales. Esta es la base de gráficos como este que muestran
aumentos masivos en la temperatura media global a menos que haya reducciones
drásticas en las emisiones de carbono en el futuro cercano. Noten que hay múltiples
líneas en este gráfico. Esto corresponde a los resultados de los modelos que
consideraron cuánto carbono terminamos emitiendo entre otras variables. Habiendo
hablado ahora de dos simulaciones, una simple y otra muy compleja, vamos a
retroceder y hacer algunas preguntas filosóficas sobre ellas. Específicamente, ¿son
realmente empíricas y cómo podemos estar seguros de que son fiables? Primero,
hablemos del grado en que las simulaciones son empíricas. He argumentado que la
ciencia obtiene gran parte de su poder de su empirismo, su fundamento último en las
observaciones públicas del mundo. Pero las simulaciones parecen diferentes. Parten de
un modelo que a menudo se representa en un ordenador, y no llevan a cabo ninguna
observación convencional. En su lugar, los científicos utilizan las simulaciones para
calcular lo que sucede en un modelo dadas algunas condiciones iniciales. En última
instancia, parece que estamos haciendo matemáticas aquí, no observación. Algo está
claramente bien en esto, y ciertamente hay una diferencia en el procedimiento. Las
simulaciones no requieren que salgamos al campo para observarlas o incluso
manipularlas en el laboratorio. Pero hay algunas similitudes importantes entre los
experimentos y las simulaciones. En ambos casos, los científicos crean condiciones
para probar lo que sucede cuando se manipulan una o unas pocas variables. Además,
aunque los sistemas experimentales están físicamente en el mundo de la manera en
que la mayoría de los modelos no lo están, las manipulaciones experimentales ocurren
en los sistemas experimentales, que a menudo son versiones modificadas de lo que
encontraríamos en el mundo. Por ejemplo, las moscas de la fruta del laboratorio Levine
son moscas de la fruta reales, pero han sido criadas con fines de laboratorio. Nunca
encontraríamos estas moscas en particular en la naturaleza a menos que una se
escapara. Así que esto significa que tanto en los experimentos como en las
simulaciones, necesitamos hacer un paso inferencial adicional sobre el mundo a partir
de lo que hemos aprendido manipulando un sistema. Ya sea un sistema experimental
como una mosca de la fruta de laboratorio o el modelo en el corazón de una
simulación. Hay otra forma en que muchas simulaciones se basan en observaciones
públicas. Los componentes de los modelos y las condiciones iniciales de los modelos se
basan, por supuesto, en observaciones previas sobre el mundo. En algunos casos,
como en las simulaciones climáticas, el conocimiento acumulado durante mucho
tiempo en muchos campos científicos diferentes se utiliza para crear el modelo, y las
observaciones se utilizan para dar a la simulación sus condiciones iniciales. Y en otros
tipos de modelos, como en la simulación de Schelling, se utilizan descripciones muy
simples de cómo podría comportarse la gente para construir el modelo. Así que si
quisiéramos hacer inferencias sobre la base de esta simulación, tendríamos que
investigar si los supuestos sociales y psicológicos del modelo tienen alguna relación
real con las comunidades reales. Así que al final, a pesar de que posiblemente no
parezca empírico, las simulaciones son realmente muy empíricas. Podemos pensar en
las simulaciones como una herramienta para explorar los efectos de las consecuencias
que hemos determinado empíricamente, o los hechos que tendríamos que seguir
investigando empíricamente. Una última pregunta sobre las simulaciones, ¿son fiables?
¿Podemos contar con ellas como guía para tomar decisiones sobre el futuro o
utilizarlas para intervenir en cuestiones de salud o de política pública? Hay dos
versiones de esta pregunta. La primera se refiere a simulaciones concretas. Siempre es
una buena idea preguntarse sobre la calidad de una simulación. Como no somos
expertos, normalmente lo mejor que podemos hacer es evaluar la fiabilidad del equipo
de investigación que realizó la simulación, o tal vez el lugar en el que se publica.
¿Tienen un historial. ¿Tienen un motivo o agenda ulterior? Pero la pregunta filosófica
es más profunda. Las simulaciones a menudo toman lo que se conoce sobre el
comportamiento pasado de los sistemas y los usan para hacer predicciones sobre
nuevos escenarios, incluyendo nuevos dominios, nuevas personas o el futuro. Esta es
definitivamente una pregunta real, pero es parte de un nexo de preguntas bastante
generales sobre la inferencia científica. Estas preguntas incluyen, ¿cómo sabemos que
no hemos descuidado algún proceso o factor importante que será importante en el
futuro? ¿Cómo sabemos que el futuro se parecerá al pasado en los aspectos
importantes? Y cuando pasamos de un sistema, digamos las moscas de la fruta en el
laboratorio a otro, digamos las moscas de la fruta en la naturaleza, ¿cómo sabemos
que no hay una consideración adicional que hayamos descuidado? Estas son preguntas
profundas e importantes cuyas respuestas nunca son definitivas. El poder epistémico
de la ciencia no llega y tener formas definidas de tratar todos estos temas de una vez
por todas. Más bien, proviene de una postura general de apertura. Apertura a la
posibilidad de que algún factor aún no descubierto resulte ser importante. Que el
futuro puede diferir en algún aspecto importante del pasado, y así sucesivamente. Y es
por eso que los científicos dicen que sus resultados siempre deben ser tomados como
provisionales, incluso cuando están bien apoyados. Y este es el tema al que
seguiremos regresando cuando discutamos la objetividad.

*2.6 – Reliable Detection* I want to return to a philosophical worry about scientific


empiricism. Remember that scientific empiricism is the claim that all scientific
knowledge is grounded in observations. Now, why is that? Because observations in the
form of straight observations experiments and simulations provide the foundation on
which scientific knowledge is constructed. This is a very powerful picture and has
guided our discussion so far, but I want to think some more about this. This picture
presupposes that we can neatly separate observations from the rest of science.
Specifically that we can separate observations from hypotheses theories techniques
background knowledge and so forth. Is this really true. An important challenge to this
idea was raised by Grover Maxwell at 20th Century philosopher of science. He argued
that observations were truly the foundations of science and there ought to be a sharp
distinction between what's observable and what's not. The scientific entities that are
not observable like electrons, quarks and genes can't provide the foundations for our
knowledge if it's both to be based on observations. So is there someplace we can draw
the line between what's observable and what's not? Maxwell argued no, he said that
while the notion of what's observable's intuitive. It's impossible to draw a plausible line
between what's observable and what isn't. So take a paradigm case of what's
observable. The tree outside my window. In order for me to see the tree photons have
to bounce off the tree and hit my retina. And this is an entirely in our process, some
light gets absorbed by the molecules in the atmosphere and in the glass of the window
and that already tells us something interesting. But let's set this aside for now. As you
can see, I wear glasses. So for me an image of the tree is going to be refracted, which
means that it's distorted physically by my glasses in order to correct for the shape of
my eyes, which themselves distort the image. So this means that the image hitting my
retina has been substantially changed but change in a way that preserves the image of
the tree. This will seems like observation still but it already shows that it's not
completely straightforward. Now, what if I was looking at a distant tree and how to use
binoculars or a telescope? They had more magnification and allow focusing on specific
objects in the distance. And they also extend and correct our typical optical powers
using the technology of lenses. But they don't change light into another form. So
perhaps this is still observation. Now, let's think about telescopes. In some ways
they're no different than binoculars or land based optical telescopes. They still collect
and focus light, but the major difference is that instead of looking through them, we
attach a digital camera to them. The digital camera plays the role of our eyes, it
collects the photons and creates an image. And then this image appears on a screen
and then we look at the image on the screen. So there's small technological changes
again. Are we still observing? Well, it seems so, but there's definitely distance. Now,
let's make another change to the very small instead of the very far away. Looking
through a magnifying glass or an optical microscope, did anything fundamentally
change when we look through a microscope? Well, doesn't seem so. How about an
electron microscope? Well, now something very interesting has happened. We're no
longer using photons or light to see but electrons, which we typically wouldn't consider
observable. And yet we can use electron microscopes and optical microscopes to look
at the same object, and they look the same. And we can continue this kind of overlap
argument deeper and deeper into the domain that we would not normally describe as
observable. So what's the upshot of this? Well, in my view it means that we shouldn't
understand observation as the same thing as seeing. And we especially shouldn't
understand it as seeing with the naked eye. Observation instead should be thought of
as reliable detection. We observe in this technical sense when we use a combination of
our senses and technology to reliably detect something in the world. Understood this
way in some domains sensors are video cameras are often more reliable than our own
senses. So when we say that the foundation of science is empirical or observational we
should understand it in this way. The foundation is the reliable detection of what's in
the world. Throughout our discussion I've mentioned how observation experiments in
simulation relates to questions regarding objectivity. And this is no surprise, some
philosophers of science argue that ultimately all questions in their field relate back to
the question of whether or not science is objective. In are coming discussions will
consider these topics in more detail.

*2.6 - Detección fiable* Quiero volver a una preocupación filosófica sobre el empirismo
científico. Recuerde que el empirismo científico es la afirmación de que todo el
conocimiento científico se basa en observaciones. Ahora, ¿por qué es eso? Porque las
observaciones en forma de observaciones directas, experimentos y simulaciones
proporcionan la base sobre la que se construye el conocimiento científico. Este es un
cuadro muy poderoso y ha guiado nuestra discusión hasta ahora, pero quiero pensar
un poco más sobre esto. Esta imagen presupone que podemos separar claramente las
observaciones del resto de la ciencia. Específicamente que podemos separar las
observaciones de las hipótesis, las teorías, las técnicas, el conocimiento de fondo, etc.
¿Es esto realmente cierto. Un importante desafío a esta idea fue planteado por Grover
Maxwell en el siglo 20 filósofo de la ciencia. Argumentó que las observaciones eran
realmente los fundamentos de la ciencia y que debería haber una clara distinción entre
lo que es observable y lo que no. Las entidades científicas que no son observables
como los electrones, quarks y genes no pueden proporcionar los fundamentos de
nuestro conocimiento si ambos se basan en observaciones. Entonces, ¿hay algún lugar
donde podamos trazar la línea entre lo que es observable y lo que no? Maxwell
argumentó que no, dijo que aunque la noción de lo que es observable es intuitiva. Es
imposible trazar una línea plausible entre lo que es observable y lo que no lo es. Así
que tomemos un caso paradigmático de lo que es observable. El árbol fuera de mi
ventana. Para que yo pueda ver el árbol, los fotones tienen que rebotar en el árbol y
golpear mi retina. Y esto es un proceso completamente nuestro, algo de luz es
absorbida por las moléculas en la atmósfera y en el vidrio de la ventana y eso ya nos
dice algo interesante. Pero dejemos esto de lado por ahora. Como pueden ver, uso
gafas. Así que para mí una imagen del árbol va a ser refractada, lo que significa que es
distorsionada físicamente por mis gafas con el fin de corregir la forma de mis ojos, que
a su vez distorsionan la imagen. Esto significa que la imagen que llega a mi retina ha
cambiado sustancialmente, pero cambia de una manera que preserva la imagen del
árbol. Esto parecerá una observación todavía, pero ya muestra que no es
completamente simple. Ahora, ¿qué pasaría si estuviera mirando un árbol distante y
cómo usar binoculares o un telescopio? Tenían más aumento y permitían enfocar
objetos específicos en la distancia. Y también extienden y corrigen nuestras típicas
potencias ópticas usando la tecnología de los lentes. Pero no cambian la luz en otra
forma. Así que tal vez esto sigue siendo una observación. Ahora, pensemos en los
telescopios. En cierto modo no son diferentes a los binoculares o a los telescopios
ópticos terrestres. Todavía recogen y enfocan la luz, pero la mayor diferencia es que
en vez de mirar a través de ellos, les ponemos una cámara digital. La cámara digital
juega el papel de nuestros ojos, recoge los fotones y crea una imagen. Y luego esta
imagen aparece en una pantalla y luego miramos la imagen en la pantalla. Así que hay
pequeños cambios tecnológicos de nuevo. ¿Seguimos observando? Bueno, parece que
sí, pero definitivamente hay distancia. Ahora, hagamos otro cambio a lo muy pequeño
en lugar de lo muy lejano. Mirando a través de una lupa o un microscopio óptico,
¿cambió algo fundamental cuando miramos a través de un microscopio? Bueno, no lo
parece. ¿Qué tal un microscopio de electrones? Bueno, ahora ha ocurrido algo muy
interesante. Ya no usamos fotones o luz para ver, sino electrones, que típicamente no
consideraríamos observables. Y aún así podemos usar microscopios electrónicos y
ópticos para ver el mismo objeto, y se ven iguales. Y podemos continuar este tipo de
argumento de superposición cada vez más profundo en el dominio que normalmente
no describiríamos como observable. Entonces, ¿cuál es el resultado de esto? Bueno, en
mi opinión significa que no debemos entender la observación como lo mismo que ver.
Y especialmente no deberíamos entenderlo como ver a simple vista. La observación, en
cambio, debería ser considerada como una detección fiable. Observamos en este
sentido técnico cuando usamos una combinación de nuestros sentidos y tecnología
para detectar de forma fiable algo en el mundo. Entendido de esta manera en algunos
dominios los sensores son cámaras de video son a menudo más fiables que nuestros
propios sentidos. Así que cuando decimos que la base de la ciencia es empírica u
observacional debemos entenderlo de esta manera. El fundamento es la detección
fiable de lo que hay en el mundo. A lo largo de nuestra discusión he mencionado cómo
los experimentos de observación en la simulación se relacionan con cuestiones de
objetividad. Y esto no es una sorpresa, algunos filósofos de la ciencia argumentan que,
en última instancia, todas las preguntas en su campo se relacionan con la cuestión de
si la ciencia es objetiva o no. En las próximas discusiones consideraremos estos temas
con más detalle.

You might also like