You are on page 1of 39

Lo falso auténtico: cosas en personas

A. Javier Izquierdo
UNED, Madrid

Borrador preliminar del texto preparado como contribución al seminario


Los soportes materiales de la identidad
CEIC-IKI / UPV-EHU
Leioa, 14-15 octubre de 2004

[Recuento de palabras: 17.312]

Datos de contacto:
Dept. Sociología I
Facultad de Ciencias Políticas y Sociología
UNED
Obispo Trejo s/n, 28040 Madrid
e-mail: jizquier@poli.uned.es
Resumen: En un mundo atestado de policías científicos, la articulación formal de
modelos públicamente comunicables del conocimiento experto abre infinidad de nuevos
caminos para quienes pretenden perpetrar con éxito cualquier tipo de fraude. La
progresiva codificación y harmonización de las pericias de autenticación, ha resultado
ser un regalo impagable para la recalcitrante banda de falsificadores-imitadores que, a
través de esta vía paradójica, consiguen de manera poco menos que gratuita los
costosísimos recursos, herramientas y competencias que necesitan para llevar
exitosamente a cabo su trabajo. Sea, por ejemplo, el caso del empleo de modelos de
computo mecánico para simular la manera naturalmente implícita como los expertos
formulan sus juicios evaluativos. En razón, justamente, de la estricta “economía de
percepción” que hace posible, el uso forense de pruebas de hipótesis estadísticas,
expediente burocrático que en una gran mayoría de campos de investigación está
considerado el procedimiento metodológicamente más eficiente y tecnológicamente
más fiable para llevar a cabo la crítica científica de las apariencias de realidad, abre de
par en par las puertas a todas aquellas acciones humanas cuyo propósito expreso es
intentar dar gato por liebre. En última instancia, las maniobras del falsificador de
calidad, fabricante de objetos dobles para los cuales los historiadores del arte han
acuñado el oxímoro falso auténtico, desencadenan una interesante dinámica evolutiva
plagada de simetrías reflexivas. El buen falsificador obliga al experto-crítico a mejorar
sus herramientas de detección y sus métodos de análisis, y en particular a incluir como
elemento inexcusable de toda prueba de autenticación un seguimiento específico de la
trayectoria con frecuencia errática que debió seguir el ente bajo sospecha hasta llegar a
sus manos. De esta clase de pesquisas preventivas, que tratan de anticipar la
modelización estratégica del defraudador reflexivo, se nutre, en el largo plazo, la
historia de las técnicas de control de calidad y los dispositivos de protección anti-
fraude. Quienes perpetran endógenamente el engaño y la falsificación son, en efecto,
los mejores aliados de sus colegas, los críticos policiales, en la incansable búsqueda
conjunta de la realidad de lo real.

Índice

I. La deconstrucción de la fiabilidad, una cuestión de procedimiento


II. Falsificar el azar o el crimen perfecto
III. La teoría de la falsificación experta
IV. La verdad está desnuda
Apéndices: Objetos de fe
A. Obras sagradas son encontradas
B. Artenticidad
C. Hechos científicos hechos
D. Dinero clónico
El falso auténtico: cosas en personas

Quien dice modelo dice posibilidad de falsificación. [...] Sin embargo, si todo
fuese el producto de cálculos, entonces el falsificador siempre podría llevar a cabo
esos cálculos con antelación y coger la delantera a los críticos... De modo que es
preciso que exista alguna cosa que no sea producto del cálculo, una suerte de
resto que quede siempre omitido por las aproximaciones estratégicas.1

I. La deconstrucción de la fiabilidad, una cuestión de procedimiento

La demostrada prevalencia de los sistemas de conocimiento legal sobre los


sistemas de conocimiento tecnocientífico como verdadera potencia legitimadora de “la
verdad sobre lo que realmente ocurrió y quién, cómo y por qué lo hizo”2, no es tanto el
producto de una supuesta “superioridad intelectual”, si es que puede decirse que existe
algo así, como la consecuencia de su inserción diferencial en las redes asociativas y los
juegos gubernamentales del poder político, en cuyo interior la activación práctica de las
convenciones del método legal sigue todavía (aunque tal vez no por mucho tiempo)
movilizando un contingente de fuerzas colectivas superior al que aglutina en torno a sí
la aplicación de las reglas del método científico.3 La ciencia forense se define como el

1
C. Bessy y F. Chateauraynaud, Experts et faussaires. Pour une sociologie de la perception, París,
Métalié, 1995, 249, 253.
2
La “investigación penal” fue inventada varios siglos antes que el método científico, para cuyo desarrollo
posterior sirvió de principal referente práctico (M. Foucault, La verdad y las formas jurídicas, Barcelona,
Gedisa, 1998, 18). En el origen de los primitivos procedimientos de investigación policial y judicial
podría haber estado, a su vez, los métodos de la inquisitio generalis y la inquisitio specialis de la
administración religiosa medieval (id., 81).
3
“Al mismo tiempo que se expande el papel del conocimiento científico en los procesos legales, los
modelos de procedimiento legal empiezan también a entrar en la ciencia. Esto es así porque los propios
mecanismos procedimentales informales de la ciencia son considerados inadecuados para alcanzar una
verdad autorizada en cuestiones de política pública altamente disputadas. [...] De hecho, para la ciencia
forense y la patología forense, es el proceso legal mismo quien ha creado su forma característica de
interacción profesional y conocimiento especializado. La integración social del peritaje forense dentro de
la ley es tal que los peritos forenses han aprendido a reconciliar su trabajo con el escepticismo adversarial
característico los procesos legales, y a la vez, a mantener el discurso consensuado normal de la
comunidad científica. Así, mientras que otras disciplinas científicas pueden manejar esta contradicción

1
estudio sistemático de los métodos y las técnicas empleados por los delincuentes para la
comisión de sus delitos, así como de sus ‘móviles’ o razones, con el objetivo final de
averiguar la identidad del delincuente, esto es, de encontrar una personas con nombre y
apellidos que pueda ser declarada responsable del delito. La fundación moderna de la
ciencia forense suele remontarse a la fecha mítica de 1910, cuando Edmond Locard,
investigador de la Universidad de Lyon, publicó su teoría del “rastro de contacto”, que
sostiene sencillamente que un delincuente porta siempre consigo algún rastro o vestigio
de su contacto con la escena del crimen, y, simétricamente, que en la escena del crimen
puede siempre encontrarse alguna huella dejada por el delincuente en su contacto
material con los objetos que la conformaban.4
El estudio detenido del uso legal de las pruebas estadísticas de hipótesis muestra
cómo el empleo de métodos formales de inferencia probable y las pruebas estadísticas de
hipótesis como evidencia pericial para defender un caso ante los tribunales no permite, en
realidad, probar legalmente hecho alguno.5

“En los litigios que implican discriminación laboral o competencia desleal, por
ejemplo, se ha hecho muy común que cada una de las partes contrate su propio
experto estadístico para apoyar su caso y que el juez o el jurado tengan que evaluar
los diferentes análisis estadísticos presentados por esos expertos, análisis que
generalmente conducen a conclusiones contradictorias... [El problema es que]
incluso aquellos métodos que son considerados estándares por algunos estadísticos
son considerados inapropiados por otros. [Por ejemplo] muchos estadísticos
piensan que las pruebas de significación estadística, cuando se interpretan de
forma apropiada, sencillamente no responden al tipo de cuestiones relevantes para
dilucidar un caso legal. Asimismo, mientras que para algunos estadísticos los
intervalos de confianza constituyen el esqueleto mismo de la estadística aplicada,
para otros los aspectos ad infinitum de este concepto constituyen una gran
preocupación... En resumen, la estadística contemporánea, tal como se aplica en el
dominio legal, es un campo terriblemente controvertido. Aquellos mismos
métodos que algunos estadísticos consideran los más útiles son considerados por

definiendo el contexto de interacción de la sala de juicios como ‘no científico’, esta opción no es
fácilmente accesible para los expertos forenses, puesto que la sala de juicios es su arena profesional
fundamental.” (R. Smith y B. Wynne, “Introduction”, en Smith y Wynne (eds.), Expert Evidence:
Interpreting Science in the Law, Londres, Routledge 1989, 1-22, cit. p. 2, 15).
4
B. Lane, The Encyclopedia of Forensic Science, Londres, Headline, 1993, 1-2.
5
Vid. A.J. Izquierdo, “Delitos, faltas y Premios Nobel. Autoría científica, riesgo económico y
responsabilidad moral en el escándalo financiero de Long-Term Capital Management”, Política y
Sociedad, 39 (2), 339-359 y “La justicia del accidente. Variaciones sobre el Síndrome del Síndrome del
Aceite Tóxico Español”, Revista de Antropología Social, 12, 2003, 291-324.

2
otros como los más sospechosos.”6
Lo que ocurre con el conocimiento estadístico en el entorno legal es justamente lo
contrario de lo esperado por los feligreses de la iglesia científica: la evidencia estadística
acaba pasando de sujeto a objeto del juicio legal, quedando eventualmente confirmada o
desconfirmada a posteriori por el resultado de la sentencia judicial que pretendía
determinar. Uno de los affaires más reveladores en este sentido fue el “caso Bendectin”,
una prolongada controversia judicial que se desarrolló en las Cortes de Apelación y los
Tribunales Federales de EE.UU. a lo largo de la década de los 80 en torno a la
resolución de las numerosas demandas de responsabilidad por daños producidos por
productos tóxicos interpuestas por asociaciones de particulares contra un importante
laboratorio farmacéutico (Merrell-Dow) acusado de comercializar un fármaco contra el
dolor de cabeza (Bendectin) supuesto causante de malformaciones fetales.7
El problema inicial al que tuvieron que enfrentarse un gran número de jueces y
jurados a lo largo de esta controversia científico-legal fue el de establecer una jerarquía
probatoria entre los diferentes tipos de evidencias causales aportadas por los estudios
toxicológicos (experimentos in vitro e in vivo con animales), farmacológicos (análisis
de estructura química de los fármacos), epidemiológicos (estadísticas de efectos
teratógenos reales observados en los consumidores del fármaco) y los llamados meta-
análisis o re-análisis estadísticos de conjuntos de estudios epidemiológicos. Tras una
serie inicial de sentencias “inconsistentes” producidas en los primeros juicios de
apelación celebrados durante el período 1983-1986, en la segunda fase del caso,
marcada por las sentencias de los casos Lynch (1987) y Richardson (1988), comenzó a
hacerse visible una tendencia sentenciadora en favor de los estudios epidemiológicos
(y, por tanto en favor de los laboratorios demandados). Tendencia que culminó en la
sentencia del caso Brock (1989), donde la Corte Federal de Apelaciones del Quinto
Circuito, codificó explícitamente la ‘regla de favorecer la epidemiología’ (‘favour
epidemiology rule’) como precedente legal autorizado. Esto es, se estableció de manera
consistente la superioridad, en el ámbito de la prueba legal de causalidad, de los datos
científicos aportadas por los estudios epidemiológicos sobre cualesquiera otras

6
M. DeGroot, S. Fienberg y J. Kadane (eds.), Statistics and the Law, New York, Wiley, 1994, ix, xi
7
G. Edmond y D. Mercer, “Litigation Life: Law-Science Knowledge Construction in (Bendectin) Mass

3
combinaciones de pruebas (toxicológicas, farmacológicas o aquellas aportadas por re-
análisis y meta-análisis estadísticos de datos epidemiológicos secundarios).
En la tercera fase del caso el nuevo objeto de controversia legal pasó a ser la
necesidad de establecer un conjunto de “medios de interpretación adecuados” o criterios
estándares para ponderar de forma objetiva y replicable en diferentes contextos
judiciales, el contenido probatorio de los informes epidemiológicos presentados los
expertos al servicio de los abogados defensores y acusadores. En primer lugar, en la
sentencia del caso De Luca de 1990, el tribunal puso por primera vez en cuestión la
supuesta unanimidad de la comunidad científica en torno a los criterios de fiabilidad
que deben aplicarse para validar los estudios epidemiólogos y constató la ausencia, en
las leyes procesales relevantes, de estándares normativos que permitan al juez decidir al
respecto de si la revisión por pares y la publicación en revistas profesionales
constituyen garantías al respecto. En segundo lugar, en la sentencia Turpin de 1992, el
juez ponente ofreció una articulación legal primigénea para varios de los argumentos
críticos formuladas por los demandantes contra la fiabilidad del conocimiento
epidemiológico.8
El capítulo final de la peripecia judicial del Bendectin fue la famosa sentencia
Daubert, emitida en 1993 por la Corte Suprema de EE.UU. Aunque el máximo tribunal
federal estadounidense no se pronunció sobre la sustancia del caso sí tuvo que hacerlo
sobre un cuestión de procedimiento más fundamental: la de cuáles deberían ser las
normas más apropiadas para decidir sobre la admisibilidad de las evidencias expertas que
pueden ser presentadas en un juicio. El único gran precedente legal que existía hasta

Toxic Tort Litigation”, Social Studies of Science, 30, 2000, 265-316.


8
El tribunal del caso Turpin reconoció que algunas de las reservas planteadas por los demandantes eran
dignas de ser tenidas en cuenta. En particular el hecho de que los 35 estudios epidemiológicos
presentados por el demandado estaban basados en muestras demasiado pequeñas para probar la ausencia
de causación cuenta tenida del carácter infrecuente de los defectos de nacimiento; que los estudios no
distinguían adecuadamente entre defectos en las extremidades y defectos de otro tipo; que no controlaban
la presencia de factores distorsionadores como los efectos del tabaco o de la ingestión de otros fármacos;
que no quedaba tampoco claro si el nivel arbitrario del 0.05 de significación estadística poseía relevancia
alguna para propósitos legales y, finalmente, que si se escogían intervalos de confianza más pequeños,
podía interpretarse que algunos de los estudios epidemiológicos mostraban relaciones estadísticamente
significativas en favor del caso del demandante. La sentencia concluía, por tanto, que “la ciencia de la
epidemiología es en el momento presente incapaz de identificar las causas de muchos defectos de
nacimiento o de excluir otras muchas causas posibles de los mismos, incluido el Bendectin y muchos
otros agentes externos y factores ambientales.” (Turpin v. Merrell Dow Pharmaceuticals, Inc., 959 F.2d

4
entonces en la jurisprudencia federal sobre la cuestión de los estándares de
admisibilidad de evidencia experta, era una antigua sentencia de 1923, en el caso Frye
contra EE.UU., donde la Corte Suprema tuvo que decidir sobre la pretensión de un
acusado de emplear un tipo primitivo de detector de mentiras para tratar de exonerarse
de una acusación criminal. En la sentencia Frye la Corte Suprema determinó que en el
caso de evidencias científicas “de carácter novedoso”, éstas sólo podrían ser admitidas
como pruebas en un juicio legal cuando hubiesen sido previamente aceptadas de forma
general como hechos incontrovertidos o técnicas fiables por la comunidad científica
relevante. Posteriormente, la resolución de otro caso en 1976 (El Pueblo contra Kelly),
dio paso al denominado estándar legal Frye/Kelly para la admisión de evidencia
científica novedosa en un juicio, que constaba de tres criterios de evaluación:
1/ que quede establecido, mediante testimonio experto que los métodos
científicos empleados en la producción de la evidencia son generalmente
aceptados como fiables dentro de la comunidad científica relevante;
2/ que el experto que presente testimonio ante el tribunal esté adecuadamente
cualificado como experto para opinar sobre el tema;
y 3/ que el ponente de la evidencia científica demuestre específicamente que en
el caso en cuestión se emplearon procedimientos científicos correctos para
producirla.

En la sentencia Daubert, la Corte Suprema de EE.UU. extendió el estándar


Frye/Kelly al objeto de establecer la obligación por parte de los tribunales de evaluar el
carácter legalmente admisible o no de la evidencia científica presentada por las partes en
un juicio, en base a un procedimiento legal objetivo en el que se tengan en cuenta los
resultados arrojados por un conjunto de cuatro pruebas de fiabilidad socio-cognitiva de la
información científica:
1/ determinar si la teoría o técnica había sido puesta a prueba con anterioridad;
2/ determinar si los resultados del estudio han sido publicados previamente en
revistas científicas y sujetos a un procedimiento de revisión por pares;
3/ determinar si se conoce para ellos un margen de error;

1349 (6th Cir. 1992), 1358, “Litigation Life”, 293).

5
y 4/ determinar si la teoría o la técnica se halla generalmente aceptada en la
comunidad científica relevante (criterio Frye).
El impulso legal hacia la deconstrucción crítica de la evidencia científica sólo
puede concretarse, en última instancia, en la forma de exámenes praxeológicos
singulares de evidencias científicas singulares. Sea, por ejemplo, el trabajo de
deconstrucción praxeológica de la evidencia científica llevado a cabo por los abogados
defensores del ex-jugador de football americano y estrella de la televisión O.J. Simpson
en la primera vista judicial de la famosa demanda penal (California vs. Orenthal James
Simpson, 1995) en la que fue finalmente declarado “no culpable” de la acusación de
haber dado muerte a su propia esposa y al amante de ésta.9
La estrategia argumentativa seguida por el equipo de ‘abogados estrella’
contratado por Simpson tenía como objetivo desacreditar de forma convincente la
validez legal de la principal pieza de evidencia inculpatoria esgrimida por la acusación
contra su defendido: las pruebas de identificación del ADN que asociaban las muestras
de sangre tomadas por la policía en la escena del crimen con muestras encontradas en el
coche y la casa de O.J. Simpson y aun otras tomadas del sospechoso mismo. En primer
lugar los abogados se sirvieron de una serie de testimonios expertos autorizados para
demostrar la necesidad de una concepción “empirista” del sentido de la evidencia
científica en este campo, reclamando que el diferencial entre la validez teórica y la
fiabilidad empírica de una misma técnica de análisis estándar para obtener y contrastar
‘perfiles de ADN’ (DNA profiling) fuese calibrado en relación con la diversidad de
situaciones diagnósticas o forenses singulares en las que se requiere su uso.10 En
segundo lugar, realizaron un monumental estudio etnográfico11 sobre los

9
M. Lynch, “The Discursive Production of Uncertainty: The OJ Simpson ‘Dream Team’ and the
Sociology of Knowledge Machine”, Social Studies of Science, 28, 1998, 829-868.
10
El estudio se centró fundamentalmente en la controversia académica y profesional en torno a la utilidad
diferencial de las técnicas conocidas como de reacción en cadena de la polimerasa (PCR en sus siglas
inglesas) y de polimorfismos con fragmentos de longitud restringida (RFLP), dado que ambas eran
empleadas de forma rutinaria por los laboratorios Cellmark, subcontratados por la fiscalía de la ciudad de
Los Ángeles para analizar de las muestras de sangre del presunto asesino y de O.J., el principal
sospechoso del caso.
11
La comparación de esta investigación “con nuestros propios esfuerzos profesionales como sociólogos
de la ciencia nos dejaría a la altura del betún... En comparación con las condiciones en las que sociólogos
y antropólogos llevamos a cabo nuestras etnografías de laboratorio, los abogados de Simpson tuvieron a
su disposición una cantidad extraordinaria de recursos financieros, autoridad epistémica, personal de
apoyo y experiencia investigadora. [...] obtuvieron el derecho a interrogar testigos, y fueron facultados

6
procedimientos de trabajo más ordinarios y rutinarios (cambiarse de guantes entre
muestra y muestra, despejar la mesa de trabajo entre tarea y tarea) llevados a cabo
cotidianamente por los oficiales y técnicos de más bajo rango en el Departamento de
Policía para llevar a buen término el análisis y la custodia de este tipo particular de
muestras.
La siguiente transcripción, correspondiente a un fragmento del interrogatorio al
que fue sometido uno de los testigos de la acusación (Matheson, jefe de la unidad de
serología de la policía de Los Ángeles) por parte de uno de los abogados de la defensa
(Blasier), exhibe con gran riqueza de detalles la específica fórmula irónica (vgr.
contrastar las prescripciones teóricas de los manuales de procedimiento con sus
posibilidades prácticas de aplicación real) adoptada por la defensa como línea
argumental para tratar de reducir al absurdo la ‘versión oficial’ de su trabajo ofrecida
por los oficiales del departamento forense en sus testimonios iniciales:

14 Blasier: ¿Se cambia usted de guantes entre cada


nuevo elemento a analizar, verdad?
15 Matheson: Como he dicho, es lo que debe hacerse.
Pero no recuerdo específicamente haberlo
hecho.
16 B.: ¿No es más bien ese un procedimiento que
usted usa solamente cuando representantes de la
defensa se encuentran presentes?

[...]

19 M.: Eso fue -En realidad lo hice, y es


enteramente posible que sí, lo hiciera, en ese
momento estábamos hiper-sensitivos con el tema de
la preservación de las muestras.
20 B.: Cuando usted manipula esos elementos en la
privacidad de su laboratorio, sin gente de la
defensa espiándole, no sigue ese procedimiento,
¿verdad?

por el tribunal para visitar las instalaciones en las que se almacenaban y analizaban las pruebas
inculpatorias. Asimismo tuvieron la oportunidad de observar los procedimientos de laboratorio in situ,
examinar cintas de video que mostraban a los profesionales manos a la obra, inspeccionar corpus masivos
de registros e informes escritos, e incluso llevar a cabo sus propios análisis de laboratorio sobre porciones
de la misma evidencia recogida en la escena del crimen.” (“Discursive Production of Uncertainty”, 845).

7
21 M.: No me cambio de guantes todo el rato o
cambio el papel de la mesa todo el rato a menos
que vea alguna cosa que lo indique, como que un
elemento haya entrado en contacto con el papel o
que exista la posibilidad de que las pruebas se
hayan mezclado.
22 B.: ¿De modo que sólo le parece importante
cambiarse de guantes si usted se da cuenta de que
puede haber tocado algo?
23 M.: Si hay una posibilidad de que vayas a
contaminarlo, sí, en ese punto debes cambiarte los
guantes.

Junto con delatar lo absurdo e irreal de un trabajo rutinario que se describe como
susceptible de ser llevado continuamente “en modo huelga de celo”, la segunda parte de
la estrategia de interrogatorio de la defensa intentaba sacar a la luz en las respuestas de
los diversos detectives, criminalistas y técnicos forenses llamados a declarar su
desconocimiento “de las contingencias invisibles de su propia práctica”. Los abogados
defensores pretendía mostrar que los técnicos policiales “habrían contribuido a la
investigación del doble homicidio sin una comprensión adecuada de los pasos del
procedimiento científico que supuestamente gobernaban sus acciones.”12 En algunos
momentos fuertes de los interrogatorios, los abogados defensores lograron poner a los
testigos en la “incómoda tesitura” de tener que oír o ver “que no conocían (o peor aun,
que no podían conocer) lo que realmente estaban haciendo en ese momento.” Más aun,
en casos en los que el interrogado apelaba a su “buen juicio profesional” para justificar
la adecuación práctica de la laxitud mostrada en la realización de sus cometidos, el
interrogatorio podía ser reconducido por el abogado hacia el extremo de hacer
reconocer al testigo la posibilidad de que sus prácticas podrían contener detalles
invisibles no registrados e incluso imposibles de registrar cuando uno está inmerso “en
la escena de su propia práctica”. Y que la sola existencia de tales detalles microscopios
sembraba dudas razonables sobre las afirmaciones del testigo en el sentido de haber
actuado de forma correcta.
Un último ejemplo extremo de las barrocas formas históricas que puede llegar a
adoptar el conflicto práctico entre evidencias científicas y pruebas legales lo extraemos

8
de las audiencias públicas del caso Irán-Contra organizadas por el Comité del Senado
del EE.UU. a principios de julio de 1987.13 El caso Iran-Contra (bautizado como caso
“Irangate” por los medios de comunicación sobre la base de su paralelismo con el
escándalo “Watergate”, un affaire de espionaje político que años atrás había acabado
con la dimisión del Presidente Richard Nixon) suele ser considerado como uno de los
más importantes episodios de corrupción político-militar ocurrido en EE.UU. desde la
Segunda Guerra Mundial. El escándalo fue iniciado por una serie de denuncias
periodísticas sobre presuntas operaciones ilegales llevadas a cabo entre septiembre y
noviembre de 1985 por los servicios secretos americanos. A través de dichas
operaciones el Gobierno de EE.UU. habría desviado de los fondos obtenidos por la
venta de misiles a Irán (en una operación de intercambio cuyo fin era obtener la
liberación de rehenes americanos en poder de la guerrilla libanesa de Abu Nidal) para
financiar a la guerrilla contrarrevolucionaria (los llamados “Contras”) que trataba de
desestabilizar al régimen sandinista que ostentaba el poder político en Nicaragua. La
comisión de investigación -promovida por la mayoría demócrata- no pudo finalmente
llegar a probar de forma inequívoca que el Presidente Ronald Reagan hubiera dado su
autorización para la realización de estas operaciones o tenido pleno conocimiento de
ellas.
El minucioso, puntilloso escrutinio legal de los detalles de las prácticas
discursivas permitió en este caso llevar a cabo de forma simultánea dos operaciones en
apariencia contradictorias: examinar a la luz pública determinados secretos de Estado y
negar que esos secretos existan o hayan existido. De entre las varias estrategias de
“construcción” histórica (destrucción selectiva de documentos, elaboración de
cronologías alternativas, etc.) puestas en marcha anticipadamente (más aun, de hecho,
en previsión directa de una eventual investigación pública del tipo de la efectivamente
llevada a cabo por la comisión senatorial) por algunos de los principales acusados en el
caso para garantizarse una defensa sólida frente a las acusaciones de actividad ilícita,
resulta particularmente sugerente para la especificación empírica del tema teórico del

12
“Discursive Production of Uncertainty”, 852.
13
M. Lynch y D. Bogen, The Spectacle of History. Speech, Text and Memory in the Iran-contra
Hearings, Londres y Durham, Duke University Press, 1996.

9
“secreto a voces”14, la retórica de la “denegacionabilidad plausible” (plausible
deniability) empleada por el principal acusado y testigo del caso, el Teniente Coronel
Oliver North, del National Security Council de EE.UU. durante su testimonio
televisado.
Una de las evidencias claves esgrimidas por la acusación en el proceso contra
North eran un conjunto de mensajes electrónicos -denominados como “notas del
PROF”-, enviados y recibidos dentro de la red de comunicaciones de la Proffesional
Office del Consejo de Seguridad Nacional, que era usada también por personal de la
Casa Blanca, y que, según se sostuvo en el proceso, fueron recuperados después de que
North y otros hubiesen afirmado que habían sido destruidos.

“Las notas del PROF fueron consideradas especialmente significativas por el


comité investigador porque, de acuerdo con el testimonio de los testimonios del
personal del National Security Council, North y sus compañeros habían asumido
erróneamente que cuando “borraron” estos mensajes, los eliminaron de forma
permanente. Pero posteriormente fueron recuperadas las copias de seguridad de los
mensajes “borrados” que habían sido almacenadas en los bancos de memoria de
los ordenadores. Considerando que los acusados habían admitidos haber realizado
esfuerzos para producir diversos registros documentales bajo la táctica de la
“denegación plausible” -esto es, en anticipación de y de hecho como defensa
contra investigaciones del tipo de la que se estaba realizando en esos momentos- a
las comunicaciones electrónicas que pudieron ser recuperadas se les puso la
etiqueta de “mensajes espontáneos” que expresaban indicaciones menos engañosas
de las intenciones reales de sus comunicantes. En otras palabras, se pensó que esas
comunicaciones revelaban justamente aquello que sus comunicantes se afanaban
sistemáticamente en oscurecer cuando registraban otros mensajes “para la
posteridad”. El tratamiento en cuestión estaba en sintonía con las teorías clásicas
de la credibilidad que adscriben especial significado a aquellas señales, gestos o
indicaciones que escapan espontáneamente a los esfuerzos que hacen sus
comunicadores para controlar una “impresión” coherente.”15

Estos documentos “rescatados” fueron empleados por la acusación como


recursos clave para la formulación de preguntas afinadas y para la ponderación de las
respuestas a estas preguntas durante los interrogatorios a los acusados. Sin embargo, el
desarrollo de los interrogatorios en los que dichos recursos fueron empleados dejó claro
a los acusadores que justamente esa misma posibilidad (que los documentos

14
J-P. Dupuy, “Common Knowledge and Common Sense”, Theory and Decision, 27, 1989, 37-621.

10
aparentemente recuperados in extremis pudieran llegar a ser empleados con fines
interrogadores) había sido prevista ya por las personas (los interrogados) que dijeron
haberlos creído “completamente eliminados”.

1 Fiscal Nields: ¿Consideraba usted la posibilidad


de poder llegar a perjudicar al Presidente cuando
estaba destruyendo documentos de sus ficheros?
2 North: Consideré la posibilidad de perjudicar al
presidente cuando preparaba esos documentos...16

La respuesta de North sugiere que la táctica de la “denegación plausible” no


consistía únicamente en una “política interpretativa aplicable a la lectura de documentos
sino que se hallaba inscrita en la forma específica misma como se escribían y
preservaban las notas y los registros documentales en su oficina.”17 Y sin embargo, aun
admitiendo que podría haber dejado un rastro documental falso para que los
investigadores lo siguieron, North se cubría las espaldas adoptando una “postura
equívoca” respecto a la posibilidad de causar “perjuicio” al Presidente (admitir esta
posibilidad no implicaba necesariamente acusar al Presidente de la comisión de un acto
reprobable, simplemente se admitía la posibilidad de revelar secretos al enemigo o de
subvertir esfuerzos diplomáticos cruciales... en caso de no destruir los documentos).
Postura equívoca que la existencia de ese conjunto de pistas falsas le permitía,
precisamente, sostener.

“Los documentos fueron “falsificados” con un propósito explícito y admitido de


anticipar y problematizar una investigación como aquella en la que salían ahora a
relucir y en la que se los intentaba emplear como evidencia. Esta fabricación de
“documentos de despiste” y los trabajos complementarios de destrucción y
redacción fue diseñada como “denegable” hasta en sus detalles más ínfimos,
incluso cuando llegó a ser admitida en términos genéricos.”18

15
Lynch y Bogen, The Spectacle of History, 210-211.
16
Morning session, July 7, 1986, Joint Hearings Before the Senate Select Committe on Secret Military
Assitance to Iran and the Nicaraguan Opposition and the House Select Committee to Investigate Covert
Arms Transactions with Iran, 100th Congresss, 1st Session, H961-34, Testimony of Oliver L. North, Part
1 (Washington, D.C.: U.S. Government Printing Office, 1988), 20, cit. Spectacle of History, 221.
17
Spectacle of History, 221.
18
Spectacle of History, 235.

11
II. Falsificar el azar o el crimen perfecto

Uno de los litigios por fraude científico más espectaculares de los últimos años
ha sido el llamado “caso Baltimore”, una acusación de falsificación de resultados de
investigaciones experimentales formulada en 1988 contra una reputada investigadora en
el campo de la inmunología, Tereza Imanishi Kari (en adelante TIK), investigadora
principal de un laboratorio de la Escuela de Medicina del Massachussetts Institute of
Technology, por una de sus ayudantes postdoctorales, Margaret O’Toole.19 La
acusadora sostenía que TIK había “manipulado”, y en algunos casos falsificado
abiertamente varios conjuntos de datos experimentales (sobre fenómenos de cambio de
estructura inmunológica en cierto tipo de ratones transgénicos) con los que había
contribuido a un artículo conjunto con otros tres investigadores del MIT publicado unos
años antes, en un número de 1986 la prestigiosa revista de biología molecular Cell.
O’Toole añadía también el cargo de información sobre experimentos ficticios, e
implicaba como cómplice y encubridor a otro de los coautores del artículo, a la sazón
director del laboratorio del MIT donde ambas trabajaban: el Premio Nóbel de Medicina
y factotum científico David Baltimore.
Según la versión inicial del asunto ofrecida por O’Toole a distintos medios de
prensa, sus dudas iniciales sobre la integridad de los cuadernos de laboratorio de TIK,
expresadas a través de los cauces internos ordinarios del mundo universitario, no fueron
tomadas en serio por sus superiores más directos, y el mismo Baltimore llegó a
descalificarla personalmente -llamándola “becaria descontenta”. Finalmente, siempre
según la versión de O’Toole, acabó siendo despedida –los administradores del MIT
dijeron luego que simplemente le había cumplido su contrato de investigación- y en
1991 consiguió que su versión de los hechos apareciera publicada en el diario The New
York Times. La publicación del reportaje periodístico desencadenó un debate público
sobre el tema y finalmente las autoridades de EE.UU. acabaron tomando cartas en el
asunto a través del inicio de dos investigaciones paralelas: una auspiciada por el

19
D. Kevles, The Baltimore Case. A Trial of Politics, Science and Character, Nueva York, Norton, 1998.

12
congresista de Washington John D. Dingell en su calidad de presidente del subcomité
sobre Supervisión e Investigación del Comité sobre Energía y Comercio de la Cámara
de Representantes de EE.UU., y otra por la Office of Research Integrity (ORI) -
posteriormente renominada Office for Scientific Integrity (OSI)-, una agencia pública
expresamente creada para investigar casos de fraude científico en el seno del
todopoderoso Sistema Nacional de Institutos de Salud, la principal fuente de
financiación en EE.UU. de los proyectos de investigación pública en el campo de las
ciencias biomédicas.
El equipo del congresista Dingell encargó a dos técnicos forenses del Servicio
Secreto de EE.UU. especialistas en técnicas de falsificación de documentos el análisis
de los libros de registro del laboratorio de TIK. Los peritos compararon la composición
del papel y la tinta de fragmentos de impresión recortados de las bandas de lectura de
los instrumentos del laboratorio y pegados en los libros de datos de TIK, con muestras
de similares provenientes de los cuadernos de otros investigadores del mismo
laboratorio, al objeto de averiguar si las fechas de realización de los experimentos
reportadas en el artículo de Cell eran auténticas. El informe de esta pericia
documentoscópica, en el que se sustentó luego buena parte de la acusación final
formulada por la OSI/ORI contra TIK, establecía que se había detectado evidencia
indudable de que varios conjuntos de datos habían sido falsificados.20 Entre ellos, el
conjunto más importante era el que los investigadores denominaron “datos de la
subclonación de junio” (june subcloning data), supuestamente obtenidos a partir de
experimentos realizados con anterioridad a la publicación del artículo en Cell, pero que
sólo fueron sacados a la luz por TIK con posterioridad, en respuesta a la solicitud de un
comité de revisión del MIT para que aclarase ciertas dudas suscitadas por sus hipótesis
sobre el posible origen de los cambios inmunológicos efectivamente observados en los
ratones transgénicos. En opinión de los peritos forenses, los experimentos de
subclonación nunca se hicieron realmente y los “datos de la subclonación de junio”

20
Según el informe de los peritos, las cintas de impresora adheridas en los cuadernos de laboratorio no
pudieron haber sido impresas en 1985, el año en el que según TIK se llevaron a cabo los experimentos.
Los resultados del análisis estadístico de distintas muestras de impresión establecían que el tipo de papel
y de tinta de impresora de los libros de laboratorio de TIK eran muy similares a los de los libros de otros
investigadores del mismo laboratorio donde se reportaban datos de experimentos llevados a cabo durante

13
habían sido completamente inventados. Lo que, en definitiva, arrojaba dudas sobre la
autenticidad del supuesto descubrimiento de importantes cambios en la estructura
inmunológica de los ratones transgénicos publicado por TIK y sus coautores en el
artículo de Cell.
Entre junio de 1994 y junio 1996 se celebró finalmente algo parecido a una vista
oral del caso. Exactamente una década después de la publicación del artículo original en
Cell, el Tribunal de Apelaciones del Departamento de Salud y Asuntos Humanos del
Gobierno de EE.UU. (una comisión formada autoridades científicas en los campos de
biología molecular, la ingeniería genética y la inmunología) tuvo la oportunidad de
contrastar las acusaciones presentadas por el equipo legal de la ORI/OSI con las
alegaciones formuladas los abogados defensores de TIK, y emitir un juicio final sobre
su credibilidad respectiva.
Puesto que lo que estaba en duda era la autenticidad de un conjunto de datos
experimentales, la crítica de la evidencia forense producida por la parte acusadora se
centró en el examen de la “consistencia probabilística” de los datos publicados por la
inmunóloga. La dinámica procesal del litigio tuvo como efecto la una explicitación y
clarificación sin precedentes de las diferentes concepciones enfrentadas sobre qué sea el
azar que manejan los científicos naturales. El procedimiento legal de examen cruzado
de los testigos compelía justamente a la defensa de TIK a aplicarse en la deconstrucción
teórica, metodológica y tecnológica de la fiabilidad estadística de las diferentes pruebas
estándares de “resistencia al azar” (pues ese es el significado del concepto de
consistencia probabilística) a las que los peritos forenses de la acusación habían
sometido a los datos de TIK.
Los peritos de la ORI emplearon diversas técnicas de análisis estadístico de
datos para producir algunas de las evidencias inculpatorias más importantes contra TIK.
James Mosimann, un bioestadístico contratado como perito por la ORI, diseñó un test
estadístico específico con el fin de cuantificar la probabilidad de ocurrencia de uno de
los conjuntos de datos experimentales más sospechosos: los que aparecían en las
páginas 102 a 104 del cuaderno de laboratorio de TIK. Según estos datos, en las placas
de cultivo preparadas por los experimentadores para observar el crecimiento de un tipo

1981 y 1982.

14
de estructuras genéticas híbridas conocidas como ‘hibridomas’ se habrían observado
resultados positivos de crecimiento a lo largo de una fila entera de 15 celdas de cultivo
contiguas entre sí. Los hibridomas inoculados mediante una pipeta en una célula de
cultivo pueden llegar a crecer o no; cuando lo hacen, tienden a mostrar una distribución
aleatoria entre las diferentes células de la placa. Según los cálculos de Mosimann la
probabilidad de que se produjera crecimiento en 15 celdas de cultivo contiguas era
extremadamente baja, hecho que había sido interpretado en el informe de acusación de
la OSI como evidencia palpable de que los datos eran falsos.
También la alegación de que los datos de la subclonación de junio era falsos se
apoyaba en el resultado de una serie de tests estadísticos de consistencia probabilística
de los datos practicados por Mosimann. Uno de estos test consistía en una combinación
de diferentes versiones de un tipo característico de distribución de probabilidades
conocido como ‘distribución de Poisson’ que se emplea convencionalmente para
describir diversos comportamientos aleatorios observados en la naturaleza, como la
formación de galaxias, la propagación de enfermedades o, más relevante para el caso,
dado que TIK había empleado supuestamente un contador de radiaciones para detectar
la presencia de hibridomas en las celdas de cultivo, la tasa de emisión de rayos gamma
por un material radiactivo. En su testimonio ante la Comisión, Mosimann explicó que
“cuando es posible encontrar un modelo mixto de Poisson que permite ajustar bien los
datos” ello implica que su originalidad “está fuera de toda duda”, mientras que si no se
encuentra ningún ajuste estadístico razonable de este tipo “los datos quedan bajo
sospecha”. Y puesto que fue incapaz de encontrar ningún modelo adecuado de este tipo
el experto concluyó que los datos de la subclonación de junio “no se correspondían con
los producidos por un contador real de radiaciones.”21
El testimonio experto presentado por la defensa de TIK para deconstruir los
argumentos de Mosimann fue obra de un tal Terence Speed del que Kevles que,
curiosamente, no ofrece en este caso dato alguno sobre su tipo de formación o
competencia específica en materia de estadística matemática o biometría, afirma que
“había estado a cargo de todos los matemáticos y estadísticos del principal instituto
público de investigación científica de su Australia natal y era ahora profesor en la

15
Universidad de California en Berkeley.”22 En su declaración, Speed se aplicó a poner en
duda la cientificidad de diferentes elementos teóricos, metodológicos y prácticos de los
modelos estadísticos empleados por los forenses al servicio de la ORI para realizar sus
pericias. El trabajo de deconstrucción más elaborado fue el que llevó a cabo con las
pruebas estadísticas con las que Mosimann decía haber desacreditado la autenticidad de
los datos de la subclonación de junio. Según Speed “la fiabilidad del modelo mixto de
Poisson empleado por Mosimann era, siendo caritativo, cuestionable.”23
Para empezar, argumentaba, los estadísticos profesionales no suelen, como
norma general, emplear los modelos mixtos de Poisson de la forma en que lo hicieron
los expertos de la ORI. De hecho, según testificó, no le constaba que ningún modelo de
esa clase contuviera nunca más de dos componentes, y mucho menos nueve, como era
el caso de aquellos. Por otro lado, los modelos mixtos de Poisson eran
“considerablemente flexibles”, pues asignar ponderaciones a sus diversos componentes
implicaba un “juicio subjetivo considerable”. “Ajústense los parámetros de la forma
adecuada, y podrán cuadrarse o descuadrarse a voluntad los datos bajo escrutinio.”24
Speed contradijo también a Mosimann en relación con el enfoque global con el que el
segundo se había aproximado a los datos de TIK, descalificándolo como una muestra de
lo que en la jerga estadística se conoce como “husmear entre los datos” (data
snooping), esto es, la tendencia, muchas veces inconsciente, que tienen los
investigadores a encontrar algo sospechoso y someterlo luego a análisis estadístico no
tanto para averiguar si las sospechas iniciales tenían fundamento sino para reforzarlas.
“Si alguien nos lo pide, siempre es posible examinar una tabla de números aleatorios y
encontrarle algún error.”25
En el lenguaje de la estadística “confirmar una sospecha” sobre la autenticidad
de un suceso dado implica mostrar que la probabilidad de que ese suceso haya ocurrido
por error/azar es demasiado pequeña. Esta había sido justamente la conclusión a la que
habían llegado los peritos de la ORI en su examen de la curiosa racha de 15

21
Baltimore Case, 343-344.
22
Baltimore Case, 345.
23
Baltimore Case, 345.
24
Baltimore Case, 346.
25
Baltimore Case, 347.

16
crecimientos de hibridomas consecutivos que mostraban los datos del cuaderno de
laboratorio de TIK. Dado que una racha tan peculiar de crecimiento de cultivos
resultaba ser un evento harto improbable, la acusación concluyó que los datos se los
había sacado la investigadora de la manga y no de la observación de celdas de cultivo
auténticas. El problema con este modo de razonamiento, como lo apuntó Speed en su
testimonio es que:

“cuando tienes que asignar una serie de probabilidades a un patrón de sucesos


observados, es necesario que lleves a cabo una serie de correcciones preliminares
para tomar en cuenta, en la medida de lo posible, el procedimiento de búsqueda
que has empleado para asignarlas... Esto es, tienes que incorporar en tus cálculos el
hecho de que algo te parezca inusual.”26

Para desacreditar la validez científica de las evidencias forenses presentadas por


la acusación, evidencias sustentadas por la fe en la validez de un concepto normalizado
de azar que afirma la preeminencia de lo estructural sobre lo casual, lo que hizo el
experto de la defensa no fue otra cosa que invocar el viejo demonio maléfico del azar
paretiano o “salvaje”, hipótesis alternativa que básicamente afirma la postura
epistemológica contraria: la casualidad nunca está dominada por la causalidad.27
La Comisión resolvió finalmente en favor de TIK, absolviéndola -y junto con
ella al profesor Baltimore y a los otros dos coautores del artículo- de todas las
acusaciones de fraude formuladas contra ella. Con anterioridad, la otra rama de la
investigación del caso, la instrucción judicial promovida por el congresista Dingell, se
había cerrando sin llegar a ninguna conclusión, al decidir el fiscal encargado del caso
retirar los cargos penales contra TIK.28

26
Cit. Baltimore Case, 348.
27
B. Mandelbrot, “Del azar benigno al azar salvaje”, Investigación y Ciencia, 1996, diciembre, 14-20.
28
Baltimore Case, 317. En su declaración a la prensa, el fiscal adujo que su decisión había sido motivada
no por un convencimiento de que la acusada fuera inocente sino por miedo a que durante la celebración
de un eventual proceso los jueces y el jurado tuvieran que ser expuestos a un montón de argumentos
científicos muy complejos y cargados de sutiles matices, los cuales, según dijo, eran “prácticamente
incomprensibles incluso para muchos otros científicos.” (cit. B. Kaye, Science and the Detective. Selected
Readings in Forensic Science, Wienheim y Nueva York, VCH, 1995, 327). El prejuicio de la
incompetencia técnica de los ciudadanos legos, sin embargo, no sólo es contrario a todo lo que sabemos
sobre la conmensurabilidad entre los procedimientos de conocimiento científico y los procedimientos de
conocimiento de sentido común, sino que vulnera ante todo la letra y el espíritu de las normas de
administración de justicia que supuestamente imperan en los modernos estados de derecho. “El requisito,

17
Dos días antes de la celebración, el 4 de mayo de 1989, de la primera audiencia
pública, convocada por el Subcomité de Supervisión e Investigación de la Cámara de
Representantes de EE.UU. sobre el presunto caso de fraude científico que se convertiría
con el tiempo en el affaire Baltimore, Robert E. Pollack, afamado biólogo y decano del
college de la Universidad de Columbia, publicó un artículo de opinión sobre el caso en
The New York Times bajo el título de “En ciencia, error no significa fraude” [In Science
Error Isn’t Fraud], donde sostenía que “publicar errores es parte fundamental del
trabajo científico. A los científicos nos encanta demostrar a nuestros colegas que
estaban equivocados y, si ellos son igualmente competentes, les encantará demostrarnos
a su vez que éramos nosotros los que estábamos equivocados... Si se nos pide que
prejuzgemos sobre las causas de los errores, o peor, que digamos que error es indicativo
de fraude, entonces no podemos funcionar como científicos.”29 Dos años más tarde, en
agosto de 1991, Benardine Healy, Directora del Sistema de Institutos Nacionales de la
Salud de EE.UU. entre 1991 y 1993, testificando ante el mismo subcomité, afirmaba
que una investigación policial eficiente en la lucha contra el delito científico debe “ser
capaz de distinguir el error del fraude, el fallo no intencionado o incluso negligente de
la conducta intencionalmente delictiva, y las afirmaciones equivocadas de las
tergiversaciones engañosas.”30

III. La teoría de la falsificación experta

En el estudio del fraude científico es particularmente urgente rechazar esa


variedad de antropología consoladora según la cual quienes engañan a sus colegas son
desviados o bien incompetentes que hacen trabajo de mala calidad y solo buscan hacer

generalmente aceptado de manera implícita como artículo de fe, de que las personas deben ser expertas, o
al menos deben estar versadas, en ciencia y medicina antes de dar su opinión sobre estos temas es,
después de todo, contrario a los principios básicos de nuestras sociedades democráticas. La democracia es
una apuesta: la apuesta de que la conciencia debe estar por encima de la competencia.” (J-M. Lévy-
Leblond, “About Misunderstaindings about Misunderstandings”, Public Understanding of Science, 1,
1992, 17-22, cit. p. 20).
29
Cit. The Baltimore Case, 185.
30
Cit. Baltimore Case, 306.

18
carrera ahorrándose los sacrificios necesarios: la única base estable que permite a largo
plazo la pervivencia del fraude en el mundo de la investigación científica es la división
social del trabajo de expertizaje crítico.
Los falsificadores de hechos científicos se apoyan justamente en la existencia de
un conjunto de convenciones teóricas, metodológicas y tecnológicas públicamente
validadas para instruir sobre cómo llevar a cabo una investigación científica de calidad
aceptable, así como en el carácter no menos publico de estándares ampliamente
aceptados de estilo admisible y presentación adecuada en la confección de artículos
científicos. De este modo resulta más sencillo colar una investigación ficticia que
responda a los cánones estilísticos de la corriente central del programa de
investigaciones dominante en un campo científico determinado, que intentar hacer pasar
por auténtico un falso de carácter heterodoxo. En contra del perfil de riesgo con el que
suele caricaturizarse al defraudador científico potencial (académico desviacionista,
rebelde, antidisciplinario, revolucionario frustrado, etc.) lo cierto es que aquellos que
realmente tienen éxito en sus intentos de darles gato por liebre a sus colegas, y que por
tanto son más propensos a cometer fraude en la representación de hechos científicos,
practican por lo general la llamada ciencia normal.

“Irónicamente, para tener éxito en la fabricación ficticia de descripciones


científicas del mundo, un autor debe conocer a la perfección el tema de
investigación en el que trata de perpetrar sus falso para “crear” (mediante
descripciones imaginativas) objetos, datos, o fenómenos que sean considerados
plausibles por otros expertos en el tema (bien porque respalden teoría
convencionales, porque sean estadísticamente probables o porque tengan la
apariencia de poder se replicables). La descripción de datos ficticios debe
adecuarse a los paradigmas de investigación aceptados tanto en su dimensión
objetiva como en su dimensión retórica o se correrá el riesgo de atraer escrutinio
adicional.”31

La historiografía de la tradición clásica de erudición crítica en las diferentes


disciplinas humanísticas, atribuye un papel fundamental en el desarrollo de la
autonomía académica de la teología, la filología, la estética o la crítica historiográfica a

31
M. LaFollette, Stealing into Print. Fraud, Plagiarism and Misconduct in Scientific Publishing,
Berkeley, CA, University of California Press, 1992, 43.

19
la complicada relación de competición/cooperación que ha existido siempre entre dos
especies sociales de un mismo género antropológico: la autoridad académica y el
falsificador informado.32 En está constatación se implica una hipótesis fundamental: el
trabajo de codificación académica y diseminación profesional de los criterios de juicio
experto en la forma de conocimiento formal de carácter objetivo constituye la condición
de posibilidad inexcusable para toda acción exitosa de fraude falsificador, que es en sí
misma una forma valiosísima de comprensión y crítica científica de la realidad.
En el mundo de las artes plásticas, y muy especialmente la pintura33, los autores
de ese tipo de obras fraudulentas aunque perfectamente acabadas que la crítica experta
denomina irónicamente falsos perfectos o falsos auténticos, suelen en una gran mayoría
de casos apoyarse sobre los resultados de investigaciones emprendidas con el propósito
de identificar las propiedades estilísticas elementales que bastarían para detectar aquello
que de verdaderamente original o característico hay en la obra de un artista concreto.34
Lo que hacen entonces los falsificadores para mejorar la cualidad de sus pufos es
introducir como instrucciones operativas concretas para la realización de su trabajo de
imitación las marcas convencionales particulares que la comunidad relevante de
expertos ha llegado a aceptar en un momento dado como las huellas dactilares,
absolutamente inimitables (o más exactamente, inimitadas) que delatan el estilo original
de un autor dado. El trabajo del imitador anticipa y satisface, de una sola tocada, las
expectativas perceptivas espontáneas de aquellos mismos guardianes de la autenticidad
que habían demarcado previamente el patrón de singularidad estilística a partir del cual
se ha construido la obra falsificada.
Para el peritaje experto de la autoría o la consistencia estilística de obras
literarias suelen emplearse actualmente una clase característica de pruebas estadísticas

32
A. Grafton, Falsarios y críticos. Creatividad e impostura en la tradición occidental, Barcelona, Crítica,
2001.
33
Una aproximación filosófico-analítica clásica a los lenguajes del arte distingue entre variedades
autográficas y variedad alográficas de expresión artística. Este criterio de identificación distingue y
separa formas continuas no codificables de práctica artística, como la pintura y la escultura, y formas
discretas, codificables por tanto, como la música o la literatura (N. Goodman, “Arte y autenticidad”, en
Goodman, Los lenguajes del arte, Barcelona, Seix-Barral, 1976, 111-133, 126-27).
34
Veánse S. Radnóti, The Fake. Forgery and Its Place in Art, Landham, NJ, Rowman & Littlefield,
1999, capítulo 4; D. Lowenthal, “Authenticity? The dogma of self-delusion”, en M. Jones (ed.), Why
Fakes Matter. Essays on Problems of Authenticity, Londres, British Museum Press, 1992, 184-192.

20
de hipótesis denominadas “tests estilométricos”.35 Las pruebas estilométricas pretenden
determinar parámetros cuantitativos estables de conservación y variación de rasgos
textuales que supuestamente escaparían a la voluntad consciente del autor (la tasa de
aparición de vocablos estadísticamente infrecuentes, la longitud media de las frases, el
cociente de vocablos distintos sobre vocablos totales, etc.), y que, por tanto, definirían
su estilo.36 La intervención de ese tercero excluido del análisis estilométrico, el
falsificador de calidad que recicla los logros investigadores del erudito como tecnología
maestra para economizar recursos productivos desestabiliza el cuadro analítico de esta
moderna teoría del estilo.

“Si ciertas marcas expresan la originalidad de un original más claramente que


otras, lo que ocurrirá será que esas marcas podrán ser usadas para generar algo que
parezca, y por tanto que pueda ser tomado como, original. Y si esto es cierto,
entonces este conjunto de atributos –que puede ser usado para producir un “autor”-
constituirá la función-autor... [E]l erudito es parte del sistema de producción de
autores más que de certificación de las obras de autores ya producidos.”37

Las maniobras de este autor paradójico, el falsificador “de calidad” , fabricante


de objetos dobles para los cuales los historiadores del arte han acuñado el oxímoro falso
auténtico, desencadenan una interesante dinámica evolutiva de estrategias mutuamente
anticipadoras y simetrías reflexivas. El buen falsificador obliga al experto a mejorar sus
herramientas de detección y sus métodos de análisis, cargándole con el pesado fardo de
tener que incluir, como elemento inexcusable de toda prueba de autenticación, un
seguimiento de la trayectoria con frecuencia errática que debió seguir la obra bajo
sospecha hasta llegar a sus manos. De estas y otras pesquisas preventivas se nutre la
evolución a largo plazo de nuevos instrumentos de certificación y protección anti-
fraude, cada vez más estables, precisos y robustos frente a la modelización estratégica
del defraudador. Quienes perpetran de forma informada el engaño y la falsificación
pueden ser, entonces, considerados los más importantes aliados de sus colegas críticos

35
E. Irizarry, Informática y literatura, Barcelona, Proyecto A, 1997.
36
“A la personalidad hay que buscarla allá donde el esfuerzo personal es menos intenso.” (Giovanni
Morelli, 1874, citado en C. Ginzburg, “Indicios. Raíces de un paradigma de inferencias indiciales”, en
Ginzburg, Mitos, emblemas, indicios, Barcelona, Gedisa, 1992, 138-175, p. 140).
37
R. Krauss, “Retaining the Original? The State of the Question”, en Center for Advanced Studies in the
Visual Arts, Retaining the Original. Multiple Originals, Copies and Reproductions, National Gallery of

21
en la incansable búsqueda conjunta de la autenticidad de las cosas y la verdad de las
palabras.

“El falsificador crea, en la medida de la calidad de sus productos, una dinámica


original: obliga al crítico a mejorar su análisis de los documentos y a ponerlos en
relación con sus espacios de circulación pasados y presentes. De estas
investigaciones nacen los dispositivos de certificación y verificación que serán a su
vez tomados de nuevo en cuenta por los futuros imitadores o falsificadores.”38

El trabajo científico de explicitación teórica, codificación metodológica y


harmonización profesional de los modelos cognitivos implícitos en los que se apoyan
los inspectores, supervisores y expertos forenses para diseñar e interpretar
correctamente el repertorio estándar de controles de calidad aplicados al examen de
objetos inciertos (sospechosos, dudosos), es un regalo absolutamente impagable para
falsificadores, imitadores y defraudadores que, a través de esta vía, consiguen de
manera casi gratuita los costosísimos recursos, herramientas y competencias que
necesitan para llevar a cabo su trabajo.
En razón de la estricta “economía de la percepción” que hace posible, la
modelización matemático-estadística de los criterios heurísticos empleados de manera
implícita por los expertos para formular sus juicios, tarea que en una gran mayoría de
campos de investigación está considerada el procedimiento más efectivo y racional para
llevar a cabo la crítica y la comprensión científica de la realidad, es también condición
de posibilidad necesaria (y a veces incluso suficiente) para todas aquellas acciones cuyo
propósito expreso es intentar “dar gato por liebre”. En un mundo atestado de
consultores en seguridad y agencias anti-fraude de todo pelaje, la articulación formal de
modelos comunicables del conocimiento experto abre infinidad de nuevos caminos para
quienes pretendan perpetrar con éxito cualquier tipo de fraude.
La consecuencia última de este proceso recursivo es que aquellas falsificaciones
que incorporan imitaciones de alta calidad de marcadores anti-fraude cuya receta, al
estar basada en conocimientos científicos de dominio público, no puede mantenerse del

Art, Washington DC, 1989, 7-11, 11.


38
Experts et faussaires, 204.

22
todo en secreto39, aparecen a los ojos del observador como objetos perturbadoramente
aleatorios. Dado que muestran una finísima semejanza de macroestructura en relación
con los productos canónicos empleadas como “muestras” o “calibres” por los expertos,
los falsos auténticos se caracterizan por una alta propensión a superar con éxito los tests
de autenticación más estabilizados - las “pruebas rutinarias”. Si bien el falso auténtico
debe poder permitirse también un mínimo de singularidad y diferencia con respecto al
canon establecido. Para ganarle la mano al juicio crítico de los expertos en su vertiente
más subjetiva e inefable, el falso auténtico debe diferir sustancialmente en la
microestructura de su acabado de cualquier otro modelo estándar o patrón de
comparación conocido.40
Un falso auténtico no puede por tanto ser obtenido exclusivamente siguiendo
una receta publicada sobre el arte del buen copiar. Como en el caso de las sospechas de
imitación que levantan aquellas firmas “perfectamente falsificadas” que se parecen
demasiado a la firma autógrafa original como para ser consideradas auténticas41, todo
buen perito examinador está alerta respecto de aquellos objetos que parecen demasiado
“correctos”, en el sentido de demasiado bien ajustados a un marco teórico
convencional. Igual de sospechosos serán aquellos objetos que, por haber tomado

39
Para tratar de prevenir la falsificación de documentos oficiales, las agencias internacionales de policía
asesoran a un puñado de fabricantes multinacionales de tipos especiales de papel y de tinta (la empresa
suiza Sipca, fabricante de tintas ópticamente variables, o la firma inglesa Wiggins Tape, que produce
papel de copiado sin carbón) que se emplean para la autenticación de pasaportes, sellos, billetes de banco,
recibos de tarjetas legales o formularios legales originales, para que mantengan en secreto la composición
química y el proceso fabricación de sus productos. Además algunos resultados de investigación con alto
valor industrial en este área suelen mantenerse también en secreto por las mismas razones. Empleando un
novedosa técnica de detección conocida como PIXE (Proton Induced X-ray Emission o Emisión de
rayos-x inducida por protones) un grupo de investigadores de la Universidad de California en Davis
proclamó hace unos haber descubierto la proporción exacta de plomo y cobre que contenía la tinta
original empleada por Gutenberg en 1445 para la producción de las primeras bíblias impresas. Los
investigadores no publicaron la receta exacta de la tinta usada por Guttenberg “para que no pudiera ser
copiada por eventuales falsificadores” (cit. Science and the Detective, 282).
40
En presencia de los resultados positivos previos arrojados por los test convencionales de
macroestructura, las pruebas de “sensibilidad” y “tangibilidad” que, bien que imposibles de formalizar
por completo, son las únicas capaces de sancionar de forma definitiva la credibilidad cognitiva y estética
de un objeto, pueden llegar a interpretar los desfases o errores aparentes en sus detalles, las anomalías
estilísticas “carentes de paralelo”, o la rareza de sus motivos como prueba indubitable de mérito creativo
y genuina originalidad.
41
“Aunque todas las firmas de una misma persona suelen parecerse entre sí, siempre existen pequeñas
diferencias entre ellas. Si una firma sospechosa colocada sobre la firma auténtica en una lámpara resulta
absolutamente idéntica, los investigadores sospecharán automáticamente una falsificación.” (D. Owen,
Cuarenta casos criminales y como consiguieron resolverse, Taschen, Colonia, 2000, 148).

23
únicamente en consideración el modelo canónico establecido de la práctica que
pretenden imitar, le resultan improbablemente probables al ojo clínico.
Como la obra de arte original, el falso auténtico es por fuerza un objeto de
cálculo que escapa al cálculo, y en definitiva a la intención. Como el objeto
verdaderamente auténtico, el objeto auténticamente falsificado debe ser una sorpresa
esperada42: al mismo tiempo estándar y raro, previsible y nuevo, ordenado y confuso.
El falso auténtico, como el auténtico a secas, debe contener esa mezcla inexacta, no
calculable pero físicamente aprenhensible de repetición y diferencia cuya innegable
dimensión tangible intenta atrapar de forma operativa la metáfora del “pliegue”,
explorada por Leibniz en su concepción barroca original de la técnica del cálculo
diferencial.43

IV. La verdad está desnuda

Si consideramos que todo lo que se puede probar objetivamente se puede


falsificar efectivamente entonces la objetividad científico-legal, la verdad propiamente
forense, verdad pública si alguna vez puede haber una, es la causa eficiente de todo
fraude. Si sólo lo que se puede probar públicamente se puede copiar fraudulentamente,
entonces bajo el mecanismo de la verdad se esconde siempre la voluntad de la mentira.
Al contrario: solamente aquello que no se puede probar, lo “salvajemente aleatorio”,

42
G. Shackle, Epistémica y economía, México DF, Fondo de Cultura Económica, 1976, 438-442.
43
G. Deleuze, El pliegue. Leibniz y el barroco, Barcelona, Paidós, 1989, 27-28. “Leibniz trató de pensar
simultáneamente la distinción y la inseparabilidad, dos cosas podían ser realmente distintas sin ser
separables. Esta propiedad se halla constantemente tematizada en el pensamiento deleuziano, sobre todo
a través de la utilización de la imagen de los objetos fractales... La dinámica del pliegue proporciona una
expresión adecuada al movimiento perpétuo de la repetición y de la creación. Por el pliegue la distancia
entre dos puntos puede variar al infinito siendo que a la vez permite describir un espacio de variaciones
mensurable. El pliegue permite la fabricación de marcas, el cálculo de valores o la definición de
funciones manteniendo a la vez presente un resto, un residuo, un delta de variaciones.” (Experts et
faussaires, 289-90). El análisis físico de los procedimientos de aplicación de modelos matemáticos de
cálculo o “termodinámica del procesamiento de datos” identifica ese resto no computable mediante
aproximación mecánica como el ser práctico de eso que llamamos azar (véanse R. Landauer,
“Information is Physical”, Physics Today, mayo, 1991, 23-29; B. Latour, “La rebelión de los ángeles de
Frege. El fantasma en la máquina de Turing o los tres cuerpos del matemático”, Mundo Científico,
septiembre, 1996, 739; “Del azar benigno al azar salvaje”).

24
inadmisible por inefable, se halla a prueba de toda falsificación. Impenetrable por las
estrategias reflexivas de los fabricantes de “falsos auténticos”, puramente contingente
ya que radicalmente histórico es aquello inimitable que no se puede copiar. Los hechos
verdaderamente verdaderos son aquellos que no se pueden demostrar de forma pública,
objetiva. Y las verdades auténticamente auténticas son justamente aquéllas que no se
pueden autenticar de forma pública, objetiva.
Y sin embargo “Lo inexpresable, ciertamente, existe. Se muestra, es lo
místico.”44 La verdad mística, que nada tiene que ver con la fe religiosa, aquello “de lo
que no se puede hablar”, es justamente el tipo de verdad que ha proporcionado, desde
siempre, el ultimo refugio para el ejercicio de la libertad, esto es, de lo propiamente
humano en un mundo industrial avanzado donde la coordinación de las acciones
sociales depende cada vez en mayor medida del empleo de un sistema complejamente
interconectado de prótesis tecnológicas cada vez más autónomo en su funcionamiento.
En este mundo donde, sin duda afortunadamente, la civilidad objetiva y su correlato, la
ciencia social, se hacen cada día más posibles, la preservación de la verdad mística, la
convicción que no puede demostrarse mediante experimentos ni estadísticas y que sólo
puede mostrarse señalando calladamente el mundo con el dedo, es una tarea cívica tan
vulgar como imprescindible.

44
L. Wittgenstein, Tractatus logico-philosophicus, Madrid, Alianza,.1987, § 6.522

25
Apéndices: Objetos de fe

A. Obras sagradas son encontradas


Siendo como son las disputas religiosas -muy particularmente las cristianas y no
digamos ya las católicas- el más perfecto de los ríos revueltos para la ganancia, cuando
menos en diversión, de esos traviesos pescadores que son los falsificadores, las
declaraciones de autenticidad y las acusaciones de inautenticidad pueden emplearse
también, recíprocamente como hilo rojo para navegar a través de las más procelosas y
enconadas controversias teológicas.
Uno de los más conocidos, reveladores e inquietantes casos históricos de
falsificación de calidad se localiza justamente dentro de este mundo, la filología
teológica cristiana: el caso de Erasmo de Rotterdam, autor de una conocida falsificación
de un texto de San Jerónimo. Una las preocupaciones centrales del programa humanista
propuesto por Erasmo para la reforma del pensamiento cristiano era la necesidad de
purgar los textos clásicos de los padres de la iglesia de la ingente cantidad de añadidos
(spuria) y partes de dudosa autenticidad que los plagaban, mediante un exigente trabajo
crítico de revisión erudita y purga editorial que él mismo llevo a sus niveles más altos.
En 1530, Erasmo, que estaba considerado como uno de los mayores expertos en
la obra de San Cipriano, publicó su cuarta edición de las obras del santo. Al final del
volumen Erasmo incluyó como suplemento que no aparecía en las ediciones anteriores,
un tratado inédito titulado De duplicy martyrio (De las dos formas del martirio) el cual,
según afirmaba el editor en el índice del libro “se descubrió en una biblioteca antigua;
quizá sea posible buscar en ella también otras obras valiosas del autor.”45 El texto en
cuestión, investido a través de la innegable autoridad académica de Erasmo en obra de
autoría original de San Cipriano, alababa las virtudes de los mártires en el sentido
tradicional del término, aquellos que morían para ser testigos de la fe; pero a
continuación se lanzaba a defender otras formas de vida cristiana -como la vida de
aquellos que, deseando morir por su fe, no habían sido llamados a ello- como
igualmente loables y tan meritorias como el martirio mismo. San Cipriano parece
adoptar con este argumento una posición muy similar a la del propio Erasmo, que era
conocido por su desdén para con aquellas concepciones de lo cristiano que equiparaban
sufrimiento con virtud.

“De duplici martyrio, en definitiva, no es un hallazgo, sino una invención de Erasmo; supone un
intento de contar con el apoyo teológico de la Iglesia primitiva a costa de falsificar sus
documentos (algo que, según había recalcado repetidas veces, jamás debía hacerse). El mayor
estudioso de la patrística en el siglo XVI falsificó una gran obra patrística.”46

Además de las sospechas referidas al contenido estrictamente teológico del


texto, según las cuales la peculiar versión de ciertos pasajes de las escrituras que en él
se da es muy similar a la que puede encontrarse en los comentarios al Nuevo
Testamento escritos por el propio Erasmo, los críticos consideran también bastante

45
Falsarios y críticos, 58.
46
Falsarios y críticos, 59.

26
sospechoso el hecho de que el manuscrito original supuestamente encontrado por
Erasmo no se conserva en ninguna biblioteca. Finalmente, el latín en el que está escrito
es también bastante chocante, sobre todo por la inclusión de numerosos nombres
terminados en diminutivo, particularidad estilística que ha sido destacado por los
expertos contemporáneos en la obra de Erasmo como uno de las características
distintivas de su forma de escritura.
En materia de estudio de los modernos procedimientos de peritaje crítico de
escritos de naturaleza religiosa nada resulta tan educativo ni tan fascinante como el
monumental expediente público que arroja la ya larga controversia investigadora
(filológica, arqueológica, teológica, historiográfica, antropológica, politológica, etc.)
sobre los llamados “Manuscritos de Qumrán”, más conocidos como los “Rollos del Mar
Muerto”. Según puede leerse en el capítulo introductorio de la gran mayoría de
manuales de qumranología47, los primeros elementos de este archifamoso corpus
fragmentario de literatura bíblica y para-bíblica antigua fueron descubiertos por
casualidad entre fines de 1946 y principios de 1947 por tres pastores beduinos del
Desierto de Judea en el interior de unas cuevas naturales cercanas al paraje en ruinas
conocido como Khirbet Qumrán, sito a unos 13 kilómetros al sur de Jericó, en la zona
en la que la altiplanicie desértica desciende hacia la costa noroeste del Mar Muerto.
Cuentan también estos cronistas que los Rollos del Mar Muerto habrían sido escritos o,
más exactamente, transcritos a finales de la época del Segundo Templo judío, esto es,
en algún momento entre el año 170 a.C. y el 68 d.C., por miembros de cierta comunidad
religiosa judía de marcado carácter sectario y tendencia apocalíptica. Historiadores
contemporáneos han identificado a la secta de Qumrán con los Esenios, uno de los tres
grandes partidos religiosos judíos que aparecen mencionados en las crónicas del
aplastamiento de las revueltas judías contra Roma redactadas por el historiador judío
Flavio Josefo (siglo I d.C.)
La controversia dogmática sobre los atributos de Cristo tiene múltiples sus
alternos mundanos, como el debate sobre la autenticidad (y por tanto el sentido) de la
sábana Santa de Turín. Más interesante, el debate sobre teológico, tan católico él, sobre
los atributos de la Virgen María catolicismo, tiene entre sus dobles vulgares un
fascinante: la controversia sobre la autenticidad (y, por tanto, el sentido) de las
“apariciones” de la Virgen. Uno de los fenómenos empíricos más sólidos (y
alucinantes) en materia de documentación de los métodos vulgares específicos que
emplea en su trabajo el experto-en-tanto-que-falsificador ha sido de hecho singular y
especialmente documentado por la bibliografía disponible en este campo de estudios. A
saber: en ciertos casos muy importantes las cosas sólo hablan a los hombres a través de
una muy particular comisión experta de portavoces electos: los niños y las niñas.
Criaturas visionarias universales, los chavales y las chavalas están, en la cultura
católica, específicamente considerados como los únicos testigos y portavoces
verdaderamente legítimos de las apariciones de la Virgen María. Pues, vista desde su
ángulo más laico (que no menos religioso o, si se quiere, trascendente), las visitas de
María a sus hijos consisten, en efecto, en el eternamente renovado trabajo infantil de
producción local de la autenticidad religiosa, así como también, aunque no siempre o no
necesariamente, pueden participar del eternamente renovado trabajo local (social, sí,

47
P. Davies, G. Brooke y P. Callaway, Los Rollos del Mar Muerto y su mundo, Madrid, Alianza, 2002.

27
social) de producción de la autenticidad infantil.48

B. Artenticidad
Uno de los casos más extremos de falsificador exitoso que se conocen es el del
pintor holandés Hans Van Meegeren (1889-1947) autor de una serie de famosas
falsificaciones atribuidas por los expertos a Vermeer de Delft.49 El falsificador presentó
astutamente sus falsos como obras que habrían sido pintadas por Johaness Vermeer en
un corto período de tiempo para el cual los expertos en su obra no conocían en aquel
entonces ninguna pintura original suya, lo cual, junto con la calidad de las copias, surtió
el buscado y consabido efecto doble de engañar a los cancerberos (ese fue el caso del
reputado historiador del arte holandés del XVII Abraham Bradius) y convertirlos en
cómplices del engaño al comprometer su autoridad académica en la concesión de un
certificado de autenticidad para los falsos. Unos años más tarde, al parecer, el propio
falsificador confesó motu propio a las autoridades holandesas su fechoría, pero los
expertos a quienes había engañado se negaron a conceder crédito a su auto-denuncia. A
diferencia de lo ocurrido en un caso más reciente de “falsificador arrepentido”50,
demostrar la falsedad de sus falsificaciones acabó convirtiéndose para Van Meegeren
en un asunto de vida o muerte: durante la ocupación de Holanda por los Nazis les había
vendido sus falsos Vermeers a las autoridades militares alemanas y tras el fin de la
guerra fue acusado por un tribunal militar holandés de alta traición a la patria ¡por
haberles vendido ilegalmente tesoros artísticos de la nación a los alemanes! Caso de
probarse cierto, el delito de alta traición conllevaba la pena de muerte. Contra el
testimonio experto de Bradius y otras autoridades en materia de historia de la pintura
holandesa del XVII, el falsificador debía convencer al tribunal castrense de que era él el

48
W. Christian, Las Visiones de Ezkioga. La Segunda República y el Reino de Cristo, Barcelona, Ariel,
1997, 250ss., sobre el caso de las apariciones marianas ocurridas en una villa de las montañas de
Guipúzcoa a comienzos de la década de 1930; E. Claverie, Les guerres de la Vierge. Une anthropologie
des apparitions, París, Gallimard, 2003, 109-194, sobre otro caso de apariciones marianas: el de la
llamada “Virgen de Medjugorje, que empezó a aparecerse en 1981 en un pequeño pueblo de mayoría
croata sito en la entonces república Yugoeslava de Bosnia-Herzegóvina.
49
The Fake, 21-23.
50
Me refiero al “caso Sokal”, donde también se ha probado la peligrosa eficacia de la estructura lógica de
la “doble negación” puesta en acción por los falsos auténticos -aquí un físico matemático que se hace
pasar, exitosamente, por sociólogo postmoderno de la ciencia y, tras desvelar él mismo su impostura,
consigue de nuevo volver a “hacerse pasar” exitosamente por azote perverso del postmodernismo en
ciencias sociales... “Como admite Sokal [en su autodenuncia publicada en la revista Lingua Franca], su
artículo en Social Text constituye un engaño intencionado: en él se afirma justamente lo contrario de
aquello que el autor cree verdaderamente. En su artículo en Lingua Franca Sokal de nuevo pretende
hacernos creer que esta vez sus palabras representan fielmente sus creencias. La mayor parte de los
comentarios sobre la broma aceptan las palabras finales de Sokal [en el artículo de Lingua Franca] en el
sentido de que el artículo original [en Social Text] era una broma, pero no se pregunta: ¿no estará Sokal,
nuevamente, pretendiendo ser quien dice ser?... Sokal -pretendiendo de forma aun más exitosa ser él
mismo en el artículo de Lingua Franca- habla con una voz modesta, que se oculta a sí misma, una voz
que cualquier analista competente en los trucos retóricos del discurso científico debería reconocer como
una parodia; un disfraz retórico para una declaración triunfante. Lo único diferente en este caso es que no
hubo un destape irónico posterior para enfado de quienes le tomaron en serio esta segunda vez.” (M.
Lynch, “A So-Called ‘Fraud’: Moral Modulations in a Literary Scandal”, History of the Human Sciences,
10, 1997, 9-21, cit. p. 18).

28
verdadero autor de los Vermeers. Van Meegeren fue finalmente absuelto de los cargos
iniciales de alta traición pero acabó sentenciado a la pena de un año de prisión por un
delito de fraude. De todos modos ya había muerto cuando salió su sentencia.
La original investigación detectivesca llevada a cabo por el profesor y crítico de
arte John F. Moffit de la Universidad de Nuevo México para establecer la hipótesis del
probable origen decimonónico de la más famosa de las esculturas ibéricas, la Dama de
Elche, ofrece otro ejemplo espectacular del tipo de estrategias reflexivas comúnmente
empleadas por el falsificador de calidad para trasmutar su pastiche en canon, así como
de las intervenciones simétricas que le opone el experto crítico en su intento de exponer
el tótem arqueológico como muestra de arte menor.51 Según la hipótesis de Moffit, la
técnica empleada para la creación de la Dama por su presunto falsificador52 habría sido
la “libre adaptación” al gusto de su época (fines del siglo XIX) de los primeros modelos
de arte ibérico auténtico de los que se tuvo conocimiento público de tipo visual,
notablemente a través de las ilustraciones litográficas publicadas en 1875 en la Revista
de archivos, bibliotecas y museos por el arqueólogo Paulino de Savirón de la llamada
“Damita 7.707”, una escultura íbera encontrada en el yacimiento del Cerro de los
Santos veinte años antes del “hallazgo”, en 1897, de La Dama de Elche en el
yacimiento de La Alcudia.53 La denuncia de falsificación formulada por el crítico-
detective se apoya, por su parte, en otra original contra-estrategia deconstructiva que
consiste en incorporar los resultados de la investigación académica más reciente en el
terreno del arte moderno y contemporáneo al arsenal de herramientas de análisis del
perito autenticador de arte ibérico antiguo. A través del gamusino de la Dama de Elche,
expuesta en el Museo del Louvre desde 1898, el crítico pretende hacer ver la influencia
bien real que ejerció la escultura simbolista española de finales del siglo XIX tanto
sobre la técnica de la taille directe en piedra con la que el escultor modernista por
excelencia, el rumano Constantin Brancusi, propuso, en obras como El beso de Craiova
(1907-8), operar un regreso contemporáneo a los orígenes más primitivos del arte
escultórico en sus fuentes ibéricas, como sobre las primeras obras cubistas de Picasso
(como el Retrato de Gertrude Stein, de 1905-6 o Las señoritas de Avignon, pintados en
1907).

“Es irónico que la importancia artística del antiguo arte ibérico parezca menos misteriosa en
nuestro siglo XX que con frecuencia es brutalmente primitivizante. A lo largo del importante
período de transición en que se produjo el primer arte modernista, o sea, a partir de 1906, cuando
vemos (con percepción tardía) una estética fauvista-impresionista que conduce inexorablemente
hacia los experimentos cubistas más tempranos, el arte ibérico parece haber sido un factor
estético importante, pero, hasta ahora, bastante inadvertido. Su efecto en la técnica de taille
directe de Brancusi es, a mi modo de ver, indudable. Y yo diría que la presencia de la
probablemente falsa Dama de Elche en el Louvre durante cuarenta y tres años constituyó un
importante factor en el arte de Pablo Picasso. Ya sea “real”, o sólo magníficamente falsa, lo
cierto es que la Dama de Elche es y debería seguir siendo, sin duda objeto de gran importancia
artística. En realidad, una vez aceptada como “falsa” su verdadero sentido contextual se vuelve

51
J. Moffit, El caso de La Dama de Elche. Historia de una falsificación, Barcelona, Destino, 1995.
52
Según Moffit las sospechas más fundadas sobre la identidad del “Maestro de la Dama” recaen en el
escultor valenciano y afamado falsificador de tallas antiguas Francisco Pallás y Puig, nacido en 1859 en
Cuart de Poblet y muerto en Valencia en 1926 (El Caso de La Dama de Elche, 207).
53
El Caso de La Dama de Elche, 225-32.

29
mucho más claro.”54

La impotencia que sufren las cifras empleadas en el mundo industrial para


certificar la calidad y la fiabilidad cuando intentan dominar con su fuerza bruta la
proliferación de tipos débiles de información cualitativa (pistas, síntomas, huellas,
trazos, vestigios, etc.) es compartida también por las variedades más prestigiosas de
pruebas forenses estandarizadas, desde los test de identidad llevados a cabo mediante
comparación de huellas dactilares o comparación de cadenas de ADN, a la pruebas de
datación de objetos mediante carbono-14 o índices de termoluminescencia.55
Incluso los hechos científicos más largamente estabilizados y los protocolos de
experimentación más endurecidos por la presión de sucesivos estratos de difusión
académica, profesional y empresarial, pueden ser puestos en duda, criticados y
rechazados cuando lo que está en juego son asuntos tan peliagudos como conocer la
edad exacta de la famosa sábana santa de Turín, identificar la verdadera caligrafía del
Capitán Dreyfus o probar que las muestras de sangre extraídas a la estrella del fútbol
americano y la televisión O.J. Simpson coinciden con las pistas de sangre encontradas
en la escena del crimen donde se hallaron los cadáveres de su mujer y el amante de
esta.56

C. Hechos científicos hechos


Los historiadores han mostrado la influencia sucesiva de diversos factores
materiales tecnológicos, económicos y simbólicos en el proceso de conformación
histórica de la institución moderna de la autoría literaria. En primer lugar, la difusión de
la imprenta.57 El segundo factor que ha sido destacado por los estudiosos fue la
controversia que, a lo largo del tercio central del siglo XVIII, enfrentó a soberanos
europeos celosos de su monopolio tradicional sobre los sistemas de comunicación

54
El caso de La Dama de Elche, 298-299.
55
Para un análisis de la controversia tecnocientífica y legal sobre los métodos de autentificación de
personas mediante contraste de huellas dactilares véase S. Cole, “What Counts for Identity? The
Historical Origins of the Methodology of Latent Fingerprint Identification”, Science in Context, 12, 1999,
139-172). Para el análisis de secuencias de ADN, vid. S. Halfon, “Collecting, Testing and Convincing:
Forensic DNA Experts in the Courts”, Social Studies of Science, 28, 1998, 801-828.
56
Sobre la tolerancia interpretativa de los procedimientos estándares de datación de objetos mediante
pruebas de termoluminescencia y análisis del carbono 14 en el contexto de la controversia sobre la
autenticidad de la Sábana Santa de Turín cf. Experts et faussaires, 193-194, 219-222. Sobre el análisis
computacional de la escritura autográfica de documentos presuntamente falsificados en el asunto Dreyfus
véase J-M. Fournier, “Approche analogique d’une expertise en écriture: un example concernant l’affaire
Dreyfus”, Le Courier du CNRS, 16, 1975. Para el rechazo de los resultados de las pruebas de
identificación mediante contraste de secuencias de ADN en el caso de O.J. Simpson véase “Discursive
Production of Uncertainty”.
57
“El impulso de emborronar escritos existía tanto en los días de Juvenal como en los de Petrarca, pero el
deseo de ver la obra de uno impresa (fijada para siempre con nuestro nombre en fichas y antologías) es
distinto al deseo de escribir líneas que podrían no ser fijadas nunca de una forma permanente, podrían
perderse para siempre, ser alteradas al copiarse o –si en verdad eran memorables- ser transmitidas
oralmente y atribuidas en último término a “autor anónimo”. Hasta que se hizo posible distinguir entre
componer un poema y recitarlo, o escribir un libro y copiarlo; hasta que los libros pudieron ser
clasificados por algo más que su incipit, no se pudo jugar el moderno juego de libros y autores.” (E.
Eisenstein, La revolución de la imprenta en la Edad Moderna Europea, Madrid, Akal 1994, 89).

30
pública contra gremios de libreros artesanos en plena revolución empresarial que
abanderaban la libertad de expresión y los derechos de los autores como el particular
caballo de Troya de una nueva lógica económica y política.58 En tercer lugar, los
historiadores de las doctrinas filosófico-jurídicas del derecho de propiedad intelectual
ha llamado la atención sobre la ironía de que las leyes de derechos de autor sirvieron
originalmente, en el momento y el lugar de sus primeras formulaciones sistemáticas (en
Francia y Alemania a principios del siglo XIX), para cristalizar de manera definitiva esa
misma construcción filosófica, ética y estética, que hoy las apresa.59 Pues, en efecto, la
enseñanza más extraordinaria de toda esta historia, ciertamente, es el hecho de que el
discurso romántico sobre la autoría artística y literaria, la concepción mistificadora del
autor literario como “creador”, sujeto socialmente aislado e inexplicablemente dotado
de cualidades intelectuales a las que no cabe atribuir un origen social, hunde sus raíces
en esos mismos cambios materiales que su rechazo cultural contribuirá paradójicamente
a solidificar. La emergencia histórica de un sistema elaborado de justificación
discursiva para dotar de sentido a la hipótesis del “autor-originador” parece haber sido
el producto de la progresiva de mecanización, mercantilización y juridización del
trabajo intelectual: la teoría del autor como hipótesis de explicación cultural habría
surgido de forma simultánea con el establecimiento de un conjunto de condiciones
económicas y sociales de posibilidad que desaprueban dicha hipótesis en la práctica. La
manifestación más acabada de la paradoja del autor literario es la institución de la
autoría científica.60

58
M. Rose, Authors and Owners. The Invention of Copyright, Cambridge, MA, Harvard University Press,
1993, 67-91. Lejos de reducirse a una mera extensión analógica del derecho individual de propiedad
sobre producto del trabajo intelectual, el origen de la institución de la “propiedad literaria” durante el
siglo XVIII parece haber sido consecuencia de un proceso radicalmente político: la defensa de los
privilegios reales de librería que otorgaban a los libreros agraciados (los de las grandes capitales europeas
como París y Londres) un derecho exclusivo sobre un título u obra. Al igual que ocurriera con la
imprenta, la extensión a gran escala de las relaciones mercantiles en el ámbito de la producción y el
comercio libresco tuvo como consecuencia harto contradictoria el reforzamiento de la naciente ideología
romántica del autor como causa incausada y depósito metafísico de originalidad. “En la segunda mitad
del siglo XVIII, se constituye una relación algo paradójica entre el deseo de la profesionalización de la
actividad literaria (la cual debe incluir una remuneración directa que permite a los escritores vivir de su
pluma) y la autorrepresentación de los autores en una ideología del genio propio, fundada en la
autonomía radical de la obra de arte y en el desinterés del gesto creador. Por un lado, la obra poética o
filosófica se identifica con un bien negociable, dotado de un “valor comercial” (como escribe Diderot)
que, en consecuencia, puede ser el objeto de contratos y de equivalencias monetarias. Por el otro, es
considerada como el producto de una actividad libre e inspirada, transformada por su sola necesidad
interna. Por consiguiente, el desplazamiento del patronazgo al mercado... es acompañada por una
mutación, en apariencia contradictoria, de la ideología de la escritura definida por la urgencia de su
potencia creadora” (R. Chartier, El orden de los libros. Lectores, autores, bibliotecas en Europa entre los
siglos XIV y XVIII, Barcelona, Gedisa, 1996, 50-51).
59
C. Hesse, “Enlightment Epistemology and the Laws of Authorship in Revolutionary France, 1777-1793”,
Representations, 30, 1990, 109-137; M. Price y M. Pollack, “The Author in Copyright: Notes for the
Literary Critic”, en M. Woodmansee y P. Jaszi (eds.), The Construction of Authorship, Durham, Duke
University Press, 1994, 448-449, 303-326.
60
“Existe una gran similaridad entre el empeño actual por conjuntar las nociones de autoría y de
responsabilidad científica y las antiguas definiciones pre-mercantiles de la autoría intelectual. Con
anterioridad a la emergencia de la figura del intelectual propietario a fines del siglo XVII y principios del
XVIII, el autor era definido por estado, el príncipe o la iglesia como aquel individuo responsable del
contenido y la publicación de un texto dado. El autor no era visto como un creador cuyas obras debían ser

31
La ciencia da con frecuencia la impresión de ser una empresa anti-histórica: el
científico exitoso cambia la historia de la ciencia. Lo que significa que se las arregla
para obligar a aquellos colegas y discípulos que acabarán inscribiendo sus carreras
investigadoras dentro del camino histórico abierto por el éxito de sus experimentos a
tratar, en sus propios trabajos, la invención de aquel como si se tratase de un
descubrimiento que cualquier otra persona “en su lugar” podía haber hecho.61
El autor científico debe adoptar el tono moral del “testigo modesto”, una
persona sin voz propia que es hablada por la Naturaleza o la Sociedad. La producción
de “afirmaciones de hecho” es inseparable de la producción de la “altura moral” de su
productor: de la buena fe de aquel que comunica, sin traicionarlos, los mensajes que se
le escapan a la naturaleza a través de los altavoces que le pone el laboratorio.

“El objetivo de la tecnología literaria de [Robert] Boyle era asegurar a sus lectores de que el
autor del texto era el tipo de persona en cuya palabra podía confiarse. Tuvo por tanto que
encontrar los medios para hacer visible en sus textos los atributos aceptables de un hombre de
buena fe. Una de las técnicas más características en este sentido era la de informar de
experimentos fallidos. Un hombre que es capaz de informar sobre el fracaso de sus experimentos
es un hombre cuya objetividad no puede estar distorsionada por sus intereses. Él despliegue
literario de un cierto tipo de moralidad constituía así una de las técnicas esenciales en la
fabricación de una cuestión de hecho. Un hombre cuyas narraciones pudieran ser acreditadas
como espejos de la realidad habría de ser un hombre modesto; sus informes deben hacer visible
la modestia. [...] El “estilo desnudo de escritura” de Boyle, sus profesiones y muestras de
humildad y sus exhibiciones de inocencia teórica, se complementaban entre sí en el
establecimiento y la protección de las cuestiones de hecho. Servían para retratar al autor como
observador desinteresado y a sus relatos como espejos no distorsionados de la naturaleza. Un
autor tal debía ofrecer todos los signos de un hombre cuyo testimonio era fiable. De suerte que
sus textos pudieran ser creíbles y el número de testigos de sus narrativas experimentales pudiera
ser multiplicado indefinidamente.”62

El rasgo distintivo de la cualidad de la “autoría original”, en la forma en que se


predica de un hecho científico aceptado, consiste en que dicha autoría original debe ser
pérdida de vista una vez que la afirmación proferida ha tenido éxito en ser aceptada
como el descubrimiento de un hecho científico. El autor científico es, pues, un sujeto
que llega a “convencer a sus lectores-colegas del hecho de que él no es realmente el
‘autor’ de aquello que presenta, sino que se ha visto obligado a considerarlo como algo
impuesto, del mismo modo que se le hubiera impuesto a cualquier otra persona en las
mismas condiciones de experimentación, observación o formalización.”63 Para reclamar
de forma legítima el estatus de autoridad científica, el investigador se ve forzado,

protegidas de la piratería, sino como la persona a cuya puerta habría de llamar la policía si el tal texto era
considerado subversivo o herético... Hoy en día, si los científicos publican afirmaciones dudosas, no son
acusados de lesa majestad contra el regidor absoluto o de subvertir el control absoluto de la iglesia sobre
las doctrinas teológicas, pero son declarados responsables de atentar contra algo igualmente absoluto: la
verdad.” (M. Biagioli, “The Instability of Authorship: Credit and Responsibility in Contemporary
Biomedicie”, FASEB Journal, 12, 1998, 3-16, 3).
61
“Estamos acostumbrados a pensar que “si Beethoven hubiera nacido muerto, sus sinfonías no habrían
visto la luz, pero en el caso de que Newton hubiese muerto a la edad de quince años, seguramente alguien
en su lugar hubiera...” (I. Stengers, “Sciences: qui est l’auteur?”, Surfaces, 2, 1996, 6-31, 17).
62
S. Shapin y S. Schaffer, Leviathan and the Air-Pump, Princeton, NJ, Princeton University Press, 1985,
65, 69.
63
“Sciences: qui est l’auteur?”, 14.

32
curiosamente, a convencer a sus colegas de que no usen esa ambición suya (el anhelo
de autoría) como arma contra él.
La invención moderna de la forma de vida experimental es pues inseparable de
la invención de la autoría científica como institución moral absolutamente
esquizofrénica que permite tatuar la marca de la autoría sobre los individuos y al mismo
tiempo borrar las huellas que dejan los individuos sobre los hechos. De suerte que,
cuando el científico no logra convencer a sus colegas de que él es realmente el autor de
su trabajo, en el sentido de que ha tenido éxito en su tarea de constituir a la Naturaleza
en la autoridad garante del significado científico de su investigación, es señalado
paradójicamente por su comunidad de pares como el autor voluntario de sus
proposiciones. Sus pretendidos “descubrimientos” son entonces puestos entre comillas,
en duda, y eventualmente rechazados, calificados como “no científicos”, denunciados
como “ficciones”, esto es, como algo fabricado por el hombre, falsificado luego falso.64
Una vez rechazada su pretensión a la autoría científica, como si dijéramos, “por
exceso”, el investigador en cuestión puede ser reprendido por haber cometido un error
involuntario en el manejo de su material experimental en la realización de sus cálculos
o, peor, ser acusado de haber actuado con mala fe. Nos encontramos entonces ante una
denuncia de fraude científico.
La afloración de denuncias indignadas de casos de plagio y fraude en las obras
científicas es una constante a lo largo de la historia de las ciencias modernas. Sobre
todo de las ciencias naturales. De hecho el fenómeno de la perversión de la originalidad
científica no ha hecho sino exacerbarse en el marco del sistema contemporáneo de
publicación basado en revisión por pares. El “robo” de ideas, la invención de pruebas,
el maquillaje de datos, y toda la batería de trampas y zancadillas editoriales que
promueve la loca carrera competitiva por pasar el primero por la imprenta o por la
oficina de patentes: éste es el tipo característico de “impostura intelectual” que produce
la empresarialización rampante de la actividad investigadora en buen número de
disciplinas científicas.65

64
“En nuestra cultura, decir que el conocimiento es artificial y convencional es tanto como decir que no
es al fin y al cabo conocimiento auténtico. Esta disposición general explica el hecho de que aquellos
ejercicios académicos aplicados a desvelar y exponer las bases convencionales del conocimiento, como
los llevados a cabo por Wittgenstein, son interpretados como otros tantos actos de denuncia o
menosprecio. En la vida cotidiana, nosotros mismos quitamos importancia a las aseveraciones de los
demás intentando mostrar su naturaleza construida o sus fundamentos convencionales. Tales prácticas
tienen sentido dentro de un juego de lenguaje particular. Un juego... en el que, por así decirlo, no es la
agencia humana (individual o colectiva) quien responde del conocimiento logrado, sino la realidad
misma.” (Leviathan and the Air-Pump, 150).
65
“Las empresas invierten billones de dólares en investigación fundamental que aun no puede ser
aplicada sobre superconductividad y biotecnología, anticipando un beneficio para estas inversiones. Las
universidades comienzan ya a considerar las patentes como una de sus principales fuentes de ingresos. En
un clima de negocios tal, el trozo de información más arcano puede ser considerado valiosísimo cuando
quien lo posee es un competidor. Este cambio en la percepción del valor de la investigación afecta tanto a
la comunicación formal como a la comunicación informal entre los científicos. Colegas del mismo
laboratorio que hace diez años hablaban sin tapujos por los pasillos afirman ahora que tienen que
describirse sus investigaciones en proceso mediante vaguedades y eufemismos para no revelar de forma
inadvertida información con valor comercial a sus competidores. Ser el primero en publicar en una
revista determina ya no condiciona sólo la prioridad y el prestigio científico sino que ayuda también a
reclamar sabrosísimos derechos de propiedad intelectual.” (Stealing into Print, 28).

33
La ocurrencia de un caso de fraude en el proceso de la comunicación científica
ha sido definida como una “representación falsa” de experimentos o datos llevada a
cabo por el autor de un artículo científico (o, en su caso, por el editor o el revisor de una
revista) con el fin de “obtener ventajas inmerecidas o de dañar deliberadamente los
derechos o los intereses de otra persona o grupo.”66 El plagio, la falsedad documental y,
sobre todo, la “invención” de datos son los tres tipos característicos de
“comportamiento inmoral” más frecuentemente observados en la autoría de artículos
científicos.67
Más allá de las explicaciones economicistas del fraude científico en términos de
los beneficios (en forma de mejores puestos y salarios investigadores) perseguidos por
los investigadores que tratan de colar en imprenta datos fraudulentos, lo que ponen de
manifiesto los casos más importantes de fraude en la publicación científica destapados
durante las década de 1990 es el conflicto entre la larga marcha histórica por autonomía
intelectual y el principio democrático fundamental de la responsabilidad pública de los
científicos.68
Las controversias científicas son el primer lugar donde ponerse a buscar pistas
sobre como se traza en la práctica la fina línea que separa la excelencia del delito en la
investigación científica. Las denuncias, veladas o explícitas, de fraude son, en efecto,
uno de los lugares comunes de las estrategias argumentativas desplegadas por la parte
acusadora en toda controversia científica prolongada. Así, por ejemplo, es típico de los
argumentos esgrimidos contra aquellos investigadores que sostienen teorías científicas
innovadoras el incluir acusaciones de conducta anti-científica o fraudulenta.69 Las

66
Stealing into Print, 41.
67
También son muy comunes los llamados “fraudes de autoría científica”, que consisten en la
tergiversación de la autoría real de un artículo, cometida bien al omitir en la publicación el nombre de
uno de los autores que contribuyó realmente a su producción, bien, como en la autoría llamada
“honorífica”, de amplia difusión en las ciencias biomédicas, al incluir el nombre de un autor que no
contribuyó realmente a la producción del artículo en ninguna de sus fases. Una de las medidas propuestas
para combatir el fraude específico cometido contra las convenciones de autoría de artículos científicos
proponía, en primer lugar, sustituir el término ‘autor’ por el de ‘contribuyente’ (contributor). Los
artículos publicados deberían así incluir una lista al margen con todos sus contribuyentes y una nota al
pié en la que se describiera la naturaleza de las contribuciones específicas de cada uno (diseño de
métodos experimentales, calibración de instrumentos, análisis estadístico de los datos, búsquedas
bibliográficas, redacción final, etc.) Como medida complementaría se proponía acuñar el título de
‘garante’ (guarantor) para distinguir a aquellos de entre los contribuyentes al artículo que estuvieran más
familiarizados con los aspectos de conjunto del proyecto. Los garantes serían entonces quienes deberían
hacerse cargo de responder a todas las cuestiones suscitadas por el proceso de publicación, tarea
encomendada en el sistema actual de publicación científica a los llamados “autores principales” de un
artículo (“Instability of Authorship”, 13, n. 2).
68
Stealing into Print, 29.
69
H. Collins y T. Pinch, El Golem. Lo que todos deberíamos saber acerca de la ciencia, Barcelona,
Crítica, 1996, que examinan, entre otras, la controversia llamada “de la transferencia química de
memoria”, desatada tras los informes sobre una serie de experimentos con lombrices y ratas llevados a
cabo entre las décadas de 1950-60 por los psicólogos estadounidenses James V. McConell and Georges
Ungar, o el caso de la “fusión fría”, una pugna feroz entre las academias de las ciencias físicas y las
ciencias químicas, provocada por el anuncio de dos químicos de la Universidad de Utah, Stanley Pons y
Martin Feischmann que, en una controvertida conferencia de prensa ofrecida en 1989, afirmaron haber
conseguido producir experimentalmente un fenómeno de fusión nuclear por métodos exclusivamente
químicos.

34
reacciones negativas a la presentación pública de resultados experimentales que
respaldan la posición más heterodoxas de cuantas compiten en la resolución de una
controversia científica bien delimitada suele también adoptar la forma de acusaciones
de fraude o manipulación de datos.70

D. Dinero clónico
La exposición más elegante que conozco de la hipótesis de la naturaleza politeísta
de la fe en el dinero, se encuentra enterrada en un oscuro artículo econométrico sobre las
causas del crash bursátil de octubre de 1987, publicado en 1988 en el Journal of Business
de la Universidad de Chicago.71 Partiendo de un ejercicio harto convencional de
modelización matemática de los parámetros operativos de liquidez o “velocidad
transaccional” que emergen a largo plazo en el seno de una sencilla estructura prototípica
de mercado, el economista analítico entrevé la posibilidad de que pequeños fallos en el
tratamiento subjetivo de la información económica (precios y cantidades) que produce el
funcionamiento ordinario del mercado, ocasionen costes no despreciables de
interaccción-transacción entre los agentes y, finalmente, acuerdos contractuales
peligrosamente incompletos. La relación entre errores de información aleatorios y
competencia imperfecta traduce mecánicamente el fenómeno institucional básico de la
economía de mercado: el carácter indeterminado del estatuto legal de la moneda
fiduciaria. Otra manera de formular el argumento anterior: la norma exclusivamente
ingenieril de cualificación de productos que domina en la industria financiera, donde
hablar de la calidad de un instrumento de inversión equivale a trazar su perfil numérico de
riesgo-rentabilidad, esto es, a calcular un conjunto de medidas de varianza estadística de
los de precios, permite formular de un modo absolutamente prosaico -¿cuanto dinero
cuesta replicar, llevando a cabo operaciones de mercado alternativas, su perfil de riesgo-
rendimiento?- la cuestión fundamental de la naturaleza auténtica o falsificada, original o
derivada de un título financiero.
El dinero falso es el enemigo más peligroso del dinero legal. El hecho de que los
billetes falsos y los activos de inversión ficticios logren superar, una tras otra, las
diferentes pruebas convencionales de autenticación, desde los controles rutinarios con
máquinas de rayos ultravioletas que usan los comerciantes minoristas a las contra-
pruebas de fiabilidad estadística (backtesting) que emplean los cuerpos nacionales de
inspección bancaria72, supone una suerte de denuncia práctica de la falsa pretensión de
autenticidad del así llamado “dinero auténtico”. Y a pesar del enorme esfuerzo
económico y tecnológico de las agencias de seguridad nacionales e internacionales para
impedir la falsificación monetaria, enormes masas de riqueza de pega viajan
velozmente alrededor del mundo, veinticuatro horas del día, siete días a las semana, sin
ser detectadas.

70
El Golem, 30, 89; “Instability of Authorship”, 9.
71
S.J. Grossman, “Un análisis de las implicaciones de las estrategias dinámicas de cobertura y 'program
trading' sobre la volatilidad del precio de los futuros y de las acciones”, Información Comercial Española,
1990, 688, 141-158.
72
A.J. Izquierdo, “Modelos estadísticos del riesgo y riesgo de los modelos estadísticos”, Empiria, 3, 2000,
101-119.

35
La consecuencia teórica más profunda de la proliferación de estos proyectos
definitivamente críticos de ataque falsificador y fraude reflexivo dirigidos contra la
institución de la moneda legal es el incumplimiento reiterado de la profecía no menos
perseverante de los economistas monetarios de que llegaremos en algún momento a
contar con medios de pago completamente “inmateriales”.73 Efectivamente, al elevar
los costes de protección anti-fraude del dinero legal, la presencia de una población
umbral74 mundial de falsificadores de dinero, crédito y valores de inversión impone un
límite real a la utopía de un mundo monetario estrictamente informacional de flujos
electrónicos de pagos.75 Mientras que el pensamiento económico ortodoxamente
monetarista considera que la manufactura y puesta en circulación legal de nuevas
unidades de cuenta es realmente el único coste (fijo) relevante en el que incurre el uso
social de dinero fiduciario (esto es, supuestamente, sin valor intrínseco alguno), el coste
económico (variable) verdaderamente importante de usar dinero fiduciario, en un
mundo poblado por falsificadores “de calidad” (véase supra para la explicación de este
juego de palabras) es el que impone la mejora de la calidad y la seguridad de la masa
total existente de lo que los macroeconomistas monetarios, queriendo hacer una gracia,
llaman los ALPES, los Activos Líquidos en Manos del Público.76
Mientras que en el mundo en el que se mueven los cuerpos funcionariales de
inspección bancaria, los procedimientos de lucha contra el fraude monetario implican
procedimientos homologados de auditoría de riesgos crediticios o bien de auditoría de
sistemas internos de control de riesgos crediticios, el trabajo de autenticación de la
moneda circulante se lleva a cabo mediante la incorporación sucesiva de nuevos
materiales y tecnologías de detección dentro del objeto documental mismo al que se
intenta proteger contra las fuerzas renovadas de métodos de falsificación.
Algunos teóricos literarios postmodernos utilizan la metáfora del “prestamista
de último recurso” (lender of last resort), alguien que garantizaría la autoridad, la
autenticidad, la realidad última que el lector confiere al texto, y por tanto a su autor,

73
La resilencia histórica de los falsificadores daría así la razón al sociólogo alemán Georg Simmel que en
su obra Filosofía del dinero, publicado en 1900, sostenía que “el dinero no puede llegar a desprenderse
de un residuo de valor material, no exactamente por razones inherentes, sino en razón de ciertos defectos
de la técnica económica... La eliminación del valor intrínseco de la moneda es imposible.” (G. Simmel,
The Philosophy of Money [1900], Londres, Routledge & Kegan Paul, 1978, 162).
74
M. Granovetter, “Modelos de umbral de la acción colectiva”, Zona Abierta, 54/55, 1990, 137-166.
75
D. Martin y F. Weingarten, “The Less-Cash/Less-Check Society: Banking in the Information Age”, en
E. H. Solomon (ed.), Electronic Money Flows. The Molding of a New Financial Era, Boston, Kluwer,
1991, 187-215.
76
La fabricación de la nueva masa de billetes y monedas puesta en circulación en 1991 por el
Bundesbank, el Banco Central Estatal de la República Federal de Alemania con motivo de la
reunificación monetaria entre Alemania Occidental y Alemania Oriental, tuvo un coste aproximado de
330 millones de marcos alemanes (D. Marsh, El Bundesbank. El banco que gobierna Europa, Madrid,
Celeste, 1994, 126). En el año 2000, el Banco de España gastó 137,2 millones de euros en la fabricación
de 1.924 millones de unidades de los distintos tipos de billetes de euro, la moneda europea que sustituyó
ese año a la peseta, por un valor facial total de 68.450 millones de euros (diario EL PAIS, suplemento
NEGOCIOS, domingo 8/10/2000, p. 25). Las cifras anteriores palidecen ante el coste que supuso la
introducción a principios de la década de los 90 de un nuevo dispositivo anti-falsificación por parte del
Banco de Canadá en sus billetes de curso legal, una tira metálica de zirconita y óxido de silicio que
adopta un color diferente vista a diferentes ángulos. La incorporación efectiva de la tira de zirconita en
los billetes canadienses se tradujo en gasto suplementario de 2,5 dólares por cada nuevo billete
producido, Science and the Detective, 287.

36
para dar cuenta de las consecuencias de estrategias narrativas de intención paradójica,
como son la introducción de un personaje real como parte de una trama de ficción
literaria, o la introducción de la voz de la propia persona que escribe la ficción dentro
de la ficción misma.77 Al igual que sucede con la moneda de curso legal, la credibilidad
del dinero emitido por un hipotético Banco Central del valor literario puede ser siempre
objeto de sospecha.78 Y a la inversa: el efecto auto-destructivo que produce sobre el
valor de ficción de una obra literaria el juego con la convención literaria de la “verdad
en la ficción” tiene su equivalente en el fenómeno que Keynes bautizó con el término
de “preferencia por la liquidez”: un aglomeración de planes de ahorro a corto plazo en
los que los inversores, pretendiendo manipular estratégicamente la convención social
del dinero como medio de pago, acaban destruyendo su función de almacén de valor.79
Supuesto que las acciones de crítica reflexiva que llevan a cabo los
falsificadores de calidad en su lucha contra las instituciones de la moneda de curso legal
y la ficción literaria auténtica poseen un carácter suficientemente generalizado en
nuestro mundo, la hipótesis es que ni los economistas monetarios, ni los críticos
literarios, ni los historiadores del arte, pueden contar en ningún momento con la
existencia de quimeras tales como un “medio de pago completamente
desmaterializado”, un “documento histórico absolutamente fidedigno” o una “obra de
arte absolutamente original”.

77
La analogía entre la inestabilidad reflexiva de las convenciones literarias y la de sus contrapartes
monetarias ha sido examinada por J-P. Dupuy, “Self-Reference in Literature”, Poetics, 18, 491-515.
78
Tanto la inflación interpretativa (deconstruccionismo benigno) como el fraude literario
(deconstruccionismo salvaje), tendrían su origen en semejante sospecha.
79
En ambos casos, en la comunicación literaria y en la comunicación monetaria, lo que es necesario
averiguar en última instancia, según ciertos análisis teórico-formales, es el efecto que el conocimiento de
la naturaleza convencional de una convención tiene sobre su propia estabilidad, esto es, se plantea el
enigma de saber “si la estabilidad de una convención puede quedar garantizada por el conocimiento que
poseen los agentes del hecho de que han de usar objetos convencionales para solucionar sus problemas de
coordinación.” (A. Orléan, “The Origin of Money”, en J-P. Dupuy y F.J. Varela, Understanding Origins, La
Haya, Kluwer, 1991, 113-143, p. 125).

37

You might also like