You are on page 1of 19

Breve historia de la cultura hacker

Por Eric S. Raymond


Traducido por Abel R. Micó

En ella exploramos los orígenes de la cultura hacker, incluyendo la prehistoria de los


Auténticos Programadores, los buenos tiempos del Laboratorio de Inteligencia Artificial del
MIT, y cómo la antigua ARPANET dio lugar a la primera "nación de redes". Nubarrones
sobre Júpiter. Se describe el auge inicial de Unix y su posterior estancamiento. La nueva
esperanza surgida en Finlandia y cómo el "último hacker auténtico" se convierte en
patriarca de las nuevas generaciones. Esbozamos la forma en que Linux y la popularización
de Internet sacaron a la cultura hacker de los márgenes del conocimiento público hasta el
lugar relevante que ocupa actualmente.

1. Texto original
A Brief History of Hackerdom

2. Prólogo: los Auténticos Programadores


Al principio fueron los Auténticos Programadores.
No era así como se llamaban a sí mismos. Tampoco "hackers" ni nada parecido; el
sobrenombre "Auténtico Programador" (Real Programmer) no sería usado hasta el año
1980, en que uno de ellos lo hizo de forma retrospectiva. Desde 1945, las tecnologías de la
computación habían atraído a muchos de los cerebros más brillantes y creativos del mundo.
Desde el primer computador ENIAC de Eckert y Mauchly, existió una cultura técnica de
cierta continuidad, consciente de sí misma, compuesta por programadores entusiastas;
personas que creaban y manipulaban software por pura diversión.
Los Auténticos Programadores provenían habitualmente de disciplinas como la ingeniería o
la física y con frecuencia se trataba de radioaficionados. Llevaban calcetines blancos,
camisas de poliéster con corbata y gafas gruesas, y programaban en código máquina, en
ensamblador, en FORTRAN y en media docena más de arcaicos lenguajes ya olvidados.
Desde el fin de la Segunda Guerra Mundial hasta comienzos de los 70, en los felices días
del procesamiento por lotes y las grandes supercomputadoras "de hierro", los Auténticos
Programadores constituyeron la cultura técnica dominante en el ámbito de la computación.
Algunos vestigios venerados del folklore hacker datan de esta época, entre ellos varias
listas de las Leyes de Murphy y el póster germano-burlesco "Blinkenlights" que aún adorna
muchas salas de computadoras.
Algunas de las personas que crecieron en la cultura de los Auténticos Programadores
permanecieron en activo hasta bien entrados los 90. Seymour Cray, diseñador de la gama
de supercomputadoras Cray, fue uno de los mejores. Se dice de él que, en cierta ocasión,
introdujo de principio a fin un sistema operativo de su invención en una de sus
computadoras, usando los conmutadores de su panel de control. En octal. Sin un solo error.
Y funcionó. Un "macho supremo" entre los Auténticos Programadores.
Sin embargo, la cultura de los Auténticos Programadores estaba demasiado ligada al
procesamiento por lotes, concretamente al de tipo científico y fue eclipsada por el auge de
la computación interactiva, las universidades y las redes. Estas dieron lugar a otra tradición
de la ingeniería que, con el tiempo, evolucionaría en la cultura hacker del código abierto
que hoy conocemos.

3. Los primeros hackers


Los comienzos de la cultura hacker, tal como la conocemos actualmente, se pueden fechar
con seguridad en 1961, año en que el MIT adquirió la primera PDP-1. El comité de Señales
y Energía del Tech Model Railroad Club adoptó la computadora como su juguete
tecnológico preferido e inventó herramientas de programación, un argot y toda una cultura
en torno a ella que aun hoy puede reconocerse entre nosotros. Estos primeros años han sido
examinados en la primera parte del libro de Steven Levy, Hackers.
La cultura en torno a las computadoras del MIT parece haber sido la primera en adoptar el
termino "hacker". Los hackers del Tech Model Railroad Club se convirtieron en el núcleo
del Laboratorio de Inteligencia Artificial del MIT, el centro más destacado de investigación
sobre Inteligencia Artificial de todo el mundo a principios de los 80. Su influencia se
extendió por todas partes a partir de 1969, año de creación de ARPANET.
ARPANET fue la primera red intercontinental de alta velocidad. Fue construida por el
Departamento de Defensa estadounidense como un experimento de comunicaciones
digitales, pero creció hasta interconectar a cientos de universidades, contratistas de defensa
y centros de investigación. Permitió a investigadores de todas partes intercambiar
información con una rapidez y flexibilidad sin precedentes, dando un gran impulso a la
colaboración y aumentando enormemente el ritmo y la intensidad de los avances
tecnológicos.
Pero ARPANET hizo algo más. Sus autopistas electrónicas reunieron a hackers de toda
Norteamérica en una masa crítica: en lugar de permanecer en pequeños grupos aislados
desarrollando efímeras culturas locales, se descubrieron (o reinventaron) a sí mismos como
una tribu interconectada.
Las primeras creaciones deliberadas de la cultura hacker -las primeras listas de argot, las
primeras sátiras, las primeras discusiones conscientes sobre la ética del hacker- se
propagaron por ARPANET en sus primeros años. Concretamente, la primera versión del
Jargon File o "Archivo de la Jerga" <http://www.catb.org/~esr/jargon/html/> se desarrolló
mediante colaboración descentralizada entre 1973 y 1975. Este diccionario de argot se
convirtió en un documento definitivo de esta cultura. Posteriormente sería publicada como
The Hacker's Dictionary, en el año 1983; aquella primera versión está ya agotada, pero
existe una edición revisada y ampliada: The New Hacker's Dictionary.
La cultura hacker floreció en las universidades conectadas a la red, especialmente (aunque
no exclusivamente) en sus departamentos de informática. El Laboratorio de IA del MIT
fue, prácticamente, el primero desde finales de los años sesenta. Pero el Laboratorio de
Inteligencia Artificial de Stanford (SAIL) y la Universidad de Carnegie Mellon le seguían
muy de cerca. Todos fueron prósperos centros de informática e investigación sobre IA.
Todos ellos atrajeron a gente brillante que hizo numerosas aportaciones a la cultura hacker,
tanto en el ámbito técnico como en el folklórico.
Para comprender lo que vendría después, necesitamos de nuevo echar un vistazo a lo que
ocurría con los propios computadores, pues tanto el auge como la posterior caída del
Laboratorio del MIT fueron determinados por cambios en la tecnología informática.
Desde los días del PDP-1, el destino de la cultura hacker había estado unido a las
computadoras PDP de DEC, Digital Equipment Corporation. Esta compañía fue pionera en
la computación interactiva para empresas y en sistemas operativos de tiempo compartido.
Debido a la flexibilidad y potencia de sus máquinas y a unos precios relativamente
económicos para la época, muchas universidades las compraron.
Los asequibles sistemas de tiempo compartido fueron el medio en el cual creció la cultura
hacker y, durante la mayor parte de su existencia, ARPANET fue principalmente una red de
computadoras DEC. La más importante de estas fue la PDP-10, aparecida en 1967. La 10
fue la favorita de los hackers durante casi 15 años; TOPS-10 (el sistema operativo de DEC
para ella) y MACRO-10 (su lenguaje ensamblador) todavía se recuerdan con nostalgia en
una gran cantidad de argot y folklore.
El MIT, aunque hizo uso de la PDP-10 como todo el mundo, tomó un camino ligeramente
diferente; rechazó por completo el software de DEC para ella y construyó su propio sistema
operativo, el legendario ITS, cuyo significado, Sistema de Tiempo-compartido
Incompatible, da una pista bastante buena sobre la actitud de los hackers del MIT. Querían
hacerlo a su manera. Afortunadamente para todos, la gente del MIT poseía tanta
inteligencia como arrogancia. El extraño ITS, con sus excentricidades y errores ocasionales,
albergó toda una brillante sucesión de innovaciones técnicas y todavía conserva el record
del sistema de tiempo compartido más largamente usado.
ITS fue escrito en ensamblador, pero muchos proyectos relacionados se escribieron en el
lenguaje de Inteligencia Artificial LISP. Este fue mucho más potente y flexible que
cualquier otro lenguaje de la época; de hecho, tiene un mejor diseño que la mayoría de
lenguajes de hoy en día, veinticinco años después. LISP dio a los hackers de ITS libertad
para pensar de forma creativa y poco convencional. Fue un factor importante en sus éxitos
y aún sigue siendo uno de los lenguajes preferidos por los hackers.
Muchas de las creaciones técnicas dentro de la cultura del ITS aún perduran; el programa
de edición Emacs es quizá el más conocido. Y gran parte del folklore del ITS está aún vivo
entre los hackers, como puede leerse en Jargon File
<http://www.catb.org/~esr/jargon/html/>.
Pero el SAIL y la CMU no habían estado dormidos. Muchos de los hackers más destacados
que surgieron alrededor de las PDP-10 del SAIL serían más tarde figuras clave en el
desarrollo de los computadores personales y las interfaces de ventanas con ratón e iconos
que hoy día conocemos. Mientras tanto, los hackers de la CMU estuvieron trabajando en lo
que les llevaría a liderar las primeras aplicaciones prácticas a gran escala de los Sistemas
Expertos y la Robótica Industrial.
Otro nodo importante en la cultura fue el PARC de XEROX, el célebre Centro de
Investigación de Palo Alto (California). Durante más de una década, desde los primeros 70
a mitad de los 80, el PARC produjo una sorprendente cantidad de hardware revolucionario
e innovaciones software. El ratón moderno, las ventanas y la interfaz gráfica basada en
iconos se inventaron allí. También la impresora láser y las redes de área local. Y la serie D
de computadoras del PARC se anticipó a los potentes PC de los 80 en más de una década.
Por desgracia, aquellos profetas carecieron de reconocimiento en su propia empresa. Tanto
es así que se convirtió en broma habitual el describir el PARC como el lugar donde se
desarrollaban ideas brillantes para provecho de los demás. Su influencia en la cultura
hacker fue profunda.
Las culturas alrededor de ARPANET y las PDP-10 crecieron en fuerza y variedad durante
los años 70. Las herramientas de listas de correo electrónicas, que se habían usado para
fomentar la cooperación intercontinental entre grupos de intereses comunes, fueron
utilizándose cada vez más con propósitos sociales y recreativos. DARPA hizo la vista gorda
de forma consciente a toda esta actividad "no autorizada": comprendía que este coste
operativo extra era un precio asequible a cambio de atraer a toda una generación de jóvenes
de talento al área de la informática.
Quizá la más conocida entre las listas electrónicas "sociales" de ARPANET fue la lista SF-
LOVERS, para fans de la ciencia ficción; aún hoy tiene bastante movimiento en su versión
de Internet, de la que ARPANET fue embrión. Pero hubo otras muchas, que crearon un
estilo de comunicación que más tarde ofrecerían servicios comerciales de tiempo
compartido como Compuserve, GEnie y Prodigy (y que finalmente lideraría AOL).
Vuestro narrador tomó contacto por primera vez con la cultura hacker allá por 1977, a
través de la primera ARPANET y el mundillo de la ciencia ficción. Desde entonces, pude
ser testigo e incluso participar en muchos de los cambios que a continuación se relatan.

4. El surgimiento de Unix
Lejos de la atractiva vida de ARPANET, en la jungla de New Jersey, algo venía ocurriendo
desde 1969 que llegaría a eclipsar la tradición de la PDP-10. El año que vio nacer a
ARPANET también fue el año en que un hacker de Laboratorios Bell llamado Ken
Thompson inventó Unix.
Thompson había estado involucrado en el desarrollo de un sistema operativo de tiempo
compartido llamado "Multics", que compartía ascendencia con ITS. Multics fue un buen
campo de pruebas para algunas ideas importantes sobre cómo ocultar al usuario o incluso a
los programadores las complejidades de un sistema operativo. La idea era hacer a Multics
más fácil de usar (y de programar) para poder así centrarse en el verdadero trabajo a
realizar.
Laboratorios Bell se salió del proyecto cuando Multics mostró síntomas de haber ido
inflándose hasta convertirse en un mastodonte inútil (el sistema sería posteriormente
comercializado sin apenas éxito por Honeywell). Ken Thompson echó de menos el entorno
Multics y comenzó a realizar pruebas, implementando una mezcla de sus características y
algunas ideas propias en una vieja DEC PDP-7 rescatada de la basura.
Otro hacker llamado Dennis Ritchie inventó un nuevo lenguaje llamado C para usarlo en el
embrionario Unix de Thompson. Al igual que Unix, C fue diseñado para ser ameno,
flexible y no imponer límites. Pronto, el interés por estas herramientas se fue extendiendo
por Laboratorios Bell y se les dio un buen impulso en 1971, cuando Thompson y Ritchie
recibieron una oferta para crear lo que ahora llamaríamos un sistema de automatización de
oficinas, para uso interno de los laboratorios. Pero Thompson y Ritchie tenían la mirada
puesta en un trofeo más importante.
Tradicionalmente, los sistemas operativos se escribían por completo en ensamblador para
obtener la máxima eficiencia de las computadoras donde se instalaban. Thompson y Ritchie
fueron de los primeros en darse cuenta de que las tecnologías del hardware y de los
compiladores habían mejorado lo suficiente como para que un sistema operativo pudiera
escribirse usando únicamente C, y llegado 1978 el sistema completo había sido portado con
éxito a varios tipos de computadoras.
Esto nunca antes se había hecho, y las implicaciones fueron enormes. Si Unix podía tener la
misma apariencia, el mismo potencial, en computadoras de distinto tipo, podría servir de
entorno software común para todas ellas. Los usuarios no tendrían que pagar por un nuevo
diseño de software cada vez que una máquina se quedara obsoleta. Los hackers podrían
trasladar sus herramientas entre distintas computadoras, en vez de tener que reinventar los
equivalentes del fuego y la rueda cada vez.
Además de la portabilidad, Unix y C tenían otras importantes cualidades. Ambos se crearon
con una filosofía de tipo "hazlo sencillo, idiota": un programador podía retener en la cabeza
la estructura lógica de C (al contrario que con la mayoría de lenguajes) en lugar de recurrir
continuamente a los manuales. Unix se estructuró como un conjunto de herramientas
flexible, compuesto por diversos programas sencillos, diseñados para poderse combinar
entre ellos de distintas y provechosas maneras.
La combinación demostró poder adaptarse a un amplio rango de tareas de computación,
incluyendo muchas del todo imprevistas por sus diseñadores. Se extendió rápidamente por
AT&T, a pesar de la falta de un programa oficial de soporte. Hacia 1980, se había
extendido por un gran numero de centros de computación de laboratorios y universidades, y
miles de hackers lo consideraban su hogar.
Las máquinas habituales en los primeros tiempos de la cultura Unix eran las PDP-11 y su
descendiente, la VAX. Pero debido a la portabilidad de Unix, se ejecutó, prácticamente sin
sufrir cambios, en máquinas tan diversas como las que podían encontrarse en toda
ARPANET. Y nadie usaba ensamblador: los programas en C eran fácilmente portables
entre todas estas máquinas.
Unix tenía incluso su propio sistema de redes, de tipo UUCP: con velocidades bajas y poca
fiabilidad en la transmisión, pero barato. Cualquier par de máquinas Unix podía
intercambiar correo electrónico "punto a punto" usando líneas telefónicas convencionales;
esta funcionalidad estaba integrada en el propio sistema, no era ningún extra opcional. En
1980 los primeros servidores de USENET comenzaron a intercambiar noticias, formando
un gigantesco tablón de anuncios que pronto crecería hasta superar en tamaño a
ARPANET. Los servidores Unix pasaron a constituir su propia "nación de redes" en torno a
USENET.
ARPANET también contaba con algunos servidores Unix. Pronto las culturas de las PDP-
10 y de Unix/USENET entraron en contacto y sus límites se empezaron a desdibujar,
aunque en un principio no fue fácil. Los hackers de las PDP-10 miraban a la gente de Unix
como un hatajo de advenedizos, que usaban herramientas ridículamente primitivas en
comparación con la complejidad de ITS y LISP, adorablemente barroca. "Cuchillos de
piedra y pieles de oso", era lo que solían murmurar.
Y aún existía una tercera corriente. El primer computador personal había salido al mercado
en 1975; Apple se fundó en 1977 y los avances se sucedieron con increíble rapidez durante
los años que siguieron. El potencial de los microordenadores estaba claro y atrajo a otra
nueva generación de jóvenes hackers. Su lenguaje era el BASIC, tan primitivo que los
adeptos a las PDP-10 y los entusiastas del Unix lo consideraban absolutamente
despreciable.

5. El fin de los viejos tiempos


Así estaban las cosas en 1980: tres culturas cuyos bordes se solapaban pero estaban
agrupadas en torno a tecnologías muy distintas. La cultura de las PDP-10 y ARPANET,
ligada a LISP, a MACRO, a TOPS-10, a ITS y al SAIL; la gente de Unix y C con sus PDP-
11, sus VAXen y sus conexiones telefónicas rudimentarias, y una anárquica horda de
entusiastas de los primeros microordenadores, decididos a acercar el potencial de las
computadoras al pueblo.
De entre todos ellos, la cultura del ITS aún podía reclamar un puesto de honor, pero sobre
el Laboratorio se cernían nubarrones de tormenta. La tecnología de las PDP-10 sobre la que
se asentaba ITS estaba quedándose obsoleta, y el propio Laboratorio se dividió en facciones
tras los primeros intentos de comercializar la Inteligencia Artificial. Algunos de los mejores
del Laboratorio (y del SAIL y la CMU) fueron seducidos por empleos muy bien pagados en
empresas de nueva creación.
El golpe de gracia vino en 1983, cuando DEC canceló Jupiter, su continuación para la PDP-
10, pasando a concentrarse en las líneas de las PDP-11 y las VAX. ITS ya no tenía futuro.
Como no era portable, trasladar ITS a un nuevo hardware suponía un esfuerzo mayor del
que cualquiera podía permitirse. La variante de Berkeley del Unix ejecutándose en
máquinas VAX, se convirtió en el sistema "para hackers" por excelencia, y todo aquel con
visión de futuro pudo ver que el potencial de los microordenadores estaba creciendo tan
rápidamente que probablemente estos llegarían a barrer con todo a su paso.
Fue más o menos en aquel momento cuando Levy escribió Hackers. Uno de sus principales
informadores fue Richard M. Stallman (inventor de Emacs), una figura clave en el
Laboratorio y su más firme resistencia frente a la comercialización de la tecnología de este.
Stallman (a quien se le conoce habitualmente por sus iniciales y nombre de "login", RMS)
siguió adelante, formando la Free Software Foundation ("Fundación del Software Libre") y
se dedicó a la producción de software libre de calidad. Levy lo elogió llamándole "el último
hacker auténtico", una denominación que felizmente resultó ser incorrecta.
El grandioso plan de Stallman resumió nítidamente la transición que iba a experimentar la
cultura hacker a principios de los 80: en 1982 comenzó la construcción de un clon completo
de Unix, escrito en C y disponible gratuitamente. Su proyecto se conoció como sistema
operativo GNU ("GNU No es Unix") en una especie de acrónimo recursivo. GNU pronto se
convirtió en un foco importante de la actividad de los hackers. Así, el espíritu y la tradición
de ITS fueron preservados como parte importante de la nueva cultura hacker, centrada en
VAX y Unix.
De hecho, desde su fundación y durante más de una década, la Free Software Foundation
de RMS definiría en gran parte la ideología común de la cultura hacker, y el propio
Stallman sería el único candidato creíble al liderazgo de la tribu.
Sucedió también entre 1982 y 1983 que las tecnologías del microchip y la red de área local
comenzaron a causar un impacto importante en la cultura hacker. Ethernet y el microchip
68000 de Motorola constituían una combinación de gran potencial, y aparecieron nuevas
empresas que acabarían por desarrollar la primera generación de lo que hoy llamamos
estaciones de trabajo.
En 1982, un grupo de hackers del Unix provenientes de Standford y Berkeley fundaron Sun
Microsystems, en la creencia de que Unix, corriendo en el hardware relativamente
económico basado en el 68000, resultaría una combinación ganadora en una amplia
variedad de aplicaciones. Estaban en lo cierto, y su visión fijó las normas para toda una
nueva industria. Aunque sus precios quedaban fuera del alcance de muchos particulares, las
estaciones de trabajo resultaban baratas para las empresas y universidades; las redes de
estas (una para cada usuario) reemplazaron rápidamente las viejas VAX y otros sistemas de
tiempo compartido.

6. La era del Unix propietario


En 1984, cuando Ma Bell cerró y Unix pasó a ser un producto respaldado por AT&T, la
escisión más importante en la cultura hacker se daba entre una "nación de redes" más o
menos consistente, basada en Internet y USENET (y compuesta en su mayoría por
servidores o estaciones de trabajo corriendo Unix) y una inmensa área remota,
desconectada, formada por entusiastas de los microordenadores.
Fue también más o menos por aquel entonces cuando la prensa se ocupó por primera vez de
episodios importantes relacionados con el cracking, y fue aquí cuando los periodistas
comenzaron a hacer un mal uso del término "hacker" para referirse a vándalos informáticos,
uso que tristemente aún perdura.
Las estaciones de trabajo creadas por Sun y otros, abrieron nuevos caminos para los
hackers. Se habían fabricado para realizar gráficos de alto rendimiento y ofrecer datos
compartidos en las redes. Durante los años 80, la comunidad hacker estuvo bastante
ocupada con el reto de crear el software y las herramientas necesarias para obtener el
máximo de estas prestaciones. El Unix de Berkeley incorporó soporte integrado para los
protocolos de ARPANET, que ofrecieron una solución a los problemas de funcionamiento
en red asociados a las lentas conexiones UUCP y estimuló el crecimiento de Internet.
Hubo varios intentos de domesticación de los gráficos para estaciones de trabajo. El que
prevaleció fue el sistema X Window, desarrollado en el MIT con la colaboración de cientos
de individuos pertenecientes a docenas de empresas. Un factor determinante para su éxito
fue el hecho de que los desarrolladores estaban dispuestos a ceder las fuentes de forma
gratuita de acuerdo con la ética hacker, pudiendo distribuirlos en Internet. La victoria de X
frente a sistemas gráficos propietarios (incluido el propuesto por la propia Sun) fue un
importante presagio de los cambios que, unos años más tarde, afectarían profundamente al
propio Unix.
Aún a veces se respiraba cierto tedio faccionario en la rivalidad entre ITS y Unix (sobre
todo en la parte de los partidarios de ITS). Pero la ultima computadora con ITS se apagó
para siempre en 1990; los fanáticos se quedaron sin su razón de ser y la mayoría de ellos se
fue adaptando, con mayor o menor grado de refunfuño, a la cultura Unix.
Entre la comunidad hacker conectada en red, la gran rivalidad de los 80 se dio entre los
entusiastas del Unix de Berkeley y las correspondientes versiones de AT&T. Aún se
pueden encontrar copias de un póster de la época en que un piloto caricaturizado de X-
Wing sacado de la Guerra de las Galaxias abandona raudo a una Estrella de la Muerte
envuelta en llamas, en la que se puede distinguir el logotipo de AT&T. A los hackers de
Berkeley les gustaba imaginarse como rebeldes enfrentados a desalmados imperios
corporativos. El Unix de AT&T nunca alcanzó al de BSD/Sun en cuota de mercado pero
ganó las guerras de estándares. Para 1990 las versiones de AT&T y BSD se volvieron
difíciles de distinguir, ya que cada una había ido adoptando gran parte de las innovaciones
de la otra.
Con la llegada de los años 90, la tecnología de las estaciones de trabajo de la anterior
década comenzó a verse seriamente amenazada por los nuevos computadores personales,
baratos y de gran rendimiento, que se basaban en el chip 386 de Intel y sus derivados. Por
primera vez, un hacker podía permitirse un computador doméstico comparable en potencia
y capacidad de almacenamiento a los servidores de diez años antes, máquinas con Unix
capaces de servir de plataforma de desarrollo y de comunicarse con Internet.
El mundo MS-DOS permaneció felizmente ajeno a todo esto. Aunque aquellos primeros
entusiastas de los microordenadores pronto crecieron hasta formar una población de
hackers del DOS y de los Mac, muchas veces mayor a la de la cultura en torno a la red,
nunca fueron conscientes de su propia condición. El ritmo de los cambios fue tan rápido
que continuamente surgían decenas de culturas técnicas que pronto desaparecían, sin llegar
nunca a tener la estabilidad necesaria para desarrollar una tradición común con su propia
jerga, su folklore y su historia mítica. La ausencia de una red realmente popular que se
pudiera comparar a UUCP o a Internet les impidió convertirse en otra "nación de redes".
El acceso generalizado a servicios on-line comerciales como Compuserve o GEnie estaba
empezando a afianzarse, pero el hecho de que los sistemas operativos (a excepción de
Unix) no llevaran integradas herramientas de desarrollo hizo que los códigos fuente
compartidos mediante este tipo de conexiones fuera escaso. Así que no pudo desarrollarse
una tradición de colaboración entre hackers.
A la corriente principal de la cultura hacker, (des)organizada en torno a Internet, y que
hasta el momento se identificaba mayoritariamente con la cultura técnica de Unix, le traía
sin cuidado este tipo de servicios comerciales. Lo único que deseaba eran mejores
herramientas y más Internet, y los económicos PCs de 32 bits prometían poner todo esto al
alcance de cualquiera.
Pero ¿dónde estaba el software? Los Unix comerciales seguían siendo caros, del orden de
varios "kilodólares". A principios de los noventa, varias empresas hicieron un intento de
vender adaptaciones del Unix de AT&T o de BSD para PC. El éxito fue esquivo; los
precios no habían bajado demasiado y, lo peor de todo, al adquirir el sistema operativo no
disponías del código fuente para poder modificarlo y distribuirlo. El negocio del software
no proporcionaba a los hackers lo que ellos querían.
Tampoco lo estaba haciendo la Free Software Foundation. El desarrollo de HURD, el
kernel gratuito de Unix tan largamente prometido por RMS a la comunidad hacker, quedó
estancado durante años y no logró producir nada parecido a un kernel utilizable hasta 1996
(aunque para 1990 la FSF ya podía ofrecer el resto de componentes complejos de un
sistema operativo similar a Unix).
Peor aún, en 1990 estaba cada vez más claro que un esfuerzo de diez años para
comercializar Unix representaba prácticamente un fracaso. La promesa de Unix de
portabilidad entre plataformas se perdió en disputas infructuosas entre media docena de
versiones propietarias de Unix. Los participantes demostraron ser tan lentos, tan ciegos y
tan ineptos en cuestiones de marketing que Microsoft pudo arrebatarles una inmensa
porción de su mercado con la tecnología escandalosamente inferior de su sistema operativo
Windows.
A principios de 1993, un observador hostil podría haber tenido motivos suficientes para
opinar que la historia del Unix estaba prácticamente terminada, y con ella la suerte de la
tribu hacker. Y los observadores hostiles no escaseaban precisamente en la prensa
informática; muchos de ellos habían estado prediciendo de forma ritual la muerte inminente
del Unix a intervalos de seis meses desde finales de los 70.
En aquellos días era de sabiduría popular el pensar que la era del tecno-heroísmo individual
había llegado a su fin, que la industria del software y la naciente Internet serían
progresivamente dominadas por colosos como Microsoft. La primera generación de hackers
de Unix parecía estar ya vieja y cansada (el grupo de Investigación de Ciencias de la
Computación de Berkeley fue perdiendo empuje y se quedó sin financiación hacia 1994).
Fue una época deprimente.
Afortunadamente, habían ocurrido cosas lejos de la mirada de la prensa del sector, e incluso
de la de muchos hackers, que poco después, en 1993 y 1994, darían lugar a desarrollos
tremendamente positivos. Con el tiempo, estos conducirían a la cultura hacker en una
dirección totalmente nueva, llena de éxitos ni siquiera soñados.

7. Los primeros Unix libres


En el hueco dejado por el incompleto HURD de la Free Software Foundation se había
deslizado un estudiante de la Universidad de Helsinki llamado Linus Torvalds. En 1991
había empezado a desarrollar un kernel libre para máquinas 386 usando el conjunto de
herramientas de la FSF. Su rápido éxito inicial atrajo a muchos hackers de Internet con la
intención de ayudarle a desarrollar Linux, un sistema Unix completo de código fuente
totalmente abierto y redistribuible.
Linux no estaba libre de competidores. En 1991, al mismo tiempo que tenían lugar las
primeras pruebas de Linus Torvalds, William y Lynne Jolitz estaban portando, de manera
experimental, los fuentes de BSD Unix a la arquitectura del 386. Cualquier observador que
hubiera comparado la tecnología BSD con los primeros y toscos esfuerzos de Linus habría
confiado en que las adaptaciones del BSD se convertirían en los Unix libres para PC más
importantes.
Sin embargo, la ventaja más importante de Linux no era de carácter técnico, sino
sociológico. Hasta el momento en que comenzó a desarrollarse, todo el mundo había creído
que cualquier software de la complejidad de un sistema operativo tenía que desarrollarse
con una cuidadosa coordinación por un grupo de personas bien cohesionado y
relativamente pequeño. Este modelo era y aún sigue siendo típico del software comercial
así como de las grandes catedrales del software libre construidas por la FSF durante los
años ochenta. También fue el modelo que se siguió en el caso de los proyectos FreeBSD,
NetBSD y OpenBSD que surgieron a partir de la adaptación original 386BSD, realizada por
los hermanos Jolitz.
Linux evolucionó de una forma completamente diferente. Desde casi el primer momento,
fue programado de forma más bien eventual por un gran número de voluntarios
coordinados a través de Internet. La calidad se mantenía, no con estándares rígidos o
autocracia, sino con la estrategia, ingenuamente sencilla, de publicar cada semana y obtener
la respuesta de cientos de usuarios en cuestión de días, creando un tipo de selección
darwiniana rápida sobre las mutaciones presentadas por los desarrolladores. Para sorpresa
de casi todo el mundo, esto funcionó bastante bien.
Para finales de 1993, Linux podía competir en estabilidad y fiabilidad con muchos de los
Unix comerciales, y contaba con una cantidad inmensamente mayor de software. Incluso
comenzaba a atraer adaptaciones de aplicaciones comerciales. Un efecto indirecto de este
desarrollo fue el exterminio de casi todos los pequeños proveedores de Unix propietario:
sin desarrolladores ni hackers a los que vender su producto, tuvieron que cerrar. Uno de los
pocos supervivientes, BSDI (Berkeley Systems Design, Incorporated) prosperó ofreciendo
los fuentes completos junto a su Unix basado en BSD, y cultivando unos estrechos lazos
con la comunidad hacker.
Estos desarrollos no destacaron demasiado en su momento, incluso dentro de la comunidad
hacker, y mucho menos fuera de ella. La cultura hacker, desafiando las repetidas
predicciones de su defunción, estaba empezando a reconstruir el mundo del software
comercial a su imagen y semejanza. Sin embargo tendrían que pasar cinco años más, para
que esta tendencia llegara a ser evidente.

8. La gran explosión de la Web


Al crecimiento precoz de Linux se sumó otro fenómeno: el descubrimiento de Internet por
parte del gran público. Los años noventa también contemplaron el nacimiento de una
floreciente industria de proveedores de Internet que vendían conectividad por unos cuantos
dólares al mes. Tras la invención de la World Wide Web, el ya de por sí rápido crecimiento
de Internet aceleró hasta alcanzar un ritmo frenético.
En 1994, año en que el grupo de desarrollo del Unix de Berkeley suspendió formalmente
sus actividades, eran varias las versiones libres de Unix (Linux y los descendientes del
386BSD) que actuaban como centros importantes de la actividad de los hackers. Linux se
estaba distribuyendo comercialmente en CD-ROM y se vendía como rosquillas. A finales
de 1995, las principales empresas de informática hacían anuncios publicitarios elegantes en
los que presumían de la integración de sus productos, tanto software como hardware, con
Internet.
A finales de los 90, las principales actividades dentro de la cultura hacker eran el desarrollo
de Linux y la universalización de Internet. La World Wide Web había convertido a Internet
en un medio de comunicación de masas y muchos de los hackers de los ochenta y
principios de los 90 montaron Proveedores de Servicios Internet con la intención de
proporcionar acceso al gran público.
Esta popularización de Internet confirió a la comunidad hacker cierta respetabilidad y
autoridad política. En 1994 y 1995, el activismo hacker acabó con la propuesta Clipper, que
pretendía poner bajo control del gobierno métodos criptográficos robustos. En 1996 los
hackers movilizaron una amplia coalición contra la mal llamada "Acción por la Decencia
en las Comunicaciones" (CDA), impidiendo la llegada de la censura a Internet.
Con esta victoria contra la CDA, pasamos de la historia a los acontecimientos actuales.
También entramos en un periodo en el que vuestro historiador (para su propia sorpresa)
dejó de ser un mero espectador para convertirse en un actor más. La narración continuará
en Revenge of the Hackers, "La venganza de los hackers".

9. Bibliografía
[Levy] Levy, Steven; Hackers, Anchor/Doubleday 1984, ISBN
0-385-19195-2.

[Raymond] Raymond, Eric S.; The New Hacker's Dictionary, MIT Press,
3a edición 1996. ISBN ISBN 0-262-68092-0.

David E. Lundstrom nos proporcionó una historia anecdótica sobre la


época de
los "Auténticos Programadores" en "A Few Good Men From UNIVAC", 1987,
ISBN-0-262-62075-8.
Hacia una autopoiética de la comunicación

Félix Guattari

Futur Antérieur: Entonces Félix, ¿no te gusta el término de comunicación?

Félix: La comunicación se instaura entre sujetos discernibles por el sesgo de un canal de


transmisión. Se tiende demasiado a menudo hacia una teoría de la información muy
reduccionista. Me parece que la moda comunicacional actual tiene el defecto de perder las
dimensiones existenciales de las relaciones interhumanas, sociales y maquínicas. Si la
comunicación pudiera ser reequilibrada entre, de una parte, sus elementos discursivos
(frases, imágenes, proposiciones) y, de otra parte, esos elementos que yo denomino de
aglomeración existencial, es decir sus dimensiones de puesta en existencia, entonces sí,
pienso que se podría trabajar con ese concepto de comunicación. Pero generalmente, este
ha tendido a un sentido reduccionista y deviene fuente de confusión.

F.A.: La base de este reduccionismo, es justamente esta exclusión de los aspectos prácticos
no discursivos de la información en general. Una vez que se han insertado estos elementos
en el discurso, nos encontramos delante de un objeto complejo muy difícil. ¿Qué es lo que
de esta autopoiesis podría representar un concepto de comunicación eficaz?

Félix: Yo la vería en dos dimensiones. En primer lugar volviendo a tomar en cuenta las
dimensiones polifónicas de la subjetividad. La subjetividad resulta siempre de la
conjunción de componentes heterogéneos. Después es necesario considerar la relación entre
el infinito y la complejidad de los cuales ella es portadora con los sistemas maquínicos y los
flujos. Por poner un ejemplo: pienso en la moda actual, terrible, que existe hoy, sobre eso
que los americanos denominan las “personalidades múltiples”. Tratan de crear una
categoría nosográfica específica relativa a las disociaciones de la personalidad; es una
tentativa conductista de repensar la histeria y la psicosis. Se dedican a detectar por hipnosis
una superposición de personalidades tras sus interlocutores. No solamente eso que puede
ser visible en un juego histérico que consiste en pasar de una personalidad a otra, sino
también a postular la existencia de personalidades múltiples en gentes que no muestran
ninguna manifestación de ello. Eso va lejos, puesto que esta ligado a toda una teoría del
trauma real y a las intervenciones de grupos "satánicos" que son considerados como
¿comisores? de actos y rituales de violencia, eso que conduce a procesar a las familias, a los
padres, lo mismo veinte años después de las presuntas transmisiones. Esto desencadena una
especie de caza de brujas, cuyas víctimas no serían más los histéricos, sino los padres. Es
una reificación de esta polifonía de la subjetividad de la que hablaba. Es una manera de no
tener en cuenta la especificidad de dimensiones potencialmente delirantes y alucinatorias
que se encuentran no solamente en los psicóticos sino también en la "caósmosis" de los
"normópatas" (según la expresión de Jean Oury). En otro orden de ideas se encuentra
igualmente en el mundo de la máquina una reificación de los componentes que son vistos
únicamente a través de sus aspectos tecnológicos visibles, sea para estimar que el
maquinismo en sí es portador de progreso, sea para condenarlo. Luego se trata
precisamente de relacionarlo con los aspectos desterritorializados de los que es la
manifestación y que implican siempre a las estructuras de enunciación parcial que
dependen de esa vertiente no discursiva de la complejidad. La complejidad es algo que va
en el sentido de la puesta al día de esas dimensiones polifónicas que se reencuentran en
toda expresión de subjetividad humana, y de todas las dimensiones maquínicas,
heterogéneas, inherentes a la mecanosfera, que se superpone a la biosfera.

F.A.: ¿Podrías precisar esos dos conceptos: el concepto de maquinismo y el de


agenciamiento?

Félix: La máquina comienza en el momento en el que hay un fenómeno de consistencia, de


autopoiesis parcial. Sea en una relación de sincronía, articulando los sistemas de máquinas,
los unos en relación a los otros, sea en una relación de diacronía, es decir en el hecho de
que una máquina esta siempre ligada a sistemas maquínicos anteriores y está siempre en
posición de producir virtualmente otros sistemas maquínicos. Una máquina no es como un
montón de arena o de guijarros, un objeto inerte como se tiene en el modelo con el trozo de
cera cartesiano. Es algo que manifiesta una cierta vida (sin caer en el vitalismo, puesto que
se trata siempre de una vitalidad o de una subjetividad parcial, que no alcanza su sentido
mas que en articulaciones rizomáticas con otros sistemas maquínicos). A partir de ahí,
estamos abocados a desembarazarnos de una oposición masiva (molar) entre el ser y el ente
puesto que se parte de intefaces maquínicos que colocan los entes discursivos, al mismo
tiempo que producen una referencia ontológica pluralista. La referencia ontológica de la
música no es la misma que la referencia ontológica de la vida social, o de los sistemas
vivos. Y por tanto tienen algo que hacer los unos con los otros... En el lugar que el ser sea
puesto como antecedente por relación a sus diferentes manifestaciones visibles, deviene
algo que es como un horizonte portador de pluralidad, de heterogeneidad y de singularidad.
Existe pues un movimiento hacia el ser por venir, más que un movimiento de refundación
preterista en una perspectiva heideggeriana.

F.A.: Si comprendo bien, todo eso significa que las relaciones con los aspectos maquínicos
de la comunicación so de un lado algo que puede reificar la desaparición del sujeto, y de
otra parte algo que puede dar una enorme expansión a todo eso.

Félix: Exactamente. Hace falta guardarse de caer en un pensamiento dualista, en una


categorización moralizante en lo tocante a esos problemas de comunicación en su relación
con las nuevas tecnologías. Si tomamos el ejemplo del consumo televisivo, vemos muy
bien los aspectos de reificación, de identificación, hasta la hipnosis de la cual son objeto los
consumidores de televisión. Por ejemplo, en el momento de la guerra del Golfo, ha tenido
lugar un golpe de fuerza sobre la subjetividad colectiva con la CNN y los otros medios
mundiales que han desarrollado una política micro-fascista a la sombra de la comunicación.
Pero al mismo tiempo, asistimos a un principio de rechazo, una especie de toma de
consciencia de este tipo de manipulación intolerable. Luego es necesario ver las diferentes
vertientes de reificación de la subjetividad a través de las nuevas tecnologías, pero también
el hecho de que hay líneas de fuga, renovaciones posibles. Lo que me lleva más
generalmente a esta temática de una entrada posible en una era post-massmediática. En el
cuadro de los grandes medias actuales, se constata un principio de rechazo ( y actualmente
si la prensa escrita y la tele continúan con este empuje, van hacia una perspectiva
suicidaria), y fuera de esos grandes medias hay una posibilidad de poner en marcha medias
alternativos, de operar una reaprpiación de estas tecnologías. Problema que puede parecer
general y utópico, pero que va a encontrarse muy concretamente planteado con las
evoluciones tecnológicas a medio plazo, que conducirán al encuentro entre la pantalla
audiovisual, la telemática y la informática, y que transformarán el tipo de relaciones
existentes entre los consumidores de medias y los productores de informaciones y de
imágenes. Es algo que podría introducir mucha más interactividad, con la condición no
obstante de que esta posibilidad sea ejecutada y utilizada por agenciamientos colectivos de
enunciación.

F.A.: Hay en esa reunión de líneas de poder aquellas que determinan la reificación. ¿Cómo
se determina esa línea de fuerza que bloquea esta expresión? ¿Lo mismo si esta expresión
de el ente deviene cada vez más articulada en un escenario de proceso de totalización?

Félix: Existe siempre siempre una reificación de los territorios existenciales por una
discursividad estratificada.

F.A: Sobre este terreno, las teorías sociales dominantes -la lingüística, la teoría de la
información, la forma en la que la sociología intenta comprender hoy la comunicación,
¿han tenido un papel estructural en este proceso de reificación?

Félix: Me parece que, de una forma general, todo aquello que ha sido puesto en la cuenta
del estructuralismo y de la comunicación, ha tenido mucha dificultad en hacer su lugar a la
dimensión de la inmanencia de la enunciación, en sus aspectos creacionistas. En la
lingüística, las dimensiones pragmáticas, las dimensiones enunciativas han sido dejadas al
margen y ha habido mucha dificultad en reintegrarlas en el proceso de la discursividad
semiótica. De forma que, según mi opinión, la cuestión no es la de dejarlas vegetar en un
barrio lejano de la producción de la subjetividad, sino la de meterlas en el mismo centro, en
la misma raíz de la producción ontológica, de los diferentes sistemas de discursividad. Por
ejemplo, en el dominio antropológico, lo que es interesante de una sociedad dicha arcaica,
es ver como se articulan sus universos míticos, rituales, sociales, económicos, como ella
llena de estrellas estos universos en lugar de reducir y liquidar eso que constituye el
carácter autopoiético de una sociedad a través de sistemas de correspondencias
estructurales, en el dominio de la parentela o del análisis de los mitos.
F.A.: Hemos hablado de la reificación del procesus de comunicación, de las teorías de la
comunicación; ¿podemos hablar del aplastamiento del elemento ontológico de la cadena de
producción de la información científica y de la innovación?

Félix: Estoy muy interesado por todos los trabajos de la escuela sociológica en torno a
Bruno Latour, por que encuentro muy importante que los objetos tecnológicos y científicos
sean ligados a todas sus dimensiones sociales, económicas, contextuales; yo mismo he
intentado recontar los componentes que cristalizan en torno a de un objeto tecnológico
como el proyecto Apolo, con las dimensiones de deseo de viajar a la luna, la política de
Kennedy, las implicaciones económicas, militares, industriales que entran en línea de
cuenta. No existe un puro objeto conceptual científico que pueda sedr separado de la
reunión de sus componentes. La cuestión es saber si, una vez que se ha complejizado el
problema en esta dirección, no concluimos en su homogeneidad, es decir en un
reduccionismo en lo tocante a la heterogeneidad de su componentes. No solamente se trata
de reconocer la heterogeneidad de los componentes, sino de reforzarla, de hacerlos entrar
en un proceso de heterogeneidad. Preceisamente, lo que hay de rico en los sistemas
maquínicos, es que no sólo están siempre en una encrucijada de dimensiones heterogéneas,
sino que abren una heterogeneidad potencial, en el dominio de la tecnología pero también
en aquellos de la subjetividad, de la sensibilidad... Y en particular, lo que me parece
peligroso, es perder la esopecificidad del agenciamiento científico, de sus enunciaciones
parciales, del plan de referencia científica, con la introducción de sistemas de límites, de
coordenadas, de renunciamiento sistemático al infinito, por atenerse a un cierto número de
elementos, clausurados sobre ellos mismos. Esta política profundamente limitativa de la
ciencia tiene una productividad considerable. Para poder rearticularla en los otros
componentes todavía es necesario considerarla en su singualridad, su especificidad. Es la
condición que permitirá posicionar la ciencia de manera no cientifista por relación a objetos
práxicos en el dominio de la vida política, del esquizoanálisis, de los mass-media.

F.A.: ¿Cómo luchar en contra de esta reificación de la comunicación?

Félix: Yo diría: asumiéndola. Y evitando una fuga por lo que a ella se refiere. Hoy, por
ejemplo, se observa un desvío sistemático delante de la subjetividad obrera, y las
perspectivas relativas a una sociedad comunista. Algunos vienen a considerar por ejemplo
que una nueva subjetividad ecológica podría sustituirse a las antiguas subjetividades
obreras. Del mismo golpe se perdería completamente lo que fueron los elementos
singulares que han constituido esta subjetividad y que han sido un motor, un elemento
esencial de la historia contemporánea. La cuestión es habitar, no el ser, sino la singularidad,
especialmente la alteridad en sus elementos en ella incluidos negativos, inasimilables, para
poder refundar otro horizonte ontológico. Estamos en una encrucijada que es aquella del
posmodernismo. ¿Es que se trata de rehabilitar pura y simplemente las estructuras arcaicas
y contemporáneas, a las cuales se va a dar un estatus de transcendencia -es la aceptación de
los estados de hecho, de los estados de cosas, de entes tal como son hoy para navegar sobre
el mercado general de la economía y la subjetividad - ¿o es que al contrario, a partir de esta
asunción de posiciones de existencia singulares de diferentes agenciamientos de
enunciación, se va a construir, maquinar otros horizontes ontológicos?

F.A: Si las teorías de la información tienen estos efectos de bloqueo, si las teorías y la
práctica de los posmodernos han bloqueado lo virtual maquínico en la repetición de una
realidad de dominio, y si al contrario la posibilidad de jugar (funcionar) de formas nuevas
de subjetividad maquínica están dadas hoy en día, al fin y al cabo, cuáles son los
comportamientos prácticos que debemos identificar en el universo de los medias?

Félix: Evidentemente eso no depende de una programación política, y aún menos


informática. Creo que se pueden dar simplemente algunas apreciaciopnes fragmentarias. El
primer punto consiste en reconocer el carácter de droga de los medias, de sistema
fascinatorio y, al mismo tiempo, la reintroducción posible de dimensiones cognitivas,
estéticas, analíticas de las cuales son vitualmente portadores. Me parece muy importante
hoy burlarse, ridiculizar el profesionalismo de las gentes de los medias y analizar en qué
punto funcionan en estereotipos que contaminan toda la sociedad e incluida la vida política.
Me acuerdo de una reflexión del pintor Matta durante un desayuno con Régis Debray, Jack
Lang, Alberto Moravia, Laura Betti, en la época del gobierno Chirac durante la
cohabitación y cuando Léotard, ministro de la comunicación, acababa de privatizar TF1, lo
que sacaba a Jack Lang de sus casillas. Delante de su vehemencia, Matta le ha interrumpido
y le ha dicho: "¡Pero yo tengo la solución! ¡Hace falta enseñar a la gente a no ver la
televisión!"
Tenía razón, hace falta enseñar a hacer otro uso de ella. Desviar el uso de los media. El
zapping es ya un comienzo. Desde el momento en que se tiene acceso, como en los Estados
Unidos o en Canadá, a cincuenta o sesenta canales por cable, desde que se tenga la
posibilidad de interactuar con bancos de datos, todo ese carácter hipnótico de la
consumición televisiva va a evolucionar. Este es un primer nivel. El otro nivel, es el de
desconsiderar ese sistema de reificación del interlocutor político. Y eso, es algo que se
opera en el humor popular (friant de Bébete show). Es un factor muy poderoso en la
deconstrucción de los sistemas políticos, sobre todo en Francia. El mayor problema es
recomponer los agenciamientos de enunciación con esas nuevas dimensiones. Eso puede
partir de experimentaciones completamente parciales: pienso en el grupo en el que se
encuentra Francisco Pain, "Canal Déchaine", o en los "Reporteros sin fronteras" que
organiza discusiones entre filósofos, historiadores y periodistas. Estos son acontecimientos
microscópicos pero que indican una cierta dirección: la de la recomposición ecológica de la
comunicación. Esta temática no esta verdaderamente puesta políticamente a la orden del
día. En tanto no lo sea, todo aquello que vaya en esa dirección resultará fragmentario y
diseminado. Pero yo pienso que hay allí una cuestión fundamental, la cuestión de la
cuestión. ¿Qué tipo de finalidad de la actividad social, del trabajo, de la comunicación de
los nuevos agenciamientos colectivos serán conducidos a producir? Por ejemplo, en el
dominio del urbanismo, a partir de cuando se llegará a programar no solamente sistemas de
infraestructura material, de luz, de flujos visibles, de comunicación, sino también de nuevos
agenciamientos domésticos de sistemas de intercambio de afecto entre las diferentes clases
de edad, las diferentes especificaciones culturales, etc. Es una finalidad fundamental por
reintroducir en el dominio del urbanismo y la arquitectura. Se podrían multiplicar los
ejemplos en la psiquiatría, los sistemas educativos, culturales, deportivos...

F.A.: ¿Ese concepto de profesionalismo, cómo se ha podido plantear? ¿Y cómo repensarlo


de otra manera?

Félix: Yo haría la distinción entre el oficio por ejemplo de periodista que es todo eso que
tiene de honorable, y la dimensión "pro", que consiste en reducir el lenguaje, todos sus
elementos de singularidad que pueden emerger en la discursividad lingüística y en la
imagen de una profesión, de tal modo que conduce a una estandarización de la
comunicación y de la subjetividad. Lo que hace falta subrayar es que el periodista mismo
pierde parte de su valor de mercado entrando con exceso en esos estereotipos. En efecto el
periodista, en particular en el dominio audiovisual, está igualmente obligado a
singularizarse, a asumir un mínimo de ruptura con ese tipo de estereotipo. La dimensión
existencial de una profesión está constantemente por reinventar. El periodista no puede ser
un profesional de la verdad. Se caería en el absurdo total. La verdad está siempre anclada
en un ir y volver entre elementos de objetividad y de subjetividad: pasa por desvíos,
cuestionamientos, toda una dialéctica entre la complejidad y el caos, provista de riesgos de
no-sentidos. No sabría pues existir "pros" de la verdad. Por contra, se puede concebir una
profesión que consista en poner en escena, en crear condiciones de emergencia, no una
información verídica en sí misma, reificada, transcendente, sino una expresión singular que
tuviera la verdad por horizonte. El peridista se convertiría entonces un prestador de
servicios, de puesta en escena; con una connotación relativa al arte, un paradigma estético
referido a las artes plásticas, al teatro, a la expresión poética, a través de las cuales pudiera
emerger una información debidamente situada en relación a sus elementos existenciales.

F.A.: ¿Ves formas políticas en esa reapropiación de los medias?`

Félix: En eso yo vuelvo a mi temática de la ecosofía. Si no se opera una reunión entre la


ecología del medio ambiente, una ecología de lo social y una ecología de lo mental, la
ecología se inclinará inexorablemente hacia un conservadurismo, hacia el mantenimiento
de un status quo, es más, hacia políticas autoritarias de regulación y un nuevo tipo de
estatismo o de socialismo reductor. Si, al contrario, la finalidad de la ecología es la de
asociar esas diferentes dimensiones de flujo y de máquinas, la de establecer puentes entre la
ecología de lo visible y la ecología de lo incorporal, es decir la producción de subjetividad,
entonces deviene concebible una refinalización de lo social hacia fuera de la esfera, sea del
beneficio, sea de la regulación autoritaria proporcionada en un "retorno a la naturaleza",
con todo lo que eso comporta de connotaciones fascistas. La posibilidad se abre entonces
en recomponer las actuales sensibilidades ecológicas, con toda su ambigüedad, con nuevos
horizontes ontológicos.

F.A: Esta línea utópica que progresa en el interior de este mundo virtual es profundamente
diferente de todas esas líneas que ven una clausura, lo mismo sobre el infinito (Virilio). Es
una concepción que ve una operatividad continua abrirse en el interior de todo eso. Desde
este punto de vista, no es un programa político, sino un problema de militancia.

Félix: El término fundamentel es el de la praxis. Somos prisioneros de prácticas


completamente teleguiadas socialmente y mentalmente, programadas informáticamente,
que son asediadas por una restitución de territorios existenciales anteriores, con todo lo que
eso comporta de fantasmático. Una cierta visión de la finitud del planeta puede ir en ese
sentido. Lo que cuenta, no es el caracter cerrado del aldea planetario, es el asumir esta
finitud, sobre todos sus aspectos, pero también el relanzar universos incorporales a partir de
ahí. Puesto que el planeta no es tan limitado como parece, lo social, los universos
incorporales abren campos posibles infinitos. En lo tocante a esto el concepto de
"desarrollo sostenible" merecería ser interrogado, Puesto que se trata todavía de un
compromiso en relación a un equilibrio ecológico; se recae en una concepción
territorializada fundamentalmente mezquina. Es por esto por lo que yo permanezco
profundamente apegado a todas las mutaciones tecnológicas, estéticas, maquínicas, en un
sentido amplio, como capacidades de reabrir horizontes ontológicos mutantes. Existe todo
un movimiento reaccionario en lo tocante a la máquina que me parece muy pernicioso
puesto que puede conducir a ser el lecho de todos los conservadurismos, de todas las fobias,
reterritorializaciones fascistizantes.

F.A.: De un lado hay esta subjetividad y del otro, esta información que deviene cada vez
acontecimiento, puesta en escena. Volvamos sobre esa relación comunicación, información,
acontecimiento, en su sentido puntual, singular, eventual. Este acontecimiento, es el
elemento de una discursividad; es el elemento pathique, algo subjetivo que pone en
contacto con la máquina, el medio ambiente , la historia, la memoria.

Félix: Tu pregunta constituye ya una respuesta. Se trata de saber si se hace la promoción de


un objeto informático, transcendente, si se parte de una discursividad ya dada y que servirá
de infraestructura a todos los elementos existenciales. O, al contrario, si se parte de una
posición de inmanencia del acontecimiento, que implica que no se sea prisionero de
coordenadas discursivas, de tiempos, de espacio, de energía, sino que sea insertado en
líneas intensivas generadoras de temporalización, de especialización, de tensiones
energéticas... La búsqueda del "scoop" en la comunicación mata el acontecimiento puesto
que lo condena por esencia a la repetición de un afecto, de una falsa sorpresa. El verdadero
acontecimiento no está nunca en un "scoop". No se relaciona con nada, representa una
ruptura asignificante, productora de un foco autopoiético, luego de una encrucijada práxica
potencial, que no se reclausura sobre una sensiblería masmediática.

F.A.: Esta idea de comunicación, en qué sentido es posible ligarla a esto que es un nuevo
concepto de trabajo social, una nueva productividad comunicacional al nivel de la
cooperación social, autónoma, intelectual. Todas las teorías posmodernas sobre la
comunicación no toman en consideración el aporte entre la comunicación y la
productividad, por ejemplo, del trabajo intelectual, que no está tematizado en tanto que tal.
¿Esta productividad del trabajo intelectual, no se reencuentra justamente en la informática,
en la constitución de aplicaciones, en la reorganización del saber?
Félix: La valorización de una actividad que haga que sea definida como trabajo está
siempre ligada a la promoción de un cierto territorio existencial. Cuando Freud habla de un
trabajo del sueño, lo presenta como una actividad inconsciente. Pero existe otro tipo de
trabajo cuando, en el despertar, se prometió un territorio de lectura del sueño , territorio que
es por otra parte muy evolutivo puesto que, en una primera fase de memoria corta, dispersa
sus elementos a gran velocidad. Enseguida se pasa a una memoria más larga , a otro trabajo
de memorización. Otros modos de territorialización del sueño podrían del mismo modo ser
creados en la cura analítica. Tomo este ejemplo del suño porque es un caso extremo de
trabajo singularizado, ligado a una valorización muy particular. Un sueño puede devenir
también cualquier cosa que toma consistencia sobre los mercados económicos cuando es
convertido en una expresión artística. Que hay una comunicación entre esos diversos
territorios y esos diversos sistemas de valorización, que hay transaccciones, un cambismo,
es algo que forma parte de nuestro horizonte ontológico. Que hay un mercado de sistemas
de valorización digamos "de uso" (yo diría por mi parte, de valor de deseo más que de valor
de uso) es un dato de partida. La cuestión es saber si se acepta la hegemonía de los sistemas
de valor de equivalencias que son controlados por las formaciones capitalísticas, las más
empobrecedoras en materia de singularidades subjetivas, las más homogeneizantes. Se trata
de concebir una articulación entre esas diversas praxis, esos diferentes mercados de
valorización, esas diferentes formaciones existenciales o formaciones de poder siguiendo el
nivel en el que las situamos, en particular aquellas que pretenden conservar su
heterogeneidad, que prueban a articularlas en una relación de disenso y no en una relación
de consenso con los sistemas dominantes de valores. ¿Cómo reintroducir la singularidad en
la universalidad de la transacción y de la comunicación? Se plantea entonces la necesidad
de procedimientos económicos y democráticos para articular el bien público, y la
restitución, la defensa, el mantenimiento, la promoción acentuada de la resingularización.
Es pues todo un pluralismo de sistemas de valorización, una nueva suerte de concatenación
de esos sistemas que deberían ser concebidos como producción de alteridad, de diferencias,
y no producción de homogeneidad. El Ser y el Otro son entonces tomados en un proceso
creacionista. Hay entonces enfrentamiento con todas las políticas de recentramiento y de
jerarquización de los sistemas de finalización de las actividades humanas, lucha contra la
pretensión de hegemonía de los sistemas de equivalencia que han marcado el capitalismo
del siglo XIX, con una universalidad opresiva. Y hay también una reposición en causa de la
división entre trabajo material, trabajo cognitivo, trabajo sensible, trabajo inconsciente. si el
término último de la praxis se reconduce bien a una producción ontológica, entonces estas
diferentes "maquinaciones" están llamadas a reunirse en razón misma de su heterogeneidad.

You might also like