You are on page 1of 119

Título original: Being Digital

Traducción: Marisa Abdala


1.a edición: septiembre 1995
© 1995 by Nicholas Negroponte
© Ediciones B, S.A., 1995
Bailén, 84 - 08009 Barcelona (España)
Publicado por acuerdo con Alfred A. Knopf, Inc.
Printed in Spain
ISBN: 84-406-5925-3
Depósito legal: B- 34.035-1995
Impreso por Talleres Gráficos «Dúplex, S.A.»
Ciudad de Asunción, 26-D
08030 Barcelona

Realización de cubierta:
Damià Mathews/Samuel Gómez

Fotografía de cubierta:
James Nazz/Image Bank
PRÓLOGO

«Multimedia», «CD-ROM», «autopistas de la información», «sonido digital», «fibra óptica» o


«televisión por cable» son algunas de las novedades que cada día resultan más presentes (y tal vez
inevitables) en nuestra vida.
Para algunos se trata, prácticamente, de esoterismo tecnológico, de algo incomprensible e
ignoto. Para otros se trata de términos que cada día son más familiares e identifican aspectos
parciales de una realidad llamada, según parece, a un esplendoroso futuro.
En cualquier caso, todos los ejemplos citados se incluyen entre algunos de los efectos más
destacados de las llamadas tecnologías de la información (TI). Unas tecnologías que caracterizan ya
el final de siglo y la llamada era de la información con que se abre el nuevo milenio.
En realidad la tecnología (cualquier tecnología), unida a la ciencia, ha producido en los últimos
decenios un cambio claramente perceptible en nuestra forma de vivir y de entender la realidad.
El desarrollo inexorable de la ciencia nos ha permitido conocer más y más cosas sobre el mundo
que nos rodea, sobre nosotros mismos y sobre las organizaciones sociales que hemos construido.
Pero la tecnología nos permite, además, transformar el mundo, nuestras sociedades e incluso a
nosotros mismos. Nos acerca al viejo sueño del filósofo.
Es indudable que los efectos ambientales y sociales de lo que algunos han dado en llamar
tecnociencia resultan cada vez más patentes. Hemos provocado grandes cambios en el mundo que
nos rodea y también en nuestras sociedades. Y, lo que es más importante, hemos provocado
cambios importantes en nosotros mismos (aunque a menudo se olvide cómo la tecnología médica,
por ejemplo, ha alterado hechos tan fundamentales como la esperanza de vida de la especie
humana).
Es cierto que, junto a consecuencias incuestionablemente favorables, como el ejemplo citado, se
dan otros efectos francamente discutibles: polución, destrucción del medio ambiente, agotamiento
de recursos, desigualdades de todo tipo y un largo etcétera que hacen dudar a muchos, y con razón,
de la bondad de la tecnociencia. También es cierto que esos resultados no son simplemente
achacables a la ciencia y a la tecnología en sí mismas, sino consecuencia directa de la concreta
organización socioeconómica dominante en todo el planeta. No es éste el lugar adecuado para
detenerse en estas consideraciones, pero no conviene olvidar que incluso entidades «sin ninguna
sombra de sospecha» como, por ejemplo, el Club de Roma se preocupan desde hace años por los
límites del crecimiento y, en definitiva, por la posibilidad de sostener el tipo de desarrollo actual. O
mejor, el tipo de desarrollo que, al amparo de la ciencia y la tecnología, caracteriza eso que
conocemos como el «primer mundo» y los escasos países (menos de la quinta parte de la
humanidad) que disfrutan de esas novedades.
En realidad, todas las tecnologías favorecen en mayor o menor medida un determinado cambio,
y la organización socioeconómica que las utiliza puede determinar el sentido final de su orientación.
Pero la realidad vivida en los últimos años nos permite percibir la gran potencia de cambio de las
tecnologías de la información; unas tecnologías que, al menos por el momento, no resultan
depredadoras de recursos naturales y que, día a día, son capaces de ofrecer mejores resultados con
menores consumos de potencia como consecuencia de la creciente miniaturización electrónica.
Hay una explicación casi intuitiva de ese fenómeno. Suelo exponerla a mis estudiantes al
hablarles del factor multiplicador de una tecnología. Es un concepto sencillo aunque tal vez poco
riguroso, pero muy adecuado para dar a comprender la gran potencia transformadora de las
tecnologías de la información: informática y telecomunicaciones.
El factor multiplicador de una tecnología sería el número de veces que la tecnología en cuestión
es capaz de mejorar la función o el objetivo que le ha sido asignado. Veamos un ejemplo: la
automoción permite pasar de nuestra velocidad de desplazamiento al andar (unos 6 km/h) a,
pongamos, unos 90 km/h con un automóvil en carretera, lo que significa un factor multiplicador de
15 (90 dividido entre 6). El factor es de 150 en el caso de la tecnología aeronáutica, pensando ahora
en un avión que viaje a 900 km/h.
En realidad, los factores multiplicadores de las tecnologías convencionales, pese a su gran
potencialidad y capacidad de transformación por todos experimentada, son de valores reducidos y
se mantienen en un orden de magnitud limitado.
Las grandes revoluciones tecnológicas que han configurado nuestra historia como especie
civilizada corresponden también a tecnologías con un factor multiplicador reducido. Se estima un
factor del orden de 100 en el caso de la agricultura (10 aportado por el invento del arado que
identifica la llamada «revolución neolítica», y un factor adicional de otro 10 por la utilización,
posterior, del abono químico). El factor multiplicador sería de 1.000 en el caso de la revolución
industrial.
El hecho diferenciador de las modernas tecnologías de la información, y con ello la posible
justificación de lo que algunos ya han bautizado como la revolución de las tecnologías de la
información, radica en unos factores multiplicadores muy superiores, en realidad del orden del
millón.
La informática, tecnología automatizada del proceso de datos, permite hacer en millonésimas de
segundo los cálculos y operaciones que, sin informática, exigen tiempos, como mínimo, del orden
del segundo. Su factor multiplicador es, como decíamos, del orden del millón.
Las telecomunicaciones electrónicas aportan igualmente un factor multiplicador del orden del
millón, ya que transmiten en millonésimas de segundo (de hecho a velocidades del orden de la
velocidad de la luz) lo que, sin esta tecnología de transmisión, debe medirse como mínimo en una
escala del orden de los segundos.
Por ello las tecnologías de la información (informática más telecomunicaciones) pueden llegar a
disponer de un factor multiplicador del orden de un billón. Y ello sin contar el efecto sinérgico de la
inevitable conjunción de la tecnología informática del proceso de datos y la tecnología paralela de
las telecomunicaciones electrónicas informatizadas.
Y, un detalle de gran importancia para tener en cuenta el impacto real de una tecnología, la gran
potencialidad que implica el gran factor multiplicador de las tecnologías de la información se ha
desarrollado en un lapso de tiempo francamente breve.
Aún no han pasado ni siquiera cincuenta años desde la presentación pública del primer
ordenador electrónico (el ENIAC, presentado el 15 de febrero de 1946), y los cambios que ha
experimentado la informática, por ejemplo, han sido francamente significativos tanto en el gran
aumento de potencia de proceso como en la sorprendente miniaturización de los sistemas.
A mediados de los años ochenta el británico Tom Forester formulaba de nuevo una comparación
ya clásica: si la automoción hubiera experimentado un desarrollo parecido a la informática, se
podría disponer de un Rolls-Royce por menos de 300 pesetas y, además, el vehículo dispondría de
la potencia de un transatlántico como el Queen Elizabeth para ser capaz de recorrer un millón de
kilómetros (unas 25 vueltas al mundo) con sólo un litro de gasolina. Todo un sueño que, en
realidad, en el ámbito de las tecnologías de la información ha sido ya posible.
Si estas cifras les parecen exageradas, consideren que son, por el contrario, muy conservadoras.
En realidad, desde que se formuló la comparación han pasado ya unos diez años y las tecnologías de
la información han seguido evolucionando con los resultados por todos conocidos.
O, tal vez, no tan conocidos...
A esa posibilidad responde este libro que pretende mostrar el presente y el previsible futuro que
nos aguarda como efecto de la digitalización informática, que ya ha llegado incluso a nuestros
hogares. Entre los muchos aparatos domésticos digitalizados, me limitaré a recordar el compact-
disc, con el cual escuchamos música digitalizada sorprendidos y maravillados de su gran calidad de
reproducción.
Y no es el único ejemplo. Ni el más importante.
Por ello no es de extrañar que sobre todos esos fenómenos asociados a las tecnologías de la
información (digitalización informática, telecomunicaciones, comunicación entre personas y
máquinas, etc.) se escriba mucho en estos días. De los diversos libros sobre el tema aparecidos en
Estados Unidos en 1995, prácticamente ninguno puede compararse a éste.
Su autor, Nicholas Negroponte, aúna de forma poco habitual un gran prestigio científico y una
habilidad divulgadora bien probada.
Nicholas Negroponte es uno de los mayores expertos mundiales en multimedia y dirige el
Media Lab (Laboratorio de Media) del MIT (Massachusetts Institute of Technology, Instituto
Tecnológico de Massachusetts), sin ninguna duda el centro pionero en el estudio de la difícil y
compleja comunicación entre personas y máquinas. Pero Negroponte ha sido también fundador de
la revista Wired en la que escribe una interesante y amena página mensual.
Por ello la visión de Negroponte sobre el presente y el futuro de las tecnologías de la
información es a la vez la de un pionero, la de un brillante anticipador de realidades y la de un
ameno pedagogo. Su ilustradora visión del paso «de átomos a bits», desarrollada en la primera parte
de este libro, es un ejemplo más de la capacidad de Negroponte para señalar el verdadero eje central
de los temas. Entre los especialistas se recuerda también la explicación del autor (conocida como el
«interruptor Negroponte») para explicar el paso del teléfono tradicional al teléfono móvil
inalámbrico, y su correspondencia con el fenómeno inverso de una televisión que llega por cable en
lugar de utilizar las ondas hertzianas. Ejemplos ambos de una capacidad de análisis poco común.
Toda esa capacidad de percepción sobre las tendencias y las realidades de unas tecnologías tan
propensas al cambio es lo que ha caracterizado la vida profesional de un gran especialista como
Negroponte. Y se halla aquí, en este libro, al servicio de una exposición amena y comprensible de
los nuevos fenómenos que nos aportan las tecnologías de la información: televisión por cable, vídeo
a la carta, multimedia, realidad virtual, autopistas de la información y un largo etcétera que se da
cita en estas páginas que alguien ha calificado ya como «un mapa de carreteras imprescindible para
subsistir en la superautopista de la información».
Negroponte, como muchos de sus compatriotas, da por sentado que el futuro tecnológico que
nos aguarda ha de ser el que promueve un sistema económico como el norteamericano. No es
inevitable que así sea, pero sí muy posible. Aunque no hay que olvidar que se están alzando ya
voces (Edgar Pisani, por ejemplo) que recuerdan que en algunos lugares del planeta (y el ejemplo
paradigmático es África) las autopistas de la información pueden llegar antes que las necesarias e
imprescindibles tuberías que transportan el agua potable para evitar o reducir el alcance de las
muchas enfermedades infecciosas existentes. Una más de las incongruencias de nuestro mundo que
sigue, pese a todo, con su gran riqueza en ese tipo de contrastes.
Como ya decíamos, la tecnociencia (y las tecnologías de la información no son una excepción)
transforma el mundo que nos rodea, las organizaciones sociales y a nosotros mismos. El sentido de
esa transformación sigue abierto y permite la existencia de grupos sociales que se encuentran, en la
ya antigua formulación de Umberto Eco, «apocalípticos o integrados», esta vez ante los efectos de
las tecnologías de la información.
Pero antes de juzgar y tomar partido en el bando de los apocalípticos o de los integrados (o crear
un nuevo bando intermedio...), conviene comprender las posibilidades reales de una tecnología.
Para ello nada mejor que el punto de vista de un integrado creyente que nos cuente las muchas
posibilidades que empiezan a ser factibles hoy en Estados Unidos. Es seguro que serán factibles
mañana en países como España y, esperemos, puedan serlo también pasado mañana en otros lugares
como, por ejemplo, África.
En cualquier caso, prepárense para un viaje sorprendente y, además, del todo imprescindible
para comprender el futuro tecnológico que nos espera a la vuelta de la esquina.

MIQUEL BARCELÓ
Julio, 1995
Facultad de Informática de Barcelona Universidad
Politécnica de Cataluña
A Elaine
que ha soportado que yo fuera digital durante 11.111 años
exactamente
INTRODUCCIÓN:
LA PARADOJA DE UN LIBRO

N
o me gusta leer porque soy disléxico. De niño leía los horarios de los trenes en lugar de a los
clásicos y disfrutaba imaginando conexiones perfectas entre recónditos pueblos de Europa. Esta
fascinación me proporcionó un gran dominio de la geografía europea.
Treinta años más tarde, siendo director del Media Lab del MIT (Instituto Tecnológico de
Massachusetts), participé en un acalorado debate sobre la transferencia de tecnología de las
universidades de investigación de Estados Unidos a las empresas extranjeras. Se me convocó a dos
reuniones entre la industria y el Gobierno, una en Florida y la otra en California.
En ambas se sirvió agua Evian en botellas de litro. A diferencia de la mayoría de los
participantes, yo sabía exactamente dónde estaba Evian gracias a mis horarios de tren. Evian,
Francia, está a más de 800 kilómetros del océano Atlántico. Esas pesadas botellas de litro tenían que
atravesar casi un tercio de Europa, cruzar el Atlántico, y viajar otros 5.000 kilómetros hasta llegar a
California.
O sea que estábamos discutiendo sobre cómo proteger la industria informática de Estados
Unidos y nuestra competitividad electrónica, cuando al parecer ni siquiera éramos capaces de
ofrecer agua norteamericana a los participantes en una conferencia norteamericana.
Hoy día, mi anécdota sobre el agua Evian no tiene que ver con la competencia entre el agua
mineral francesa y la norteamericana, sino que me servirá de ejemplo para establecer la diferencia
fundamental entre átomos y bits. Tradicionalmente, el comercio mundial ha consistido en el
intercambio de átomos. En el caso del agua Evian, estábamos transportando una enorme y pesada
carga inerte con gran lentitud y esfuerzo, a un precio muy elevado, a través de miles de kilómetros,
durante un período de varios días. Cuando pasamos la aduana declaramos nuestros átomos, no
nuestros bits. Incluso la música grabada digitalmente se distribuye en CDs de plástico con costes
muy elevados de inventario, embalaje y transporte.
Esto está cambiando muy deprisa. El movimiento masivo de música grabada en forma de piezas
de plástico, al igual que el lento manejo de gran parte de la información en forma de libros, revistas,
periódicos y videocasetes, está a punto de transformarse en una instantánea y económica
transmisión de información electrónica que se mueve a la velocidad de la luz. De esta forma, todo el
mundo tendrá acceso a la información. Thomas Jefferson inventó el concepto de las bibliotecas e
implantó el derecho a consultar un libro sin coste alguno. Pero nunca pensó en la posibilidad de que
20 millones de personas tuvieran acceso a una biblioteca digital que funcionara de forma electrónica
y donde se pudiera obtener información de manera gratuita.
La transformación de átomos a bits es irrevocable e imparable.
¿Por qué ahora? Porque el cambio también es exponencial: las pequeñas diferencias de ayer
pueden tener consecuencias de gran magnitud mañana.
¿Conoce esa historia del hombre que trabaja por un centavo al día durante un mes pero dobla su
sueldo cada día? Si empezara con este maravilloso sistema de pago el primer día del año, estaría
ganando más de 10 millones de dólares al día el último día de enero. Ésta es la parte que la mayoría
de la gente recuerda. Pero no nos percatamos de que sólo ganaríamos 1,3 millones de dólares si
enero fuese tres días más corto (es decir, como febrero). Dicho de otra manera, los ingresos
acumulados del mes de febrero serían de 2,6 millones de dólares aproximadamente, en lugar de los
21 millones de dólares que habríamos ganado en enero. Cuando el efecto es exponencial esos tres
días cuentan mucho. Pues bien, estamos acercándonos a esos tres días en el terreno de la
informática y las telecomunicaciones digitales.
Según este mismo esquema, los ordenadores se están introduciendo en nuestra vida cotidiana a
un ritmo endiablado: el 35 % de las familias norteamericanas y el 50 % de adolescentes
estadounidenses tienen un ordenador personal en casa; se calcula que 30 millones de personas están
en Internet; el 65 % de los ordenadores nuevos que se vendieron en todo el mundo en 1994 eran
para uso doméstico; y el 90 % de los que se venderán este año contarán con módems o lectores de
CD-ROM. Estas cifras ni siquiera incluyen los cincuenta microprocesadores que lleva de promedio
cada automóvil vendido en 1995, o los de su tostadora, su termostato, su contestador automático, su
CD y los de sus tarjetas de felicitación. Y si cree que me equivoco con estas cifras, siga leyendo,
por favor.
Estas cifras están creciendo a un ritmo sorprendente. La utilización de un programa de Internet
llamado Mosaic, aumentó un 11 % por semana entre febrero y diciembre de 1993. Los usuarios de
Internet están aumentando un 10 % al mes. Y si siguieran a este ritmo, lo cual es imposible, el total
de usuarios de Internet excedería la población mundial hacia el año 2003.
Algunas personas se preocupan por la división social que existe entre los ricos y los pobres en
información, entre los que tienen y los que no tienen, entre el Primer y el Tercer Mundo. Pero la
verdadera división cultural va a ser generacional. Cuando conozco a un adulto que me dice que ha
descubierto el CD-ROM, deduzco que tiene un niño de entre cinco y diez años. Cuando alguien me
dice que ha descubierto America Online, es que tiene un adolescente en casa. El primero es un libro
electrónico, el otro es un medio de relacionarse y la existencia de ambos se da por sentada entre los
jóvenes, de la misma manera que un adulto no piensa en el aire (hasta que le falta).
Y es que la informática ya no se ocupa de los ordenadores, sino de la vida misma. Los
ordenadores personales han reemplazado al gran ordenador central en casi todo el mundo. Hemos
presenciado cómo los ordenadores se trasladan de enormes espacios con aire acondicionado a
armarios, luego a escritorios y ahora a nuestras rodillas y a nuestros bolsillos. Y este proceso aún no
ha terminado.
A principios del siguiente milenio nuestros gemelos o pendientes podrán comunicarse entre sí a
través de satélites de órbita baja y tendrán más potencia que nuestro PC actual. El teléfono ya no
sonará siempre, sino que recibirá, seleccionará y tal vez responderá a las llamadas, como un
mayordomo inglés bien entrenado. Los sistemas para transmitir y recibir información y
entretenimiento personalizados obligarán a los media a reestructurarse. Las escuelas se
transformarán en museos y salas de juego para que los niños estructuren sus ideas y se relacionen
con niños de todo el mundo. El planeta digital parecerá tan pequeño como la cabeza de un alfiler.
A medida que nos interconectemos entre nosotros mismos, muchos de los valores del estado-
nación cambiarán por los de comunidades electrónicas, ya sean éstas pequeñas o grandes. Nos
relacionaremos en comunidades digitales en las que el espacio físico será irrelevante y el tiempo
jugará un papel diferente. Tal vez dentro de veinte años, cuando miremos por la ventana, podremos
ver un paisaje que estará a una distancia de 10.000 kilómetros y seis zonas horarias más lejos. Una
hora de televisión puede que llegue a nuestras casas en menos de un segundo; leer sobre la
Patagonia tal vez incluya una experiencia sensorial sobre el lugar; un libro de William Buckley
podría consistir en tener una conversación con él.
¿Entonces, Negroponte, por qué eres tan anticuado y escribes un libro, que además no lleva
ilustraciones? ¿Por qué la editorial entrega esta obra en átomos en lugar de bits, cuando, a diferencia
del agua Evian, es tan sencillo ofrecer estas páginas en formato digital, que era de donde venían?
Por tres razones.
La primera es que no hay suficientes medios digitales al alcance de ejecutivos, políticos, padres
y todos los que más necesitan entender esta cultura tan radicalmente nueva. Incluso en donde los
ordenadores son omnipresentes, en el mejor de los casos la interfaz actual es rudimentaria y está
muy lejos de ser algo con lo que uno desearía irse a la cama.
La segunda razón es mi columna mensual en la revista Wired. El éxito tan sorprendente e
inmediato de Wired demuestra que existe un público numeroso que se quiere informar acerca de
gente y estilos de vida digitales, no sólo de teorías y equipos. Mi columna supuso un gran incentivo
para replantearme temas que ya había tratado, porque en el corto período de tiempo que ha pasado
desde que escribí aquellas historias ha habido muchos cambios. Y eso es lo que son: historias
sacadas de los años en que se inventaron nuevos sistemas para los gráficos por ordenador, las
comunicaciones humanas y los multimedia interactivos.
La tercera es una razón más personal y ligeramente ascética. Los multimedia interactivos dejan
muy poco margen a la imaginación. Como una película de Hollywood, los multimedia narrativos
incluyen representaciones tan específicas que la mente cada vez dispone de menos ocasiones para
pensar. En cambio, la palabra escrita suelta destellos de imágenes y evoca metáforas que adquieren
significado a partir de la imaginación y de las propias experiencias del lector. Cuando se lee una
novela, gran parte del color, del sonido y del movimiento provienen de uno mismo. Pienso que se
necesita el mismo tipo de contribución personal para sentir y entender cómo «ser digital» puede
influir en nuestra vida. Espero que se lea a usted mismo en este libro. Y que conste que esto lo dice
alguien a quien no le gusta leer.
LOS BITS SON BITS
EL ADN

1
DE LA INFORMACIÓN

BITS Y ÁTOMOS

P
ara poder apreciar las ventajas y consecuencias de «ser digital» lo mejor es reflexionar sobre la
diferencia entre bits y átomos. No cabe duda de que nos hallamos en una era de la información, sin
embargo, la mayor parte de esta información nos llega en forma de átomos: periódicos, revistas y
libros (como éste). Quizá nuestra economía se esté convirtiendo en una economía de la información,
pero de momento evaluamos las operaciones comerciales y hacemos los balances pensando en
átomos. En el GATT lo que cuentan son los átomos.
Hace poco visité la oficina central de uno de los cinco fabricantes más importantes de circuitos
integrados de los Estados Unidos de América. Mientras firmaba el registro de visitantes, me
preguntaron si llevaba un ordenador portátil.
—Naturalmente —respondí.
La recepcionista me preguntó el modelo, el número de serie y su valor.
—Aproximadamente, entre uno y dos millones de dólares —dije.
—Oh, eso es imposible, señor—contestó ella—. Déjeme verlo.
Le enseñé mi viejo Power-Book y ella calculó que valía 2.000 dólares. Apuntó la cantidad y me
permitieron entrar en el edificio. La cuestión es que mientras los átomos no valían tanto, los bits no
tenían precio.
No hace mucho asistí a una reunión de altos ejecutivos de PolyGram en Vancouver, Columbia
Británica, cuyo propósito era aumentar la comunicación entre directivos de alto rango y presentar la
programación general que se perfilaba para el siguiente año. Se iban a utilizar numerosas muestras
de música, películas, juegos y vídeos de rock de próxima publicación. FedEX tenía que repartir
estas muestras en forma de CDs, videocasetes y CD-ROMs, material físico empaquetado que tenía
tamaño y peso, pero por desgracia, las aduanas retuvieron parte del material. El mismo día, yo había
estado en mi habitación del hotel repartiendo y recibiendo bits a través de Internet con destino al
Instituto Tecnológico de Massachusetts (MIT) o procedentes de él, o de otras partes del mundo. Mis
bits, a diferencia de los átomos de PolyGram, no fueron retenidos por las aduanas.
En las autopistas de la información circulan, sin peso y a la velocidad de la luz, bits de todo el
globo. Hoy día, cuando las industrias se preguntan por su futuro en un mundo digital, deben tener
en cuenta que ese futuro lo decidirán, casi al 100 %, las posibilidades que tengan sus productos o
servicios de presentarse en forma digital. Quien fabrica jerseys de cachemira o comida china, tendrá
que esperar mucho tiempo hasta que pueda convertirlos en bits. «Arriba, Scotty»1 es un sueño
maravilloso, pero que aún tardará varios siglos en realizarse. Hasta entonces tendrá que confiar en
FedEx, bicicletas y zapatillas de deporte para transportar sus átomos de un lugar a otro. Sin
embargo, esto no significa que las tecnologías digitales no vayan a ser útiles en el diseño,
fabricación, venta y administración de industrias cuyo negocio esté basado en átomos. Pero lo
esencial de estas industrias no cambiará porque sus productos no están hechos de bits sino de
átomos.
En las empresas de información y entretenimiento, bits y átomos se confunden a menudo. La
edición de un libro ¿pertenece al negocio de la distribución de información (bits) o al de la
manufactura (átomos)? La respuesta, desde un punto de vista histórico, es que forma parte de
ambos, pero esto no tardará en cambiar a medida que las aplicaciones de la información vayan
extendiéndose y sean de fácil empleo. Ahora mismo es difícil, aunque no imposible, competir con
las características de un libro impreso.
Un libro tiene una cubierta llamativa, es ligero, fácil de hojear y no muy caro. Pero para hacerlo
llegar hasta nosotros hay que almacenarlo y transportarlo. En el caso de los libros de texto, el 45 %
del coste corresponde al almacén, transporte y devoluciones. Peor aún, un libro puede agotarse. Sin
embargo, los libros digitales nunca se agotan; siempre están ahí.
Otros media presentan riesgos y oportunidades aún más inmediatos.
Los primeros átomos de entretenimiento que se sustituirán por bits serán los de los vídeos de
alquiler; los clientes de las tiendas de alquiler de vídeos no sólo padecen el inconveniente adicional
de tener que devolver los átomos, sino que han de pagar una multa si se los olvidan debajo del sofá
(se dice que 3.000 millones de los 12.000 millones de dólares del negocio del alquiler de vídeos en
Estados Unidos corresponden a multas por retrasos en la devolución). La necesidad, el imperativo
económico y la liberalización provocarán que otros media reciban un tratamiento digital. Y eso no
tardará en ocurrir.

PERO, ¿QUÉ ES UN BIT?

Un bit no tiene color, tamaño ni peso y viaja a la velocidad de la luz. Es el elemento más
pequeño en el ADN de la información. Es un estado de ser: activo o inactivo, verdadero o falso,
arriba o abajo, dentro o fuera, negro o blanco. Por razones prácticas consideramos que un bit es un 1
o un 0. El significado del 1 o el O es una cuestión aparte. En los albores de la informática, una
cadena de bits representaba por lo general información numérica.
Cuente mentalmente, pero sólo aquellos números formados exclusivamente por el 1 y el 0. El
resultado será: 1, 10, 11, 100, 101, 110, 111, etc. Éstas son las representaciones binarias respectivas
de los números 1, 2, 3, 4, 5, 6, 7, etc.
Los bits han sido siempre el elemento básico de la computación digital, pero durante los últimos
veinticinco años hemos ampliado enormemente nuestro vocabulario binario hasta incluir mucho
más que sólo números. Hemos conseguido digitalizar cada vez más tipos de información, auditiva y
visual, por ejemplo, reduciéndolos de igual manera a unos y ceros.
Digitalizar una señal es tomar muestras de ella de modo que, poco espaciadas, puedan utilizarse
para producir una réplica aparentemente perfecta. En un CD de audio, por ejemplo, el sonido se ha
sometido a muestreo 44,1 mil veces por segundo. La forma de onda de audio (nivel de presión de
sonido medido como voltaje) se graba como números discretos (que, a su vez, se convierten en
bits). Estas cadenas de bits, cuando se reproducen 44,1 mil veces por segundo, nos proporcionan
una versión en sonido continuo de la música original. Las medidas sucesivas y discretas están tan
poco espaciadas en el tiempo que no las oímos como una sucesión de sonidos separados, sino como
un tono continuo.
Lo mismo puede aplicarse a una fotografía en blanco y negro. Imaginemos una cámara
electrónica que extiende una fina trama sobre una imagen y luego graba la gradación de gris que
capta en cada célula. Si le damos al negro un valor O y al blanco un valor de 255, los distintos
matices del gris se situarán entre estos dos valores. Una cadena de 8 bits (llamada byte) tiene 256
permutaciones de unos y ceros, empezando por 00000000 y terminando con 11111111. Con
gradaciones tan sutiles y una trama tan fina, la fotografía se puede reconstruir perfectamente. Tan
pronto como se usa una plantilla más gruesa o una escala insuficiente de grises, uno empieza a ver
intervenciones artificiales digitales, como contornos y volúmenes.
La aparición de la continuidad a partir de pixels individuales es análoga a un fenómeno similar
que se produce a escala mucho más sutil en el conocido mundo de la materia. Ésta está hecha de
átomos. Si observáramos una superficie de metal muy pulida a una escala subatómica, veríamos
sobre todo agujeros, aunque a simple vista aparece lisa y sólida porque las piezas discretas son muy
pequeñas. Lo mismo sucede con la representación digital.
Pero el mundo, tal como lo percibimos, es un lugar muy analógico. Desde un punto de vista
macroscópico, no es digital en absoluto sino continuo. Nada resulta, de pronto, activo o inactivo, o
pasa de negro a blanco, ni cambia de un estado a otro sin transición. Esto tal vez no ocurra a nivel
microscópico, donde las cosas con las que interactuamos (electrones en un cable o fotones en
nuestro ojo) son discretas, pero son tantas que parecen continuas. A fin de cuentas, este libro consta
de 1.000.000.000.000.000.000.000.000 de átomos aproximadamente (un medio muy analógico).
La digitalización presenta muchas ventajas. Las más evidentes son la compresión de datos y la
corrección de errores, ambas importantes en la distribución de información a través de un canal
costoso o ruidoso. Los emisores ahorran dinero y los receptores reciben una imagen y un sonido con
calidad de estudio. No obstante, las consecuencias de la digitalización son aún mucho más
importantes.
Cuando usamos bits para describir sonido e imagen, existe una ventaja natural en usar tan pocos
bits como sea posible. Hay una cierta analogía con la conservación de la energía. Sin embargo, el
número de bits que se emplean por segundo o por centímetro cuadrado está directamente
relacionado con la fidelidad de la música o la imagen. Normalmente, interesa digitalizar con una
resolución muy alta y luego usar una versión de menos resolución de sonido o imagen para una u
otra aplicación. Por ejemplo, una imagen en color se puede digitalizar con una resolución muy alta
para imprimir la copia final pero para un sistema de compaginación de originales por ordenador no
será necesario disponer de toda la capacidad de resolución. La economía de bits la determinan en
parte las restricciones del medio en que se almacena la imagen o el sonido o el medio por el cual se
difunde.
El número de bits que se transmiten por segundo a través de un canal determinado (como hilo de
cobre, espectro de radio o fibra óptica) es el ancho de banda de este canal. Es la medida del número
de bits que pueden desplazarse por una tubería. Ese número o capacidad tiene que igualarse
cuidadosamente con el número de bits que se necesitan para reproducir un tipo determinado de
datos (voz, música, vídeo): 64.000 bits por segundo es más que suficiente para reproducir una voz
de alta calidad; 1,2 millones de bits por segundo es óptimo para escuchar música en alta fidelidad, y
45 millones de bits por segundo es ideal para reproducir imágenes.
Sin embargo, durante los últimos quince años hemos aprendido a comprimir la forma digital
pura de sonido e imagen por medio del análisis de los bits en tiempo, espacio o ambos, y eliminar
redundancias intrínsecas y repeticiones. De hecho, una de las razones por las que todos los media se
han digitalizado tan rápido es porque se están alcanzando niveles muy altos de compresión mucho
antes de lo que se predijo. En 1993, algunos europeos sostenían que habría que esperar al próximo
milenio para que el vídeo digital se hiciera realidad.
Hace cinco años, la mayoría de la gente no creía que se pudieran reducir los 45 millones de bits
por segundo del vídeo digital puro a 1,2 millones de bits por segundo. Sin embargo, en 1995 se
pueden comprimir y descomprimir, codificar y decodificar imágenes a esta escala, a bajo coste y
con alta calidad. Es como si de pronto fuéramos capaces de hacer cubitos de café exprés y, al añadir
agua, éste apareciera ante nosotros tan rico y aromático como si estuviera hecho en una cafetería
italiana.
CUANDO TODOS LOS MEDIA SON BITS

Al digitalizar una señal ésta se puede difundir con información añadida para corregir errores
tales como la estática del teléfono, el zumbido de la radio o la nieve del televisor. Estos parásitos
pueden eliminarse de la señal digital si se utilizan unos pocos bits adicionales y se aplican técnicas
sofisticadas de corrección de errores a las distintas formas de ruido y en cada uno de los media. En
un CD de audio, un tercio de los bits se usan para la corrección de errores. Se pueden aplicar
técnicas similares a la televisión para que cada hogar reciba programas con calidad de estudio,
mucho más alta que la que se obtiene hoy día y susceptible de confundirse con la llamada
«televisión de alta definición».
La corrección de errores y la compresión de datos son dos razones evidentes a favor de la
televisión digital. Por el mismo ancho de banda que antes ocupaba una ruidosa transmisión de
televisión analógica se pueden enviar cuatro señales de televisión digital con calidad de estudio. La
imagen se difunde mejor y, usando el mismo canal, se cuadruplican los índices de audiencia
potencial y los ingresos por publicidad.
Cuando se habla de la digitalización, lo que a muchos ejecutivos de los media les preocupa es
encontrar un medio de difusión más eficaz que el existente. Pero, como el caballo de Troya, las
consecuencias de este regalo pueden ser sorprendentes. Ser digital supondrá la aparición de un
contenido totalmente nuevo, surgirán nuevos profesionales, inéditos modelos económicos e
industrias locales de proveedores de información y entretenimiento.
Cuando todos los media sean digitales, porque los bits son bits, tendrán lugar dos consecuencias
fundamentales e inmediatas.
En primer lugar, los bits se mezclan fácilmente. Se combinan y pueden usarse y reutilizarse
juntos o por separado. La combinación de sonido, imagen e información se llama multimedia;
aunque suene complicado, sólo se trata de la mezcla de bits.
En segundo lugar, ha nacido un nuevo tipo de bit, un bit que habla de otros bits. Estos nuevos
bits son las típicas «cabeceras», tan conocidas por los periodistas que archivan «fichas» (que
nosotros nunca vemos) para identificar un reportaje o noticia. Los autores de reportajes científicos,
que deben aportar palabras clave en sus trabajos, también recurren a estas guías. Los bits de
cabecera pueden ser un índice o una descripción de contenidos. Hoy, en los CDs tenemos cabeceras
sencillas que nos permiten saltar de una a otra canción y, en algunos casos, obtener más
información sobre la pieza. Estos bits no son visibles o audibles pero envían información sobre la
señal a nuestros ordenadores, a una aplicación específica de entretenimiento y a nosotros mismos.
Estos dos fenómenos, bits mezclados y bits-acerca de-bits, cambian el panorama de los media
tan a fondo que conceptos como vídeo a la carta y transmisión de juegos electrónicos por cable son
sólo aplicaciones triviales, la punta de un iceberg mucho más profundo. Pensemos en las
consecuencias de una emisión de programas de televisión como información que incluyera una
descripción de sí misma legible por ordenador. O bien, ¿qué diríamos de una simple descripción
digital que pudiera generar un programa de imágenes, sonido o texto impreso en el receptor? Y si el
manejo de esos bits es tan sencillo, ¿ qué pueden aportar las grandes empresas de comunicación?
Ser digital plantea tales preguntas. Crea el potencial de un nuevo contenido originado a partir de
una combinación totalmente nueva de fuentes.

DONDE VIVE LA INTELIGENCIA

La televisión es un ejemplo de un medio en el que toda la inteligencia se halla en el punto de


emisión. El transmisor lo envía todo y el receptor recibe lo que le llega. De hecho, por centímetro
cúbico, el televisor actual es tal vez el aparato más soso de la casa (y no me refiero al contenido de
los programas). Seguramente, un horno microondas cuenta con más microprocesadores que un
televisor. En vez de pensar que el próximo paso evolutivo de la televisión será aumentar la
resolución, mejorar el color o recibir más programas, imaginémoslo como un cambio en la
distribución de la inteligencia o, mejor dicho, como el traslado de una parte de la inteligencia del
transmisor al receptor.
En un periódico toda la inteligencia también se halla en el transmisor. Pero el periódico de gran
formato alivia en parte la «monotonía» de la información, pues puede consumirse de muchas
maneras, por gente diferente y en momentos distintos. Podemos hojearlo y saltarnos las páginas,
guiados por titulares y fotografías, y cada uno de nosotros trata de forma muy diferente los mismos
e idénticos bits que se entregan en cada ejemplar a cientos de miles de personas. Los bits son los
mismos, pero la lectura se experimenta de forma diferente.
Una manera de estudiar el futuro de la digitalización consiste en preguntarse si la naturaleza de
un medio puede reproducirse en otro. ¿Es posible que lo que experimentemos al ver la televisión se
parezca cada vez más a lo que experimentamos al leer el periódico? Muchos piensan que las
noticias en los periódicos son mucho más profundas que las de la televisión, y de igual modo,
consideran que esta última ofrece una experiencia sensorial más rica que la que proporcionan los
periódicos. ¿Debe seguir siendo así?
La respuesta consiste en crear ordenadores para filtrar, clasificar, seleccionar y manejar
multimedia en beneficio propio; ordenadores que lean periódicos y miren la televisión por nosotros
y que actúen como editores cuando se lo pidamos. Esta clase de inteligencia puede alojarse en dos
lugares diferentes.
En el primer caso, fluye del transmisor y se comporta como si uno tuviera su propia sección de
escritores, como si The New York Times publicase un periódico a la medida de los intereses de cada
uno. En este contexto, selecciona especialmente para nosotros un pequeño subconjunto de bits, que
se filtran, se preparan y se entregan, ya sea para ser impresos en casa o para verlos de manera más
interactiva en una pantalla electrónica.
En el segundo caso, nuestro sistema de edición de noticias se aloja en el receptor y The New
York Times publica un número inmenso de bits, quizá cinco mil noticias diferentes, de las cuales
nuestro aparato selecciona unas cuantas, según nuestros intereses, costumbres o planes para ese día.
En este caso, la inteligencia está en el receptor y el aburrido transmisor envía indistintamente los
bits a todo el mundo.
No obstante, el futuro no se limitará a uno o al otro, sino que recurrirá a los dos.
EL ANCHO DE BANDA

2
DESENMASCARADO

DEL HILO AL OVILLO

C
uando era profesor adjunto en gráficos de ordenador, a finales de los años sesenta, nadie sabía
exactamente lo que era eso. Los ordenadores no formaban parte de la vida cotidiana. Sin embargo,
hoy día, magnates de sesenta y cinco años alardean de los bytes de memoria de sus Wizards o de la
capacidad de sus discos duros. Algunos hablan, sin mucho conocimiento, de la velocidad de
procesamiento de sus ordenadores (gracias a la excelente campaña de «Intel Inside») y con cierto
cariño (o no) de las particularidades de sus sistemas operativos. Hace poco conocí a una mujer de la
alta sociedad, rica y encantadora, que sabía tanto del sistema operativo del Microsoft que creó una
pequeña empresa que asesoraba a los menos informados. Su tarjeta de visita decía: «Trabajo con
Windows.» El ancho de banda es otro cantar. Este concepto aún no se entiende, y en buena parte
esto es debido a que la fibra óptica está haciendo que pasemos de un ancho de banda modesto a uno
casi infinito sin pasos intermedios. El ancho de banda es la capacidad de pasar información a través
de un canal determinado. Mucha gente se lo imagina como el diámetro de una tubería o el número
de carriles de una autopista.
No obstante, estos paralelismos omiten algunas de las diferencias más sutiles e importantes entre
los medios de transmisión (cobre, fibra, «ondas por el aire»). Pasan por alto nuestra capacidad de
introducir más o menos bits por segundo en la tubería de cobre, de fibra, o de «aire», dependiendo
de cómo diseñemos y modulemos la señal. Sin embargo, en términos generales, podemos definir las
líneas telefónicas de cobre, las conexiones de fibra óptica y el espectro radiofónico de manera que
nos ayuden a entender el movimiento de nuestros ingrávidos bits.
Los cables de cobre del teléfono, conocidos como «par trenzado» porque al principio venían
trenzados como los cables de las viejas lámparas que aún podemos encontrar en algunos de los más
antiguos y lujosos hoteles europeos, se consideran canales de bajo ancho de banda. Sin embargo, en
Estados Unidos existe una red de líneas de teléfono de 60.000 millones de dólares que es capaz de
transportar seis millones de bits por segundo con el módem apropiado. La palabra «módem» deriva
de modulador-demodulador, el proceso de transformar bits en ondas y a la inversa. Un módem
común realiza esta operación a una velocidad de 9.600 bits por segundo o 9.600 baudios. El
«baudio», así llamado por Émile Baudot, creador de la clave Morse del télex, no es técnicamente
igual a un bit por segundo (bps), pero ambos conceptos han llegado a utilizarse indistintamente,
como lo hago yo en este texto.
Los módems más sofisticados pueden operar a 38.400 baudios (100 veces más lentamente que la
capacidad potencial del cable de cobre de la mayoría de hogares norteamericanos). Así que el par
trenzado es como la tortuga en el cuento de la tortuga y la liebre: lento, pero no tanto como se nos
ha hecho creer.
Imaginemos que la fibra tiene una capacidad de transmisión infinita. De hecho, no sabemos
cuántos bits por segundo podemos enviar a través de ésta. Según indican recientes investigaciones
muy pronto podremos enviar un billón de bits por segundo, lo que significa que una fibra del
tamaño de un cabello humano es capaz de transportar en un segundo todos los ejemplares que el
Wall Street Journal ha editado hasta ahora. Una fibra que transportara información a esa velocidad
sería capaz de transmitir un millón de canales de televisión simultáneamente, casi doscientas mil
veces más rápido que el par trenzado. No cabe duda de que se trata de un gran adelanto. Y sólo
estamos hablando de la capacidad de una fibra; si se quiere, se pueden añadir más. Después de todo,
están hechas de arena.
Muchos creen que la capacidad de transmisión del éter (lo que llamamos «ondas por el aire») es
infinita. Después de todo es aire y hay mucho por todas partes. Sin embargo, yo utilizaré la palabra
«éter», y sólo lo haré por motivos históricos. Cuando se descubrieron las ondas de radio, el éter se
consideraba la sustancia misteriosa en la que viajaban las ondas; y fue la búsqueda infructuosa del
éter la que condujo al descubrimiento de los fotones.
Los satélites estacionarios se mantienen en órbita a 35.600 kilómetros de distancia del ecuador
(es decir, que el espacio exterior contiene 141 billones de kilómetros cúbicos de éter). Todo ese éter
tendría que ser capaz de transportar muchos bits sin que chocasen unos con otros. En cierto sentido
es así, ya que existen millones de unidades de control remoto en todo el mundo que utilizan
comunicaciones inalámbricas con aparatos de televisión y similares. Puesto que estas unidades
tienen tan poca potencia, los pocos bits de información que pasan de nuestra mano al televisor no
cambian los canales del televisor del apartamento del vecino o del pueblo de al lado. Pero con los
teléfonos inalámbricos, como sabemos, no sucede así.
Sin embargo, tan pronto como empecemos a utilizar el éter para las telecomunicaciones y las
emisiones de más alta potencia, tendremos que vigilar que las señales no interfieran unas con otras.
Deberemos resignarnos a ocupar secciones predeterminadas del espectro y no podremos utilizar el
éter de forma irresponsable, sino de la manera más eficiente. Podemos fabricar fibra, pero no
podemos fabricar más éter, puesto que ya lo hizo la naturaleza por nosotros hace algunos milenios.
Sin embargo, existen muchas maneras de utilizar el éter con eficiencia. Por ejemplo, reutilizar
partes del espectro construyendo una red de células de transmisión que permita usar las mismas
frecuencias dentro de unos cuantos cuadrantes, o usar partes del espectro que antes se evitaba
utilizar, aunque sólo sea porque esas frecuencias pueden freír a algunos inocentes pajaritos. Pero a
pesar de todos los trucos y estrategias que utilicemos, el ancho de banda disponible en el éter es
escaso en comparación con el que proporciona la fibra y nuestra capacidad ilimitada de producirla.
Por esta razón propuse un intercambio de lugares entre la información que se transmite por cables y
la inalámbrica.
Recuerdo que cuando el senador Bob Kerrey de Nebraska estaba en plena campaña presidencial,
pasó un par de horas en el Media Lab del MIT. Al verme, lo primero que dijo fue: «El interruptor
Negroponte.» Esa idea, que comenté e ilustré por primera vez en una conferencia de Northern
Telecom en la que George Gilder y yo éramos los ponentes, trata simplemente de que la
información que recibimos por tierra (cableado subterráneo) vendrá por el éter en el futuro, y a la
inversa. Es decir, lo que va por el aire irá por tierra y lo que se transmite por tierra se trasladará por
el aire. Yo lo llamé «intercambio de lugares», pero Gilder lo bautizó «el interruptor Negroponte» y
con ese nombre se quedó.
La razón por la que considero necesario este intercambio de lugares es que en la tierra
disponemos de un ancho de banda infinito, pero no en el éter. Poseemos un éter finito y un número
ilimitado de fibras, así que no sólo tenemos que utilizar el éter con inteligencia, sino que debemos
reservar el espectro para comunicarnos con objetos que se mueven y que no pueden pasar por un
cable, ya sean aviones, barcos, coches, portafolios o relojes de pulsera.
LA FIBRA, UNA VÍA NATURAL

Cuando el Muro de Berlín fue derribado hace seis años, el Deutsche Bundespost [correos]
opinaba que hubiera sido mejor haber esperado cinco o siete años más. Era demasiado pronto para
construir una red telefónica que atravesara Alemania Oriental, puesto que los costes eran aún muy
altos.
Hoy día, la fibra es más barata que el cobre, incluso contando el coste de las instalaciones
eléctricas que deben ir en cada extremo de la línea. Si por algún motivo no fuera así, conviene
esperar unos cuantos meses, pues los precios de las conexiones, interruptores y transductores están
bajando a una velocidad sorprendente. En la actualidad, excepto en el caso de líneas de
comunicación muy cortas, de sólo unos metros de largo, o en circunstancias en que no se dispone de
técnicos especializados en instalaciones de fibra, no hay razón para utilizar el cobre en las
telecomunicaciones (sobre todo si se incluye su coste de mantenimiento). En China se utiliza la
fibra, pero por razones muy diferentes puesto que la gente de los pueblos desentierra el cobre de las
líneas para venderlo en el mercado negro.
La única ventaja del cobre respecto de la fibra es su capacidad de proporcionar energía. Este es
un tema delicado para las compañías de teléfonos, que están muy orgullosas de que el teléfono siga
funcionando aunque un huracán provoque un corte de corriente eléctrica. Si el teléfono funcionara
con fibra en lugar de cobre, tendría que recibir energía de la correspondiente compañía eléctrica de
la zona y sería vulnerable a los apagones. Aun cuando se dispusiera de un generador, ésta no sería la
mejor solución, ya que este aparato necesita un mantenimiento especial. Por esta razón, es probable
que acabe apareciendo un producto intermedio: fibra recubierta de cobre o cobre recubierto de fibra.
A pesar de todo, desde la perspectiva de los bits, el cableado del planeta será de fibra.
Un ejemplo de la transición del cobre a la fibra lo constituyen las compañías telefónicas
norteamericanas. Están sustituyendo cobre por fibra a razón de un 5 % cada año, entre otras razones
por su menor coste de mantenimiento. A este ritmo, aunque el incremento no siempre sea uniforme,
dentro de veinte años Estados Unidos podría estar utilizando sólo fibra. El hecho es que en poco
tiempo este país desarrollará una infraestructura de cobertura nacional de un enorme ancho de
banda aunque aún no se sepa cómo utilizarla. Como mínimo, un tendido de fibra proporcionará un
servicio telefónico simple y tradicional, pero de mejor calidad y más seguro.
Ha llevado más de una década corregir el error que cometió el juez Harold Greene en 1983 cuando
prohibió a las RBOC (Compañías Telefónicas Regionales Bell) introducirse en el negocio de la
información y el entretenimiento. Sin embargo, la FCC (Comisión Federal de Comunicaciones) dio
un paso importante cuando el 20 de octubre de 1994 aprobó la llamada «señal de tono de vídeo».
Los abogados de las compañías telefónicas utilizaron un argumento gratuito, pero sirvió para
justificar su introducción en el negocio de la información y el entretenimiento. Alegaron que el
servicio simple y tradicional de teléfonos no era suficiente y que, a menos que se les permitiera
proporcionar información más amplia, no podrían justificar el enorme coste que suponía implantar
una nueva infraestructura (es decir, fibra).
Analicémoslo detenidamente. Las compañías telefónicas siempre han proporcionado
información. De hecho, la mayoría de las RBOC hacen su mayor negocio con las páginas amarillas.
Era aceptado por todos que entregaran esta información en átomos y la lanzaran a través del dintel
de nuestra puerta. Sin embargo, guardar esta información en bits y entregárnosla por vía electrónica
era ilegal. Al menos así lo consideraba el juez Greene.
Por esta razón, los abogados tuvieron que alegar que las compañías de teléfonos necesitaban
participar del negocio de entrega de información electrónica para justificar el coste de instalación de
un tendido de fibra a nivel regional. Su argumentación se basaba en que si no había nuevas fuentes
de ingresos, no habría suficiente incentivo para realizar una inversión tan costosa. El argumento
funcionó y las compañías telefónicas están introduciéndose en el mercado de la información y el
entretenimiento y aumentando su tendido de fibra.
Creo que el resultado es positivo porque beneficiará al consumidor, pero mantengo que el
argumento es gratuito. Si las compañías de teléfonos quieren, pueden caer en la trampa de creer en
sus propios engaños, aunque sirvan para rebatir leyes absurdas, pero nosotros sabemos que no
necesitamos esos enormes anchos de banda para obtener la mayoría de los servicios de información
y entretenimiento. De hecho, un ancho de banda más modesto, de 1,2 a 6,0 millones de bps, ofrece
suficiente capacidad para transportar casi todos los multimedia que existen hoy día. Ni siquiera
hemos empezado a entender y a explotar el potencial creativo de un ancho de banda semejante
porque la verdad es que, durante los diez años que los abogados y los ejecutivos estuvieron
presionando al juez Greene, se olvidaron de estudiar el potencial de la enorme infraestructura que
ya existía: el par trenzado.
Pocos se dan cuenta de las ventajas de las líneas telefónicas de cobre. Una técnica llamada
ADSL (bucle suscriptor digital asimétrico) permite desplazar gran cantidad de información a través
de líneas de cobre relativamente cortas. El ADSL-1 puede introducir 1,544 millones de bps y recibir
64.000 bps en el 75 % de hogares americanos y en el 80 % de hogares canadienses. El ADSL-2
trabaja a una velocidad de más de 3 millones de bps, y el ADSL-3 a más de 6 millones de bps. El
ADSL-1 es suficiente para transmitir señales de vídeo con calidad VHS.
Ésta no es una solución a largo plazo para hacer llegar los multimedia a los hogares, pero es
curioso que se haya ignorado por completo. Se dice que la causa es el alto coste que representa para
el abonado. Pero el coste es consecuencia del reducido consumo. Y aunque el coste fuera
temporalmente alto, como 1.000 dólares por casa, se podría cobrar como cuota. Estoy convencido
de que muchos norteamericanos estarían dispuestos a pagar una parte o la totalidad de los 1.000
dólares en un período de tres o cuatro años si los servicios ofrecidos fueran atractivos, es decir que
participarían del gasto inicial. En resumen, aunque el futuro sea la fibra, aún hay mucho por hacer y
aprender con el tendido de cobre que existe actualmente.
De todas formas, el desconocimiento de la importancia coyuntural del cobre es enorme. Se está
creando una industria de necesidad inmediata y de abastecimiento de fibra para anchos de banda
ilimitados sólo para mantener el liderazgo de las compañías telefónicas en el mercado. Pero éstas no
se dan cuenta de que serán la madre naturaleza y los intereses comerciales, más que los incentivos
artificiales, los que se encargarán de introducir la fibra de manera natural. Los expertos en ancho de
banda están olfateando, como animales en celo, todas las oportunidades que se les presentan a nivel
político para instalar las redes de elevado ancho de banda, como si éstas fuesen una necesidad
nacional o un derecho civil. De hecho, el ancho de banda ilimitado puede tener el efecto negativo y
paradójico de inundar de bits a las personas y desaprovechar las máquinas. El ancho de banda
ilimitado no es malo, pero como la libertad sexual, tampoco es necesariamente bueno. Yo me
planteo si de verdad queremos o necesitamos todos esos bits.

MENOS ES MÁS

Esta frase del arquitecto Mies van der Rohe adquiere sentido en las numerosas lecciones que he
aprendido acerca de la cantidad de información que es necesario transmitir y los medios a través de
los cuales se transmite. Puede aplicarse a cualquier nuevo instrumento que vaya a utilizar un
principiante, pero los principiantes no entienden este principio.
Tomemos como ejemplo la cámara de vídeo del aficionado. Las primeras veces hacemos
muchos zooms y panorámicas porque nos entusiasma el grado de libertad que la cámara nos
proporciona y que acabamos de descubrir. Sin embargo, el resultado es bastante penoso; incluso la
familia encuentra aburridas estas tomas. Más adelante, con el tiempo y gracias a la experiencia
adquirida, aprendemos a utilizar esta libertad con inteligencia y moderación.
Del mismo modo, el exceso de libertad también es nocivo para el manejo de las opciones de
salida del disco duro del ordenador a la impresora láser. La capacidad de cambiar el tipo, estilo y
cuerpo de la letra es una tentación que contamina muchos documentos de universidades y empresas,
en los que se mezclan de manera arbitraria todos los estilos y tamaños: negritas, cursivas,
sombreados. Se necesitan ciertos conocimientos de tipografía para darse cuenta de que es
aconsejable mantener el mismo tipo de letra en un documento, y que el cambio de tamaño debe
hacerse con moderación. También en este caso menos puede ser más.
Lo mismo sucede con el ancho de banda. Existe la idea equivocada de que tenemos que utilizar
un elevado ancho de banda sólo porque disponemos de él. Sin embargo, existen algunas leyes
naturales respecto al uso del ancho de banda que demuestran que enviar más bits de los necesarios
es tan absurdo como subir el volumen del receptor de radio para obtener más información.
Por ejemplo, en 1995, 1,2 millones de bps nos permiten acceder al vídeo con calidad VHS.
Basta duplicarlo o triplicarlo para obtener una televisión de mejor calidad. Y es difícil encontrar un
uso para más de seis millones de bps por persona que proporcione servicios muy nuevos e
imaginativos, si es que éstos existen.
Así que los nuevos servicios de información y entretenimiento no nos los proporcionará la fibra
sino la imaginación.

LA COMPRESIÓN DE 100.000 BITS EN 1

La relación entre el ancho de banda y la informática es muy sutil. Hoy día, la interacción entre
uno y otra se manifiesta en los videoteléfonos y otros sistemas más caros de comunicación por
vídeo, como las videoconferencias. Puesto que existe actividad informática en ambos extremos de
la línea, es posible enviar bits de un lado a otro y viceversa. Si se invierte un poco de dinero en el
procesamiento del vídeo digital en cada extremo, a través de la compresión y la descompresión, se
utiliza menos capacidad de canal y se ahorra dinero en la transmisión.
El vídeo digital, en general, es un ejemplo de compresión de la información en la que no se tiene
en cuenta el contenido de ésta. Se utilizan las mismas técnicas codificadoras para un juego de la
Liga Americana de Fútbol, una entrevista al estilo de Ted Koppel y una persecución a lo James
Bond. Pero no es necesario ser técnico en informática para adivinar que cada uno de esos programas
posee una manera diferente de comprimir la información y, si se tiene en cuenta el contenido de
cada uno de ellos, esta información se puede comprimir de una u otra manera. Tomemos como
ejemplo el siguiente discurso entre seres humanos.
Imaginemos a seis personas muy animadas cenando alrededor de una mesa enfrascadas en una
discusión acerca de alguien que no está presente. En un momento de la charla sobre el señor X, yo
miro a mi esposa y le guiño el ojo. Después de la cena alguien se acerca y me dice:
—Nicholas, te vi guiñarle el ojo a Elaine. ¿Qué le has dicho?
Le cuento que hace un par de noches estuvimos cenando con el señor X, cuando explicó que, a
diferencia de________, él estaba_________, aunque la gente pensara___________, pero lo que
había decidido era______________, etc. O sea, 100.000 bits más tarde le acabo de contar lo que le
dije a mi esposa con un solo bit (pido disculpas por asumir que un guiño es el equivalente de un bit
en el éter).
Lo que sucede es que el transmisor (yo) y el receptor (Elaine) compartimos cierta información,
lo cual nos permite comunicarnos por señas. En este ejemplo, yo disparo un bit en el éter y éste se
expande en su cabeza, desencadenando mucha más información. Cuando alguien me pregunta lo
que he dicho, me veo forzado a proporcionarle los 100.000 bits: pierdo la compresión de
información de 100.000 a 1.
Cuentan que una pareja sabía de memoria cientos de chistes verdes y sólo tenían que decirse el
número del que se querían contar para recordarlo. La mención del dígito hacía surgir todo el chiste
y ambos empezaban a reír sin parar. Un uso más prosaico de este método de compresión de
información en los ordenadores es numerar palabras muy largas de uso frecuente y enviar unos
pocos bits en vez de tantas letras. Estas técnicas serán cada vez más frecuentes en el uso del ancho
de banda cuando intercambiemos conceptos generales. La condensación de la información supone
un doble ahorro: de gastos de traslado de bits y de tiempo.

LA ECONOMÍA DE MERCADO

Con las actuales tarifas por llamada telefónica, pagaría 100.000 veces más si tuviera que
mandarle a usted mi relato sobre el señor X que si se lo enviara a Elaine. Las empresas de
telecomunicaciones no obtienen ninguna ganancia del transporte de unos pocos bits, y el modelo
tarifario actual de las compañías de teléfonos se sustenta en el cobro por segundo o por bit, sin tener
en cuenta el contenido del mismo.
Para entender la economía del ancho de banda hay que preguntarse si algunos bits valen más
que otros. Sin duda, la respuesta es afirmativa. Pero inmediatamente surge una cuestión más
compleja: ¿Debería variar el valor del bit no sólo según su naturaleza (por ejemplo, un bit de cine,
un bit de una charla, un bit musical, etc.) sino también según quién lo utilice, o del momento y del
modo que lo use?
La mayoría de personas, incluso las del National Geographic, estaría de acuerdo en que un niño
de seis años que deseara utilizar su archivo de fotos para hacer sus deberes debería tener acceso
gratuito, o casi, a esos bits. En cambio, si yo quisiera aprovecharlo para ilustrar un artículo o para
preparar un documento de negocios, debería pagar un precio proporcional, o tal vez un cargo
adicional para subvencionar a ese niño. En este caso, los bits no sólo tendrían un valor diferente,
sino que ese valor variaría según quién y de qué modo los utilizara. De pronto tendríamos bits
sociales, bits de minorías, bits de minusválidos... El Congreso tendrá que ser muy creativo para
idear un marco legal que proporcione un sistema equitativo.
Sin embargo, el distinto precio de los bits no es una idea nueva. Yo tengo una cuenta con Dow
Jones que utilizo para realizar mis transacciones en la Bolsa y que me proporciona información
bursátil con un retraso de quince minutos. Si quiero obtener la información inmediatamente, como
hace mi tío de ochenta y seis años que es corredor de bolsa, tengo que pagarle una prima
considerable a Dow Jones, o a mi tío. Éste es el equivalente moderno de la diferencia de precio
entre el correo aéreo y el terrestre: los bits que llegan por avión y aquellos que llegan por tren.
En el caso de la información en tiempo real, los requerimientos del ancho de banda los
determina el canal del discurso. Si mantengo una conversación telefónica con alguien, no tiene
sentido gritar para hacer que mi voz le llegue más deprisa de lo que hablo. Y, por supuesto, hablar
más despacio o con pausas resulta inútil, además de intolerable. Incluso el cuarto de segundo de
retraso en las conexiones telefónicas vía satélite molesta a la mayoría de personas.
Pero si grabo el mensaje en una cinta, y para transmitirlo voy a pagar por minuto, seguro que
querré introducir el máximo número posible de bits por segundo. Éste es el punto de vista de los
usuarios de módems que establecen comunicación de un lado a otro del país para introducir
información en sus ordenadores portátiles o enviar la suya a otras partes. Hace pocos años, una
velocidad de 2.400 baudios era considerada buena. Ahora lo normal son 38.400 bps, lo cual ha
provocado que para transmitir la misma información, el coste de las tarifas telefónicas se haya
reducido un 94 %.
Por fortuna para las compañías de teléfonos, más del 50 % del tráfico telefónico que atraviesa el
Pacífico, y el 30 % del Atlántico, es información de fax que se transmite a una velocidad de 9.600
bps, en lugar de los 64.000 bps, que también se pueden utilizar.
ESTRELLAS Y BUCLES

La cuestión no es sólo el ancho de banda de los canales, sino también su configuración. El


sistema telefónico es, en términos muy simples, una red en «estrella», cuyas líneas irradian hacia
diferentes puntos, como las avenidas de Washington o los bulevares de París. Es como si hubiese
una pista entre nuestra casa y la centralita telefónica más cercana. Si uno quisiera, podría seguir ese
par trenzado hasta la central de su compañía de teléfonos.
Por el contrario, la televisión por cable emerge de un bucle, como las luces en los árboles de
Navidad, y pasa de casa en casa. Estas redes, estrellas y bucles, tomaron su forma, respectivamente,
del pequeño ancho de banda del par trenzado y del mayor ancho de banda del cable coaxial. En el
primer caso, cada hogar dispone de una línea de bajo ancho de banda. En el segundo, un gran
número de hogares comparten el servicio de un ancho de banda mayor.
La configuración de las estrellas y los bucles depende de la naturaleza del contenido de las
comunicaciones. En el caso de la red telefónica, cada conversación es diferente, y los bits que van a
una casa no tienen absolutamente nada que ver con los demás. Se trata de un sistema que opera en
un diámetro muy extenso. En el caso de la televisión, los vecinos comparten el contenido de la
programación y era lógico adoptar el enfoque del árbol navideño, un sistema que tiene su origen en
un punto y se dirige hacia múltiples puntos. El sentido común de los operadores de televisión por
cable consistió en copiar la emisión terrestre, tal como la conocemos, pero trasladándola del éter a
sus cables.
Sin embargo, el futuro de la emisión televisiva está cambiando de manera radical; pronto ya no
nos conformaremos con recibir la misma selección que nuestro vecino o con ver algún programa a
una hora específica. Por esta razón, las empresas de televisión por cable piensan cada vez más como
las compañías de teléfonos: muchos interruptores (o centralitas) y muchas pistas. De hecho, puede
que dentro de veinticinco años no exista ninguna diferencia entre el cable y el teléfono, no sólo en
términos corporativos sino en el sentido de la configuración de redes.
En el futuro, la mayor parte del cableado será de tipo radial (estrellas).
Los bucles sólo se utilizarán en áreas muy pequeñas o en emisiones inalámbricas, en las que en
teoría el canal de distribución pasa por todas las casas a la vez. En GM Hughes Electronics están
orgullosos del sistema de televisión en directo vía satélite al que llaman «tubo doblado», y explican
cómo su emisión en directo vía satélite es un sistema de cable que pasa por todas las casas de
Estados Unidos. Y es cierto. En este instante, en Estados Unidos, están lloviendo sobre cada
ciudadano mil millones de bps, a menos que uno esté protegido bajo un paraguas de plomo.

EMPAQUETAR BITS

Muchas personas que han empezado a ser digitales imaginan que el ancho de banda es como la
fontanería. Pensar en los bits como átomos nos conduce a imaginar tuberías grandes y pequeñas,
grifos y bocas de riego. Con frecuencia se dice que la utilización de fibra es como beber agua de
una manguera. La comparación es constructiva pero engañosa. El agua fluye o no fluye; se puede
regular la salida de agua de una manguera abriendo o cerrando el grifo. Pero a pesar de que el flujo
pueda reducirse a un chorro pequeño, los átomos de agua se mueven en grupo, todos juntos.
Sin embargo, los bits se comportan de forma diferente. Un telesquí es una comparación más
apropiada. El telesquí se mueve a una velocidad constante, independientemente de si sube a él más
o menos gente. De la misma manera, introducimos bits en un paquete y luego lo mandamos por una
tubería capaz de transportarlo a una velocidad de millones de bits por segundo. Ahora bien, si
enviamos un paquete de 10 bits cada segundo por una tubería rápida, 10 bps será nuestro ancho de
banda efectivo, no la velocidad de la tubería.
Aunque parezca un desperdicio, de hecho es un concepto inteligente, porque otras personas
también están enviando paquetes por la misma tubería: éste es el sistema en que se basan Internet y
ATM (el modo de transmisión asíncrona, que todas las redes telefónicas utilizarán en un futuro
próximo). En lugar de instalar toda una línea telefónica, que es lo que hacemos ahora para la voz,
los paquetes se colocan a la cola, con nombres y direcciones para saber cuándo y dónde deben bajar
del telesilla. Y cada uno paga por paquete enviado, no por minutos de transmisión.
Otra manera de entender el empaquetado del ancho de banda es pensar que la mejor manera de
utilizar mil millones de bits por segundo es usar mil bits en una millonésima de segundo, un millón
de bits en una milésima de segundo y así sucesivamente. Por ejemplo, en el caso de la televisión,
sería como recibir una hora de vídeo en unos cuantos segundos, al revés que en el ejemplo del grifo.
Las empresas de televisión por cable, en lugar de entregar mil programas idénticos a todos,
decidirían que sería mejor entregar un programa a cada persona en una milésima del tiempo real.
Esto cambiaría por completo nuestra concepción de la emisión de los media: la emisión de la
mayoría de bits no tendrá nada que ver con la velocidad a la que los consumamos.
EMISIÓN DE BITS

¿QUÉ PASA CON ESA IMAGEN?

C
uando usted mira la televisión, ¿se queja de la resolución de la imagen, la forma de la pantalla o la
calidad del movimiento? Quizá no. Si se queja de algo, casi seguro que es de la programación.
Como dice Bruce Springsteen, «cincuenta y siete canales y nada dentro». Sin embargo, casi todas
las investigaciones sobre el futuro de la televisión apuntan precisamente a la redefinición de la
presentación y no a lo artístico del contenido.
En 1972 unos cuantos japoneses analizaron y discutieron el tema, en un intento por averiguar
cuál podría ser el próximo paso evolutivo de la televisión, llegaron a la conclusión de que
consistiría en una mayor resolución de la imagen, puesto que al cambio de blanco y negro a color
seguiría una televisión con calidad cinematográfica, o sea la llamada HDTV (televisión de alta
definición). En un mundo analógico era la manera lógica de mejorar la televisión, y a eso se
dedicaron los japoneses durante los catorce años siguientes. Lo llamaron Hi-Vision.
En 1986, en Europa sonó la alarma ante la perspectiva del dominio japonés en el futuro mercado
televisivo. Peor aún, Estados Unidos había aceptado la Hi-Vision y se había asociado con los
japoneses para hacer de ésta una norma mundial. Muchos defensores actuales de la televisión de
alta definición y la mayor parte de los neonacionalistas norteamericanos «olvidan» oportunamente
que fue una equivocación respaldar un sistema analógico japonés. Pero como medida
proteccionista, los europeos rechazaron la Hi-Vision, y nos hicieron un gran favor, aunque por
razones equivocadas. A continuación procedieron a desarrollar su propio sistema de televisión de
alta definición analógica (HD-MAC), que en mi opinión era un poco peor que la Hi-Vision.
Poco después, Estados Unidos se despertó y atacó el problema de la televisión de alta definición
con la misma negligencia analógica que el resto del mundo, convirtiéndose en el tercero en
discordia pero coincidiendo con los demás en que el futuro de la televisión debía plantearse como
un problema de calidad de imagen y nada más. Peor aún, se abordó este problema con técnicas
analógicas obsoletas. Todo el mundo estuvo de acuerdo en que aumentar la calidad de la imagen era
el camino correcto que había que seguir, pero desgraciadamente, ésta no es la cuestión.
No hay constancia de que los consumidores prefieran una mejor calidad de imagen antes que un
mejor contenido de la programación. A esto hay que añadir que las soluciones propuestas hasta
ahora por la televisión de alta definición no garantizan una mejora perceptible de la imagen si la
comparamos con la televisión con calidad de estudio disponible hoy día, aunque usted quizá no la
haya visto nunca, ni conozca su alto grado de calidad. Con el nivel actual de definición, la televisión
de alta definición es una tontería.
LOS ÚLTIMOS SERÁN LOS PRIMEROS

En 1990, como era de suponer, Japón, Europa y Estados Unidos iban en direcciones
completamente diferentes en lo que respecta al futuro de la televisión. Japón había invertido dinero
y esfuerzos en la televisión de alta definición durante dieciocho años, exactamente el mismo
período de tiempo que tardaron los europeos en ver cómo la industria de los ordenadores escapaba
de su control, y estaban decididos a que no ocurriera lo mismo con la televisión. Estados Unidos,
que casi no tenía industria televisiva, pensó que la televisión de alta definición era su gran baza para
reintroducirse en el mercado de electrodomésticos (que habían abandonado tiempo atrás compañías
cortas de miras como Westinghouse, RCA y Ampex).
Cuando Estados Unidos aceptó el reto de mejorar la tecnología de la televisión, la compresión
digital aún estaba en pañales. Por otra parte, los protagonistas, es decir los fabricantes de equipos de
televisión, eran precisamente los intérpretes equivocados. A diferencia de algunas empresas jóvenes
como Apple y Sun Microsystems, las empresas de tecnología de televisión eran asilos del
pensamiento analógico donde todo el mundo creía que la televisión consistía en imágenes, no en
bits.
Pero poco después del despertar norteamericano, en 1991, de la noche a la mañana todos se
convirtieron en defensores acérrimos de la televisión digital, siguiendo el liderazgo de la General
Instrument Corporation. En menos de seis meses, todos los proyectos norteamericanos de televisión
de alta definición cambiaron del sistema analógico al digital. Era bastante evidente que la señal
digital podía ser procesada con unos costes razonables, aunque esta idea todavía fue rechazada por
Europa hasta febrero de 1993.
En septiembre de 1991, me dirigí a varios miembros del equipo del presidente François
Mitterrand durante un almuerzo. Tal vez porque yo hablo francés sólo como segunda lengua no
pude convencerles de que mi intención no era que abandonaran su «liderazgo», como ellos decían,
sino salvarles de estar «con el agua hasta el cuello», pues tal era mi parecer.
En mi entrevista con el primer ministro japonés, Kiichi Miyazawa, en 1992, éste se sorprendió
mucho cuando le dije que la Hi-Vision era obsoleta. Margaret Thatcher, sin embargo, me escuchó.
Por fin, a finales de 1992, la valiente oposición de John Major invirtió el sentido de la marcha, al
vetar una subvención de 600 millones de ecus (800 millones de dólares) para el programa de la
televisión de alta definición. La Unión Europea, que entonces se llamaba Comunidad Europea,
decidió por fin, a principios de 1993, abandonar la televisión de alta definición analógica a cambio
de un futuro digital.
Los japoneses también saben muy bien que la televisión digital es el futuro. Cuando Akimasa
Egawa, el desafortunado director general del Departamento de Correos y Telecomunicaciones,
sugirió, en febrero de 1994, que Japón se sumara al mundo digital, los líderes de la industria nipona
pusieron el grito en el cielo y lo obligaron a retractarse. Japón había gastado demasiado dinero
público en la televisión de alta definición, y no era cuestión de hacer pública de manera tan evidente
la reducción de las pérdidas.
Recuerdo muy bien un debate televisado en aquella época con los presidentes de las principales
empresas de electrónica en el que todos aseguraban que estaban a favor de la vieja y querida
televisión de alta definición, lo que implicaba que al ministro diputado le faltaba un tornillo. Yo no
tuve otra opción que comerme mi digital lengua porque los conocía personalmente, les había oído
decir todo lo contrario y había visto sus respectivos esfuerzos por introducir la televisión digital en
su país. No hay nada como saber nadar y guardar la ropa.

TECNOLOGÍA CORRECTA, PROBLEMAS EQUIVOCADOS


La buena noticia es que en Estados Unidos se está aplicando la tecnología correcta, es decir la
digital, al futuro de la televisión. La mala noticia es que todavía se abordan de manera irresponsable
los problemas equivocados, los de calidad de la imagen como la resolución, velocidad de
fotograma, y la forma de la pantalla (la llamada «relación altura-anchura»). Y lo que es peor, se
intenta decidir de una vez por todas, con unos números muy específicos para cada una de estas
variables y legislarlas como constantes. Sin embargo, el gran regalo del mundo digital es que no hay
por qué hacer esto.
Incluso el mundo analógico se está volviendo menos encorsetado. Cualquiera que haya viajado a
Europa recuerda el terrible problema que representaban los transformadores que adaptan los
aparatos de 220 a 110 voltios. La historia cuenta que Don Estridge, el ejecutivo de IBM a quien se
atribuye el IBM PC, estaba en el aparcamiento de la compañía en Boca Ratón, Florida, cuando tuvo
la ocurrencia de que el PC funcionara indistintamente con corriente de 110 y 220 voltios. El
encargo aparentemente extravagante se realizó enseguida y hoy día casi todos los ordenadores
personales pueden conectarse a una gran variedad de tomas de corriente.
Digamos que la petición de Estridge se cumplió, que se puso esa inteligencia en la máquina y el
enchufe se encarga de hacer lo que antes tenían que hacer los humanos. Pues bien, ahora es el turno
de los fabricantes de televisores.
Cada vez más a menudo se fabrican sistemas capaces de adaptarse, no sólo a 110 y 220 voltios o
60 y 50 hertzios, sino al número de líneas de barrido, la velocidad de fotograma y la relación altura-
anchura. Lo mismo pasa con los módems, que tienen un gran margen de diálogo previo para
ajustarse al mejor protocolo de comunicación y también sucede esto con el correo electrónico, en el
que los sistemas usan, con mayor o menor éxito, una amplia variedad de protocolos para transmitir
mensajes entre máquinas distintas.
Ser digital es poder crecer. Ya de entrada, no tenemos por qué poner todos los puntos sobre las
íes. Podemos construir enlaces para futuras expansiones y desarrollar protocolos de modo que unas
cadenas de bits puedan informar a las demás sobre sí mismas. Los sabios de la televisión digital han
ignorado esta posibilidad. No sólo están trabajando en el problema equivocado, la alta definición,
sino que además están tomando todas las otras variables y tratándolas como si el problema fuera los
110 voltios de un secador de pelo.
Las discusiones sobre «entrelazado» son un ejemplo perfecto. La televisión emite 30 fotogramas
por segundo. Cada fotograma se compone de dos campos, y cada uno de ellos cuenta con la mitad
de las líneas de barrido, las pares y las impares. Sin embargo, un fotograma de vídeo se compone de
dos campos separados en el espacio por una línea de barrido y separados en el tiempo por la
sesentava parte de un segundo. Cuando miramos la televisión, estamos viendo 60 campos por
segundo «entrelazados» para que el movimiento sea uniforme, pero cada campo tiene sólo la mitad
de la imagen. El resultado es que percibimos movimiento con buena calidad y vemos objetos fijos
con claridad con sólo la mitad del ancho de banda: una idea genial para la emisión televisiva
analógica si se dispone, como así sucede realmente, del ancho de banda necesario.
Pero el dilema se plantea con la presentación de la televisión en el ordenador, en el que el
entrelazado es absurdo y perjudicial para mover las imágenes. La presentación en el ordenador ha
de ser más precisa (con mayor resolución y más visibilidad desde mucho más cerca), y el
movimiento juega un papel muy distinto en las pantallas de ordenador, que miramos desde una
distancia mucho más corta. Basta con decir que el entrelazado no tiene futuro en los ordenadores y
es un completo anatema para los ingenieros de ordenadores.
De todas formas, el entrelazado morirá de muerte natural, y, por tanto, hacer una ley contra éste
sería adoptar una actitud demasiado conservadora. El mundo digital es más flexible que el
analógico porque las señales pueden incorporar toda clase de información adicional sobre sí
mismas.
Los ordenadores pueden procesar y reprocesar señales, añadir y quitar entrelazado, cambiar la
velocidad del fotograma y modificar la relación altura-anchura hasta casar la forma rectangular de
una señal concreta con el formato de una pantalla determinada. Por consiguiente, no es necesario
apoyar ninguna norma arbitraria, aunque sólo sea porque lo que hoy parece razonable mañana se
demostrará que no lo es.

TAN ADAPTABLE COMO


LA CONSTITUCIÓN AMERICANA

El mundo digital es en esencia ampliable. Puede crecer y cambiar de una manera más orgánica y
continua que los anteriores sistemas analógicos. Cuando decidimos cambiar un aparato de
televisión, tiramos uno y compramos otro completamente nuevo. En cambio, si tenemos un
ordenador, podemos añadirle características, hardware y software en lugar de cambiarlo todo por el
modelo superior. De hecho, la expresión «modelo superior» posee una connotación digital. Cada
vez nos resulta más natural adaptar sistemas de ordenador para mejorar la pantalla, instalar una
tarjeta de sonido más potente y poder confiar en que nuestro software trabaje mejor. ¿Por qué la
televisión no es así?
Pronto lo será. Hoy día estamos casados con tres normas de televisión analógica. En Estados
Unidos y Japón se usa NTSC (que responde a Comisión Nacional para los Sistemas de Televisión,
aunque los europeos dicen que significa «Nunca el mismo color»). PAL (Línea de Fase Alterna)
domina en Europa y equivale en Francia a SECAM (Color Secuencial con Memoria); los
norteamericanos dicen que en realidad quiere decir «Sistema Esencialmente Contrario a América».
El resto del mundo los adopta de buen grado o a la fuerza y usa alguno de los tres en estado puro o
impuro, siguiendo la misma lógica que tendría la elección nacional de una segunda lengua.
Sin embargo, ser digitales nos permite independizarnos de normas restrictivas. Si nuestra
televisión no habla un dialecto en particular, siempre podemos ir a la tienda de informática y
comprar un decodificador digital, de la misma manera que hoy compramos programas para un PC.
Si la resolución es una variable importante, la solución consistirá en construir un sistema adaptable,
no uno que esté fijado al número de líneas de barrido que hoy vemos habitualmente. Se oye hablar
de 1.125 o 1.250 líneas de barrido y no hay ninguna magia en esas cifras. Sólo se acercan al
máximo que podemos ver hoy con un tubo de rayos catódicos (CRT). En realidad, la forma en que
los ingenieros de televisión consideraron las líneas de barrido en el pasado ya no es operativa en la
actualidad.
En los tiempos antiguos, a medida que los aparatos de televisión se hacían más grandes, los
espectadores se iban alejando de ellos, hasta llegar al proverbial sofá. En proporción, el número de
líneas de barrido por milímetro que llegaban a la pupila del espectador siempre era más o menos
constante.
Luego, alrededor de 1980, hubo un cambio repentino y la gente dejó el sofá para ir al escritorio
y desde allí tener una experiencia de visión en 18 pulgadas. Esto supuso un cambio total, porque ya
no se podía seguir pensando en líneas de barrido por imagen (como siempre se ha hecho con los
equipos de televisión), sino en líneas de barrido por pulgada, tal como hacemos con el papel o con
las pantallas de los ordenadores modernos. En cuanto a estos últimos, el Centro de Investigación de
Palo Alto de la Xerox Corporation, PARC, tuvo el mérito de ser el primero en pensar en términos
de líneas por pulgada. Una pantalla más grande necesita más líneas, así que el día que podamos
ensamblar juntas pantallas de superficie plana, tendremos la capacidad de mostrar imágenes con
diez mil líneas de resolución. Por tanto, limitar ahora nuestro pensamiento a mil sería tener poca
visión de futuro.
Pero para que el día de mañana sea posible hacer llegar de forma masiva la alta resolución, se
debe hacer el sistema adaptable ahora, y esto es exactamente lo que ninguno de los actuales
defensores de sistemas de televisión digital proponen por el momento. Es realmente increíble.
LA TELEVISIÓN COMO PUESTO DE PEAJE

Todos los fabricantes de hardware y software para ordenadores cortejan a la industria del cable,
lo que no es sorprendente si consideramos que la cadena de televisión por cable ESPN tiene más de
60 millones de abonados. Microsoft, Silicon Graphics, Intel, IBM, Apple, DEC, y Hewlett-Packard
han firmado importantes contratos con la industria del cable.
La causa de esta conmoción es el adaptador, que hasta ahora ha sido poco más que un
sintonizador, pero está destinado a ser mucho más. A la velocidad en que suceden las cosas, pronto
tendremos tantos tipos de adaptadores como ahora mandos a distancia (uno para cable, otro para
satélite, otro para el par trenzado, otro para cada transmisión de UFV, etc.). Esta combinación de
adaptadores incompatibles resulta una pesadilla.
Por ello, el interés de este adaptador reside en su potencial función como puerta de acceso a
través de la cual el «proveedor» del adaptador y su interfaz pueden convertirse en guardabarreras de
ordenación y hacernos pagar elevadas sumas de dinero por la información que pasa a través de este
peaje y llega a nuestras casas. Aunque parece un negocio redondo para las empresas implicadas, no
está nada claro que esto sea de interés público. Es más, un adaptador en sí mismo es torpe
técnicamente y supone un enfoque equivocado de la cuestión. En vez de esto, deberíamos ampliar
nuestras miras, proyectar el diseño de ordenadores de uso general y limitar los diseños patentados.
En teoría, se malinterpreta el significado de la palabra «adaptador». En la actualidad, el apetito
insaciable de ancho de banda hace que la televisión por cable ocupe en Estados Unidos el primer
lugar como banda de emisión proveedora de servicios de información y entretenimiento. Los
servicios por cable incluyen hoy día el suministro de adaptadores, porque no todos los televisores
están preparados para recibir señales por cable. Debido a la enorme profusión y aceptación que este
adaptador ha tenido, la idea es sencillamente ampliarlo dotándolo de funciones adicionales.
¿Qué hay de malo en este plan? La respuesta es muy sencilla. Incluso los ingenieros de emisión
más conservadores están de acuerdo en que pronto la diferencia entre un televisor y un ordenador se
reducirá a una cuestión de periféricos y a la habitación de la casa en que se encuentren. Sin
embargo, la cuestión es que por un lado están los impulsos monopolizadores de la industria del
cable y por el otro un incremento en la capacidad del adaptador para controlar hasta mil programas,
cuando realmente 999 de los cuales no se están viendo, por definición, en un momento dado. El
lucrativo deporte de la industria de la televisión digital ha eliminado al ordenador en el primer
asalto.
Pero el ordenador se rehará y ganará el combate.

LA TELEVISIÓN COMO ORDENADOR

Me encanta preguntar a distintas personas si se acuerdan del libro de Tracy Kidder El alma de
una nueva máquina. Si me responden afirmativamente, entonces les pregunto si recuerdan el
nombre de la empresa de ordenadores en cuestión, y es curioso, pero todavía no he conocido a nadie
que se acuerde. Data General (era ésta), Wang y Prime, que una vez fueron empresas importantes y
de altos vuelos, despreciaban los sistemas abiertos. Recuerdo que asistí a reuniones con personas
que defendían que los sistemas patentados por un propietario serían mucho más competitivos. Su
argumentación se basaba en que sise pudiera crear un sistema que fuese a la vez popular y
exclusivo, se eliminaría la competencia. A simple vista parece lógico, pero es totalmente falso y,
por eso mismo, Prime ya no existe y las otras dos empresas, como tantas otras, son la sombra de lo
que fueron. Y por los mismos motivos, también Apple está cambiando ahora su estrategia.
«Sistemas abiertos» es un concepto vital, que ejerce el papel dominante en nuestra economía y
desafía a la vez a los sistemas de propietario y. a los grandes monopolios. Y está ganando la batalla.
En un sistema abierto, se compite con la imaginación, no con una llave y una cerradura. Como
resultado de esto, se crean un gran número de empresas competitivas y el consumidor puede elegir
entre una mayor variedad. Además, el sector comercial se muestra más ágil todavía, y es capaz de
provocar cambios y de crecer rápidamente. Un sistema abierto de verdad es de dominio público y
asequible a la mayoría, como unos sólidos cimientos sobre los que todos podemos construir.
El desarrollo y aumento de los ordenadores personales ocurre tan deprisa que la futura televisión
de arquitectura abierta es el PC, y no hay vuelta de hoja. El aparato receptor será como una tarjeta
de crédito que al introducirla en nuestro PC lo convertirá en una puerta electrónica para la recepción
de información y entretenimiento por cable, teléfono o satélite. En otras palabras, no existirá una
industria de aparatos de televisión en el futuro, sino sólo fábricas de ordenadores, es decir, pantallas
alimentadas con toneladas de memoria y un enorme poder de procesamiento. Algunos de esos
productos informáticos serán más adecuados para proporcionar una experiencia visual de tres
metros de pantalla que de 18 pulgadas, más grupal que individual. Pero aun así, seguirá siendo un
ordenador.
La cuestión radica en que los ordenadores son cada vez más aptos para tratar la señal de vídeo,
poseen más equipamiento para procesar y mostrar imágenes, como si se tratara de un tipo estándar
de información. Y esto ocurre a una velocidad tal que el ordenador personal eclipsará el lentísimo
desarrollo de la televisión, aunque ésta sea digital.
El ritmo de evolución de la televisión de alta definición se ha sincronizado con la celebración de
los Juegos Olímpicos, en parte para conseguir resonancia internacional y también para que se vea
bajo uno de sus focos más favorables: los espectáculos deportivos, aunque, por ejemplo, el disco del
hockey sobre hielo casi no puede apreciarse en una televisión normal. Japón aprovechó los Juegos
Olímpicos de Seúl, en 1988, para lanzar la Hi-Vision, y los europeos presentaron el HD-MAC en
los Juegos Olímpicos de Invierno de Albertville, en 1992 (y lo abandonaron en menos de un año).
Los representantes norteamericanos de la televisión de alta definición han propuesto
concretamente introducir su nuevo sistema digital, de arquitectura cerrada, de televisión de alta
definición durante los Juegos Olímpicos de Atlanta, que se celebrarán en el verano de 1996. Para
entonces será muy tarde y la televisión de alta definición se habrá malogrado. En 1996, a nadie le
importará, y no menos de 20 millones de norteamericanos podrán ver la NBC en una ventana de la
esquina superior derecha de la pantalla de su ordenador personal. Intel y CNN anunciaron que
comercializarían conjuntamente este servicio en octubre de 1994.

EL NEGOCIO DE LA EMISIÓN DE BITS

La clave del futuro de la televisión es dejar de pensar en ella como tal, y concebirla en términos
de bits. Las películas no son más que un caso particular de emisión de cierto tipo de información.
Los bits son bits.
En el futuro, las noticias de las seis no sólo se emitirán cuando así lo decidamos, sino que
también se editarán para nosotros y podremos acceder a ellas de manera aleatoria. Cuando
queramos ver una película antigua de Humphrey Bogart a las ocho de la tarde, la compañía
telefónica nos la suministrará sin ningún problema. A la larga, podremos ver por televisión un
partido de béisbol desde la perspectiva de cualquier asiento del estadio o, ya puestos, desde la
perspectiva de la pelota. Estos ejemplos son el tipo de cambios que se producirán cuando seamos
digitales, y no ver Seinfeld con el doble de resolución que ahora.
Cuando la televisión sea digital, habrá muchos bits nuevos, como los que nos informarán de los
demás bits. Habrá bits que serán simples cabeceras que informarán de la resolución, velocidad de
barrido y relación altura-anchura, de modo que nuestros televisores puedan procesar y mostrar la
señal con su máxima capacidad. Otros serán el algoritmo decodificador que nos permita ver alguna
señal extraña o críptica cuando, por ejemplo, los combinemos con el código de barras de una bolsa
de palomitas de maíz. Dispondremos de bits con una o una docena de pistas de sonido que nos
permitirán escuchar una película extranjera en nuestra propia lengua. Otros nos proporcionarán los
datos de control de una operación que nos permitirá cambiar productos clasificados X por otros R o
PG (y a la inversa). Hoy día controlamos el brillo, volumen y canal de un aparato de televisión;
mañana podremos variar el sexo, la violencia y la tendencia política.
La mayoría de los programas de televisión, excepto los acontecimientos deportivos y los
resultados electorales, no tienen por qué ser en tiempo real. Este aspecto es importante para la
televisión digital y aun así se ignora. Esto quiere decir que prácticamente toda la programación de
televisión es en realidad como volcar información en un ordenador. Los bits se transfieren a una
velocidad que no tiene nada que ver con la manera en que serán vistos. Y lo que es más importante,
una vez dentro de la máquina, no hace falta verlos en el orden en que se enviaron. De repente, la
televisión se convertirá en un medio de acceso aleatorio, más como un libro o un periódico, que se
podrá hojear y cambiar, y será independiente del día, la hora o del tiempo que se necesite para su
distribución.
Desde el momento en que dejemos de pensar en el futuro de la televisión como alta definición
sin más y empecemos a trabajar en su concepto más general, como emisión de bits, la televisión se
convertirá en un medio completamente diferente. Empezaremos a ver nuevas y creativas
aplicaciones en la superautopista de la información. Y esto será así, si no nos lo impide la Policía
del Bit.
LA POLICÍA DEL BIT

LA LICENCIA PARA EMITIR BITS

E
xisten cinco vías para introducir información y entretenimiento en los hogares: satélite, emisión
terrestre, cable, teléfono y medios empaquetados (todos esos átomos como casetes, CDs y material
impreso). La Comisión Federal de Comunicaciones (FCC), sirve al público a través de la regulación
de algunas de estas vías y de una parte del contenido de la información que fluye por ellas. Es una
tarea difícil porque la Comisión tiene que decidir entre protección y libertad, entre lo público y lo
privado, entre competencia y grandes monopolios.
Uno de los aspectos que más preocupa a la Comisión es el espectro que se utiliza en las
comunicaciones inalámbricas. Se supone que el espectro pertenece a todo el mundo y que debe
poder utilizarse de manera justa, competitiva, sin interferencias y con todos los incentivos para
enriquecer al pueblo norteamericano.
Esto es muy lógico, porque de otro modo las señales de televisión, por ejemplo, podrían chocar
con las del teléfono móvil y las de radio podrían interferir con el VHF marítimo. La autopista del
aire necesita un control de tráfico.
Recientemente, se han concedido nuevas licencias de explotación del espectro a precios muy
altos, tanto para la telefonía móvil como para el vídeo interactivo. Otras partes del espectro han sido
otorgadas de manera gratuita, pues se supone que se destinan a uso público. Este es el caso de la
televisión patrocinada, que es gratuita para el espectador, aunque de hecho, estamos pagando por
ella cuando compramos una caja de detergente o cualquier otro producto que se anuncia.
La Comisión ha ofrecido a las emisoras televisivas un «carril» adicional de 6 MHz
(megahertzios) de espectro gratuito para la televisión de alta definición, con la condición de que
éstas devuelvan el espectro que están utilizando actualmente, también de 6 MHz, dentro de quince
años. Es decir, que durante tres lustros las emisoras actuales contarán con 12 MHz. La idea,
susceptible de cambios, es proporcionar un período de transición para que la televisión actual se
transforme en la televisión del futuro. El concepto tenía sentido hace seis años, cuando se concibió
como el medio para pasar de un mundo analógico a otro. Pero de pronto resulta que la televisión de
alta definición es digital. En la actualidad sabemos cómo introducir 20 millones de bps en un canal
de 6 MHz, y todas las reglas pueden cambiar de repente, en algunos casos de manera impredecible.
Imagínese que es dueño de una emisora de televisión y que la Comisión le acaba de conceder
autorización para transmitir 20 millones de bps. Le acaban de dar permiso para convertirse en el
epicentro local del negocio de la emisión de bits. Este permiso es para utilizarlo en televisión, ¿pero
qué haría usted realmente con él?
Sea honesto. Lo último que haría sería emitir televisión de alta definición, porque existen pocos
programas y todavía menos espectadores. Si es un poco astuto, se dará cuenta de que puede emitir
cuatro canales NTSC de televisión digital con calidad de estudio (a 5 millones de bps cada uno) y
así aumentar su audiencia potencial y sus ingresos por publicidad. Pero si reflexiona un poco más,
en vez de cuatro decidirá transmitir tres canales de televisión, utilizando 15 millones de bps, y
dedicará los 5 millones de bps restantes a la emisión de dos señales de radio digitales, un sistema de
emisión de almacenamiento de datos y un servicio de busca.
Por la noche, cuando poca gente mira la televisión, podría utilizar gran parte de su cuota y emitir
bits para entregar periódicos personalizados que se imprimirían en las casas de los propios
abonados. O, el sábado, podría decidir que la resolución es prioritaria (por ejemplo, para un partido
de fútbol) y dedicaría 15 de sus 20 millones de bits a la transmisión de alta definición. De hecho,
usted sería su propia Comisión para esos 6 MHz o esos 20 millones de bits, y los distribuiría como
creyera conveniente.
Esto no es lo que la FCC tenía en mente al principio, cuando recomendó, con el objetivo de
favorecer la transición, la asignación de un nuevo espectro para televisión de alta definición a
emisoras ya existentes. Los grupos empresariales que están deseando introducirse en el negocio de
la emisión de bits pondrán el grito en el cielo cuando se enteren de que a las cadenas actuales de
televisión se les ha duplicado el espectro y se les ha incrementado su capacidad de emisión en un
400 %, sin coste alguno, durante los próximos quince años.
¿Quiere esto decir que tenemos que mandar a la Policía del Bit para controlar que este nuevo
espectro y sus 20 millones de bps sean utilizados sólo para televisión de alta definición? Espero que
no.

BITS DE CAMBIO

En la época analógica, el trabajo de asignación del espectro de la FCC era mucho más fácil.
Podía señalar diferentes partes del espectro y decir: éste es para televisión, aquél para radio, éste
para telefonía celular, etc. Cada pedazo del espectro era utilizado por un medio específico de
comunicaciones o de emisión con sus propias características y anomalías de transmisión y con un
propósito muy definido. Pero en un mundo digital estas diferencias se desdibujan o, en algunos
casos, desaparecen: todo son bits. Pueden ser bits de radio, bits de televisión o bits de comunicación
marítima, pero siguen siendo bits que se pueden mezclar y susceptibles de ser utilizados de forma
múltiple como multimedia.
Lo que pasará con la emisión televisiva durante los siguientes cinco años es tan increíble que
resulta difícil de asimilar. No es fácil imaginar que la FCC sea capaz de controlar la utilización de
bits; por ejemplo, pidiendo que se utilicen cuotas determinadas de bits para la televisión de alta
definición, la televisión normal, la radio y demás. Seguramente el mercado ejercerá su función
reguladora de forma mucho más eficiente. No utilizaríamos nuestros 20 millones de bits en la radio
si hubiera un mayor negocio en la televisión o en la información. Cambiaríamos nuestro enfoque
según el día de la semana, la hora del día, las vacaciones o los acontecimientos especiales. La
flexibilidad es crucial y los que respondan antes y sean más imaginativos en el uso de sus bits,
servirán mejor al público.
En un futuro próximo, las emisoras asignarán bits a un medio específico, como la televisión o la
radio, en el momento de la transmisión. Por lo general, es esto lo que queremos decir cuando
hablamos de convergencia digital o emisión de bits. El transmisor avisa al receptor cuando le envía
bits de televisión, de radio, o bits que representan al Wall Street Journal.
Pero en un futuro más lejano, los bits no se asignarán a un medio específico cuando salgan del
transmisor.
Tomemos la información meteorológica como ejemplo. En lugar de emitir al hombre del tiempo
y sus típicos mapas y gráficos, imaginemos que es posible mandar un modelo de información
meteorológica por ordenador. Estos bits llegan a nuestra televisión-ordenador y luego, en el
extremo receptor, utilizamos de manera implícita o explícita la inteligencia de nuestro ordenador
para transformarlos en un informe hablado, un mapa impreso, o un dibujo animado con nuestro
personaje favorito de Disney. La inteligencia del aparato de televisión lo hará tal como se lo
pidamos, quizás incluso según nuestra disposición y estado de ánimo del momento. En este
ejemplo, el emisor ni siquiera sabe en qué se convertirán los bits, si en imágenes, sonido o letra
impresa. Somos nosotros quienes lo decidimos. Los bits salen de la emisora como elementos para
ser utilizados y transformados en una gran variedad de medios, para que podamos personalizarlos a
través de varios programas de ordenador y archivarlos si así lo queremos.
En este contexto, se emitirían bits e información más allá del control regulador de hoy día, que
asume que el transmisor sabe si una señal es de televisión, radio o información.
Tal vez muchos lectores supongan que mi mención de la Policía del Bit es sinónimo de censura
del contenido, pero no es así. El consumidor será su propio censor cuando le ordene al receptor qué
bits deberá seleccionar. La obsoleta Policía del Bit querrá controlar el medio en sí mismo, lo cual no
tiene sentido. El problema, de índole política, es que la asignación que ha recibido la televisión de
alta definición parece un regalo. Aunque la FCC no quería crear una polémica, algunos grupos de
presión protestarán porque los ricos en ancho de banda se están haciendo más ricos aún.
Creo que la Comisión es demasiado inteligente para querer asumir el papel de Policía del Bit.
Su tarea debe centrarse en hacer que proliferen, en beneficio del público, los servicios de
información avanzada y entretenimiento. En mi opinión, la cuestión radica, simplemente, en que no
hay forma de limitar la libertad de emisión de bits, así como los romanos no pudieron impedir que
el cristianismo se propagase, aunque durante el proceso me temo que algunos valientes emisores de
información serán arrojados a los leones de Washington.

LA LEY DE INCOMPATIBILIDADES
EN LA PROPIEDAD DE LOS MEDIA

Tomemos como ejemplo el periódico actual. El texto se escribe en el ordenador; los reporteros
envían los reportajes por correo electrónico; las fotos se digitalizan y también se transmiten por
cable; y la paginación de un periódico moderno se realiza mediante sistemas de diseño asistido por
ordenador, que preparan la información para transferirla a una película o para grabarla directamente
en planchas. Es decir, que toda la concepción y elaboración del periódico es digital, desde el
principio hasta el final, en que la tinta se vierte sobre árboles muertos. Es aquí, al final del proceso,
donde los bits se convierten en átomos.
Pero imaginemos que este último paso no se realiza en una imprenta, sino que nos entregan los
bits tal cual. Tenemos la opción de imprimirlos en casa, con todas las ventajas del borrador (para el
cual se recomienda papel ya usado, de forma que no necesitemos grandes cantidades de papel), o
bien los podemos introducir en el ordenador portátil, el ordenador de bolsillo o, algún día, en
nuestra pantalla de alta resolución, completamente flexible, de un cuarto de milímetro de espesor, a
todo color, de gran formato y sumergible, pero como si fuera una hoja de papel y también con olor a
papel, si eso nos hace felices. La emisión es un sistema, entre muchos otros, de hacernos llegar los
bits. Y el emisor de televisión es capaz de enviarnos bits periodísticos.
A grandes rasgos, la ley de incompatibilidades en la propiedad de los media dice que no se
puede ser dueño de un periódico y de una cadena de televisión en el mismo lugar. En la época
analógica, el mecanismo más sencillo para evitar el monopolio y garantizar la pluralidad de opinión
era restringir la propiedad a un solo medio en un mismo pueblo o ciudad. La diversidad de medios
implicaba multiplicidad de contenido. Es decir, que el dueño de un periódico no podía ser
propietario de una cadena de televisión y a la inversa.
En 1987, los senadores Ted Kennedy y Ernest Hollings añadieron una cláusula final a la ley de
presupuestos ya existente para impedir que la FCC extendiera licencias temporales que fueran
contra la ley de incompatibilidades en la propiedad de los media. Esta cláusula iba dirigida a Rupert
Murdoch, que había comprado un periódico en Boston cuando ya era dueño de una cadena de UHF.
Pocos meses más tarde, el tribunal rechazó la llamada «ley rayo láser» que se usó en contra de
Murdoch, pero todavía sigue vigente la prohibición del Congreso que impide a la FCC cambiar o
revocar la ley de incompatibilidades en la propiedad de los media.
La cuestión que se plantea es si tiene que considerarse ilegal ser dueño de un bit periodístico y
de un bit televisivo en el mismo lugar. Supongamos que el bit periodístico sea una elaboración del
bit televisivo por medio de un sofisticado sistema multimedia de información personalizada. El
consumidor se beneficia de la interacción de bits pues el reportaje se le entrega con distintos niveles
de profundidad y calidad de presentación. Si las leyes actuales de incompatibilidades continúan
vigentes, ¿no se está privando al ciudadano de todas las ventajas de la información? Por tanto, la
prohibición de que unos bits se mezclen con otros es una forma grotesca de autoengaño.
Para garantizar la pluralidad se necesita menos legislación, pues los imperios monolíticos de los
media se están disolviendo en una serie de empresas locales. A medida que avancemos y
entreguemos más bits y menos átomos, desaparecerán las ventajas de disponer de una imprenta.
Incluso el trabajo de reportero en el extranjero dejará de tener sentido a medida que escritores
independientes y con talento descubran una entrada electrónica que vaya directa a nuestras casas.
A los magnates de los media de hoy día no les será fácil mantener sus imperios en el futuro.
Estoy convencido de que hacia el año 2005 los norteamericanos pasarán más horas en Internet (o
como se llame entonces) que viendo programas frente al televisor. La combinación de tecnología y
naturaleza humana contribuirá de manera más contundente a mantener la pluralidad que cualquier
ley que el Congreso pueda inventar. Pero en el caso de que me equivoque con respecto al futuro
lejano y al período de transición que se avecina, la FCC tendría que encontrar un sistema
imaginativo para reemplazar la ley de incompatibilidades en la propiedad de los media de la era
industrial incentivando y ofreciendo pautas para definir el ser digital.

¿PROTECCIÓN DEL BIT?

La ley de propiedad intelectual es completamente obsoleta. Se trata de un producto Gutenberg.


Y puesto que se trata de un proceso reactivo, probablemente desaparecerá antes de que se
modifique.
La mayoría de la gente se preocupa de la propiedad intelectual en cuanto se refiere a la facilidad
de hacer copias. Sin embargo, en el mundo digital no sólo está en juego la facilidad, sino también el
hecho de que la copia digital es tan perfecta como el original, y con algo de sofisticación
informática, incluso mejor. De la misma manera que a una columna de bits se le pueden corregir los
errores, una copia se puede limpiar, realzar y eliminar su ruido. La copia es perfecta. Esto es bien
sabido en la industria musical y ha sido la causa de que muchos productos electrónicos salgan al
mercado con retraso, como en el caso del DAT (Cinta de Audio Digital).
Se diría que esto no tiene sentido, ya que la duplicación ilegal va en aumento aun cuando las
copias no sean del todo perfectas. En algunos países, hasta el 95 % de los vídeos que se venden son
copias ilegales.
Por tanto, la gestión de la propiedad intelectual y la actitud que se toma frente a ella varían de
manera drástica según el medio. La música recibe una atención internacional considerable, y los
compositores, letristas y arreglistas cobran sus derechos de autor durante años. La melodía
«Cumpleaños feliz» es del dominio público, pero si alguien quiere utilizar la letra para una escena
de una película tiene que pagar derechos de propiedad a la Warner/Chappell. No es muy lógico,
pero forma parte de un complejo sistema ideado para proteger a los compositores e intérpretes.
En cambio, un pintor se despide para siempre de su cuadro en cuanto lo vende. Sería impensable
pagar-por-ver. Por otro lado, en algunos lugares es legal cortar la pintura en trocitos y venderlos, o
reproducirla en una alfombra o una toalla de playa sin el permiso del artista. En Estados Unidos esto
fue legal hasta 1990, cuando se promulgó la Visual Artists Rights Act para evitar esa clase de
mutilación. O sea que, incluso en el mundo analógico, el sistema actual no es imperecedero ni
totalmente imparcial.
En el mundo digital la cuestión no es sólo si copiar es más fácil y si las copias tienen más
fidelidad. En el futuro inmediato seremos testigos de un nuevo tipo de fraude, que tal vez no pueda
considerarse como tal en realidad. Particularmente, creo que es inofensivo leer algo en Internet y, de
la misma forma que recorto un periódico, enviarle una copia a alguien o a unas cuantas personas.
Pero con sólo una docena de toques de teclado podría enviar ese mismo material a miles de
personas de todo el planeta, lo que no sucede con un recorte de periódico. Resulta evidente que el
recorte de bits es muy distinto al recorte de átomos.
Hoy día, en la economía irracional de Internet hacer este multienvío no cuesta absolutamente
nada. Nadie tiene una clara idea de quién hace qué en Internet, pero de momento es gratis para casi
todos los usuarios. Incluso si esto cambia en un futuro y se le adapta un modelo económico
racional, distribuir un millón de bits a un millón de personas sólo costaría cuatro chavos.
Es más, los programas de ordenador, no sólo las personas, podrán leer material, como por
ejemplo este libro, y hacer resúmenes automáticos. La ley de propiedad intelectual dice que el
material que resumimos pasa a ser propiedad intelectual nuestra. Y dudo que los legisladores hayan
pensado en la posibilidad de que una entidad inanimada, como un robot pirata, llegara a desempeñar
esta función.
A diferencia de las patentes, que pertenecen al Departamento de Comercio, o sea al poder
ejecutivo, los derechos de propiedad intelectual, que pertenecen a la Biblioteca del Congreso, es
decir, al poder legislativo, protegen la expresión y la forma de la idea, y no la idea en sí misma.
Estupendo.
No obstante, ¿qué sucede cuando transmitimos bits que en términos reales no tienen forma,
como en el caso de la información meteorológica a la que nos referimos antes ? Entonces surge la
pregunta de si un modelo de ordenador de la meteorología es una expresión de la propia
meteorología. De hecho, la mejor descripción que podemos ofrecer de un modelo preciso y
completo del tiempo es que consiste en una simulación de éste y es tan parecido a la «realidad»
como pueda serlo. Seguramente, la «realidad» no es una expresión de sí misma, sino que es ella
misma.
Las expresiones de la información meteorológica son: una voz que «informa» con entonación,
un diagrama animado que la «muestra» con color y movimiento o una simple imagen que la
«representa» como un mapa ilustrado y comentado. Estas expresiones no están en la información,
pero son personificaciones de la información que hace un aparato receptor dotado con inteligencia.
Aún más, estas diversas personificaciones se pueden hacer según sea el receptor y su manera de
expresarse, a diferencia del hombre del tiempo local, nacional o internacional. Por tanto, la ley de
propiedad intelectual no es aplicable al transmisor.
Tomemos como ejemplo la Bolsa. Las fluctuaciones de minuto a minuto en el precio de las
acciones pueden agruparse de diferentes maneras. La cantidad de información, como los contenidos
de las páginas de la guía de teléfonos, no es susceptible de reservarse derechos de propiedad
intelectual. En cambio, una ilustración del movimiento de las acciones en la Bolsa o de un grupo de
acciones sí lo es. Será cada vez más el receptor, y no el transmisor, el que determine la forma de
recibir la información, lo cual complica la regulación de los derechos de propiedad intelectual.
Entonces habrá que preguntarse hasta qué punto la noción de información sin forma puede
extenderse a materiales menos prosaicos, como un avance informativo o, aunque es más difícil, a
una novela. Cuando los bits son bits, surgen una serie de nuevos interrogantes, no sólo los ya
conocidos, como la piratería.
Definitivamente, el medio ha dejado de ser el mensaje.
BITS MEZCLADOS

RECICLAR A LA CHICA MATERIAL1

E
l hecho de que la antigua animadora de Michigan a los treinta y cuatro años generase unas ventas
por valor de 1.200 millones de dólares en un solo año no pasó inadvertido a Time Warner, que
había fichado a Madonna en 1992 con un contrato «multimedia» de 60 millones de dólares. En
aquella época, me alarmaba que utilizaran el término «multimedia» para describir una serie
inconexa de producciones escritas, grabadas y filmadas. Desde entonces, la palabra aparece casi
cada día en el Wall Street Journal, a menudo como adjetivo para designar desde productos
interactivos hasta digitales e incluso de banda ancha. En un titular leí: «Las tiendas de discos dejan
paso a los almacenes multimedia.» Se diría que un proveedor de información y entretenimiento que
aún no haya pensado introducirse en el negocio multimedia, tendrá que dejar de ser empresario.
¿Qué quiere decir todo esto?
Significa, al mismo tiempo, nuevos contenidos y una manera diferente de abordar los antiguos
contenidos. Se refiere a que la digitalización de los bits ha creado medios intrínsecamente
interactivos. Y todo ello conlleva un menor coste, una mayor capacidad y una presencia abrumadora
de ordenadores.
A este tirón tecnológico se añade el empuje agresivo de las empresas de medios, que venden y
revenden todo lo que pueden sus viejos bits, incluyendo los de Madonna (que, por cierto, se venden
muy bien). Esto implica no sólo la reutilización de los archivos de música y películas, sino también
un mayor uso de sonido e imagen, mezclados con información, para cubrir todos los destinos
posibles, empaquetados de múltiples maneras y enviados a través de diferentes canales. Las
empresas están decididas a utilizar sus bits a un coste marginal aparentemente pequeño para
conseguir un beneficio bastante grande.
Si treinta minutos de una telecomedia le cuestan a la CBS o a la Fox medio millón de dólares,
no hay que ser muy sabio para deducir que sus archivos de, digamos, diez mil horas de material
filmado pueden reutilizarse para obtener nuevos ingresos. Incluso valorando los viejos bits muy por
lo bajo, en la cincuentava parte del coste de los nuevos, el valor del archivo rondará los 200
millones de dólares. No está nada mal.
La reutilización de viejo material va de la mano del nacimiento de cualquier medio nuevo. El
cine reutilizó el teatro, la radio revendió las actuaciones, y la televisión reutilizó películas. Así que
no es antinatural que Hollywood reaproveche sus archivos de imágenes o los combine con música y
texto. El problema es que, por ahora, el material multimedia genuino, propio de este medio nuevo,
es difícil de conseguir.
Los servicios de información y entretenimiento que aprovechan y definen los nuevos
multimedia tienen que evolucionar y necesitan un período de gestación lo bastante largo para digerir
los éxitos y los fracasos. En consecuencia, los productos multimedia son hoy día como recién
nacidos con buenos genes, pero no están lo bastante desarrollados para tener un carácter reconocible
y una mente fuerte. La mayoría de las producciones multimedia son, por el momento, un poco
anémicas, poco más que oportunismo de una u otra clase. Pero aprendemos rápido.
Desde una perspectiva histórica, el período de incubación de un medio nuevo puede ser bastante
largo. Pasaron muchos años hasta que se supo cómo mover una cámara de cine, en lugar de obligar
a los actores moverse frente a ella. Pasaron treinta y dos años antes de que naciera el cine sonoro.
Poco a poco, surgieron docenas de ideas que dieron un nuevo vocabulario al cine y al vídeo. Lo
mismo ocurrirá con los multimedia. Hasta que el cuerpo multimedia no se robustezca de conceptos,
las empresas se limitarán a regurgitar bits archivados, que no es una mala idea si se trata de los bits
de Bambi., pero no sería tan interesante con los de Terminator 2.
Publicar cuentos de niños multimedia en CD-ROM (es decir, en forma de átomos) funciona bien
porque un niño quiere ver y oír la misma historia una y otra vez. Compré uno de los primeros
reproductores Pioneer de LaserDisc en 1978. En aquella época sólo había una película en este
formato: Smokey y el bandido, pero no supuso ningún problema porque mi hijo, que tenía entonces
ocho años, estaba dispuesto a verla cientos de veces, hasta el punto de descubrir cortes imposibles
que a uno se le escapan a 30 fotogramas por segundo (Jackie Gleason aparecía en un fotograma a un
lado de la puerta del coche y al otro lado en el siguiente fotograma). En Tiburón, mi hijo se
mantenía ocupado durante horas examinando la película fotograma a fotograma, ¡hasta que logró
encontrar los alambres del tiburón!
Durante este período, «multimedia» significaba discotecas electrónicas, con luz estroboscópica
y láser. Tenía la connotación de música rock y espectáculo luminoso. Incluso se me pidió que
borrase la palabra «multimedia» de un informe para el DOD (Departamento de Defensa). El
personal del Departamento temía que me dieran el famoso premio Vellocino de Oro, del senador
William Proxmire, un galardón anual que se otorga a los proyectos del Gobierno subvencionados de
la manera más gratuita, con toda la publicidad negativa que ello representaba. (En diciembre de
1979 el Office of Education, pues así se llamaba en aquella época, fue menos afortunado cuando a
uno de sus investigadores le concedieron el Vellocino de Oro por gastar 219.592 dólares en
desarrollar un «plan de estudios» para enseñar a los estudiantes universitarios a mirar la televisión.)
En aquella época mostrábamos la página de un texto ilustrada y a todo color en una pantalla de
ordenador y se oían murmullos de asombro cuando al apretar un botón la imagen se convertía en
animación con sonido. Algunos de los mejores títulos multimedia de hoy son producciones de alto
coste derivadas de los primeros experimentos de entonces, aunque no muy logrados.

EL NACIMIENTO DE LOS MULTIMEDIA

El 3 de julio de 1976, a última hora de la noche, los israelíes se hicieron con el control del
aeropuerto de Entebbe, Uganda, y rescataron a 103 rehenes que habían sido secuestrados por las
guerrillas propalestinas, protegidas por el dictador Idi Amín. Cuando al cabo de una hora terminó la
operación, los siete secuestradores y entre veinte y cuarenta soldados ugandeses habían muerto.
Sólo un soldado israelí y tres rehenes perdieron la vida. Esto impresionó tanto a los militares
norteamericanos que encomendaron al ARPA (Agencia de Proyectos de Investigación Avanzados)
la investigación de procedimientos electrónicos para que los comandos estadounidenses tuvieran el
mismo tipo de entrenamiento que los israelíes.
Lo que habían hecho los israelíes fue construir, a escala y en el desierto, una maqueta del
aeropuerto de Entebbe, lo cual resultó fácil para ellos dado que precisamente lo habían diseñado
ingenieros israelíes cuando las dos naciones tenían relaciones amistosas. En esta réplica exacta, los
comandos habían practicado aterrizajes, despegues y asaltos simulados. Así que cuando llegaron a
Uganda para hacerlo «de verdad», poseían un agudo sentido espacial y experiencia del lugar, lo que
les permitió actuar como nativos. Fue una idea tan simple como fabulosa.
Sin embargo, construir modelos físicos no era una idea factible, dado que las situaciones de
secuestro o los objetivos terroristas como aeropuertos o embajadas eran potencialmente infinitas.
Sólo se podría hacer con ordenadores. Una vez más, había que usar bits, no átomos. Sin embargo,
los gráficos de ordenador por sí solos, como los que se usan en simulación de vuelo, eran
inadecuados. Cualquier sistema que tuviera que ser desarrollado necesitaría el realismo fotográfico
de una escenografía digna de Hollywood para transmitir un sentido real del lugar y una sensación
del ambiente que lo rodeaba.
Mis colegas y yo propusimos una solución sencilla. Consistía en usar videodiscos que
permitieran al usuario conducir por pasillos o calles, como si el vehículo estuviera en esos pasillos o
calles. Para nuestra prueba escogimos Aspen, Colorado (arriesgándonos a recibir el Vellocino de
Oro), donde el entramado y las dimensiones de la ciudad eran manejables y la población lo bastante
singular para no preocuparse de que un camión de cine estuviese recorriendo las calles durante
varias semanas, y en distintas estaciones.
El funcionamiento del sistema era sencillo. Se filmaba una calle, en cada dirección, y se tomaba
un fotograma cada metro. Asimismo, cada curva se filmaba en ambas direcciones. Al montar en un
videodisco los segmentos de calle rectos y en otro videodisco las curvas, el ordenador nos daba la
verosímil sensación de estar conduciendo. A medida que nos aproximábamos a una intersección,
digamos en el disco 1, el disco 2 tomaría la curva y en el caso de que decidiéramos girar a la
derecha o a la izquierda, reproduciría ese segmento concreto. Mientras se reproducía la curva, el
lector de discos 1 estaría libre para buscar el segmento de recta de la calle hacia la que habíamos
girado y, una vez más, lo reproduciría fielmente en cuanto hubiéramos girado y empezado a
recorrer la nueva calle.
En 1978 el Proyecto Aspen era pura magia. Se podía mirar por la ventanilla, parar delante de un
edificio, como la comisaría de policía, entrar, charlar con el comisario, sintonizar en estaciones
diferentes, ver edificios tal como fueron cuarenta años antes, realizar visitas comentadas, volar en
helicóptero sobre mapas «reales», llenar la ciudad de animación, entrar en un bar y, cuando
empezaba el recorrido, dejar una estela como el hilo de Ariadna para facilitar el retorno. Habían
nacido los multimedia.
El proyecto tuvo tanto éxito que se pidió a contratistas militares que hicieran prototipos reales
factibles, con la idea de proteger aeropuertos y embajadas contra terroristas. Resulta irónico que una
de las primeras localizaciones que se encargaron fuera Teherán. Aunque por desgracia no se pudo
acabar con suficiente rapidez.

EL BETA DE LOS NOVENTA

Hoy día, las ofertas multimedia son en su mayor parte productos de consumo que, en forma de
títulos de CD-ROM, llegan sobre todo a los norteamericanos de edades comprendidas entre cinco y
diez años, y también a un número creciente de adultos. En la Navidad de 1994 había en Estados
Unidos más de dos mil títulos de CD-ROM de consumo para el público en general. En todo el
mundo existen actualmente más de diez mil títulos de todas clases. Además, en 1995 casi todos los
ordenadores vendidos incluyen un lector de CD-ROM.
Un CD usado como memoria sólo para leer (ROM) tiene hoy una capacidad de 5.000 millones
de bits, en sólo una cara, lo que facilita el proceso de producción. Pero esta capacidad se
incrementará a 50.000 millones de bits en una sola cara dentro de los dos próximos años. Mientras
tanto, 5.000 millones de bits ya son muchos, si consideramos que un ejemplar del Wall Street
Journal tiene aproximadamente 10 millones de bits (por lo tanto, un CD-ROM puede almacenar el
equivalente aproximado a la información publicada en dos años). En otros términos, un CD
representa unos cien clásicos o cinco años de lectura, incluso para los que leen dos novelas por
semana.
Desde otro punto de vista, 5.000 millones no es tanto: es sólo una hora de vídeo comprimido. En
este sentido, el tamaño es modesto, de modo que a corto plazo los títulos de CD-ROM usarán
mucho texto, que es razonablemente económico en bits, mucha foto fija, un poco de sonido y
algunos retazos de vídeo de animación. Es curioso que los CD-ROM puedan hacernos leer más, y
no menos, como se dice.
Sin embargo, el horizonte a largo plazo de los multimedia no se basa en esa pieza de plástico de
20 duros y de 5 o 50 mil millones de bits, sino que partiremos de la base de sistemas on-line que en
la práctica poseen una capacidad ilimitada. Louis Rossetto, el fundador de Wired, se refiere a los
CD-ROM como «el Beta de los noventa», en alusión al ya difunto formato de vídeo Betamax. Está
en lo cierto al suponer que, a largo plazo, los multimedia serán ante todo un fenómeno on-line.
Mientras que los modelos económicos para estar on-line y para tener un CD-ROM propio pueden
ser diferentes, con el acceso directo a banda ancha la funcionalidad puede ser la misma.
De cualquier modo, tendrá lugar un cambio editorial fundamental, porque los conceptos de
profundidad y amplitud informativa ya no serán una elección, un «esto o lo otro». Si compramos
una enciclopedia impresa, un atlas del mundo o un libro sobre el reino animal, esperamos encontrar
una cobertura muy general y extensa de muchos temas de vasto alcance. Por el contrario, al comprar
un libro sobre Guillermo Tell, las islas Aleutianas o los canguros, esperamos un tratamiento
informativo «en profundidad» de la persona, el lugar o el animal. Pues bien, en el mundo de los
átomos, los límites físicos imposibilitan conjugar los conceptos de profundidad y amplitud en un
mismo volumen, a menos que el libro tenga un kilómetro de grosor.
Sin embargo, en el mundo digital, el problema de la relación profundidad/amplitud desaparece, y
los lectores y autores se mueven libremente entre lo general y lo específico. De hecho, la noción de
«dime más» es parte de los multimedia y la raíz de los hipermedia.

LIBROS SIN PÁGINAS

Hipermedia es una extensión de hipertexto, un concepto que designa narrativa altamente


interconectada, o información vinculada. El concepto proviene de los experimentos realizados hace
ya tiempo por Douglas Englebart en el Stanford Research Institute y fue bautizado así en 1965 por
Ted Nelson, que trabajaba en la Brown University.
Para explicarlo de una forma sencilla, diremos que en un libro impreso, las frases, párrafos,
páginas y capítulos se suceden en un orden determinado no sólo por el autor sino también por la
estructura física y secuencial del propio libro. Aunque se puede acceder a un libro de forma
aleatoria y nuestros ojos pueden hojearlo al azar, éste permanece siempre en los límites de las tres
dimensiones físicas.
Sin embargo, esto no es así en el mundo digital. El espacio que ocupa la información no se
limita a las tres dimensiones. Una idea o sucesión de pensamientos pueden comprender una red
multidimensional de pistas dispuestas para nuevas elaboraciones o argumentos que pueden ser
invocados o ignorados. La estructura del texto se debe imaginar como un modelo molecular
complejo. Se pueden reordenar los fragmentos de información, expandir las frases, y definir las
palabras sobre la marcha, algo que espero que no sea necesario hacer en este libro con demasiada
frecuencia. Estos vínculos los puede incorporar el autor en el momento de la «publicación» o, más
adelante, el lector.
Los hipermedia son como una colección de mensajes elásticos que se pueden expandir o
contraer según los deseos del lector. Las ideas se pueden consultar y analizar a distintos niveles de
complejidad. El equivalente escrito más parecido que se me ocurre es un calendario de Navidad.
Pero con la diferencia de que cuando se abren las puertecitas electrónicas (al contrario que las de
papel), se ven diferentes relatos según la situación o, como espejos en una peluquería, una imagen
dentro de otra y ésta dentro de una imagen más.
Todos los multimedia llevan implícita la interacción. Si deseáramos disfrutar de una experiencia
pasiva, entonces la definición de imagen, sonido e información combinados sería sinónimo de
televisión y cine subtitulados.
Los productos multimedia comprenden a la vez televisión interactiva y ordenadores con vídeo.
Como ya vimos antes, la diferencia entre ambos es reducida, cada vez menor, y a la larga será nula.
Muchas personas, sobre todo los padres, se imaginan el «vídeo interactivo» en términos de la
Nintendo, Sega y otras marcas de juegos «compulsivos». Ciertamente, algunos juegos electrónicos
son físicamente tan intensos que hay que vestirse de calzón corto para participar en ellos. Sin
embargo, la televisión del futuro no exigirá la hiperactividad del Correcaminos o el físico de Jane
Fonda.
Hoy día, los productos multimedia son una experiencia de escritorio o salita de estar porque el
aparato es un trasto incómodo. Incluso los portátiles, con su diseño de concha de almeja, se prestan
poco a ser utilizados como instrumentos de información muy personal. No obstante, esto cambiará
radicalmente cuando haya pequeñas pantallas de alta resolución, brillantes, delgadas y flexibles.
Los multimedia serán más como un libro, algo que se puede llevar a la cama o con lo que se puede
mantener una conversación o escuchar un relato. Algo tan sutil y exquisito como el tacto del papel o
el olor del cuero.
Es importante imaginar los multimedia como algo más que un bonito mundo privado o son et
lumière de la información, mezclado con fragmentos fijos de imagen, sonido y datos. Hacia donde
de verdad se dirige el universo de los multimedia es a una traducción libre de unos medios a otros.

MÁS ALLÁ DEL MEDIO

En un mundo digital el medio no es el mensaje, sino una encarnación de éste. Un mensaje puede
tener varias encarnaciones que derivan de manera automática de la misma información. En el
futuro, el emisor enviará una corriente de bits, como en el ejemplo de la previsión meteorológica,
que el receptor convertirá de muchas maneras. El espectador podrá mirar los mismos bits desde
muchas perspectivas. Tomemos como ejemplo un acontecimiento deportivo.
El ordenador-televisor puede convertir los bits de fútbol que recibe para que los
experimentemos como imágenes, los oigamos a través de un anuncio o para que los veamos como
diagramas de las jugadas. En cada caso se trata del mismo juego y del mismo conjunto de bits.
Cuando éstos se convierten en sólo-sonido, el medio acústico nos obliga a imaginar la acción, pero
nos permite conducir un coche al mismo tiempo. Si los bits se convierten en imagen, se deja menos
margen a la imaginación, pero se hace difícil ver las tácticas, a causa del tropel de jugadores. Y
cuando los bits se convierten en un diagrama, la estrategia y defensa se revelan rápidamente. Pues
bien, será posible moverse entre estas tres perspectivas.
También puede servir de ejemplo un título de CD-ROM sobre entomología. Su estructura será
más parecida a la de un parque temático que a la de un libro, pues cada persona lo explora de
diferentes maneras. La estructura de un mosquito encuentra su mejor representación en el dibujo
lineal, su vuelo en la animación, y su zumbido, como es evidente, en el sonido. Pero cada
encarnación no tiene por qué formar parte de una base de datos diferente o ser una experiencia
multimedia fabricada por separado. Todas ellas pueden emanar de una sola representación o
trasladarse de un medio a otro.
Pensar en multimedia exige incorporar ideas sobre la fluidez de movimiento de un medio al
siguiente, decir la misma cosa de maneras diferentes, apelar a los diversos sentidos humanos: si no
se entiende la primera vez, hagamos que la máquina nos lo muestre en dibujos animados o por
medio de un diagrama en tres dimensiones. Esta clase de movilidad de los medios puede abarcar
desde películas que se explican con texto a libros que, con voces amables, se leen a sí mismos en
voz alta mientras nosotros dormitamos.
Los llamados «fotogramas destacados» constituyen un avance reciente en las traslaciones
automáticas de un medio a otro. Este trabajo ha sido realizado por Walter Bender y sus alumnos en
el Media Lab del MIT. Se preguntaron cómo podían imprimir muchos segundos de vídeo como un
fotograma fijo de manera tal que la resolución de esta imagen fija fuera superior a la de cualquiera
de los fotogramas del vídeo. Un fotograma suelto de vídeo de 8 milímetros tiene una resolución
muy baja (poco más de doscientas líneas), en comparación con los miles de líneas que tiene una
diapositiva de 35 milímetros. La solución fue situar la resolución fuera del tiempo y mirar muchos
fotogramas hacia delante y hacia atrás al mismo tiempo.
La investigación culminó en un proceso que permite imprimir vídeo con calidad muy alta,
concretamente impresiones Kodacolor de 100 centímetros por 120 centímetros a partir de un ínfimo
fotograma de vídeo de 8 milímetros. Estos fotogramas tienen más de cinco mil líneas de resolución,
lo que significa que se puede realizar una selección de los millones de horas de películas caseras de
8 milímetros que están guardadas en cajas de zapatos en los hogares norteamericanos y convertirla
en un retrato, tarjeta navideña o foto para un álbum con una resolución mucho mayor que la que
tiene un positivo de 35 milímetros normal. En la portada de un periódico o en la del suplemento del
Time pueden imprimirse breves informaciones periodísticas en formato CNN sin necesidad de
recurrir a esas burdas imágenes que a veces hacen que parezca que veamos el mundo a través de la
borrosa rejilla de un ventilador.
En realidad, un fotograma destacado es una imagen que nunca existió. Representa un fotograma
estático de muchos segundos. Durante ese tiempo la cámara ha podido hacer primeros planos y
panorámicas, y los objetos en escena se han podido mover. Pero la imagen es potente, no muestra
ningún contorno desdibujado, está perfectamente resuelta. El contenido del fotograma refleja hasta
cierto punto las intenciones del que lo filmó, acentuando la resolución en los lugares en que la
cámara hizo un zoom o ensanchando la imagen si hizo una panorámica. En el método de Bender,
los elementos que se mueven muy deprisa, como una persona cuando camina por un escenario, se
eliminan en favor de los que permanecen en el tiempo.
Este ejemplo de «multimedia» implica el traslado de una dimensión, el tiempo, a otra, el
espacio. Otra muestra sencilla es cuando un discurso (el dominio acústico) se transcribe a la
imprenta (el dominio del texto) con la puntuación necesaria para indicar la entonación que
corresponde. O también, el libreto de una representación teatral en el que el diálogo se acompaña
con muchas anotaciones escénicas para asegurar el tono necesario. Son formas de multimedia que a
menudo pasan desapercibidas, pero que también forman parte de un gran negocio.
EL NEGOCIO DEL BIT

UNA HISTORIA DE DOS BITS

C
uando he de predecir algo e incluso si he de iniciar algún cambio soy bastante radical. Sin embargo,
los cambios tecnológicos y reglamentarios, así como la aparición de nuevos servicios, se están
sucediendo más deprisa de lo que incluso yo imaginaba; en la autopista electrónica no existen
límites de velocidad. Es como estar conduciendo por la autopista a 160 km/h y cuando me doy
cuenta de la velocidad que llevo, me adelanta un Mercedes, luego otro y otro, que deben ir, por lo
menos, a 180 km/h. Así son las cosas en el carril rápido de la autopista de la información.
Aunque la velocidad del cambio es más rápida que nunca, la innovación la determinan no tanto
los avances científicos (el transistor, el microprocesador o la fibra óptica) como las nuevas
aplicaciones: la informática móvil, las redes globales y los multimedia. En parte, esto se debe a la
magnitud del coste de fabricación de los chips modernos, para los cuales se necesitan nuevas
aplicaciones que sean capaces de consumir toda esa velocidad y memoria del ordenador, y también
porque se está llegando a los límites físicos en muchas áreas de la fabricación de hardware.
La luz tarda unas diez billonésimas de segundo en recorrer 3 milímetros, y eso es algo que no va
a cambiar. Sin embargo, a medida que fabricamos chips de ordenador cada vez más pequeños, su
velocidad también puede aumentar un poco. Pero para poder modificar sustancialmente la velocidad
de procesamiento será necesario encontrar nuevas soluciones, como por ejemplo conectar muchas
unidades que funcionen al mismo tiempo. En la actualidad, los grandes cambios en informática y
telecomunicaciones proceden de las aplicaciones, de las necesidades básicas del hombre más que de
las ciencias materiales esenciales. Esta observación no ha pasado desapercibida en Wall Street.
Bob Lucky, ingeniero, autor de prestigio y vicepresidente de investigación aplicada de Bellcore
(el antiguo y exclusivo Departamento de Investigación de las Siete Baby Bells), se dio cuenta hace
poco de que las publicaciones eruditas ya no lo mantienen informado de los avances técnicos; en
lugar de eso, lee el Wall Street Journal. Una de las mejores maneras de enfocar el futuro de la
industria del «bit» es colocar el trípode de nuestro telescopio en medio del mundo empresarial y
legislativo de Estados Unidos y apoyar una de sus patas en las informaciones de la Bolsa de Nueva
York, otra en las de Estados Unidos y la tercera en el NASDAQ.
Cuando QVC y Viacom se disputaban la Paramount, los analistas proclamaron perdedor al que
había ganado. Los beneficios de la Paramount se redujeron cuando empezaron a cortejarla, pero aún
así era una adquisición muy atractiva para Viacom porque con ello sería propietario de una mayor
variedad de bits. Tanto Sumner Redstone como Barry Diller saben que si su compañía sólo fabrica
un tipo de bit no estarán preparados para enfrentarse al futuro. La disputa de la Paramount tenía que
ver con bits, no con egos.
Como dijimos anteriormente, el valor de un bit lo determina en gran parte su capacidad para ser
utilizado una y otra vez. En este sentido, un bit de Mickey Mouse tal vez valga más que uno de
Forrest Gump; los bits de Mickey salen hasta en los chupa-chups (átomos consumibles). Es más,
Disney tiene una audiencia asegurada que se renueva a una velocidad de más de 12.500 nacimientos
por hora. En 1994 el valor en bolsa de Disney superaba al de Bell Atlantic en 2.000 millones de
dólares, a pesar de que Bell Atlantic había aumentado sus ventas en un 50 % y había duplicado sus
ganancias.

EL TRANSPORTE DE BITS

El negocio del transporte de bits es peor incluso que el de las líneas aéreas y su guerra de tarifas.
El tráfico de las telecomunicaciones está reglamentado de tal modo que incluso NYNEX está
obligada a instalar cabinas telefónicas en los rincones más oscuros de Brooklyn, en donde no duran
más de cuarenta y ocho horas, mientras que sus competidores, que no están regulados por leyes,
sólo ponen sus cabinas en la Quinta Avenida, Park Avenue y las salas de espera de primera clase de
las compañías aéreas.
Peor aún, el modelo económico de tarifas en las telecomunicaciones está a punto de
derrumbarse. Las tarifas actuales se fijan por minuto, por kilómetro o por bits, y todas ellas se están
convirtiendo en medidas poco fiables. El sistema se resquebraja debido a la enorme diferencia que
existe en relación al tiempo (de un microsegundo a un día), a la distancia (de unos cuantos metros a
80.000 kilómetros) y a la cantidad de bits (de uno a 20.000 millones). En la época en que esas
diferencias no eran tan abismales, el viejo modelo de tarifa era útil. Cuando utilizábamos un módem
de 9.600 bps, pagábamos un 75 % menos por tiempo de conexión que con un módem de 2.400 bps,
y sin embargo a nadie le importaba.
Pero ahora la diferencia es enorme y sí que nos importa. El tiempo es un ejemplo. Aunque no
tengamos en cuenta la velocidad de transmisión y el número de bits, ¿debemos pagar lo mismo por
ver una película de dos horas que por treinta conversaciones telefónicas de cuatro minutos cada
una? Si puedo enviar un fax a una velocidad de 1,2 millones de bps, ¿debo pagar el 1/125 de lo que
pago ahora? Si puedo introducir una voz de 16.000 bps en un canal de cine ADSL, ¿realmente
tendré que pagar 50 céntimos por una conversación de dos horas? Si mi suegra vuelve a casa del
hospital con una unidad de control remoto que necesita una línea directa con el centro asistencial
para supervisar media docena de bits cada hora, ¿es correcto que esos bits tengan el mismo precio
que los 12.000 millones de bits de Lo que el viento se llevó? Resulta complicado imaginar un
modelo económico que funcione.
Tenemos que desarrollar un sistema más inteligente que quizá no utilice el tiempo, la distancia o
los bits como variables para determinar las tarifas. Tal vez el ancho de banda tendría que ser
gratuito y deberíamos pagar por lo que las películas, la salud asistida por control remoto y los
documentos valen en sí mismos y no por el valor del canal a través del cual nos llegan. Sería
absurdo pagar por los juguetes según el número de átomos que contuvieran y va siendo hora de que
entendamos lo que bits y átomos significan.
Si la dirección de una empresa de telecomunicaciones limita su estrategia a largo plazo a
transportar bits, no estará actuando en beneficio de los intereses de sus accionistas. Debe incorporar
a su estrategia la propiedad o los derechos sobre los bits y añadir valor significativo a esos bits. De
otro modo, no incrementará sus ingresos y las compañías de teléfonos acabarán quedándose con un
servicio que se está convirtiendo en un artículo de consumo, cuyo precio irá bajando debido a la
competencia y al aumento del ancho de banda. No obstante, es difícil resistirse.
Cuando yo era niño, todo el mundo odiaba a la compañía de teléfonos; ya de adulto diría que el
«odiado» primer lugar lo ocupan ahora las compañías de seguros. En los años cincuenta, cualquier
niño un poco espabilado se sabía algún truco para estafar a la compañía de teléfonos, y a todos les
parecía divertido. Hoy día, las empresas de cable se merecen esto y más pues la mayoría
proporcionan un servicio deficiente a unos precios cada vez más altos. Peor aún, no se limitan a
«transportar», sino que controlan el contenido de sus líneas.
La industria del cable ha disfrutado de muchos de los beneficios de un monopolio no
reglamentado, que en un principio sólo pretendía cubrir algunos huecos que habían dejado los
servicios comunitarios. Pero a medida que las franquicias de cable empezaron a fusionarse entre sí
hasta convertirse en redes de cobertura nacional, la gente se dio cuenta de que estas empresas no
sólo controlaban el canal de las telecomunicaciones, sino también el contenido de las mismas. Y a
diferencia de la compañía de teléfonos, no estaban obligadas a proporcionar un derecho de paso más
allá de los límites locales o comunitarios.
La reglamentación telefónica se basa en un simple principio: todo el mundo tiene derecho a
utilizarlo. Pero no queda claro qué sucede en un sistema de banda ancha que se parece más al de las
actuales empresas de cable que al de las compañías telefónicas. El Congreso norteamericano está
preocupado por la falta de legislación respecto a la fusión entre propietarios de canales y
propietarios de contenidos. Es decir, si se controla el canal y el contenido, ¿ se puede ser neutral ?
Por poner un ejemplo, si AT&T y Disney se fusionan, ¿resultará más barato que los niños
accedan a Mickey Mouse que a Bugs Bunny?

BITS MÁS VERDES

En el otoño de 1993, cuando Bell Atlantic accedió a comprar el gigante de cable


TeleCommunications Inc. por 21.400 millones de dólares, los expertos en la superautopista de la
información lo interpretaron como una señal de que, por fin, la era digital había comenzado. Habían
cortado el cordón digital.
Sin embargo, la lógica reglamentaria y el sentido común obstaculizaron la fusión. Las
compañías de cable y las de teléfonos se volvieron rivales, y la reglamentación prohibía la mayoría
de asociaciones de copropiedad: algunos habían creído que las estrellas y los bucles, como el agua y
el aceite, se podían mezclar. Pero el nivel de inversión que se hubiera necesitado era astronómico.
Cuatro meses después, cuando fracasaron las negociaciones entre Bell Atlantic y TCI y las
aguas volvieron a su cauce, surgió una nueva terminología para referirse a los «retrasos en la
construcción» y el «bloqueo» en la superautopista de la información. La era digital se había vuelto a
posponer. Las acciones de TCI bajaron más de un 30 % y otras empresas asociadas también se
fueron a pique. El champán tuvo que volver a la botella.
Pero desde mi punto de vista, ésta no fue una pérdida importante. De hecho, el acuerdo entre
Bell Atlantic y TCI hubiera sido una de las fusiones empresariales menos interesantes.
Era como si dos proveedores de fontanería que manejaran tamaños diferentes de tubería
hubieran decidido unir sus existencias. La cuestión principal no era la combinación de canal y
contenido, o sea la mezcla entre la fabricación de bits y su distribución. En cambio, que en 1994,
Disney y el magnate de Hollywood, Michael Ovitz se hayan asociado, cada uno de ellos por
separado, con tres compañías telefónicas regionales sí que resulta interesante.
También los fabricantes de electrodomésticos han tratado de fusionarse con las empresas de
entretenimiento. En principio, la idea es buena, pero hasta ahora ha tenido poca sinergia debido a
discrepancias de todo tipo. Cuando Sony compró CBS Records, y luego Columbia Pictures, los
norteamericanos protestaron, así como cuando se vendió el Centro Rockefeller. Estas adquisiciones
plantearon el problema del control extranjero, real o simbólico, de un bien cultural de la nación.
Cuando poco después Matsushita compró MCA, la gente se sorprendió aún más porque muchos
consideraban que el presidente de MCA, Lew Wasserman, era el más norteamericano de todos los
altos ejecutivos de Estados Unidos. Recuerdo que cuando visité las instalaciones de MCA después
de la primera crisis del petróleo había pegatinas en la botonera del ascensor (un mensaje de Lew)
que decían: «Sube a pie uno o dos pisos, por tu salud y por tu país.» Estas adquisiciones plantean
profundas divisiones culturales, no sólo entre el pensamiento japonés y el estadounidense, sino
entre la ingeniería y el arte. Ciertamente, hasta ahora no han funcionado, pero sospecho que algún
día lo harán.

CONVERGENCIA CULTURAL

Se percibe una cierta divergencia, aunque sea artificial, entre la tecnología y las humanidades, la
ciencia y el arte, entre el hemisferio derecho del cerebro y el izquierdo, pero creo que el mundo
emergente de los multimedia será una de las disciplinas que, como la arquitectura, hará de puente.
La televisión se inventó por imperativos puramente tecnológicos. En 1929, cuando pioneros de
la televisión como Philo Farnsworth y Vladimir Zworykin vieron las imágenes electrónicas del
tamaño de un sello postal, decidieron perfeccionar el sistema movidos por su curiosidad
tecnológica. Al principio, Zworykin tenía algunas ideas ingenuas sobre el uso de la televisión, y por
ello sufrió una gran desilusión durante los últimos años de su vida.
El antiguo presidente del MIT, Jerome Wiesner, cuenta que Zworykin lo visitó un sábado en la
Casa Blanca cuando Wiesner era asesor científico y amigo íntimo de John F. Kennedy. Le preguntó
a Zworykin si conocía al presidente y como contestó que no, lo llevó a su presencia. Wiesner lo
presentó al presidente con estas palabras:
—Éste es el hombre que hizo posible su elección.
—¿Cómo es eso? —preguntó sorprendido JFK.
—Este hombre inventó la televisión —le explicó Wiesner. JFK comentó que su invento era
extraordinario.
Pero Zworykin respondió con ironía:
—¿Ha visto televisión últimamente?
Los imperativos tecnológicos fueron lo único que influyó en el desarrollo de la televisión.
Después pasó a manos de gente con talento creativo y valores muy diferentes, que pertenecían a
otra subcultura intelectual.
Por el contrario, la fotografía, a diferencia de la televisión, la inventaron los fotógrafos. Las
personas que perfeccionaron la tecnología fotográfica lo hicieron con propósitos específicos,
afinaron sus técnicas para poder desarrollar su arte, así como los escritores inventaron el romance,
la novela, el ensayo y el tebeo para expresar mejor sus ideas.
Los ordenadores personales han hecho que la informática se aleje del imperativo técnico y en la
actualidad su evolución se parece más a la de la fotografía. La informática ya no es del dominio
exclusivo del Ejército, el Gobierno y las grandes empresas. Se está extendiendo a individuos muy
creativos de todos los estratos de la sociedad y se está convirtiendo en un medio de expresión
creativa, tanto en su utilización corno en su desarrollo. Los medios y los mensajes de los
multimedia serán una mezcla de logros técnicos y artísticos, y la fuerza impulsora la ejercerá el
consumidor.
El negocio de los juegos electrónicos, que mueve 15.000 millones de dólares en todo el mundo,
es un ejemplo. Ha crecido más que la industria cinematográfica, y sigue creciendo. Los fabricantes
de juegos están dándole un impulso tan fuerte a la tecnología de la presentación que la «realidad
virtual» se convertirá en una «realidad» de muy bajo coste, mientras que la NASA sólo fue capaz de
usarla con relativo éxito a un coste de más de 200.000 dólares. El 15 de noviembre de 1994,
Nintendo anunció la comercialización de un juego de realidad virtual llamado «Virtual Boy» (El
niño virtual) por 199 dólares.
Por otra parte, tomemos el procesador de Intel más rápido que hay y que trabaja a una velocidad
de 100 millones de instrucciones por segundo (MIPS). Comparémoslo con Sony, que acaba de
introducir en el mercado una «Playstation» (estación de juego) de 1.000 MIPS por 200 dólares.
¿Qué está pasando? La respuesta es simple: tenemos un deseo insaciable de nuevos tipos de
entretenimiento y el nuevo contenido en tres dimensiones y en tiempo real del que ahora depende la
industria de los juegos necesita ese tipo de procesamiento y esas nuevas presentaciones. La
aplicación manda.

TIRAR O EMPUJAR

Muchas de las grandes compañías de medios como Viacom, News Corporation y el editor de
este libro dependen de la distribución para transmitir sus contenidos de información y
entretenimiento. Como he dicho antes, la distribución de átomos es mucho más compleja que la de
bits y requiere el respaldo de una gran empresa. En cambio, mover bits es mucho más sencillo y, en
principio, no necesita de estas enormes empresas.
A través del The New York Times llegué a conocer y a disfrutar los artículos sobre el mundo de
la informática y las comunicaciones del periodista John Markoff. De no ser por The New York
Times nunca hubiera conocido su trabajo. Sin embargo, ahora que lo conozco, sería mucho más
sencillo para mí disponer de un sistema automático de acceso a los artículos recientes de Markoff y
guardarlo en mi periódico personalizado o en mi archivo de lecturas pendientes. Estaría dispuesto a
pagarle a Markoff los clásicos «dos centavos» por cada uno de sus artículos.
Veamos. Si una de cada 200 personas abonadas a Internet en 1995 hiciera lo mismo que yo y
Markoff escribiese 100 artículos al año (de hecho escribe entre ciento veinte y ciento cuarenta),
ganaría un millón de dólares al año, que me atrevería a decir que es más de lo que le paga The New
York Times. La proporción de uno por cada 200 puede parecer una exageración, pero no lo es si lo
analizamos detenidamente. Cuando alguien ya tiene un nombre puede trabajar de esta manera
porque los gastos de distribución en el mundo digital son muy reducidos.
La distribución y el movimiento de bits incluyen los procesos de filtrado y selección. La
empresa de media es, entre otras cosas, un hábil explorador, y su canal de distribución un banco de
pruebas de la opinión pública.
Pero llegado un punto, el autor podrá prescindir de este espacio. Seguro que en la era digital,
Michael Crichton podría ganar más dinero vendiendo sus próximos libros directamente. Lo siento
por mi editor.
Ser digital cambiará la naturaleza de los media. Se invertirá el proceso de envío de bits a la
gente por un proceso en el que las personas o sus ordenadores serán los que elijan esos bits. Éste es
un cambio radical, porque nuestra idea de los media es la de una sucesión de capas que filtran y
reducen la información y el entretenimiento a una serie de best-sellers o «noticias de portada» que
son «enviadas» a diversas audiencias. A medida que las empresas de media se introducen cada vez
más en el terreno de la transmisión selectiva, como el negocio de la publicación de revistas, siguen
enviando bits a diversos grupos de interés, como fanáticos de los coches, esquiadores entusiastas o
amantes del vino. Hace poco me enteré de un proyecto para editar una revista dedicada a gente que
padece insomnio y los publicistas habían tenido la brillante idea de anunciarla en televisión por la
noche, cuando además las tarifas son más baratas.
La industria de la información pasará a manos de la pequeña empresa, y su mercado residirá en
la autopista de la información global. Los clientes serán las personas y sus ordenadores. ¿Y existe
un mercado digital real? Sí, pero sólo si la interfaz entre las personas y sus ordenadores mejora
hasta un punto en que hablar con nuestro ordenador sea tan sencillo como hacerlo con un ser
humano.
LA INTERFAZ
DONDE LAS PERSONAS Y LOS BITS
SE ENCUENTRAN

REACCIÓN FATAL

H
ace muchos años que paso un mínimo de tres horas diarias enfrente de un ordenador, y a veces
todavía me resulta muy desalentador. Entender los ordenadores es tan fácil como descifrar un
extracto bancario. ¿Por qué los ordenadores, y también los extractos bancarios, tienen que ser tan
complicados? ¿Por qué «ser digital» es tan difícil?
En realidad no lo es, y tampoco hay ninguna necesidad de que lo sea. La evolución de la
informática ha sido tan rápida que hace muy poco tiempo que disponemos de la suficiente potencia
informática a bajo coste para usarla libremente facilitando así la interacción entre usuario y
ordenador. Antes se consideraba frívolo e incluso antieconómico dedicar tiempo y dinero a la
interfaz de usuario, porque los ciclos de ordenador eran tan valiosos que había que emplearlos en el
problema, no en la persona.
Los científicos justificaron las austeras interfaces de muchas maneras. A principios de los años
setenta, por ejemplo, se publicaron un montón de escritos «académicos» que defendían que el
blanco y negro se ve «mejor» que el color. Éste no es malo, pero la comunidad científica pretendía
justificar así su incapacidad para fabricar una buena interfaz a un coste razonable o, para ser un
poco más cínico, de aportar soluciones imaginativas.
A los que trabajábamos en la interfaz hombre-ordenador, a finales de los años sesenta y durante
la década de los setenta, nos consideraban moñas informáticas y nos miraban con un desprecio
absoluto. Nuestro trabajo no era lo que se llevaba, pero aun así iba ganando aceptación. Para darnos
cuenta de lo importantes que pueden llegar a ser las sensaciones, las impresiones, las respuestas,
pensemos en la última vez que pulsamos el botón de un ascensor y la luz no funcionaba,
seguramente porque la bombillita se había fundido. La frustración es enorme porque tenemos la
impresión de que el ascensor no nos entiende. Del mismo modo, la función y el diseño de la interfaz
son muy importantes.
En 1972 había sólo 150.000 ordenadores en el mundo, mientras que las previsiones para dentro
de cinco años del fabricante de circuitos integrados Intel son expedir, ellos solos, 100 millones cada
año, y en mi opinión sus cálculos están por debajo de las expectativas reales. Hace treinta años, usar
un ordenador, como pilotar un módulo lunar, era el privilegio de unos pocos licenciados en el
abracadabra necesario para manejar aquellas máquinas, que tenían lenguajes primitivos o carecían
de lenguaje, y que estaban llenas de aparatejos, interruptores y luces parpadeantes. Creo que, de
forma inconsciente, se hacía un esfuerzo para mantener el asunto en el misterio, como el monopolio
que poseían los monjes sobre algunos extraños ritos en los tiempos antiguos.
Y todavía lo estamos pagando ahora.
Cuando hablamos del aspecto y del tacto de los ordenadores, nos referimos a la interfaz gráfica
de usuario, lo que los «profesionales» llaman GUI. Esta mejoró mucho a partir de 1971 con los
trabajos de Xerox y, poco después, con los que se llevaron a cabo en el MIT y en otros pocos
lugares similares. El proceso culminó con un producto real una década más tarde, cuando Steve
Jobs tuvo la suficiente sabiduría y perseverancia para presentar el Macintosh. El «Mac» fue un gran
paso adelante para el mercado, y aún no ha ocurrido nada comparable. Las demás empresas
tardaron más de cinco años en copiar a Apple, y en algunos casos lo han hecho con peores
resultados, incluso hoy día.
La historia del esfuerzo humano para hacer que las máquinas sean más fáciles de usar se
concentra casi toda en el aumento de los puntos de contacto sensorial y en el desarrollo de mejores
diseños físicos. La interfaz se trató durante mucho tiempo como si fuera un problema de diseño
industrial convencional, como los diseñadores de cafeteras y rastrillos que consideran el manejo de
estos artículos en términos de forma, conductividad de la temperatura y prevención de ampollas.
El diseño de las cabinas de mando de los aviones es un reto desalentador, no sólo por la gran
cantidad de interruptores, botones, diales e indicadores que llevan, sino también porque dos o tres
entradas sensoriales de clase similar pueden interferirse unas con otras. En 1972, un L1011 de
Eastern Airlines se estrelló porque su tren de aterrizaje no bajó. La voz del controlador aéreo
sumada a las señales acústicas del ordenador de a bordo impidieron que la tripulación oyera el
mensaje de alarma. Eso es un diseño de interfaz mortal.
Yo tenía en casa un vídeo muy inteligente, que contaba con un sistema de reconocimiento de
voz muy perfeccionado e información sobre mi persona. Se le podía pedir que grabara programas
con sólo mencionar su título e incluso, en algunos casos, se suponía que lo haría automáticamente,
sin preguntarme. Pero de pronto, mi hijo se fue a la universidad y ya no he vuelto a grabar un
programa de televisión en los últimos seis años. No es que no pueda, sino que el esfuerzo no vale la
pena. Aunque no lo parezca, es demasiado complicado. Y lo peor es que el uso del vídeo y de las
unidades de control remoto se entienden, en general, como una cuestión de apretar botones. Del
mismo modo, la interfaz con ordenadores personales se ha tratado generalmente como un problema
de diseño físico. Pero ésta no sólo tiene que ver con el aspecto y el tacto de un ordenador, sino que
también está ligada con la creación de personalidad, el diseño de inteligencia y la construcción de
máquinas capaces de reconocer la expresión humana.
Un perro nos reconoce por nuestros pasos a más de cien metros de distancia, mientras que un
ordenador ni siquiera puede darse cuenta de nuestra presencia. Casi todos los animales domésticos
reconocen cuando nos enfadamos, pero no un ordenador. E incluso hasta los cachorros saben
cuándo se portan mal; los ordenadores, no.
Así que el desafío para la próxima década no sólo consiste en ofrecer pantallas más grandes,
mejor calidad de sonido y dispositivos gráficos de fácil uso, sino en hacer ordenadores que nos
conozcan, que aprendan lo que necesitamos y entiendan lenguajes verbales y no verbales. Un
ordenador debería saber que no es lo mismo decir «votar» que «botar», no porque detecte la
pequeña diferencia acústica sino porque comprenda el significado. Eso es un buen diseño de
interfaz.
La interacción es una carga que ha pesado sobre el hombre hasta hoy día. Algo tan banal como
imprimir un archivo de ordenador llega a ser una fatigosa experiencia más parecida al vudú que a
un comportamiento humano respetable. Y como consecuencia de todo ello, muchos adultos
«desconectan» y proclaman ser analfabetos informáticos sin esperanzas. Pero esto cambiará.

ODISEAS

En 1968, Arthur C. Clarke obtuvo una nominación al Osear con Stanley Kubrick por la película
2001: Una odisea en el espacio. Curiosamente, la película se pudo ver antes que el libro. Clarke
pudo revisar su manuscrito, basado en una versión más antigua del mismo relato, después de ver las
pruebas. En realidad, Clarke pudo hacer un borrador de su argumento y refinar sus conceptos. Tuvo
la oportunidad de ver y oír sus ideas antes de enviarlas a la imprenta.
Esto quizás explica por qué HAL, el ordenador que aparece en la película, era una visión tan
brillante, y letal, de una futura interfaz hombre-ordenador. HAL, cuyo nombre no proviene de las
respectivas letras precedentes de IBM, tenía un dominio completo del lenguaje en cuanto a
entendimiento y enunciación, una visión excelente y humor, la prueba suprema de inteligencia.
Pasó casi un cuarto de siglo antes de que apareciera otro ejemplo de excelencia en la interfaz: El
navegante del conocimiento. Este vídeo, que fue también una producción teatral, del género
llamado programa piloto, era un encargo del entonces presidente ejecutivo de Apple, John Sculley,
cuyo propio libro se llamaba también Odisea. El libro de Sculley terminaba con algunas ideas sobre
un «navegante del conocimiento», que más tarde se convertirían en el vídeo. Pretendía ilustrar una
interfaz del futuro, más allá del ratón y el menú. Fue un trabajo excelente.
El navegante del conocimiento describe un dispositivo plano con aspecto de libro abierto sobre
la mesa de un profesor de los que usan chaqueta de mezclilla. En una esquina del visor hay un
personaje con pajarita que representa a la persona de la máquina. El profesor pide a este agente que
le ayude a preparar una conferencia, delega en él una serie de tareas y en un par de ocasiones se da
por enterado de otros asuntos pendientes. El agente ve, oye y responde con inteligencia, como
cualquier ayudante humano.
HAL y el navegante del conocimiento tienen en común que ambos dan muestras de inteligencia
hasta un punto en el que la interfaz física en sí misma casi ha desaparecido. En eso consiste el
secreto del diseño de la interfaz, en hacer que desaparezca. Cuando conocemos a alguien, podemos
ser muy conscientes de su aspecto, voz y maneras. Pero enseguida domina el contenido de nuestra
comunicación, aunque éste se expresa en buena parte por el tono de voz o las expresiones faciales.
Una buena interfaz de ordenador debería comportarse de igual modo. El problema no es tanto
diseñar un tablero de mandos como diseñar un ser humano.
Por otra parte, muchos diseñadores de interfaz han intentado con tenacidad hacer que máquinas
tontas fueran más fáciles de usar por gente lista. Han encontrado un filón en un campo al que
llaman en Estados Unidos «factores humanos» y en Europa «ergonomía». Esta disciplina trata sobre
cómo el cuerpo humano utiliza sus sensores y accionadores para trabajar con las herramientas de su
entorno inmediato.
Un teléfono es tal vez el aparato más diseñado y rediseñado del mundo, y todavía sigue siendo
poco satisfactorio. Los teléfonos móviles hacen palidecer a los reproductores de vídeo por lo poco
manejable de su interfaz. Un teléfono Bang & Olufsen es escultura, no telefonía, y resulta más
difícil de usar que un antiguo teléfono negro de disco giratorio.
Peor aún, a los diseños de teléfono se les ha añadido una infinidad de funciones: archivo de
números, dispositivo de rellamada, funcionamiento con tarjeta de crédito, llamadas en línea, filtro
de llamadas, contestador automático, visualización del número en pantalla y otras más que se han
introducido en un aparato que cabe en la palma de la mano y casi resulta imposible de usar.
No sólo no deseo esas prestaciones, sino que no quiero tener que marcar el teléfono para nada.
¿Por qué los diseñadores de teléfonos no entienden que ninguno de nosotros quiere marcar números
de teléfono? Lo que queremos es «contactar» con las personas por teléfono.
Si tuviéramos la menor oportunidad, delegaríamos la tarea de manejar el teléfono en otra
persona, lo cual me sugiere la idea de que el problema tal vez no radique en el diseño del auricular,
sino que debería diseñarse un secretario robot que cupiera en el bolsillo.

MÁS ALLÁ DE LOS PRIMEROS BOCETOS


El diseño de interfaces de ordenador empezó en marzo de 1960, cuando J.C.R. Licklider publicó
su escrito «La simbiosis hombre-ordenador». Lick, pues así le llamaban, era un psicólogo
experimental y experto en acústica que llegó a ser un converso y un mesías de la informática y
dirigió los primeros trabajos informáticos del ARPA. A mediados de los años sesenta le pidieron
que escribiera un apéndice para el informe de la Commision Carnegie sobre el futuro de la
televisión, y fue entonces cuando Lick acuñó el término «transmisión selectiva» (narrowcasting).
Lo que Lick ignoraba en aquella época era que estas dos contribuciones, simbiosis hombre-
ordenador y transmisión selectiva, estaban destinadas a converger en los años noventa.
Las primeras investigaciones sobre la interfaz hombre-ordenador, realizadas a principios de los
sesenta, se dividieron en dos partes que no volverían a reunirse hasta al cabo de veinte años. Una se
orientaba hacia la interactividad, y la otra se centraba en la riqueza sensorial.
La interactividad abordó la búsqueda de soluciones al problema de compartir un ordenador, que
entonces era un recurso costoso y monolítico. En los años cincuenta y a principios de la década de
los sesenta, un ordenador era tan valioso que se hacían grandes esfuerzos para mantenerlo
funcionando todo el tiempo. A nadie se le habría ocurrido conectarle un teclado e intercambiar
preguntas y respuestas con él o, por ejemplo, pedirle que nos hiciese una pregunta y que esperase
pacientemente mientras nosotros la leíamos, pensábamos y respondíamos. El invento, llamado
«tiempo compartido», era un método con el cual múltiples usuarios podían compartir una sola
máquina, aunque estuvieran en lugares diferentes. Si, por ejemplo, se dividían los recursos entre 10
personas, por ejemplo, no es sólo que cada persona podía tener un décimo de la máquina, sino
también que mientras uno estaba ocupado reflexionando, otro podía usar el ordenador al 100 %.
Esta partición del pastel digital funcionaba a condición de que ningún usuario acaparase grandes
cantidades de computación o ancho de banda. Los primeros terminales funcionaban a 110 baudios.
Aún recuerdo como si fuera ayer cuando aumentaron su capacidad a 300 baudios; parecía que iba
tan rápido...
Por el contrario, la riqueza sensorial se investigaba a partir de la interacción gráfica con mucho
ancho de banda. Los primeros gráficos por ordenador necesitaban una máquina dedicada por entero
a suministrar la imagen. El principio no era distinto del que utilizan ahora los ordenadores
personales, pero ocupaba una habitación grande y costaba millones de dólares. Los gráficos por
ordenador nacieron como un medio de dibujo lineal que exigía mucha potencia de procesamiento
para controlar directamente el haz de luz del tubo de rayos catódicos.
Los gráficos por ordenador tardaron diez años en empezar a cambiar de trazos de dibujo lineal a
representaciones de formas e imágenes. Las nuevas presentaciones, llamadas «pantallas punto a
punto», necesitaban mucha memoria para almacenar la imagen. Hoy día son tan comunes que casi
nadie sabe que al principio se las consideraba heréticas puesto que nadie creía en 1970 que la
memoria de ordenador sería algún día lo bastante barata como para dedicar tanta a los gráficos.
Tiempo compartido y gráficos por ordenador fueron humildes compañeros de habitación
durante las dos décadas siguientes. Estos sistemas de representación deficiente y tiempo compartido
fueron una herramienta de uso común en la informática financiera y académica y dieron origen a los
sistemas de banca electrónica y de reserva de plazas en los aviones que hoy consideramos tan
habituales. El tiempo compartido comercial vino de la mano de un diseño de interfaz muy limitado,
por lo general con salida de máquina de escribir. Se diría que se buscaba que el sistema fuera lo
bastante lento para un solo usuario, de forma que otros pudieran compartirlo con él.
Los gráficos por ordenador, en cambio, se desarrollaron en su mayor parte como informática
individual. Hacia 1968 los llamados «miniordenadores» empezaron a aparecer en el mercado con un
precio que rondaba los 20.000 dólares. Este alto coste era debido a que la automatización de las
fábricas y la maquinaria necesitaban controles muy precisos y en tiempo real. Esto ocurrió también
con los gráficos por ordenador que, conjuntamente con las pantallas, los sistemas aislados para
gráficos fueron los precursores de lo que hoy conocemos como estaciones de trabajo, que no son
otra cosa que ordenadores personales con pantalones largos.
INTERFAZ MULTIMODAL

La redundancia se considera generalmente un mal síntoma, y sugiere una verborrea innecesaria


o repeticiones negligentes. En los primeros diseños de interfaz, se estudiaban técnicas de
interacción y se intentaba seleccionar cuidadosamente unos medios u otros, según las
circunstancias. ¿Qué era mejor, un lápiz óptico o un tablero digitalizador? La mentalidad «uno-u-
otro/a» se apoyaba en la falsa creencia de que había una solución universal «mejor» para cada
situación; este enfoque es falso porque hay personas diferentes, las situaciones cambian y las
circunstancias de una interacción en particular las puede determinar el canal del que disponemos. El
«mejor diseño» de interfaz no existe.
Recuerdo que a mediados de los años setenta visité a un almirante que tenía uno de los más
avanzados sistemas de mando-y-control. El almirante vociferaba órdenes a un joven marino, que las
tecleaba, sumiso, en el lugar adecuado. O sea que, en cierto sentido, el sistema tenía una interfaz
fabulosa: era capaz de reconocer el habla, y también paciente. El almirante podía moverse por la
habitación, hablar y gesticular. Podía ser él mismo.
Sin embargo, el almirante no estaba preparado para planear un ataque a través de una interfaz
tan indirecta. Sabía que el marino veía lo que sucedía por el ojo de la cerradura del pequeño visor
del ordenador, pero el almirante prefería interactuar directamente sobre un gran mapa mural que
representaba el «teatro de operaciones» en el que enganchaba barquitos azules y rojos con la
correspondiente forma. En aquella época siempre bromeábamos sobre el uso que los rusos daban a
los mismos colores.
El almirante se sentía cómodo con el mapa, no porque fuera anticuado o tuviera muy buena
resolución, sino porque se podía entregar a él con toda su alma. Cuando movía barcos, sus gestos y
acciones motoras reforzaban su memoria. Su compenetración con el mapa implicaba hasta los
músculos de su cuello. En definitiva, no se trataba de una interfaz uno-u-otro/a sino de una interfaz
ambas/y.
La combinación ambas/y cambió la manera de pensar y se llegó a la conclusión de que la
redundancia era deseable. De hecho, la mejor interfaz debería tener muchos canales de
comunicación diferentes y recurrentes, a través de los cuales un usuario podría expresar y reconocer
mediante su análisis toda una serie de sensores distintos (los del usuario y los de la máquina). O
también, y esto es importante, un canal de comunicación podría suministrar la información que
faltaba en el otro.
Por ejemplo, si estamos en una habitación con un grupo de personas y pregunto a alguien cuál es
su nombre, la pregunta no tiene sentido a menos que se sepa a dónde estoy mirando mientras hablo.
En realidad, el posesivo «su» adquiere significado a partir de la dirección de mi mirada. Esto lo
ilustraba a la perfección un programa llamado «Pon-Eso-Aquí», desarrollado en el MIT por Dick
Bolt y Chris Schmandt. La primera versión del programa, de 1980, permitía hablar y gesticular ante
una pantalla mural y mover objetos simples (luego barcos) a lo largo de una pantalla en blanco
(después a lo largo de todo el Caribe). En una película de exhibición de Pon-Eso-Aquí, había una
orden mal entendida y la expresión espontánea de Schmandt, «Mierda», permaneció grabada en la
película para recordar a las futuras audiencias cuánto trabajo quedaba todavía por hacer.
La idea es muy sencilla: hablar, señalar y mirar deberían funcionar en conjunto como parte de
una interfaz multimodal que se parece menos a enviar y recibir mensajes (la base del tiempo
compartido) que a una conversación cara a cara, entre seres humanos.
Sin embargo, en aquella época, estos primeros intentos por realizar una aproximación alterna
«ambas/y» al diseño de interfaz no daban la impresión de ser muy serios. De hecho, las pruebas y
evaluaciones en la investigación de la interfaz no me inspiran mucho respeto. Mi argumento,
arrogante quizás, es que si hace falta probar algo tan cuidadosamente para ver sus ventajas es
porque, de entrada, no tiene muchas ventajas.
LA DIFERENCIA PERCEPTIBLE

Cuando yo era niño, mi madre tenía un armario en cuya parte de atrás había una «pared
secreta». El secreto no era más que una colección de marcas de lápiz que hacíamos cada cierto
tiempo para medir mi estatura. Todas las líneas llevaban su correspondiente fecha, y algunas
aparecían juntas debido a la mayor frecuencia de las mediciones y otras espaciadas debido a que,
por ejemplo, habíamos ido a pasar el verano a otro lugar; no tenía mucho sentido usar dos armarios
para lo mismo.
Esta escala era una cuestión personal para mí, y me imagino que representaba de alguna forma
mi asimilación de leche, espinacas y otros alimentos nutritivos.
Sin embargo, el crecimiento tiene un aspecto más dramático. Por ejemplo, un tío mío que no me
había visto en, digamos, dos años, comentaba: «¡Cuánto has crecido, Nicky!» Pero yo realmente no
me daba cuenta del cambio porque sólo tenía la referencia de las líneas en el armario.
La «diferencia mínima perceptible» o JND (just-noticeable difference) es una unidad de medida
en psicofísica. El nombre por sí solo ha influido en el diseño de la interfaz humana. Entonces, si
sólo es una diferencia mínima perceptible, ¿por qué preocuparse ? Si tenemos que medir con tanto
cuidado para ver alguna diferencia, quizás estemos trabajando en cosas que no tienen suficiente
interés.
Por ejemplo, hay estudios académicos que sugieren que el discurso y el lenguaje natural no son
en muchos casos los canales de comunicación más apropiados entre las personas y los ordenadores.
Estos informes técnicos están llenos de tablas, controles de grupos y demás, que prueban que el
lenguaje natural es confuso para la comunicación hombre-ordenador.
Personalmente, aunque es obvio que no espero que el piloto de un Boeing 747 ponga el avión en
marcha y despegue al cantar de «Volando, volando...», no encuentro ninguna razón para no usar la
riqueza del habla y los gestos, incluso en una cabina de control. Donde quiera que haya
ordenadores, el diseño de interfaz más efectivo proviene de la combinación de la riqueza sensorial y
la inteligencia de la máquina.
Cuando esto ocurra sí que hallaremos una diferencia perceptible. Veremos lo que veía mi tío, en
lugar de las líneas del armario.

INTERFACES INTELIGENTES

Mi interfaz ideal es aquella en que los ordenadores sean más como las personas. Esta idea es
susceptible de ser criticada por romántica, vaga o irrealizable. Pero yo, si acaso, la criticaría por
apuntar demasiado bajo. Debe de haber muchos canales sofisticados de comunicación de los cuales
ni siquiera nos hemos enterado todavía. Desde el momento en que hay hermanos gemelos que, sin
saberlo, se casan con hermanas gemelas, estoy dispuesto a creer, a partir de lo que he observado,
que la comunicación extrasensorial no está descartada.
A mediados de los años sesenta, me fijé el objetivo de tratar de recrear la comunicación cara a
cara, con sus lenguajes gestuales, expresiones faciales y la incorporación de los miembros motrices
del cuerpo. Mi modelo era el almirante.
En 1976, el objetivo de un proyecto decisivo llamado Spacial Data Management System
consistía en fabricar una interfaz humana que «pusiera los ordenadores en manos de generales y
presidentes de empresas pero también de niños de seis años». El sistema estaba diseñado para
aprender a usarlo en treinta segundos puesto que para ver y manipular sonido, imágenes e
información sofisticados se utilizó la familiaridad con escritorios y estanterías.
A finales de los setenta esto resultaba muy radical, pero no se alcanzó el objetivo primordial de
plantear nuestra comunicación según el modelo del almirante y el marino. La interfaz hombre-
ordenador futura se basará en la función de «delegar», no en la vulgar manipulación directa
(apretar, soltar, hacer click) ni en las interfaces de ratón. La «facilidad de uso» es un objetivo tan
apremiante que a veces olvidamos que hay muchas personas que no quieren usar máquinas en
absoluto. Quieren las cosas hechas.
Lo que ahora llamamos «interfaces basadas en agentes» serán los medios principales a través de
los cuales los ordenadores y las personas hablarán entre sí. Habrá puntos específicos del espacio y
del tiempo en donde los bits se convertirán en átomos y viceversa. Ya sea por medio de la
transmisión de un cristal líquido o de la resonancia de un generador de voz, la interfaz necesitará el
tamaño, forma, color, tono de voz y toda la restante parafernalia sensorial.
PERSONA GRÁFICA

EL BIG BANG DE LOS GRÁFICOS

E
n el MIT, la tesis doctoral de Ivan Sutherland, llamada «Sketchpad», dio a conocer al mundo en
1963 la idea de los gráficos interactivos por ordenador. Sketchpad era un sistema de trazo de líneas
en tiempo real que permitía que el usuario interactuara directamente con la pantalla del ordenador
por medio de un lápiz óptico. El resultado fue de tal magnitud y repercusión que a algunos de
nosotros nos llevó una década entender y apreciar todo lo que aportaba. Sketchpad introdujo
muchos conceptos nuevos: gráficos dinámicos, simulación visual, restricciones de resolución,
seguimiento del lápiz óptico y un sistema de coordenadas prácticamente infinito, entre otros
muchos. Sketchpad fue el big bang de los gráficos por ordenador.
Durante los siguientes diez años muchos investigadores perdieron interés por los aspectos de
interacción y de tiempo real de los gráficos por ordenador. Casi toda la energía creativa se invirtió
en la síntesis de imágenes reales en proceso diferido, no en tiempo real. Al mismo Sutherland le
intrigaba el problema de la verosimilitud visual; es decir, cuánto detalle y realismo fotográfico se le
podía conferir a una imagen por ordenador. La investigación se centró en problemas como
sombreados, degradaciones, reflejos, refracciones y superficies ocultas. Imágenes de piezas de
ajedrez y teteras con un alto nivel de resolución se convirtieron en los iconos del período posterior a
los primeros bocetos.
Durante esta época, llegué a pensar que la comodidad y la facilidad de uso que se le
proporcionaba al usuario para expresar sus ideas gráficas era más importante que la propia
capacidad de la máquina para reproducirlas como fotografías sintéticas. De hecho, en el diseño de
interfaz hombre-ordenador de esa época la máquina poseía un entendimiento limitado y las ideas
eran ambiguas, lo cual suele pasar en las primeras etapas de cualquier proceso de diseño, a
diferencia de las presentaciones más completas y consistentes de reproducciones sofisticadas y bien
acabadas. El seguimiento on-line y en tiempo real de un boceto dibujado a mano me proporcionó un
tema ideal de investigación para comprender mejor los gráficos por ordenador y hacer de ellos un
medio más dinámico, interactivo y expresivo.
El concepto clave de mi trabajo era entender la «intención» gráfica de una persona. Si el usuario
dibujaba una curva que parecía apuntar en alguna dirección, el ordenador asumía que ésa era la
intención, mientras que en un boceto, que se hace mucho más deprisa, esta misma línea se podría
haber dibujado con la intención de que fuese una recta. Si hubiéramos mirado estas líneas después y
no mientras las dibujaban, podrían haber parecido iguales. Sin embargo, el comportamiento del
usuario en cada caso indicaba dos diferencias de intención muy marcadas. Por otra parte, la manera
de hacer bocetos variaba según la persona. Por lo tanto, el ordenador tenía que aprender el estilo de
cada usuario. Encontramos el mismo concepto treinta años más tarde en la capacidad del Newton de
Apple (que algunos cuestionan) para reconocer la escritura por medio de la adaptación de la
máquina a la caligrafía del usuario (parece que funciona mejor con caligrafías muy elaboradas).
Mis investigaciones sobre la capacidad para identificar formas y objetos en un boceto me
llevaron a pensar en los gráficos por ordenador más en términos de puntos que de líneas. En un
boceto, lo que hay entre las líneas o dentro de ellas es el elemento clave para conocer la intención
del dibujante.
Durante la misma época, en el PARC (Centro de Investigaciones de Palo Alto) de Xerox, los
investigadores también habían inventado un sistema para gráficos por ordenador basado en las
formas, en el cual se gestionaba y se daba textura a las áreas amorfas a través del almacenamiento y
la presentación de imágenes como una colección masiva de puntos. Para entonces, unos cuantos de
nosotros llegamos a la conclusión de que el futuro de los gráficos interactivos por ordenador no
residía en las máquinas de trazo de líneas como Sketchpad, sino en sistemas punto a punto como el
de la televisión, que mostraban las imágenes almacenadas en la memoria del ordenador sobre una
pantalla, al contrario de lo que sucedía cuando se trabajaba con un haz de luz de un tubo de rayos
catódicos en X y en Y, como comentamos en el apartado «Más allá de los primeros bocetos». El
elemento original de los gráficos por ordenador, que hasta ahora había sido la línea, dio paso al
pixel.

EL PODER DEL PIXEL

De la misma manera que el bit es el átomo de la información, el pixel es la molécula de los


gráficos. Lo llamo «molécula» porque un pixel generalmente se compone de más de un bit. El
término «pixel», que viene de picture y element, fue inventado por quienes trabajaban en los
gráficos por ordenador.
Pensemos en una imagen como si fuera una colección de hileras y columnas de pixels o un
crucigrama sin guías. Podemos decidir cuántas hileras y columnas utilizaremos por cada imagen
monocromática. Cuantas más hileras y columnas utilicemos, más pequeños serán los recuadros, más
fino el granulado y mejor el resultado. Si imaginamos este entramado sobre una fotografía y
rellenamos cada recuadro con el valor de la intensidad de la luz, el crucigrama aparecerá resuelto
como un conjunto de números.
En el caso del color tenemos tres números por pixel, generalmente uno para el rojo, otro para el
verde y otro para el azul o uno para la intensidad, otro para el matiz y otro para la saturación. El
rojo, el amarillo y el azul, como nos enseñan en la escuela, no son los colores primarios. Los tres
colores primarios que se obtienen por adición, como en televisión, son el rojo, el verde y el azul,
pero los tres colores primarios que se obtienen por sustracción, como en la impresión, son el
magenta, el cian y el amarillo. Me han dicho que no les enseñamos estas palabras a los niños porque
la palabra «magenta» es muy larga, pero muchos adultos tampoco han oído hablar nunca del cian.
En fin.
En el caso del movimiento, se «muestrea» el tiempo, como se hace con los fotogramas de una
película. Cada muestra es un fotograma por separado, otro crucigrama por resolver, y cuando se
juntan todos y se proyectan en una sucesión lo bastante rápida, se produce el efecto visual del
movimiento. Una de las razones por las que existen tan pocos gráficos dinámicos o por las que nos
hemos encontrado con presentaciones de vídeo en una ventanita es que es muy difícil sacar el
suficiente número de bits de la memoria y llevarlos a la pantalla en forma de pixels con la velocidad
necesaria (entre 60 y 90 fotogramas por segundo) para que el movimiento de la imagen no
parpadee. Aunque, cada vez más, aparece un nuevo producto o técnica para acelerar este proceso.
La verdadera fuerza del pixel procede de su naturaleza molecular. Es decir, el pixel puede
formar parte de cualquier cosa, ya sea texto, líneas o fotografías. Así como «los bits son bits», «los
pixels son pixels». Con los suficientes pixels y los necesarios bits por pixel (según la imagen sea en
blanco y negro o en color), se puede obtener la excelente calidad de las pantallas de los ordenadores
y las estaciones de trabajo actuales. Sin embargo, las desventajas, al igual que las ventajas,
provienen de las limitaciones de la estructura tan primitiva de este entramado.
Por lo general, los pixels requieren mucha memoria. Cuantos más pixels y bits por pixel
utilizamos, más memoria se necesita para almacenarlos. Una pantalla normal de 1.000 por 1.000
pixels, a todo color, necesita 24 millones de bits de memoria. Cuando empecé a estudiar en el MIT,
en 1961, la memoria costaba cerca de un dólar por bit. Hoy día, 24 millones de bits cuestan 60
dólares, lo que significa que podemos ignorar la gran cantidad de memoria que utilizan los gráficos
por ordenador que funcionan a base de pixels.
Pero hace sólo cinco años no era así, y la gente economizaba utilizando menos pixels por
pantalla y muchos menos bits por pixel. De hecho, las primeras pantallas punto a punto utilizaban
sólo un bit por pixel, y de ahí hemos heredado el problema de los dentados en las imágenes de baja
definición.

INDEFINICIONES O DUPLICACIONES INADMISIBLES

¿Alguna vez se ha preguntado por qué la pantalla de su ordenador tiene líneas dentadas? ¿Por
qué las pirámides parecen zigurats? ¿Por qué las mayúsculas E, L y T se ven tan bien y en cambio
las S, W y O parecen decoraciones navideñas mal hechas? ¿Por qué parece que las curvas las ha
dibujado alguien que sufre parálisis?
La razón es que sólo se está usando un bit por pixel para presentar la imagen y el resultado es el
efecto escalera o simulación espacial, lo cual no sucedería si los fabricantes de hardware y software
utilizaran más bits por pixel y destinaran un poco de potencia informática a la resolución del
problema.
¿Y por qué no protegen las presentaciones de ordenador para evitar los dentados? Hace diez
años se hubiera aceptado el argumento de que la potencia del ordenador se tenía que invertir en
otras cosas; además, no había tantos niveles intermedios de gris para evitar el fenómeno como
ahora.
Desgraciadamente el consumidor se ha acostumbrado a los dentados. Incluso parece que
estamos convirtiendo este defecto en una especie de mascota de la misma manera que los
diseñadores gráficos, en los años sesenta y setenta, utilizaban ese extraño tipo de letra magnético,
MICR, para crear ese aire «electrónico». En los años ochenta y noventa los diseñadores han vuelto a
hacer lo mismo con los dentados de la tipografía cuando quieren que algo se vea «informatizado».
Pero hoy día, lo que necesitamos no son más que líneas y tipos de letra con calidad de impresión y
perfectamente definidos. No permita que nadie le diga lo contrario.

GRÁFICOS DE ICONOS

En 1976, Craig Fields, director de un programa en la Oficina de Tecnología Cibernética del


ARPA (y más tarde director de la agencia), encargó a una empresa de animación por ordenador de
Nueva York que produjera una película de un pueblo ficticio en el desierto llamado Dar El Marar.
La animación mostraba una vista aérea desde un helicóptero que sobrevolaba Dar El Marar, con
tomas de las calles, del pueblo visto a distancia, de las aldeas vecinas e incluso se acercaba para
mostrar el interior de las casas. La película era un simulacro de Peter Pan aunque el objetivo no era
pasearse por el pueblo y los edificios, sino explorar un mundo de información. Se diseñó un pueblo;
se construyeron comunidades de información y se almacenaron datos en ciertos edificios, como
hace una ardilla con sus nueces. Para recuperar esta información sólo había que ir en la alfombra
voladora al sitio en que ésta se encontraba almacenada.
Simonides de Ceos (556-468 a. de C.) era un poeta de la Grecia clásica famoso por su
extraordinaria memoria. Cuando el techo de una sala de banquetes se derrumbó minutos después de
que él hubiese salido del recinto, pudo identificar los restos de los invitados por el lugar donde cada
uno estaba sentado: el método que utilizaba para recordarlo era mediante la asociación de áreas
específicas de una imagen espacial de la mente con objetos materiales. También utilizaba esta
técnica para recordar sus largos discursos: relacionaba partes de su discurso con los objetos y
lugares de un templo; luego, mientras hablaba se paseaba mentalmente por el templo para extraer
sus ideas de una manera clara y ordenada. Los primeros jesuitas en China se referían a este proceso
como la construcción de «palacios de la mente».
En estos ejemplos se navega en un espacio tridimensional para almacenar y extraer información.
Algunas personas poseen facultades para esto y otras no.
La mayoría de nosotros funcionamos mejor en dos dimensiones. Tomemos como ejemplo la
perspectiva bidimensional de la estantería de libros que tenemos en casa. Para encontrar un libro lo
único que tenemos que hacer es ir «adonde» está. Seguramente recordamos su tamaño, color, grosor
y tipo de cubierta. Nos es más fácil recordar esto si fuimos nosotros mismos los que lo pusimos
«ahí»; hasta el escritorio más desordenado le resulta familiar al usuario, pues fue él quien lo
«desordenó», por decirlo de alguna manera. Sería terrible que viniese un bibliotecario a ordenar
nuestros libros según el sistema decimal Dewey o que la señora de la limpieza ordenara nuestro
escritorio. Estaríamos perdidos.
Este tipo de observaciones condujeron al desarrollo de lo que se llamó «Sistema de Gestión de
Datos en Tres Dimensiones» (SDMS). Este sistema se instaló en una habitación con una pantalla
del suelo al techo, de pared a pared y a todo color, con dos pantallas auxiliares de escritorio, sonido
octofónico, una silla equipada Eames y demás parafernalia. El SDMS proporcionaba al usuario una
interfaz de sofá y la oportunidad de volar sobre la información y mirar, desde su sillón, por una
pantalla del tamaño de una ventana. El usuario era libre de acercar la imagen y hacer panorámicas
para navegar a través del paisaje ficticio y bidimensional, llamado Dataland. Podía visitar archivos
personales, correspondencia, libros electrónicos, mapas realizados por satélite y una extensa
variedad de nuevos tipos de información como el videoclip de Peter Falk en «Colombo» o una
colección de 54.000 diapositivas sobre arte y arquitectura.
En realidad, Dataland era un paisaje de pequeñas imágenes que ilustraban la función o la
información que había tras ellas. Escondida detrás de una imagen de un calendario de escritorio
estaba la agenda del usuario. Si éste, por ejemplo, dirigía el sistema hacia el interior de la imagen de
un teléfono, el sistema de gestión de datos en tres dimensiones pondría en marcha un programa
telefónico con Rolodex. Así nacieron los iconos. Coqueteamos con la idea de usar la palabra
«glifos», porque el significado de iconos que aparece en el diccionario no es muy apropiado, pero
así se quedó: «iconos».
Estas imágenes del tamaño de un sello de correos no sólo ilustraban la información o las
funciones, sino que cada una tenía un «lugar». Como en los libros en una estantería, uno tenía que ir
hacia donde estaba el libro, recordar el lugar en el que estaba, su color, su tamaño y, dado el caso,
su sonido.
El sistema de gestión de datos en tres dimensiones estaba tan adelantado para su época que tuvo
que pasar una década y esperar al nacimiento de los ordenadores personales antes de que se
pusieran en marcha algunos de los conceptos que planteaba. Hoy día, la gente ya ha asimilado la
imaginería de cubos de basura, calculadoras y auriculares de teléfono. De hecho, algunos sistemas
se refieren a la pantalla como «escritorio». Lo único que ha cambiado es que las Dataland actuales
no se extienden por toda la habitación (de suelo a techo y de pared a pared), sino que están plegadas
en «ventanas».
LA FORMA DE LAS VENTANAS

No deja de asombrarme lo mucho que puede influir en el mercado un nombre bien elegido,
aunque pueda despistar al consumidor. La decisión de IBM de llamar «PC» a su ordenador personal
fue genial. A pesar de que Apple ya estaba en el mercado hacía cuatro años, el nombre de PC se
adoptó como sinónimo de ordenador personal. De la misma manera, cuando Microsoft decidió
llamar «Windows» a su segunda generación de sistemas operativos, se adoptó ese nombre para
siempre, a pesar de que Apple había tenido mejores ventanas cinco años antes y muchos fabricantes
de estaciones de trabajo ya las utilizaban habitualmente.
Las ventanas existen porque las pantallas de los ordenadores son pequeñas, y así un espacio de
trabajo relativamente reducido puede usarse para guardar una serie de procesos diversos que se
pueden activar en cualquier momento. Todo este libro se escribió en una pantalla de 9 pulgadas (22
centímetros) sin utilizar papel, excepto el que ha usado el editor. Para la mayoría de la gente,
utilizar ventanas es como conducir una bicicleta, ni siquiera se acuerda de cómo aprendió, lo hace y
ya está.
Las ventanas representan una metáfora interesante para el futuro de la televisión. En Estados
Unidos, más que en cualquier otro país, se ha insistido en que la imagen televisiva cubra toda la
pantalla. Pero existe el inconveniente de que no todas las películas ni programas de televisión se
editaron en formato rectangular.
De hecho, a principios de los años cincuenta, la industria cinematográfica cambió a formatos de
pantalla más grandes como Cinerama, Super Panavisión, Super Technirama, Panavisión de 35
milímetros y Cinemascope, que aún se utilizan hoy día, precisamente para boicotear la emisión
televisiva de películas recién estrenadas. La relación altura-anchura de 3 por 4 de la televisión
actual proviene de las películas que se realizaron antes de la Segunda Guerra Mundial, y no es
compatible con el Cinemascope o con las producciones de formato rectangular de los últimos
cuarenta años.
Las emisoras del continente europeo resolvieron la diferencia de la relación altura-anchura por
medio del proceso llamado «enmarcar la carta», que consiste en cubrir de negro la parte superior e
inferior de la pantalla para que el área restante corresponda a la relación altura-anchura de las
películas. El espectador sacrifica unos cuantos pixels, pero en cambio puede ver una reproducción
fiel de la forma de cada fotograma. De hecho, pienso que el efecto de «enmarcar la carta» es
doblemente satisfactorio porque introduce un contorno horizontal muy bien definido en la parte
superior e inferior de la imagen, que de otra manera estaría delimitada por el borde de plástico del
aparato de televisión.
Esto rara vez se hace en Estados Unidos. En lugar de eso se realiza un pan-and-scan (barrido-y-
selección) de una película para transferirla a un vídeo. Se toma la pantalla grande de la película y se
reduce a un rectángulo de una relación altura-anchura de 3 por 4. No sólo se comprime la película
(aunque esto se hace con los títulos y los créditos), sino que a medida que ésta pasa por una
máquina, un operador mueve manualmente una ventana de 3 por 4 sobre la ventana de la película
llevándola a uno u otro lado para captar las partes más relevantes de cada escena.
Algunos directores de cine, como Woody Allen, no permiten esta manipulación con sus
películas, pero a la mayoría no les importa. Uno de los ejemplos en los que fracasó el pan-and-scan
fue en El Graduado. En la escena en que Dustin Hoffman y Anne Bancroft se quitan la ropa, cada
uno en un extremo de la pantalla, el operador no logró meter a ambos en el mismo fotograma de
vídeo.
En Japón y en Europa se ha insistido mucho para cambiar a una relación altura-anchura de 9 por
16, y los competidores de la televisión de alta definición en Estados Unidos les están siguiendo
como borreguitos. De hecho, un formato de 9 por 16 puede ser aún peor que el de 3 por 4 porque
todo el material existente en vídeo (que es 3 por 4) tendrá que presentarse con unos listones negros
verticales a cada lado de la pantalla de 9 por 16, las llamadas «cortinas». Sólo que éstas no tienen la
misma utilidad visual que el proceso de «enmarcar la carta» y no se puede hacer un barrido-y-
selección para transferirlas a vídeo.
La relación altura-anchura tendría que ser una variable. Cuando la televisión tiene suficientes
pixels, un sistema de ventanas parece muy lógico: la experiencia de los 10 pies y la de las 18
pulgadas tienden a fundirse en una sola. De hecho, en el futuro, cuando se generalice la alta
resolución y la presentación mural, de suelo a techo y de pared a pared, podremos colocar la imagen
televisiva sobre la pantalla de la misma manera que ponemos las plantas en la habitación. Ya no se
tratará de un marco alrededor de una pequeña pantalla, sino de la pared completa.

GRÁFICOS DE CONSUMO

Hasta hace tan sólo cinco años, los fabricantes de ordenadores, incluido Apple, eran reticentes a
considerar el ámbito doméstico como un objetivo primordial de mercado. Es difícil de creer, pero
hace pocos años el precio de las acciones de Texas Instruments subió cuando anunció que dejaba el
negocio de los ordenadores personales.
En 1977, Frank Cary, presidente de IBM, anunció a los accionistas que la firma entraría en el
negocio de los aparatos domésticos. Se hizo un sondeo al estilo de IBM y se consideraron varias
posibilidades. Una de ellas era los relojes de pulsera, pero IBM se decidió por el ordenador
personal. El proyecto se mantuvo en el máximo secreto y recibió el nombre de Castle, en el que yo
participaba como asesor un día a la semana. Se concibió un ordenador personal muy ambicioso que
incluía un videodisco digital.
El distinguido diseñador industrial Elliott Noyes construyó un prototipo de ordenador personal
que todos nosotros nos sentiríamos orgullosos de tener veinte años después. Pero ese sueño pronto
empezó a desmoronarse. Los laboratorios de IBM en Poughkeepsie, Nueva York, no lograban hacer
funcionar el videodisco digital (que transmitía diez horas ininterrumpidas gracias al láser que
atravesaba un disco transparente, a diferencia de los actuales en que se refleja en un disco brillante).
Así que el ordenador personal y el videodisco quedaron separados. Castle estaba dividido.
El ordenador personal del proyecto se envió a otro laboratorio de IBM en Burlington, Vermont,
y más tarde a Boca Ratón; el resto es historia. El proyecto del videodisco se dejó de lado en favor
de un proyecto compartido con MCA (pacto que las dos empresas lamentaron más tarde). Castle se
malogró y el ordenador personal tuvo que esperar unos cuantos años más hasta que apareció el
garaje de Steve Job.
Por la misma época, los juegos electrónicos introdujeron un tipo diferente de ordenadores y
gráficos. Estos productos eran muy dinámicos e interactivos. Además, su hardware y contenido se
mezclaban muy bien. Los fabricantes de juegos no ganan dinero con el hardware, sino con los
juegos. Es como comparar maquinillas y hojas de afeitar.
Pero los fabricantes de juegos, como aquellas empresas de ordenadores con mentalidad de
sistemas de propietario que ahora han desaparecido, se aferran a sus sistemas cerrados en lugar de
competir con imaginación. Sega y Nintendo también desaparecerán si no se dan cuenta a tiempo de
que el PC se está comiendo el pastel.
Hoy día los diseñadores independientes de juegos deben darse cuenta de que sus productos
podrían ser éxitos de ventas si se destinaran a sistemas abiertos. Intel se propone vender cien
millones al año. Es por esto que dentro de muy poco tiempo los gráficos por ordenador del PC
competirán con los juegos más avanzados. Los juegos del PC superarán a otros sistemas cerrados.
El único terreno en el que el hardware con un destino específico puede tener éxito a corto plazo es
en el campo de la realidad virtual.
REALIDAD VIRTUAL 20/20

OXÍMORON O PLEONASMO

M
ike Hammer (no el detective, sino el mundialmente conocido médico de corporaciones o doctor en
ciencias empresariales, también llamado reingeniero), llama «cambio colectivo» a un oxímoron que
está a punto de convertirse en un pleonasmo. Un pleonasmo es una expresión redundante como «en
mi propia mente». Se puede decir que lo contrario es un oxímoron: una contradicción aparente
como «inteligencia artificial» o «comida de avión». Si se dieran premios al mejor oxímoron,
«realidad virtual» podría ganar uno.
Si entendemos las palabras «realidad virtual» como mitades iguales, la conclusión lógica es que
realidad virtual es un concepto redundante. La realidad virtual puede hacer que lo artificial parezca
tan real, o incluso más, que la propia realidad.
Por ejemplo, la simulación de vuelo, la aplicación más antigua y conocida de la realidad virtual,
parece más real que volar en un avión «de verdad». Pilotos recién entrenados pero perfectamente
capaces toman el mando por primera vez en un Boeing 747 «real» cargado de pasajeros porque han
aprendido más en el simulador de lo que podrían haber aprendido pilotando un avión. En el
simulador, se puede someter al piloto a toda clase de situaciones límite que, en el mundo real, serían
imposibles de recrear, pues provocarían situaciones peligrosas o incluso la destrucción del avión.
Otra aplicación didáctica de la realidad virtual consistiría en adoptar su uso en las autoescuelas.
Si en una carretera resbaladiza, un niño sale corriendo de entre dos coches, ninguno de nosotros
sabe cómo hay que reaccionar. La realidad virtual nos permite experimentar una situación «con
nuestro propio cuerpo».
La idea básica de la realidad virtual es provocar la sensación de «estar ahí», pues proporciona a
los sentidos, a la vista por lo menos, lo mismo que recibirían si uno estuviese realmente ahí y, más
importante aún, cambia instantáneamente la imagen cuando se cambia de punto de vista. Nuestra
percepción de la realidad espacial la genera una serie de indicaciones visuales, como tamaño
relativo, brillo y movimiento angular. Una de las más fuertes es la perspectiva, que es
particularmente poderosa en su forma binocular, en la que el ojo derecho y el izquierdo ven
imágenes diferentes. La fusión de ambas en una percepción en tres dimensiones es la base de la
estereovisión.
La percepción de profundidad que experimentamos cuando cada ojo ve una imagen ligeramente
distinta del otro, llamada «paralaje del ojo», es más efectiva con objetos cercanos, digamos a dos
metros de distancia. Los objetos más alejados los percibimos básicamente igual con cada ojo. ¿Se
ha preguntado alguna vez por qué una película en tres dimensiones tiene tanto movimiento de un
lado a otro en el campo cercano, con objetos que siempre vuelan hacia el público? Pues porque es
ahí donde las imágenes estereoscópicas funcionan mejor.
El equipo típico de la realidad virtual es un casco provisto con visores en forma de gafas, uno
para cada ojo. Cada visor proporciona una imagen en perspectiva ligeramente diferente de lo que
veríamos si estuviéramos ahí. En principio, cuando movemos la cabeza, las imágenes se actualizan
tan deprisa que nos da la impresión de estar haciendo esos cambios con el movimiento de la cabeza,
aunque en realidad es el ordenador el que sigue nuestro movimiento. Se tiene la sensación de que
uno mismo es la causa, no el efecto.
La medida de hasta qué punto puede parecer real la experiencia visual se debe a una
combinación de dos factores. El primero es la calidad de imagen: el número de contornos
visualizados y la textura entre ellos. El segundo es el tiempo de respuesta: la velocidad con la que
las escenas se actualizan. Ambas variables necesitan cantidades enormes de potencia informática y,
hasta hace poco, han estado fuera del alcance de la mayoría de los fabricantes.
La realidad virtual empezó ya en 1968, cuando nada menos que Ivan Sutherland construyó el
primer sistema de presentación instalado en un casco. Trabajos posteriores de la NASA y del
Departamento de Defensa norteamericano se concretaron en algunos carísimos prototipos utilizados
para la exploración espacial y para aplicaciones militares. Un uso idóneo de la realidad virtual fue el
entrenamiento para la conducción y pilotaje de tanques y submarinos, porque la experiencia «real»
obliga de todos modos a mirar a través de binoculares o periscopios.
Sólo ahora, cuando disponemos de ordenadores con la velocidad suficiente y a bajo coste,
podemos pensar en esta tecnología como un medio de entretenimiento para el consumo. De todos
modos, no dejará de impresionarnos.

EL COMANDO DE SOFÁ

Un parque jurásico sería una experiencia de realidad virtual fantástica. A diferencia del libro o
de la película del mismo nombre, éste no necesitaría argumento. Michael Crichton se limitaría a
diseñar la escenografía o parque temático y dotar a cada dinosaurio de aspecto, personalidad,
comportamiento y finalidad. Empieza el simulacro. Entramos. Esto no es la televisión y no hace
falta que sea tan aséptico como Disneylandia. No hay multitudes, ni colas, ni olor de palomitas, sino
excrementos de dinosaurio. Es como estar en una selva prehistórica y se puede hacer que parezca
más peligrosa que cualquier selva real.
Las generaciones futuras de niños y adultos se divertirán de este modo.
Puesto que las imágenes son informáticas, no reales, no es necesario limitarse a representaciones
o lugares reales. La realidad virtual nos permitirá tener la Vía Láctea en las manos, nadar a través de
la corriente sanguínea del cuerpo humano o visitar a Alicia en el País de las Maravillas.
La realidad virtual de hoy día presenta algunos inconvenientes y fallos técnicos que se tienen
que corregir para que la experiencia sea atractiva para la gran mayoría.
Por ejemplo, la realidad virtual de bajo coste está repleta de gráficos de baja calidad con
dentados. En el caso del movimiento, los dentados son aún más inestables porque aparentan
moverse y no siempre lo hacen en la misma dirección en que lo hace la escena. Pensemos en la
línea del horizonte, perfectamente horizontal. Ahora la inclinamos, sólo un poco, y aparece un
dentado en el medio. Después la inclinamos un poco más, y aparecen dos, luego tres, y otros más;
ahora ya parece que se mueven, hasta que llegamos a un ángulo de 45 grados y la línea recta se ha
convertido en una perfecta escalera de dentados compuestos de pixels que van de esquina a esquina
de la imagen.
Es horrible.
Pero lo peor de todo es que la realidad virtual no es lo bastante rápida.
Todos los sistemas comerciales, en particular los que pronto comercializarán los principales
fabricantes de videojuegos, son lentos. Cuando se mueve la cabeza, la imagen cambia enseguida,
pero no lo hace con la velocidad necesaria, sino que se retrasa.
En los primeros tiempos de los gráficos por ordenador en tres dimensiones, se usaban gafas
estereoscópicas de distintas clases para conseguir el efecto deseado. Algunas eran lentes polarizadas
baratas y otras disparadores electrónicos más caros que exponían alternativamente cada ojo a una
imagen diferente.
Recuerdo que las primeras veces que trabajé con ese tipo de aparatos, cuando la gente se ponía
aquellas gafas por primera vez para ver la pantalla en tres dimensiones, todos sin excepción movían
la cabeza de lado a lado, intentando hacer que las imágenes cambiasen. Pero del mismo modo que
en las películas de tres dimensiones, esto no ocurría. El movimiento de la cabeza no afectaba a las
imágenes.
Esta respuesta humana, la denominada «reacción de tirón de cuello», es elocuente. La realidad
virtual tiene que estar en perfecta coordinación con el movimiento y la percepción del lugar para
permitir al espectador que sea él y no la máquina quien produzca los cambios. En la realidad virtual
lo único que cuenta es seguir la trayectoria de la cabeza y responder a la velocidad de sus
movimientos. La rapidez con que se actualiza la imagen (la frecuencia de respuesta) es más
importante que la resolución. Esto demuestra que nuestro sistema motriz es tan agudo que el menor
retraso estropea la experiencia.
Es posible que muchos fabricantes se equivoquen y opten por vender sistemas primitivos de
realidad virtual con la más alta resolución posible, a expensas del tiempo de respuesta. Sin embargo,
proporcionarían una experiencia de realidad virtual mucho más satisfactoria si exhibieran menos
gráficos, y aumentaran la velocidad de respuesta.
La alternativa es abandonar la presentación montada en cascos, que proporciona imágenes a
cada ojo por separado, y adoptar las tecnologías llamadas «autoestereoscópicas», que emiten un
objeto real o imagen holográfica en el espacio, y la comunican a los dos ojos.

CABEZAS PARLANTES

A mediados de los años setenta, el ARPA puso en marcha un gran proyecto de investigación en
teleconferencia con el objeto de estudiar un aspecto importante de la seguridad nacional. En
concreto, se trataba de transmitir electrónicamente la sensación de presencia humana más realista
posible a cinco personas en particular situadas en cinco lugares diferentes. Cada una de estas cinco
personas, aisladas físicamente, tenía que creer que las otras cuatro estaban «realmente» presentes.
Este extraordinario esfuerzo en telecomunicaciones formaba parte de las medidas de emergencia
gubernamentales que debían adoptarse en el caso de amenaza de ataque nuclear. Durante aquella
década se procedió a realizar la siguiente acción: el presidente de Estados Unidos, el vicepresidente,
el secretario de Estado, el presidente del Tribunal Supremo y el portavoz de la Casa Blanca irían a
un conocido lugar situado bajo una montaña en Virginia. Allí defenderían la nación desde una sala
avanzada de mando-y-control (como la de la película Juegos de guerra), que en principio era
inexpugnable.
Pero surgió la pregunta de hasta qué punto era lo bastante seguro tener a estas cinco personas en
un mismo lugar.
¿No sería más seguro tenerlos en cinco lugares diferentes (uno en el aire, otro en un submarino,
otro bajo una montaña, etc.) si realmente pudieran sentirse como si estuvieran juntos en un solo
lugar? Evidentemente, la respuesta fue afirmativa y con este propósito el ARPA emprendió sus
investigaciones avanzadas en teleconferencia, a través de las cuales mis colegas y yo fuimos
contratados para crear una «telepresencia» humana digital, en tiempo real.
Nuestra solución era construir una réplica de la cabeza de cada persona cuatro veces, con una
máscara traslúcida de tamaño real y con la forma exacta de la cara de cada una de las personas.
Cada máscara se montaría sobre suspensiones que le permitían realizar dos tipos de movimiento,
cabecear y girar. Dentro de cada máscara se proyectarían imágenes muy bien grabadas.
En cada escenario se situaba una persona real y cuatro cabezas móviles de plástico, todas
sentadas alrededor de una mesa en el mismo orden.
La escena se grababa y se transmitía la imagen en vídeo de cada persona y la posición de su
cabeza. Si el presidente se giraba para hablar con el vicepresidente, el secretario de Estado vería sus
respectivas cabezas de plástico hacer lo mismo desde su posición. Reconozco que suena extraño...
El vídeo proyectado de esta manera resultaba una recreación de vida tan creíble que un
almirante me dijo que las «cabezas parlantes» le producían pesadillas. Él prefería recibir un
telegrama confidencial en papel amarillo del presidente que dijera «FUEGO» en lugar de la cabeza
parlante del comandante en jefe en el puente de su portaaviones. Es extraño que se mostrara tan
paranoico respecto a si la imagen de vídeo y la voz eran de verdad las del presidente o las de
alguien que se hacía pasar por él puesto que un telegrama es mucho más fácil de falsificar.
De todos modos, es probable que no sepamos descomponer, transmitir y recomponer gente (o
hamburguesas o jerseys de cachemira) hasta dentro de uno o dos milenios.
Pero mientras tanto, habrá muchas técnicas de presentación distintas de las pantallas planas o
casiplanas a las que estamos acostumbrados. El límite que rodea a la presentación, el llamado
«bezel», será menos constrictivo para imágenes grandes y pequeñas.
Algunos de los aparatos digitales más imaginativos del futuro no tendrán límite de ningún tipo.

TRES DIMENSIONES DE R2D2

Algún día durante el próximo milenio, cuando nuestros nietos o bisnietos quieran ver un partido
de fútbol, retirarán la mesa del comedor y dejarán que futbolistas de 20 centímetros con una pelota
de dos centímetros corran por la sala de estar; en el supuesto de que existan partidos de fútbol,
mesas de comedor y salas de estar.
Este modelo es justo lo contrario de la realidad virtual de la primera época. Toda la resolución se
transmite a todas partes para que se pueda apreciar desde cualquier punto de vista. Se mire desde
donde se mire se ven pixels de tres dimensiones, también llamados «voxels o boxels», flotando en
el espacio.
En La guerra de las galaxias, R2D2 proyectaba de este modo la imagen de la princesa Leia en
el suelo de la casa de ObiWan Kenobi: la hermosa princesa era una aparición fantasmagórica
emitida en el espacio, visible, en principio, desde cualquier ángulo. Este efecto especial, como
tantos otros utilizados en Star Trek y otras películas de ciencia-ficción, ha creado, sin darnos cuenta,
un público que ya está familiarizado con tecnologías tales como la holografía. Lo hemos visto tan a
menudo en las películas que creemos que es más fácil de lo que en realidad es.
De hecho, el catedrático del MIT, Stephen Benton, quien inventó el holograma de luz blanca,
común hoy día en las tarjetas de crédito, tardó más de veinte años en llegar a un resultado similar
usando la velocidad de un superordenador de un millón de dólares, ópticas de valor incalculable
fabricadas a propósito y la energía implacable de una docena de brillantes aspirantes al doctorado.
La holografía la inventó el científico húngaro Dennis Gabor en l948.
La manera más sencilla de explicar lo que es un holograma es definirlo como una colección de
todos los puntos de vista posibles en un solo plano de patrones de modulación de luz. Cuando se
hace pasar la luz a través de este plano, o se refleja desde él, la escena se reconstruye ópticamente
en el espacio.
La holografía ha sido un caballo olvidado en la carrera para mejorar la presentación. Una de las
razones es que la holografía requiere una resolución masiva. Se supone que el televisor tiene 480
líneas de barrido visibles, aunque casi siempre tiene muchas menos. Una pantalla de televisión de
25 centímetros de alto, tiene, en el mejor de los casos, 30 líneas por centímetro. La holografía
necesita al menos 30.000 líneas por centímetro, es decir 1.000 veces más líneas de barrido
horizontal. Peor aún, la resolución es necesaria en ambas coordenadas X e Y, o sea 1.000 al
cuadrado, o un millón de veces la resolución de la televisión actual. Una de las razones por las que
hay hologramas en tarjetas de crédito y en los billetes de algunos países es que esa resolución
necesita para imprimirse una tecnología muy sofisticada y difícil de falsificar.
Si Benton y sus colegas han hecho algún progreso es porque han logrado entender lo que el ojo
y el sistema perceptivo humanos necesitan en realidad: lo contrario de lo que el típico holograma
puede producir. Puesto que el ojo humano es el cliente de la imagen, sería inútil presentarle la
imagen con más detalle del que puede apreciar.
También se han dado cuenta de que se mira la imagen espacial (muestreo en el espacio) de una
manera muy similar a como se miran los fotogramas individuales de una película (muestreo en el
tiempo). El vídeo ofrece movimiento uniforme con 30 fotogramas (60 campos) por segundo. Por lo
tanto, en lugar de hacer que un holograma represente «todos» los puntos de vista, ¿por qué no
representar un punto de vista diferente cada fracción de centímetro y obviar la información que hay
entre medio ? Este sistema funciona.
Además, Benton y sus colegas advirtieron que nuestro sentido del espacio es muy horizontal. A
causa del paralaje del ojo en los dos lados y dado que tendemos a movernos sobre todo en planos
horizontales, el paralaje horizontal domina como guía espacial al paralaje vertical del plano arriba-
abajo.
Esto no sería igual si nuestros ojos estuvieran situados uno encima del otro o si subiéramos y
bajáramos muchos árboles. Pero no lo hacemos. De hecho, el énfasis horizontal de nuestra
percepción es tan dominante que Benson concluyó que podía descartar por completo el paralaje
vertical.
Ésta es la razón por la que casi ninguno de los hologramas presentados en el Media Lab del MIT
tiene paralaje vertical. Cuando muestro a los visitantes la pequeña galería de ejemplos que cuelgan
fuera del laboratorio de Benton, no lo notan. De hecho, cuando se lo digo, la gente dobla las piernas
y se pone de puntillas varias veces antes de creérselo.
El resultado del muestreo espacial, combinado únicamente con el uso del paralaje horizontal, es
que el grupo de Benton necesita una diezmilésima parte de la potencia informática que sería
necesaria para producir un holograma en condiciones normales con toda su resolución.
Es por eso que han logrado hacer el primer vídeo holográfico en tiempo real y a todo color, con
imágenes matizadas y que flota libremente en el espacio. Tiene más o menos el tamaño y la forma
de una taza de café o de una princesa Leia un poco paticorta.

MÁS QUE LO QUE SALTA A LA VISTA

La calidad de una presentación sensorial es literalmente más que lo que salta a la vista. Es una
experiencia visual que mueve a los otros sentidos. La sensación del conjunto como un todo es
mucho mayor que la suma de las partes.
En los primeros tiempos de la televisión de alta definición, el sociólogo Russ Neuman, que entonces
trabajaba en el Media Lab del MIT, dirigió un experimento sin precedentes sobre la respuesta de la
audiencia a la calidad de la presentación.
La prueba consistía en montar dos televisores y dos reproductores de vídeo de alta calidad e
idénticos entre sí, que reproducían las mismas cintas de vídeo también de alta calidad. Sin embargo,
uno de los equipos (A) tema la calidad de sonido normal para un vídeo y los pequeños altavoces del
televisor. El otro (B) tenía un sonido de mejor calidad que el de un CD y unos excelentes altavoces.
El resultado fue sorprendente. Muchos participantes en la prueba manifestaron que veían una
imagen mucho mejor en el equipo B. La calidad de la imagen era la misma, pero la experiencia
visual fue muy superior. Esto demuestra que tendemos a juzgar nuestras experiencias como un todo
sensorial, no por partes. Esta importante observación a veces se omite en el diseño de sistemas de
realidad virtual.
En el diseño de los tanques militares de entrenamiento, se ha realizado un esfuerzo considerable,
casi sin límites económicos, para alcanzar la mayor calidad posible de presentación, de modo que
mirar por el visor fuese lo más parecido posible a mirar a través de la pequeña ventana de un tanque
real. Sin embargo, sólo tras laboriosas tentativas para incrementar el número de líneas de barrido, se
les ocurrió a los diseñadores introducir una sencilla plataforma de movimiento que produjera una
ligera vibración. Gracias a la inclusión posterior de algunos efectos sensoriales complementarios,
como el sonido del motor y de los rodamientos del tanque, se pudo alcanzar tanto «realismo» que
los diseñadores pudieron reducir el número de líneas de barrido sin rebajar ni un ápice los
requerimientos necesarios para que el sistema pareciera real y se experimentara como tal.
Muchas veces me preguntan por qué me pongo las gafas de leer cuando como; evidentemente,
no necesito gafas para ver la comida o el tenedor.
Mi respuesta es sencillamente que la comida sabe mejor cuando llevo las gafas puestas. Ver la
comida con claridad es parte del placer de comer. Mirar y tocar son complementarios.
MIRAR Y TOCAR

10

MIRARNOS

L
os ordenadores son menos sensibles a la presencia humana que los cuartos de baño modernos o la
iluminación exterior dotada con sensores de movimiento. Una cámara fotográfica barata con foco
automático tiene más sensibilidad frente a lo que capta con su objetivo que cualquier terminal o
sistema informático.
Al levantar las manos del teclado del ordenador, éste no sabe si la pausa es para reflexionar,
para descansar o para ir a comer. No sabe distinguir si está hablando con una persona sola o
acompañada de otras seis personas más, ni si estamos vestidos o desnudos. Por no saber, no sabe ni
siquiera si nos hemos dado media vuelta mientras nos muestra algo importante o si hemos salido de
la habitación cuando todavía está respondiéndonos.
Hoy día sólo pensamos desde la perspectiva de facilitar a una persona el uso de un ordenador.
Pero quizás haya llegado el momento de preguntarse cómo podríamos nosotros facilitar a un
ordenador la interacción y el trato con seres humanos. Por ejemplo, ¿cómo es posible mantener una
conversación con personas cuando ni siquiera sabemos dónde están? No las vemos, ni sabemos
cuántas hay. ¿Sonríen? ¿Prestan atención? Hablamos continuamente de interacciones hombre-
ordenador y de sistemas de conversación y, sin embargo, nos parece natural que uno de los
interlocutores permanezca en la ignorancia. Ha llegado el momento de hacer que los ordenadores
vean y oigan.
La investigación y la aplicación de la visión a los ordenadores se ha centrado casi
exclusivamente en el análisis del teatro de operaciones para usos militares, como vehículos
autónomos o bombas sofisticadas. Las aplicaciones en el espacio exterior también son significativas
y están a la cabeza de los avances en este campo. Un robot que anda alrededor de la Luna no puede
limitarse a transmitir las imágenes de lo que ve a un operador humano situado en la Tierra porque la
señal tarda mucho en llegar a su destino, incluso a la velocidad de la luz. Si el robot se acerca a un
precipicio, el lapso que transcurre mientras el operador humano ve la imagen del precipicio y envía
una orden al robot para que se detenga, será demasiado largo y el robot habrá tenido tiempo de caer
al abismo. Éste es uno de los casos en los que el robot debe depender de su propio juicio basado en
lo que ve.
Los científicos realizan progresos constantes en comprensión de imágenes y, por ejemplo,
desarrollan técnicas para adivinar las formas a partir de las sombras o para separar los objetos
principales de los fondos de la imagen. Las investigaciones para hacer que los ordenadores sean
capaces de reconocer a las personas y mejorar así la interfaz hombre-ordenador se han iniciado
recientemente. De hecho, nuestra cara es el dispositivo de presentación humano y el ordenador
debería ser capaz de leerla, lo cual requiere el reconocimiento de caras y de sus expresiones
particulares.
Habitualmente, las muecas reflejan la intención de nuestras expresiones, y no dejamos de
gesticular por el hecho de estar hablando por teléfono con otra persona, aunque ésta, desde el otro
lado de la línea, no pueda verlas. De hecho, a veces gesticulamos aún más para dar mayor énfasis y
prosodia al lenguaje hablado. Si el ordenador fuera capaz de captar nuestras expresiones faciales,
accedería a una señal redundante y recurrente que enriquecería los mensajes hablados y escritos.
El reconocimiento de caras y expresiones faciales es un reto técnico enorme; sin embargo, bajo
algunas circunstancias, es posible. Por ejemplo, en las aplicaciones en que sólo interviene el usuario
y su ordenador, lo único que éste necesita saber es si el usuario es la persona que lo utiliza
habitualmente y no cualquier otro habitante de este planeta. Además, cada contexto se puede
diferenciar con facilidad.
Se acerca el día en que los ordenadores serán capaces de mirarnos. Durante la guerra del Golfo
Pérsico de 1990-1991, en la que muchos viajes regulares estaban prohibidos, fuimos testigos de una
enorme utilización de la teleconferencia. Desde entonces, los ordenadores personales cada vez están
más equipados con hardware de teleconferencia a bajo coste.
El hardware de teleconferencia consiste en una cámara de televisión centrada sobre la pantalla y
el hardware o software necesario para codificar, decodificar y mostrar las imágenes en tiempo real
en una parte o en toda la pantalla del ordenador. Cada vez más ordenadores personales estarán
dotados con este equipamiento, aunque los diseñadores de sistemas de teleconferencia no habían
pensado nunca en incorporarlo a los ordenadores personales.

DE RATONES Y HOMBRES

Neil Gershenfeld, del Media Lab del MIT, compara un ratón de ordenador de 30 dólares, cuyo
uso se aprende en unos pocos minutos, con un arco de violoncelo de 30.000 dólares, cuyo
aprendizaje lleva toda una vida. Compara las 16 técnicas del arco con el click, doble click y el
arrastre del ratón. Es evidente que el arco es para el virtuoso y el ratón para todos los que no lo
somos.
Sin embargo, un ratón es un medio sencillo pero incómodo para la entrada gráfica. Requiere
cuatro pasos: 1) tantear con la mano para encontrar el ratón, 2) moverlo para hallar el cursor, 3)
mover el cursor hasta donde queremos que esté, 4) hacer un click o un doble click con el botón. El
diseño innovador de Apple para el Power-Book al menos tiene sólo tres pasos y el denominado
«ratón muerto», o más recientemente una bola trazadora (track ball), situada donde ponemos los
pulgares, de modo que se reducen las interrupciones para teclear.
Pero donde realmente los ratones y las bolas trazadoras no tienen ninguna utilidad es en el
dibujo. Intente hacer una firma con una bola trazadora. Para este propósito el tablero digitalizador,
una superficie plana con un lápiz con punta esférica, es una solución mucho mejor.
No obstante, no muchos ordenadores cuentan con tablero digitalizador para dibujar, y los que la
tienen plantean el problema «esquizofrénico» de cómo situar a la vez el tablero y el teclado, que
compiten entre sí por ocupar el lugar central y quieren estar justo enfrente y debajo de la pantalla.
El conflicto se resuelve a menudo poniendo el teclado debajo de la pantalla porque muchas
personas, entre las que me incluyo, no teclean.
Como resultado de este descentramiento del tablero digitalizador y de que el ratón acabe a un
lado, estamos obligados a aprender una coordinación mano-ojo bastante antinatural. Se dibuja o
señala un lugar y se mira a otro: podríamos decir que es como dibujar a tientas.
Douglas Englebart, el inventor del ratón en 1964, lo hizo para señalar el texto, no para dibujar.
El invento se hizo popular, y hoy día está en todas partes. Jane Alexander, que preside el National
Endowment of the Arts, comentó hace poco que sólo a un hombre se le podía haber ocurrido
llamarlo «ratón».
Un año antes, Ivan Sutherland perfeccionaba el concepto de un lápiz óptico para dibujar
directamente sobre la pantalla (ya en los años cincuenta el sistema de defensa SAGE tenía algunos
lápices ópticos rudimentarios). A este lápiz le seguía un cursor en forma de cruz hecho con cinco
puntos de luz. Para terminar el dibujo, tenía que dar un golpecito con la muñeca y salirse de la línea
a propósito: una manera graciosa pero no muy precisa de terminar una línea.
Hoy día los lápices ópticos casi no se ven. Acercar la mano a una pantalla es una cosa (ya difícil
pues provoca que se nos duerma la mano), pero cargar con un lápiz atado que pesa 100 gramos
cansa mucho la mano y el brazo. Algunos lápices ópticos tenían un centímetro y medio de diámetro
y al usarlos parecía como si escribiésemos una postal con un puro.
No obstante, los tableros digitalizadores son especialmente cómodos para dibujar y con un poco
de esfuerzo se puede hacer que la punta tenga la textura y la riqueza del pincel de un artista, pero
los que existen en la actualidad son como escribir con bolígrafos con punta esférica sobre una
superficie plana y dura que necesita un espacio en el escritorio cerca de nosotros y de la pantalla.
Además, como nuestros escritorios están ya bastante desordenados, la única manera de que los
tableros digitalizadores puedan tener éxito comercial es que los fabricantes de muebles empiecen a
construirlos dentro de los escritorios, de manera que no haya ningún aparato excepto el escritorio
mismo.

ORDENADORES SENSIBLES AL TACTO

El dedo humano es un aspecto de la entrada gráfica que se ha descuidado.


Los cajeros automáticos y los puntos de información informatizados cuentan con pantallas
sensibles al tacto que funcionan bastante bien. Pero no podemos usar los dedos en la pantalla con
los ordenadores personales, lo cual es bastante asombroso si pensamos que el dedo humano, ¡y
tenemos diez!, es un dispositivo para señalar ideal, puesto que no hace falta cogerlo con la mano.
Podríamos teclear o señalar según el caso, es decir, pasar del plano horizontal al vertical con toda
facilidad. Todavía no se ha logrado. Los entendidos dicen que se debe a tres motivos, pero ninguno
de ellos me convence:
Cuando señalamos, tapamos aquello que señalamos. Cierto, pero lo mismo ocurre con el papel
y el lápiz y ello no ha representado un obstáculo para la práctica de la escritura o el uso de un dedo
para identificar algo en la letra impresa.
El dedo tiene una resolución baja. Esto es falso. Puede que sea regordete, pero tiene una
resolución extraordinaria. Sólo se necesita un segundo paso, después de tocar una superficie, para
retirar el dedo con elegancia y situar un cursor con toda precisión.
El dedo ensucia la pantalla. ¡Pero también la limpia!
Una manera de afrontar el asunto de las pantallas sensibles al tacto es que estarán en un espacio
físico de suciedad más o menos invisible en el cual las manos limpias limpian y las sucias ensucian
(o algo así).
La verdadera razón para no usar los dedos es que todavía no se ha encontrado una tecnología
capaz de sensibilizar el campo cercano a un dedo: cuando éste está cerca pero no toca la pantalla.
Con sólo dos acciones, tocar y no tocar, muchas aplicaciones son, como mínimo, incómodas. Si
apareciera un cursor cuando el dedo estuviera, digamos, a un centímetro de la pantalla, entonces
tocar la pantalla misma podría ser como usar el ratón.
Y, por último, conviene recordar que las arrugas papilares que constituyen la huella dactilar son
como las cadenas para la nieve que se colocan en los neumáticos de los automóviles y aumentan la
fricción en el punto de contacto entre la piel y el cristal. En realidad, esta fricción nos permite pulsar
la pantalla e introducir fuerzas a este nivel.
En un dispositivo que construimos en el MIT hace veinte años, mostrábamos que al apretar con
el dedo, sin moverlo, se producía la fricción suficiente para mover objetos, introducirlos y tirar de
ellos, e incluso podíamos hacer que giraran. Una demostración consistía en tocar con dos o tres
dedos unos botones que aparecían en la pantalla y hacerlos girar gracias a la adherencia de los
dedos a la pantalla. Los botones no sólo giraban sino que también hacían «click», lo que añadía más
realismo a la acción. Esto abre un amplio campo de aplicaciones que van desde los juegos para
niños hasta la simplificación de la instrumentación de las cabinas de control de los aviones.

LA INTERFAZ CONTRAATACA

Los mandos de control remoto son de uso común en ambientes tóxicos para los humanos, tales
como reactores nucleares. El brazo del robot trabaja dentro del reactor mientras un operador lo
controla desde fuera. Lo normal es que el brazo maestro y el esclavo estén muy separados y que el
operador lo vea por medio de una pantalla de televisión. El brazo esclavo suele tener un garfio en
forma de pinza que el operador controla a distancia con sus dedos índice y pulgar y se sirve de él
para coger y sujetar los objetos. De este modo se puede sentir el peso y la elasticidad (si la tiene) de
un trozo de uranio.
Fred Brooks y sus colegas de la Universidad de Carolina del Norte tuvieron esta maravillosa
idea: imaginemos que el brazo esclavo ya no existe y que los cables que antes conducían a él
estuviesen conectados a un ordenador que simulara toda la experiencia. Los objetos que vemos en la
pantalla ya no son reales, sino que el ordenador los modela y los presenta con todas sus
características de peso y elasticidad.
Por desgracia, la capacidad táctil de un ordenador se ha diseñado casi siempre pensando en que
somos nosotros quienes tocamos el ordenador y no a la inversa.
Una vez participé en la construcción del prototipo de una máquina que ofrecía resistencia, un
aparato de retroalimentación forzada en el cual el esfuerzo requerido para moverlo podía ser una
función de lo que nosotros quisiéramos. Por medio del control de un ordenador, podía pasar del
movimiento libre a tener que empujarlo como a través de engrudo. En una aplicación, teníamos un
mapa de Massachusetts con una base de datos demográficos. El usuario podía diseñar los planos de
una nueva autopista moviendo este «digitador» con retroalimentación forzada. Sin embargo, la
cantidad de fuerza necesaria para empujarlo variaba en función del número de familias que habría
que desplazar de su hogar. De hecho, para trazar la nueva autopista se cerraban los ojos y se
tanteaba físicamente el camino que ofrecía menos resistencia.
Cuando IBM añadió la palanquita roja como sustituto del ratón en medio del teclado de su
ThinkPad, introdujo esta aplicación de retroalimentación forzada (porque es sensible a la fuerza y
no al desplazamiento). Ojalá que pronto podamos disfrutar de un uso más amplio de ordenadores
sensibles al tacto y que las aplicaciones evolucionen hasta el punto de hacernos sentir que la palanca
del ThinkPad ofrece resistencia.
Otro ejemplo de ello lo mostró Alan Kay, considerado el padre de los ordenadores personales.
Uno de sus investigadores de Apple Computer diseñó un ratón «obstinado» que usaba un campo
magnético variable para hacerse más o menos difícil de mover. Al aplicar toda la corriente
magnética, el ratón se interrumpía del todo y dejaba de moverse, manteniendo el cursor fuera de
áreas prohibidas.

ECHEMOS UN VISTAZO A NUESTRO ORDENADOR


Imaginemos que estamos leyendo una pantalla de ordenador y podemos preguntar: ¿Qué
significa eso? ¿Quién es ella? ¿Cómo he llegado hasta aquí? «Eso», «ella» y «aquí» se definen por
la dirección de nuestra mirada en ese momento. Las preguntas se refieren al punto de contacto entre
nuestros ojos y el texto. Sin embargo, a los ojos no se los considera habitualmente mecanismos de
salida, aunque siempre los usemos como tales.
La forma en que los humanos detectamos la dirección de las miradas de los demás y hacemos
que nuestros ojos contacten se puede considerar mágica. Imaginemos que estamos a seis metros de
otra persona que a veces nos mira directamente a los ojos y otras nos mira un poco por encima de
nuestro hombro. Inmediatamente se nota la diferencia, incluso si la dirección de la mirada de esa
persona se desvía una fracción del eje de nuestra mirada. ¿Cómo sucede esto?
Seguro que no es por trigonometría. Si lo fuera, podríamos calcular el ángulo de una normal al
plano de las esferas de los ojos de la otra persona y después comprobaríamos si esa normal hace
intersección con la línea de nuestra propia mirada. Pero no es eso. Ocurre algo diferente: entre
nuestros ojos y los de la otra persona pasa un mensaje y no tenemos el menor indicio de cómo
sucede.
Siempre usamos los ojos para señalar objetos. Si se nos pregunta adonde ha ido alguien,
podemos responder con una simple mirada hacia la puerta abierta. Para explicar lo que hay que
cargar, podemos mirar una maleta y no otra. Esta manera de señalar, combinada con los gestos de la
cabeza, es un poderoso medio de comunicación.
De hecho, existen varios sistemas de seguimiento ocular. Una de las primeras demostraciones
que vi era un seguidor de ojos montado en un casco que cambiaba el idioma del texto de la pantalla
del inglés al francés a medida que uno iba leyendo. Cuando el centro de la visión cambiaba de
palabra a palabra, iban apareciendo palabras francesas y en la pantalla parecía que todo el texto era
en francés. Un observador exterior, cuyos ojos no eran controlados, veía el texto de la pantalla con
un 99 % de palabras en inglés (para ser exactos, todas las palabras excepto la que estaba mirando la
persona que llevaba puesto el seguidor de ojos).
Los sistemas más modernos de seguimiento ocular utilizan cámaras de televisión por control
remoto para que el usuario no tenga que llevar puesto ningún aparato. En la actualidad, una
configuración de teleconferencia con vídeo es muy apropiada para incluir un seguidor ocular,
porque el usuario suele sentarse más o menos enfrente de la pantalla a una distancia relativamente
fija. A menudo sucede que miramos a los ojos de la persona que se halla al otro lado, porque el
ordenador es capaz de saber dónde están.
Cuanto más saben los ordenadores sobre nuestra posición, postura y naturaleza particular de
nuestros ojos, más fácil les resulta saber hacia dónde miramos. La ironía es que este medio exótico
que son los ojos-como-entrada encontrará su primera aplicación en la configuración más bien
corriente de una persona sentada ante un ordenador.
Pero seguro que funcionará todavía mejor cuando se use en combinación con otro canal de
entrada, como la voz.
HABLÉMOSLO

11

MÁS ALLÁ DE LAS PALABRAS

P
ara la mayoría de la gente, teclear no es una interfaz ideal. Si pudiéramos hablar con los
ordenadores, incluso el Luddite1 más recalcitrante los usaría con más entusiasmo. Sin embargo, los
ordenadores siguen siendo más o menos sordos y mudos. La razón básica de que se haya avanzado
tan poco en el reconocimiento de la voz es la falta de perspectiva y no de tecnología. Cuando he
asistido a demostraciones o veo anuncios de productos de reconocimiento del habla en los que
alguien sostiene un micrófono ante su boca, me pregunto cómo es que han pasado por alto el hecho
de que una de las grandes ventajas del habla es que nos deja las manos libres. Cuando veo a alguien
hablando con la cara pegada a la pantalla me pregunto si no olvidamos que una de las razones para
usar la voz con ordenadores es que nos permitiría trabajar a distancia. Cuando oigo a alguien pedir o
exigir el reconocimiento independiente del usuario, me pregunto si no olvidamos que estamos
hablándole a un ordenador personal y no a un ordenador compartido. Entonces, ¿por qué enfocamos
el problema de manera equivocada?
La respuesta es que hasta hace poco hemos sido víctimas de dos obsesiones erróneas. La
primera tenía su origen en las comunicaciones telefónicas tradicionales y consistía en que
cualquiera, desde donde fuera, pudiera dar órdenes verbales a un ordenador a través del teléfono, en
lugar de conversar con un operador humano; no importaba si se hablaba con un pesado acento del
sur o de Bahstan, o New Yawkese. La otra obsesión procedía de la automatización de las oficinas:
la máquina de escribir con la que hablamos sin descanso y que lo transcribe todo a la perfección.
Concentrarnos en solo estos dos asuntos nos ha retrasado en la consecución de objetivos más
realizables y útiles, como el reconocimiento y comprensión del habla familiar en un entorno muy
personalizado e interactivo.
También hemos pasado por alto el valor de la voz más allá de las palabras. Por ejemplo, hoy día
los ordenadores exigen nuestra completa atención. Lo usual es estar sentado y atender, más o menos
exclusivamente, al proceso y al contenido de la interacción. Casi no hay forma de usar un ordenador
de forma casual o hacer que mantenga una de tantas conversaciones. Sin embargo, el habla
cambiará esto.
Poder usar un ordenador más allá de la longitud del brazo también es muy importante.
Imaginemos que para hablar con alguien tuviéramos que tener siempre su nariz a un palmo de
nosotros. Lo normal es hablar a la gente a distancia, apartarse de ella por un momento para hacer
otra cosa e incluso conversar con alguien fuera del alcance de su vista. Yo quiero tener un
ordenador que esté «al alcance del oído», lo cual requiere solucionar el problema de la separación
de la voz de otros sonidos del ambiente, como el del aire acondicionado o el de un avión que
sobrevolara nuestra casa.
El habla es más que las palabras también por el hecho de que posee subportadores de
información paralelos. Todo el que tiene un hijo o un animal doméstico sabe que la manera en que
se dicen las cosas puede ser mucho más importante que lo que se dice. El tono de voz es muy
importante. Los perros, por ejemplo, responden casi por completo al tono de voz y no poseen una
habilidad innata para realizar análisis lexicográficos complejos, a pesar de lo que digan sus
amorosos dueños.
El lenguaje verbal lleva gran cantidad de información que va más allá de las palabras mismas.
Mientras se habla, se puede comunicar con gran exactitud pasión, sarcasmo, exasperación,
equivocación, servilismo y agotamiento. Sin embargo, en el reconocimiento del habla por
ordenador se han ignorado todos estos matices, o peor aún, han sido tratados como obstáculos más
que como posibilidades del habla. No obstante, el lenguaje hablado posee grandes cualidades que
hacen que sea un medio más rico que teclear.

LAS TRES DIMENSIONES DEL RECONOCIMIENTO DEL HABLA

Quien habla una lengua extranjera más o menos bien, pero no a la perfección, sabe que escuchar
y entender las noticias de la radio en ese idioma y con un zumbido de fondo es muy difícil o
imposible. En cambio, para quien la habla con fluidez, el ruido como mucho le puede molestar un
poco. Es evidente que el reconocimiento y la comprensión están íntimamente entrelazados.
Los ordenadores actuales no poseen el mismo tipo de comprensión que tenemos usted y yo
porque sabemos que estamos de acuerdo en lo que algo significa. Sin duda, los ordenadores del
futuro serán más inteligentes, pero mientras tanto tenemos que solucionar los problemas de
reconocimiento de las máquinas que no poseen mucha capacidad de comprensión. Separar estas dos
tareas es el camino a seguir para convertir palabras en órdenes legibles por ordenador. El problema
del reconocimiento del habla tiene tres variables: riqueza de vocabulario, grado de independencia
del que habla y concatenación entre palabras, es decir, la medida en que las palabras se pueden
pronunciar juntas, como sucede en la cadencia del habla humana normal.
Pensemos en estas dimensiones del reconocimiento del habla como en tres ejes. En el eje del
vocabulario, cuantas menos palabras hay que reconocer, más fácil resulta para el ordenador. Si el
sistema sabe de antemano quién está hablando, el problema se simplifica. Y si las palabras se
enuncian por separado, todavía se simplifica más.
El origen de estos ejes es el lugar en que se encuentra el vocabulario más reducido de palabras
totalmente dependientes del hablante, cada una de las cuales debe ser pronunciada con pausas muy
claras entre una y otra.
El problema se complica a medida que aumentamos un eje o lo movemos, como cuando
añadimos más palabras al vocabulario, queremos que el sistema funcione con cualquier hablante, o
permitimos que las palabras se concatenen. En el caso extremo, esperamos que el ordenador
reconozca cualquier palabra, dicha por cualquiera, «en-todos-los» grados de concatenación. Se ha
dado por supuesto que tenemos que estar en el extremo de todos o la mayoría de estos ejes para que
el reconocimiento del había sea útil. ¡Absurdo!
Consideremos cada cuestión por separado. Cuando se trata de la extensión del vocabulario,
podríamos preguntar: ¿Cuándo es lo bastante extenso? ¿Cuando tiene quinientas, cinco mil o
cincuenta mil palabras? Pero en realidad la pregunta debería ser: ¿Cuántas palabras reconocibles
hacen falta en la memoria del ordenador en un momento dado? Esta pregunta sugiere la
fragmentación de vocabularios en subjuegos contextuales, de modo que se puedan introducir en la
máquina cuando sea necesario. Cuando le pido al ordenador situar una llamada telefónica, se carga
mi Rolodex. Cuando preparo un viaje, son los nombres de los lugares los que deben estar allí.
Si se concibe la extensión del vocabulario como el juego de palabras que se necesitan en un
momento dado (llamémoslo «ventanas de palabras»), entonces el ordenador necesita seleccionar
entre un número de palabras mucho menor y más cercano a quinientas que a cincuenta mil.
En segundo lugar, la supuesta necesidad de independencia del que habla pertenece al pasado de
las compañías de teléfonos, cuando un ordenador central tenía que entender a todo el mundo y
ofrecer una especie de «servicio universal». Hoy día la informática posee una capacidad de
distribución y personalización mucho más amplias. Se puede trasladar más reconocimiento del
habla hacia la periferia de la red, ya sea en el PC, en el inalámbrico o con ayuda de una tarjeta
sofisticada. Si quisiéramos hablar con el ordenador de una compañía aérea desde una cabina
telefónica, llamaríamos a nuestro ordenador personal o lo haríamos a través de nuestro ordenador de
bolsillo para que éste convirtiera la voz en una señal legible por la máquina.
No obstante, concatenar y desdibujar palabras es el tercer problema. No queremos hablar al
ordenador de la misma manera en que un turista se dirige a un niño extranjero, articulando cada
palabra y haciendo después una pausa. Este eje es el más problemático, pero se puede simplificar,
en parte, si entendemos el lenguaje como expresiones multipalabra y no sólo como palabras
separadas. De hecho, este modo de manejar «palabras-que-van-juntas» puede formar parte de la
personalización y entrenamiento de nuestro ordenador.
Estaremos muy cerca del reconocimiento del habla cuando consideremos el lenguaje hablado
como un medio interactivo y conversacional.

PARAVERBALES

El habla es un medio que a veces contiene sonidos y expresiones que no pueden encontrarse en
un diccionario. No sólo es más amena que el texto en blanco y negro, sino que puede ganar
significado a partir de los matices conversacionales como, «ajá», los denominados paraverbales.
En 1978 usamos en el MIT un sistema avanzado de reconocimiento del habla que, como todos
los de entonces y de ahora, era propenso a cometer errores cuando la voz del que hablaba mostraba
el menor nivel de estrés. Cuando los estudiantes de posgrado lo mostraban a nuestros
patrocinadores, queríamos que el sistema funcionara a la perfección, pero la ansiedad siempre
producía suficiente nerviosismo en la voz del estudiante que hacía la demostración para provocar el
fallo del sistema.
Unos pocos años después, otro estudiante tuvo la fabulosa idea de buscar las pausas en el habla
del usuario y programar a la máquina para que generara la palabra «ajá» entre dichas pausas. Así,
cuando se hablara a la máquina, ésta diría periódicamente: ajáaa, aaajá o ajá. Esto produjo un efecto
tan confortante (parecía que la máquina animaba al usuario a conversar), que el usuario se relajaba
un poco más y la actuación del sistema iba sobre ruedas.
Este concepto revela dos cosas importantes: primero, que no todas las palabras tienen que tener
significado para poder ser utilizadas en las comunicaciones; segundo, que algunas palabras son sólo
protocolos de la conversación. Cuando hablamos por teléfono, si no decimos «ajá» a intervalos
adecuados, nuestro interlocutor se pondrá nervioso y al final preguntará si seguimos ahí. El «ajá» no
significa «sí», «no» ni «quizá», pero transmite un bit de información básica: «Estoy aquí.»

EL TEATRO DE LA CONVERSACIÓN

Imaginemos la siguiente situación. Usted se sienta alrededor de una mesa donde todos hablan
francés, pero sus conocimientos de esta lengua se limitan a un miserable curso de la escuela
superior. De pronto una persona de la mesa se dirige a usted y dice: Voulez-vous encore du vin?
Seguramente, usted lo entenderá perfectamente. Sin embargo, a continuación, la misma persona
cambia de tenia y empieza a hablar, digamos, de la política en Francia. Es muy probable que usted
no entienda nada a menos que hable bien el francés (e incluso así no es seguro).
Quizás usted piense que la pregunta«¿Quiere usted un poco más de vino?» es lenguaje de niños,
mientras que la política requiere técnicas de lenguaje sofisticadas.
Eso es cierto, pero ésa no es la diferencia más importante entre las dos conversaciones. Cuando
la persona le preguntaba si quería más vino, probablemente alargaba su brazo hacia la botella y sus
ojos señalaban su copa vacía. Es decir, las señales que usted decodificaba eran paralelas y
redundantes, no sólo acústicas. Además, todos los sujetos y objetos estaban en el mismo espacio y
tiempo. Sin duda, esa táctica facilitó su comprensión.
Una vez más, queda demostrado que la redundancia es efectiva. El uso de canales paralelos,
como el gesto, la mirada, o el habla es la esencia de las comunicaciones humanas. Las personas, por
naturaleza, tendemos a expresarnos de forma recurrente. Si usted no posee un dominio completo del
italiano le será muy difícil hablar por teléfono en este idioma. Sin embargo, cuando usted llega a un
hotel italiano y encuentra que no hay jabón en la habitación, no usa el teléfono, sino que baja a
recepción y le dice al conserje, con su italiano de Berlitz, que no tiene jabón. Incluso es posible que
haga unos cuantos gestos para indicarle que es el jabón de baño el que le falta.
En un país extranjero, uno usa todos los medios posibles para transmitir intenciones y lee todas
las señales para alcanzar unos niveles mínimos de comprensión. La cuestión estriba en pensar que el
ordenador está en un país extranjero, es decir, en el nuestro.

HACER QUE LOS ORDENADORES HABLEN BIEN

El ordenador puede producir habla de dos maneras: reproduciendo una voz grabada previamente
o sintetizando los sonidos de letras, sílabas o, probablemente, fonemas. Cada sistema tiene sus
ventajas e inconvenientes. La producción de habla es similar a la de la música: se puede almacenar
el sonido (como en un CD) y reproducirlo, o se puede sintetizar para reproducirlo a partir de las
notas (como hace un músico).
El almacenamiento del habla nos devuelve una comunicación oral y auditiva que suena muy
«natural», en particular si el habla que se ha almacenado es un mensaje completo. Cuando
intentamos unir fragmentos dé sonido más pequeños pregrabados o palabras sueltas, los resultados
son menos satisfactorios porque falta la prosodia del conjunto.
En los viejos tiempos, muchos dudaban del uso del habla pregrabada para utilizarla en la
interacción hombre-ordenador, porque empleaba mucha memoria. Hoy día eso ya no es un
problema.
El problema real es otro. Para que el habla almacenada funcione, hay que grabarla previamente.
Si por ejemplo, se espera que nuestro ordenador diga cosas con los nombres adecuados, hay que
grabar previamente todos esos nombres. Así que la voz almacenada no funciona para el habla
casual. Por esta razón se usa el segundo método.
Un sintetizador de habla toma un texto, como por ejemplo esta frase, y sigue ciertas reglas para
enunciar cada palabra, una por una.
Cada lengua es diferente y su sintetización presenta distintos grados de dificultad.
El inglés es una de las más difíciles, porque escribimos de una manera extraña e ilógica (right y
rite) con pronunciaciones casi idénticas para palabras diferentes (weigh y whey). Otras lenguas son
mucho más fáciles de sintetizar. De hecho, el turco es un ejemplo de ello porque Atatürk cambió los
caracteres arábigos de la lengua a los latinos en 1929 y así creó una correspondencia entre sonidos y
letras. En turco se pronuncia cada letra: no hay letras silenciosas ni diptongos confusos. Por lo
tanto, a nivel verbal, el turco es para un sintetizador de habla por ordenador un sueño hecho
realidad.
Incluso aunque la máquina pueda enunciar todas y cada una de las palabras, el problema no
acaba aquí. Es muy difícil dar a una colección de sonidos sintetizados un ritmo y un énfasis de
conjunto para toda la frase u oración, lo cual es importante no sólo para que suene bien sino
también para añadir vida, expresión y tono de acuerdo con el contenido y la intención del mensaje.
De otro modo, el resultado es una voz monótona que suena como la de un borracho hablando sueco.
Ahora se empiezan a ver, más bien oír, algunos sistemas que combinan síntesis y grabación.
Como con la mayoría de las cosas digitales, la solución a largo plazo será usar ambos sistemas.

TODAS LAS COSAS GRANDES Y PEQUEÑAS

En el próximo milenio, hablaremos tanto o más con máquinas que con seres humanos. Lo que al
parecer produce más reparo es hablar con objetos inanimados. Nos sentimos muy cómodos cuando
hablamos con nuestros perros o canarios, pero no con pomos de puerta o farolas, a menos que
estemos muy borrachos. Nos sentiríamos ridículos si le hablásemos a la tostadora, como cuando le
hablábamos al contestador automático en las primeras épocas.
La miniaturización hará que esta omnipresencia del habla avance más deprisa que en el pasado.
Los ordenadores son cada vez más pequeños, y es muy probable que mañana llevemos en la
muñeca lo que hoy tenemos en el escritorio y ayer ocupaba toda una habitación.
Muchos usuarios de ordenadores de escritorio no aprecian del todo la enorme reducción de
tamaño que ha tenido lugar durante los últimos diez años, porque hay ciertas dimensiones, como el
tamaño del teclado, que se han intentado mantener constantes y otras, como las dimensiones de la
pantalla, que se intentan aumentar, no disminuir. Por lo tanto, el volumen total de una máquina de
escritorio no es inferior al de un Apple II de hace quince años.
Si hace mucho tiempo que no ha usado un módem, la reducción de tamaño es mucho más
indicativa del cambio real que ha tenido lugar. Hace menos de quince años, un módem de 1.200
baudios, que costaba unos 1.000 dólares, era casi del tamaño de una tostadora apoyada de lado. Un
módem de 9.600 baudios de aquella época era como una caja montada en una estantería. Hoy día,
un módem de 19.200 baudios consiste en una pulcra y simple tarjeta. Incluso en este formato de
tarjeta de crédito, una gran parte del espacio real no se usa y sólo está ahí por razones de forma:
para que encaje en la ranura y tenga el tamaño suficiente para poder cogerlo sin que se pierda. La
razón principal de que una cosa como el módem no se ponga en la «cabeza de un alfiler» ya no es
tecnológica, sino que nos costaría encontrar las cabezas de alfiler y sería fácil perderlas.
Una vez superada la limitación natural de la distribución de los dedos, que hace que un teclado
sea cómodo, el tamaño de un ordenador lo determinan las dimensiones de bolsillos, carteras, relojes
de pulsera, bolígrafos y objetos similares. En estos factores de forma, en que una tarjeta de crédito
se acerca al menor tamaño deseable, una pantalla es minúscula y la interfaz gráfica de usuario ya no
tiene sentido.
Es probable que los sistemas basados en lápices se conviertan en un término medio incómodo;
son demasiado grandes y a la vez demasiado pequeños. La alternativa de fabricar botones físicos
también es una solución inaceptable. Si nos fijamos en los mandos a distancia de la televisión o del
grabador de vídeo tendremos un buen ejemplo de los límites de los botones; casi todos parecen
hechos para manos de pigmeo y ojos muy jóvenes.
Por todas estas razones, la tendencia creciente a la miniaturización se dirigirá hacia la mejora
del reconocimiento y producción del habla como interfaz dominante en el diálogo hombre-
ordenador en objetos pequeños.
No hace falta que el reconocimiento verbal en sí mismo resida en gemelos y pulseras. Los
aparatos pequeños se pueden telecomunicar para ayudarse. La cuestión reside en que ser pequeño
exige disponer de voz.

LLEGAR A ALGUIEN Y CONMOVERLO

Hace muchos años, el jefe de investigaciones de tarjetas en Hallmark me explicaba que el


principal competidor de esta compañía era AT&T. La transmisión de emoción a través de la voz
consiste en «llegar a alguien y conmoverlo». El canal del habla lleva no sólo la señal sino todas las
características que la acompañan y que hacen que se muestre comprensiva, reflexiva, compasiva o
misericordiosa. Decimos que alguien «suena» honesto, que una excusa «suena» sospechosa o que
algo no nos «suena» bien. En el sonido existe información que nos habla de los sentimientos.
De la misma manera que alargamos la mano para tocar a alguien, llegaremos a usar la voz para
proyectar nuestros deseos a las máquinas. Algunas personas se portarán con sus ordenadores como
sargentos instructores y otras aplicarán la voz de la razón. El habla y la función de delegar están
estrechamente ligados. ¿Se imaginan dándoles órdenes a los Siete Enanitos ?
Todo es posible. La idea de que dentro de veinte años estemos hablando a un grupo de asistentes
holográficos de 20 centímetros de altura que caminan por la mesa no es tan increíble. Lo que no
ofrece duda alguna es que la voz será el canal de comunicación primario entre el hombre y los
agentes de su interfaz.
MENOS ES MÁS

12

MAYORDOMOS DIGITALES

E
n diciembre de 1980, Nobutaka Shikanai nos invitó a Jerome Wiesner y a mí a cenar en su bonita
casa de campo en la región japonesa de Hakone, no lejos del monte Fuji. Estábamos tan
convencidos de que el imperio de medios de comunicación y televisión del señor Shikanai se
beneficiaría de formar parte del Media Lab del MIT desde sus inicios, que creíamos que Nobutaka
Shikanai querría ser uno de nuestros mecenas. Pensábamos que su interés personal por el arte
contemporáneo armonizaba con nuestro sueño de unir tecnología y expresión, la invención con el
uso creativo de nuestros medios.
Antes de cenar, paseamos por el jardín observando la famosa colección del señor Shikanai, el
Hakone Open Air Museum. Durante la cena con los señores Shikanai nos acompañó su secretario
privado que hablaba un inglés perfecto, al contrario que los Shikanai, lo cual era significativo.
Wiesner inició la conversación expresando un gran interés por la obra de Alexander Calder y habló
de la relación que habían establecido el MIT y él mismo con Calder. El secretario escuchó el relato
y después lo tradujo de principio a fin. Al término de la explicación, el señor Shikanai hizo una
pausa para reflexionar, luego nos miró y emitió un enorme «Ohhhh».
El secretario tradujo entonces: «El señor Shikanai dice que está muy impresionado por el trabajo
de Calder, y las adquisiciones más recientes del señor Shikanai tuvieron lugar en las circunstancias
de...» Un momento. ¿De dónde salía todo esto?
Así transcurrió casi toda la cena. Wiesner decía algo que era traducido en su totalidad y la
respuesta era más o menos un «Ohhhh» que se nos traducía con una larga explicación. Aquella
noche me dije que si de verdad quería construir un ordenador personal, tenía que ser tan bueno
como el secretario del señor Shikanai. Tenía que ser capaz de expandir y contraer las señales en
función de su conocimiento sobre mí y mi entorno, lo cual me permitiría ser redundante en la
mayoría de ocasiones.
La mejor metáfora que puedo imaginar para comparar una interfaz hombre-ordenador es la del
mayordomo inglés. El «agente» responde al teléfono, reconoce a los que llaman, nos pasa las
llamadas que juzga oportunas e incluso dice mentiras inofensivas si es necesario. El mismo agente
es sensato, sabe encontrar los momentos oportunos y es respetuoso con la idiosincrasia de cada uno.
Las personas que conocen al mayordomo es evidente que gozan de una ventaja considerable sobre
los extraños. Eso está muy bien.
Tales agentes humanos están a disposición de muy poca gente. Los secretarios de oficina
también juegan un papel similar. Una persona que nos conoce bien y comparte con nosotros mucha
información puede actuar en nuestro lugar con mucha eficacia. Si el secretario se pone enfermo, no
ayudará en nada que la agencia de trabajo temporal envíe a un Albert Einstein. No tiene que ver con
el cociente de inteligencia, sino con el conocimiento que este agente tiene de nosotros y de cómo
debe utilizarlo en interés nuestro.
La posibilidad de construir esta clase de funcionalidad en un ordenador era un sueño tan
inalcanzable hasta hace poco que la idea ni siquiera se podía tomar en serio. Pero esto está
cambiando muy deprisa. En la actualidad, unas cuantas personas sí creen que se pueden construir
«agentes de interfaz». Por esta razón, este interés por los agentes inteligentes se ha convertido en el
tema de moda de la investigación sobre la interfaz hombre-ordenador. Ahora resulta evidente que
queremos delegar más funciones y preferimos manipular menos ordenadores.
La idea es construir sustitutos de ordenador que posean sólidos conocimientos sobre algo (un
proceso, un tema de interés, una manera de actuar) y a la vez sobre nuestra relación con ese algo
(nuestros gustos, inclinaciones, conocimientos). Es decir, el ordenador debería tener una
experiencia doble, como un cocinero, jardinero o chófer que usan sus habilidades para dar con
nuestros gustos y necesidades en comida, jardinería y manera de conducir. Delegar esas tareas no
quiere decir que no nos guste preparar la comida, cuidar las plantas o conducir el coche, sino que
tenemos la opción de hacer esas cosas cuando queramos, porque lo deseamos y no porque estemos
obligados a hacerlo.
Lo mismo puede aplicarse a los ordenadores. La verdad es que no tengo interés en recorrer un
sistema, atravesar protocolos y descubrir vuestra dirección de Internet. Sólo quiero haceros llegar
un mensaje. Tampoco me interesa tener que leer miles de boletines para estar informado. Quiero
que estas cosas las haga mi agente de interfaz.
Los mayordomos digitales serán numerosos y vivirán tanto en la red como a nuestro lado, en el
centro y en la periferia de nuestra propia organización, ya sea ésta grande o pequeña.
Con frecuencia hablo de lo inteligente que es mi agenda y del cariño que le tengo: cómo entrega
en un inglés perfecto sólo la información oportuna y relevante y con cuánta inteligencia. Su manera
de funcionar consiste en que sólo un ser humano sabe el número de la agenda, y todos los mensajes
pasan por esa persona, que sabe dónde estoy, qué cosas son importantes, a qué personas conozco y
quiénes son sus agentes. La inteligencia está en la cabeza del sistema y no en la periferia, es decir,
no en la agenda.
Pero también deberíamos disponer de inteligencia en el extremo receptor. Hace poco me visitó
el director de una gran empresa cuyo asistente llevaba la agenda y le recordaba lo que tenía que
decir en los momentos oportunos. A la larga, incorporarán a la agenda las cualidades del asistente:
tacto, sensatez y discreción.

FILTROS PERSONALES

Imaginemos que nos llega a casa un periódico electrónico en forma de bits. Supongamos que se
envía a un visor mágico, en un papel muy delgado, flexible, sumergible, inalámbrico, ligero y
brillante. La solución de interfaz exige años de experiencia de la especie humana sobre
encabezamiento y maquetación, marcas tipográficas, imágenes y una multitud de técnicas que
contribuyen a facilitar la lectura. Si el interfaz lo hiciera bien podría ser un medio de información
magnífico, pero si tuviera fallos sería espantoso.
Hay otro modo de ver un periódico: como un interfaz de noticias. En lugar de leer lo que otras
personas piensan que es noticia y creen que bien vale el espacio que ocupa, ser digital cambiará el
modelo económico de selección de noticias; hará que nuestros intereses particulares desempeñen un
papel más importante e incluso que podamos tener acceso al tipo de noticias que no se llegan a
imprimir porque no se consideran de interés general.
Imaginemos un futuro en que nuestro agente de interfaz puede grabar todos los noticiarios por
cable, leer todos los periódicos y sintonizar todas las cadenas de radio y televisión del planeta para
luego elaborar un sumario personalizado. Esta clase de periódico saldría en ediciones de un
ejemplar único.
Un periódico se lee de manera muy diferente el lunes por la mañana que el domingo por la
tarde. A las siete de la mañana de un día de trabajo se hojea un periódico para filtrar la información
y personalizar una serie de bits idénticos que se han enviado a cientos de miles de personas. Mucha
gente tiende a tirar secciones enteras del periódico sin echarles un vistazo, hojean algo del resto y
leen pocas cosas con atención.
¿Qué ocurriría si un periódico pusiera a nuestra disposición todos sus recursos para editar un
solo ejemplar? Habría noticias destacadas con relatos «menos importantes» relacionados con la
gente que conocemos, con las personas que veremos al día siguiente y los lugares a los que estamos
a punto de ir o de los que hemos vuelto hace poco. Nos informaría de las empresas que conocemos.
De hecho, estaríamos dispuestos a pagar más por diez páginas del Globe de Boston en esas
condiciones que por cien páginas de las habituales si tuviéramos la seguridad de que se nos daría el
subconjunto apropiado de información. Consumiríamos cada bit, por así decirlo. Podríamos
llamarlo el Diario Yo.
El domingo por la tarde, sin embargo, preferiríamos disfrutar de las noticias con mucha más
serenidad, aprender cosas que nunca pensamos que nos interesarían, aceptar el reto de rellenar un
crucigrama, reírnos un poco con Art Buchwald y buscar rebajas en los anuncios. Así es el Diario
Yo. Lo último que desearíamos un lluvioso domingo por la tarde es tener un agente de interfaz
hipertenso que intentase separar el material aparentemente irrelevante.
No obstante, éstas no son dos formas distintas de ser, como el blanco y el negro. De hecho, nos
movemos entre ellas, y desearemos disponer de distintos grados de personalización según el tiempo
libre, la hora del día y nuestro estado de ánimo en cada momento. Imaginemos una pantalla de
ordenador que ofrece información y que cuenta con un mando que, como un control de volumen,
permita regular hacia arriba y hacia abajo la personalización. Podría haber muchos controles
similares, incluso un pasador que se moviese de izquierda a derecha, tanto en sentido literal como
en el político, para poder modificar las noticias sobre asuntos públicos.
Estos controles cambiarían la longitud y el tono editorial de las noticias que recibiríamos. En un
futuro lejano, los agentes de interfaz leerán, escucharán y verán cada información o noticia en su
totalidad. En un futuro próximo, el proceso de filtrado se iniciará con el uso de cabeceras, aquellos
bits que tratan de bits.

CUÑADAS DIGITALES

El hecho de que se sepa que la publicación TV Guide ha tenido más beneficios que las cuatro
grandes cadenas norteamericanas de televisión juntas sugiere que el valor de la información acerca
de la información puede ser mayor que el de la propia información. Cuando pensamos en la
circulación de información nueva, tendemos a restringir nuestras ideas con conceptos como
«avances informativos» y «zapping de canales». Estos conceptos no son adaptables. Con mil
canales, si vamos de cadena en cadena y permanecemos sólo tres segundos en cada una, tardaremos
casi una hora en hacer el chequeo de todas ellas. Un programa habrá terminado mucho antes de que
decidamos si es el más interesante.
Cuando yo quiero ir al cine, en lugar de leer la cartelera, pregunto a mi cuñada. Todos tenemos
un equivalente que es experto en películas y que a la vez nos conoce bien. Lo que necesitamos
construir es una cuñada digital.
De hecho, el concepto de «agente» personificado en seres humanos que ayudan a otras personas
es muchas veces una combinación de la experiencia y el conocimiento de uno mismo. Un buen
agente de viajes combina sus saberes sobre hoteles y restaurantes con sus conocimientos sobre
nosotros, que obtiene de las opiniones que le hemos facilitado sobre otros hoteles y restaurantes. Un
agente inmobiliario se hace una idea de nosotros a partir de una sucesión de casas que han encajado
con nuestros gustos en mayor o menor grado. Imaginemos pues un agente contestador telefónico,
uno de noticias u otro que filtre el correo electrónico. Todos ellos tienen en común la habilidad de
poder hacerse un modelo de nosotros.
No sólo es cuestión de completar un cuestionario o tener un perfil fijo. Los agentes de interfaz
deben aprender y evolucionar con el tiempo, como los amigos y asistentes humanos. Es más fácil
decirlo que hacerlo. Hasta hace muy poco tiempo no hemos empezado a manejar modelos de
ordenador que aprenden de las personas.
Cuando hablo de agentes de interfaz, siempre se me pregunta si me refiero a inteligencia
artificial. La respuesta es rotunda: «Sí.» Pero la pregunta lleva implícitas algunas dudas que surgen
de las falsas esperanzas y promesas que la inteligencia artificial hizo concebir en el pasado.
Además, mucha gente todavía no se siente cómoda con la idea de que las máquinas sean
inteligentes.
Alan Turing, en un escrito de 1950 titulado «Maquinaria informática e inteligencia», fue el
primero que hizo una propuesta seria sobre la inteligencia de las máquinas. Más tarde, algunos
pioneros como Marvin Minsky compartieron el profundo interés de Turing por la inteligencia
artificial. Se planteaban preguntas sobre el reconocimiento del contexto, la comprensión de las
emociones, el sentido del humor y el uso de metáforas. Por ejemplo: ¿ Cuáles son las letras que
siguen a una serie que empieza por U, D, T, C, C?
Creo que tal vez la inteligencia artificial sufrió una recaída alrededor de 1975, cuando los
recursos informáticos empezaron a alcanzar el tipo de capacidad que se necesita para resolver
problemas intuitivos y exhibir un comportamiento inteligente. Lo que ocurrió es que los científicos
optaron de pronto por investigar aplicaciones muy factibles y comercializables, como robots y
sistemas expertos (por ejemplo, en los sectores del transporte de mercancías y reservas aéreas), y
descuidaron las cuestiones más profundas y básicas de la inteligencia y el aprendizaje.
Minsky señala que mientras los ordenadores de hoy ofrecen una amplia gama de reservas aéreas
(un tema casi más allá de la lógica), no pueden ofrecer el mínimo sentido común que tiene un niño
de tres o cuatro años. Ni siquiera saben cuál es la diferencia entre un perro y un gato. Temas como
el del sentido común están dejando ahora las bambalinas para pasar al centro del escenario de la
investigación científica, y esto es importante porque un agente de interfaz sin sentido común puede
ser como un dolor de espalda.
Por cierto, la respuesta a la cuestión planteada anteriormente es: S, S. La serie está formada por
la primera letra de cada número: Uno, Dos, Tres, Cuatro, etc.

DESCENTRALIZACIÓN

Algunos se imaginan un futuro agente de interfaz como una máquina del estilo Orwell
centralizada y omnisciente. No obstante, un resultado más verosímil es una colección de programas
de ordenador y aplicaciones personales, cada uno de los cuales es bastante bueno para una cosa y
muy bueno para comunicarse con los demás. Esta imagen la forja Minsky en La sociedad de la
mente (1987), donde propone que la inteligencia no se encuentra en ningún procesador central sino
en el comportamiento colectivo de un grupo de máquinas, más específicas y muy interconectadas.
Esta visión va en contra de una serie de prejuicios que Michael Resnick, en su libro de 1994
Tortugas, termitas y atascos de circulación, llama el «conjunto de la mente centralizada». Estamos
condicionados a atribuir fenómenos complejos a algún tipo de agente de control. Por ejemplo, en
general se supone que el pájaro que va al frente en una bandada con forma de V es el jefe y que los
otros se limitan a seguirlo. Pues no es así. La formación ordenada es el resultado de un conjunto
responsable de procesadores que se comportan de forma individual y siguen sencillas reglas de
armonía sin la necesidad de un director. Resnick acertó al crear situaciones en las que las personas
se sorprenden al saber que ellas mismas forman parte de procesos similares.
Hace poco contemplé una demostración suya en el Kresge Auditorium del MIT. Se pidió a un
público de aproximadamente 1.200 personas que empezaran a batir palmas e intentaran hacerlo al
unísono. Sin la más mínima dirección por parte de Resnick, y en menos de dos segundos, la sala
batía palmas a un solo ritmo. Inténtelo: incluso con grupos mucho más pequeños el resultado puede
ser sorprendente. La incredulidad que mostraron los propios participantes indica lo poco que
comprendemos, y a veces ni siquiera reconocemos, cómo puede aparecer la coherencia a partir de la
actividad de agentes independientes.
Esto no quiere decir que nuestro agente de calendario vaya a concertar citas sin consultar con
nuestro agente de viajes. Pero no todas las comunicaciones y decisiones tienen que pasar por una
autoridad central para obtener permiso, lo que sería una pésima manera de controlar el sistema de
reservas aéreas. Este método sí parece cada vez más viable para controlar organizaciones y
Gobiernos puesto que una estructura descentralizada y altamente intercomunicada sería mucho más
resistente y tendría mayores posibilidades de sobrevivir. Es mucho más duradera y tiene más
probabilidades de evolucionar en el tiempo.
Durante muchos años, la descentralización era plausible como concepto pero imposible como
realización. El efecto que produjo ver máquinas de fax en la plaza de Tiananmen es un ejemplo
irónico, porque se invocaba la utilización de instrumentos descentralizados y populares
precisamente cuando el Gobierno intentaba reafirmar su poder y su control centralizado. Internet es
otro ejemplo; aporta un canal mundial de comunicación que escapa a cualquier censura y su éxito es
fulminante sobre todo en lugares como Singapur, donde la red es omnipresente y la libertad de
prensa marginal.
Los interfaces basados en agentes se descentralizarán del mismo modo que la información y las
organizaciones. Así como un jefe del Ejército envía a un explorador o un comisario manda a una
pareja de detectives, nosotros enviaremos agentes a recoger información en nuestro nombre. Estos
agentes enviarán a otros agentes... Y el proceso se multiplica. Pero recordemos que empezó
delegando nuestros deseos en la interfaz en vez de ejecutarlos nosotros mismos.
Este modelo de futuro es muy distinto de una aproximación al diseño de interfaz basado en
factores humanos. Es cierto que el aspecto y el tacto de la interfaz son importantes, pero
desempeñan un papel secundario en comparación con la inteligencia. De hecho, una de las
interfaces más ampliamente extendidas constará de un agujerito (o dos) de plástico o metal, a través
del cual nuestra voz llegará a un pequeño micrófono.
También es importante comprender el acercamiento al agente de interfaz como algo muy
diferente del furor actual por Internet y su exploración con el programa Mosaic. Los hackers de
Internet pueden pasearse por ese medio, explorar enormes conjuntos de conocimientos y
complacerse con toda clase de nuevas formas de relación social. Este fenómeno tan extendido no va
a declinar o desaparecer, pero es sólo un tipo de comportamiento, que se parece más a la
manipulación directa que a la delegación.
Nuestras interfaces cambiarán. La vuestra será distinta de la mía, pues cada una se basará en
nuestras respectivas predilecciones en materia de información, hábitos de entretenimiento y
comportamiento social, pero todo ello surgirá de la enorme paleta de la vida digital.
VIDA DIGITAL
LA ERA DE LA
POSTINFORMACIÓN

13

MÁS ALLÁ DE LA DEMOGRAFÍA

L
a transición de una era industrial a una era postindustrial o de la información se ha discutido tanto y
durante tanto tiempo que quizá no nos hemos dado cuenta de que estamos pasando a una era de la
postinformación. La era industrial, en esencia una era de átomos, introdujo el concepto de
«producción en masa», con economías originadas en la fabricación mediante métodos uniformes y
repetitivos, en un espacio y momento dados. La era de la información, la de los ordenadores, mostró
las mismas economías de escala, pero con menos dependencia del espacio y del tiempo. Los bits se
podían fabricar en cualquier lugar, en cualquier momento y se podían mover, por ejemplo, entre las
bolsas de Nueva York, Londres y Tokio como si fueran tres herramientas de la misma máquina.
En la era de la información, los medios de comunicación de masas se hicieron más grandes y al
mismo tiempo más pequeños. Nuevas formas de emisión como CNN y USA Today alcanzaron
grandes audiencias y ampliaron la cobertura. Las revistas especializadas, las ventas de videocasetes
y los servicios por cable son ejemplos de transmisión selectiva, que nutren a pequeños grupos
demográficos. Por eso he dicho que los medios de comunicación de masas se hicieron más grandes
y al mismo tiempo más pequeños.
En la era de la postinformación a veces la audiencia es sólo una persona. Todo se hace por
encargo y la información se personaliza al máximo. Se asume que la individualización es la
extrapolación de la transmisión selectiva: se pasa de un grupo grande a uno pequeño, después a otro
más pequeño y al final al individuo. En el momento en que tienen nuestra dirección, estado civil,
edad, ingresos, marca del coche, compras, hábitos de bebida e impuestos, ya nos han cazado: somos
una unidad demográfica de una persona.
Este razonamiento olvida la diferencia fundamental entre transmisión selectiva y ser digital. Al
ser digital, yo soy «yo», no una partícula estadística. «Yo» incluye información y acontecimientos
que no tienen significado demográfico o estadístico. Cuestiones como dónde vive mi suegra, con
quién cené anoche y a qué hora sale hoy mi avión para Richmond no tienen ninguna correlación o
base estadística de la que podamos extraer o deducir qué servicios de transmisión selectiva son los
más apropiados para mí.
Pero esa información particular sobre mi persona sí que determina la posibilidad de que quisiera
recibir nuevos servicios, por ejemplo, sobre un pueblecito desconocido, una persona no muy famosa
y las condiciones meteorológicas que habrá hoy en Virginia. La demografía tradicional todavía no
llega a la escala del individuo digital. Concebir la era de la postinformación como demografía
infinitesimal y emisión ultradirigida es tan personalizado como el «Prepáralo a tu manera» de
Burger King.
La verdadera personalización entra en escena ahora. No se trata simplemente de elegir el gusto
de la mostaza. La era de la postinformación trata de la familiaridad con la previsión del tiempo, de
las máquinas que entienden a los individuos con el mismo o mayor grado de sutileza que se espera
de otros seres humanos, incluyendo la idiosincrasia propia de cada uno como vestir siempre una
camiseta de rayas azules, y acontecimientos totalmente aleatorios, buenos y malos, pertenecientes al
inexpresable devenir de nuestras vidas.
Por ejemplo, una máquina, previamente informada por el agente de venta de licores, podría
avisarnos de la existencia de un Chardonnay o una marca de cerveza en concreto, porque sabe que a
los invitados que vendrán mañana por la noche a cenar les gustó la última vez. Podría recordarnos
que debemos dejar el coche en un taller cercano al lugar al que vamos porque el coche le ha
informado de que necesita neumáticos nuevos. Podría destacar una reseña de un nuevo restaurante
porque vamos a ir a esa ciudad dentro de diez días, y en una ocasión estuvimos de acuerdo con el
articulista. Todos estos ejemplos se basan en un modelo individual de nosotros, no como integrantes
de un grupo que puede comprar una cierta marca de jabones o pasta de dientes.

LUGAR SIN ESPACIO

Del mismo modo que el hipertexto supera las limitaciones de la página impresa, la era de la
postinformación superará las restricciones que impone la ubicación geográfica. La vida digital
traerá consigo una dependencia cada vez menor con respecto a estar en un lugar específico y en un
momento específico, e incluso el «cambio» de lugar empezará a ser posible.
Si de verdad pudiera mirar por la ventana electrónica de mi sala de estar de Boston y ver los
Alpes, escuchar los cencerros de las vacas y oler el estiércol (digital) en verano, como si estuviera
en Suiza; si en lugar de ir al trabajo transportando mis átomos a la ciudad, fuera a mi estudio e
hiciera mi trabajo electrónicamente, entonces, ¿cuál sería exactamente mi lugar de trabajo?
En el futuro dispondremos de suficiente tecnología de telecomunicaciones y realidad virtual
para que un doctor, desde Houston, realice una operación delicada a un paciente en Alaska. A corto
plazo, sin embargo, se necesitará que un neurólogo esté en el quirófano al mismo tiempo que el
cerebro; pero muchas actividades, como las de los llamados «trabajadores del conocimiento», no
son muy dependientes del espacio y el tiempo, y se desligarán de la ubicación geográfica mucho
antes.
Hoy día, para los escritores y los asesores de inversiones es más práctico y mucho más atractivo
preparar sus originales o manejar sus cuentas desde el Caribe o el Pacífico Sur. Sin embargo,
algunos países como Japón, tardarán más en desligarse de la dependencia del tiempo y el espacio
porque su cultura nativa contradice esta tendencia. Por ejemplo, una de las principales razones por
las que Japón no cambia al horario de verano es porque se considera conveniente volver a casa
cuando ha anochecido, y los trabajadores no quieren llegar al trabajo más tarde que sus jefes o salir
antes que ellos.
En la era de la postinformación, dado que se puede vivir y trabajar en uno o en muchos lugares,
el concepto de «dirección» adquiere un nuevo significado.
Si se es abonado de America Online, CompuServe o Prodigy, uno sabe su dirección de correo
electrónico, pero no dónde reside físicamente esta dirección. En el caso de America Online, la
dirección de Internet es ID seguido de @aol.com, válida para cualquier lugar del mundo. No sólo
no sabemos dónde está @aol.com, sino que quienquiera que envíe un mensaje a esta dirección no
tiene idea de dónde pueda estar la dirección o el destinatario. De esta manera, la dirección se
convierte en algo más parecido al número de la Seguridad Social que a unas coordenadas de calles.
Es una dirección virtual.
En mi caso, sí sé dónde está localizada físicamente mi dirección, @hq.media.mit.edu. Es un
sistema Unix HP de hace diez años que está en un cuartito cerca de mi oficina. Pero cuando la gente
me envía mensajes me los envía a mí, no al cuartito. Quizá supongan que estoy en Boston, aunque
normalmente no es así. De hecho, lo habitual para mí es estar en una zona horaria diferente, es
decir, que no sólo el espacio sino también el tiempo están cambiados.

SER ASÍNCRONO

Un cara a cara o una conversación telefónica son tiempo real y sincrónicos. La identificación
telefónica es como un juego del escondite hasta que encontramos la ocasión de ser sincrónicos. Pero
lo irónico es que a menudo se utiliza para intercambios que en sí mismos no requieren sincronía
alguna, y se podrían llevar a cabo también por medio de mensajes en tiempo diferido.
Históricamente, la comunicación asíncrona, como escribir cartas, es más formal y meditada. No
obstante, esto cambia con el correo de la voz y los contestadores automáticos.
He conocido gente que aseguraba que no podía entender cómo ellos (y todos) lograban vivir, y
vaya si vivíamos, sin contestadores automáticos en casa o correo de la voz en la oficina. La ventaja
no reside tanto en la voz como en el proceso diferido y en el tiempo desplazado. Radica en dejar
mensajes en lugar de mantener una comunicación directa cuando no es necesaria. De hecho, los
contestadores automáticos están diseñados un poco al revés. No sólo deberían funcionar cuando no
estamos o no queremos estar, sino que tendrían que responder al teléfono siempre y simplemente
dar la oportunidad al que llama de dejar un mensaje.
Uno de los enormes atractivos del correo electrónico es que no nos interrumpe como un
teléfono. Se puede procesar durante el tiempo libre, y por esta razón ofrece la posibilidad de
responder mensajes que no tendrían la menor oportunidad de atravesar los filtros de las secretarias y
telefonistas de las empresas.
El correo electrónico ha ganado una inmensa popularidad porque es a la vez un medio asíncrono
y legible por ordenador. Esto último es muy importante porque los agentes de interfaz usarán esos
bits para dar prioridad y entregar mensajes de diferentes maneras. El emisor y el tema del mensaje
pueden determinar el orden en que se lee, así como el secretario actual nos pasa una llamada de
nuestra hija de seis años mientras el director general o la empresa X esperan. Incluso en un
ajetreado día de trabajo los mensajes electrónicos personales pueden tener prioridad.
No son muchas las comunicaciones que tienen que ser atendidas de inmediato o en tiempo real.
De hecho, se nos interrumpe todo el tiempo y se nos obliga a ser puntuales con situaciones y temas
que en realidad no merecen esa inmediatez o urgencia. Se nos obliga a vivir con ritmos regulares,
no porque terminemos de cenar a las nueve en punto, sino porque el programa de televisión
empezará a esa hora. Nuestros nietos entenderán que fuéramos al teatro a una hora fija puesto que
se trata de representaciones en las que intervienen actores humanos, pero no comprenderán la
experiencia sincrónica de la recepción de señales de televisión en la intimidad de nuestras casas
(hasta que conozcan el extraño modelo económico que había tras ello).

PEDIR A LA CARTA

La vida digital incluirá muy poca emisión en tiempo real. A medida que la emisión se vuelve
digital, los bits no sólo son más fáciles de mover en el tiempo sino que tal vez no sea necesario
recibirlos en el mismo orden o a la misma velocidad en que serán consumidos. Por ejemplo, se
podrá distribuir por fibra una hora de vídeo en una fracción de segundo. De hecho, algunos
experimentos actuales confirman que se puede recibir una hora de vídeo con calidad VHS en menos
de una centésima de segundo. De forma alternativa, con un delgado cable o a través de una estrecha
frecuencia de radio, se puede transmitir un programa personalizado de noticias en vídeo de diez
minutos empleando seis horas de tiempo de emisión nocturna. En el primer ejemplo los bits se
«bombardean» al ordenador y en el segundo se «gotean».
A excepción de los deportes y las elecciones, el resto de emisiones televisivas y de radio del
futuro se recibirán de manera asíncrona. Esto sucederá tanto a la carta como por «radioselección»,
un término acuñado en 1987 por Stewart Brand en su libro sobre el Media Lab. La radioselección es
la radiación de una corriente de bits, casi siempre con grandes cantidades de información lanzada al
éter o a través de una fibra. En el receptor, un ordenador almacena los bits, los examina y descarta
todos los que cree que no consumiremos después.
Por otra parte la información a la carta dominará la vida digital. Podremos solicitar explícita o
implícitamente lo que queramos, cuando lo deseemos. Esto exigirá un replanteamiento radical de la
programación pagada por la publicidad.
En 1983, cuando el Media Lab del MIT empezó su andadura, muchos pensaban que la palabra
«media» era peyorativa, y que representaba un camino sin retorno hacia el denominador común más
despreciable de la cultura norteamericana. Media, con M mayúscula, significaba casi
exclusivamente «medios de comunicación de masas». Una gran audiencia comportaría grandes
ingresos por publicidad, que a su vez asegurarían los presupuestos para realizar grandes
producciones. La publicidad se justificó a partir de entonces en los media «por ondas» con el
argumento de que la información y el entretenimiento deberían ser «gratis» para el espectador,
puesto que el espectro es de propiedad pública.
Por otro lado, las revistas cuentan con una red de distribución privada y reparten los costes entre
la publicidad y el lector. Son un medio notablemente asíncrono, disponen de una audiencia más
heterogénea y, de hecho, pueden ser una piedra angular para el futuro de la televisión. La
proliferación de mercados especializados no siempre ha supuesto una ruptura de los contenidos,
pero ha cargado algo de los costes económicos del medio en el suscriptor, de hecho, en algunas
revistas especializadas no hay publicidad.
Los medios digitales del futuro serán más de pago, pero no totalmente de pago o gratuitos sino
que seguirán el modelo de los periódicos y revistas, donde se comparten costes entre los
compradores y la publicidad. En algunos casos, el consumidor tendrá la opción de recibir material
sin publicidad, pero a un precio más elevado. En otros, la publicidad estará tan personalizada que
será imposible de distinguir de las noticias, será noticia en sí misma.
En la actualidad, los modelos económicos de los media se basan casi por entero en «arrojar»
información y entretenimiento al público. En el futuro, habrá tanta o más «extracción», es decir,
iremos a la red y buscaremos algo de la misma manera en que hoy lo hacemos cuando vamos a una
biblioteca o tienda de alquiler de vídeos. Esto podrá hacerse de modo explícito, pidiéndolo, o de
modo implícito, por medio de un agente que lo pida por nosotros.
El modelo a la carta y sin publicidad hará que los contenidos se parezcan más a las grandes
producciones de Hollywood, con mayores riesgos y también más recompensas. Habrá grandes
fracasos y éxitos apoteósicos. Hagámoslo, y ocurrirá. Si es así, fantástico; si no, muy mal, pero
Procter & Gamble no asume los riesgos. En este sentido, los media jugarán con más cartas que
ahora, pero también habrá jugadores más pequeños, con menos cartas, que se llevarán parte de la
audiencia.
La razón principal para que les destinemos la «hora estelar de audiencia» será satisfacer nuestra
idea de calidad, no la de alguna masa colectiva y demográfica de compradores potenciales de un
nuevo coche de lujo o de un detergente para lavavajillas.
LA HORA PUNTA

14
ES MI MOMENTO

SE ALQUILAN BITS (RAZÓN AQUÍ)

M
ucha gente cree que el vídeo a la carta será la aplicación definitiva que financiará la superautopista.
Su argumentación es la siguiente: pongamos que una tienda de alquiler de películas de vídeo tiene
4.000 cintas. Digamos que el 5 % de esas cintas supone el 60 % del total de cintas alquiladas. Lo
más probable es que una buena parte de ese 5 % sean películas nuevas, proporción que aún sería
mayor si en la tienda dispusieran de más copias.
Después de estudiar la oferta y la demanda de vídeos de alquiler, la conclusión evidente es que
la manera de construir un sistema electrónico de vídeo a la carta sería ofrecer sólo ese 5 % de
éxitos, casi todos películas nuevas.
No sólo sería conveniente, sino que aportaría evidencias tangibles y convincentes, aunque
algunos todavía consideran el sistema electrónico de vídeo a la carta como un experimento.
De otro modo, costaría mucho tiempo y dinero digitalizar todas o casi todas las películas hechas
en Estados Unidos en 1990. Costaría aún más tiempo digitalizar el cuarto de millón de películas que
existen en la Biblioteca del Congreso, y ni siquiera tengo en cuenta las producciones europeas, las
docenas de miles de películas hechas en la India o las doce mil horas anuales de telenovelas que
produce Televisa en México. La cuestión sigue siendo la misma: ¿La mayoría de nosotros queremos
sólo ese 5 % de éxitos, o este fenómeno gregario se debe a la influencia de las viejas tecnologías de
distribución de átomos?
Blockbuster abrió 600 tiendas en 1994, que ocupan 140.000 metros cuadrados, impulsada por el
empresario Wayne Huizenga, su fundador y anterior presidente, que afirma que 87 millones de
hogares norteamericanos tardaron quince años en invertir 30.000 millones de dólares en
reproductores de vídeo, y que Hollywood se juega tanto dinero en la venta de cintas a Blockbuster
que no se arriesgaría a pactar acuerdos para formar parte del negocio del vídeo a la carta.
No sé ustedes, pero yo tiraría mi reproductor mañana mismo a cambio de una propuesta mejor.
Para mí la disyuntiva está entre ir a buscar (y devolver) átomos (por medio de lo que a veces se
llama «red pirata»), o recibir bits sin necesidad de devolverlos y sin pagar depósito. Con el debido
respeto a Blockbuster y a su nuevo propietario, Viacom, creo que las tiendas de alquiler de vídeos
estarán fuera del negocio en menos de diez años.
Huizenga ha argumentado que la televisión de pago no ha funcionado, y que por lo tanto la
televisión a la carta no tiene por qué funcionar. Pero es que resulta que los vídeos de alquiler son de
pago. De hecho, el gran éxito de Blockbuster prueba que el pago funciona. La única diferencia en
los tiempos que corren es que sus tiendas, que alquilan átomos, son más fáciles de recorrer que un
menú de bits rentables. Pero esto está cambiando muy deprisa. Cuando el paseo electrónico sea más
agradable gracias a los sistemas basados en agentes, entonces, a diferencia de Blockbuster, el vídeo
a la carta no se limitará a ofrecer unos cuantos miles de selecciones, sino que su oferta será
literalmente ilimitada.
TELEVISIÓN SOBRE CUALQUIER COSA, EN CUALQUIER MOMENTO EN
CUALQUIER LUGAR

Algunos de los ejecutivos de las compañías de telefonía más importantes del mundo recitan:
«Cualquier cosa, en cualquier momento y en cualquier lugar» como si se tratara de un poema
escrito en homenaje a la movilidad moderna. Pero mi meta, y sospecho que la de ustedes también,
es no tener «Nada, nunca, en ninguna parte» a menos que sea oportuno, importante, divertido,
pertinente o capaz de enriquecer mi imaginación. La frase del título de este capítulo, ese CCC,
apesta como paradigma de las telecomunicaciones, pero es una hermosa manera de pensar sobre la
televisión.
Cuando oímos hablar de un millar de canales de televisión, olvidamos que, incluso sin satélite,
ya llegan a muchas casas cada día más de un millar de programas. De acuerdo que llegan a todas
horas, incluso en las más intempestivas. Y si añadimos los más de ciento cincuenta canales de
televisión que se ven en Satellite TV Week, el resultado es de más de dos mil setecientos programas
disponibles en un solo día.
Si una televisión pudiera grabarlos todos, tendríamos ya cinco veces mayor capacidad de
selección de la que ofrece el estilo de pensamiento globalizador de la superautopista. Pero digamos
que, en lugar de guardarlos todos, nuestro agente de televisión graba uno o dos que pueden
interesarnos, para que podamos verlos en cualquier momento.
Ahora imaginemos que la Televisión CCC se amplía con una infraestructura global de 15.000
canales de televisión y que los cambios cuantitativos y cualitativos son muy interesantes: algunos
norteamericanos pueden ver la televisión española para perfeccionar el idioma, otros pueden optar
por Channel 11 en el cable suizo para ver desnudos germánicos inéditos (a las cinco de la tarde en
horario de Nueva York) y los dos millones de americanos de origen griego pueden interesarse por
uno de los tres canales nacionales de Grecia o por siete de los canales regionales de su país.
Más interesante quizás es el hecho de que los ingleses dedican setenta y cinco horas al año a
seguir los campeonatos de ajedrez y los franceses invierten ochenta horas cada año en ver el Tour.
Seguro que los entusiastas norteamericanos del ajedrez y el ciclismo también disfrutarán de tener
acceso a estos acontecimientos, en cualquier momento, en cualquier lugar.

LA TELEVISIÓN LOCAL

Si estuviese pensando en hacer una visita a la costa suroeste de Turquía, quizá sería difícil para
mí encontrar un documental sobre Bodrum, pero sí podría hallar partes de películas que trataran
sobre la construcción de barcos de madera, la pesca nocturna, las antigüedades submarinas, baba
ghanouj y las alfombras orientales en el National Geographic, PBS, la BBC y cientos de fuentes
similares. Esos fragmentos podrían entrelazarse para formar un reportaje que satisfaría mis
necesidades concretas. Lo más seguro es que el resultado no se llevase un Osear al mejor
documental, pero ésa no es la cuestión.
El vídeo a la carta puede dar un nuevo impulso a los documentales, incluso a los aterradores
publirreportajes. Los agentes de televisión digital montarán películas al vuelo, de la misma forma
que un profesor reúne una antología usando capítulos de distintos libros y artículos de diferentes
revistas. Atención legisladores de la propiedad intelectual: abróchense los cinturones.
En la Red cada persona puede ser una emisora de televisión sin licencia. En Estados Unidos se
vendieron 3,5 millones de cámaras de vídeo en 1993. No todas las películas caseras se destinarán a
la emisión en horas punta, gracias a Dios, pero los media ya abarcan mucho más que la televisión
profesional, y con altos costes de producción.
Los ejecutivos de telecomunicaciones comprenden la necesidad de disponer en los hogares de
ancho de banda, para emitir, pero, en cambio, no pueden imaginar un canal de capacidad semejante
que funcione a la inversa. Esta asimetría se justifica por la experiencia adquirida con servicios de
ordenadores interactivos que a veces se ofrecen con mayor ancho de banda cuando emiten para el
usuario y menor ancho de banda cuando es el usuario quien emite. Esto es así porque, por ejemplo,
la mayoría de nosotros tardamos mucho más en escribir que en leer y reconocemos imágenes
mucho más deprisa de lo que tardamos en producirlas.
Sin embargo, esta asimetría no existe con los servicios de imagen. El canal tiene que ser de dos
vías, y en las dos direcciones. Un ejemplo evidente es la teleconferencia, que se convertirá en un
medio particularmente valioso para abuelos, o para la parte que no tenga la custodia de los niños, en
los casos de familias divorciadas, claro está. Así es el vídeo en directo. Pensemos ahora en el vídeo
«muerto». En un futuro inmediato, los individuos podrán poner en marcha servicios de vídeo
electrónico del mismo modo que 57.000 norteamericanos gestionan hoy BBS (boletines de
anuncios) por ordenador. La panorámica de la televisión del futuro empieza a parecerse a Internet,
poblada por pequeños productores de información. Dentro de pocos años aprenderemos a hacer
cuscús gracias a Julia Child o a un ama de casa marroquí, y descubriremos vinos de la mano de
Robert Parker o de un vinatero de Borgoña.

LA TOPOLOGÍA DE UN PLANETA EN CONTRACCIÓN

En la actualidad existen cuatro vías electrónicas que llegan al interior de las casas: teléfono,
cable, satélite y radiotransmisión terrestre. Sus diferencias tienen que ver más con la topología que
con modelos económicos alternativos. Si quiero distribuir el mismo bit a la misma hora a cada
familia de los Estados Unidos continentales, evidentemente usaré un solo satélite cuya cobertura
alcance de costa a costa. Ésta sería la topología más lógica y no al contrario, como por ejemplo
enviar el bit a cada una de las 22.000 centrales telefónicas del país.
Por el contrario, si quiero emitir noticias o publicidad regionales, la radiotransmisión terrestre
funciona bien, y el cable todavía mejor. El teléfono es más adecuado para las comunicaciones
bidireccionales. Si decidiéramos qué medio usar basándonos tan sólo en la topología, emitiríamos la
Super Bowl por satélite y una versión interactiva y personalizada de «Wall Street Week» por la red
telefónica. Se puede decidir la vía de distribución (satélite, radiotransmisión terrestre, cable o
teléfono) en función de lo que es más indicado para cada clase de bit.
Pero en el «mundo real», como algunos me dicen (como si yo viviera en un mundo irreal), cada
canal intenta aumentar su carga para, la mayoría de las veces, emplearla en lo que peor hace.
Por ejemplo, algunos operadores de satélites estacionarios están considerando la posibilidad de
implantar servicios de red punto a punto con base en tierra. Esto en realidad no tiene mucho sentido,
en comparación con la red telefónica por cable, a menos que se esté en un lugar al que le afecte
algún obstáculo geográfico o político, como un archipiélago o la censura. De forma similar, enviar
la Super Bowl a través de todos los sistemas terrestres, de cable o de teléfono es una manera difícil
de hacer llegar esos bits a todo el mundo a la vez.
De manera lenta pero segura, los bits emigrarán al canal adecuado en el momento adecuado. Si
quiero ver la Super Bowl de hace un año, la manera lógica de conseguirlo es pedirla por teléfono, en
vez de esperar a que alguna emisora la reponga. Terminado el juego, la Super Bowl se convierte en
información de archivo y el canal de emisión apropiado es muy diferente que cuando el
acontecimiento se emitía en directo.
Cada canal de distribución tiene sus propias incongruencias. Cuando se transmite un mensaje
vía satélite desde Nueva York a Londres, la distancia que recorre la señal sólo es 8 kilómetros más
larga que cuando viaja de Nueva York a Newark por el mismo método. Esto sugiere que tal vez una
llamada telefónica realizada dentro del radio de alcance de un determinado satélite debería costar lo
mismo, independientemente de si llamamos de Madison a Park Avenue o de Times Square a
Picadilly Circus.
La fibra obligará a reconsiderar las tarifas de la transmisión de bits. Cuando una sola línea lleva
bits de Nueva York a Los Ángeles, no está claro si el recorrido de esta larga distancia cuesta más o
menos que enviarlos por el sistema capilar, lleno de conmutadores, de una red telefónica suburbana.
La distancia es cada vez menos importante en el mundo digital. De hecho, un usuario de Internet
es del todo inconsciente de ella. En Internet, la distancia a menudo parece funcionar a la inversa.
Muchas veces obtengo respuestas más rápidas de lugares lejanos que de cercanos, entre otros
motivos porque el cambio horario permite a la gente contestarme mientras duermo, de modo que las
respuestas se perciben como más próximas.
Cuando se usa un sistema de distribución como Internet para el entretenimiento en general, el
planeta se convierte en una sola máquina mediática. En las casas que ahora están equipadas con
antenas móviles para satélite ya se tiene una idea de la amplia variedad de programación sin
fronteras geopolíticas que existe. El problema es cómo enfrentarse a ella.

SEÑALES CON SENTIDO DE SÍ MISMAS

La mejor manera de abordar la ingente cantidad de programación de televisión disponible es no


abordarla en absoluto, sino dejar que lo haga un agente.
Aunque los ordenadores del futuro serán tan capaces de comprender la narrativa de vídeo como
usted y como yo, durante los próximos treinta años, más o menos, esta comprensión estará limitada
a áreas muy específicas, como el reconocimiento de caras en máquinas con modo de transmisión
asíncrono. Esto tiene poco que ver con que el ordenador comprenda a partir del vídeo que Seinfeld
acaba de perder otra novia. Pero necesitamos esos bits que describen la narrativa con palabras clave,
información sobre el contenido y referencias a lo que sucede más adelante y lo que pasó
anteriormente.
En unas pocas décadas, en la emisión digital proliferarán los bits que describen otros bits, los
bits-acerca de-bits, listas de contenidos, índices y sumarios. Todos serán introducidos por hombres
ayudados por máquinas, en el momento de la publicación, como las cabeceras de hoy o, después,
incluso lo podrán hacer los espectadores y comentaristas. El resultado será una corriente de bits que
llevará tanta información que nuestro ordenador podrá abordar una gran cantidad de contenidos.
Cuando llegue a casa, mi reproductor de vídeo del futuro me dirá: «Nicholas, he visto cinco mil
horas de televisión mientras tú no estabas y he grabado seis fragmentos para ti, un total de cuarenta
minutos. Tu compañera de clase de la universidad salía en el programa Today, había un documental
sobre las islas Dodecanesas, etc.» El ordenador habrá hecho todo esto con sólo mirar las cabeceras.
Estos mismos bits de cabecera también serán válidos para la publicidad. Si se busca un coche
nuevo, durante esa semana se podrán pasar sólo anuncios de coches en la pantalla. Además, los
fabricantes de automóviles pueden insertar información local, regional y nacional en las cabeceras
de forma que se incluyan también las ofertas del concesionario de nuestra zona. Esto se puede
ampliar hasta ofrecer un canal dedicado por entero a anunciar tiendas que, a diferencia de la
teletienda, vendan sólo cosas que nos interesen, en lugar de anillos de zirconio.
Los bits que describen otros bits cambian la emisión de forma radical. Son un instrumento para
tomar lo que interesa y proporcionan a la red un medio para transportarlos a todos los rincones. Las
redes aprenderán al final lo que significa trabajar en red.

REDES Y REDES

Las redes de televisión y las informáticas son totalmente diferentes. Una red de televisión es una
jerarquía de distribución con una fuente, de donde procede la señal, y muchos destinos
homogéneos, adonde la señal se dirige.
Por otro lado, las redes de ordenador son una trama de procesadores heterogéneos, cada uno de
los cuales puede actuar a la vez como fuente y destino. Las dos son tan distintas en todo que sus
diseñadores ni siquiera hablan la misma lengua. Lo racional de uno tiene para el otro la misma
lógica que el fundamentalismo islámico para un católico italiano.
Por ejemplo, cuando se envía correo electrónico por Internet el mensaje se descompone en
paquetes, cada uno con una cabecera y una dirección, y se envían por caminos diversos, a través de
distintos procesadores intermedios que quitan y añaden otra información de cabecera. Al llegar a
destino, y de forma bastante mágica, el mensaje se reordena y recompone. La razón de que este
sistema llegue a funcionar es que cada paquete contiene aquellos bits que informan acerca de otros
bits y cada procesador cuenta con los medios necesarios para extraer información sobre el mensaje
a partir del mensaje mismo.
Cuando los ingenieros de vídeo abordaron la televisión digital no se informaron acerca del
diseño de las redes informáticas. Ignoraron la flexibilidad de los sistemas heterogéneos y de las
cabeceras de información empaquetada. Discutieron entre ellos sobre otros problemas, como
resolución, velocidad de fotogramas, relación altura-anchura y entrelazado en vez de permitir que
todos ellos fueran variables. La doctrina de la emisión televisiva tiene todos los dogmas del mundo
analógico y carece de los principios digitales, como la arquitectura abierta, la adaptabilidad y la
interoperabilidad. Esto cambiará, pero hasta ahora el cambio ha sido muy lento.
El agente del cambio será Internet, en sentido literal y metafórico. Internet es interesante no sólo
en tanto que red global masiva y omnipresente, sino también como algo que parece haber
evolucionado sin un diseño previo y que presenta un aspecto parecido a la formación de una
bandada de patos. No existe ningún jefe, pero todas las piezas encajan admirablemente.
Nadie sabe cuánta gente usa Internet, porque, en primer lugar, se trata de una red de redes. En
octubre de 1994, formaban parte de Internet más de cuarenta y cinco mil redes. Había más de cuatro
millones de procesadores conectados (una cifra que crecía más del 20 % por trimestre), pero aún
así, es imposible calcular el número de usuarios. Sólo con que uno de esos procesadores sirva de
acceso público a, digamos, el sistema Minitel francés, tendremos ocho millones más de usuarios
potenciales de Internet.
El estado de Maryland ofrece el acceso a Internet a todos sus residentes, así como la ciudad
italiana de Bolonia. Es evidente que no todas esas personas lo usan, pero parece que en 1994 lo
utilizaron entre 20 y 30 millones de personas. Mi pronóstico es que en el año 2000 estarán
conectados mil millones de usuarios. Esta apreciación se basa en parte en el hecho de que, en
cuanto a porcentaje, el aumento más importante de conexiones a Internet en el tercer trimestre de
1994 correspondió a Argentina, Irán, Perú, Egipto, Filipinas, la Federación Rusa, Eslovenia e
Indonesia (en este orden). Todos estos países tuvieron un crecimiento de más del 100 % en ese
tercer trimestre. Internet, apodado cariñosamente la Red, ya no es norteamericana. El 35 % de los
usuarios están en el resto del mundo y es ahí donde las conexiones aumentan más deprisa.
Aunque uso Internet cada día del año, a las personas como yo se nos considera usuarios
ocasionales de la Red. Yo la utilizo sólo para correo electrónico, pero los usuarios más desenvueltos
y los que tienen tiempo «navegan» por la Red como si entraran y salieran de las tiendas de un
centro comercial. Se puede saltar de máquina a máquina y hacer compras en las tiendas-ventana
usando programas como Mosaic o montando a pelo (más cerca del suelo). Incluso es posible unirse
a grupos de discusión en tiempo real, llamados MUD, un término acuñado en 1979 que significa
multiuser dungeons (mazmorras multiusuario); algunas personas sienten reparos por el nombre y
pretenden denominarlos multiuser domains (dominios multiusuario). Una forma más reciente de
MUD es un MOO o MUD object-oriented (MUD orientados a objeto). En un sentido muy real, los
MUD y los MOO son un «tercer» lugar, ni el hogar ni el trabajo, pero donde algunas personas
pasan ocho horas allí cada día.
En el año 2000 habrá más personas que dedicarán su tiempo libre a Internet que a ver lo que hoy
llamamos «cadenas de televisión». Internet evolucionará más allá de los MUD y los MOO (que
suenan bastante como el Woodstock de los años sesenta pero en los noventa y en formato digital) y
empezará a ofrecer más amplia variedad de entretenimientos.
Internet Radio es un anticipo del futuro. Pero incluso Internet Radio es la punta del iceberg,
porque no va mucho más allá de la transmisión selectiva a una clase especial de hackers
informáticos, como demuestra uno de sus principales programas, llamado Geek of the Week (Colega
de la semana). La comunidad de usuarios de Internet estará en el centro de la vida cotidiana. Su
demografía se parecerá cada vez más a la del propio mundo. Como han mostrado Minitel en Francia
y Prodigy en Estados Unidos, la aplicación más sencilla de las redes es el correo electrónico. El
valor real de una red tiene menos que ver con la información que con la comunidad. La autopista de
la información es más que un extracto de cada libro de la Biblioteca del Congreso. Se trata de crear
una estructura social global, totalmente nueva.
BUENAS CONEXIONES

15

SER DIGITAL NO ES SUFICIENTE

C
uando usted lee esta página, sus ojos y su cerebro convierten el medio impreso en señales que puede
procesar y reconocer como letras y palabras con sentido. Si usted quisiera enviar por fax esta
página, el escáner del fax generaría un fino mapa línea a línea, con unos y ceros, para representar el
negro y blanco de tinta y no tinta. La fidelidad de la imagen digital a la página real variará según el
grado de precisión con que se escanee el original. Pero independientemente del grado de precisión
de su fax, el resultado final no es ni más ni menos que una copia de la página. No se trata de letras o
palabras, sino de pixels.
Para que el ordenador interprete algo del contenido de esa imagen, debe realizar un proceso de
reconocimiento parecido al que realizamos nosotros cuando leemos. Debe convertir pequeñas áreas
de pixels en letras, y éstas en palabras. Este proceso comprende todos los problemas relativos a la
distinción entre la letra O y el dígito O, la discriminación entre borrones y texto, la diferenciación
entre una mancha de café y una ilustración, y el discernimiento de todo esto respecto del fondo
ruidoso producido durante el barrido por el escáner o el proceso de transmisión.
Una vez realizado esto, la representación digital ya no es una imagen, sino información
estructurada en forma de letras, codificada normalmente en forma de representación binaria,
llamada ASCII, American Standard Codee for Information Interchange (Código Estándar
Americano para el Intercambio de Información), además de información adicional sobre el tipo de
letra utilizado y su distribución en esta página. Esta diferencia fundamental entre fax y ASCII es
válida para otros medios.
Un CD es un «fax de audio», información digital que permite la compresión, corrección de
errores y control de la señal acústica, pero no proporciona la estructura musical. En un CD por
ejemplo, sería muy difícil quitar el sonido del piano, sustituir la voz de un cantante o cambiar la
distribución espacial de los instrumentos en la orquesta. Hace ocho años, Mike Hawley, que
entonces era un estudiante y ahora es profesor del MIT a la vez que un excelente pianista, observó
la gran diferencia que existe entre el fax de audio y una representación más estructurada de la
música.
La tesis doctoral de Hawley consistía en un trabajo realizado con un gran piano Bosendorfer
instrumentado de una forma especial que grababa el tiempo de ataque de cada martillo y la
velocidad con la cual golpea la cuerda. Además, cada una de las teclas estaba mecanizada de forma
que podía reproducir las interpretaciones de manera casi perfecta. Se puede representar como un
teclado digitalizador muy preciso combinado con el pianista más caro y de mayor resolución del
mundo.
Yamaha introdujo hace poco una versión de bajo coste del mismo modelo.
Hawley trató el problema de cómo almacenar más de una hora de música en un CD. La industria
está atacando este problema de dos formas complementarias. Una es cambiar el láser de rojo a azul,
y por lo tanto acortar la longitud de onda y aumentar la densidad en un factor de cuatro. Otro es usar
técnicas más modernas de codificación, porque nuestro lector de CD en realidad usa algoritmos de
los años setenta y ahora ya hemos aprendido a comprimir mejor el sonido al menos en un factor de
cuatro (con el mismo grado de disminución de pérdida). Si utilizamos esas dos técnicas
conjuntamente, se obtiene un enorme CD con dieciséis horas de audio en una cara.
Hawley me explicó un día que él sabía una manera de introducir muchas más horas de audio en
un CD, y cuando le pregunté cuántas, él respondió:
—Unas cinco mil horas.
Si esto fuese cierto, pensé, la Music Publishers Association of the World (Asociación Mundial
de Editores de Música) no respondería de la vida de Hawley y éste tendría que vivir con Salman
Rushdie el resto de sus días. De todos modos, le pedí que me lo explicara (y le prometí, mientras
cruzaba los dedos, que guardaría el secreto).
Lo que Hawley había notado con el Bosendorfer y después de haberlo usado con personas tan
renombradas como John Williams, es que las manos humanas, al tocar con movimientos muy
rápidos, no podían generar más de 30.000 bits por minuto de salida del Bosendorfer. Es decir, que
la información gestual, la medida del movimiento de los dedos, era muy baja. Comparemos esto con
los 1,2 millones de bps que genera el sonido, como en un CD. Es decir, si se almacena la
información gestual, no la de sonido, se puede guardar 5.000 veces más música. Y no se necesitaría
un Bosendorfer de 125.000 dólares sino que se podría usar un instrumento más modesto equipado
con MIDI, Musical Instrument Data Interface (Interfaz de Datos de Instrumentos Musicales).
En la industria, todos los que han abordado el problema de la capacidad de audio en CD, lo han
hecho muy tímidamente, como si se tratase de un problema que afectara única y exclusivamente al
audio, de igual manera que el fax pertenece al dominio de la imagen. En cambio, la intuición de
Hawley es que los gestos son como MIDI, y ambos están próximos al ASCII. De hecho, la misma
partitura musical es una representación todavía más compacta (aunque he de reconocer que es de
baja resolución y carece del matiz expresivo que le otorga la interpretación humana).
Al observar la estructura de las señales, y cómo fueron generadas, vamos más allá de la
apariencia superficial de bits y descubrimos las bases de donde provienen la imagen, el sonido o el
texto. Éste es uno de los hechos más importantes de la vida digital.

EL FAX DE LA VIDA

Si hace veinticinco años la comunidad científica hubiera hecho una predicción del porcentaje de
texto legible por ordenador hoy día, lo habrían estimado en un 80 o 90 %. Y así fue hasta 1980,
pero entonces entró en escena el fax.
Esta máquina es una gran mancha en el paisaje de la información, un paso atrás cuyas
consecuencias padeceremos durante mucho tiempo. Esta condena parece irrelevante comparada con
un medio de comunicaciones que se diría que ha revolucionado la manera en que llevamos nuestros
negocios y, cada vez más, nuestras vidas personales. Pero hay que tener en cuenta el coste a largo
plazo, los fallos a corto plazo y las alternativas.
El fax es un legado japonés, pero no sólo porque fueron lo bastante inteligentes para
normalizarlo y fabricarlo mejor que los demás, como hicieron con los reproductores de vídeo, sino
porque sus hábitos culturales, lingüísticos y comerciales están muy orientados a la imagen.
Hace sólo diez años, los negocios japoneses no se hacían con documentos, sino de viva voz, casi
siempre cara a cara. Pocos hombres de negocios tenían secretaria y muchas veces escribían la
correspondencia a mano y a duras penas. El equivalente de una máquina de escribir japonesa
parecía más bien una máquina de imprenta, con un brazo electromecánico colocado sobre una densa
plantilla de selecciones para producir cada uno de los 60.000 símbolos kanji, su alfabeto.
La naturaleza pictográfica del kanji se ajustaba de forma natural al fax. Dado que entonces había
poco japonés legible por ordenador, las desventajas eran mínimas. Pero por otro lado, para una
lengua tan simbólica como el inglés, el fax es poco menos que un desastre en cuanto a legibilidad
informática.
Con las 26 letras del alfabeto latino, 10 dígitos y un puñado de caracteres especiales, para
nosotros resulta mucho más natural pensar en términos de ASCII de 8 bits. Pero el fax nos ha hecho
olvidar esto. Por ejemplo, la mayoría de cartas de negocios se preparan hoy día en un procesador de
textos, se imprimen y se mandan por fax. Recapacitemos. Preparamos nuestro documento en forma
totalmente legible por ordenador, tan legible que la comprobación informática de ortografía nos
parece un hecho muy natural.
¿Qué hacemos entonces? Lo imprimimos en papel con membrete y el documento pierde todas
las propiedades que tenía al ser digital.
A continuación ponemos esta pieza de papel sobre una máquina de fax, donde se (re)digitaliza
en una imagen, desechando las pequeñas cualidades de tacto, color y encabezamiento que pueda
llevar el papel, y entonces lo enviamos a su destino, quizás una papelera próxima a las
fotocopiadoras. Si usted es uno de los receptores menos afortunados, entonces no tiene otro remedio
que leer el mensaje escrito en un papel de textura cancerosa y viscosa, a veces sin cortar y que
recuerda a los antiguos pergaminos. Concédanme un respiro. ¡Esto es tan sensato como enviarse
mensajes de hojas de té!
Aunque nuestro ordenador esté conectado a un módem de fax, que nos ahorra el paso intermedio
del papel, o incluso si nuestro fax es de papel plano y a todo color, no podemos considerarlo un
medio inteligente. El fax ha eliminado la legibilidad del ordenador, que es el medio por el cual el
destinatario puede almacenar, recuperar y manipular automáticamente nuestro mensaje.
¿Cuántas veces recordamos haber recibido un fax hace unos seis meses de alguien... de algún
sitio... en relación a tal y tal? Si lo tuviésemos en forma ASCII, sólo necesitaríamos buscar en la
base de datos de un ordenador la ocurrencia «tal y tal».
Una hoja de papel enviada por fax sólo es una imagen. Por correo electrónico se puede enviar
una página para que el destinatario la imprima o la manipule si no está conforme o decida en qué
forma la desea.
El fax ni siquiera es económico. Uno normal de 9.600 baudios tarda unos veinte segundos en
enviar esta página, lo que representa unos 200.000 bits de información. Por otro lado, si se usa el
correo electrónico, se necesitan menos de un tercio de esos bits: los ASCII del texto y algunos
caracteres de control. En otras palabras, incluso si a usted no le preocupa la legibilidad informática,
el coste del correo electrónico representa el 10 % del coste del fax, medido en bits o en segundos de
funcionamiento a los mismos 9.600 baudios (a 38.400 baudios es el 2,5 % del coste de un fax
actual).
La idea del fax y del correo electrónico se remonta unos cien años atrás. En un manuscrito de
1863, «París en el siglo XX», encontrado y publicado por vez primera en 1994, Julio Verne
escribía: «La fototelegrafía permitirá enviar escritos, firmas o ilustraciones y firmar contratos a una
distancia de [20.000 km]. Todas las casas estarán conectadas.»
El telégrafo automático de la Western Union era correo electrónico por cable, de lugar a lugar.
Por tanto, el uso generalizado del correo electrónico tal como lo conocemos hoy, de todos los
lugares a todos los lugares, precedió al uso generalizado del fax. Cuando comenzó el correo
electrónico en la segunda mitad de la década de los años sesenta, había muy poca gente con
suficientes conocimientos de informática. Por lo tanto, no es sorprendente que el fax superara
dramáticamente al correo electrónico en los años ochenta. Las razones fueron la facilidad de uso,
que comprende la simple entrega de imágenes y gráficos, y la entrada de originales, incluyendo su
forma. Además, bajo ciertas circunstancias y desde hace poco tiempo, los faxes firmados tienen
valor legal.
Pero ahora, con la omnipresencia de los ordenadores, las ventajas del correo electrónico son
aplastantes, como lo demuestra su ascenso vertiginoso. Además de su utilidad digital, el correo
electrónico es un medio más conversacional. Aunque no es diálogo hablado, se parece mucho más a
hablar que a escribir.
Lo primero que hago cada mañana es mirar mi correo electrónico y al final del día me digo: «He
hablado con fulano y mengano esta mañana», aunque sólo haya sido por correo electrónico. Los
mensajes van y vienen. Estos intercambios contienen a veces errores tipográficos. Recuerdo que
una vez me disculpé con un colega japonés por mis errores ortográficos, a lo cual él replicó que no
debía preocuparme porque él era mucho mejor corrector que cualquier diccionario ortográfico en
software que yo pudiera comprar. Auténtico.
Este nuevo medio cuasiconversacional es muy diferente de la escritura de cartas. Es mucho más
que una oficina de correos rápida. Con el tiempo, los usuarios encontrarán distintas formas de
utilización. Ya casi existe un lenguaje completo de matices en el correo electrónico, con signos
como :)- (una cara sonriente). Según todos los indicios, el correo electrónico (no limitado al ASCII)
será el medio de telecomunicación interpersonal dominante en el próximo milenio, y durante los
próximos quince años será el que más se acerque o a veces incluso puede que eclipse a la voz.
Todos podemos usar el correo electrónico, siempre que aprendamos cierto decoro digital.

REDETIQUETA

Imaginemos la siguiente escena: el salón de baile de un castillo en la Austria del siglo XVIII,
con todo su esplendor, decorados, dorados y relucientes y luces de miles de velas que se reflejan en
espejos venecianos. Cuatrocientas bellezas de la buena sociedad bailan con gracia los valses al son
de una orquesta de 10 músicos, como en las escenas de baile de La emperatriz escarlata, de la
Paramount, o La viuda alegre, de Universal Pictures. Ahora imaginemos la misma escena, pero en
la que 390 de los invitados han aprendido a bailar la noche anterior; la mayoría son demasiado
patosos. Pues así es Internet hoy día: muchos usuarios son unos manazas.
La inmensa mayoría de usuarios de Internet son recién llegados. Muchos llevan conectados
menos de un año. Sus primeros mensajes tienden a inundar a un pequeño grupo de destinatarios
selectos, no sólo con páginas y páginas de mensaje sino también con un sentido de la urgencia que
sugiere que el destinatario no tiene nada mejor que hacer que responderles.
Peor aún, es tan sencillo y parece tan barato enviar copias de documentos que una sola entrega
puede dejar en tu buzón de correos quince o cincuenta mil palabras no deseadas. Este sencillo acto
convierte el correo electrónico en un vertedero, lo que es aún más penoso si se está conectado a un
canal de bajo ancho de banda.
Un periodista que tenía que escribir sobre los recién llegados y su desconsiderado uso de
Internet realizó su investigación a través del envío de un cuestionario de cuatro páginas a algunas
personas, incluido yo, sin siquiera preguntar ni dejar aviso previo. Su artículo tendría que haber
consistido en un autorretrato de sí mismo.
El correo electrónico puede ser un medio fantástico para los periodistas. Las entrevistas por
correo electrónico son menos invasivas y a la vez permiten reflexionar más. Estoy convencido de
que, si los periodistas logran adquirir cierto decoro digital, las entrevistas electrónicas serán un
medio fabuloso y una herramienta de trabajo de uso habitual para una buena parte de periodistas de
todo el mundo. La mejor forma de ser educado con el correo electrónico en Internet es suponer que
el destinatario tiene sólo 1.200 bps y unos pocos momentos de atención. Un ejemplo de lo contrario,
que para alarma mía es la práctica habitual de demasiados usuarios habituales que conozco, es
devolver una copia completa de mi mensaje con su respuesta. Tal vez sea ésa la manera más
perezosa de dar sentido al correo electrónico y es mortal si el mensaje es largo (y el canal estrecho).
El extremo opuesto es aún peor, como por ejemplo contestar: «Seguro.» ¿Seguro, qué?
La peor de las costumbres digitales, en mi opinión, es la copia gratuita, la «cc» (¿quién se
acuerda de qué significaba la «copia carbón»?). Montañas de estas copias han ahuyentado de la
conexión a muchos altos ejecutivos. El gran problema de las cc electrónicas es que se pueden
multiplicar por sí mismas, porque demasiado a menudo se mandan respuestas a toda la lista de cc.
Nunca se puede decir si alguien respondió a «todos» accidentalmente, tal vez no quería o no sabía
cómo hacerlo de otra manera. Si una persona organiza un encuentro internacional improvisado y me
invita a mí y a otras 50 personas, lo último que quiero ver son 50 preparativos detallados de viaje y
la discusión de los mismos.
Como diría el poeta, la brevedad es el alma del correo electrónico.

TAMBIÉN EN DOMINGO

El correo electrónico es un estilo de vida que cambia nuestras formas de vivir y de trabajar. Una
consecuencia muy concreta es que el ritmo de trabajo y ocio cambian. De nueve a cinco, cinco días
por semana y dos semanas de vacaciones al año como ritmo dominante del mundo de los negocios
es un esquema que empieza a desaparecer. Los mensajes profesionales y personales están
empezando a mezclarse; el domingo no es distinto del lunes.
Algunas personas, sobre todo en Europa y Japón, dirán que esto es un desastre porque quieren
dejarse el trabajo en la oficina. De verdad que no envidio el derecho de la gente a distanciarse de su
trabajo. Pero al otro lado del océano, a algunos de nosotros nos gusta estar conectados todo el
tiempo. Es sólo un intercambio. Personalmente, prefiero contestar el correo electrónico los
domingos y estar en pijama más tiempo los lunes.

ESTAR EN CASA Y EN EL EXTRANJERO A LA VEZ

Hay un chiste muy bueno, ahora bastante famoso, de dos perros que usan Internet. Uno escribe
al otro: «En Internet nadie sabe que eres un perro.» El apéndice tendría que decir: «Y nadie sabe
dónde estás.»
Cuando viajo de Nueva York a Tokio, unas catorce horas de avión, escribo durante casi todo el
viaje y, entre otras cosas, redacto cuarenta o cincuenta mensajes electrónicos. Imagínense que al
llegar a mi hotel se los entregara al conserje para que los enviara por fax. Un hecho así se entendería
como correo de masas. Sin embargo, enviarlos por correo electrónico es fácil y rápido, y para
hacerlo sólo tengo que marcar un número de teléfono local. Los envío a personas, no a lugares. La
gente me envía mensajes a mí, no a Tokio.
El correo electrónico proporciona una movilidad extraordinaria sin que nadie tenga que saber mi
paradero. Aunque esto pueda ser más importante para un viajante de comercio, el proceso de seguir
conectado suscita algunas cuestiones de interés general sobre la diferencia entre bits y átomos en la
vida digital.
Cuando viajo, establezco que al menos dos números de teléfono locales puedan conectarme a
Internet. Al contrario de lo que es habitual, ambos son puertos comerciales caros, que me conectan
a la vez al sistema de la red local del país (eso hago en Grecia, Francia, Suiza o Japón) y al servicio
de red global de Sprint o MCI. Sprint, por ejemplo, tiene números de teléfono locales en 38
ciudades rusas. Cualquiera de ellos me puede conectar a mi sistema de tiempo-compartido de
usuario único (el cuartito) o, como recurso, al ordenador principal del Media Lab del MIT. Desde
allí, ya estoy en Internet.
Conectarse por el mundo es como trabajar a oscuras. El problema no es ser digital, sino
enchufarse. ¡Europa tiene 20 enchufes de corriente distintos! (Cuéntelos usted mismo.) Y, aunque
uno puede haberse acostumbrado a usar esa pequeña clavija telefónica de plástico llamada enchufe
RJ-11, hay otros 175 en el mundo. Estoy orgulloso de ser propietario de por lo menos una de cada
y, en un viaje largo y tortuoso, el 25 % del volumen de mi equipaje es una mezcla de clavijas
telefónicas y enchufes.
Incluso con el equipo adecuado, muchos hoteles y la mayoría de las cabinas telefónicas no
tienen ningún tipo de conexión directa para módem. En estas ocasiones, opto por acoplar con velero
un pequeño dispositivo acústico, pero la dificultad de esta tarea es proporcional al grado de «exceso
de diseño» del teléfono.
Una vez conectado, los bits no tienen ningún problema para volver a casa, incluso a través del
teléfono más anticuado y analógico, aunque a veces la transmisión tiene poca velocidad y requiere
mucha corrección de error.
Europa ha iniciado un programa para fabricar un único tipo de enchufe de corriente que presenta
tres ventajas: 1) no tiene el aspecto de ninguno de los enchufes actuales, 2) ofrece las prestaciones
de seguridad de todos los enchufes existentes y 3) no prima a ningún país (esto último es un rasgo
del ideario de la Unión Europea). Pero la cuestión no son sólo los enchufes puesto que a medida que
desarrollamos nuestra vida digital, las barreras parecen ser físicas, no electrónicas.
Un ejemplo de sabotaje digital deliberado es cuando los hoteles separan la pequeña pinza de
plástico que libera la clavija RJ-11, de forma que no puedes enchufar el ordenador portátil a la red.
Esto es peor que cobrar los faxes recibidos. Tim y Nina Zagat han prometido incluir en su futura
guía de hoteles una nota que comente este aspecto, de forma que los digerati puedan boicotear estos
establecimientos e irse con la música a otra parte.
UNA DIVERSIÓN DIFÍCIL

16

ENSEÑAR A LOS INCAPACITADOS

C
uando en 1989 el Media Lab del MIT estrenó su trabajo LEGO/Logo, unos chicos, estudiantes de
sexto grado de la Hennigan School, presentaron sus proyectos ante un numeroso grupo de
ejecutivos de la empresa LEGO, académicos y periodistas. Una apasionada presentadora de una de
las cadenas nacionales de televisión arrinconó a uno de los niños ante las cámaras y le preguntó si
todo aquello no era más que diversión y juegos; la periodista presionaba al chico de ocho años
buscando la típica respuesta picante y simpática.
El niño se puso nervioso, y al final, después de la tercera repetición de la pregunta y sudando
por culpa de los focos, aquel chico, exasperado, miró fijamente a la cámara y dijo: «Sí, es una
diversión, pero es una diversión difícil.»
Seymour Papert es un experto en «diversión difícil».
Ya muy pronto notó que ser «bueno» en idiomas es un concepto extraño si se considera que
todo niño de cinco años recién salido del nido aprenderá alemán en Alemania, italiano en Italia y
japonés en Japón. Se diría que perdemos esa habilidad a medida que nos hacemos mayores, pero no
podemos negar que la poseíamos en nuestra juventud.
Papert propuso que concibiéramos los ordenadores en la educación, literal y metafóricamente,
como si creásemos un país llamado, digamos, Matelandia, donde una niña aprendiera matemáticas
de la misma manera que aprende idiomas. Aunque Matelandia es un concepto geopolítico extraño,
tiene un perfecto sentido informático. De hecho, las técnicas modernas de simulación por ordenador
permiten la creación de micromundos en los que los niños pueden explorar, a través del juego,
principios muy sofisticados.
En la llamada «clase de LEGO/Logo» de Hennigan, un niño de seis años construyó una pila de
bloques y puso un motor encima. Conectó los dos cables del motor a su ordenador y escribió un
programa de una línea que lo ponía en marcha y lo apagaba. Cuando estaba en marcha, los bloques
vibraban. Después colocó una hélice, pero por alguna razón la montó excéntricamente, es decir, no
centrada, quizá por equivocación. Entonces, cuando ponía en marcha el motor, los bloques vibraban
tanto que no sólo saltaban sino que se empujaban unos a otros, lo que algunas veces solucionaba
«trampeando» con unas pocas gomas elásticas.
Entonces se dio cuenta de que si giraba el motor de forma que la hélice rotase en el sentido de
las agujas del reloj, la pila de LEGO se sacudía primero hacia la derecha y después con un
movimiento desordenado. Si giraba en sentido contrario, la pila se sacudía primero hacia la
izquierda y después con el mismo movimiento desordenado. Por fin, decidió poner células
fotoeléctricas debajo de la estructura y asentar los bloques por encima de una línea negra que había
dibujado en una lámina grande de papel blanco.
A continuación escribió un programa más sofisticado que ponía en marcha el motor en
cualquiera de los dos sentidos. Según qué células fotoeléctricas veían el negro de la lámina, el
motor se paraba e iniciaba la marcha en el sentido de las agujas del reloj, para dar una sacudida a la
derecha, o en sentido contrario, para darla a la izquierda y, por lo tanto, para volver a la línea. El
resultado fue una pila móvil de bloques que seguían la línea negra.
El niño se convirtió en un héroe. Los profesores y alumnos le preguntaron cómo funcionaba su
invento y examinaron su proyecto desde diferentes perspectivas, planteando diversas preguntas.
Este pequeño momento de gloria le dio al niño algo tan importante como la alegría de aprender.
Quizá lo que sucede en nuestra sociedad es que no son tantos los niños incapacitados para
aprender y lo que hay son más entornos incapaces de enseñar de lo que creemos. El ordenador
cambia esta situación capacitándonos para llegar a los niños con estilos cognitivos y pedagógicos
diferentes.

NO DISECAR UNA RANA SINO CONSTRUIRLA

Muchos niños americanos no saben cuál es la diferencia entre el Báltico y los Balcanes, quiénes
fueron los visigodos, o dónde vivía Luis XIV. ¿Y qué? ¿Por qué es tan importante? ¿Sabía usted
que Reno está al oeste de Los Ángeles?
El precio que se paga en países como Francia, Corea del Sur y Japón por imbuir muchos datos
en las mentes jóvenes es que a menudo muchos estudiantes se han malogrado antes de llegar a la
universidad. Durante los cuatro años de estudios superiores se sienten como corredores de maratón
a los que se les pide llegar a la meta escalando montañas.
En los años sesenta, muchos pioneros en ordenadores y educación defendieron unos ínfimos
métodos de enseñanza práctica con el uso individual de ordenadores, una moda de autoaprendizaje
que pretendía enseñar lo mismo de siempre con más efectividad. Ahora, con el furor de los
multimedia, hay algunos que creen sin confesarlo en la enseñanza práctica y piensan que se puede
colonizar un juego Sega para embutir un bit más de información en las cabezas de los niños, con
algo más de lo que ellos llaman «productividad».
El 11 de abril de 1970, Papert celebró un simposio en el MIT llamado «Enseñar a los niños a
pensar», en el que proponía usar los ordenadores como máquinas a quienes los niños enseñarían, y
así aprenderían enseñando. Esta idea tan sencilla se coció a fuego lento durante casi quince años
hasta que cobró vida en los ordenadores personales. Hoy, cuando en más de un tercio de los hogares
americanos existe un ordenador personal, ha llegado el momento adecuado para poner en práctica
aquella idea.
Mientras que una parte significativa del aprendizaje procede de la enseñanza (de la buena
enseñanza con buenos profesores), la mayor parte se adquiere mediante la exploración,
reinventando la rueda e informándose uno mismo. Antes del ordenador, la tecnología en la
enseñanza se limitaba a los audiovisuales y a la educación a distancia por televisión que, en
definitiva, no hacen sino amplificar la actividad de los profesores y la pasividad de los niños.
El ordenador cambió esta proporción de forma radical. De pronto, aprender haciendo algo se
convirtió en la regla más que en la excepción. Desde que es posible la simulación por ordenador de
cualquier cosa, no hace falta disecar una rana para estudiarla. En lugar de esto, se puede pedir a los
niños que diseñen ranas, construyan un animal con un comportamiento como el de la rana,
modifiquen este comportamiento, simulen los músculos o que jueguen con la rana.
Cuando se juega con la información, el material adquiere un mayor significado, sobre todo en lo
que se refiere a los temas abstractos. Recuerdo cuando la profesora de tercer grado de mi hijo me
informó con tristeza que no sabía sumar o restar un par de números de dos o tres cifras. Qué raro,
pensé, puesto que él siempre hacía de banca cuando jugábamos al Monopoly, y parecía
desenvolverse bien con el manejo de aquellos números. Así es que sugerí a la profesora que probara
a poner la misma suma con dólares, no sólo con números. Y, fíjense, de pronto fue capaz de sumar
de memoria con tres cifras o más. La razón es que ya no se trataba de números abstractos y sin
sentido, sino de dólares, que tenían que ver con comprar edificios, construir hoteles y pasar por la
casilla de salida.
El ordenador controlable LEGO va un paso más allá. Permite a los niños crear construcciones
físicas con un comportamiento determinado. El trabajo actual con LEGO en el Media Lab del MIT
incluye un prototipo de ladrillo-ordenador que muestra un mayor grado de flexibilidad y adecuación
al constructivismo de Papert, y contiene comunicaciones interladrillo y oportunidades de explorar
procesos paralelos de modo distinto.
Los chicos que hoy usan LEGO/Logo aprenderán principios físicos y lógicos que usted y yo
aprendimos en la universidad. La evidencia anecdótica y los resultados de pruebas minuciosas
revelan que este enfoque constructivista es un medio de extraordinaria riqueza para aprender a
través de una amplia variedad de estilos cognitivos y de comportamiento. De hecho, muchos niños
que se suponía que eran incapaces de aprender, mejoraron en el entorno constructivista.

ESPABILADOS EN LA SUPERAUTOPISTA

Cuando yo estaba en el internado en Suiza, un grupo de niños en el que me incluía no pudimos


ir a casa durante las vacaciones de otoño porque estaba demasiado lejos. En vez de eso,
participamos en un concurso, una auténtica gymkhana.
El director de la escuela era un general suizo (en la reserva, como la mayoría del personal del
Ejército suizo) que tenía tanta astucia como afición a dar tortazos. Organizó una prueba de cinco
días que se desarrollaba por todo el país, en la que cada equipo de cuatro chicos, de entre doce y
dieciséis años, disponía de 100 francos suizos (unas tres mil pesetas de aquella época) y un pase de
ferrocarril de cinco días.
A cada equipo se le daban diferentes pistas, y tenía que recorrer el país ganando puntos a lo
largo de la ruta. Conseguirlos era una auténtica proeza. En un momento dado teníamos que alcanzar
una cierta latitud y longitud en mitad de la noche, y allí un helicóptero dejaba caer el mensaje
siguiente grabado en una cinta de casete de un cuarto de pulgada, en idioma urdu, que nos decía
dónde encontrar un cerdo vivo que había que llevar a un sitio que nos dirían en un cierto número de
teléfono, el cual había que determinar por medio de un complejo rompecabezas hecho con las
fechas en que tuvieron lugar siete hechos históricos poco conocidos, cuyas últimas siete cifras
formarían el número al que había que llamar.
Este tipo de reto siempre me ha atraído mucho, y, no es por nada, mi equipo ganó, y yo estaba
seguro de ello. Estaba tan entusiasmado por esta experiencia que hice lo mismo con mi hijo el día
que cumplió catorce años. Sin embargo, como no tenía a mi disposición al Ejército americano,
organicé para su clase una experiencia de un día en Boston; dividí a los chicos en equipos, cada uno
con un presupuesto fijo y un pase ilimitado para el metro. Pasé varias semanas sembrando pistas
con recepcionistas, bajo los bancos del parque, y en lugares que se determinaban con rompecabezas
de números de teléfono. Como es fácil imaginar, los mejores en el trabajo en clase no eran
necesariamente los ganadores; de hecho, lo normal es lo contrario. Siempre ha habido una
diferencia real entre los chicos espabilados y los chicos inteligentes.
Por ejemplo, para sacar una de las pistas en mi gymkhana, había que solucionar un crucigrama.
Los chicos inteligentes se lanzaron a la biblioteca o llamaron a sus amigos inteligentes. Los chicos
espabilados pidieron ayuda a la gente en las escaleras del metro. No sólo obtuvieron las respuestas
antes, sino que además lo hicieron desplazándose de A a B y ganando al mismo tiempo terreno y
puntos para el juego.
Hoy día los chicos tienen la oportunidad de espabilarse gracias a Internet, donde se oye pero no
se ve a los niños. Lo irónico es que esto mejorará la lectura y la escritura. Los niños leerán y
escribirán en Internet para comunicarse, no sólo para realizar algún ejercicio abstracto y artificial.
Lo que propongo no debería entenderse como antiintelectual o como un desdén hacia los
razonamientos abstractos, sino más bien todo lo contrario. Internet proporciona un medio nuevo
para obtener conocimientos y significados.
A veces me levanto con un ligero insomnio alrededor de las tres de la mañana, doy vueltas
durante una hora y entonces me vuelvo a dormir. En una de esas sesiones soñolientas recibí un
mensaje por correo electrónico de un tal Michael Schrag, que se presentó muy educadamente como
un estudiante de segundo año de bachillerato.
Me preguntaba si podría ver el Media Lab cuando visitase el MIT aquella misma semana. Yo le
sugerí que se sentase al final de la sala en mi clase «Los bits son bits» de los viernes, y que luego le
asignaríamos un guía.
También envié una copia de nuestros mensajes a otros dos miembros de la facultad que
estuvieron de acuerdo en conocerle (aunque tal vez el motivo fue que pensaron que se trataba del
famoso columnista Michael Schrage, cuyo nombre tiene una e al final).
Cuando por fin conocí a Michael, iba con su padre. Éste me explicó que Michael conocía a toda
clase de personas en la Red y que la usaba de la manera en que yo utilicé mi concurso.
Lo que asombraba al padre de Michael era que toda clase de personas, ganadores del Premio
Nobel y altos ejecutivos, parecían disponer de tiempo para responder a las preguntas de Michael. La
razón es que es muy fácil contestar, y, al menos por ahora, la mayoría de personas no están
desbordadas por correo electrónico gratuito.
Más adelante, habrá cada vez más gente en Internet con el tiempo y la sabiduría necesarios para
convertirse en un hilo de la trama del conocimiento y la asistencia humanos.
Los 30 millones de miembros de la American Association of Retired Persons (Asociación
Americana de Jubilados), por ejemplo, constituyen una experiencia humana que está
desaprovechada en la actualidad. Bastaría con poner al alcance de las mentes jóvenes esa enorme
cantidad de conocimientos para llenar el vacío generacional.

JUGANDO A APRENDER

En octubre de 1981 Seymour Papert y yo asistimos a un encuentro de la OPEP en Viena. Fue


allí donde el jeque Yamani pronunció su famoso discurso en el que decía que había que dar a un
hombre pobre una caña de pescar y no un pescado: enseñarle cómo ganarse la vida y no cómo coger
una limosna.
En un encuentro con Yamani, nos preguntó si sabíamos la diferencia entre una persona primitiva
y una ignorante. Fuimos lo bastante educados para dudar, dándole ocasión de responder a su propia
pregunta, lo que hizo con mucha elocuencia.
La respuesta era que la gente primitiva no era en absoluto ignorante, sino que simplemente
usaba otros medios para transmitir sus conocimientos de generación en generación, dentro de un
entramado social solidario y compacto.
Por el contrario, explicó, «una persona ignorante es el producto de una sociedad moderna cuyo
entramado se ha desintegrado y cuyo sistema ya no es solidario».
El gran monólogo del jeque era en sí mismo una versión primitiva de las ideas constructivistas
de Papert. Una cosa llevó a la otra y el resultado fue que empleamos el siguiente año de nuestras
vidas para idear de qué manera el uso de los ordenadores podría ser útil para la educación en países
en desarrollo.
La experiencia más completa de este período tuvo lugar en Dakar, Senegal, donde se introdujeron
en una escuela elemental dos docenas de ordenadores Apple con el lenguaje de programación Logo.
Los niños de esta nación del oeste de África, que es rural, pobre y subdesarrollada, se lanzaron
sobre los ordenadores con la misma facilidad y naturalidad con que lo hacen los de la clase media
urbana norteamericana. No mostraron ninguna diferencia de aceptación y entusiasmo aunque es
evidente que en sus vidas normales no existía un entorno mecánico ni electrónico orientado al uso
de aparatos. No tenía nada que ver que fueran blancos o negros, ricos o pobres. Lo importante,
como al aprender francés en Francia, era ser un niño.
En nuestra propia sociedad existen evidencias del mismo fenómeno. Ya sea en la demografía de
Internet, en el uso de Nintendo y Sega o incluso en la introducción de los ordenadores personales en
los hogares, las fuerzas dominantes no son sociales, raciales o económicas, sino generacionales. Los
que tienen y los que no tienen son ahora los jóvenes y los mayores. Las fuerzas étnicas y nacionales
dirigen de una manera diferente muchos movimientos intelectuales, pero no la revolución digital.
Su ethos y su poder de atracción son tan universales como la música rock.
Muchos adultos se equivocan en su manera de apreciar cómo los niños aprenden con los juegos
electrónicos. La idea más generalizada es que esos juguetes hipnóticos convierten a los niños en
adictos espasmódicos con menos posibilidades de redención que un tonto. Pero no hay duda de que
muchos juegos electrónicos enseñan a los chicos unas estrategias y exigen unas habilidades de
planificación que después usarán en la vida. Cuando éramos niños, ¿cuántas veces discutimos
estrategias o nos apresuramos por aprender algo más deprisa que los demás?
Hoy día un juego como Tetris se entiende demasiado pronto. Lo que varía es la velocidad. Lo más
probable es que haya miembros de una generación Tetris que sean mucho mejores en el
empaquetado a toda prisa del portaequipajes de un vagón de tren, pero nada más. A medida que los
juegos se trasladen a ordenadores personales más potentes, veremos aumentar las herramientas de
simulación, como en el popular SimCity, y de los juegos ricos en información. Una diversión
difícil.
FÁBULAS Y MINUCIAS

17
DIGITALES

LA LLAMADA DEL MÓDEM

S
i usted fuera a contratar personal doméstico para cocinar, limpiar, conducir, encender el fuego o
abrir la puerta, ¿les recomendaría que no se hablaran unos a otros, no viesen lo que los demás hacen
y que no coordinaran sus funciones?
Pues aunque sea difícil de comprender, cuando son máquinas las que encarnan esas funciones,
generalmente aislamos cada función. Hoy día, aspiradores, coches, timbres de puerta, frigoríficos o
sistemas de calefacción son sistemas cerrados y con una función específica cuyos diseñadores no se
esforzaron por hacerlos intercomunicables. Lo máximo que hacemos para coordinar el
comportamiento de los aparatos es empotrar en muchos de ellos relojes digitales. Intentamos
sincronizar algunas funciones con tiempo digital, pero la mayor parte de las veces acabamos con
una colección de máquinas, cuyo parpadeo 12.00 es como un gritito de «por favor, hazme un poco
más inteligente».
Para servir mejor a las personas las máquinas tienen que poder hablar entre sí.
Ser digital cambia el carácter de las normas de comunicación entre máquinas. Varias
personalidades se sientan en torno a una mesa en Ginebra y otros sitios parecidos para martillear
(una elocuente metáfora de la era industrial) normas de aplicación mundial, desde la asignación del
espectro hasta protocolos de telecomunicaciones. A veces se emplea tanto tiempo en un asunto,
como en el caso de la norma de teléfono ISDN (Red Digital de Servicios Integrados), que cuando se
llega a un acuerdo sobre la norma ésta ya es obsoleta.
La idea operativa y la mentalidad de los comités de normalización ha sido considerar las señales
eléctricas como hilos. Para que los tornillos y tuercas funcionen de país a país, hay que estar de
acuerdo en cada dimensión crítica, no sólo en algunas de ellas. Aunque tuviéramos el número
correcto de hilos por pulgada o por centímetro, el acoplamiento de tornillos y tuercas no funcionaría
si el diámetro fuera equivocado. El mundo mecánico es muy exigente en este sentido.
Los bits son más tolerantes. Se prestan a descripciones de alto nivel y a protocolos, un término
que antes se reservaba a la sociedad educada. Los protocolos pueden ser muy específicos sobre
cómo se saludan dos máquinas. Handshaking (apretón de manos o saludo) es el término técnico
para definir la comunicación que se establece entre dos máquinas, la decisión de las variables que
usarán en sus conversaciones.
Escuche su fax o su módem la próxima vez que los use. Todo ese ruido como de estática y los
bips son literalmente el saludo (handshaking). Esos reclamos de apareamiento son negociaciones
para encontrar el terreno más elevado desde el que transportar bits, tomando como máximo común
denominador todas las variables.
A un nivel todavía más alto, podríamos decir que el protocolo son metanormas o lenguajes a
usar para negociar métodos más detallados de intercambio de bits. El equivalente en la Suiza
multilingüe es estar esquiando solo y subir con un desconocido a un telesilla: lo primero que se
negocia con el compañero de telesilla, si es que se habla de algo, es en qué lengua hablar. Los
televisores y tostadoras también se lo preguntarán unos a otros como preámbulo de sus
negociaciones.

COSAS DE LOS BITS

Hace veinticinco años, formé parte de un comité asesor para evaluar los diseños finales del UPC
o Código Universal de Producto, el ahora omnipresente código de barras legible por ordenador que
puso en un aprieto al presidente Bush cuando expresó su asombro a la salida de un supermercado
automatizado. El UPC está en latas, cajas, libros (desfigurando las portadas) y en todas partes
excepto en las verduras frescas.
La tarea del comité del UPC era aprobar el diseño final del código de barras. Después de juzgar
a los finalistas (el diseño ganador iba en segundo lugar), repasamos un puñado de propuestas
lunáticas pero intrigantes, tales como hacer toda la comida un poco radiactiva, en proporción a su
valor, de modo que cada cajero de control fuera un contador Geiger en el que los compradores
pagaran por el número de rads que hubiera en sus carritos. (Se estima que una lata normal de
espinacas nos expone a una dosis de una décima de microrad por kilogramo y por hora; una
milmillonésima de julio por hora, en comparación con los 100.000 julios de energía química, con
los cuales Popeye aumenta su fuerza.)
Esta idea loca contenía un pequeño germen de sabiduría: ¿Por qué no hacer que cada UPC
pudiera radiar datos? O bien, ¿por qué no hacer que fuera activable, de modo que pudiera levantar
la mano como lo hacen los niños en el parvulario?
La razón es que consume energía, y por lo tanto los UPC y otras pequeñas «etiquetas» tienden a
ser pasivas. Pero existen soluciones, como tomar energía de la luz o consumir tan poca que una
pequeña batería se pueda usar durante años. Cuando esto ocurra en un formato diminuto, todas las
«cosas» podrán ser activas digitalmente. Por ejemplo, las tazas de café, artículos de vestir y libros
(sí) de la casa podrán decir dónde están. En el futuro, el concepto de «estar perdido» será tan
inverosímil como estar «agotado».
Las etiquetas activas son una parte importante del futuro, porque llevan a la comunidad digital a
pequeños miembros del mundo inanimado que no son eléctricos: ositos de felpa, llaves inglesas y
cuencos de fruta. En el futuro más inmediato, las etiquetas activas se usarán (y se usan) como
distintivos para personas y animales. No habrá mejor regalo de Navidad que un collar activo para
perro o gato, de forma que los animales domésticos no puedan perderse o, mejor dicho, puedan
perderse pero se pueda saber dónde están.
La gente usa ya distintivos activos por razones de seguridad. En Gran Bretaña, Olivetti está
desarrollando una nueva aplicación. El edificio sabe dónde estamos si llevamos uno de esos
distintivos. Cuando nos llaman, suena el teléfono más cercano a nosotros. En el futuro, estos
dispositivos no estarán sujetos con una pinza o con un alfiler de seguridad, sino pegados o
entretejidos en la ropa.

MEDIOS PARA VESTIR


Pana informática, muselina con memoria y seda solar pueden ser los tejidos de las ropas
digitales del mañana. En lugar de cargar con el ordenador portátil, nos lo pondremos. Aunque suene
escandaloso, ahora ya empezamos a cargar en nuestros cuerpos cada vez más equipo de
comunicación e informática.
El reloj de pulsera es el más evidente. Seguro que cambiará del simple artículo horario de hoy a
un centro móvil de mando y control el día de mañana. Se lleva de una forma tan natural que muchas
personas duermen con él.
Un aparato múltiple de pulsera con teléfono, ordenador y televisión ya no es el dominio
exclusivo de Dick Tracy, Batman o el capitán Kirk. Durante los cinco próximos años, estos
dispositivos conformarán una de las mayores áreas de crecimiento de productos de consumo. Timex
ya ofrece comunicaciones inalámbricas entre el PC y el reloj de pulsera. Se espera que el reloj
Timex sea tan popular que su inteligente programa de transmisión (óptica) será incorporado en
varios sistemas Microsoft.
Nuestra habilidad para miniaturizar sobrepasará rápidamente nuestra capacidad para dotar de
energía a esos pequeños objetos. La energía es un área de la tecnología en la que se ha avanzado a
paso de tortuga. Si el progreso en la investigación de nuevas tecnologías para baterías hubiera sido
parejo al de los circuitos integrados, hoy viajaríamos a diario en coches alimentados con pilas de
linternas. Desgraciadamente, cuando viajo tengo que llevar más de cinco kilos de baterías para
alimentar mi ordenador portátil. Con el tiempo, y a medida que los ordenadores de bolsillo iban
adquiriendo más funciones y pantallas más brillantes, las baterías para ordenadores portátiles se han
hecho más pesadas. (En 1979, el Typecorder de Sony, el primer ordenador portátil, sólo usaba
cuatro baterías AA.)
Seguramente aparecerán algunas soluciones imaginativas para responder al problema de la
alimentación de ordenadores para vestir. Abercrombie & Fitch ya comercializa un salacot con una
célula solar que alimenta un pequeño ventilador que abanica la frente. Un nuevo y excelente
candidato para almacenar energía es el cinturón. Si nos lo quitamos veremos la enorme cantidad de
superficie y volumen que abarca. Imaginemos un cinturón de cuero hueco con un diseño que
permite enchufar la hebilla en la pared para recargar el teléfono móvil.
Lo mismo puede decirse de las antenas, de las cuales puede formar parte el propio cuerpo
humano. Además, y gracias a su forma, las antenas se podrían entretejer en las telas o llevarlas
como una corbata. Con un poco de ayuda digital, las orejas de la gente pueden funcionar tan bien
como si fueran «antenas».
Lo importante es reconocer que el futuro de los dispositivos digitales incluirá algunas formas y
tamaños muy distintos de los que nos acuden a la mente en nuestros marcos (sic) habituales de
referencia. Los vendedores de equipo y recambios informáticos no serán sólo Radio Shack y
Staples, sino también el tipo de tiendas que venden productos Nike, Levi's y Banana Republic. En
un futuro más lejano, los visores de ordenador se venderán al por mayor y podrán pintarse, los CD-
ROM serán comestibles y los procesadores paralelos se aplicarán como las cremas protectoras.
Incluso, quizá viviremos dentro de nuestros ordenadores.

LOS BITS Y EL CEMENTO

En mi formación como arquitecto he encontrado muchos conceptos válidos de la arquitectura


que se nutren directamente del diseño de ordenadores, pero muy pocos lo hacen a la inversa, aparte
de poblar nuestro entorno con dispositivos más inteligentes, ocultos o a la vista. Concebir los
edificios como enormes dispositivos electromecánicos no ha llevado a aplicaciones reales muy
inspiradas. Incluso el comportamiento arquitectónico de la nave espacial Enterprise se limita a sus
puertas corredizas.
Los edificios del futuro serán como la parte de atrás de los ordenadores: «inteligentemente
preparado» (un término acuñado por la AMP Corporation para su programa de casa inteligente).
Este concepto es una combinación de precableado y conectores omnipresentes para una (futura)
señal compartida por instrumentos. Más tarde se puede añadir procesamiento de uno u otro tipo, por
ejemplo, hacer que el ambiente acústico de las cuatro paredes de la sala de estar suene como el
Carnegie Hall.
En la mayoría de ejemplos de «entornos inteligentes» que he visto falta la capacidad de sentir la
presencia humana. Es el mismo problema de los ordenadores personales llevado a otro nivel: el
entorno no puede vernos ni sentirnos. Incluso el termostato se refiere a la temperatura del muro, no
a si nosotros tenemos frío o calor. Las habitaciones del futuro sabrán que acabamos de sentarnos a
comer, nos hemos ido a dormir, vamos a darnos una ducha o vamos a sacar al perro a pasear. El
teléfono nunca sonará. Si no estamos en casa, no sonará porque no estamos. Si estamos y el
mayordomo digital decide pasarnos la llamada, entonces el pomo de puerta más cercano dirá:
«Disculpe, señora», y pasará la llamada.
Algunas personas llaman a esto «informática omnipresente», y lo es, y algunas de estas personas
lo presentan como lo contrario de usar agentes de interfaz, y no es así, sino que ambos conceptos
son uno y lo mismo.
La ubicuidad de la presencia del ordenador de cada persona la determinarán los procesos
informáticos variados e independientes de sus vidas normales (sistemas de reserva de plazas en
avión, información de puntos de venta, utilización de servicios de conexión on-line, franqueo,
mensajes). Estos estarán cada vez más conectados entre sí. Si su vuelo a Dallas a primera hora de la
mañana se retrasa, el reloj despertador sonará un poco más tarde y se avisará al taxi
automáticamente de acuerdo con las previsiones de tráfico.
Los robots domésticos casi nunca se incluyen en la mayoría de las versiones de la casa del
futuro: un cambio curioso, porque hace veinte años casi todas las imágenes del futuro incluían una
imagen robótica. C3PO sería un mayordomo excelente; incluso su acento es el adecuado.
El interés por los robots domésticos volverá, y podemos anticipar que existirán criados digitales
con piernas para subir escaleras, brazos para quitar el polvo y manos para llevar las bebidas. Por
razones de seguridad, un robot doméstico también tiene que ser capaz de ladrar como un perro fiero.
Estos conceptos no tienen nada de novedoso, puesto que la tecnología ya casi lo permite. Es
probable que haya unas cien mil personas en el mundo que quieran pagar 100.000 dólares por un
robot así. Ese mercado de 10.000 millones de dólares no pasará desapercibido durante mucho
tiempo.

BUENOS DÍAS, TOSTADORA

Si el frigorífico nota que nos hace falta leche, puede «pedir» al coche que nos recuerde
comprarla en el camino de vuelta a casa. Los aparatos de hoy día cuentan con muy poca
informática.
Una tostadora no debería quemar las tostadas y sí poder hablar con otros aparatos. Sería muy
sencillo hacer que en nuestra tostadora apareciera cada mañana el precio de cierre de nuestras
acciones favoritas. Pero antes, se tiene que conectar la tostadora con las noticias.
Nuestra casa actual tiene probablemente más de cien microprocesadores. Pero no están
unificados. El sistema más integrado de la casa es tal vez el despertador y, en algunos casos, el
mando a distancia de luces y aparatos pequeños. Algunas cafeteras se pueden programar para moler
y preparar café antes de que nos levantemos. Pero si programamos el despertador para que suene
cuarenta y cinco minutos después de lo normal, al despertar el café será terrible. La carencia de
comunicación electrónica entre aparatos nos lleva, entre otras cosas, a que en cada uno de ellos haya
interfaces muy primitivas y curiosas. Por ejemplo, si el habla es el modo de interacción dominante
entre las personas y las máquinas, los accesorios pequeños necesitarán hablar y escuchar a la vez.
Sin embargo, no se puede pretender que todos ellos dispongan de todos los medios para producir y
comprender el lenguaje hablado, y por tanto deberían comunicarse y compartir tales recursos.
Adoptar un modelo centralizado de participación es tentador, y algunas personas han propuesto
la creación de «hornos» de información en nuestros sótanos: un ordenador central de la casa que
controle todas las entradas y salidas. Sospecho que no funcionará así, y que la función estará mucho
más distribuida entre una red de aplicaciones, incluyendo una que sea maestra en reconocimiento y
producción del habla. Aunque tanto la nevera como el armario lleven la cuenta de la comida
leyendo los códigos de barras, sólo uno de los dos necesita saber cómo interpretarlos.
Se usan los términos «línea blanca» y «línea marrón» para distinguir entre aparatos pequeños,
como tostadoras y batidoras, y los aparatos grandes y casi siempre integrados, como lavaplatos y
frigoríficos. La división clásica entre blanco y marrón no tiene en cuenta los dispositivos de
información, que la cambiará, porque tanto los electrodomésticos de línea blanca como los de línea
marrón serán cada vez más productores y consumidores de información.
El futuro de todos los aparatos será llevar un PC oculto o visible. Una razón para avanzar en esa
dirección es hacer los aparatos más amistosos, utilizables y autoexplicables. Pensemos por un
momento cuántas máquinas tenemos (horno microondas, aparato de fax, teléfono inalámbrico) con
un gigantesco vocabulario de funciones, algunas inútiles, que no nos hemos molestado en aprender
sólo porque es demasiado difícil. Aquí es donde la informática incorporada puede ayudar mucho,
aparte de asegurarse de que el microondas no convierte el queso Brie en una mezcla líquida. Las
aplicaciones tendrían que ser buenos instructores.
La idea del manual de instrucciones es obsoleta. El hecho de que los fabricantes de hardware y
software de ordenadores lo envíen con los productos es poco menos que perversa. El mejor
instructor en cómo usar una máquina es la máquina misma. Ella sabe lo que estamos haciendo, lo
que acabamos de hacer e incluso puede adivinar lo que haremos a continuación. Recoger esa
conciencia en un conocimiento de sus propias operaciones, es un paso fácil de dar para la ciencia
informática, pero un paso de gigante en comparación con los manuales impresos que nunca se
encuentran y casi nunca se entienden.
Añadamos a las máquinas un poco de familiaridad humana con nosotros, que somos zurdos,
duros de oído y tenemos poca paciencia para las cosas mecánicas, y las propias máquinas nos
ayudarán a manejarlas y mantenerlas más que cualquier instrucción de uso. Los aparatos del
mañana no deberían llevar instrucciones impresas (excepto «Este Lado Hacia Arriba»), sino que el
aparato debería enviar electrónicamente la «garantía», una vez que «supiera» que está bien
instalado.

COCHES INTELIGENTES

El coste de la electrónica que incorpora un coche moderno no excede el coste del acero utilizado
en su fabricación. De hecho, hoy día un automóvil incorpora más de cincuenta microprocesadores,
aunque no se hayan usado con mucha inteligencia. Sentimos que hacemos el ridículo cuando
alquilamos un coche europeo último modelo y, en una larga cola para poner gasolina, nos damos
cuenta de que no sabemos cuál es el mando electrónico que abre el depósito.
Los principales habitantes digitales de los coches serán las radios inteligentes, el control de
energía y las pantallas de información. Además, disfrutarán de una ventaja muy particular de ser
digital: sabrán dónde están.
Los avances recientes en mapas y trazado hacen posible localizar la posición de un coche a
través de un modelo informático de la red urbana. La localización de todas las calles de Estados
Unidos puede estar incluida en un solo CD-ROM. Mediante el uso de satélites, y diversas técnicas
de seguimiento (que añaden los movimientos graduales del coche), o con una combinación de esas
técnicas, los coches se pueden localizar con un margen de error de unos pocos metros. Casi todos
recordamos el Aston Martin de James Bond, en el que una pantalla de ordenador en el tablero de
mandos situado entre su asiento y el de su acompañante le mostraba un mapa de dónde se
encontraba y adonde se dirigía. Ahora esto es un producto comercial de amplia aceptación y uso
creciente. En Estados Unidos fue Oldsmobile quien lo comercializó por primera vez en 1994.
Sin embargo, existe un pequeño problema. A mucha gente, sobre todo a los conductores
mayores, les cuesta enfocar la vista rápidamente. Les resulta difícil cambiar la mirada de las cosas
que están en la lejanía a las que están a un metro y a la inversa. Peor aún, algunos necesitamos usar
gafas de lectura para consultar un mapa, lo que nos convierte en Mr. Magoo al volante. Una manera
mucho mejor de proporcionar asistencia en ruta es por medio de la voz.
Dado que los oídos no se usan para conducir, se convierten en un canal ideal para decirnos
cuándo girar, qué hay que buscar y que si estamos viendo tal y tal, es porque nos hemos pasado de
largo. El reto de comunicar con exactitud las direcciones es difícil, y ésa es la razón por la que los
seres humanos lo hacemos tan mal. La carretera está llena de ambigüedades. «La siguiente a la
derecha» es un mensaje muy claro si la curva está a unos cientos de metros más allá. A medida que
nos acercamos, sin embargo, dudamos si la «siguiente» es ésta o la que viene después.
Aunque es posible construir buenos «copilotos» digitales con salida de voz, no parece que los
vayamos a ver muy pronto en el mercado americano. En su lugar, veremos exactamente lo que tenía
James Bond, correcto o equivocado, seguro o no. La razón es ridícula. Si el coche nos habla y su
información de ruta tiene un error, ¿quién es el responsable si nos envía en contra dirección y
tenemos un accidente? Si por otra parte, eso ocurre leyendo un mapa, entonces es culpa de nuestra
mala suerte. En Europa, donde están más instruidos en cuestiones de responsabilidad y litigio,
Mercedes-Benz introducirá este año un sistema de ruta parlante.
Estos sistemas de navegación no se limitarán a llevarnos de A a B. Habrá mercados restringidos
de guías acústicas de visitas a ciudades («a su derecha tienen el lugar de nacimiento de...») e
información de restaurantes y hoteles («he hecho reservas en un buen hotel cerca de la salida 3»).
De hecho, si nos roban el coche inteligente del futuro, éste podrá llamarnos y decirnos dónde está.
Quizás incluso su voz suene atemorizada.

PERSONA DIGITAL

Una de las razones por las que ha sido impopular hablar a los coches es que han tenido menos
personalidad que un caballito de mar.
En general, nuestra opinión de la personalidad de un ordenador se deriva de todas las cosas que
hace mal, aunque en alguna ocasión puede ocurrir lo contrario. Una vez me partí de risa cuando mi
programa de comprobación de ortografía vio escrito, en mi estilo disléxico, la palabra «tentó», en
lugar de tanto, y sugirió con orgullo que la forma correcta era «tonto».
Poco a poco, los ordenadores adquieren personalidad. Un pequeño pero ya clásico ejemplo es el
programa de comunicaciones Smartcom, de Hayes Corporation, que muestra un pequeño teléfono
con una cara. Los dos ojos miran a una lista de los pasos del proceso de conexión y, a medida que el
ordenador completa un paso y cambia al siguiente, los ojos siguen la lista. La cara sonríe al final si
el reconocimiento ha sido correcto, y frunce el ceño si nos hemos equivocado.
Esto no es tan frívolo como parece. La persona de una máquina puede ofrecer diversión
relajante, útil, amistosa y con espíritu menos «mecánico». Familiarizarse con un ordenador personal
será parecido a entrenar en casa a un cachorro. Podremos seguir módulos de personalidad que
incluirán el comportamiento y estilo de vida de caracteres ficticios. Tendremos la posibilidad de
comprar una personalidad a lo Larry King para nuestra interfaz de prensa, e incluso puede que a los
chicos les guste hacer surf en la Red con el doctor Seuss.
No estoy sugiriendo que se nos interrumpa con chistes tontos en mitad de un mensaje
importante, sino que el estilo de interacción puede ser mucho más rico que los sonidos de click,
vocecitas o pitos repetidos de mensajes de error. Veremos sistemas con humor, que dan codazos y
pinchan, incluso algunos tan severos e implacables como una niñera alemana.
LOS NUEVOS

18
E-XPRESIONISTAS

APRENDIZAJE Y CREATIVIDAD: EL PINTOR AFICIONADO

L
a imagen de un dibujo infantil pegado a la nevera es tan norteamericana como la tarta de manzana.
Animamos a nuestros hijos para que se expresen y sean creativos. Pero, de repente, cuando ya
tienen seis o siete años, las cosas cambian y les inculcamos que la clase de dibujo es una actividad
extraescolar y no tan importante como, por ejemplo, el lenguaje o las matemáticas.
Las notas más altas se las llevan aquellos jóvenes que quieren ser alguien y hacer algo.
Durante los siguientes veinte años alimentamos el hemisferio izquierdo de su cerebro como si
fuera el hígado de un ganso y dejamos que el otro se reduzca al tamaño de un guisante.
Seymour Papert nos cuenta la historia de un cirujano de mediados del siglo XIX que se trasladó
mágicamente en el tiempo a un quirófano moderno. Seguro que ese médico no reconocería nada, no
sabría qué hacer o cómo ayudar.
La tecnología moderna habría transformado la práctica de la cirujía hasta el punto que le sería
imposible comprenderla.
Sin embargo, si un maestro de escuela de mediados del siglo XIX se trasladara en esa misma
máquina del tiempo a un aula de hoy día podría continuar dando la clase que su colega hubiese
interrumpido, excepto por algunos pequeños detalles. Existe muy poca diferencia entre la forma en
que enseñamos hoy y cómo lo hacíamos hace ciento cincuenta años. La tecnología no se utiliza
tanto como en el quirófano. De hecho, según las investigaciones recientes del Departamento de
Educación de Estados Unidos, el 84 % de los maestros norteamericanos consideran indispensable
sólo un tipo de tecnología de la información: una fotocopiadora con suficiente suministro de papel.
Sin embargo, parece que por fin estamos alejándonos de un modelo de línea dura en la
enseñanza, que ha producido varias generaciones de niños compulsivos en serie, y vamos hacia uno
más abierto, que no separa de manera tan tajante el arte de la ciencia, o el hemisferio derecho del
izquierdo.
Cuando un niño utiliza un programa informático como Logo para hacer un dibujo en su
ordenador, la imagen es una expresión artística y matemática y puede verse como cualquiera de las
dos. En la actualidad, incluso un concepto tan abstracto como las matemáticas puede utilizar
componentes concretos de las artes visuales.
Los ordenadores personales formarán generaciones futuras de adultos más hábiles en las
matemáticas y más versados en las artes visuales. Es muy probable que dentro de diez años los
adolescentes puedan disfrutar de un panorama mucho más rico en opciones porque la balanza de la
realización intelectual se inclinará en favor de abarcar una variedad más amplia de sistemas de
conocimiento, patrones de aprendizaje y comportamientos expresivos más que en formar ratones de
biblioteca.
Habrá muchas más opciones intermedias entre el trabajo y la diversión.
La línea divisoria entre las aficiones y las obligaciones será menos perceptible gracias a un
denominador común: ser digital. El pintor aficionado es el símbolo de una nueva era de
oportunidades y respeto por los pasatiempos creativos: el poder expresarse y hacer cosas durante
toda la vida. Cuando un jubilado empieza a pintar con acuarelas, es como volver a la infancia, con
recompensas muy diferentes a las de años anteriores. El día de mañana, las vidas de las personas de
todas las edades tendrán una continuidad más armoniosa porque se acerca el día en que las
herramientas de trabajo y las que nos proporcionan diversión serán la misma cosa. El placer y el
deber, la expresión personal y el trabajo en grupo compartirán la misma paleta.
Los usuarios de ordenadores, jóvenes y mayores, constituyen un ejemplo perfecto. Sus
programas son como pinturas surrealistas pues tienen cualidades estéticas y excelencia técnica. Su
trabajo se puede mirar en términos de estilo y contenido, de significado y ejecución. El
comportamiento de sus programas de ordenador es un nuevo tipo de estética.
Estos usuarios son los precursores de los nuevos e-xpresionistas.

EL PODER DE LA MÚSICA

La música ha sido uno de los elementos determinantes en la configuración de la informática.


Se puede analizar la música desde tres perspectivas complementarias: desde el punto de vista
del procesamiento de la señal digital, como por ejemplo la cuestión de la separación del sonido
(quitar, en una grabación de música, el ruido de una lata de Coca-Cola que cae al suelo); desde la
perspectiva de la percepción del sonido (cómo interpretamos el lenguaje musical, en qué consiste su
apreciación y de dónde viene la emoción), y finalmente, como expresión artística y narrativa (contar
una historia y despertar sentimientos). Las tres perspectivas son importantes en sí mismas y hacen
que el dominio musical sea el ámbito intelectual más idóneo para moverse con soltura entre el
dominio de la tecnología y el de la expresión, entre ciencia y arte, entre lo privado y lo público.
Si le preguntamos a un auditorio formado por estudiantes de informática cuántos de ellos tocan
algún instrumento musical o cuántos están interesados seriamente por la música, la mayoría
levantarán la mano. La afinidad tradicional entre las matemáticas y la música se manifiesta de
manera contundente en la informática contemporánea y en la comunidad de usuarios de ordenador.
El Media Lab del MIT atrae a algunos de sus mejores estudiantes de informática a través de la
música.
Los padres y la sociedad, ya sea de manera consciente o inconsciente, no fomentan el arte y la
música en los niños, o consideran estas actividades como simples válvulas de escape de las
presiones de tipo académico. Sin embargo, tendrían que ser los filtros a través de los cuales los
niños explorasen diversos ámbitos del conocimiento que hasta ahora sólo han tenido un tipo de
enfoque.
Cuando iba a la escuela no me gustaba la asignatura de historia, pero puedo recitar de memoria
las fechas clave en arte y arquitectura aunque no recuerdo las fechas de guerras o acontecimientos
políticos. Mi hijo heredó mi dislexia pero lee con avidez revistas de esquí y windsurf, de cabo a
rabo. Para algunas personas, la música puede ser la manera de estudiar matemáticas, aprender física
y entender la antropología.
La cuestión es cómo aprender música. Durante el siglo XIX y a principios del siglo XX lo
normal era estudiar música en la escuela. Pero luego, la tecnología de la música grabada cambió las
cosas. No es sino hasta hace poco que las escuelas han empezado a retomar el aprendizaje de la
música de manera activa, es decir, tocándola en lugar de sólo escucharla.
La utilización de ordenadores para aprender música a una edad muy temprana es un ejemplo del
beneficio que proporcionan los ordenadores al ofrecer una gama tan amplia de modos de acceso.
El ordenador hace posible que niños que no tienen facilidad también puedan acercarse a la
música. Los juegos musicales, las cintas con información sonora y la fácil manipulación del sonido
digital son algunos de los medios a través de los cuales un niño puede experimentar la música.
Incluso los que muestran preferencia por el mundo de lo visual pueden inventar diferentes maneras
de ver.

ARTE CON «E» MAYÚSCULA

Los ordenadores y el arte pueden combinar mal cuando se encuentran por primera vez. Un
motivo puede ser que la máquina tenga un efecto demasiado potente que puede dominar a la
intención expresiva, como ocurre con frecuencia en el arte holográfico y en las películas en tres
dimensiones. La tecnología puede ser como un chile jalapeño en una salsa francesa. El sabor del
ordenador puede anular las señales más sutiles del arte.
No es sorprendente que la música y la interpretación sean las artes que mejor se adaptan al
ordenador, ya que en ellas se mezclan la tecnología de la interpretación, la divulgación y la
experiencia estética. Compositores, intérpretes y público pueden disponer de control digital. Si
Herbie Hancock saca su próxima pieza en Internet, no sólo sería como tocar para una audiencia de
20 millones, sino que cada oyente podría transformar la música dependiendo de su situación
personal. Para algunos esto puede limitarse a subir el volumen o convertir la música en un karaoke,
pero otros podrían decidir modificar la orquestación.
La superautopista digital hará que el arte acabado e inalterable sea una cosa del pasado. El
número de bigotes que se le pueden poner a la Mona Lisa es sólo un juego de niños. Seremos
testigos de una verdadera manipulación digital de expresiones supuestamente acabadas que circulan
por Internet, lo cual no tiene por qué ser malo.
Estamos entrando en una era en que la expresión puede ser más participativa y vital. Tenemos la
oportunidad de distribuir y experimentar señales sensoriales muy ricas de formas mucho más
accesibles que tener que desplazarnos al Louvre y menos comunes que la de hojear un libro. Los
artistas llegarán a considerar Internet como la galería más grande del mundo para mostrar sus
manifestaciones artísticas y difundirlas directamente al público.
La verdadera oportunidad aparecerá cuando el artista digital proporcione las pautas para el
cambio. Aunque esto pueda parecer una completa vulgarización de símbolos culturales importantes,
como hacer postales de Steichen o pins de Warhol, la cuestión es que ser digital permite la
transmisión del «proceso» además del producto. El proceso puede consistir en la fantasía o el
éxtasis de una mente, en la imaginación colectiva de muchas o en la visión de un grupo
revolucionario.

EL SALÓN DES REFUSÉS

El concepto original del Media Lab del MIT era llevar la interfaz humana y la inteligencia
artificial por otros derroteros. El nuevo rumbo consistía en estructurarlas según el contenido de
sistemas de información, las demandas del usuario de aplicaciones y la naturaleza del pensamiento
artístico. La idea se vendió a las empresas de difusión, de publicidad y de informática como la
convergencia de la riqueza sensorial del vídeo, la profundidad de contenido de las publicaciones y
la interactividad intrínseca de los ordenadores. Ahora suena muy lógico pero en esa época pensaban
que era una tontería. The New York Times publicó que «cierto individuo» de la facultad opinaba que
los defensores de esta idea eran unos «charlatanes».
El Media Lab está en un edificio creado por el arquitecto I.M. Pei poco después de haber
diseñado la extensión de la National Gallery de Washington y poco antes de la pirámide del Louvre
en París. Tardaron casi siete años en financiar, construir y poner en marcha la facultad.
Como en 1863, cuando la institución artística de París se opuso a que los impresionistas
participaran en su exhibición oficial, los miembros de la facultad que fundaron el Media Lab eran
una especie de Salón des Refusés. En algunos casos eran demasiado radicales para su departamento
académico, en otros demasiado ajenos a su departamento y algunos más ni siquiera pertenecían a un
departamento. Aparte de Jerome Wiesner y de mí, el grupo lo componían un director de cine, un
físico, un diseñador gráfico, un compositor, dos matemáticos y un grupo de investigadores quienes,
entre otras cosas, habían inventado los multimedia en años anteriores. Nos unimos a principios de
los años ochenta como una contracultura opuesta al establishment de la ciencia informática cuya
preocupación seguía siendo los lenguajes de programación, los sistemas operativos, los protocolos
de redes informáticas y las arquitecturas de sistema. Nos unía la convicción de que la omnipresencia
de los ordenadores alteraría y afectaría a la calidad de vida de forma drástica, no sólo en el terreno
científico, sino en todos los demás ámbitos de la vida.
Era el momento propicio porque estaban naciendo los ordenadores personales, la interfaz de
usuario empezaba a adquirir importancia y la reglamentación de la industria de las
telecomunicaciones estaba desapareciendo. Los dueños y directores de periódicos, revistas, libros,
estudios de cine y canales de televisión estaban empezando a preguntarse sobre el futuro. Algunos
sabios magnates de los medios, como Steve Ross y Dick Munro de Time Warner, tenían la intuición
de que se avecinaba la era digital. Invertir en el grupo de lunáticos del MIT no salía muy caro, de
manera que el grupo creció hasta que llegamos a ser trescientos.
Hoy día el Media Lab del MIT se ha convertido en una institución. Los «navegantes» de
Internet son los rebeldes del barrio. Los digerati han trascendido los multimedia hacia lo que es más
un estilo de vida que una postura intelectual. Celebran sus nupcias en el ciberespacio. Se llaman a sí
mismos «bitniks» y «cybraians». Su movilidad social cubre el planeta. Ahora son ellos el Salón des
Refusés, sólo que éste no es un café de París o un edificio de I.M. Pei en Cambridge, sino que está
en alguna parte de la Red. Eso es ser digital.
EPILOGO:
UNA ERA DE OPTIMISMO

S
oy optimista por naturaleza. Sin embargo, toda tecnología o avance científico tiene su lado menos
positivo, y ser digital no es una excepción. La próxima década será testigo de un sinnúmero de
casos de abusos de los derechos de propiedad intelectual y de invasión de nuestra intimidad. Habrá
vandalismo digital, piratería del software y robo de información. Y lo peor de todo, mucha gente se
quedará sin trabajo debido a los sistemas automatizados y las oficinas cambiarán tanto como lo han
hecho las fábricas. La noción de tener el mismo trabajo toda la vida ha empezado a desaparecer.
La transformación radical de la naturaleza de nuestros mercados de trabajo, puesto que
trabajamos con más bits y menos átomos, ocurrirá al mismo tiempo que la conexión a la Red de los
2.000 millones de personas que integran la fuerza laboral en India y China. Un diseñador
independiente de software, desde Peoria competirá con su colega en Pohang. Un tipógrafo digital de
Madrid hará lo mismo con su colega en Madras. Las compañías norteamericanas han empezado a
desarrollar hardware y a producir software en Rusia y la India, no por la mano de obra barata sino
para asegurar una fuerza intelectual muy bien preparada dispuesta a trabajar más, más deprisa y
porque es más disciplinada que la de su propio país.
A medida que se globalice el mundo de los negocios e Internet crezca, se producirá un lugar de
trabajo sin fisuras. Mucho antes de que se encuentren soluciones políticas o el GATT llegue a algún
acuerdo respecto a las tarifas y al comercio de átomos (recuerden: el derecho de vender agua Evian
en California), los bits no tendrán fronteras y se almacenarán y manipularán independientemente de
las barreras geopolíticas. De hecho, las zonas horarias desempeñarán un papel más importante en
nuestro futuro digital que las zonas comerciales. Puedo imaginar algunos proyectos de software que
literalmente atraviesen el planeta de este a oeste en veinticuatro horas y vayan de persona en
persona o de grupo en grupo; uno trabaja mientras el otro duerme. Microsoft necesitará abrir
sucursales en Londres y Tokio para producir software en tres turnos.
A medida que nos acerquemos a ese mundo digital, todo un sector de la población será o se
sentirá desplazado. Cuando un trabajador siderúrgico de cincuenta años pierda su trabajo, lo más
seguro es que, a diferencia de su hijo de veinticinco años, le sea imposible adaptarse al mundo
digital. Sin embargo, si un secretario pierde su trabajo, al menos estará familiarizado con el mundo
digital y poseerá habilidades transferibles.
Los bits no se comen; en ese sentido no pueden calmar el hambre. Los ordenadores tampoco son
entes morales; no pueden resolver temas complejos como el derecho a la vida o a la muerte. Sin
embargo, ser digital nos proporciona motivos para ser optimistas. Como ocurre con las fuerzas de la
naturaleza, no podemos negar o interrumpir la era digital. Posee cuatro cualidades muy poderosas
que la harán triunfar: es descentralizadora, globalizadora, armonizadora y permisiva.
En donde más claramente se nota el efecto descentralizador de ser digital es en él comercio y la
industria de los ordenadores. Los llamados Sistemas de "Gestión de la Información (MIS), zares
que solían reinar en un mausoleo de cristal con aire acondicionado, han perdido su poder y se han
extinguido casi por completo. Aquellos que sobreviven es porque son más fuertes que las personas
que podrían despedirlos y la junta directiva de la empresa lo ignora o está en las nubes, o ambas
cosas a la vez.
Thinking Machines Corporation, una magnífica e imaginativa empresa de superordenadores que
fundó el genio en ingeniería eléctrica Danny Hillis, desapareció al cabo de diez años. En ese corto
espacio de tiempo introdujo en el mercado mundial de los ordenadores las arquitecturas
masivamente paralelas. Su desaparición no se debió a la mala administración o al descuido en la
ingeniería de la llamada Connection Machine, sino a que el paralelismo podía descentralizarse; este
mismo tipo de arquitecturas masivamente paralelas se obtuvo después a través de la producción
masiva de ordenadores personales a bajo coste.
Aunque esto no fue agradable para Thinking Machines, es un mensaje importante para todos
nosotros, en el sentido literal y metafórico. Quiere decir que la empresa del futuro puede satisfacer
sus necesidades informáticas de una manera adaptable y nueva, es decir suministrando ordenadores
personales que, cuando sea necesario, puedan trabajar al unísono para afrontar los problemas que se
pueden resolver con una mayor actividad informática. Los ordenadores funcionarán de forma
individual y en grupo. El mismo patrón de descentralización lo está implantando en nuestra
sociedad la joven población del mundo digital. La tradicional visión centralista del mundo
pertenecerá al pasado.
La misma nación-estado está sufriendo un cambio y una globalización muy fuertes. Dentro de
cincuenta años los Gobiernos serán más grandes y a la vez más pequeños. Europa se está dividiendo
en entidades étnicas más pequeñas y al mismo tiempo está tratando de unirse económicamente. Las
fuerzas del nacionalismo propician una actitud más cínica y rechazan cualquier intento de
unificación a nivel mundial. Pero en el mundo digital, las soluciones que antes eran imposibles
ahora son viables.
En la actualidad, cuando el 20 % del mundo consume el 80 % de sus recursos, cuando una
cuarta parte de nosotros tiene un nivel de vida aceptable y tres cuartas partes no lo tienen, ¿qué se
puede hacer para unificar el planeta? Mientras los políticos tienen que cargar con la historia, emerge
en el paisaje digital una nueva generación liberada de muchos de los viejos prejuicios. Estos niños
«digitales» están libres de limitaciones tales como la situación geográfica como condición para la
amistad, la colaboración, el juego o la comunidad. La tecnología digital puede ser una fuerza natural
que propicie un mundo más armónico.
De hecho, el efecto armonizador de ser digital ya se empieza a percibir, pues disciplinas y
proyectos que antes estaban divididos están ahora colaborando, no compitiendo. Emerge un
lenguaje común que antes no existía y que permite a la gente entenderse sin importar las fronteras.
Actualmente, en las escuelas, los niños tienen la oportunidad de ver lo mismo desde muchas
perspectivas. Un programa de ordenador, por ejemplo, puede verse simultáneamente como un
conjunto de instrucciones o como poesía concreta formada por los espacios en el texto del
programa. Los niños aprenden muy rápido que conocer un programa quiere decir conocerlo desde
muchas perspectivas, no desde una sola.
Pero más que nada mi optimismo deriva del carácter permisivo de ser digital. El acceso, la
movilidad y la habilidad para propiciar el cambio son los factores que harán que el futuro sea
diferente del presente. La superautopista de la información puede estar de moda ahora, pero
subestima el futuro. Se extenderá más allá de lo que nadie haya sido capaz de predecir. En la
medida en que los niños se apropien de un recurso de información global y descubran que sólo los
adultos necesitan permiso para aprender, podremos encontrar nuevas esperanzas en lugares donde
antes había muy pocas.
No soy optimista porque me anticipe a alguna invención o descubrimiento. Encontrar la cura del
cáncer o del sida, una manera digna de control de la población o inventar una máquina que pueda
respirar nuestro aire, beber nuestros mares y que sus deshechos no contaminen el ambiente, son
sueños que pueden o no ser realizables. Ser digital es diferente. No se trata de una invención, sino
que está aquí y ahora. Podríamos decir que es genético por naturaleza, ya que cada generación será
más digital que la que la precede.
Los bits que controlan ese futuro digital están cada vez más en manos de los jóvenes. Nada
podría hacerme más feliz.
AGRADECIMIENTOS

En 1976 escribí una propuesta para el National Endowment of the Humanities en la que
describía un sistema multimedia de acceso aleatorio que permitiera a los usuarios conversar con
artistas famosos ya fallecidos. El doctor Jerome B. Wiesner, entonces presidente del MIT, leyó esta
loca propuesta porque la cantidad de dinero que se necesitaba requería su aprobación. Más que verla
como una locura, se ofreció a ayudar, pues se dio cuenta de que yo estaba muy lejos de mi
especialidad en, entre otras cosas, en cuanto al procesamiento de lenguaje natural.
Fue el inicio de una gran amistad. Empecé a trabajar con discos de vídeo ópticos (muy
analógicos en esa época). Wiesner presionó para elaborar una lingüística más sofisticada y
comprometernos más a nivel artístico. Hacia 1979 nos convencimos a nosotros mismos y al MIT de
que había que construir el Media Lab.
En los cinco años siguientes viajamos juntos cientos de miles de kilómetros cada año, algunas
veces pasando más noches al mes fuera que con nuestras familias. Esta oportunidad de aprender de
Wiesner y ver el mundo a través de sus ojos y los de muchos de sus brillantes y famosos amigos fue
muy educativo para mí. El Media Lab se hizo global porque Wiesner era global; valoraba la sutileza
del arte y el rigor de la ciencia porque Wiesner lo hacía.
Él murió un mes antes de que este libro se terminara de escribir. Hasta sus últimos días quiso
hablar de llegar a «ser digital» y de su cauteloso optimismo al respecto. Le preocupaba la
utilización incorrecta de Internet a medida que su uso se extendía y le preocupaba el desempleo en
una era digital que hace desaparecer muchos trabajos y crea muy pocos. Pero siempre fue optimista
aun cuando repentinamente dejó de serlo respecto a su salud y bienestar. Su muerte, el viernes 21 de
octubre de 1994, nos traspasó a muchos de los que trabajamos en el MIT la responsabilidad de
hacer por los jóvenes lo que él había hecho por nosotros. Jerry, haremos todo lo posible por seguir
tu ejemplo.
El Media Lab también lo fundaron otras tres magníficas personas a quien debo agradecer
especialmente todo lo que me enseñaron: Marvin L. Minsky, Seymour A. Papert y Muriel R.
Cooper.
Marvin es el hombre más listo que conozco. Su sentido del humor es genial y es, sin duda, el
científico informático más importante de hoy día. Le gusta citar a Samuel Goldwyn: «No prestes
atención a los críticos. Ni siquiera los ignores.»
Seymour pasó los primeros años de su carrera con el psicólogo Jean Piaget en Ginebra y poco
después, junto con Minsky, fue nombrado codirector de Inteligencia Artificial del Media Lab del
MIT. Aportó un conocimiento profundo tanto de las ciencias humanas como de las ciencias de lo
artificial. Como dice Seymour: «No puedes pensar en pensar sin pensar en pensar acerca de algo.»
Muriel Cooper proporcionó la tercera pieza del rompecabezas: las artes. Fue la diseñadora más
importante en el Media Lab y cuestionó algunos de los elementos más estables del trabajo con
ordenadores personales, como las ventanas, y puso en tela de juicio su validez con interrogantes,
experiencias y prototipos alternativos. Su trágica e inesperada muerte, el 26 de mayo de 1994, dejó
un vacío muy profundo en el corazón de todos nosotros.
El Media Lab surgió, en parte, del antiguo Architecture Machine Group (1968-1982), donde yo
realicé casi todo mi aprendizaje con un grupo de colegas. Le estoy enormemente agradecido a Andy
Lippman, a quien se le ocurren cinco ideas innovadoras al día y a quien le debo muchas de las
frases de este libro. Sabe de televisión digital más que nadie.
Algunas de las primeras ideas proceden de Richark A. Bolt, Walter Bender y Christopher M.
Schmandt, todos anteriores al Media Lab, cuando teníamos dos pequeños laboratorios, seis oficinas
y un cuartito. Entonces se nos consideraba unos «charlatanes» y, por eso, fue la época dorada. Pero
para que llegara a ser dorada, tenían que descubrirnos.
Marvin Denicoff, de la Oficina de Investigación Naval, es para la informática lo que los Medici
fueron para el arte del Renacimiento: subvencionó a gente con ideas atrevidas. Puesto que es
dramaturgo, nos impulsó a que incluyéramos el cine interactivo en nuestra investigación muchos
años antes de que a nosotros se nos hubiera ocurrido.
Cuando Craig Fields, el joven socio de Denicoff en ARPA, fue consciente de la ausencia
norteamericana en la industria de la electrónica de consumo, propuso la atrevida idea de inventar un
ordenador-televisor. La influencia de Craig fue tan fuerte que le costó el trabajo porque en aquella
época su propuesta fue mal vista por la política industrial de la Administración. Pero durante esos
años inició gran parte de las investigaciones que han conducido a lo que hoy llamamos
«multimedia».
A principios de los años ochenta recurrimos al sector privado en busca de apoyo, en concreto
para construir el edificio Wiesner que costó 50 millones de dólares. La extraordinaria generosidad
de Armand y Celeste Bartos hizo posible que el Media Lab fuera una realidad, desde el principio
hasta el final. Al mismo tiempo teníamos que encontrar gente que ayudara a financiar el proyecto.
Los nuevos colaboradores eran en su mayoría proveedores de contenidos que nunca antes
habían interactuado con MIT, pero que sintieron (a principios de los años ochenta) que la tecnología
estaba decidiendo su futuro. Uno de los más destacados fue el doctor Koji Kobayashi, que entonces
era presidente y director ejecutivo de NEC. Gracias a su apoyo y confianza en nuestro proyecto
sobre los ordenadores y las comunicaciones, obtuvimos el respaldo de otras empresas japonesas.
Mientras buscábamos a los 75 colaboradores que hoy tenemos, conocí a muchos personajes, en
el mejor sentido de la palabra. Hoy día, los estudiantes del Media Lab tienen la oportunidad de
entablar relaciones amistosas con más directores ejecutivos que cualquier otro grupo de estudiantes
que yo haya conocido. Aprendimos mucho de estos visitantes, pero hay tres que destacan de entre
todos: John Sculley, ex integrante de Apple Computer, John Evans, director de News Electronic
Data; y Kasuhiko Nishi, director ejecutivo de ASCII Corp.
Además, debo un especial agradecimiento a Alan Kat, de Apple Computer, y Robert W. Lucky,
de Bellcore. Puesto que los tres somos miembros del Vanguard Group de CSC, sus ideas me han
ayudado a desarrollar muchos de los temas que trato en este libro. Kay siempre dice: «La
perspectiva vale 50 puntos de cociente de inteligencia», Lucky fue el primero en preguntar «¿Un bit
es realmente un bit?»
Como los laboratorios no se construyen sobre ideas, le debo una gratitud enorme a Robert P.
Greene, director asociado de Administración y Finanzas, quien ha trabajado conmigo durante más
de doce años. Gracias a él me ha sido posible llevar a cabo nuevas investigaciones y viajar sin
tregua, porque es un hombre que goza de toda la confianza del personal del Media Lab y de la
administración del MIT.
En el ámbito de la enseñanza, Stephen A. Benton se hizo cargo de una organización académica
obsoleta y le dio nueva forma y carácter hasta el pasado julio, cuando nombró a su sucesor
Whitman Richards.
Victoria Vasillopulos nos lleva a mí y a mi oficina, dentro y fuera del MIT, en casa y en el
trabajo. Este libro sugiere que ser digital unifica casa y oficina, trabajo y diversión, y es cierto.
Victoria puede corroborarlo. Aún está lejos el día en que podamos disponer de agentes de ordenador
realmente inteligentes, por lo que tener un agente humano tan excelente como Victoria es
importante (y excepcional). Cuando desaparecí del mapa para acabar este libro, el trabajo de
Victoria fue asegurarse de que nadie se diera cuenta, y lo consiguió gracias a la ayuda de sus
asistentes Susan Murphy Bottari y Felice Napolitano.
La elaboración del libro en sí implica una serie de reconocimientos. Sobre todo quiero darle las
gracias a Kathy Robbins, mi agente en Nueva York. Conocí a Kathy hace más de diez años y firmé
con ella para que fuera mi agente. Durante los diez años siguientes estuve tan ocupado
construyendo el Media Lab que ni siquiera me quedaba aliento para pensar en escribir un libro.
Kathy tuvo una paciencia infinita y me lo recordaba con cierta regularidad, pero con mucha dulzura.
Louis Rossetto y Jane Metcalfe tuvieron la idea de fundar una revista sobre la vida en el mundo
digital, Wired, en el momento más adecuado. Le agradezco a mi hijo Dimitri que me impulsara a
colaborar. Nunca antes había escrito un artículo. Algunos fueron fáciles y otros me costaron más
trabajo, pero disfruté con todos. John Battelle me hizo el favor de editarlos después. La gente me
hacía sugerencias que me fueron muy útiles. Raves se llevó la palma. Todos fueron muy amables.
Cuando fui a ver a Kathy Robbins con la idea de tomar los 18 artículos de Wired y escribir un
libro a partir de ellos, su respuesta fue inmediata. «Hecho.» Firmé el contrato en menos de
veinticuatro horas. Me llevaron a la editorial Knopf y conocí al presidente, Sonny Mehta, y a mi
editor Marty Asher. Marty acababa de descubrir America Online (sí, tiene dos hijos adolescentes) y
éste se transformó en nuestro canal de comunicación. Su hija le ayudó a imprimir en casa. Marty se
volvió digital muy rápido.
Palabra por palabra, idea por idea, Marty convirtió mi estilo disléxico en algo aceptable.
Durante muchos días, Marty y yo fuimos como compañeros de clase que pasan toda la noche
haciendo el trabajo final.
Más tarde, Russ Neuman, Gail Banks, Alan Kay, Jerry Rubin, Seymour Papert, Fred Bamber,
Michael Schrag y Mike Hawley leyeron el manuscrito para comentarlo y corregirlo.
Neuman se aseguró de que no me sobrepasara en mis críticas a los políticos y a la política.
Banks hizo dos lecturas del manuscrito: la del crítico profesional y la del lector común. En casi
todas las páginas del manuscrito había un comentario suyo. Kay, con la sabiduría que lo ha hecho
famoso, encontró errores de atribución y reparó en los pasajes que no tenían una secuencia lógica.
Papert revisó la estructura general y reorganizó el comienzo. Schrag (dieciséis años) encontró
muchos errores en el borrador que se le habían escapado al impresor, como por ejemplo: 34.800
baudios en lugar de 38.400 baudios, y que nadie más hubiera encontrado. Bamber se aseguró de la
veracidad del contenido. Rubin se encargó de darle una forma más convencional. Hawley empezó a
leer el libro por el final, al igual que hace con la música para asegurarse de que haya alguien que
toque bien el final.
Finalmente, debo un inmenso reconocimiento a mis padres que, además de cariño y afecto, me
dieron cantidades infinitas de dos cosas: educación y viajes. En mi época no había más opción que
mover nuestros átomos. A los veintiún años, sentía que había visto el mundo. Aunque esto no fuera
verdad, el creerlo me dio la seguridad suficiente para ignorar a los críticos. Les estoy muy
agradecido por ello.

You might also like