Professional Documents
Culture Documents
la Información Tecnologías
21 de marzo de 2007
El año 2006 fue el de la irrupción de las ideas que hay detrás del “web 2.0” en el público
mayoritario. Sin embargo, el proceso de innovación que había caracterizado los años
anteriores parece querer tomarse un receso, al menos temporal. Así lo muestra el
descontento por la falta de innovaciones de los asistentes al tercer “Web 2.0 Summit”
celebrado en noviembre o las críticas al evento “Le Web 3” celebrado en París en
diciembre. Otro síntoma es la aparición de servicios tan controvertidos como PayPerPost
o ReviewMe dedicados a pagar a particulares para hacer críticas de productos.
Todo indica que comienza un periodo de maduración y generalización de las ideas recién
llegadas y que para encontrar las próximas revoluciones habrá que buscar entre los
proyectos de más largo plazo que a día de hoy están en marcha. La prensa generalista
apunta a la web semántica como próximo gran hito mientras en círculos más
especializados se mira también hacia mejoras significativas en la interacción web y a la
combinación con la inteligencia artificial. Aunque, tal vez, el verdadero cambio venga de
otro lado.
El término web 2.0 es, cuando menos, un concepto difuso. Tanto que el difuso
documento escrito por Tim O’Reilly que acuña la terminología tiene plena vigencia
precisamente por su falta de concreción. Aún así, a lo largo del tiempo la gente ha ido
tomando conciencia, al menos en parte, de su significado.
21 de marzo de 2007
El término web 3.0 es asociado por la prensa generalista (léase New York Times o en
España El País) al concepto de web semántica que se está desarrollando bajo la tutela de
Tim Berners-Lee, el mismo que inventó la web a principios de los 90.
El ejemplo clásico de web semántica sería aquella que permitiría que se formularan
consultas como “busco un lugar para pasar las vacaciones con mi mujer y mis dos hijos
de 5 y 2 años, que sea cálido y con un presupuesto máximo de 2000 euros”. El sistema
devolvería un paquete de vacaciones tan detallado como los que vende una agencia de
viajes pero sin la necesidad de que el usuario pase horas y horas localizando ofertas en
Internet.
Como se decía antes, la idea es antigua y sin embargo todavía no hay signo claro de su
puesta en marcha y existen dudas de cuando llegará. Sobre este punto los optimistas
creen que el momento está próximo pues aunque la investigación se circunscribe aún a
entornos universitarios está apareciendo capital dispuesto a ser arriesgado en empresas
que saquen partido de este conocimiento. Entre los ejemplos habitualmente citados se
encuentra la empresa RadarNetworks que busca explotar el contenido suministrado por
21 de marzo de 2007
Los pesimistas aducen que tal grado de complejidad no será alcanzado porque existirá
una fuerte reacción de quienes ahora disponen de la información que no querrán
compartirla o porque fenómenos como el “spam semántico” la harán poco utilizable.
Para complicar aún más la situación, en la actualidad surge una corriente paralela de
quienes buscan un enfoque más pragmático que pueda tener utilidad a más corto plazo.
Así, frente a la web semántica tradicional, conocida en círculos especializados como
RDFa, aparecen los microformatos.
El modelo RDFa tiene a sus espaldas varias cargas. Tiene una definición compleja, no
asequible para todo el mundo, por el notable componente matemático de su estructura,
lo que puede hacer necesario la creación de sistemas automáticos para su implantación.
Utiliza una versión del lenguaje de escritura de páginas web que a día de hoy no utiliza
casi nadie, aunque se espera que en el futuro se evolucione hacia él. A cambio,
proporciona un marco más general que el que proporcionan los microformatos.
Todo parece indicar que nos encontramos ante la clásica disyuntiva del estándar “de
jure” frente a estándar “de facto”. Por el lado de los microformatos se encuentran
empresas web 2.0 y un grupo desconectado de bloggers, que buscan soluciones a
problemas frecuentes. Por el otro lado se encuentran las organizaciones de
estandarización que tienen el poder moral de dirigir el desarrollo de la web en nuevas
direcciones. Afortunadamente las dos corrientes no tienen que ser forzosamente
disjuntas y podrían adoptarse soluciones de consenso en el caso de que ambas
tendencias evolucionaran por separado con igual fuerza.
21 de marzo de 2007
A corto plazo los microformatos serán los triunfadores. Ya están siendo incluidos en
algunas páginas web y, lo que es más importante, en la actualidad se está estudiando
como integrarlo en los navegadores web. De hecho esta será una de las características
principales de la próxima versión del navegador Firefox. Según su visión, el navegador
web se convierte en un gestor que distribuye la información almacenada en forma de
microformatos en una página web a la aplicación adecuada para su manejo: una cita a
la agenda, un lugar a una aplicación de cartografía, etc.
21 de marzo de 2007
atractivo diseño no ha sido óbice para convertirse durante el año 2006 en el sitio web
más visitado del mundo.
Entre las iniciativas en desarrollo destaca el proyecto Parakey liderado por Blake Ross,
uno de los desarrolladores clave de Firefox. Se trata de un proyecto de código abierto que
pretende crear una especie de sistema operativo web que permita a un usuario hacer lo
mismo que haría con un sistema operativo tradicional. Se trataría de unificar el
escritorio y la web de forma que existiera una forma única de hacer las cosas y no dos.
De esta forma, actividades ya frecuentes entre los usuarios como subir fotos o vídeos a
servidor de Internet se realizarían siguiendo siempre el mismo procedimiento.
La web 3.0 sería una revolución si como se ha dicho antes se logra una combinación
efectiva entre la inclusión de contenido semántico en las páginas web y el uso de
inteligencia artificial que saque partido de ella. En este sentido los recelos son muchos
pues tradicionalmente los avances de esta ciencia han sido lentos y cargados de
dificultades.
Ya en la web 2.0 se hace un uso extensivo del “tagging” como forma de clasificación de
la información. En esencia consiste en que los usuarios que suben contenidos a Internet
clasifican el contenido mediante el uso de palabras clave simples (mar, Madrid, tristeza,
…). Gracias a este mecanismo los buscadores son capaces de identificar información que
utilizando técnicas tradicionales hubiera sido imposible localizar.
21 de marzo de 2007
Entre los pioneros del nuevo tipo de servicios por llegar podrían mencionarse al menos
dos. El servicio Mechanical Turk de Amazon permite a los desarrolladores que aquellas
partes de un servicio que requieran de intervención humana puedan ser redirigidas a un
grupo pagado de participantes voluntarios de manera muy similar al modo en el que se
desarrollan aplicaciones distribuidas en Internet. De esta forma el trabajo humano se
convierte en parte de un proceso de actividad que principalmente se realiza de manera
automática.