You are on page 1of 9

TECNOLOGIA E INFORMATICA

Breve historia de la World Wide
Web

La World Wide Web: documentos con
referencias cruzadas. El concepto en sí
no es nuevo. Las referencias a otros documentos, en forma de notas al margen, existían
ya en los manuscritos medievales. La diferencia es que la Web es más global, más
rápida, y más fácil de usar. Todo ello es posible gracias a los avances tecnológicos de
finales del siglo pasado.

En 1945, el Director de la Oficina de Desarrollo e Investigación Científica (EE.UU.), el
Doctor Vannevar Bush, escribió el artículo "As We
May Think" para "The Atlantic Online", en que
expresaba su preocupación por la ingente cantidad
de información que existía y estaba siendo
generada, y el poco tiempo y los ineficientes
sistemas que había para encontrarla. Así, y
basándose en la tecnología existente en aquel
entonces, describió un dispositivo personal, al que
llamó "memex", y que imaginaba como un
suplemento íntimo a su memoria. Este aparato
permitiría a cada individuo almacenar su
información en microfilmes, consultarlos
rápidamente y, lo que es más importante, crear
vínculos entre unos documentos y otros, de modo que durante la lectura de un documento
se recordara al lector qué documentos contenían información relacionada. Era una visión
de lo que ocurriría sólo 45 años después.

En los años 60, Douglas Engelbart, mientras trabajaba en el Stanford Research Institute,
propuso el NLS (oNLine System), un entorno de trabajo por computadora, con un sistema
para almacenar publicaciones, con catálogos e índices para facilitar la búsqueda, y con
reglas establecidas para citar documentos, de modo que fuera más fácil para los lectores
acceder a los documentos referenciados. Era un entorno con teclado, pantalla, ratón e
impresora, con posibilidad de teleconferencia y correo electrónico a través de una red de
computadoras para una rápida comunicación entre los profesionales. Tenía las
herramientas básicas de composición, estudio, organización y modificación de
información. Los ficheros se guardaban jerárquicamente para su mejor organización. Se
trabajaba con los documentos en modo multiventana, para ver varios documentos a la vez
en ventanas diferentes, y se podían copiar objetos seleccionados de una ventana a otra.
El término "hipertexto" fue acuñado por Ted Nelson en 1965, en su artículo "A File
Structure for the Complex, the Changing, and the Indeterminate", que leyó durante la
vigésima conferencia anual de la Association of Computer Machinery (ACM). Ted Nelson
ideó un modelo para la interconexión de documentos electrónicos. El proyecto Xanadu
aún continúa luchando para conseguir un modelo de hipertexto superior al que trajo la
World Wide Web.

La World Wide Web fue inventada en 1989 por un informático del CERN (Organización
Europea de Investigación Nuclear) llamado Tim Berners-Lee.
Era un sistema de hipertexto para compartir información basado en Internet, concebido
originalmente para servir como herramienta de comunicación entre los científicos
nucleares del CERN. Tim Berners-Lee había estado experimentando con hipertexto desde
1980, año en que programó Enquire, un
programa para almacenar piezas de información
y enlazarlas entre ellas. Enquire se ejecutaba en
un entorno multiusuario y permitía acceder a
varias personas a los mismos datos. Tim
Berners-Lee entregó su propuesta al CERN en
1989, en septiembre de 1990 recibió el visto
bueno y junto con Robert Cailliau comenzó a
escribir el nuevo sistema de hipertexto. A finales
de 1990 el primer browser de la historia,
WorldWide Web, ya tenía forma.

Los documentos necesitaban un formato que fuera adecuado para su misión. En aquella
época casi todo el mundo utilizaba TeX y PostScript, pero éstos eran demasiado
complicados teniendo en cuenta que debían ser leídos por todo tipo de computadoras,
desde la terminales tontas hasta las estaciones de trabajo gráficas X-Windows. Así, tanto
el lenguaje de intercambio (HTML), como el protocolo de red (HTTP) se diseñaron para
ser realmente muy simples.

HTML son las siglas de "HyperText Mark-up Language". "Mark-up" es un término de
imprenta que significa el conjunto de instrucciones estilísticas detalladas escritas en un
manuscrito que debe ser tipografiado. Así, HTML podría ser traducido como "Lenguaje de
Formato de Documentos para Hipertexto". HTML es una aplicación de SGML, un lenguaje
muy general para definir lenguajes de formato de documentos.
A principios de 1993 había alrededor de 50 servidores. Existían básicamente dos tipos de
browsers: el original, gráfico, pero sólo para plataformas NeXT, y el browser en modo de
línea, preparado para cualquier plataforma pero muy limitado y muy poco atractivo. En
Febrero se lanzó la primera versión alfa del navegador "Mosaic for X", desarrollado en el
NCSA (National Center for Supercomputing Applications). Funcionaba en X Windows, que
era una plataforma popular entre la comunidad científica. En Abril el tráfico de la WWW
era el 0,1% del total de Internet. El CERN declaraba la WWW como tecnología de acceso
gratuito. En septiembre ya había versiones de Mosaic para PC y Macintosh. El tráfico
alcanzaba el 1% de todo el tráfico de Internet y había más de 500 servidores. Es el
comienzo del crecimiento explosivo de la Web. A finales del 94 ya había más de 10.000
servidores y 10 millones de usuarios. En 1997, más de 650.000 servidores.
Hoy, en 2003, la Web es algo cotidiano para una gran parte de los más de 600 millones
de usuarios de Internet que hay en todo el mundo. Sus utilidades son diversas, su impacto
en la economía mundial es apreciable. No sólo hay documentos de texto: hay imágenes,
vídeos, música, se pueden comprar cosas, se pueden hacer reservas...

La burbuja .com

El repentino bajo precio para llegar a millones de personas en el mundo, y la posibilidad
de vender y saber de la gente a que se vendía en el mismo momento, prometió cambiar el
dogma de negocio establecido en la publicidad, las ventas por correo, y muchas más
áreas. La web fue una nueva aplicación rompedora—podía juntar compradores y
vendedores sin relación previa de manera fluida y con bajo coste. Los visionarios
alrededor del mundo desarrollaron nuevos modelos de negocio, y se dirigieron a su
capitalista de riesgo más cercano. Por supuesto una proporción de los nuevos
empresarios tenían realmente talento en la administración de empresas y las ventas y
crecieron; pero la mayoría era simplemente gente con ideas, y no gestionaron el influjo de
capital prudentemente. Además, muchos planes de negocios .com estaban
fundamentados sobre el supuesto que usando Internet, evitarían los canales de
distribución de los negocios existentes y por tanto no tendrían que competir con ellos;
cuando los negocios establecidos con fuertes marcas desarrollaron su propia presencia
en Internet, estas esperanzas fueron destrozadas, y los recién llegados quedaron
abandonados en su negocio intentando romper los mercados dominados por negocios
más grandes y establecidos. Muchos no tuvieron la capacidad de hacerlo. Curs d’estiu
Com utilitzar Internet amb confiança i seguretat
La burbuja .com estalló el 10 de marzo de 2000, cuando el índice NASDAQ compuesto
fuertemente por valores tecnológicos hizo su máximo en 5048,62 (máximo intradía
5132,52), más del doble de su valor un año anterior. Para 2001, la deflación de la burbuja
estaba yendo a toda velocidad.

Qué es una página web?


Una página web se define como un documento electrónico el cual contiene información
textual, visual y/o sonora que se encuentra alojado en un servidor y puede ser accesible
mediante el uso de navegadores. Una página web forma parte de una colección de otras
páginas webs dando lugar al denominado sitio web el cual se encuentra identificado bajo
el nombre de un dominio.
La creación y desarrollo de una página web se realiza bajo un lenguaje de programación
capaz de ser interpretados por los navegadores, lenguajes como el HTML, PHP, ASP,
JSP o RUBY son ejemplos entre otros. Al inicio de la era de internet accesible, sobre los
años 90, era necesario el conocimiento de algún lenguaje de programación para el
desarrollo de una web, siendo una tarea encomendada a personas con altos
conocimientos informáticos, hoy en día contamos con software especializado capaz de
trabajar como un editor de texto ,estilo Word, que transforman toda la información
insertada en un lenguaje de programación capaz de ser interpretado por los navegadores,
de esta forma se liberalizó y se globalizó la creación de páginas webs con apenas unos
escasos conocimientos informáticos, programas como Dreamweaver, Amaya, Sharepoint
Designer o Mozilla Composer son entre otros los denominados WYSIWYG (acrónimo del
inglés " lo que ves es lo que obtienes") capaces de crear complejas páginas webs con el
entorno de un simple editor de texto.
Una vez que hemos creado y desarrollado nuestras páginas webs es necesario alojarlas
en un servidor el cuál lo podemos definir como un ordenador conectado constantemente a
la intranet privada o a internet cuyo objetivo es poder disponer de la página web a
cualquier hora del día. Para poder acceder al servidor es necesario el uso de programas
denominados clientes FTP, los cuales conectan el ordenador personal donde se ha
desarrollado la página con el servidor donde se alojará, Filezilla, FileFTP o Cute FTP son
entre otros ejemplos de clientes FTP.
Por último, una vez alojadas nuestras páginas webs estas son accesibles mediante el uso
de navegadores los cuales permiten visualizar correctamente la información alojada y
desarrollada, Chrome, Mozilla, Internet Explorer y Safari son entre otros ejemplos de
navegadores ampliamente utilizados.

Clasificación y tipos de páginas Web

Podemos agrupar o clasificar todas las páginas webs en 2 grandes grupos:
Webs estáticas.
Webs dinámicas.

Las webs estáticas son aquellas cuya información no varía en un tiempo a medio o a corto
plazo, también se las reconoce puesto que no interactúan con el usuario o navegante, su
lenguaje de programación está basado en HTML y están compuestas principalmente de
textos e imágenes.

Las webs estáticas fueron el primer tipo de páginas que aparecieron durante el desarrollo
y expansión de Internet, su creación y desarrollo es relativamente fácil al disponer de
programas estilos editores de texto que nos permiten programarlas sin tener conocimiento
ninguno sobre HTML, esto es una de las grandes ventajas que presentan este tipo de
páginas. Por otro lado cada vez que se necesite modificar alguna parte de la web es
necesario conectarse al servidor donde está alojado y subir los documentos modificados,
cosa que conlleva tiempo y esfuerzo.

Las webs dinámicas son aquellas que son capaces de interactuar con el usuario o
navegante dado a que están conectadas con bases de datos que permiten el desarrollo
de aplicaciones webs, su principal ventaja es la personalización de la web en función del
usuario así como la rapidez de modificación de los contenidos.

Este tipo de webs están desarrolladas bajo lenguajes de programación como PHP, ASP,
JSP o RUBY, el manejo de dichos lenguajes requiere de ciertos conocimientos
informáticos.
Las primeras webs dinámicas se crearon a principios de los años 90 a raíz de la
expansión y crecimiento exponencial que adquiría la Red y las nuevas necesidades que
se originaban, el inmenso volumen de información que existía necesitaba disponer de
buscadores al estilo Google, la venta por internet desencadenó el desarrollo de las
primeras webs de comercio electrónico como Amazon, por último la web 2.0 nos condujo
al desarrollo de las primeras redes sociales como Facebook lanzado en el año 2004.
Foros de opinión, redes sociales, tiendas virtuales, buscadores, gestores de emails o
aplicaciones empresariales alojadas en la nube, son entre otros ejemplos de webs
dinámicas.

Las webs dinámicas y estáticas pueden clasificarse a su vez en páginas webs:
Privadas
Públicas
Las páginas privadas son aquellas que solo
pueden acceder un número limitado de
personas que puedan ser identificadas y
reconocidas por el sistema de acceso,
mientras que las públicas son accesibles
por cualquier persona que disponga de una
conexión a Internet.

Hoy en día dentro de un mismo sitio web
existen las 4 clases de páginas descritas
anteriormente, por ejemplo el acceso a nuestra cuenta bancaria es una página dinámica
dado a que el saldo disponible cambia instantáneamente cuando realizamos una compra,
a su vez es una página privada puesto que su acceso está restringido a las personas que
puedan autentificarse mediante claves o password. Pero dentro de la página web de
nuestro banco encontramos páginas estáticas como direcciones de contacto o
información global sobre el sitio como las políticas de uso, a su vez estas páginas son
públicas dado a que se requiere ningún tipo de autentificación para acceder a ellas.

¿Qué son los Estándares Web?
Un estándar es un conjunto de reglas normalizadas que describen los requisitos que
deben ser cumplidos por un producto, proceso o servicio, con el objetivo de establecer un
mecanismo base para permitir que distintos elementos hardware o software que lo
utilicen, sean compatibles entre sí.
El W3C, organización independiente y neutral, desarrolla estándares relacionados con la
Web también conocidos como Recomendaciones, que sirven como referencia para
construir una Web accesible, interoperable y eficiente, en la que se puedan desarrollar
aplicaciones cada vez más robustas.
En la creación de las Recomendaciones del W3C participan sus Miembros (más de 400
organizaciones, distribuidas a lo largo de todo el mundo y de diversos ámbitos: grandes
empresas de hardware o software, centros investigadores, universidades,
administraciones públicas, etc.), el Equipo del W3C, expertos invitados, y cualquier
usuario de la Web que quiera mostrar su opinión. Todos ellos trabajan conjuntamente a
través de un proceso basado en el consenso, la neutralidad y la transparencia de la
información.
Algunos de los estándares Web más conocidos y ampliamente utilizados son: HTML
(HyperText Markup Language), para definir la estructura de los documentos; XML
(eXtensible Markup Language), que sirve de base para un gran número de tecnologías; y
CSS (Cascading Style Sheets), que permite asignar estilos para la representación de los
documentos.
¿Para qué sirven?
La finalidad de los estándares es la creación de una Web universal, accesible, fácil de
usar y en la que todo el mundo pueda confiar. Con estas tecnologías abiertas y de uso
libre se pretende evitar la fragmentación de la Web y mejorar las infraestructuras para que
se pueda evolucionar hacia una Web con la información mejor organizada.
Acceso Universal
El W3C se guía por los principios de accesibilidad, internacionalización, e independencia
de dispositivo, entre otros. Esto facilita que el acceso a la Web sea posible desde
cualquier lugar, en cualquier momento y utilizando cualquier dispositivo. No importa si se
utiliza hardware, software, o una infraestructura de red específica. Además de las posibles
restricciones técnicas, se tiene en cuenta la existencia de múltiples idiomas, las diversas
localizaciones geográficas, y las diferencias culturales o tradiciones, así como las posibles
limitaciones físicas, psíquicas o sensoriales de los usuarios.
La concienciación de que no todas las personas acceden a la Web de la misma forma,
permite centrarse en determinados colectivos que tienen necesidades concretas, como
pueden ser las personas de edad avanzada en el caso de limitaciones psíquicas, físicas o
sensoriales.
El avance de las tecnologías inalámbricas, así como la gran variedad de dispositivos con
acceso a la Web presentes en sectores como el
de la telefonía móvil, en el de automoción
(navegadores en los salpicaderos de
automóviles), en los electrodomésticos
(refrigeradores con pantallas táctiles) o en los
televisores, fomenta la ubicuidad de la
Web. Esto pone de manifiesto la
necesidad de utilizar tecnologías y
lenguajes unificados, libres y gratuitos, cuyo uso
no esté limitado por patentes comerciales.
Una Web con significado
Tradicionalmente, se podría considerar la Web
como un conjunto de documentos conexos entre sí a través de términos léxicos y
sintácticos. Estos documentos están expresados en lenguaje natural y contienen
contenido destinado a personas. Esto limita a las máquinas a la hora de procesar la
información de forma eficiente, ya que no pueden evitar las ambigüedades del lenguaje
natural. Gracias al nuevo enfoque del W3C, la Web evoluciona hacia lo que se denomina
Web Semántica, una ampliación de la Web tradicional, que ofrece mecanismos para
añadir significado a los recursos (documentos, imágenes, vídeos, etc.), de forma que
cualquier máquina pueda interpretar los datos existentes en la Web de una forma similar a
como lo hacen los humanos. La información no sólo está especificada como una serie de
información textual o gráfica inconexa entre sí, sino que la Web se puede considerar
como una gran base de datos organizada y estructurada teniendo en cuenta la naturaleza
semántica de los elementos que la componen.
La Web Semántica fomenta una mejora en el rendimiento y eficiencia de la Web, lo que
se transmite en una experiencia más satisfactoria para el usuario, el que obtendrá mayor
precisión en sus búsquedas y operaciones, y podrá tener acceso a mayores cantidades
de información específica y útil. De la misma forma, esta estructuración y tratamiento de
los datos más preciso evitará las tareas frustrantes y difíciles, como es la búsqueda,
obtención y mezcla de información desde distintas fuentes.
Confianza en la Web
La Web es un medio colaborativo, donde los usuarios interactúan creando contenidos (en
wikis, blogs o foros), realizan transacciones (compras online, operaciones bancarias), o
crean redes sociales (de amistad o laborales), donde se relacionan entre sí.
Estas actividades requieren que los usuarios confíen entre sí y han promovido el
desarrollo de ciertas tecnologías para asegurar esta confianza: firmas digitales de
documentos que fomentan la responsabilidad de las personas que se declaran autores de
estos; encriptación de los datos para la confidencialidad; y mecanismos de
establecimiento y declaración de las políticas de privacidad de los datos de los sitios Web.
¿Cómo funcionan?
La creación de un estándar Web requiere un proceso controlado, que consta de varias
etapas que aseguran la calidad de la especificación. Este proceso permite la intervención
de todos los usuarios de las tecnologías, con el objetivo de que puedan aportar su
conocimiento y opiniones para la mejora de los documentos.
Tras este proceso, elaborado por especialistas en la materia, se obtienen unos
estándares de calidad, y al estar disponible para todo el mundo, las especificaciones se
depuran exhaustivamente antes de ser consideradas como Recomendación.
Estos estándares, están sujetos a la Política de Patentes del W3C, lo que permite que
sean utilizados libremente por toda la comunidad Web. Al utilizar las mismas tecnologías,
las máquinas se entienden entre sí y cualquier usuario puede interactuar con el resto.
VRML

VRML (sigla del inglés Virtual Reality Modeling Language. "Lenguaje para Modelado de
Realidad Virtual") - formato de archivo normalizado que tiene como objetivo la
representación de escenas u objetos interactivos tridimensionales; diseñado
particularmente para su empleo en la web. Se usa por medio de comandos en inglés, los
cuales agregan y determinan las características.
El lenguaje VRML posibilita la descripción de una escena compuesta por objetos 3D a
partir de prototipos basados en formas geométricas básicas o de estructuras en las que
se especifican los vértices y las aristas de cada polígono tridimensional y el color de su
superficie. VRML permite también definir objetos 3D multimedia, a los cuales se puede
asociar un enlace de manera que el usuario pueda acceder a una página web, imágenes,
vídeos u otro fichero VRML de Internet cada vez que haga click en el componente gráfico
en cuestión.
El Consorcio Web3D fue creado para desarrollar este formato. Su primera especificación
fue publicada en 1995; la versión actual funcionalmente completa es la VRML 97 (ISO/IEC
DIS 14772-1).
VRML, es la base en la que se ha desarrollado X3D - Extensible 3D.




Blogs, wikis y Google sites

Un blog es un sitio web que recopila cronológicamente textos, artículos e impresiones de
uno o varios usuarios sobre una temática común. Los contenidos publicados, además de
en formato texto, también pueden ser multimedia (imágenes, audios, vídeos, etc.).
Por lo tanto un blog puede definirse de forma sencilla como un sitio web donde el usuario
publica fácilmente artículos o post (así se llaman en el argot), y en el que los lectores
pueden opinar sobre los artículos/post publicados siendo esta interactividad una de las
grandes ventajas y diferencias respecto a la edición de contenidos en una página web. El
autor o editor del blog recibe el nombre de webblogger o blogger.

WIKIS
El Wiki es otra de las muchas herramientas Web 2.0 de interés para el ámbito educativo
por las grandes posibilidades que ofrece a la hora de facilitar la compartición y
construcción conjunta de conocimiento.
Wiki se le llama a un sitio web formado por una serie de páginas enlazadas entre sí, que
de forma colaborativa se pueden crear, modificar o borrar por los usuarios. De su facilidad
y rapidez para crear, modificar o borrar estas páginas viene su nombre (“wiki wiki” en
hawaiano significa “rápido”). En este contexto, la aplicación más conocida es la de las
enciclopedias colaborativas, a la que pertenece la Wikipedia y todas sus versiones
idiomáticas.
GOOGLE SITES
Google Sites es una herramienta gratuita y en línea que permite crear un sitio web de
grupo de una forma muy sencilla. En esta página se van a poder incluir elementos
textuales y visuales como vídeos, presentaciones o archivos adjuntos. Google Sites forma
parte de las herramientas creadas por Google y que se vinculan entre sí, como Gmail
(correo electrónico), Picasa (galería de fotografías), Google Docs (documentos en línea) y
muchas otras soluciones de la factoría Google.
Además, de la misma manera que en la mayoría de las aplicaciones de la factoría Google,
va a ser posible compartir esta página y editarla con un grupo reducido de personas, todo
el centro o publicarla en Internet sin restricciones